Web Analytics Made Easy - Statcounter

سعیده بابایی

 هوش مصنوعی در حوزه های مختلفی باعث انجام خودکار بسیاری از کارها شده و این روند در حال گسترش است. یکی از مهمترین پرسش ها که در حوزه های مطالعات اخلاقی و حقوقی هوش مصنوعی مطرح می شود، این است که مسئول خطاهای سرزده از این سیستم های هوشمند کیست؟

 هوش مصنوعی در حوزه های مختلفی باعث انجام خودکار بسیاری از کارها شده است.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

 

فهم رابطه‌ای‌ از مسئولیت موجب می‌شود متخصصان و اپراتورهای هوش مصنوعی بدانند که در حال انجام چه کاری هستند و همچنین تمایل پیدا کنند که با مخاطبان عمل اخلاقی ارتباط برقرار کرده و برای کنش‌های خود دلیل و تبیین ارائه کنند. همچنین، از عواقب ناخواسته و اهمیت اخلاقی فعالیت‌های خود آگاهی بیشتری داشته باشند.

برای بررسی مسئله واگذاری مسئولیت به هوش مصنوعی، ابتدا به سراغ شروطی می‌رویم که ارسطو برای آن ذکر می‌کند؛ 1) شرط کنترل[1] و 2) شرط معرفت[2]. مشکلی که در نظریه ارسطو با آن مواجهیم این است که ارسطو تکنولوژی را صرفا یک ابزار می‌داند و معتقد است فقط انسان می‌تواند مسئولیت اخلاقی داشته باشد. این فرض‌ هنوز هم پرطرفدار است که حتی اگر عاملیت هوش مصنوعی بیشتر شود، باز هم این عامل انسانی است که همواره مسئولیت کارها را بر عهده دارد و می‌تواند عامل اخلاقی باشد. به علاوه، ارسطو تنها روی عامل اخلاقی متمرکز می‌شود و جنبه رابطه‌ای مسئولیت و مخاطب عمل[3] اخلاقی را مطالعه نمی‌کند. در این گزارش به زاویه نگاه مخاطب عمل هوش مصنوعی و اهمیت توجه به کاربران و نیازهای آنها و شیوه‌های مختلف رفع این نیازها می‌پردازیم.

شرط کنترل

یعنی اثری را آزادانه و از روی اراده با عمل خود ایجاد ‌کنی و درجه کافی از کنترل را روی این عمل داشته باشی.

تکنولوژی به دلیل اینکه در شکل دادن عمل انسان تأثیرگذار است، نه مسئول است و نه غیر مسئول؛ بلکه در مسئولیت انسانی دارای مدخلیت است.

 

چنین عملی داوطلبانه صورت می‌گیرد و از میان گزینه‌های دیگری که برای انجام دادن وجود دارد، انتخاب می‌شود. نکته‌ای که در رابطه با شرط کنترل وجود دارد، این است که تکنولوژی به دلیل اینکه در شکل دادن عمل انسان تأثیرگذار است و ابزار صرف نیست، تا حدی بر محدوده کنترل انسان تأثیر می‌گذارد و آن را تعیّن می‌بخشد. پس تکنولوژی در این رویکرد نه مسئول است و نه غیر مسئول؛ بلکه در مسئولیت انسانی دارای مدخلیت است. در اینجا برای روشن‌تر شدن بحث به مرور چند سؤال می‌پردازیم:

آیا انسان‌ها همیشه می‌توانند مسئولیت استفاده از هوش مصنوعی را بر عهده بگیرند؟

ممکن است انسان نتواند کنترل کافی را روی هوش مصنوعی داشته باشد و مسئله شکاف مسئولیت[4] به وجود بیاید. برای مثال، ماشین‌های یادگیرنده خودمختار[5] یا خودروهای خودران هنگامی که در موقعیت تصادف یا موقعیت‌های پرمخاطره و ناگهانی دیگر قرار می‌گیرند، ممکن است به انسان فرصت کافی برای نشان دادن واکنش ندهند.

ممکن است انسان نتواند کنترل کافی را روی هوش مصنوعی داشته باشد و مسئله شکاف مسئولیت به وجود بیاید.

 

در بسیاری از موارد مشابه دیگر که تکنولوژی عملکرد اتوماتیک نشان می‌دهد، انسان نمی‌تواند تصمیم نهایی را بگیرد. در چنین مواقعی مسئولیت با چه کسی است؟ آیا مجازیم که چنین ماشین‌ها و موقعیت‌هایی را بسازیم که جایی برای عاملیت انسانی باقی نمی‌گذارند (مواردی مانند اتوپایلوت در پرواز یا واکنش خودمختار نرم‌افزارهای طراحی‌شده برای پاسخ به حملات سایبری)؟ آیا باید حد و مرزی را برای میزان اتوماسیون ماشین‌های هوشمند تعیین کرد؟

کدام انسان‌ها مسئول استفاده از هوش مصنوعی هستند؟

معمولاً برای انجام یک کار یا در ایجاد شدن یک اثر چند فرد درگیر هستند و یک فرد را نمی‌توان مسئول کل فرایند دانست. به همین خاطر، واگذاری مسئولیت میان عاملان متعددِ درگیر در تولید خروجی، کاری دشوار خواهد بود. این مسئله را مسئله دست‌های بسیار[6] می‌نامیم. یک پاسخ برای این مسئله، این است که مسئولیت را توزیع کنیم. اما در عمل چطور می‌شود این کار را انجام داد؟ مرزها و محدوده‌های مساهمت عامل‌های مختلف و روابط آنها معمولاً مبهم است و نیاز به موشکافی‌های دقیق دارد؛ به خصوص در مورد عواقب اخلاقی تکنولوژی‌های نوظهوری نظیر هوش مصنوعی که امکان خودمختاری برای آنها متصور است و پیش از این تأملات اخلاقی کافی درباره چنین مواردی صورت نگرفته است.

زمان چه نقشی در واگذاری مسئولیت دارد؟

توزیع مسئولیت، علاوه بر ملاحظاتی که مطرح شد یک بعد زمانی هم دارد؛ اینکه چه کسی چه کاری را در چه زمانی انجام داده است. زنجیره عاملان انسانی دخیل در توسعه هوش مصنوعی زنجیره‌ای طولانی است.

در فرایند تولید، انتخاب و پردازش داده‌ها برای آموزش دادن سیستم‌های هوشمند، عامل‌های انسانی متعددی در زمان‌ها و مکان‌‌های مختلف درگیر هستند.

 

در فرایند تولید، انتخاب و پردازش داده‌ها برای آموزش دادن سیستم‌های هوشمند، عامل‌های انسانی متعددی در زمان‌ها و مکان‌‌های مختلف درگیر هستند. همچنین، یک نرم‌افزار هوش مصنوعی ممکن است برای اهداف مختلف و در زمان‌های مختلف به‌کار گرفته شود (برای مثال از یک سیستم هوشمند که برای تشخیص چهره طراحی شده، می‌توان هم در پزشکی در هم در پایش و نظارت استفاده کرد). علاوه بر کاربرد و توسعه هوش مصنوعی، حفظ و نگهداری از آن هم امر مهمی است.

اگر نگهداری از هوش مصنوعی مسئولانه نباشد، مسئولیت‌ها را نمی‌توان به درستی توزیع کرد.

 

اگر نگهداری از هوش مصنوعی مسئولانه نباشد، به این معنا که نتوان مسیر علّی عملکرد آن را ردیابی کرد، مسئولیت‌ها را نیز نمی‌توان به درستی توزیع کرد. پس واگذاری مسئولیت نیازمند این است که مسیر علّی عملکرد آن قابل ردیابی باشد.

مسئله چیزهای بسیار

در بررسی عواقب اخلاقی و اجتماعی تکنولوژی، علاوه بر مسئله دست‌های بسیار، با مسئله چیزهای بسیار[7] نیز مواجهیم.

واگذاری مسئولیت نیازمند این است که مسیر علّی عملکرد آن قابل ردیابی باشد.

 

در فرایندهای مربوط به هوش مصنوعی و کارکردهایی که برای این تکنولوژی قابل تصور است، نرم‌افزارها و تکنولوژی‌های مختلفی ممکن است درگیر باشند. برای مثال ممکن است علت یک تصادف هوایی که در آن از سیستم‌های هوشمند استفاده شده است، تعامل یک سنسور خراب با نرم‌افزار باشد. چراکه نرم‌افزار تاریخ علّی طولانی‌ای را از تولید تا کاربرد از سر گذارنده و با چیزهای بسیاری در تعامل بوده است.

برای تعیین مسئولیت باید همه روابط ساختاری و زمانی را توأمان در نظر گرفت؛ روابط انسان‌ها با یکدیگر و رابطه آنها با چیزها و روابط چیزها با یکدیگر، باید به طور مجزا مورد بررسی قرار گیرد. 

 

برای تعیین مسئولیت باید همه روابط ساختاری و زمانی را توأمان در نظر گرفت؛ روابط انسان‌ها با یکدیگر و رابطه آنها با چیزها و روابط چیزها با یکدیگر، باید به طور مجزا مورد بررسی قرار گیرد. همیشه لزوماً هوش مصنوعی، علت بروز خطا و عواقب ناخواسته نیست. ممکن است جزء دیگری از سیستم تکنولوژیکی، منشأ خطا باشد. مرز میان تکنولوژی‌های هوشمند با تکنولوژی‌های دیگر نیز در بسیاری از موارد واضح نیست. بنابراین، لازم است که مشخص کنیم چه عناصر تکنیکی دیگری در سیستم وجود دارند، نحوه تعامل آنها چگونه است، چطور در مسئله مشارکت دارند، رابطه آنها با انسان‌ها چگونه است.

کاربر باید بداند چه میزان در استفاده از این تکنولوژی آزادی دارد.

 

همچنین، باید مشخص شود که آیا کاربر نهایی در جریان است که در حال استفاده از تکنولوژی است که در آن هوش مصنوعی به خدمت گرفته شده است. ضمن اینکه کاربر باید بداند چه میزان در استفاده از این تکنولوژی آزادی دارد. این ملاحظه ما را به مسئله معرفت در مسئولیت می‌رساند که در قسمت بعد درباره آن صحبت می‌کنیم.

ادامه دارد ...

 [1] control

[2] knowledge

[3] patient

[4] Responsibility gap

[5] Autonomous learning machine

[6] The problem of many hands

[7] The problem of many things

منبع اولیه متن: مقاله «هوش مصنوعی، واگذاری مسئولیت، و توجیهی رابطه‌ای از تبیین‌پذیری» نوشته مارک کوکلبرگ در سال 2020

Coeckelbergh, Mark., 2020. Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability, Science and Engineering Ethics. 26: 2051-2068.

مترجم: دکتر سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن.

منبع ثانویه: وبگاه پژوهشگاه مجازی

انتهای پیام/

از شما صاحبنظر گرامی در حوزه تعلیم و تربیت هم دعوت می کنیم، از نویسندگان، ممیزان و اعضای هیئت تحریریه پنجره تربیت باشید. برای ارسال مطالب و عضویت در هیئت تحریریه، از طریق ایمیل FarsPanjarehTarbiat@gmail.com مکاتبه فرمائید.

 

منبع: فارس

کلیدواژه: توزیع مسئولیت مسئولیت پذیری کنترل سیستم های هوشمند واگذاری مسئولیت هوش مصنوعی انسان ها ی عملکرد

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.farsnews.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «فارس» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۵۲۹۰۴۸ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

خبری که جهان را نگران کرد؛ پرواز اولین جنگنده اف-۱۶ مجهز به هوش مصنوعی!

زی‌سان: فرانک کندال، وزیر نیروی هوایی ایالات متحده روز پنجشنبه پروازی آزمایشی با مدل جدیدی از جت جنگنده اف-۱۶ این کشور انجام داد. این هواپیما مجهز به یک هوش مصنوعی است که جنگنده را کنترل می‌کند و نیازی به خلبان ندارد.

کندال پس از فرود جنگنده در کالیفرنیا گفت که به هوش مصنوعی این جنگنده برای شلیک سلاح در زمان لازم اعتماد دارد.

سامانه هوش مصنوعی این جنگنده مجهز به تعدادی رایانه و در مرحله آزمایش و «یادگیری پرواز» به روشی امن است. این پرواز اعتمادی نمادین به نقش آینده هوش مصنوعی در نبرد‌های هوایی آمریکا محسوب می‌شود.

فرانک کندال در این باره گفت: «ما تمایل داریم از هوش مصنوعی استفاده کنیم و آن را به عنوان یک چیز مستقل تصور می‌کنیم. [هوش مصنوعی]واقعا نرم افزاری است که کار را پیش می‌برد. وظایف بسیار پیچیده‌ای را انجام می‌دهد و از فناوری‌های جدیدی استفاده می‌کند که شامل محاسبات بسیار قدرتمند و ریاضیات پیشرفته برای حل مسائلی است که قبلاً نمی‌شد با رایانه حل کرد.»

ارتش آمریکا قصد دارد از این فناوری برای بهره برداری از یک ناوگان هوایی بدون سرنشین ۱۰۰۰ هواپیما و پهپاد استفاده کند.

کندال اضافه کرد: «ما قادر خواهیم بود از این هواپیما‌های بدون خدمه به روشی تاکتیکی در شرایطی که نمی‌خواهیم از خدمه استفاده کنیم، بهره ببریم. البته دور انداختنی نیستند و ما آنها را دور نمی‌اندازیم. ما قصد داریم از آنها استفاده‌های مجدد کنیم. هدف این است. اما می‌توانیم از آنها به عنوان ماشه استفاده کنیم و آنها را در جا‌هایی قرار دهیم که عمداً برخی از آنها قربانی شوند تا آتش طرف مقابل را تحریک کنند و محل استقرار دشمن را ردیابی کنیم؛ و به طور کلی فکر می‌کنم خلبانان ما از اینکه رقیب جدیدی داشته باشند خوشحال می‌شوند.»

نگرانی عمیق در خصوص تسلیحات مجهز به هوش مصنوعی

کارشناسان صاحب نظر در امور تسلیحات و گروه‌های بشردوستانه عمیقاً نگران هستند که ادوات جنگی مجهز به هوش مصنوعی روزی بتواند به طور مستقل با پرتاب و شلیک بمب‌ها و مهمات، و بدون دخالت و تصمیم همه جانبه انسان، باعث کشتار شوند. از این رو آنان به دنبال محدودیت‌های بیشتر در استفاده از این گونه تسلیحات هستند.

اگرچه نظارت انسانی در استفاده از سلاح‌ها همیشه وجود خواهد داشت، اما نگرانی‌های گسترده و جدی در مورد واگذاری تصمیم مرگ و زندگی به حسگر‌ها و نرم افزار‌ها همچنان به قوت خود باقی است و یک واکنش سیاسی فوری و بین‌المللی می‌طلبد.

روی آوردن ارتش‌ها به هواپیما‌های مجهز به هوش مصنوعی ناشی از نیاز آنان به امنیت، هزینه و نیز قابلیت‌های استراتژیک است.

به عنوان مثال، اگر آمریکا و چین روزی وارد جنگ شوند، ناوگان امروزی نیروی هوایی متشکل از جنگنده‌های گران قیمت و سرنشین‌دار هر دو طرف در سایه پیشرفت‌های فعلی در سیستم‌های جنگ الکترونیک، فضا و نیز دفاع هوایی آسیب پذیر خواهند بود.

نیروی هوایی چین در حال پیشی گرفتن از ایالات متحده و در حال جمع آوری ناوگانی از پرنده‌های جنگی بدون سرنشین است.

tags # اسلحه و جنگ افزار ، هوش مصنوعی سایر اخبار (تصاویر) این گوسفند غول‌پیکر چینی از پورشه هم گران‌تر است! قارچ‌های زامبیِ سریال آخرین بازمانده (The Last Of Us) واقعی هستند! (تصاویر) عجیب و باورنکردنی؛ اجساد در این شهر خود به خود مومیایی می‌شوند آخرین حسی که افراد در حال مرگ از دست می‌دهند، چه حسی است؟

دیگر خبرها

  • خبری که جهان را نگران کرد؛ پرواز اولین جنگنده اف-۱۶ مجهز به هوش مصنوعی!
  • مکتب امام صادق مکتب انسان ساز و مسئولیت پذیری است
  • هوشمندسازی ساختمان: خانه‌ای که فراتر از تصورات شماست
  • اولین موزیک‌ ویدئوی رسمی با هوش مصنوعی ساخته شد
  • آمریکا از چین و روسیه خواست کنترل سلاح‌های هسته‌ای را به «هوش مصنوعی» نسپارند
  • عفاف و حجاب حافظ زندگی انسان‌ها است
  • ضرورت استفاده از تکنولوژی هوش مصنوعی در علوم‌ پزشکی
  • مسئولیت علم در کلاس امام صادق(ع)
  • مغز انسان شبیه‌سازی شد
  • مغز انسان به شکلی بی‌نظیر شبیه‌سازی شد