پرش به محتوا

اخلاق ربات

از ویکی‌پدیا، دانشنامهٔ آزاد

اخلاق ربات، که گاهی به عنوان " روبوتیک " شناخته می‌شود، مربوط به مشکلات و مسایل اخلاقی است که در رابطه با ربات‌ها رخ می‌دهد، مسایلی مانند این که آیا ربات‌ها در طولانی مدت یا کوتاه مدت تهدیدی برای انسان به حساب می‌آیند، آیا بعضی از کاربرد های ربات‌ها مشکل ساز هستند (مانند استفاده از ربات‌ها در بهداشت و درمان یا به عنوان "ربات‌های قاتل" در جنگ)، و ربات‌ها چگونه باید طراحی شوند که "اخلاقی" عمل کنند (موضوع آخری که مطرح شد اخلاق ماشینی نیز نامیده می‌شود). متناوباً، روبوتیک به‌طور خاص به اصول اخلاقی رفتار انسان نسبت به ربات‌ها اشاره دارد، زیرا ربات‌ها مدام وبه طور فزاینده ای در حال پیشرفت هستند.[۱] اخلاق ربات زیرمجموعه ای از اخلاق فناوری، به ویژه فناوری اطلاعات است و ارتباط تنگاتنگی با موضوعات حقوقی و همچنین اقتصادی-اجتماعی دارد. محققان از مناطق مختلف شروع به حل مسایل اخلاقی در مورد ایجاد فناوری رباتیک و پیاده‌سازی آن در جوامع می‌کنند، به روشی که هنوز امنیت نژاد بشر را تضمین می‌کند.[۲]

در حالی که این موضوعات به اندازه کلمه ربات قدیمی هستند، بحث‌های جدی آکادمیک از سال ۲۰۰۰ آغاز شد. اخلاق ربات نیاز به تعهد ترکیبی از متخصصان چندین رشته دارد، متخصصانی که باید قوانین و مقررات را با مشکلات ناشی از دستاوردهای علمی و فناوری در رباتیک و هوش مصنوعی تنظیم کنند. زمینه‌های اصلی دخیل در اخلاق ربات عبارتند از: رباتیک، علوم کامپیوتر، هوش مصنوعی، فلسفه، اخلاق، الهیات، زیست‌شناسی، فیزیولوژی، علوم شناختی، علوم اعصاب، حقوق، جامعه‌شناسی، روان‌شناسی و طراحی صنعتی.

تاریخ و وقایع

[ویرایش]

برخی از بحثهای اصلی اخلاق در رابطه باپرداختن به مسایل غیرانسانی یا غیر بیولوژیکی و «معنویت» بالقوه آنها می‌باشد. موضوع اصلی دیگر، مربوط به توسعه ماشین آلات و سرانجام ربات‌ها است، این فلسفه در مورد رباتیک نیز استفاده شده‌است. یکی از اولین نشریاتی که به‌طور مستقیم به آن پرداخته و بنیان اخلاقی ربات را پایه‌گذاری کرده‌است، دوراهی (داستان) است، یک داستان کوتاه علمی تخیلی که توسط آیزاک آسیموف در سال ۱۹۴۲ نوشته شده و شامل سه قانون رباتیک معروف است. نوشته شده و شامل سه قانون رباتیک معروف است. این سه قانون به‌طور مداوم توسط آسیموف تغییر می‌یافت، و قانون چهارم یا صفر در نهایت به سه قانون اول، در متن کارهای علمی تخیلی او، اضافه شد. اصطلاح کوتاه «روبوتیک» به احتمال زیاد توسط جانمارکو وروجیو ابداع شده‌است.

یک رویداد مهم که نگرانی روبوتیک را برانگیخت، اولین همایش بین‌المللی روباتیک در سال ۲۰۰۴ با تلاش مشترک Scuola di Robotica، آزمایشگاه هنر Scuola Superiore Sant'Anna، پیزا، و مؤسسه الهیات Pontificia Accademia della Santa Croce، رم.[۳] "پس از دو روز بحث شدید، انسان‌شناس Daniela Cerqui سه موضع اخلاقی اصلی را که ناشی از دو روز مناظره پرتنش و شدید بود را شناسایی کرد:

  1. کسانی که علاقه ای به اخلاق ندارند. آنها فکر می‌کنند که اقداماتشان کاملاً فنی است و فکر نمی‌کنند مسئولیت اجتماعی یا اخلاقی در کارشان داشته باشد.
  2. کسانی که به سوالات اخلاقی کوتاه علاقه‌مند هستند. مطابق این مشخصات، سوالات به صورت "خوب" یا "بد" بیان می‌شوند و به برخی از ارزشهای فرهنگی اشاره دارند. به عنوان مثال، آنها احساس می‌کنند که ربات‌ها باید به قراردادهای اجتماعی پایبند باشند. این شامل "احترام" و کمک به انسان در زمینه‌های مختلف مانند اجرای قوانین یا کمک به افراد مسن است. (چنین ملاحظاتی مهم است، اما باید بخاطر داشته باشیم که مقادیر استفاده شده برای تعریف "بد" و "خوب" نسبی هستند. آنها ارزشهای معاصر کشورهای صنعتی هستند).
  3. کسانی که در مورد سوالات اخلاقی بلند و مفصل فکر می‌کنند، مثلاً دربارهٔ "شکاف دیجیتالی" بین جنوب و شمال، یا پیر و جوان. آنها از شکاف بین کشورهای صنعتی و فقیر آگاه هستند، و تعجب می‌کنند که آیا کشورهای صنعتی نباید روش خود را در توسعه رباتیک تغییر دهند تا برای جنوب مفیدتر باشد. آنها سوالات را به‌طور صریح بیان نمی‌کنند، اما ما می‌توانیم آن هارا به صورت التزامی و مفهومی بررسی کنیم ".[۴]

دانشمند کامپیوتر ،ویرجینیا دینگوم، در شماره اخلاق و فناوری اطلاعات در مارس ۲۰۱۸ اظهار داشت که نگرش عمومی جامعه نسبت به هوش مصنوعی، در دوران مدرن، از مشاهده آن به عنوان ابزار و دیدن آن به عنوان یک «هم تیمی» هوشمند دور شده‌است. در همان مقاله، وی با توجه به هوش مصنوعی بررسی کرد که، متفکران اخلاق سه هدف دارند که به عقیده او در دوران مدرن هریک می‌تواند با تأمل و تفکر دقیق محقق شود.[۹][۱۰][۱۱][۱۲][۱۳] سه هدف اخلاقی به شرح زیر است:

  • اخلاق با طراحی (ادغام فنی / الگوریتمی توانایی استدلال اخلاقی به عنوان بخشی از رفتار سیستم خودمختار مصنوعی - به اخلاق ماشین مراجعه کنید)؛
  • اخلاق در طراحی (روشهای نظارتی و مهندسی که از تجزیه و تحلیل و ارزیابی پیامدهای اخلاقی سیستمهای هوش مصنوعی پشتیبانی می‌کنند زیرا اینها ساختارهای اجتماعی سنتی را یکپارچه یا جایگزین می‌کنند)؛ و
  • اخلاق برای طراحی (کدهای رفتاری، استانداردها و فرایندهای صدور گواهینامه که از یکپارچگی توسعه دهندگان و کاربران هنگام تحقیق، طراحی، ساخت، به‌کارگیری و مدیریت سیستم‌های هوشمند مصنوعی اطمینان می‌یابد - به اخلاق و قانون ربات در زیر مراجعه کنید).[۱۴]

در فرهنگ عامه

[ویرایش]

روبوتیک به عنوان یک موضوع علمی یا فلسفی، موضوعی رایج در ادبیات و فیلم‌های علمی تخیلی است. فیلم ماتریکس یکی از فیلمهایی است که می‌توان ادعا کرد در فرهنگ پاپ ریشه دارد که ژانر ویرانشهر در آینده را که بااستفاده از هوش مصنوعی رباتیک رخ می‌دهد به تصویر می‌کشد، در این فیلم انسانها و هوش مصنوعی آگاهانه برای کنترل سیاره زمین تلاش می‌کنند و منجر به نابودی بیشتر نژاد بشر می‌شود. . انیماتریکس، یک فیلم انیمیشن براساس ماتریکس است که به شدت بر روی مسائل اخلاقی و ناامنی‌های بین انسان و ربات متمرکزشده است. این فیلم به داستانهای کوتاه تبدیل شده‌است. انیمیشن‌های کوتاه انیماتریکس نیز به نام داستانهای آیزاک آسیموف نامگذاری شده‌اند.

وجه دیگر اخلاق در ربات که در فیلم‌ها و نمایش‌های تلویزیونی متعددی مورد بررسی قرار گرفته‌است به‌طور خاص مربوط به رفتار انسانها با ربات‌ها می‌باشد. یک نمونه از این موارد فیلم پیشتازان فضا می‌باشد که در این فیلم نسل بعدی دارای یک اندروید انسان نما به نام دیتا است که دیتا به عنوان یکی از شخصیت‌های اصلی فیلم است. در بیشتر موارد، در انجام ماموریت‌های حیاتی و حساس او به عنوان یک فرد مورد اعتماد است، اما توانایی او در تطابق با موجودات زنده دیگر اغلب زیر سؤال می‌رود.[۱۵] اخیراً، فیلم اکس ماکینا (فراماشین) و نمایش تلویزیونی وست ورلد (سریال جهان غرب) با به تصویر کشیدن ربات‌های واقع گرایانه که انسانها با آنها به عنوان کالاهای بی‌ارزش رفتار می‌کنند، به‌طور مستقیم این سوالات اخلاقی رابه کار گرفته‌اند.[۱۶][۱۷] سوالات پیرامون رفتار موجودات مهندسی شده نیز بیش از ۵۰ سال است که جز کلید اصلی بلید رانر (حق رای دادن) است.[۱۸] فیلم‌هایی مانند او حتی با حذف جنبه فیزیکی و تمرکز بر احساسات، رابطه انسان با ربات‌ها را بیشتر استخراج کرده‌اند.

رفتار اخلاقی ربات‌ها اگرچه به خودی خود بخشی از روبوتیک نیست، اما در فرهنگ عامه موضوعی الحاقی در روبتیک است. مجموعه نابودگر روی ربات‌هایی که توسط یک برنامه آگاهانه هوش مصنوعی اجرا می‌شوند و هیچ محدودیتی در خاتمه دادن به دشمنان ندارند تمرکز دارد. این مجموعه نیز دارای همان الگوهای سزیال ماتریکس است، که ربات‌ها کنترل را به دست گرفته‌اند. یکی دیگر از موارد مشهور فرهنگ پاپ ربات‌ها یا هوش مصنوعی بدون اخلاق و اخلاق برنامه‌ریزی شده، هال ۹۰۰۰ در مجموعه ادیسه فضایی است، جایی که هال (رایانه ای با قابلیت‌های پیشرفته هوش مصنوعی است که در ایستگاه فضایی به انسان نظارت و کمک می‌کند) برای اطمینان از موفقیت در مأموریت تعیین شده پس از تهدید حیات خود همه انسانهای موجود در آن ایستگاه فضایی را می‌کشد.

اخلاق و قانون ربات

[ویرایش]

با مطرح شدن مسائل فن آوری معاصر همزمان با فشار جامعه، یکی از موضوعاتی که نیاز به تأمل و تفکر کامل دارد، اخلاق ربات در رابطه با قانون است. دانشگاهیان دربارهٔ روند چگونگی ایجاد قانون گذاری دولتمردان در رابطه با اخلاق و قانون ربات بحث کرده‌اند. دو دانشمندی که این سوالات را پرسیده‌اند عبارتند از: نیل ریچاردز، استاد حقوق در دانشگاه واشینگتن در سنت لوئیس و همچنین ویلیام دی. اسمارت، دانشیار علوم کامپیوتر در دانشگاه واشینگتن در سنت لوئیس. آنها در مقاله خود با عنوان «چگونه ربات‌ها باید دربارهٔ قانون فکر کنند» چهار ادعای اصلی در مورد اخلاق و قانون ربات مطرح می‌کنند. اساس استدلال آنها تعریف ربات به عنوان «عوامل خودمختار غیر بیولوژیکی است که فکر می‌کنیم جوهره چالش‌های نظارتی و فناوری موجود در ربات‌ها را شامل می‌شود و می‌توانند اساس مقررات آن باشند.» است. ادعای دوم، ظرفیت‌های پیشرفته آینده ربات‌ها را در مدت زمان حدود یک دهه بررسی می‌کند. ادعای سوم آنها در رابطه با مسائل حقوقی اخلاق ربات و تجارب حقوقی با تجارب حقوقی قانون سایبری را بحث می‌کند. به این معنی که قوانین اخلاق ربات می‌تواند به دنبال قانون سایبری برای راهنمایی باشد. «درسی» که از قانون سایبری یادگرفته می‌شود، اهمیت استعاره‌هایی است که در مسائل نوظهور در فناوری می‌فهمیم. این امر بر این اساس استوار است که اگر استعاره را اشتباه بفهمیم، قانونگذاری پیرامون مسئله فناوری نوظهور به احتمال زیاد نادرست است. چهارمین ادعایی که آنها علیه آن استدلال می‌کنند استعاره ای است که این دو دانشمند به عنوان «مغالطه اندروید» تعریف می‌کنند. آنها علیه این ادعا بحث می‌کنند که این ادعا بیان می‌کند انسان‌ها و موجودات غیر بیولوژیکی «دقیقاً مانند مردم» هستند

جستارهای وابسته

[ویرایش]

منابع

[ویرایش]
  1. Veruggio, Gianmarco; Operto, Fiorella (2008), Siciliano, Bruno; Khatib, Oussama (eds.), "Roboethics: Social and Ethical Implications of Robotics", Springer Handbook of Robotics (به انگلیسی), Springer Berlin Heidelberg: 1499–1524, doi:10.1007/978-3-540-30301-5_65, ISBN 978-3-540-30301-5
  2. "Robot Ethics". IEEE Robotics and Automation Society (به انگلیسی). Retrieved 2017-06-26.
  3. "ROBOETHICS Cover". www.roboethics.org. Retrieved 2020-09-29.
  4. http://www.roboethics.org/icra2005/veruggio.pdf
  5. "Saudi Arabia gives citizenship to a non-Muslim, English-Speaking robot". Newsweek. 26 October 2017.
  6. "Saudi Arabia bestows citizenship on a robot named Sophia". TechCrunch. October 26, 2017. Retrieved October 27, 2016.
  7. "Saudi Arabia takes terrifying step to the future by granting a robot citizenship". AV Club. October 26, 2017. Retrieved October 28, 2017.
  8. "Saudi Arabia criticized for giving female robot citizenship, while it restricts women's rights - ABC News". Abcnews.go.com. Retrieved 2017-10-28.
  9. Rahwan, Iyad (2018). "Society-In-the-Loop: Programming the Algorithmic Social Contract". Ethics and Information Technology. 20: 5–14. arXiv:1707.07232. doi:10.1007/s10676-017-9430-8.
  10. Bryson, Joanna (2018). "Patiency Is Not a Virtue: the Design of Intelligent Systems and Systems of Ethics". Ethics and Information Technology. 20: 15–26. doi:10.1007/s10676-018-9448-6.
  11. Vamplew, Peter; Dazeley, Richard; Foale, Cameron; Firmin, Sally (2018). "Human-Aligned Artificial Intelligence Is a Multiobjective Problem". Ethics and Information Technology. 20: 27–40. doi:10.1007/s10676-017-9440-6.
  12. Bonnemains, Vincent; Saurel, Claire; Tessier, Catherine (2018). "Embedded Ethics: Some Technical and Ethical Challenges" (PDF). Ethics and Information Technology. 20: 41–58. doi:10.1007/s10676-018-9444-x.
  13. Arnold, Thomas; Scheutz, Matthias (2018). "The 'Big Red Button' Is Too Late: An Alternative Model for the Ethical Evaluation of AI Systems". Ethics and Information Technology. 20: 59–69. doi:10.1007/s10676-018-9447-7.
  14. Dignum, Virginia (2018). "Ethics in Artificial Intelligence: Introduction to the Special Issue". Ethics and Information Technology. 20: 1–3. doi:10.1007/s10676-018-9450-z.
  15. Short, Sue (2003-01-01). "The Measure of a Man?: Asimov's Bicentennial Man, Star Trek's Data, and Being Human". Extrapolation. 44 (2): 209–223. doi:10.3828/extr.2003.44.2.6. ISSN 0014-5483.
  16. Staff, Pacific Standard. "Can 'Westworld' Give Us New Ways of Talking About Slavery?". Pacific Standard (به انگلیسی). Retrieved 2019-09-16.
  17. Parker, Laura (2015-04-15). "How 'Ex Machina' Stands Out for Not Fearing Artificial Intelligence". The Atlantic (به انگلیسی). Retrieved 2019-09-16.
  18. Kilkenny, Katie. "The Meaning of Life in 'Blade Runner 2049'". Pacific Standard (به انگلیسی). Retrieved 2019-09-16.

پانویس

[ویرایش]
  • لوی، دیوید (نوامبر، ۲۰۰۸). عشق و رابطه جنسی با روبات‌ها: تکامل روابط انسان و ربات. هارپر چند ساله
  • ریچاردز، نیل م. اسمارت، ویلیام دی. (۲۰۱۳). چگونه باید قانون در مورد روبات فکر می‌کنم؟ : https://papers.ssrn.com/sol3/papers.cfm؟abstract_id=2263363