اخلاق ربات: تفاوت میان نسخهها
ایجاد شده توسط ترجمهٔ صفحهٔ «Robot ethics» |
ایجاد شده توسط ترجمهٔ صفحهٔ «Robot ethics» |
||
خط ۱: | خط ۱: | ||
'''"این مقاله در حال ترجمه است لطفا حذف نشود"''' |
|||
'''اخلاق ربات''' ، که گاهی اوقات به عنوان " roboethics " شناخته می شود ، مربوط به مشکلات و مسایل اخلاقی است که در رابطه با ربات ها رخ می دهد ، مسایلی مانند این که آیا ربات ها در طولانی مدت یا کوتاه مدت تهدیدی برای انسان به حساب می آیند ، آیا بعضی ''از کاربرد های'' ربات ها مشکل ساز هستند (مانند استفاده از ربات ها در بهداشت و درمان یا به عنوان "ربات های قاتل" در جنگ) ، و ربات ها چگونه باید طراحی شوند که "اخلاقی" عمل کنند (موضوع اخری که مطرح شد اخلاق ماشینی نیز نامیده می شود). متناوباً ، roboethics به طور خاص به اصول اخلاقی ''رفتار انسان'' نسبت به ربات ها اشاره دارد ، زیرا ربات ها مدام وبه طور فزاینده ای در حال پیشرفت هستند. <ref>{{Citation|last=Veruggio|first=Gianmarco|title=Roboethics: Social and Ethical Implications of Robotics|date=2008|journal=Springer Handbook of Robotics|pages=1499–1524|editor-last=Siciliano|editor-first=Bruno|publisher=Springer Berlin Heidelberg|language=en|doi=10.1007/978-3-540-30301-5_65|isbn=9783540303015|last2=Operto|first2=Fiorella|editor2-last=Khatib|editor2-first=Oussama}}</ref> اخلاق ربات زیرمجموعه ای از اخلاق فناوری ، به ویژه فناوری اطلاعات است و ارتباط تنگاتنگی با موضوعات حقوقی و همچنین اقتصادی-اجتماعی دارد. محققان از مناطق مختلف شروع به حل مسایل اخلاقی در مورد ایجاد فناوری رباتیک و پیاده سازی آن در جوامع می کنند ، به روشی که هنوز امنیت نژاد بشر را تضمین می کند. <ref>{{Cite web|url=http://www.ieee-ras.org/robot-ethics|title=Robot Ethics|website=IEEE Robotics and Automation Society|language=en-gb|accessdate=2017-06-26}}</ref> |
'''اخلاق ربات''' ، که گاهی اوقات به عنوان " roboethics " شناخته می شود ، مربوط به مشکلات و مسایل اخلاقی است که در رابطه با ربات ها رخ می دهد ، مسایلی مانند این که آیا ربات ها در طولانی مدت یا کوتاه مدت تهدیدی برای انسان به حساب می آیند ، آیا بعضی ''از کاربرد های'' ربات ها مشکل ساز هستند (مانند استفاده از ربات ها در بهداشت و درمان یا به عنوان "ربات های قاتل" در جنگ) ، و ربات ها چگونه باید طراحی شوند که "اخلاقی" عمل کنند (موضوع اخری که مطرح شد اخلاق ماشینی نیز نامیده می شود). متناوباً ، roboethics به طور خاص به اصول اخلاقی ''رفتار انسان'' نسبت به ربات ها اشاره دارد ، زیرا ربات ها مدام وبه طور فزاینده ای در حال پیشرفت هستند. <ref>{{Citation|last=Veruggio|first=Gianmarco|title=Roboethics: Social and Ethical Implications of Robotics|date=2008|journal=Springer Handbook of Robotics|pages=1499–1524|editor-last=Siciliano|editor-first=Bruno|publisher=Springer Berlin Heidelberg|language=en|doi=10.1007/978-3-540-30301-5_65|isbn=9783540303015|last2=Operto|first2=Fiorella|editor2-last=Khatib|editor2-first=Oussama}}</ref> اخلاق ربات زیرمجموعه ای از اخلاق فناوری ، به ویژه فناوری اطلاعات است و ارتباط تنگاتنگی با موضوعات حقوقی و همچنین اقتصادی-اجتماعی دارد. محققان از مناطق مختلف شروع به حل مسایل اخلاقی در مورد ایجاد فناوری رباتیک و پیاده سازی آن در جوامع می کنند ، به روشی که هنوز امنیت نژاد بشر را تضمین می کند. <ref>{{Cite web|url=http://www.ieee-ras.org/robot-ethics|title=Robot Ethics|website=IEEE Robotics and Automation Society|language=en-gb|accessdate=2017-06-26}}</ref> |
||
خط ۳۸: | خط ۴۰: | ||
دانشمند کامپیوتر ،[[:en:Virginia_Dignum|Virginia Dignum]]، در شماره ''اخلاق و فناوری اطلاعات'' در مارس 2018 اظهار داشت که نگرش عمومی جامعه نسبت به هوش مصنوعی (AI) ، در دوران مدرن ، از مشاهده آن به عنوان ابزار و دیدن آن به عنوان یک "هم تیمی"هوشمند دور شده است. در همان مقاله ، وی با توجه به هوش مصنوعی بررسی كرد كه ، متفكران اخلاق سه هدف دارند كه به عقیده او در دوران مدرن هریک می تواند با تأمل و تفكر دقیق محقق شود. <ref>{{Cite journal|last=Rahwan|first=Iyad|date=2018|title=Society-In-the-Loop: Programming the Algorithmic Social Contract|journal=Ethics and Information Technology|volume=20|pages=5–14|arxiv=1707.07232|doi=10.1007/s10676-017-9430-8}}</ref> <ref>{{Cite journal|last=Bryson|first=Joanna|date=2018|title=Patiency Is Not a Virtue: the Design of Intelligent Systems and Systems of Ethics|journal=Ethics and Information Technology|volume=20|pages=15–26|doi=10.1007/s10676-018-9448-6|doi-access=free}}</ref> <ref>{{Cite journal|last=Vamplew|first=Peter|last2=Dazeley|first2=Richard|last3=Foale|first3=Cameron|last4=Firmin|first4=Sally|date=2018|title=Human-Aligned Artificial Intelligence Is a Multiobjective Problem|url=http://researchonline.federation.edu.au/vital/access/HandleResolver/1959.17/164225|journal=Ethics and Information Technology|volume=20|pages=27–40|doi=10.1007/s10676-017-9440-6}}</ref> <ref>{{Cite journal|last=Bonnemains|first=Vincent|last2=Saurel|first2=Claire|last3=Tessier|first3=Catherine|date=2018|title=Embedded Ethics: Some Technical and Ethical Challenges.|url=https://hal.archives-ouvertes.fr/hal-01697137/file/Embedded_Ethics_complete.pdf|journal=Ethics and Information Technology|volume=20|pages=41–58|doi=10.1007/s10676-018-9444-x}}</ref> <ref>{{Cite journal|last=Arnold|first=Thomas|last2=Scheutz|first2=Matthias|date=2018|title=The 'Big Red Button' Is Too Late: An Alternative Model for the Ethical Evaluation of AI Systems|journal=Ethics and Information Technology|volume=20|pages=59–69|doi=10.1007/s10676-018-9447-7}}</ref> سه هدف اخلاقی به شرح زیر است: |
دانشمند کامپیوتر ،[[:en:Virginia_Dignum|Virginia Dignum]]، در شماره ''اخلاق و فناوری اطلاعات'' در مارس 2018 اظهار داشت که نگرش عمومی جامعه نسبت به هوش مصنوعی (AI) ، در دوران مدرن ، از مشاهده آن به عنوان ابزار و دیدن آن به عنوان یک "هم تیمی"هوشمند دور شده است. در همان مقاله ، وی با توجه به هوش مصنوعی بررسی كرد كه ، متفكران اخلاق سه هدف دارند كه به عقیده او در دوران مدرن هریک می تواند با تأمل و تفكر دقیق محقق شود. <ref>{{Cite journal|last=Rahwan|first=Iyad|date=2018|title=Society-In-the-Loop: Programming the Algorithmic Social Contract|journal=Ethics and Information Technology|volume=20|pages=5–14|arxiv=1707.07232|doi=10.1007/s10676-017-9430-8}}</ref> <ref>{{Cite journal|last=Bryson|first=Joanna|date=2018|title=Patiency Is Not a Virtue: the Design of Intelligent Systems and Systems of Ethics|journal=Ethics and Information Technology|volume=20|pages=15–26|doi=10.1007/s10676-018-9448-6|doi-access=free}}</ref> <ref>{{Cite journal|last=Vamplew|first=Peter|last2=Dazeley|first2=Richard|last3=Foale|first3=Cameron|last4=Firmin|first4=Sally|date=2018|title=Human-Aligned Artificial Intelligence Is a Multiobjective Problem|url=http://researchonline.federation.edu.au/vital/access/HandleResolver/1959.17/164225|journal=Ethics and Information Technology|volume=20|pages=27–40|doi=10.1007/s10676-017-9440-6}}</ref> <ref>{{Cite journal|last=Bonnemains|first=Vincent|last2=Saurel|first2=Claire|last3=Tessier|first3=Catherine|date=2018|title=Embedded Ethics: Some Technical and Ethical Challenges.|url=https://hal.archives-ouvertes.fr/hal-01697137/file/Embedded_Ethics_complete.pdf|journal=Ethics and Information Technology|volume=20|pages=41–58|doi=10.1007/s10676-018-9444-x}}</ref> <ref>{{Cite journal|last=Arnold|first=Thomas|last2=Scheutz|first2=Matthias|date=2018|title=The 'Big Red Button' Is Too Late: An Alternative Model for the Ethical Evaluation of AI Systems|journal=Ethics and Information Technology|volume=20|pages=59–69|doi=10.1007/s10676-018-9447-7}}</ref> سه هدف اخلاقی به شرح زیر است: |
||
* اخلاق ''با'' طراحی (ادغام فنی / الگوریتمی توانایی استدلال اخلاقی به عنوان بخشی از رفتار سیستم خودمختار مصنوعی - به اخلاق ماشین مراجعه کنید) ؛ |
|||
* اخلاق ''در'' طراحی (روشهای نظارتی و مهندسی که از تجزیه و تحلیل و ارزیابی پیامدهای اخلاقی سیستمهای هوش مصنوعی پشتیبانی می کنند زیرا اینها ساختارهای اجتماعی سنتی را یکپارچه یا جایگزین می کنند) ؛ و |
|||
* اخلاق ''برای'' طراحی (کدهای رفتاری ، استانداردها و فرایندهای صدور گواهینامه که از یکپارچگی توسعه دهندگان و کاربران هنگام تحقیق ، طراحی ، ساخت ، بکارگیری و مدیریت سیستم های هوشمند مصنوعی اطمینان می یابد - به اخلاق و قانون ربات در زیر مراجعه کنید). <ref>{{Cite journal|last=Dignum|first=Virginia|date=2018|title=Ethics in Artificial Intelligence: Introduction to the Special Issue|journal=Ethics and Information Technology|volume=20|pages=1–3|doi=10.1007/s10676-018-9450-z|doi-access=free}}</ref> |
|||
[[رده:اخلاق علم و فناوری]] |
[[رده:اخلاق علم و فناوری]] |
||
[[رده:فناوریهای نوپدید]] |
[[رده:فناوریهای نوپدید]] |
نسخهٔ ۶ مارس ۲۰۲۱، ساعت ۰۸:۳۵
"این مقاله در حال ترجمه است لطفا حذف نشود"
اخلاق ربات ، که گاهی اوقات به عنوان " roboethics " شناخته می شود ، مربوط به مشکلات و مسایل اخلاقی است که در رابطه با ربات ها رخ می دهد ، مسایلی مانند این که آیا ربات ها در طولانی مدت یا کوتاه مدت تهدیدی برای انسان به حساب می آیند ، آیا بعضی از کاربرد های ربات ها مشکل ساز هستند (مانند استفاده از ربات ها در بهداشت و درمان یا به عنوان "ربات های قاتل" در جنگ) ، و ربات ها چگونه باید طراحی شوند که "اخلاقی" عمل کنند (موضوع اخری که مطرح شد اخلاق ماشینی نیز نامیده می شود). متناوباً ، roboethics به طور خاص به اصول اخلاقی رفتار انسان نسبت به ربات ها اشاره دارد ، زیرا ربات ها مدام وبه طور فزاینده ای در حال پیشرفت هستند. [۱] اخلاق ربات زیرمجموعه ای از اخلاق فناوری ، به ویژه فناوری اطلاعات است و ارتباط تنگاتنگی با موضوعات حقوقی و همچنین اقتصادی-اجتماعی دارد. محققان از مناطق مختلف شروع به حل مسایل اخلاقی در مورد ایجاد فناوری رباتیک و پیاده سازی آن در جوامع می کنند ، به روشی که هنوز امنیت نژاد بشر را تضمین می کند. [۲]
در حالی که این موضوعات به اندازه کلمه ربات قدیمی هستند ، بحث های جدی آکادمیک از سال 2000 آغاز شد. اخلاق ربات نیاز به تعهد ترکیبی از متخصصان چندین رشته دارد ،متخصصانی که باید قوانین و مقررات را با مشکلات ناشی از دستاوردهای علمی و فناوری در رباتیک و هوش مصنوعی تنظیم کنند. زمینه های اصلی دخیل در اخلاق ربات عبارتند از: رباتیک ، علوم کامپیوتر ، هوش مصنوعی ، فلسفه ، اخلاق ، الهیات ، زیست شناسی ، فیزیولوژی ، علوم شناختی ، علوم اعصاب ، حقوق ، جامعه شناسی ، روانشناسی و طراحی صنعتی .
تاریخ و وقایع
برخی از بحثهای اصلی اخلاق در رابطه باپرداختن به مسایل غیر انسانی یا غیر بیولوژیکی و "معنویت" بالقوه آنها میباشد. موضوع اصلی دیگر ، مربوط به توسعه ماشین آلات و سرانجام ربات ها است ، این فلسفه در مورد رباتیک نیز استفاده شده است. یکی از اولین نشریاتی که به طور مستقیم به آن پرداخته و بنیان اخلاقی ربات را پایه گذاری کرده است، Runaround (داستان) است ، یک داستان کوتاه علمی تخیلی که توسط Isaac Asimov در سال 1942 نوشته شده و شامل سه قانون رباتیک معروف است . نوشته شده و شامل سه قانون رباتیک معروف است . این سه قانون به طور مداوم توسط Asimov تغییر می یافت ، و قانون چهارم یا صفر در نهایت به سه قانون اول ، در متن کارهای علمی تخیلی او ، اضافه شد. اصطلاح کوتاه "roboethics" به احتمال زیاد توسط Gianmarco Veruggio ابداع شده است.
یک رویداد مهم که نگرانی roboethics را برانگیخت ، اولین همایش بین المللی روباتیک در سال 2004 با تلاش مشترک Scuola di Robotica ، آزمایشگاه هنر Scuola Superiore Sant'Anna ، پیزا ، و موسسه الهیات Pontificia Accademia della Santa Croce ، رم. [۳] "پس از دو روز بحث شدید ، انسان شناس Daniela Cerqui سه موضع اخلاقی اصلی را که ناشی از دو روز مناظره پرتنش وشدید بود را شناسایی کرد:
- کسانی که علاقه ای به اخلاق ندارند. آنها فکر می کنند که اقداماتشان کاملاً فنی است و فکر نمی کنند مسئولیت اجتماعی یا اخلاقی در کارشان داشته باشد.
- کسانی که به سوالات اخلاقی کوتاه علاقه مند هستند. مطابق این مشخصات ، سوالات به صورت "خوب" یا "بد" بیان می شوند و به برخی از ارزشهای فرهنگی اشاره دارند. به عنوان مثال ، آنها احساس می کنند که ربات ها باید به قراردادهای اجتماعی پایبند باشند. این شامل "احترام" و کمک به انسان در زمینه های مختلف مانند اجرای قوانین یا کمک به افراد مسن است. (چنین ملاحظاتی مهم است ، اما باید بخاطر داشته باشیم که مقادیر استفاده شده برای تعریف "بد" و "خوب" نسبی هستند. آنها ارزشهای معاصر کشورهای صنعتی هستند).
- کسانی که در مورد سوالات اخلاقی بلند و مفصل فکر می کنند ، مثلاً درباره "شکاف دیجیتالی" بین جنوب و شمال ، یا پیر و جوان. آنها از شکاف بین کشورهای صنعتی و فقیر آگاه هستند ، و تعجب می کنند که آیا کشورهای صنعتی نباید روش خود را در توسعه رباتیک تغییر دهند تا برای جنوب مفیدتر باشد. آنها تدوین و فرموله نه به صراحت سوال برای چه، اما ما می توانیم آن را در نظر بگیرید که ضمنی است ". [۴]
اینها برخی از وقایع و پروژه های مهم در اخلاق ربات هستند. رویدادهای بیشتر در این زمینه توسط گروه مباحث euRobotics ELS و توسط RoboHub اعلام شده است :
- 1942: داستان کوتاه " Runaround " آسیموف برای اولین بار به وضوح سه قانون او را بیان می کند. این "قوانین" در کارهای بعدی داستان علمی مربوط به ربات توسط آسیموف مورد استفاده مجدد قرار خواهد گرفت.
- 2004: اولین همایش بین المللی Roboethics ، که توسط دانشکده رباتیک برگزار شد ، جایی که کلمه Roboethics برای اولین بار به طور رسمی استفاده می شود (30 – 31 ژانویه 2004 ، ویلا نوبل ، سانرمو ، ایتالیا ).
- 2004: IEEE-RAS کمیته فنی درباره روباتیک را تأسیس کرد .
- 2004: اعلامیه جهانی ربات Fukuoka (25 فوریه 2004 ، Fukuoka ، ژاپن ).
- 2005: IEEE RAS TC در زمینه رباتیک ، ICRA05 (کنفرانس بین المللی رباتیک و اتوماسیون) ، کارگاه آموزشی در مورد روباتیک ، (18 آوریل 2005 ، بارسلون ، اسپانیا ) را برگزار می کند.
- 2005 – 2006: آتلیه EC Euron Roboethics . پروژه یورون ، با هماهنگی دانشکده رباتیک ، شامل تعداد زیادی از رباتیک ها و دانشمندان علوم انسانی بود که اولین نقشه راه برای اخلاق رباتیک را تولید کردند (فوریه / مارس 2006 ، جنوا ، ایتالیا )
- 2006: BioRob2006 ، اولین کنفرانس بین المللی IEEE / RAS-EMBS در زمینه رباتیک پزشکی و بیومکاترونیک ؛ سمپوزیوم کوتاه در مورد روباتیک (20 فوریه 2006 ، پیزا ، ایتالیا ).
- 2006: کارگاه بین المللی "اخلاق تعامل انسان با سیستمهای رباتیک ، بیونیک و هوش مصنوعی: مفاهیم و سیاستها" ؛ تحت حمایت پروژه اروپایی ETHICBOTS – 18 اکتبر 2006 ، ناپل ، ایتالیا ).
- 2007: IEEE RAS TC در زمینه روباتیک کارگاه آموزشی دیگری درباره Roboethics ، ICRA07 (کنفرانس بین المللی رباتیک و اتوماسیون) ، (14 آوریل 2007 ، رم ، ایتالیا ) برگزار می کند.
- 2007: ICAIL'07 ، کنفرانس بین المللی هوش مصنوعی و قانون ، (4-8 ژوئن 2007 ، دانشگاه استنفورد ، پالو آلتو ، کالیفرنیا ، ایالات متحده آمریکا ).
- 2007: کنفرانس بین المللی اروپایی محاسبات و فلسفه E-CAP '07 ، آهنگ: "روبوثیک" (21 – 23 ژوئن 2007 ، دانشگاه توئنته ، هلند ).
- 2007: تحقیق فلسفی اخلاق رایانه CEPE '07 ، موضوع: "Roboethics" (12 – 14 جولای 2007 ، دانشگاه سن دیگو ، کالیفرنیا ، ایالات متحده آمریکا ).
- 2008: ربات های هم اندیشی بین المللی: علوم جدید (20 فوریه 2008 ، از طریق della Lungara 10 ، رم ، ایتالیا ).
- 2009: IEEE RAS TC در زمینه روباتیک کارگاه آموزشی دیگری درباره Roboethics ، ICRA09 (کنفرانس بین المللی رباتیک و اتوماسیون) ، (17 مه 2009 ، کوبه ، ژاپن ) برگزار می کند.
- 2012: We Robot 2012 ( دانشگاه میامی ، فلوریدا ، ایالات متحده آمریکا ).
- 2013: کارگاه آموزشی اخلاق ربات (فوریه 2013 ، دانشگاه شفیلد ، یورکشایر جنوبی ، انگلیس ).
- 2013: We Robot 2013 - شروع به کار ( دانشگاه استنفورد ، پالو آلتو ، کالیفرنیا ، ایالات متحده ).
- 2014: We Robot 2014 - خطرات و فرصت ها ( دانشگاه میامی ، فلوریدا ، ایالات متحده آمریکا ).
- 2016: ملاحظات اخلاقی و اخلاقی در عوامل غیر انسانی ، سمپوزیوم استنفورد بهار ، انجمن AAAI برای پیشرفت هوش مصنوعی [۱] ( دانشگاه استنفورد ، پالو آلتو ، کالیفرنیا ، ایالات متحده ).
- 2017: اجلاس سرمایه گذاری آینده در ریاض ؛ تابعیت عربستان سعودی به رباتی ( صوفیا موسوم و با ضمایر زنانه گفته می شود) اعطا می شود و اولین رباتی است که تابعیت دارد. [۵] [۶] این موضوع به دلیل عدم ابهام در مورد چندین موضوع ، بحث برانگیز است ، به عنوان مثال آیا سوفیا می تواند رأی دهد یا ازدواج کند ، یا اینکه تعطیلی عمدی سیستم قتل محسوب می شود. علاوه بر این ، کنار هم قرار دادن حقوقی که زنان سعودی در برابر شهروندی ربات برای شهروندی سعودی در نظر می گیرند ، به زودی انتقاد چندین ارائه دهنده اخبار را به دنبال خواهد داشت [۷] [۸] (25 اکتبر 2017 ، ریاض ، عربستان سعودی).
- 2017: موسسه AI Now (AI Now) در NYU ، یک موسسه تحقیقاتی که پیامدهای اجتماعی هوش مصنوعی را بررسی می کند ، تشکیل شد (15 نوامبر 2017 ، New York CIty ، NY ، USA ).
دانشمند کامپیوتر ،Virginia Dignum، در شماره اخلاق و فناوری اطلاعات در مارس 2018 اظهار داشت که نگرش عمومی جامعه نسبت به هوش مصنوعی (AI) ، در دوران مدرن ، از مشاهده آن به عنوان ابزار و دیدن آن به عنوان یک "هم تیمی"هوشمند دور شده است. در همان مقاله ، وی با توجه به هوش مصنوعی بررسی كرد كه ، متفكران اخلاق سه هدف دارند كه به عقیده او در دوران مدرن هریک می تواند با تأمل و تفكر دقیق محقق شود. [۹] [۱۰] [۱۱] [۱۲] [۱۳] سه هدف اخلاقی به شرح زیر است:
- اخلاق با طراحی (ادغام فنی / الگوریتمی توانایی استدلال اخلاقی به عنوان بخشی از رفتار سیستم خودمختار مصنوعی - به اخلاق ماشین مراجعه کنید) ؛
- اخلاق در طراحی (روشهای نظارتی و مهندسی که از تجزیه و تحلیل و ارزیابی پیامدهای اخلاقی سیستمهای هوش مصنوعی پشتیبانی می کنند زیرا اینها ساختارهای اجتماعی سنتی را یکپارچه یا جایگزین می کنند) ؛ و
- اخلاق برای طراحی (کدهای رفتاری ، استانداردها و فرایندهای صدور گواهینامه که از یکپارچگی توسعه دهندگان و کاربران هنگام تحقیق ، طراحی ، ساخت ، بکارگیری و مدیریت سیستم های هوشمند مصنوعی اطمینان می یابد - به اخلاق و قانون ربات در زیر مراجعه کنید). [۱۴]
- ↑ Veruggio, Gianmarco; Operto, Fiorella (2008), Siciliano, Bruno; Khatib, Oussama (eds.), "Roboethics: Social and Ethical Implications of Robotics", Springer Handbook of Robotics (به انگلیسی), Springer Berlin Heidelberg: 1499–1524, doi:10.1007/978-3-540-30301-5_65, ISBN 9783540303015
- ↑ "Robot Ethics". IEEE Robotics and Automation Society (به انگلیسی). Retrieved 2017-06-26.
- ↑ "ROBOETHICS Cover". www.roboethics.org. Retrieved 2020-09-29.
- ↑ http://www.roboethics.org/icra2005/veruggio.pdf
- ↑ "Saudi Arabia gives citizenship to a non-Muslim, English-Speaking robot". Newsweek. 26 October 2017.
- ↑ "Saudi Arabia bestows citizenship on a robot named Sophia". TechCrunch. October 26, 2017. Retrieved October 27, 2016.
- ↑ "Saudi Arabia takes terrifying step to the future by granting a robot citizenship". AV Club. October 26, 2017. Retrieved October 28, 2017.
- ↑ "Saudi Arabia criticized for giving female robot citizenship, while it restricts women's rights - ABC News". Abcnews.go.com. Retrieved 2017-10-28.
- ↑ Rahwan, Iyad (2018). "Society-In-the-Loop: Programming the Algorithmic Social Contract". Ethics and Information Technology. 20: 5–14. arXiv:1707.07232. doi:10.1007/s10676-017-9430-8.
- ↑ Bryson, Joanna (2018). "Patiency Is Not a Virtue: the Design of Intelligent Systems and Systems of Ethics". Ethics and Information Technology. 20: 15–26. doi:10.1007/s10676-018-9448-6.
- ↑ Vamplew, Peter; Dazeley, Richard; Foale, Cameron; Firmin, Sally (2018). "Human-Aligned Artificial Intelligence Is a Multiobjective Problem". Ethics and Information Technology. 20: 27–40. doi:10.1007/s10676-017-9440-6.
- ↑ Bonnemains, Vincent; Saurel, Claire; Tessier, Catherine (2018). "Embedded Ethics: Some Technical and Ethical Challenges" (PDF). Ethics and Information Technology. 20: 41–58. doi:10.1007/s10676-018-9444-x.
- ↑ Arnold, Thomas; Scheutz, Matthias (2018). "The 'Big Red Button' Is Too Late: An Alternative Model for the Ethical Evaluation of AI Systems". Ethics and Information Technology. 20: 59–69. doi:10.1007/s10676-018-9447-7.
- ↑ Dignum, Virginia (2018). "Ethics in Artificial Intelligence: Introduction to the Special Issue". Ethics and Information Technology. 20: 1–3. doi:10.1007/s10676-018-9450-z.