اخلاق ربات: تفاوت میان نسخه‌ها

از ویکی‌پدیا، دانشنامهٔ آزاد
محتوای حذف‌شده محتوای افزوده‌شده
IEEE288 (بحث | مشارکت‌ها)
ایجاد شده توسط ترجمهٔ صفحهٔ «Robot ethics»
IEEE288 (بحث | مشارکت‌ها)
ایجاد شده توسط ترجمهٔ صفحهٔ «Robot ethics»
خط ۱: خط ۱:

'''"این مقاله در حال ترجمه است لطفا حذف نشود"'''


'''اخلاق ربات''' ، که گاهی اوقات به عنوان " roboethics " شناخته می شود ، مربوط به مشکلات و مسایل اخلاقی است که در رابطه با ربات ها رخ می دهد ، مسایلی مانند این که آیا ربات ها در طولانی مدت یا کوتاه مدت تهدیدی برای انسان به حساب می آیند ، آیا بعضی ''از کاربرد های'' ربات ها مشکل ساز هستند (مانند استفاده از ربات ها در بهداشت و درمان یا به عنوان "ربات های قاتل" در جنگ) ، و ربات ها چگونه باید طراحی شوند که "اخلاقی" عمل کنند (موضوع اخری که مطرح شد اخلاق ماشینی نیز نامیده می شود). متناوباً ، roboethics به طور خاص به اصول اخلاقی ''رفتار انسان'' نسبت به ربات ها اشاره دارد ، زیرا ربات ها مدام وبه طور فزاینده ای در حال پیشرفت هستند. <ref>{{Citation|last=Veruggio|first=Gianmarco|title=Roboethics: Social and Ethical Implications of Robotics|date=2008|journal=Springer Handbook of Robotics|pages=1499–1524|editor-last=Siciliano|editor-first=Bruno|publisher=Springer Berlin Heidelberg|language=en|doi=10.1007/978-3-540-30301-5_65|isbn=9783540303015|last2=Operto|first2=Fiorella|editor2-last=Khatib|editor2-first=Oussama}}</ref> اخلاق ربات زیرمجموعه ای از اخلاق فناوری ، به ویژه فناوری اطلاعات است و ارتباط تنگاتنگی با موضوعات حقوقی و همچنین اقتصادی-اجتماعی دارد. محققان از مناطق مختلف شروع به حل مسایل اخلاقی در مورد ایجاد فناوری رباتیک و پیاده سازی آن در جوامع می کنند ، به روشی که هنوز امنیت نژاد بشر را تضمین می کند. <ref>{{Cite web|url=http://www.ieee-ras.org/robot-ethics|title=Robot Ethics|website=IEEE Robotics and Automation Society|language=en-gb|accessdate=2017-06-26}}</ref>
'''اخلاق ربات''' ، که گاهی اوقات به عنوان " roboethics " شناخته می شود ، مربوط به مشکلات و مسایل اخلاقی است که در رابطه با ربات ها رخ می دهد ، مسایلی مانند این که آیا ربات ها در طولانی مدت یا کوتاه مدت تهدیدی برای انسان به حساب می آیند ، آیا بعضی ''از کاربرد های'' ربات ها مشکل ساز هستند (مانند استفاده از ربات ها در بهداشت و درمان یا به عنوان "ربات های قاتل" در جنگ) ، و ربات ها چگونه باید طراحی شوند که "اخلاقی" عمل کنند (موضوع اخری که مطرح شد اخلاق ماشینی نیز نامیده می شود). متناوباً ، roboethics به طور خاص به اصول اخلاقی ''رفتار انسان'' نسبت به ربات ها اشاره دارد ، زیرا ربات ها مدام وبه طور فزاینده ای در حال پیشرفت هستند. <ref>{{Citation|last=Veruggio|first=Gianmarco|title=Roboethics: Social and Ethical Implications of Robotics|date=2008|journal=Springer Handbook of Robotics|pages=1499–1524|editor-last=Siciliano|editor-first=Bruno|publisher=Springer Berlin Heidelberg|language=en|doi=10.1007/978-3-540-30301-5_65|isbn=9783540303015|last2=Operto|first2=Fiorella|editor2-last=Khatib|editor2-first=Oussama}}</ref> اخلاق ربات زیرمجموعه ای از اخلاق فناوری ، به ویژه فناوری اطلاعات است و ارتباط تنگاتنگی با موضوعات حقوقی و همچنین اقتصادی-اجتماعی دارد. محققان از مناطق مختلف شروع به حل مسایل اخلاقی در مورد ایجاد فناوری رباتیک و پیاده سازی آن در جوامع می کنند ، به روشی که هنوز امنیت نژاد بشر را تضمین می کند. <ref>{{Cite web|url=http://www.ieee-ras.org/robot-ethics|title=Robot Ethics|website=IEEE Robotics and Automation Society|language=en-gb|accessdate=2017-06-26}}</ref>
خط ۳۸: خط ۴۰:


دانشمند کامپیوتر ،[[:en:Virginia_Dignum|Virginia Dignum]]، در شماره ''اخلاق و فناوری اطلاعات'' در مارس 2018 اظهار داشت که نگرش عمومی جامعه نسبت به هوش مصنوعی (AI) ، در دوران مدرن ، از مشاهده آن به عنوان ابزار و دیدن آن به عنوان یک "هم تیمی"هوشمند دور شده است. در همان مقاله ، وی با توجه به هوش مصنوعی بررسی كرد كه ، متفكران اخلاق سه هدف دارند كه به عقیده او در دوران مدرن هریک می تواند با تأمل و تفكر دقیق محقق شود. <ref>{{Cite journal|last=Rahwan|first=Iyad|date=2018|title=Society-In-the-Loop: Programming the Algorithmic Social Contract|journal=Ethics and Information Technology|volume=20|pages=5–14|arxiv=1707.07232|doi=10.1007/s10676-017-9430-8}}</ref> <ref>{{Cite journal|last=Bryson|first=Joanna|date=2018|title=Patiency Is Not a Virtue: the Design of Intelligent Systems and Systems of Ethics|journal=Ethics and Information Technology|volume=20|pages=15–26|doi=10.1007/s10676-018-9448-6|doi-access=free}}</ref> <ref>{{Cite journal|last=Vamplew|first=Peter|last2=Dazeley|first2=Richard|last3=Foale|first3=Cameron|last4=Firmin|first4=Sally|date=2018|title=Human-Aligned Artificial Intelligence Is a Multiobjective Problem|url=http://researchonline.federation.edu.au/vital/access/HandleResolver/1959.17/164225|journal=Ethics and Information Technology|volume=20|pages=27–40|doi=10.1007/s10676-017-9440-6}}</ref> <ref>{{Cite journal|last=Bonnemains|first=Vincent|last2=Saurel|first2=Claire|last3=Tessier|first3=Catherine|date=2018|title=Embedded Ethics: Some Technical and Ethical Challenges.|url=https://hal.archives-ouvertes.fr/hal-01697137/file/Embedded_Ethics_complete.pdf|journal=Ethics and Information Technology|volume=20|pages=41–58|doi=10.1007/s10676-018-9444-x}}</ref> <ref>{{Cite journal|last=Arnold|first=Thomas|last2=Scheutz|first2=Matthias|date=2018|title=The 'Big Red Button' Is Too Late: An Alternative Model for the Ethical Evaluation of AI Systems|journal=Ethics and Information Technology|volume=20|pages=59–69|doi=10.1007/s10676-018-9447-7}}</ref> سه هدف اخلاقی به شرح زیر است:
دانشمند کامپیوتر ،[[:en:Virginia_Dignum|Virginia Dignum]]، در شماره ''اخلاق و فناوری اطلاعات'' در مارس 2018 اظهار داشت که نگرش عمومی جامعه نسبت به هوش مصنوعی (AI) ، در دوران مدرن ، از مشاهده آن به عنوان ابزار و دیدن آن به عنوان یک "هم تیمی"هوشمند دور شده است. در همان مقاله ، وی با توجه به هوش مصنوعی بررسی كرد كه ، متفكران اخلاق سه هدف دارند كه به عقیده او در دوران مدرن هریک می تواند با تأمل و تفكر دقیق محقق شود. <ref>{{Cite journal|last=Rahwan|first=Iyad|date=2018|title=Society-In-the-Loop: Programming the Algorithmic Social Contract|journal=Ethics and Information Technology|volume=20|pages=5–14|arxiv=1707.07232|doi=10.1007/s10676-017-9430-8}}</ref> <ref>{{Cite journal|last=Bryson|first=Joanna|date=2018|title=Patiency Is Not a Virtue: the Design of Intelligent Systems and Systems of Ethics|journal=Ethics and Information Technology|volume=20|pages=15–26|doi=10.1007/s10676-018-9448-6|doi-access=free}}</ref> <ref>{{Cite journal|last=Vamplew|first=Peter|last2=Dazeley|first2=Richard|last3=Foale|first3=Cameron|last4=Firmin|first4=Sally|date=2018|title=Human-Aligned Artificial Intelligence Is a Multiobjective Problem|url=http://researchonline.federation.edu.au/vital/access/HandleResolver/1959.17/164225|journal=Ethics and Information Technology|volume=20|pages=27–40|doi=10.1007/s10676-017-9440-6}}</ref> <ref>{{Cite journal|last=Bonnemains|first=Vincent|last2=Saurel|first2=Claire|last3=Tessier|first3=Catherine|date=2018|title=Embedded Ethics: Some Technical and Ethical Challenges.|url=https://hal.archives-ouvertes.fr/hal-01697137/file/Embedded_Ethics_complete.pdf|journal=Ethics and Information Technology|volume=20|pages=41–58|doi=10.1007/s10676-018-9444-x}}</ref> <ref>{{Cite journal|last=Arnold|first=Thomas|last2=Scheutz|first2=Matthias|date=2018|title=The 'Big Red Button' Is Too Late: An Alternative Model for the Ethical Evaluation of AI Systems|journal=Ethics and Information Technology|volume=20|pages=59–69|doi=10.1007/s10676-018-9447-7}}</ref> سه هدف اخلاقی به شرح زیر است:

* اخلاق ''با'' طراحی (ادغام فنی / الگوریتمی توانایی استدلال اخلاقی به عنوان بخشی از رفتار سیستم خودمختار مصنوعی - به اخلاق ماشین مراجعه کنید) ؛
* اخلاق ''در'' طراحی (روشهای نظارتی و مهندسی که از تجزیه و تحلیل و ارزیابی پیامدهای اخلاقی سیستمهای هوش مصنوعی پشتیبانی می کنند زیرا اینها ساختارهای اجتماعی سنتی را یکپارچه یا جایگزین می کنند) ؛ و
* اخلاق ''برای'' طراحی (کدهای رفتاری ، استانداردها و فرایندهای صدور گواهینامه که از یکپارچگی توسعه دهندگان و کاربران هنگام تحقیق ، طراحی ، ساخت ، بکارگیری و مدیریت سیستم های هوشمند مصنوعی اطمینان می یابد - به اخلاق و قانون ربات در زیر مراجعه کنید). <ref>{{Cite journal|last=Dignum|first=Virginia|date=2018|title=Ethics in Artificial Intelligence: Introduction to the Special Issue|journal=Ethics and Information Technology|volume=20|pages=1–3|doi=10.1007/s10676-018-9450-z|doi-access=free}}</ref>
[[رده:اخلاق علم و فناوری]]
[[رده:اخلاق علم و فناوری]]
[[رده:فناوری‌های نوپدید]]
[[رده:فناوری‌های نوپدید]]

نسخهٔ ‏۶ مارس ۲۰۲۱، ساعت ۰۸:۳۵

"این مقاله در حال ترجمه است لطفا حذف نشود"

اخلاق ربات ، که گاهی اوقات به عنوان " roboethics " شناخته می شود ، مربوط به مشکلات و مسایل اخلاقی است که در رابطه با ربات ها رخ می دهد ، مسایلی مانند این که آیا ربات ها در طولانی مدت یا کوتاه مدت تهدیدی برای انسان به حساب می آیند ، آیا بعضی از کاربرد های ربات ها مشکل ساز هستند (مانند استفاده از ربات ها در بهداشت و درمان یا به عنوان "ربات های قاتل" در جنگ) ، و ربات ها چگونه باید طراحی شوند که "اخلاقی" عمل کنند (موضوع اخری که مطرح شد اخلاق ماشینی نیز نامیده می شود). متناوباً ، roboethics به طور خاص به اصول اخلاقی رفتار انسان نسبت به ربات ها اشاره دارد ، زیرا ربات ها مدام وبه طور فزاینده ای در حال پیشرفت هستند. [۱] اخلاق ربات زیرمجموعه ای از اخلاق فناوری ، به ویژه فناوری اطلاعات است و ارتباط تنگاتنگی با موضوعات حقوقی و همچنین اقتصادی-اجتماعی دارد. محققان از مناطق مختلف شروع به حل مسایل اخلاقی در مورد ایجاد فناوری رباتیک و پیاده سازی آن در جوامع می کنند ، به روشی که هنوز امنیت نژاد بشر را تضمین می کند. [۲]

در حالی که این موضوعات به اندازه کلمه ربات قدیمی هستند ، بحث های جدی آکادمیک از سال 2000 آغاز شد. اخلاق ربات نیاز به تعهد ترکیبی از متخصصان چندین رشته دارد ،متخصصانی که باید قوانین و مقررات را با مشکلات ناشی از دستاوردهای علمی و فناوری در رباتیک و هوش مصنوعی تنظیم کنند. زمینه های اصلی دخیل در اخلاق ربات عبارتند از: رباتیک ، علوم کامپیوتر ، هوش مصنوعی ، فلسفه ، اخلاق ، الهیات ، زیست شناسی ، فیزیولوژی ، علوم شناختی ، علوم اعصاب ، حقوق ، جامعه شناسی ، روانشناسی و طراحی صنعتی .

تاریخ و وقایع

برخی از بحثهای اصلی اخلاق در رابطه باپرداختن به مسایل غیر انسانی یا غیر بیولوژیکی و "معنویت" بالقوه آنها میباشد. موضوع اصلی دیگر ، مربوط به توسعه ماشین آلات و سرانجام ربات ها است ، این فلسفه در مورد رباتیک نیز استفاده شده است. یکی از اولین نشریاتی که به طور مستقیم به آن پرداخته و بنیان اخلاقی ربات را پایه گذاری کرده است، Runaround (داستان) است ، یک داستان کوتاه علمی تخیلی که توسط Isaac Asimov در سال 1942 نوشته شده و شامل سه قانون رباتیک معروف است . نوشته شده و شامل سه قانون رباتیک معروف است . این سه قانون به طور مداوم توسط Asimov تغییر می یافت ، و قانون چهارم یا صفر در نهایت به سه قانون اول ، در متن کارهای علمی تخیلی او ، اضافه شد. اصطلاح کوتاه "roboethics" به احتمال زیاد توسط Gianmarco Veruggio ابداع شده است.

یک رویداد مهم که نگرانی roboethics را برانگیخت ، اولین همایش بین المللی روباتیک در سال 2004 با تلاش مشترک Scuola di Robotica ، آزمایشگاه هنر Scuola Superiore Sant'Anna ، پیزا ، و موسسه الهیات Pontificia Accademia della Santa Croce ، رم. [۳] "پس از دو روز بحث شدید ، انسان شناس Daniela Cerqui سه موضع اخلاقی اصلی را که ناشی از دو روز مناظره پرتنش وشدید بود را شناسایی کرد:

  1. کسانی که علاقه ای به اخلاق ندارند. آنها فکر می کنند که اقداماتشان کاملاً فنی است و فکر نمی کنند مسئولیت اجتماعی یا اخلاقی در کارشان داشته باشد.
  2. کسانی که به سوالات اخلاقی کوتاه علاقه مند هستند. مطابق این مشخصات ، سوالات به صورت "خوب" یا "بد" بیان می شوند و به برخی از ارزشهای فرهنگی اشاره دارند. به عنوان مثال ، آنها احساس می کنند که ربات ها باید به قراردادهای اجتماعی پایبند باشند. این شامل "احترام" و کمک به انسان در زمینه های مختلف مانند اجرای قوانین یا کمک به افراد مسن است. (چنین ملاحظاتی مهم است ، اما باید بخاطر داشته باشیم که مقادیر استفاده شده برای تعریف "بد" و "خوب" نسبی هستند. آنها ارزشهای معاصر کشورهای صنعتی هستند).
  3. کسانی که در مورد سوالات اخلاقی بلند و مفصل فکر می کنند ، مثلاً درباره "شکاف دیجیتالی" بین جنوب و شمال ، یا پیر و جوان. آنها از شکاف بین کشورهای صنعتی و فقیر آگاه هستند ، و تعجب می کنند که آیا کشورهای صنعتی نباید روش خود را در توسعه رباتیک تغییر دهند تا برای جنوب مفیدتر باشد. آنها تدوین و فرموله نه به صراحت سوال برای چه، اما ما می توانیم آن را در نظر بگیرید که ضمنی است ". [۴]

اینها برخی از وقایع و پروژه های مهم در اخلاق ربات هستند. رویدادهای بیشتر در این زمینه توسط گروه مباحث euRobotics ELS و توسط RoboHub اعلام شده است :

دانشمند کامپیوتر ،Virginia Dignum، در شماره اخلاق و فناوری اطلاعات در مارس 2018 اظهار داشت که نگرش عمومی جامعه نسبت به هوش مصنوعی (AI) ، در دوران مدرن ، از مشاهده آن به عنوان ابزار و دیدن آن به عنوان یک "هم تیمی"هوشمند دور شده است. در همان مقاله ، وی با توجه به هوش مصنوعی بررسی كرد كه ، متفكران اخلاق سه هدف دارند كه به عقیده او در دوران مدرن هریک می تواند با تأمل و تفكر دقیق محقق شود. [۹] [۱۰] [۱۱] [۱۲] [۱۳] سه هدف اخلاقی به شرح زیر است:

  • اخلاق با طراحی (ادغام فنی / الگوریتمی توانایی استدلال اخلاقی به عنوان بخشی از رفتار سیستم خودمختار مصنوعی - به اخلاق ماشین مراجعه کنید) ؛
  • اخلاق در طراحی (روشهای نظارتی و مهندسی که از تجزیه و تحلیل و ارزیابی پیامدهای اخلاقی سیستمهای هوش مصنوعی پشتیبانی می کنند زیرا اینها ساختارهای اجتماعی سنتی را یکپارچه یا جایگزین می کنند) ؛ و
  • اخلاق برای طراحی (کدهای رفتاری ، استانداردها و فرایندهای صدور گواهینامه که از یکپارچگی توسعه دهندگان و کاربران هنگام تحقیق ، طراحی ، ساخت ، بکارگیری و مدیریت سیستم های هوشمند مصنوعی اطمینان می یابد - به اخلاق و قانون ربات در زیر مراجعه کنید). [۱۴]
  1. Veruggio, Gianmarco; Operto, Fiorella (2008), Siciliano, Bruno; Khatib, Oussama (eds.), "Roboethics: Social and Ethical Implications of Robotics", Springer Handbook of Robotics (به انگلیسی), Springer Berlin Heidelberg: 1499–1524, doi:10.1007/978-3-540-30301-5_65, ISBN 9783540303015
  2. "Robot Ethics". IEEE Robotics and Automation Society (به انگلیسی). Retrieved 2017-06-26.
  3. "ROBOETHICS Cover". www.roboethics.org. Retrieved 2020-09-29.
  4. http://www.roboethics.org/icra2005/veruggio.pdf
  5. "Saudi Arabia gives citizenship to a non-Muslim, English-Speaking robot". Newsweek. 26 October 2017.
  6. "Saudi Arabia bestows citizenship on a robot named Sophia". TechCrunch. October 26, 2017. Retrieved October 27, 2016.
  7. "Saudi Arabia takes terrifying step to the future by granting a robot citizenship". AV Club. October 26, 2017. Retrieved October 28, 2017.
  8. "Saudi Arabia criticized for giving female robot citizenship, while it restricts women's rights - ABC News". Abcnews.go.com. Retrieved 2017-10-28.
  9. Rahwan, Iyad (2018). "Society-In-the-Loop: Programming the Algorithmic Social Contract". Ethics and Information Technology. 20: 5–14. arXiv:1707.07232. doi:10.1007/s10676-017-9430-8.
  10. Bryson, Joanna (2018). "Patiency Is Not a Virtue: the Design of Intelligent Systems and Systems of Ethics". Ethics and Information Technology. 20: 15–26. doi:10.1007/s10676-018-9448-6.
  11. Vamplew, Peter; Dazeley, Richard; Foale, Cameron; Firmin, Sally (2018). "Human-Aligned Artificial Intelligence Is a Multiobjective Problem". Ethics and Information Technology. 20: 27–40. doi:10.1007/s10676-017-9440-6.
  12. Bonnemains, Vincent; Saurel, Claire; Tessier, Catherine (2018). "Embedded Ethics: Some Technical and Ethical Challenges" (PDF). Ethics and Information Technology. 20: 41–58. doi:10.1007/s10676-018-9444-x.
  13. Arnold, Thomas; Scheutz, Matthias (2018). "The 'Big Red Button' Is Too Late: An Alternative Model for the Ethical Evaluation of AI Systems". Ethics and Information Technology. 20: 59–69. doi:10.1007/s10676-018-9447-7.
  14. Dignum, Virginia (2018). "Ethics in Artificial Intelligence: Introduction to the Special Issue". Ethics and Information Technology. 20: 1–3. doi:10.1007/s10676-018-9450-z.