اخلاق ربات: تفاوت میان نسخه‌ها

از ویکی‌پدیا، دانشنامهٔ آزاد
محتوای حذف‌شده محتوای افزوده‌شده
IEEE288 (بحث | مشارکت‌ها)
ایجاد شده توسط ترجمهٔ صفحهٔ «Robot ethics»
(بدون تفاوت)

نسخهٔ ‏۵ مارس ۲۰۲۱، ساعت ۲۱:۵۷

اخلاق ربات ، که گاهی اوقات به عنوان " roboethics " شناخته می شود ، مربوط به مشکلات اخلاقی است که در رابطه با ربات ها رخ می دهد ، از جمله اینکه آیا ربات ها در طولانی مدت یا کوتاه مدت تهدیدی برای انسان محسوب می شوند ، آیا برخی از کاربرد های ربات ها مشکل ساز هستند (مانند استفاده از ربات ها در بهداشت و درمان یا به عنوان "ربات های قاتل" در جنگ) ، و ربات ها چگونه باید طراحی شوند که "اخلاقی" عمل کنند (موضوع اخری که مطرح شد اخلاق ماشینی نیز نامیده می شود). متناوباً ، roboethics به طور خاص به اصول اخلاقی رفتار انسان نسبت به ربات ها اشاره دارد ، زیرا ربات ها به طور فزاینده ای در حال پیشرفت هستند. [۱] اخلاق ربات زیرمجموعه ای از اخلاق فناوری ، به ویژه فناوری اطلاعات است و ارتباط تنگاتنگی با موضوعات حقوقی و همچنین اقتصادی-اجتماعی دارد. محققان از مناطق مختلف شروع به حل مسایل اخلاقی در مورد ایجاد فناوری رباتیک و پیاده سازی آن در جوامع می کنند ، به روشی که هنوز امنیت نژاد بشر را تضمین می کند. [۲]

در حالی که این موضوعات به اندازه کلمه ربات قدیمی هستند ، بحث های جدی آکادمیک از سال 2000 آغاز شد. اخلاق ربات نیاز به تعهد ترکیبی از متخصصان چندین رشته دارد ،متخصصانی که باید قوانین و مقررات را با مشکلات ناشی از دستاوردهای علمی و فناوری در رباتیک و هوش مصنوعی تنظیم کنند. زمینه های اصلی دخیل در اخلاق ربات عبارتند از: رباتیک ، علوم کامپیوتر ، هوش مصنوعی ، فلسفه ، اخلاق ، الهیات ، زیست شناسی ، فیزیولوژی ، علوم شناختی ، علوم اعصاب ، حقوق ، جامعه شناسی ، روانشناسی و طراحی صنعتی .

تاریخ و وقایع

.mw-parser-output .navbar{display:inline;font-size:88%;font-weight:normal}.mw-parser-output .navbar-collapse{float:left;text-align:left}.mw-parser-output .navbar-boxtext{word-spacing:0}.mw-parser-output .navbar ul{display:inline-block;white-space:nowrap;line-height:inherit}.mw-parser-output .navbar-brackets::before{margin-right:-0.125em;content:"[ "}.mw-parser-outالگو:Robotic lawsput .navbar-brackets::after{margin-left:-0.125em;content:" ]"}.mw-parser-output .navbar li{word-spacing:-0.125em}.mw-parser-output .navbar-mini abbr{font-variant:small-caps;border-bottom:none;text-decoration:none;cursor:inherit}.mw-parser-output .navbar-ct-full{font-size:114%;margin:0 7em}.mw-parser-output .navbar-ct-mini{font-size:114%;margin:0 4em}.mw-parser-output .infobox .navbar{font-size:100%}.mw-parser-output .navbox .navbar{display:block;font-size:100%}.mw-parser-output .navbox-title .navbar{float:left;text-align:left;margin-right:0.5em}

برخی از بحثهای اصلی اخلاق در رابطه باپرداختن به مسایل غیر انسانی یا غیر بیولوژیکی و "معنویت" بالقوه آنها میباشد. موضوع اصلی دیگر ، مربوط به توسعه ماشین آلات و سرانجام ربات ها است ، این فلسفه در مورد رباتیک نیز استفاده شده است. یکی از اولین نشریاتی که به طور مستقیم به آن پرداخته و بنیان اخلاقی ربات را پایه گذاری کرده است، Runaround (داستان) است ، یک داستان کوتاه علمی تخیلی که توسط Isaac Asimov در سال 1942 نوشته شده و شامل سه قانون رباتیک معروف است . نوشته شده و شامل سه قانون رباتیک معروف است . این سه قانون به طور مداوم توسط Asimov تغییر می یافت ، و قانون چهارم یا صفر در نهایت به سه قانون اول ، در متن کارهای علمی تخیلی او ، اضافه شد. اصطلاح کوتاه "roboethics" به احتمال زیاد توسط Gianmarco Veruggio ابداع شده است.

یک رویداد مهم که نگرانی roboethics را برانگیخت ، اولین همایش بین المللی روباتیک در سال 2004 با تلاش مشترک Scuola di Robotica ، آزمایشگاه هنر Scuola Superiore Sant'Anna ، پیزا ، و موسسه الهیات Pontificia Accademia della Santa Croce ، رم. [۳] "پس از دو روز بحث شدید ، انسان شناس Daniela Cerqui سه موضع اخلاقی اصلی را که ناشی از دو روز مناظره پرتنش وشدید بود را شناسایی کرد:

  1. کسانی که علاقه ای به اخلاق ندارند. آنها فکر می کنند که اقداماتشان کاملاً فنی است و فکر نمی کنند مسئولیت اجتماعی یا اخلاقی در کارشان داشته باشد.
  2. کسانی که به سوالات اخلاقی کوتاه علاقه مند هستند. مطابق این مشخصات ، سوالات به صورت "خوب" یا "بد" بیان می شوند و به برخی از ارزشهای فرهنگی اشاره دارند. به عنوان مثال ، آنها احساس می کنند که ربات ها باید به قراردادهای اجتماعی پایبند باشند. این شامل "احترام" و کمک به انسان در زمینه های مختلف مانند اجرای قوانین یا کمک به افراد مسن است. (چنین ملاحظاتی مهم است ، اما باید بخاطر داشته باشیم که مقادیر استفاده شده برای تعریف "بد" و "خوب" نسبی هستند. آنها ارزشهای معاصر کشورهای صنعتی هستند).
  3. کسانی که در مورد سوالات اخلاقی بلند و مفصل فکر می کنند ، مثلاً درباره "شکاف دیجیتالی" بین جنوب و شمال ، یا پیر و جوان. آنها از شکاف بین کشورهای صنعتی و فقیر آگاه هستند ، و تعجب می کنند که آیا کشورهای صنعتی نباید روش خود را در توسعه رباتیک تغییر دهند تا برای جنوب مفیدتر باشد. آنها تدوین و فرموله نه به صراحت سوال برای چه، اما ما می توانیم آن را در نظر بگیرید که ضمنی است ". [۴]

اینها برخی از وقایع و پروژه های مهم در اخلاق ربات هستند. رویدادهای بیشتر در این زمینه توسط گروه مباحث euRobotics ELS و توسط RoboHub اعلام شده است :

  1. Veruggio, Gianmarco; Operto, Fiorella (2008), Siciliano, Bruno; Khatib, Oussama (eds.), "Roboethics: Social and Ethical Implications of Robotics", Springer Handbook of Robotics (به انگلیسی), Springer Berlin Heidelberg: 1499–1524, doi:10.1007/978-3-540-30301-5_65, ISBN 9783540303015
  2. "Robot Ethics". IEEE Robotics and Automation Society (به انگلیسی). Retrieved 2017-06-26.
  3. "ROBOETHICS Cover". www.roboethics.org. Retrieved 2020-09-29.
  4. http://www.roboethics.org/icra2005/veruggio.pdf
  5. "Saudi Arabia gives citizenship to a non-Muslim, English-Speaking robot". Newsweek. 26 October 2017.
  6. "Saudi Arabia bestows citizenship on a robot named Sophia". TechCrunch. October 26, 2017. Retrieved October 27, 2016.
  7. "Saudi Arabia takes terrifying step to the future by granting a robot citizenship". AV Club. October 26, 2017. Retrieved October 28, 2017.
  8. "Saudi Arabia criticized for giving female robot citizenship, while it restricts women's rights - ABC News". Abcnews.go.com. Retrieved 2017-10-28.