اخلاق هوش مصنوعی

از ویکی‌پدیا، دانشنامهٔ آزاد
پرش به ناوبری پرش به جستجو

اخلاق هوش مصنوعی (به انگلیسی: Ethics of artificial intelligence) بخشی از اخلاق تکنولوژی است که به صورت خاص به ربات و هوش مصنوعی مربوط می‌شود، و بیشتر راجع به نحوه رفتار و عملکرد انسان با هوش مصنوعی و بلعکس آن است. در اخلاقیات هوش مصنوعی به بررسی حقوق ربات‌ها و درستی یا نادرستی بر جایگزین شدن آن‌ها در نقش‌های انسانی می‌پردازیم

روباتیک[ویرایش]

اصطلاح «رباتیک» در سال ۲۰۰۲ ابداع شد. با اشاره به سیرت ساختن، شکل دادن، رفتار کردن و استفاده کردن از ربات‌ها.[۱] و به عبارت دیگر دربارهٔ این که چگونه ربات‌ها می‌توانند برای انسان‌ها مفید باشد یا مضر باشند صحبت می‌کند. بنابر پیش‌بینی و با توجه به روند زیاد شدن تعداد ربات‌ها گمان می‌رود که تا سال ۲۰۳۰ تعداد ربات‌ها به شکل قابل توجهی زیاد شود همان‌طور که رشد ۲۴ درصدی را در سال ۲۰۱۴ در تعداد ربات‌ها مشاهده کردیم[۲]

حقوق ربات‌ها[ویرایش]

حقوق ربات‌ها انتظار اخلاقی آن‌ها در قبال جامعه و دیگر ماشین‌ها است و به مانند حقوق بشر یا حقوق حیوانات می‌باشد.[۳] و ممکن است شامل حق زندگی، آزادی، آزادی اندیشه، آزادی بیان و برابری در برابر قانون باشد.[۴] این موضوع توسط موسسه‌ای برای آینده در نظر گرفته شده‌است[۵] و توسط وزارت تجارت و صنعت انگلستان نیز در حال پیگیری است.[۶]

کارشناسان اختلاف نظر دارند که آیا قوانین خاص و دقیق به زودی مورد نیاز خواهد بود یا با آسودگی در آینده دور می‌توان به آن فکر کرد.[۶] گلن مک گی گزارش می‌دهد که به نظر می‌رسد تا سال ۲۰۲۰ ممکن است به اندازه کافی روبات انسان نما وجود داشته باشد.[۷] ری کورزویل تاریخ احتمالی این واقعه را در سال ۲۰۲۹ می‌بیند.[۸] گروه دیگری از دانشمندان در جلسه ای در سال ۲۰۰۷ به این نتیجه رسیدند که حداقل ۵۰ سال طول خواهد کشید تا بشر بتواند سیستمی با هوش سطح بالا تولید کند و موجودات هوشمند انسان ساز وجود داشته باشند.[۹]

قوانین سال ۲۰۰۳ مسابقه جایزه لوبنر به صراحت این مشکل را دربارهٔ مالکیت و حقوق ربات‌ها مطرح کرده بود:

یک ربات نقاش که می‌تواند در آینده جایگزینی برای نقاش‌های انسانی باشد

قانون شماره ۶۱. اگر در هر سالی، یک پروژه نرم‌افزار متن باز وارد شده از طرف دانشگاه سوری یا دانشگاه کمبریج برنده مدال نقره یا مدال طلا شود، آنگاه مدال و جایزه نقدی مسابقه به افرادی اهدا خواهد شد که مسئولیت توسعه آن پروژه یا نرم‌افزار را داشته‌اند. اگر هیچ فردی به این عنوان تشخیص داده نشد یا اختلاف نظری میان تعداد دو یا بیشتر کاندیدا برای مسئول بودن پروژه وجود داشت. مدال و جایزه نقدی نگه داشته خواهد شد تا زمانی که آن پروژه به صورت قانونی دارای صاحب شود و آنگاه مدال و جایزه به صورت قانونی اهدا خواهد شد.[۱۰]

تهدید انسان[ویرایش]

تهدید حریم خصوصی[ویرایش]

الکساندر سولژنیتسین در رمان اولین دایره تکنولوژی تشخیص گفتار را توصیف کرد که در خدمت حکومت استبدادی بود و مکالمات انسان‌ها را تهدید می‌کرد.[۱۱] اگر یک برنامه هوش مصنوعی وجود داشته باشد که توانایی درک طبیعی زبان و گفتار (مثلاً زبان انگلیسی) را داشته باشد پس به صورت نظری با قدرت پردازش مناسب می‌تواند به هر مکالمه تلفنی گوش بدهد و هر ایمیلی را در جهان بخواند و آن را درک کند و به برنامه اپراتور دقیقاً آنچه گفته شده‌است و دقیقاً آن کس که آن را گفته‌است را گزارش دهد. برنامه هوش مصنوعی مانند این مورد می‌تواند به دولت‌ها یا نهادها کمک کند تا مخالفان خود را سرکوب کنند و کاملاً یک تهدید برای حریم خصوصی محسوب می‌شود.

تهدید نسل بشر[ویرایش]

همان‌طور که در بسیاری از فیلم‌ها و داستان‌های علمی تخیلی دیده می‌شود. همواره فکر تهدید نسل بشر توسط ربات‌ها در هنگام بلوغ فکری و هوشی آن‌ها بعد از مطرح شدن هوش مصنوعی وجود داشته. اما بعد از انتشار برخی از پیشبینی‌ها مانند جایگزین شدن ۴۵ درصدی سربازان انسانی نظامی به سربازان ربات تا سال ۲۰۲۵ این نگرانی‌ها شکل جدی تری به خود گرفت.[۱۲] از آن جا که تا سال ۲۰۳۰ احتمال دارد درصد بسیار زیادی از کارگران و مجریان اجتماع ربات‌ها باشند در صورت شورش یا اغتشاشی از جانب آن‌ها ممکن است نسل و نژاد انسان به خطر بی افتد.[۱۳][۱۴] در این صورت شاید باید قوانینی مبنی بر محدود کردن دایره تفکر، احساس، خودمختاری و آزادی ربات‌ها بنا گذاشت.[۱۵]

تهدید کرامت انسانی[ویرایش]

یوسف ویزینبام در سال ۱۹۷۶ بیان کرد که تکنولوژی هوش مصنوعی نباید به جای انسان در موقعیت‌های که نیاز به توجه و مراقبت و احترام دارند استفاده شوند مانند هر یک از این موارد:

ویزینبام توضیح می‌دهد که ما در این موقعیت‌ها نیاز به احساس همدلی و درک متقابل از فرد داریم. اگر در این کارها ماشین‌ها جای انسان را بگیرند ما خود را نسبت به آن‌ها بیگانه می‌دانیم، احساس کم ارزشی و فرسودگی می‌کنیم. هوش مصنوعی اگر در این راه استفاده شود یک تهدید برای کرامت انسانی محسوب می‌شود.[۱۶]

پاملامککوردوک در هنگام سخنرانی با زنان بیان کرد "من می‌خواهم شانسم را با یک کامپیوتر بی طرف امتحان کنم " که به این اشاره می‌کرد که قضاوت یک کامپیوتر به عنوان یک قاضی یا پلیس بی‌طرف است و غرایز انسانی در آن دیده نمی‌شود.[۱۶] بنیان‌گذار هوش مصنوعی جان مک کارتی نتیجه‌گیری اخلاقی ویزینبام را نقد می‌کند. "هنگامی که اخلاقیات انسان مبهم و ناکامل است، موجب می‌شود که گاهی استبداد را فرا خواند ".

بیل هیبارد[۱۷] می‌نویسد: «کرامت انسانی مستلزم آن است که ما برای خلاص شدن از جهل نسبت به موجودات جهان تلاش کنیم و هوش مصنوعی برای این تلاش لازم است.»

شفافیت و متن باز[ویرایش]

بیل هیبارد می‌گوید که به دلیل این که هوش مصنوعی تأثیر عمیقی بر انسانیت دارد، بنابراین توسعه دهندگان هوش مصنوعی نماینده انسانیت در آینده هستند و به همین دلیل باید تعهد اخلاقی آن‌ها در تلاششان به وضوح مشخص باشد.[۱۸] بن گویرتزل و دیوید هارت OpenCog را به عنوان یک منبع باز برای توسعه هوش مصنوعی ایجاد کردند.[۱۹] OpenAI یک شرکت تحقیقاتی هوش مصنوعی غیرانتفاعی ایجاد شده توسط ایلان ماسک، سام آلتمن و افرادی دیگر است که به منظور توسعه هوش مصنوعی به صورت منبع باز برای بهبود آینده بشریت فعالیت می‌کند.[۲۰] و همچنین تعداد بسیار زیادی شرکت‌های منبع باز دیگر برای این اهداف وجود دارند.

جستارهای وابسته[ویرایش]

محققان
سازمان

پانویس[ویرایش]

  1. Veruggio, Gianmarco (2007). "The Roboethics Roadmap" (PDF). Scuola di Robotica: 2. Archived from the original (PDF) on 15 August 2011. Retrieved 28 March 2011.
  2. «Statistics - IFR International Federation of Robotics». www.ifr.org. بایگانی‌شده از اصلی در ۲۷ مارس ۲۰۱۶. دریافت‌شده در ۲۰۱۶-۰۶-۲۷.
  3. Evans, Woody (2015). "Posthuman Rights: Dimensions of Transhuman Worlds". Universidad Complutense Madrid. Retrieved 7 April 2016.
  4. The American Heritage Dictionary of the English Language, Fourth Edition
  5. "Robots could demand legal rights". BBC News. December 21, 2006. Retrieved January 3, 2010.
  6. ۶٫۰ ۶٫۱ Henderson, Mark (April 24, 2007). "Human rights for robots? We're getting carried away". The Times Online. The Times of London. Retrieved May 2, 2010.
  7. McGee, Glenn. "A Robot Code of Ethics". The Scientist.
  8. Kurzweil, Ray (2005). The Singularity is Near. Penguin Books. ISBN 0-670-03384-7.
  9. The Big Question: Should the human race be worried by the rise of robots?, Independent Newspaper,
  10. Loebner Prize Contest Official Rules — Version 2.0 The competition was directed by David Hamill and the rules were developed by members of the Robitron Yahoo group.
  11. (McCorduck 2004, p. 308)
  12. "تهدید نژاد انسان به وسیله ربات ها".
  13. Naughton، John (۲۰۱۲-۱۲-۰۲). «Could robots soon add to mankind's existential threats?». the Guardian. دریافت‌شده در ۲۰۱۶-۰۶-۲۷.
  14. «Is Artificial Intelligence Really A Threat To Humanity?». ۲۰۱۵-۰۸-۲۸. دریافت‌شده در ۲۰۱۶-۰۶-۲۷.
  15. «Google developing 'kill switch' to stop robot uprising against humans». دریافت‌شده در ۲۰۱۶-۰۶-۲۷.
  16. ۱۶٫۰ ۱۶٫۱ Joseph Weizenbaum, quoted in McCorduck 2004, pp. 356, 374–376
  17. Hibbard, Bill (2014): "Ethical Artificial Intelligence".
  18. Open Source AI.
  19. OpenCog: A Software Framework for Integrative Artificial General Intelligence.
  20. Inside OpenAI, Elon Musk’s Wild Plan to Set Artificial Intelligence Free Cade Metz, Wired 27 April 2016.

پیوند به بیرون[ویرایش]