خطر وجودی ناشی از هوش جامع مصنوعی: تفاوت میان نسخه‌ها

از ویکی‌پدیا، دانشنامهٔ آزاد
محتوای حذف‌شده محتوای افزوده‌شده
GoleYasaman (بحث | مشارکت‌ها)
ایجاد شده به‌واسطهٔ ترجمهٔ صفحهٔ «Existential risk from artificial general intelligence»
Mardetanha (بحث | مشارکت‌ها)
ایجاد شده به‌واسطهٔ ترجمهٔ صفحهٔ «Existential risk from artificial general intelligence»
خط ۱: خط ۱:


'''خطر وجودی ناشی از هوش مصنوعی عمومی''' یک فرضیه است که پیشرفت قابل توجه در [[هوش جامع مصنوعی|هوش عمومی مصنوعی]] (AGI) می تواند منجر به [[انقراض بشر|انقراض انسان]] یا برخی [[فجایع آخرالزمانی|فاجعه جهانی]] غیرقابل جبران شود. <ref>{{Cite journal|last=Bostrom|first=Nick|author-link=Nick Bostrom|date=2002|title=Existential risks|journal=[[Journal of Evolution and Technology]]|volume=9|issue=1|pages=1–31}}</ref> <ref name="auto1">{{Cite journal|last=Turchin|first=Alexey|last2=Denkenberger|first2=David|date=2018-05-03|title=Classification of global catastrophic risks connected with artificial intelligence|url=https://philarchive.org/rec/TURCOG-2|journal=AI & Society|volume=35|issue=1|pages=147–163|doi=10.1007/s00146-018-0845-5|issn=0951-5666}}</ref>
{{Artificial intelligence}}این مقاله در دست ترجمه است


'''خطر وجودی از هوش عمومی مصنوعی''' استدلالی است که می گوید که پیشرفت زیاد از حد در [[هوش جامع مصنوعی|هوش عمومی مصنوعی]] امکان دارد زمانی به [[انقراض بشر|منقرض شدن انسان]] یا حتی منجر به عوامل غیر قابل جبران مانند [[فجایع آخرالزمانی|فاجعه جهانی]].<ref>{{Cite journal|last=Bostrom|first=Nick|author-link=Nick Bostrom|date=2002|title=Existential risks|journal=[[Journal of Evolution and Technology]]|volume=9|issue=1|pages=1–31}}</ref><ref name="auto1">{{Cite journal|last=Turchin|first=Alexey|last2=Denkenberger|first2=David|date=2018-05-03|title=Classification of global catastrophic risks connected with artificial intelligence|journal=AI & Society|volume=35|issue=1|pages=147–163|doi=10.1007/s00146-018-0845-5|issn=0951-5666}}</ref> شود. و نتیجه میشود که گونه های انسانی در حال حاضر غالب گونه های دیگر به دلیل [[مغز انسان]] بعضی از قابلیت هایی را دارند که حیوان های دیگر ندارند. اگر هوش مصنوعی در هوش عمومی از بشریت پیشی بگیرد و به "[[فراهوش|فوق هوشمند]]" تبدیل شود در این صورت کنترل برای انسان سخت یا امکان پذیر نمیشود. همانطور که آینده [[گوریل کوهی|کوه گوریل]] به حسن نیت آدمیت بستگی دارد پس امکان دارد آینده ی بشریت به اقدام های یک ابر هوش ماشین بعدی وابسته باشد.
مکتب خطر وجودی ("x-risk") به شرح زیر استدلال می کند: [[انسان|گونه انسان]] در حال حاضر بر گونه های دیگر تسلط دارد زیرا [[مغز انسان]] دارای برخی قابلیت های متمایز است که سایر حیوانات به صورت عمومی فاقد آن هستند. اگر هوش مصنوعی از نظر هوش عمومی بتواند از بشریت پیشی بگیرد و به « [[فراهوش|فوق هوشمند]] » تبدیل شود، آنگاه کنترل آن برای انسان دشوار یا غیرممکن خواهد بود. همانطور که سرنوشت [[گوریل کوهی]] به حسن نیت انسان بستگی دارد، سرنوشت بشریت نیز ممکن است به اقدامات یک ابرهوش ماشینی آینده بستگی داشته باشد.


احتمال وقوع این نوع سناریو به شکل زیادی مورد بحث و گفتگو قرار گرفته‌است، و تا مقدار زیادی به سناریوهای مختلف برای پیشرفت آینده در علوم کامپیوتر بستگی دارد. نگرانی‌هایی در مورد ابر هوش توسط دانشمندان برجسته رایانه و مدیران عامل فناوری مانند [[جفری هینتون]] ، <ref>{{Cite web|title="Godfather of artificial intelligence" weighs in on the past and potential of AI|url=https://www.cbsnews.com/news/godfather-of-artificial-intelligence-weighs-in-on-the-past-and-potential-of-artificial-intelligence/|accessdate=2023-04-10|website=www.cbsnews.com|language=en-US}}</ref> [[آلن تورینگ]] ، {{Efn|In a 1951 lecture<ref>{{Cite speech| last = Turing| first = Alan| title = Intelligent machinery, a heretical theory| event = Lecture given to '51 Society'| location = Manchester| accessdate = 2022-07-22| date = 1951| publisher = The Turing Digital Archive| url = https://turingarchive.kings.cam.ac.uk/publications-lectures-and-talks-amtb/amt-b-4| pages = 16| archive-date = September 26, 2022| archive-url = https://web.archive.org/web/20220926004549/https://turingarchive.kings.cam.ac.uk/publications-lectures-and-talks-amtb/amt-b-4| url-status = live}}</ref> Turing argued that “It seems probable that once the machine thinking method had started, it would not take long to outstrip our feeble powers. There would be no question of the machines dying, and they would be able to converse with each other to sharpen their wits. At some stage therefore we should have to expect the machines to take control, in the way that is mentioned in Samuel Butler’s Erewhon.” Also in a lecture broadcast on BBC<ref>{{Cite episode |title= Can digital computers think?|series=Automatic Calculating Machines |first=Alan |last=Turing |network= BBC |date=15 May 1951 |number=2 |transcript=Can digital computers think? |transcript-url=https://turingarchive.kings.cam.ac.uk/publications-lectures-and-talks-amtb/amt-b-6 }}</ref> expressed: "If a machine can think, it might think more intelligently than we do, and then where should we be? Even if we could keep the machines in a subservient position, for instance by turning off the power at strategic moments, we should, as a species, feel greatly humbled. . . . This new danger . . . is certainly something which can give us anxiety.”}} [[ایلان ماسک]] ، <ref>{{Cite news|last=Parkin|first=Simon|date=14 June 2015|title=Science fiction no more? Channel 4's Humans and our rogue AI obsessions|language=en|work=[[The Guardian]]|url=https://www.theguardian.com/tv-and-radio/2015/jun/14/science-fiction-no-more-humans-tv-artificial-intelligence|accessdate=5 February 2018|archiveurl=https://web.archive.org/web/20180205184322/https://www.theguardian.com/tv-and-radio/2015/jun/14/science-fiction-no-more-humans-tv-artificial-intelligence|archivedate=5 February 2018}}</ref> و مدیر عامل [[اوپن‌ای‌آی|OpenAI]] [[سم آلتمن]] ابراز شده است. <ref>{{Cite web|last=Jackson|first=Sarah|title=The CEO of the company behind AI chatbot ChatGPT says the worst-case scenario for artificial intelligence is 'lights out for all of us'|url=https://www.businessinsider.com/chatgpt-openai-ceo-worst-case-ai-lights-out-for-all-2023-1|accessdate=2023-04-10|website=Business Insider|language=en-US}}</ref> در سال 2022، یک نظرسنجی از محققان هوش مصنوعی نشان داد که برخی از محققان بر این باورند که احتمال 10 درصد یا بیشتر وجود دارد که ناتوانی ما در کنترل هوش مصنوعی باعث یک فاجعه وجودی شود. <ref>{{Cite web|title=The AI Dilemma|url=https://www.humanetech.com/podcast/the-ai-dilemma|accessdate=2023-04-10|website=www.humanetech.com|language=en}}</ref> <ref>{{Cite web|date=2022-08-04|title=2022 Expert Survey on Progress in AI|url=https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/|accessdate=2023-04-10|website=AI Impacts|language=en-US}}</ref>
احتمال این دست از سناریوها به میزان گسترده ای مورد بحث است و تا حدی به سناریوهای متفاوت برای پیشرفت بعدی در علوم کامپیوتر وابسنه است. هزمانی که که دامنه منحصر به فرد از داستان علمی تخیلی, نگرانی در مورد ابرهوش در دهه 2010 به جریان اصلی تبدیل شد و توسط چهره های عمومی مانند [[استیون هاوکینگ]], [[بیل گیتس]] و [[ایلان ماسک]]. عمومیت یافت<ref>{{Cite news|last=Parkin|first=Simon|date=14 June 2015|title=Science fiction no more? Channel 4's Humans and our rogue AI obsessions|language=en|work=[[The Guardian]]|url=https://www.theguardian.com/tv-and-radio/2015/jun/14/science-fiction-no-more-humans-tv-artificial-intelligence|accessdate=5 February 2018}}</ref>

== تاریخ ==
یکی از اولین نویسندگانی که نگرانی جدی خود را از اینکه ماشین‌های بسیار پیشرفته ممکن است خطرات وجودی برای بشریت ایجاد کنند، ابراز کرد، رمان‌نویس [[ساموئل باتلر]] بود که در مقاله‌اش در سال 1863 ''داروین در میان ماشین‌ها'' موارد زیر را نوشت: <ref>Breuer, Hans-Peter. [https://www.jstor.org/pss/436868 'Samuel Butler's "the Book of the Machines" and the Argument from Design.'] {{Webarchive|url=https://web.archive.org/web/20230315233257/https://www.jstor.org/stable/436868|date=15 March 2023}} Modern Philology, Vol. 72, No. 4 (May 1975), pp. 365–383</ref>

== همچنین ببینید ==
 

== جستارهای وابسته ==

* [[مسئله کنترل هوش مصنوعی]]
* [[فلسفه هوش مصنوعی]]
* [[تلماسه (فرنچایز)|تلماسه]]
* [[ایثار مؤثر]]
* [[اخلاق ربات]]
[[رده:سناریوهای آخرالزمانی]]
[[رده:سناریوهای آخرالزمانی]]
[[رده:خطرهای فناوری]]
[[رده:خطرهای فناوری]]
[[رده:انقراض نسل بشر]]
[[رده:انقراض نسل بشر]]
[[رده:خطاهای بدون هدف Harv و Sfn]]
[[رده:پیوندهای وی‌بک الگوی بایگانی اینترنت]]
[[رده:پیوندهای وی‌بک الگوی بایگانی اینترنت]]
[[رده:مقاله‌های با گزیده‌ها]]

نسخهٔ ‏۶ مهٔ ۲۰۲۳، ساعت ۰۹:۰۵

خطر وجودی ناشی از هوش مصنوعی عمومی یک فرضیه است که پیشرفت قابل توجه در هوش عمومی مصنوعی (AGI) می تواند منجر به انقراض انسان یا برخی فاجعه جهانی غیرقابل جبران شود. [۱] [۲]

مکتب خطر وجودی ("x-risk") به شرح زیر استدلال می کند: گونه انسان در حال حاضر بر گونه های دیگر تسلط دارد زیرا مغز انسان دارای برخی قابلیت های متمایز است که سایر حیوانات به صورت عمومی فاقد آن هستند. اگر هوش مصنوعی از نظر هوش عمومی بتواند از بشریت پیشی بگیرد و به « فوق هوشمند » تبدیل شود، آنگاه کنترل آن برای انسان دشوار یا غیرممکن خواهد بود. همانطور که سرنوشت گوریل کوهی به حسن نیت انسان بستگی دارد، سرنوشت بشریت نیز ممکن است به اقدامات یک ابرهوش ماشینی آینده بستگی داشته باشد.

احتمال وقوع این نوع سناریو به شکل زیادی مورد بحث و گفتگو قرار گرفته‌است، و تا مقدار زیادی به سناریوهای مختلف برای پیشرفت آینده در علوم کامپیوتر بستگی دارد. نگرانی‌هایی در مورد ابر هوش توسط دانشمندان برجسته رایانه و مدیران عامل فناوری مانند جفری هینتون ، [۳] آلن تورینگ ، [الف] ایلان ماسک ، [۶] و مدیر عامل OpenAI سم آلتمن ابراز شده است. [۷] در سال 2022، یک نظرسنجی از محققان هوش مصنوعی نشان داد که برخی از محققان بر این باورند که احتمال 10 درصد یا بیشتر وجود دارد که ناتوانی ما در کنترل هوش مصنوعی باعث یک فاجعه وجودی شود. [۸] [۹]

تاریخ

یکی از اولین نویسندگانی که نگرانی جدی خود را از اینکه ماشین‌های بسیار پیشرفته ممکن است خطرات وجودی برای بشریت ایجاد کنند، ابراز کرد، رمان‌نویس ساموئل باتلر بود که در مقاله‌اش در سال 1863 داروین در میان ماشین‌ها موارد زیر را نوشت: [۱۰]

همچنین ببینید

 

جستارهای وابسته

  1. Bostrom, Nick (2002). "Existential risks". Journal of Evolution and Technology. 9 (1): 1–31.
  2. Turchin, Alexey; Denkenberger, David (2018-05-03). "Classification of global catastrophic risks connected with artificial intelligence". AI & Society. 35 (1): 147–163. doi:10.1007/s00146-018-0845-5. ISSN 0951-5666.
  3. ""Godfather of artificial intelligence" weighs in on the past and potential of AI". www.cbsnews.com (به انگلیسی). Retrieved 2023-04-10.
  4. Turing, Alan (1951). Intelligent machinery, a heretical theory (Speech). Lecture given to '51 Society'. Manchester: The Turing Digital Archive. Archived from the original on September 26, 2022. Retrieved 2022-07-22.
  5. Turing, Alan (15 May 1951). "Can digital computers think?". Automatic Calculating Machines. Episode 2. Can digital computers think?. BBC.
  6. Parkin, Simon (14 June 2015). "Science fiction no more? Channel 4's Humans and our rogue AI obsessions". The Guardian (به انگلیسی). Archived from the original on 5 February 2018. Retrieved 5 February 2018.
  7. Jackson, Sarah. "The CEO of the company behind AI chatbot ChatGPT says the worst-case scenario for artificial intelligence is 'lights out for all of us'". Business Insider (به انگلیسی). Retrieved 2023-04-10.
  8. "The AI Dilemma". www.humanetech.com (به انگلیسی). Retrieved 2023-04-10.
  9. "2022 Expert Survey on Progress in AI". AI Impacts (به انگلیسی). 2022-08-04. Retrieved 2023-04-10.
  10. Breuer, Hans-Peter. 'Samuel Butler's "the Book of the Machines" and the Argument from Design.' بایگانی‌شده در ۱۵ مارس ۲۰۲۳ توسط Wayback Machine Modern Philology, Vol. 72, No. 4 (May 1975), pp. 365–383


خطای یادکرد: خطای یادکرد: برچسب <ref> برای گروهی به نام «persian-alpha» وجود دارد، اما برچسب <references group="persian-alpha"/> متناظر پیدا نشد. ().