سناریوهای فاجعۀ جهانی
حالتهایی که در آن احتمال بروز فاجعه و آسیب در سطح جهان وجود دارد به طور گسترده مورد بحث و بررسی قرار گرفتهاند. برخی از این فجایع مثل گرمایش جهانی، تخریب محیطزیست و وقوع جنگ هستهای منشأ انسانی دارند. شماری دیگر از این دسته فجایع مثل برخورد شهابسنگها یا اَبَرآتشفشانها طبیعی بوده و منشأ انسانی ندارند. اثرات چنین فجایعی بسته به علل و شدت آنها میتواند از آشفتگی و رکود اقتصادی تا نابودی نسل انسان متغیر باشد. بشر در طی تاریخ، شاهد فروپاشیهای اجتماعی بسیاری بوده است. [۱][۲]
وقایعی با منشأ انسانی
[ویرایش]کارشناسان «موسسۀ آیندۀ بشریت» در دانشگاه آکسفورد و مرکز مطالعات بحران وجودی در دانشگاه کمبریج خطر فجایع انسانی را بسیار بیشتر از فجایع طبیعی تخمین میزنند. این کارشناسان نگرانی خود را مخصوصاً متوجۀ خطرات ناشی از فناوریهای پیشرفتهای چون هوش مصنوعی و بیوتکنولوژی نموده و از اینرو متمرکز بر چنین موضوعاتی هستند. [۳][۴][۵][۶][۷][۸]
هوش مصنوعی
[ویرایش]سازندگان نوعی اَبَرهوش قادرند که به شکل اتفاقی اهدافی را در راستای نابودی نسل بشر برای آن تعریف کنند. در صورت تبدیل بسیار سریع سیستمهای هوش مصنوعی به سامانههای فوقِ هوشمند ممکن است اقدامات پیشبینینشدهای توسط این دسته از ساختههای اَبَرهوش در راستای پیشیگرفتن از توانایی بشر صورت بپذیرد. بنا به اظهارات فیلسوفی با نام نیک بوستروم این احتمال وجود دارد که با ظهور نخستین اَبَرهوش ساخته شده، دستیابی تقریبی به تمامی نتایج باارزش توسط او ممکن شده و در عمل مانع از بروز هرگونه تلاش در جهت ممانعت از دستیابی به اهدافش شود. در اینصورت، اَبَرهوش ساخته شده حتی باوجود آگاهی از عدم ممانعت بشر در رسیدن به اهداف نامربوط خود میتواند خطرناک باشد. در کتاب « اَبَرهوش» اثر باستروم، او چنین مشکلی را نوعی چالش در مورد کنترل این موجود هوشمند میداند. اِستیوِن هاوکینگ (فیزیکدان)، بیلگیتس (بنیانگذار مایکروسافت) و ایلان ماسک (بنیانگذار اسپیسایکس) هم نگرانیهای مشابهی را در این راستا بیان کردهاند. هاوکینگ به این نظریه معتقد است که این نوع از هوش مصنوعی میتواند پایان نسل بشر را رقم بزند.[۹][۱۰][۱۱][۱۲][۱۳]
انجمن پیشبرد هوش مصنوعی در سال (2009) میزبان همایشی در زمینۀ ارزیابی قابلیت رایانهها و رُباتها در رسیدن به اختیار و آزادی عمل بود. در این کنفرانس در مورد تهدید یا خطر رسیدن به این نوع از توانمندیها بحث و گفتگو شد. شرکتکنندگان در این همایش خاطرنشان کردند که برخی از رباتها به نیمی از اَشکال مختلف آزادیِ عمل مثل دسترسی مستقل به منابع انرژی و انتخاب اهدافی جهت حمله با سلاح دست یافتند. آنها همچنین اشاره کردند که شماری از ویروسها در مقابل پاکسازی مقاوم شدهاند (در اصطلاح معروف به هوشِ سوسکی که اشارهای به مقاومت این حشره در مقابل انواع خطرات خارجی است).[۱۴][۱۵][۱۶][۱۷][۱۸][۱۹]
بیوتکنولوژی
[ویرایش]بیوتکنولوژی میتواند از مسیر موجودات اصلاحشدۀ زیستی (مثل ویروسها، باکتریها، قارچها، گیاهان یا حیوانات) منجر به افزایش خطر بروز یک فاجعۀ جهانی شود. در بسیاری از موارد، این اُرگانیسمهای دستکاری شده سبب بیماریزایی در انسان، دام، محصولات زراعی یا دیگر جاندارانی میشوند که ما به آنها وابسته هستیم (مثل اُرگانیسمهای مؤثر در گردهافشانی یا باکتریهای روده). هرچند که وجود هر اُرگانیسم مؤثر بر اختلال عملکرد زیستبوم به عنوان خطر بیوتکنولوژیکی محسوب میشود. به عنوان نمونهای از این دسته خطرات میتوان به رویش علفهای هرزی اشاره نمود که بر سر منابع طبیعی با محصولات کشاورزی اساسی در حال رقابت هستند.[۲۰][۲۱][۲۲]
انتخاب جهت داشتن فرزند کمتر
[ویرایش]با ترجیح افراد به داشتن فرزندان کمتر، جمعیت کاهش مییابد. با فرض تعمیم خصوصیات
جمعیتشناختی کشورهای در حال توسعه به ویژگیهای جمعیتشناختی کشورهای توسعهیافته و به کمک برونیابی نرخ رشد جمعیت در کشورهای توسعهیافته میتوان پیشبینی نمود که جمعیت انسان تا قبل از سال (3000) منقرض میشود. جان لِسلی تخمین میزند که اگر نرخ زادوولد جهانی به سطح آلمان یا ژاپن تنزل پیدا کند، نسل انسان تا سال (2400) منقرض خواهد شد. هرچند که برخی از مدلها نشان میدهند که ممکن است گذار جمعیت به دلیل اصول زیستشناسی فَرگَشتی از روندی معکوس پیروی نماید. [۲۳][۲۴][۲۵]
پانویس
[ویرایش]- ↑ IPCC (November 11, 2013): D. "Understanding the Climate System and its Recent Changes", in: Summary for Policymakers (finalized version) بایگانیشده در مارس ۹, ۲۰۱۷ توسط Wayback Machine, in: (IPCC AR5 WG1 2013، ص. 13)
- ↑ "Global Catastrophic Risks: a summary". Centre for the Study of Existential Risk. August 11, 2019. Archived from the original on November 28, 2021. Retrieved November 28, 2021.
- ↑ "Research Areas". Future of Humanity Institute (به انگلیسی). Retrieved August 12, 2021.
- ↑ "Research". Centre for the Study of Existential Risk. Retrieved August 12, 2021.
- ↑ "About FHI". Future of Humanity Institute (به انگلیسی). Retrieved August 12, 2021.
- ↑ "About us". Centre for the Study of Existential Risk. Retrieved August 12, 2021.
- ↑ Bostrom, Nick (2013). "Existential Risk Prevention as Global Priority" (PDF). Global Policy. 4 (1): 15–3. doi:10.1111/1758-5899.12002 – via Existential Risk.
- ↑ "Frequently Asked Questions". Existential Risk. Future of Humanity Institute. Retrieved July 26, 2013.
The great bulk of existential risk in the foreseeable future is anthropogenic; that is, arising from human activity.
- ↑ Chalmers, David (2010). "The singularity: A philosophical analysis" (PDF). Journal of Consciousness Studies. 17: 9–10. Retrieved August 17, 2013.
- ↑ Nick Bostrom 2002 "Ethical Issues in Advanced Artificial Intelligence"
- ↑ Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies.
- ↑ Rawlinson, Kevin (January 29, 2015). "Microsoft's Bill Gates insists AI is a threat". BBC News. Retrieved January 30, 2015.
- ↑ Joy, Bill (April 1, 2000). "Why the future doesn't need us". Wired.
- ↑ Markoff, John (July 26, 2009). "Scientists Worry Machines May Outsmart Man". The New York Times.
- ↑ Gaming the Robot Revolution: A military technology expert weighs in on Terminator: Salvation., By P. W. Singer, slate.com Thursday, May 21, 2009.
- ↑ robot page, engadget.com.
- ↑ Yudkowsky, Eliezer (2008). Artificial Intelligence as a Positive and Negative Factor in Global Risk. Bibcode:2008gcr..book..303Y. Retrieved July 26, 2013.
- ↑ Bostrom, Nick; Sandberg, Anders (2008). "Global Catastrophic Risks Survey" (PDF). FHI Technical Report #2008-1. Future of Humanity Institute.
- ↑ Grace, Katja (2017). "When Will AI Exceed Human Performance? Evidence from AI Experts". Journal of Artificial Intelligence Research. arXiv:1705.08807. Bibcode:2017arXiv170508807G.
- ↑ Ali Noun; Christopher F. Chyba (2008). "Chapter 20: Biotechnology and biosecurity". In Bostrom, Nick; Cirkovic, Milan M. (eds.). Global Catastrophic Risks. Oxford University Press.
- ↑ Sandberg, Anders (May 29, 2014). "The five biggest threats to human existence". theconversation.com. Retrieved July 13, 2014.
- ↑ Jackson, Ronald J.; Ramsay, Alistair J.; Christensen, Carina D.; Beaton, Sandra; Hall, Diana F.; Ramshaw, Ian A. (2001). "Expression of Mouse Interleukin-4 by a Recombinant Ectromelia Virus Suppresses Cytolytic Lymphocyte Responses and Overcomes Genetic Resistance to Mousepox". Journal of Virology. 75 (3): 1205–1210. doi:10.1128/jvi.75.3.1205-1210.2001. PMC 114026. PMID 11152493.
- ↑ Can we be sure the world's population will stop rising?, BBC News, October 13, 2012
- ↑ Burger, Oskar; DeLong, John P. (April 19, 2016). "What if fertility decline is not permanent? The need for an evolutionarily informed approach to understanding low fertility". Philosophical Transactions of the Royal Society B: Biological Sciences. 371 (1692): 20150157. doi:10.1098/rstb.2015.0157. PMC 4822437. PMID 27022084.
- ↑ Leslie 1996, p. 6.