سناریوهای فاجعۀ جهانی

از ویکی‌پدیا، دانشنامهٔ آزاد

حالت­هایی که در آن احتمال بروز فاجعه و آسیب در سطح جهان وجود دارد به طور گسترده مورد بحث و بررسی قرار گرفته­اند. برخی از این فجایع مثل گرمایش جهانی، تخریب محیط­زیست و وقوع جنگ هسته­ای­ منشأ انسانی دارند. شماری دیگر از این دسته فجایع مثل برخورد شهاب­سنگ­ها یا اَبَرآتشفشان­ها طبیعی بوده و منشأ انسانی ندارند. اثرات چنین فجایعی بسته به علل و شدت آن­ها می­تواند از آشفتگی و رکود اقتصادی تا نابودی نسل انسان متغیر باشد. بشر در طی تاریخ، شاهد فروپاشی­های اجتماعی بسیاری بوده است. [۱][۲]

وقایعی با منشأ انسانی[ویرایش]

کارشناسان «موسسۀ آیندۀ بشریت» در دانشگاه آکسفورد و مرکز مطالعات بحران وجودی در دانشگاه کمبریج خطر فجایع انسانی را بسیار بیشتر از فجایع طبیعی تخمین می­زنند. این کارشناسان نگرانی خود را مخصوصاً متوجۀ خطرات ناشی از فناوری­های پیشرفته­ای چون هوش مصنوعی و بیوتکنولوژی نموده و از اینرو متمرکز بر چنین موضوعاتی هستند. [۳][۴][۵][۶][۷][۸]

هوش مصنوعی[ویرایش]

سازندگان نوعی اَبَرهوش قادرند که به شکل اتفاقی اهدافی را در راستای نابودی نسل بشر برای آن تعریف کنند. در صورت تبدیل بسیار سریع سیستم­های هوش مصنوعی به سامانه­های فوقِ هوشمند ممکن است اقدامات پیش­بینی­­نشده­ای توسط این دسته از ساخته­های اَبَرهوش در راستای پیشی­گرفتن از توانایی بشر صورت بپذیرد. بنا به اظهارات فیلسوفی با نام نیک بوستروم این احتمال وجود دارد که با ظهور نخستین اَبَرهوش ساخته شده، دستیابی تقریبی به تمامی نتایج باارزش توسط او ممکن شده و در عمل مانع از بروز هرگونه تلاش در جهت ممانعت از دستیابی به اهدافش شود. در اینصورت، اَبَرهوش ساخته شده حتی باوجود آگاهی از عدم ممانعت بشر در رسیدن به اهداف نامربوط خود می­تواند خطرناک باشد. در کتاب « اَبَرهوش» اثر باستروم، او چنین مشکلی را نوعی چالش در مورد کنترل این موجود هوشمند می­داند. اِستیوِن هاوکینگ (فیزیکدان)، بیل­گیتس (بنیانگذار مایکروسافت) و ایلان ماسک (بنیانگذار اسپیس­ایکس) هم نگرانی­های مشابهی را در این راستا بیان کرده­اند. هاوکینگ به این نظریه معتقد است که این نوع از هوش مصنوعی می­تواند پایان نسل بشر را رقم بزند.[۹][۱۰][۱۱][۱۲][۱۳]

انجمن پیشبرد هوش مصنوعی در سال (2009) میزبان همایشی در زمینۀ ارزیابی قابلیت رایانه­ها و رُبات­ها در رسیدن به اختیار و آزادی عمل بود. در این کنفرانس در مورد تهدید یا خطر رسیدن به این نوع از توانمندی­ها بحث و گفتگو شد. شرکت­کنندگان در این همایش خاطرنشان کردند که برخی از ربات­ها به نیمی از اَشکال مختلف آزادیِ عمل مثل دسترسی مستقل به منابع انرژی و انتخاب اهدافی جهت حمله با سلاح دست یافتند. آنها همچنین اشاره کردند که شماری از ویروس­ها در مقابل پاکسازی مقاوم شده­اند (در اصطلاح معروف به هوشِ سوسکی که اشاره­ای به مقاومت این حشره در مقابل انواع خطرات خارجی است).[۱۴][۱۵][۱۶][۱۷][۱۸][۱۹]

بیوتکنولوژی[ویرایش]

بیوتکنولوژی می­تواند از مسیر موجودات اصلاح­شدۀ زیستی (مثل ویروس­ها، باکتری­ها، قارچ­ها، گیاهان یا حیوانات) منجر به افزایش خطر بروز یک فاجعۀ جهانی شود. در بسیاری از موارد، این اُرگانیسم­های دستکاری شده سبب بیماریزایی در انسان، دام­، محصولات زراعی یا دیگر جاندارانی می­شوند که ما به آن­ها وابسته هستیم (مثل اُرگانیسم­های مؤثر در گرده­افشانی یا باکتری­های روده). هرچند که وجود هر اُرگانیسم مؤثر بر اختلال عملکرد زیست­بوم به عنوان خطر بیوتکنولوژیکی محسوب می­شود. به عنوان نمونه­ای از این دسته خطرات می­توان به رویش علف­های هرزی اشاره نمود که بر سر منابع طبیعی با محصولات کشاورزی اساسی در حال رقابت هستند.[۲۰][۲۱][۲۲]

انتخاب جهت داشتن فرزند کمتر[ویرایش]

با ترجیح افراد به داشتن فرزندان کمتر، جمعیت کاهش می­یابد. با فرض تعمیم خصوصیات

جمعیت­شناختی کشورهای در حال­ توسعه به ویژگی­های جمعیت­شناختی کشورهای توسعه­یافته و به کمک برون­یابی نرخ رشد جمعیت در کشورهای توسعه­یافته می­توان پیش­بینی نمود که جمعیت انسان تا قبل از سال (3000) منقرض می­شود. جان لِسلی تخمین می­زند که اگر نرخ زاد­و­ولد جهانی به سطح آلمان یا ژاپن تنزل پیدا کند، نسل انسان تا سال (2400) منقرض خواهد شد. هرچند که برخی از مدل­ها نشان می­دهند که ممکن است گذار جمعیت به دلیل اصول زیست‌شناسی فَرگَشتی از روندی معکوس پیروی نماید. [۲۳][۲۴][۲۵]

پانویس[ویرایش]

  1. IPCC (November 11, 2013): D. "Understanding the Climate System and its Recent Changes", in: Summary for Policymakers (finalized version) بایگانی‌شده در مارس ۹, ۲۰۱۷ توسط Wayback Machine, in: (IPCC AR5 WG1 2013، ص. 13)
  2. "Global Catastrophic Risks: a summary". Centre for the Study of Existential Risk. August 11, 2019. Archived from the original on November 28, 2021. Retrieved November 28, 2021.
  3. "Research Areas". Future of Humanity Institute (به انگلیسی). Retrieved August 12, 2021.
  4. "Research". Centre for the Study of Existential Risk. Retrieved August 12, 2021.
  5. "About FHI". Future of Humanity Institute (به انگلیسی). Retrieved August 12, 2021.
  6. "About us". Centre for the Study of Existential Risk. Retrieved August 12, 2021.
  7. Bostrom, Nick (2013). "Existential Risk Prevention as Global Priority" (PDF). Global Policy. 4 (1): 15–3. doi:10.1111/1758-5899.12002 – via Existential Risk.
  8. "Frequently Asked Questions". Existential Risk. Future of Humanity Institute. Retrieved July 26, 2013. The great bulk of existential risk in the foreseeable future is anthropogenic; that is, arising from human activity.
  9. Chalmers, David (2010). "The singularity: A philosophical analysis" (PDF). Journal of Consciousness Studies. 17: 9–10. Retrieved August 17, 2013.
  10. Nick Bostrom 2002 "Ethical Issues in Advanced Artificial Intelligence"
  11. Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies.
  12. Rawlinson, Kevin (January 29, 2015). "Microsoft's Bill Gates insists AI is a threat". BBC News. Retrieved January 30, 2015.
  13. Joy, Bill (April 1, 2000). "Why the future doesn't need us". Wired.
  14. Markoff, John (July 26, 2009). "Scientists Worry Machines May Outsmart Man". The New York Times.
  15. Gaming the Robot Revolution: A military technology expert weighs in on Terminator: Salvation., By P. W. Singer, slate.com Thursday, May 21, 2009.
  16. robot page, engadget.com.
  17. Yudkowsky, Eliezer (2008). Artificial Intelligence as a Positive and Negative Factor in Global Risk. Bibcode:2008gcr..book..303Y. Retrieved July 26, 2013.
  18. Bostrom, Nick; Sandberg, Anders (2008). "Global Catastrophic Risks Survey" (PDF). FHI Technical Report #2008-1. Future of Humanity Institute.
  19. Grace, Katja (2017). "When Will AI Exceed Human Performance? Evidence from AI Experts". Journal of Artificial Intelligence Research. arXiv:1705.08807. Bibcode:2017arXiv170508807G.
  20. Ali Noun; Christopher F. Chyba (2008). "Chapter 20: Biotechnology and biosecurity". In Bostrom, Nick; Cirkovic, Milan M. (eds.). Global Catastrophic Risks. Oxford University Press.
  21. Sandberg, Anders (May 29, 2014). "The five biggest threats to human existence". theconversation.com. Retrieved July 13, 2014.
  22. Jackson, Ronald J.; Ramsay, Alistair J.; Christensen, Carina D.; Beaton, Sandra; Hall, Diana F.; Ramshaw, Ian A. (2001). "Expression of Mouse Interleukin-4 by a Recombinant Ectromelia Virus Suppresses Cytolytic Lymphocyte Responses and Overcomes Genetic Resistance to Mousepox". Journal of Virology. 75 (3): 1205–1210. doi:10.1128/jvi.75.3.1205-1210.2001. PMC 114026. PMID 11152493.
  23. Can we be sure the world's population will stop rising?, BBC News, October 13, 2012
  24. Burger, Oskar; DeLong, John P. (April 19, 2016). "What if fertility decline is not permanent? The need for an evolutionarily informed approach to understanding low fertility". Philosophical Transactions of the Royal Society B: Biological Sciences. 371 (1692): 20150157. doi:10.1098/rstb.2015.0157. PMC 4822437. PMID 27022084.
  25. Leslie 1996, p. 6.