پرش به محتوا

مسابقه تسلیحاتی هوش مصنوعی

از ویکی‌پدیا، دانشنامهٔ آزاد

مسابقه تسلیحاتی هوش مصنوعی نظامی، مسابقه ای بین دو یا چند ایالت برای تجهیز نیروهای نظامی آنها به وسیله بهترین هوش مصنوعی (AI) است. از اواسط دهه ۲۰۱۰، بسیاری از تحلیلگران عقیده داشتند که چنین مسابقه تسلیحاتی جهانی برای داشتن نیروی نظامی هوش مصنوعی شروع شده‌است.[۱][۲]

واژه‌شناسی

[ویرایش]

به‌طور گسترده‌تر، هر گونه رقابت برای هوش مصنوعی برتر گاهی به عنوان یک «مسابقه تسلیحاتی» تلقی می‌شود.[۳][۴] تلاش برای سلطهٔ هوش مصنوعی با تلاش برای تسلط در بخش‌های دیگر اشتراک دارد، به ویژه هنگامی که یک کشور منافع اقتصادی و نظامی را با هم دنبال می‌کند.[۵]

خطرات

[ویرایش]

نیک بستروم و دیگران ادعا دارند که خطر هوش مصنوعی، می‌تواند باعث شود که نیروها از اقدامات احتیاطی ایمن استفاده کنند.

استیفن کیو از مرکز لورولم ادعا می‌کند که این خطر سه برابر است، احتمالاً خطر اول دارای پیامدهای ژئوپلیتیکی است، و دو مورد دیگر قطعاً دارای پیامدهای ژئوپلیتیکی هستند:

i) خطرات یک مسابقه هوش مصنوعی برای ایجاد مزیت مربوط به فناوری، صرف نظر از اینکه مسابقه به‌طور جدی دنبال می‌شود یا خیر.

ii) خطرات یک مسابقه هوش مصنوعی و یک مسابقه هوش مصنوعی واقعی برای مزیت مربوط به فناوری، صرف نظر از برنده شدن مسابقه.

iii)خطرات یک مسابقه هوش مصنوعی برای برتری تکنولوژیکی.

کیو استدلال می‌کند که خطر در صورت ابتلا به هوش عمومی مصنوعی، که شاید یک خطر وجودی را نشان دهد، افزایش می‌یابد.

اصطلاحات مسابقه اسلحه همچنین گاهی اوقات در زمینه رقابت برای برتری اقتصادی و " قدرت نرم " مورد استفاده قرار می‌گیرد. به عنوان مثال، "گزارش موقت" نوامبر ۲۰۱۹ کمیسیون امنیت ملی ایالات متحده در مورد هوش مصنوعی، ضمن تأکید بر نقش دیپلماسی در تعامل با چین و روسیه، زبان یک مسابقه تسلیحاتی رقابتی را اتخاذ می‌کند.[۶] در این مقاله آمده‌است که برتری تکنولوژیکی ارتش ایالات متحده برای نظم جهانی موجود حیاتی است : 11و تأکید می‌کند که نظامی شدن مداوم هوش مصنوعی، همراه با نظامی کردن آن، توسط چین و روسیه، برای اهداف ژئوپلیتیک است: : ۱–۲

تحولات در هوش مصنوعی را نمی‌توان از رقابت استراتژیک در حال ظهور با چین، و تحولات در فضای گسترده ژئوپلیتیک جدا کرد. ما نگرانیم که نقش آمریکا به عنوان مبتکر برجسته جهان تهدید شود. ما نگران این هستیم که رقبای استراتژیک و بازیگران غیردولتی برای تهدید آمریکایی‌ها، متحدان و ارزش‌های ما از هوش مصنوعی استفاده کنند. ما می‌دانیم که رقبای استراتژیک در حال سرمایه‌گذاری، در زمینهٔ تحقیق و کاربرد هستند. تنها چیزی که برای نتیجه‌گیری، منطقی به نظر می‌رسد این است که از قابلیت‌های فعال شده هوش مصنوعی می‌توان برای تهدید زیرساخت‌های حیاتی ما، تقویت فعالیت‌های اطلاعات نادرست و جنگ بر علیه ما استفاده کرد.

در سیاست خارجی، پل شار هشدار می‌دهد که سخنان پیرامون یک مسابقه تسلیحاتی هوش مصنوعی می‌تواند به یک پیشگویی کامل کننده تبدیل شود.[۷]

مواضع نسبت به هوش مصنوعی نظامی

[ویرایش]

روسیه

[ویرایش]
A cartoon centipede reads books and types on a laptop.
پوتین (نشسته، مرکز) در روز دانش ملی، ۲۰۱۷

ژنرال روسی ویکتور بوندارف، فرمانده کل نیروی هوایی روسیه، اظهار داشت که روسیه در اوایل فوریه ۲۰۱۷ در حال کار بر روی موشک‌هایی است که توسط هوش مصنوعی هدایت می‌شوند و می‌توانند برای تغییر مسیرها در طول پرواز، تصمیم‌گیری کنند.[۸]کمیته صنعتی نظامی روسیه برنامه‌هایی را برای تأمین ۳۰ درصد از قدرت جنگی روسیه از سیستم عامل‌های رباتیک کنترل از راه دور و هوش مصنوعی تا سال ۲۰۳۰ تصویب کرده‌است. [۱] گزارش‌های رسانه‌های تحت حمایت دولت روسیه در مورد استفاده‌های ممکن نظامی از هوش مصنوعی در اواسط سال ۲۰۱۷ افزایش یافت.[۹] در ماه مه ۲۰۱۷، مدیر عامل گروه کرونشتات روسیه، یک پیمانکار دفاعی، اظهار داشت که «در حال حاضر سیستم‌های عملیاتی کاملاً مستقل هوش مصنوعی وجود دارد که ابزارهایی را برای دسته‌بندی‌های پهپاد وقتی که ان‌ها مأموریت‌ها را به‌طور مستقل یا به صورت اشتراکی و در تعامل یکدیگر انجام می‌دهند» فراهم می‌کند، این موضوع که «انبوه هواپیماهای بدون سرنشین» روزی بر فراز مناطق جنگی پرواز خواهند کرد، امری اجتناب ناپذیر است.[۱۰] روسیه چندین سیستم جنگی خودمختار و نیمه خودمختار مانند ماژول رزمی «شبکه عصبی» کلاشنیکوف را با مسلسل، دوربین و هوش مصنوعی آزمایش کرده‌است که سازندگان آن ادعا می‌کنند بدون دخالت انسان می‌توانند قضاوت‌های هدف‌گیری خود را انجام دهند.[۱۱]

در سپتامبر ۲۰۱۷، ولادیمیر پوتین، رئیس‌جمهور روسیه، طی سخنرانی روز ملی دانش در مقابل بیش از یک میلیون دانش آموز در ۱۶۰۰۰ مدرسه روسیه اظهار داشت: "هوش مصنوعی آینده است، نه تنها برای روسیه بلکه برای همه بشریت. . . هرکس در این حوزه رهبر شود، فرمانروای جهان خواهد شد ". پوتین همچنین گفت که بهتر است از انحصار هر کسی جلوگیری شود، اما اگر روسیه رهبر هوش مصنوعی شود، ان وقت "فناوری خود را با بقیه جهان به اشتراک می‌گذارد، مانند کاری که اکنون با فناوری اتمی و هسته ای انجام می‌دهیم".[۱۲][۱۳][۱۴]

روسیه در حال تشکیل تعدادی سازمان که به توسعه هوش مصنوعی نظامی اختصاص دارند، هست. در مارس ۲۰۱۸، دولت روسیه دستورالعمل ای ۱۰ ماده ای دربارهٔ هوش مصنوعی منتشر کرد که خواستار ایجاد کنسرسیوم هوش مصنوعی و داده‌های بزرگ، کمک هزینه ای برای الگوریتم‌ها و برنامه‌های تحلیلی، یک آموزش هوش مصنوعی با حمایت دولت، یک آزمایشگاه اختصاصی هوش مصنوعی، و یک مرکز ملی هوش مصنوعی، در میان جمله اقدامات دیگر است.[۱۵] علاوه بر این، روسیه اخیراً یک سازمان تحقیقاتی دفاعی، تقریباً معادل DARPA، مختص خودمختاری و رباتیک به نام بنیاد مطالعات پیشرفته ایجاد کرده و کنفرانس سالانه ای را با عنوان «ربات سازی نیروهای مسلح فدراسیون روسیه» آغاز کرده‌است.[۱۶]

ارتش روسیه در حال تحقیق در مورد تعدادی از کاربردهای هوش مصنوعی با تأکید شدید بر وسایل نقلیه نیمه خودکار و تمام خودکار است. در بیانیه رسمی در تاریخ ۱ نوامبر ۲۰۱۷، ویکتور بوندارف، رئیس کمیته دفاعی و امنیتی شورای فدراسیون، اظهار داشت که «هوش مصنوعی قادر به جایگزینی یک سرباز در میدان جنگ و یک خلبان در کابین خلبان هواپیما خواهد بود» و بعداً اشاره کرد که «روزی است که وسایل نقلیه به هوش مصنوعی دست پیدا می‌کنند.»[۱۷] بوندارف این اظهارات را در مجاورت آزمایش موفقیت‌آمیز نرهتا، یک وسیله نقلیه زمینی خالی از سکنه روسی که گفته می‌شود از ماشینهای جنگی موجود [مسکونی] بهتر عمل کرده‌است، ابراز داشت. روسیه قصد دارد از نرهتا به عنوان یک بستر تحقیق و توسعه برای هوش مصنوعی استفاده کند و ممکن است روزی سیستم در جنگ را، جمع‌آوری اطلاعات یا قوانین منطقی قرار دهد.[۱۸] گزارش شده‌است که روسیه همچنین یک ماژول جنگی برای وسایل نقلیه زمینی خالی از سکنه ساخته‌است که توانایی شناسایی هدف مستقل - و بالقوه، درگیری با هدف - را دارد و قصد دارد مجموعه ای از سیستم‌های خودمختار مجهز به هوش مصنوعی را توسعه دهد.[۱۹][۲۰]

به علاوه ارتش روسیه برنامه‌ریزی می‌کند که هوش مصنوعی را با وسایل نقلیهٔ غیر مسکونی هوایی، دریایی و زیر دریایی ادغام کند و در حال حاضر قابلیت‌های ازدحام را توسعه می‌دهد.[۱۶] همچنین در حال جست و جو کاربردهای خلاقانهٔ هوش مصنوعی برای سنجش از دور و جنگ الکترونیکی، شامل پرش با فرکانس تطبیقی، شکل موج و اقدامات متقابل است.[۲۱][۲۲] روسیه همچنین از فناوری هوش مصنوعی برای تبلیغات و نظارت داخلی، همچنین برای عملیات اطلاعاتی علیه ایالات متحده و متحدان آمریکا استفاده گسترده‌ای کرده‌است.[۲۳][۲۴]

دولت روسیه هرگونه ممنوعیت استفاده از سیستم‌های اسلحه کشنده خودکار را به شدت رد کرده و پیشنهاد می‌کند این ممنوعیت را می‌توان نادیده گرفت.[۲۵][۲۶]

چین

[ویرایش]

چین در حال پیگیری سیاست استراتژیک «ادغام مدنی نظامی» با هوش مصنوعی برای برتری فناوری جهانی است.[۲۷] بر اساس گزارش فوریه ۲۰۱۹ توسط گریگوری سی آلن از مرکز امنیت جدید آمریکا، رهبری چین - از جمله رهبر برجسته شی جین پینگ - معتقد است که بودن در خط مقدم فناوری هوش مصنوعی برای آینده رقابت ارتش جهانی و قدرت اقتصادی حیاتی است[۴] مقامات نظامی چین گفته‌اند که هدف آنها استفاده از فناوری هوش مصنوعی تجاری برای «کاستن فاصله بین ارتش چین و قدرتهای پیشرفته جهانی» است. . روابط نزدیک بین سیلیکون ولی و چین، و ماهیت باز جامعه تحقیقاتی آمریکا، پیشرفته‌ترین فناوری هوش مصنوعی غرب را به راحتی در دسترس چین قرار داده‌است. علاوه بر این، صنعت چین دستاوردهای هوش مصنوعی خانگی خود همانند بایدو، که یک معیار قابل توجه قابلیت تشخیص گفتار به زبان چینی را در سال ۲۰۱۵ گذراند، دارد.[۲۸] از سال ۲۰۱۷، نقشه راه پکن با هدف ایجاد یک صنعت ۱۵۰ میلیارد دلاری هوش مصنوعی تا سال ۲۰۳۰ ساخته شده‌است.[۲۹] قبل از سال ۲۰۱۳، خریدهای دفاعی چین عمدتاً به چند مجتمع محدود شده بود. با این حال، از سال ۲۰۱۷، چین اغلب از فناوری نوظهور حساس مانند هواپیماهای بدون سرنشین و هوش مصنوعی از شرکت‌های نوپای خصوصی استفاده می‌کند.[۳۰] یک کشور چین متعهد شده‌است ۵ میلیارد دلار در هوش مصنوعی سرمایه‌گذاری کند. پکن ۲ میلیارد دلار به یک پارک توسعه هوش مصنوعی اختصاص داده‌است.[۳۱] ژاپن تایمز در سال ۲۰۱۸ گزارش داد که سرمایه‌گذاری خصوصی سالانه چینی‌ها در هوش مصنوعی زیر ۷ میلیارد دلار در سال است. استارت آپ‌های هوش مصنوعی در چین تقریباً نیمی از کل سرمایه‌گذاری جهانی را در زمینه راه اندازی هوش مصنوعی در سال ۲۰۱۷ را دریافت کرده‌اند. چینی‌ها تقریبأ پنج برابر بیشتر از آمریکایی‌ها حق ثبت اختراع، ثبت کردند.[۳۲]

چین مقاله ای را در سال ۲۰۱۶ منتشر کرد که در آن کفایت قانون بین‌المللی موجود برای رسیدگی به احتمال استفاده از سلاح‌های کاملاً مستقل را مورد تردید قرار داد و به عنوان اولین عضو دائمی شورای امنیت سازمان ملل متحد که این موضوع را مطرح می‌کند، قرار گرفت.[۳۳] در سال ۲۰۱۸، خی خواستار همکاری بین‌المللی بیشتر در تحقیقات پایه هوش مصنوعی شد.[۳۴] مقامات چینی ابراز نگرانی کرده‌اند که هوش مصنوعی مانند هواپیماهای بدون سرنشین به ویژه در نبود هنجارهای بین‌المللی، ممکن است به جنگ تصادفی منجر شود.[۳۵] در سال ۲۰۱۹، مارک اسپر، وزیر دفاع آمریکا، به دلیل فروش هواپیماهای بدون سرنشین که قادر به از بین بردن زندگی بدون نظارت انسانی هستند، به شدت مورد انتقاد قرار گرفت.[۳۶]

ایالات متحده

[ویرایش]
The Sea Hunter sails out to sea
Sea Hunter، یک ناو جنگی خودمختار ایالات متحده، ۲۰۱۶

در سال ۲۰۱۴، چاک هیگل، وزیر دفاع سابق، " سومین استراتژی جبران " را مطرح کرد که پیشرفت سریع هوش مصنوعی نسل بعدی جنگ را تعریف خواهد کرد.[۳۷] طبق گفته شرکت علوم تجزیه و تحلیل داده‌ها Govini، وزارت دفاع ایالات متحده سرمایه‌گذاری در زمینه هوش مصنوعی، داده‌های کلان و رایانش ابری را از ۵٫۶ میلیارد دلار در سال ۲۰۱۱ به ۷٫۴ میلیارد دلار در سال ۲۰۱۶ افزایش داد.[۳۸] با این حال، بودجه NSF غیرنظامی برای هوش مصنوعی، در سال ۲۰۱۷ افزایش نیافت.[۲۹] ژاپن تایمز در سال ۲۰۱۸ گزارش داد که سرمایه‌گذاری خصوصی ایالات متحده حدود ۷۰ میلیارد دلار در سال است.[۳۲] «گزارش موقت» نوامبر ۲۰۱۹ کمیسیون امنیت ملی ایالات متحده در مورد هوش مصنوعی تأیید کرد که هوش مصنوعی برای برتری فناوری نظامی ایالات متحده حیاتی است.

ایالات متحده برنامه‌های جنگی نظامی بسیاری در زمینهٔ هوش مصنوعی دارد، مانند ناو جنگی خودمختار Sea Hunter، که برای عملیات نظامی برای ساعت‌های طولانی بدون حتی یک خدمه و هدایت خود به داخل و خارج بندر طراحی شده‌است.[۱۱] از سال ۲۰۱۷، با توجه به بخشنامه وزارت دفاع ایالات متحده موقت، باید یک عامل انسانی در هنگام گرفتن جان انسان توسط سیستم‌های تسلیحاتی خودمختار در جریان باشد.[۳۹] در تاریخ ۳۱ اکتبر ۲۰۱۹، هیئت نوآوری دفاعی وزارت دفاع ایالات متحده پیش نویس گزارشی را منتشر کرد که اصول استفاده اخلاقی از هوش مصنوعی توسط وزارت دفاع را توصیه می‌کند و این اطمینان را می‌دهد که یک عامل انسانی همیشه قادر به بررسی " جعبه سیاه "و فهمیدن روند کشتار زنجیره ای است. با این حال، یک نگرانی عمده این است که گزارش چگونه اجرا خواهد شد.

Project Maven یک پروژه پنتاگون است که شامل استفاده از یادگیری ماشین و استعداد مهندسی برای تشخیص افراد و اشیا در فیلم‌های هواپیماهای بدون سرنشین است،[۴۰] ظاهراً به دولت زمان واقعی فرماندهی و کنترل میدان نبرد، توانایی ردیابی، برچسب گذاری و جاسوسی اهداف بدون دخالت انسان رامی دهد. گزارش شده‌است به عنوان یک سیستم تسلیحاتی هوش مصنوعی قادر به شلیک به اهدافی که خودش تعیین کرده‌است و به صورت کوتاه مدت متوقف می‌شود.[۴۱] این پروژه در نامهٔ غیررسمی توسط معاون وزیر دفاع ایالات متحده در تاریخ ۲۶ آوریل ۲۰۱۷ تأسیس شد.[۴۲] همچنین به عنوان تیم عملیاتی Algorithmic Warfare Cross شناخته می‌شود،[۴۳] به گفته ژنرال نیروی هوایی ایالات متحده جک شاناهان در نوامبر ۲۰۱۷، یک پروژه \"به گونه ای طراحی شده‌است که پروژه هدایت کننده، مسیر یاب، جرقه ای باشد که شعله هوش مصنوعی را در بقیه بخشهای [وزارت دفاع] شعله ور می‌کند\".[۴۴] رئیس آن، سرهنگ سپاه تفنگداران ایالات متحده درو کوکور، گفت: «مردم و رایانه‌ها برای افزایش توانایی سیستم‌های اسلحه در تشخیص اشیا، در کنار هم کار خواهند کرد.»[۴۵] در دومین اجلاس Defense One Tech در ژوئیه ۲۰۱۷، کوکور همچنین گفت که سرمایه‌گذاری در «روند گردش کار آگاهانه» توسط وزارت [دفاع] از طریق «جذب سریع مقامات» برای حدود «۳۶ ماه آینده» تأمین شد.[۴۶]

انگلستان

[ویرایش]

در سال ۲۰۱۵، دولت انگلیس با ممنوعیت استفاده از سلاح‌های کشنده خودمختار مخالفت کرد و اظهار داشت که «قوانین بین‌المللی بشردوستانه از قبل مقررات مناسب در رابطه با این موضوع را فراهم کرده‌است»، اما همه سلاح‌هایی که به وسیلهٔ نیروهای مسلح انگلیس به کار گرفته می‌شود «تحت نظارت و کنترل انسان» خواهند بود.[۴۷]

اسرائیل

[ویرایش]

پهپاد ضد رادار «شلیک و فراموش کن» هارپی اسرائیل برای پرتاب توسط نیروهای زمینی طراحی شده‌است و به‌طور مستقل بر روی منطقه ای پرواز می‌کند تا رادار متناسب با معیارهای از پیش تعیین شده را نابود کند.[۴۸]

کره جنوبی

[ویرایش]

مسلسل Super aEgis II کره جنوبی، که در سال ۲۰۱۰ رونمایی شد که هم در کره جنوبی و هم در خاورمیانه کاربرد دارد. این مسلسل می‌تواند یک هدف متحرک را در شعاع ۴ کیلومتری شناسایی، ردیابی و نابود کند. در حالی که این فناوری از نظر تئوری می‌تواند بدون دخالت انسان کار کند، اما در عمل محافظانی برای ورود دستی، نصب شده‌اند. یک تولیدکننده کره جنوبی اظهار داشت: "سلاح‌های ما احتیاج به خواب ندارند در حالیکه انسان‌ها باید بخوابند. آنها می‌توانند در تاریکی ببینند، درحالیکه که انسان‌ها قادر به این کار نیستند؛ بنابراین فناوری ما خلاهای موجود در توانایی‌های انسانی را جبران می‌کند "، و آنها می‌خواهند" به جایی برسند که نرم افزار ما بتواند تشخیص دهد که ایا هدف ما دوست، دشمن، یک فرد عادی یا نظامی است. "[۴۹]

روندها

[ویرایش]

طبق گفته زیمنس، هزینه‌های نظامی در سراسر جهان برای رباتیک ۵٫۱ میلیارد دلار در سال ۲۰۱۰ و ۷٫۵ میلیارد دلار در سال ۲۰۱۵ بوده‌است.[۵۰][۵۱]

چین در دهه ۲۰۱۰ به عنوان بازیکن برتر در تحقیقات هوش مصنوعی شناخته شد. طبق گزارش فایننشال تایمز، در سال ۲۰۱۶، برای اولین بار، تعداد مقالاتی که چین در زمینهٔ هوش مصنوعی منتشر کرد از کل تعداد مقالات اتحادیه اروپا بیشتر بود. وقتی تعداد مقالات ذکر شده را به پنج درصد اول محدود می‌کنیم، چین در سال ۲۰۱۶ از ایالت متحده پیشی گرفت ولی از اتحادیه اروپا عقب بود[۲۹] ۲۳٪ از محققان حاضر در کنفرانس انجمن پیشرفت هوش مصنوعی آمریکا (AAAI) در سال ۲۰۱۷ چینی بودند.[۵۲] اریک اشمیت، رئیس سابق آلفابت، پیش‌بینی کرده‌است که چین تا سال ۲۰۲۵ کشور پیشرو در هوش مصنوعی خواهد بود.[۵۳]

مجریان AAAI:[۵۲]
کشور در سال ۲۰۱۲ در سال ۲۰۱۷
آمریکا ۴۱٪ ۳۴٪
چین ۱۰٪ ۲۳٪
انگلستان ۵٪ ۵٪

پیشنهادها برای قانون‌های بین‌المللی

[ویرایش]

قانون‌های بین‌المللی سلاح‌های خودمختار موضوعی در حال ظهور در حقوق بین‌الملل است.[۵۴] کنترل تسلیحاتی هوش مصنوعی احتمالاً مستلزم نهادینه سازی هنجارهای جدید بین‌المللی است که در ویژگی‌های فنی مؤثر همراه با نظارت فعال و دیپلماسی غیررسمی توسط جوامع متخصص، همراه با یک پروسه تأیید قانونی و سیاسی تجسم می‌شود.[۵۵][۵۶] در اوایل سال ۲۰۰۷، دانشمندانی مانند استاد هوش مصنوعی، نوئل شارکی هشدار داده‌اند که "یک مسابقه تسلیحاتی در حال ظهور در میان کشورهای پیشرفته برای توسعه زیردریایی‌های مستقل، جنگنده‌ها، کشتی‌های جنگی و تانک‌هایی است که می‌توانند اهداف خود را پیدا کنند و بدون درگیر شدن تصمیمات معنادار انسانی از خشونت استفاده کنند ".[۵۷][۵۸] در سال ۲۰۱۴، استیو اوموهوندرو، متخصص هوش مصنوعی هشدار داد که «یک مسابقه تسلیحاتی مستقل در حال انجام است».[۵۹] مایلز برونداژ از دانشگاه آکسفورد استدلال کرده‌است که یک مسابقه تسلیحاتی هوش مصنوعی ممکن است از طریق دیپلماسی تا حدودی کاهش یابد: «ما در مسابقات مختلف اسلحه سازی تاریخی دیدیم که همکاری و گفتگو می‌تواند سود سهام را بپردازد».[۶۰] بیش از صد متخصص در سال ۲۰۱۷ نامه سرگشاده ای را امضا کردند و از سازمان ملل خواستند به موضوع سلاح‌های خودمختار کشنده رسیدگی کند.[۶۱][۶۲] با این حال، در جلسه نوامبر ۲۰۱۷ کنوانسیون سازمان ملل در مورد برخی سلاح‌های متعارف (CCW)، دیپلمات‌ها حتی در مورد چگونگی تعریف چنین سلاح‌هایی توافق نکردند.[۶۳] سفیر هند و رئیس CCW اظهار داشت که توافق در مورد قوانین همچنان دور از ذهن است. از سال ۲۰۱۷، بیست و دو کشور خواستار ممنوعیت کامل سلاح‌های خودمختار کشنده شده‌اند.[۶۴]

بسیاری از کارشناسان معتقدند که تلاش برای منع کامل ربات‌های قاتل به شکست منجر می‌شود.[۶۵] گزارش سال ۲۰۱۷ مرکز بلفر هاروارد پیش‌بینی کرده‌است که هوش مصنوعی توانایی دارد به اندازهٔ سلاح‌های هسته ای قابل تغییر باشد.[۶۰][۶۶][۶۷] در ادامه این گزارش استدلال می‌شود که «جلوگیری از استفاده گسترده نظامی از هوش مصنوعی احتمالاً غیرممکن است» و «باید هدف متواضعانه مدیریت ایمن و مؤثر فناوری را دنبال کرد»، مانند ممنوعیت اتصال سوئیچ مرد مرده هوش مصنوعی به زرادخانه هسته ای. بخشی از غیر عملی بودن، به این دلیل است که تشخیص نقض معاهده بسیار دشوار است.[۶۸][۶۹]

واکنش‌های دیگر به سلاح‌های خودمختار

[ویرایش]

نامه ای سرگشاده در سال ۲۰۱۵ که خواستار ممنوعیت استفاده از سیستم‌های اسلحه خودکار کشنده است، به وسیله ده‌ها هزار شهروند، از جمله محققانی مانند استیون هاوکینگ فیزیکدان، ایلان ماسک بزرگ تسلا، و استیو وزنیاک از اپل امضا شده‌است.[۶۳]

پروفسور نوئل شارکی از دانشگاه شفیلد هشدار داده‌است که سلاح‌های خودمختار به صورت اجتناب ناپذیری در دست گروه‌های تروریستی مانند دولت اسلامی قرار خواهند گرفت.[۷۰]

جدا کردن

[ویرایش]

بسیاری از شرکت‌های فناوری غربی از ترس از دست دادن دسترسی به بازار چین، از ارتباط نزدیک با ارتش ایالات متحده ابراز نگرانی می‌کنند.[۲۸] بعلاوه، برخی از محققان، مانند Demis Hassabis از DeepMind، از نظر ایدئولوژیکی با کمک به کار ارتشی مخالف هستند.[۷۱]

برای مثال، در ژوئن ۲۰۱۸، منابع شرکت گوگل گفتند که مدیر ارشد دایان گرین به کارکنان گفته‌است که شرکت پس از اتمام قرارداد فعلی در مارس ۲۰۱۹، پروژه Maven را پیگیری نمی‌کند.[۴۰]

جستارهای وابسته

[ویرایش]

منابع

[ویرایش]
  1. Geist, Edward Moore (2016-08-15). "It's already too late to stop the AI arms race—We must manage it instead". Bulletin of the Atomic Scientists. 72 (5): 318–321. Bibcode:2016BuAtS..72e.318G. doi:10.1080/00963402.2016.1216672. ISSN 0096-3402.
  2. Maas, Matthijs M. (2019-02-06). "How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons". Contemporary Security Policy. 40 (3): 285–311. doi:10.1080/13523260.2019.1576464. ISSN 1352-3260.
  3. Roff, Heather M. (2019-04-26). "The frame problem: The AI "arms race" isn't one". Bulletin of the Atomic Scientists. 75 (3): 95–98. Bibcode:2019BuAtS..75c..95R. doi:10.1080/00963402.2019.1604836. ISSN 0096-3402.
  4. ۴٫۰ ۴٫۱ Allen, Gregory. "Understanding China's AI Strategy". Center for a New American Security. Center for a New American Security. Retrieved 15 March 2019.
  5. Armstrong, Stuart; Bostrom, Nick; Shulman, Carl (2015-08-01). "Racing to the precipice: a model of artificial intelligence development". AI & Society. 31 (2): 201–206. doi:10.1007/s00146-015-0590-y. ISSN 0951-5666.
  6. Pascal, Tim Hwang, Alex. "Artificial Intelligence Isn't an Arms Race". Foreign Policy (به انگلیسی). Retrieved 2020-04-07.
  7. Scharre, Paul (18 February 2020). "Killer Apps: The Real Dangers of an AI Arms Race". Retrieved 15 March 2020.
  8. "Russia is building a missile that can makes its own decisions". Newsweek (به انگلیسی). 20 July 2017. Retrieved 24 December 2017.
  9. "Why Elon Musk is right about the threat posed by Russian artificial intelligence". The Independent. 6 September 2017. Retrieved 24 December 2017.
  10. "Russia is developing autonomous "swarms of drones" it calls an inevitable part of future warfare". Newsweek (به انگلیسی). 15 May 2017. Retrieved 24 December 2017.
  11. ۱۱٫۰ ۱۱٫۱ Smith, Mark (25 August 2017). "Is 'killer robot' warfare closer than we think?". BBC News. Retrieved 24 December 2017.
  12. "Artificial Intelligence Fuels New Global Arms Race". WIRED. Retrieved 24 December 2017.
  13. Clifford, Catherine (29 September 2017). "In the same way there was a nuclear arms race, there will be a race to build A.I. , says tech exec". CNBC. Retrieved 24 December 2017.
  14. Radina Gigova (2 September 2017). "Who Vladimir Putin thinks will rule the world". CNN. Retrieved 22 March 2020.
  15. "Here's How the Russian Military Is Organizing to Develop AI". Defense One. Retrieved 2020-05-01.
  16. ۱۶٫۰ ۱۶٫۱ "Red Robots Rising: Behind the Rapid Development of Russian Unmanned Military Systems". The Strategy Bridge (به انگلیسی). Retrieved 2020-05-01.
  17. Bendett, Samuel (2017-11-08). "Should the U.S. Army Fear Russia's Killer Robots?". The National Interest (به انگلیسی). Retrieved 2020-05-01.
  18. "Russia Says It Will Field a Robot Tank that Outperforms Humans". Defense One. Retrieved 2020-05-01.
  19. Greene, Tristan (2017-07-27). "Russia is developing AI missiles to dominate the new arms race". The Next Web (به انگلیسی). Retrieved 2020-05-01.
  20. Mizokami, Kyle (2017-07-19). "Kalashnikov Will Make an A.I. -Powered Killer Robot". Popular Mechanics (به انگلیسی). Retrieved 2020-05-01.
  21. Dougherty, Jill; Jay, Molly. "Russia Tries to Get Smart about Artificial Intelligence". Wilson Quarterly.
  22. "Russian AI-Enabled Combat: Coming to a City Near You?". War on the Rocks (به انگلیسی). 2019-07-31. Retrieved 2020-05-01.
  23. Polyakova, Alina (2018-11-15). "Weapons of the weak: Russia and AI-driven asymmetric warfare". Brookings (به انگلیسی). Retrieved 2020-05-01.
  24. Polyakova, Chris Meserole, Alina. "Disinformation Wars". Foreign Policy (به انگلیسی). Retrieved 2020-05-01.
  25. "Russia rejects potential UN 'killer robots' ban, official statement says". Institution of Engineering and Technology. 1 December 2017. Retrieved 12 January 2018.
  26. "Examination of various dimensions of emerging technologies in the area of lethal autonomous weapons systems, Russian Federation, November 2017" (PDF). Retrieved 12 January 2018.
  27. "Technology, Trade, and Military-Civil Fusion: China's Pursuit of Artificial Intelligence, New Materials, and New Energy | U.S. - CHINA | ECONOMIC and SECURITY REVIEW COMMISSION". www.uscc.gov. Retrieved 2020-04-04.
  28. ۲۸٫۰ ۲۸٫۱ Markoff, John; Rosenberg, Matthew (3 February 2017). "China's Intelligent Weaponry Gets Smarter". The New York Times. Retrieved 24 December 2017.
  29. ۲۹٫۰ ۲۹٫۱ ۲۹٫۲ "China seeks dominance of global AI industry". Financial Times. 15 October 2017. Retrieved 24 December 2017.
  30. "China enlists start-ups in high-tech arms race". Financial Times. 9 July 2017. Retrieved 24 December 2017.
  31. Metz, Cade (12 February 2018). "As China Marches Forward on A.I. , the White House Is Silent". The New York Times. Retrieved 14 February 2018.
  32. ۳۲٫۰ ۳۲٫۱ "The artificial intelligence race heats up". The Japan Times. 1 March 2018. Retrieved 5 March 2018.
  33. "Robots with Guns: The Rise of Autonomous Weapons Systems". Snopes.com. 21 April 2017. Retrieved 24 December 2017.
  34. Pecotic, Adrian (2019). "Whoever Predicts the Future Will Win the AI Arms Race". Foreign Policy. Retrieved 16 July 2019.
  35. Vincent, James (6 February 2019). "China is worried an AI arms race could lead to accidental war". The Verge. Retrieved 16 July 2019.
  36. "Is China exporting killer robots to Mideast?". Asia Times (به انگلیسی). 2019-11-28. Retrieved 2019-12-21.
  37. "US risks losing AI arms race to China and Russia". CNN. 29 November 2017. Retrieved 24 December 2017.
  38. Davenport, Christian (3 December 2017). "Future wars may depend as much on algorithms as on ammunition, report says". Washington Post. Retrieved 24 December 2017.
  39. "US general warns of out-of-control killer robots". CNN. 18 July 2017. Retrieved 24 December 2017.
  40. ۴۰٫۰ ۴۰٫۱ "Google 'to end' Pentagon Artificial Intelligence project". BBC News. 2 June 2018. Retrieved 3 June 2018.
  41. "Report: Palantir took over Project Maven, the military AI program too unethical for Google". The Next Web. 11 December 2020. Retrieved 17 January 2020.
  42. Robert O. Work (26 April 2017). "Establishment of an Algorithmic Warfare Cross-Functional Team (Project Maven)" (PDF). Retrieved 3 June 2018.
  43. "Google employees resign in protest against Air Force's Project Maven". Fedscoop. 14 May 2018. Retrieved 3 June 2018.
  44. Allen, Gregory C. (21 December 2017). "Project Maven brings AI to the fight against ISIS". Bulletin of the Atomic Scientists. Archived from the original on 4 June 2018. Retrieved 3 June 2018.
  45. Ethan Baron (3 June 2018). "Google Backs Off from Pentagon Project After Uproar: Report". Military.com. Retrieved 3 June 2018.
  46. Cheryl Pellerin (21 July 2017). "Project Maven to Deploy Computer Algorithms to War Zone by Year's End". DoD News, Defense Media Activity. Retrieved 3 June 2018.
  47. Gibbs, Samuel (20 August 2017). "Elon Musk leads 116 experts calling for outright ban of killer robots". The Guardian. Retrieved 24 December 2017.
  48. "'Killer robots': autonomous weapons pose moral dilemma | World| Breakings news and perspectives from around the globe | DW | 14.11.2017". DW.COM (به انگلیسی). 14 November 2017. Retrieved 12 January 2018.
  49. Parkin, Simon (16 July 2015). "Killer robots: The soldiers that never sleep". BBC. Retrieved 13 January 2018.
  50. "Getting to grips with military robotics". The Economist (به انگلیسی). 25 January 2018. Retrieved 7 February 2018.
  51. "Autonomous Systems: Infographic". www.siemens.com (به انگلیسی). Archived from the original on 7 February 2018. Retrieved 7 February 2018.
  52. ۵۲٫۰ ۵۲٫۱ Kopf, Dan (2018). "China is rapidly closing the US's lead in AI research". Quartz. Retrieved 7 February 2018.
  53. "The battle for digital supremacy". The Economist (به انگلیسی). 2018. Retrieved 19 March 2018.
  54. Bento, Lucas (2017). "No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law". Retrieved 2019-09-14. {{cite journal}}: Cite journal requires |journal= (help)
  55. Geist, Edward Moore (2016-08-15). "It's already too late to stop the AI arms race—We must manage it instead". Bulletin of the Atomic Scientists. 72 (5): 318–321. Bibcode:2016BuAtS..72e.318G. doi:10.1080/00963402.2016.1216672. ISSN 0096-3402.
  56. Maas, Matthijs M. (2019-02-06). "How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons". Contemporary Security Policy. 40 (3): 285–311. doi:10.1080/13523260.2019.1576464. ISSN 1352-3260.
  57. "Ban on killer robots urgently needed, say scientists". The Guardian. 13 November 2017. Retrieved 24 December 2017.
  58. Sharkey, Noel (17 August 2007). "Noel Sharkey: Robot wars are a reality". The Guardian. Retrieved 11 January 2018.
  59. Markoff, John (11 November 2014). "Fearing Bombs That Can Pick Whom to Kill". The New York Times. Retrieved 11 January 2018.
  60. ۶۰٫۰ ۶۰٫۱ "AI Could Revolutionize War as Much as Nukes". WIRED. Retrieved 24 December 2017.
  61. Gibbs, Samuel (20 August 2017). "Elon Musk leads 116 experts calling for outright ban of killer robots". The Guardian. Retrieved 11 January 2018.
  62. "An Open Letter to the United Nations Convention on Certain Conventional Weapons". Future of Life Institute. Retrieved 14 January 2018.
  63. ۶۳٫۰ ۶۳٫۱ "Rise of the killer machines". Asia Times. 24 November 2017. Archived from the original on 23 December 2017. Retrieved 24 December 2017. خطای یادکرد: برچسب <ref> نامعتبر؛ نام «asia» چندین بار با محتوای متفاوت تعریف شده است. (صفحهٔ راهنما را مطالعه کنید.).
  64. "'Robots are not taking over,' says head of UN body on autonomous weapons". The Guardian. 17 November 2017. Retrieved 14 January 2018.
  65. "Sorry, Banning 'Killer Robots' Just Isn't Practical". WIRED. 22 August 2017. Retrieved 14 January 2018.
  66. McFarland, Matt (14 November 2017). "'Slaughterbots' film shows potential horrors of killer drones". CNNMoney. Retrieved 14 January 2018.
  67. Allen, Greg, and Taniel Chan. "Artificial Intelligence and National Security." Report. Harvard Kennedy School, Harvard University. Boston, MA (2017).
  68. Antebi, Liran. "Who Will Stop the Robots?." Military and Strategic Affairs 5.2 (2013).
  69. Shulman, C. , & Armstrong, S. (2009, July). Arms control and intelligence explosions. In 7th European Conference on Computing and Philosophy (ECAP), Bellaterra, Spain, July (pp. 2-4).
  70. Wheeler, Brian (30 November 2017). "Terrorists 'certain' to get killer robots". BBC News. Retrieved 24 December 2017.
  71. Metz, Cade (15 March 2018). "Pentagon Wants Silicon Valley's Help on A.I." The New York Times. Retrieved 19 March 2018.

خواندن بیشتر

[ویرایش]
  • پل شار، "برنامه‌های قاتل: خطرات واقعی یک مسابقه تسلیحاتی هوش مصنوعی"، امور خارجه، ج. ۹۸، نه ۳ (مه / ژوئن ۲۰۱۹)، ص. ۱۳۵–۴۴. "فناوری‌های هوش مصنوعی امروز قدرتمند اما غیرقابل اعتماد هستند. سیستم‌های مبتنی بر قوانین نمی‌توانند با شرایطی که برنامه نویسان آنها پیش بینی نکرده‌اند، کنار بیایند. سیستم‌های یادگیری محدود به داده‌هایی که به ان‌ها اموخته شده‌اند هستند. عدم موفقیت هوش مصنوعی در حال حاضر به فاجعه منجر شده‌است. ویژگی‌های پیشرفته خلبان اتوماتیک در اتومبیل‌ها، اگرچه thesddsy در بعضی موارد به خوبی کار می‌کند، اما اتومبیل‌ها را بدون اخطار به سمت کامیون‌ها، موانع بتونی و اتومبیل‌های پارک شده هدایت کرده‌است. در شرایط اشتباه، سیستم‌های هوش مصنوعی در یک لحظه از supersmart به superdumb تبدیل می‌شوند. وقتی دشمن در تلاش برای دستکاری و هک کردن سیستم هوش مصنوعی است، خطرات حتی بیشتر نیز می‌شوند. "(ص. ۱۴۰)
  • کمیسیون امنیت ملی هوش مصنوعی. (2019) گزارش موقت واشینگتن دی سی: نویسنده.