پرش به محتوا

هوش مصنوعی

از ویکی‌پدیا، دانشنامهٔ آزاد

هوش مصنوعی (به انگلیسی: Artificial intelligence) (سَرنام انگلیسی: AI) هوشی است که به‌دستماشین‌ها پدید می‌آید، در برابر هوش طبیعی[الف] که توسط جانوران شامل انسان‌ها نمایش می‌یابد. ولی پیش از هرچیز باید این موضوع را دانست که کلمه هوش، نشان دهنده امکان استدلال است و اینکه آیا هوش مصنوعی می‌تواند به توانایی استدلال دست یابد یا خیر، خود موضوع اختلاف محققان است.

کتاب‌های AI پیشرو، این شاخه را به عنوان شاخه مطالعه بر روی «عوامل هوشمند» تعریف می‌کنند: هر سامانه‌ای که محیط خود را درک کرده و کنش‌هایی را انجام می‌دهد که شانسش را در دستیابی به اهدافش بیشینه می‌سازد.[ب] برخی از منابع شناخته شده از اصطلاح «هوش مصنوعی» جهت توصیف ماشینی استفاده می‌کنند که عملکردهای «شناختی» را از روی ذهن انسان‌ها تقلید می‌کنند، همچون «یادگیری» و «حل مسئله»، با این حال این تعریف توسط محققان اصلی در زمینه AI رد شده است.[پ][۲][۳]

کاربردهای هوش مصنوعی شامل موتورهای جستجو پیشرفتهٔ وب (مثل گوگل و بینگسامانهٔ توصیه‌گر (که توسط یوتیوب، آمازون و نتفلیکس استفاده می‌شوند)، فهم زبان انسان‌ها (همچون سیری، جمنای و آمازون الکساخودروهای خودران (مثل تسلاهوش مصنوعی مولد یا خلاقیت محاسباتی (مثل چت‌جی‌پی‌تی یا تولید اثر هنری مانند دال-ئی و میدجرنی) تصمیم‌گیری خودکار و رقابت در بالاترین سطوح سامانه‌های بازی استراتژیک (همچون شطرنج و گو). با بیشتر شدن توانایی ماشین‌ها، وظایفی که نیازمند «هوشمندی» هستند اغلب از تعریف AI برداشته می‌شود، پدیده‌ای که به آن اثر هوش مصنوعی گفته می‌شود. به عنوان مثال، فهم نوری کاراکتر را اغلب از چیزهایی که AI در نظر گرفته می‌شوند مستثنی می‌کنند، چرا که این فناوری تبدیل به فناوری عادی و روزمره‌ای شده است.[۴][۵][۶] (استفاده از هوش مصنوعی در زمینه‌هایی مانند پزشکی و آموزش رو به افزایش است).

هوش مصنوعی در سال ۱۹۵۶ میلادی تبدیل به شاخه‌ای آکادمیک شد و در سال‌های پس از آن چندین موج خوش‌بینی را تجربه کرده و مجدد دچار امواج ناامیدی و کمبود بودجه شده (که به آن «زمستان AI» می‌گویند)، سپس فناوری‌های جدیدی در پی آن آمده و موفقیت و بودجه‌های تحقیقاتی این حوزه مجدداً احیا گشته‌اند. تحقیقات AI رهیافت‌های متفاوتی را از زمان تأسیس آن امتحان کرده و آن‌ها را کنار گذاشته است. رهیافت‌هایی چون: شبیه‌سازی مغز، مدل‌سازی حل مسئله توسط مغز انسان، منطق صوری، بانک‌های اطلاعاتی بزرگ دانش و تقلید رفتار جانوران است. در اولین دهه‌های قرن ۲۱ میلادی، یادگیری ماشینی که شدیداً از آمار ریاضیاتی بهره می‌برد در این حوزه غلبه داشت و این فناوری اثبات کرد که به شدت موفق است و به حل چندین مسئله چالش‌برانگیز در صنعت و فضای آکادمیک کمک نمود.[۷][۸]

پژوهشگران، ریشه‌های تاریخی هوش مصنوعی را در دستگاه‌های محاسباتی و تاریخ منطق می‌دانند. اندیشهٔ آغازین منطق (چه در منطق پیشاسقراطی و چه در منطق ارسطویی) بر جایگزینی «سخن درست» با دستگاهی ضمنی یا صریح از قواعد مدون استوار بود. از این‌رو، از دیدگاه فلسفی، می‌توان ایدهٔ بنیادی منطق را به‌معنای نوعی هوشِ مستقل از عامل انسانی دانست (دست‌کم در برخی جنبه‌ها در حین اجرا، و بر پایهٔ مفهوم صورت‌مندی). مثلاً مولوی در قرن سیزدهم میلادی می‌گوید: «مثنوی پس از من معلم خواهد شد و طالبان را هدایت خواهد کرد.» این گفته به‌روشنی بیانگر اندیشه‌ای فلسفی است که شباهت بسیاری به مفهوم «دوقلوهای هوشمند مستقل» دارد.[۹][۱۰][۱۱][۱۲]

شاخه‌های مختلف تحقیقات هوش مصنوعی حول اهداف به خصوصی متمرکز بوده و از ابزارآلات خاصی استفاده می‌کنند. اهداف سنتی تحقیقات AI شامل این موارد اند: استدلال، نمایش دانش، برنامه‌ریزی، یادگیری، پردازش زبان طبیعی، ادراک و توانایی در جابجایی و دستکاری اشیاء.[ت] هوش جامع (توانایی حل مسائل دلخواه) در میان اهداف بلند مدت این حوزه است. جهت حل چنین مسائلی، محققان AI فنون حل مسئله وسیع و یکپارچه‌ای را شامل این موارد به کار بسته‌اند: جست‌وجو و بهینه‌سازی ریاضیاتی، منطق صوری، شبکه‌های عصبی مصنوعی و روش‌های مبنی بر آمار، احتمالات و اقتصاد. AI همچنین با حوزه‌هایی چون علوم کامپیوتر، روان‌شناسی، زبان‌شناسی، فلسفه و بسیاری از حوزه‌های دیگر مرتبط است.[۱۳]

این شاخه بر این فرض بنا شده است که هوش انسانی «را می‌توان به دقت توصیف نمود، به طوری که می‌توان آن را توسط یک ماشین شبیه‌سازی نمود».[ث] این فرض بحث‌های فلسفی را پیرامون ذهن و اخلاقیات خلق موجودات هوشمند برانگیخته است، موجوداتی که دارای هوش شبیه-انسان اند. این مسائل توسط افسانه‌ها، داستان‌های تخیلی و فلسفه از زمان‌های باستان مورد کاوش واقع شده‌اند. ادبیات علمی-تخیلی و آینده‌پژوهی نیز پیشنهاد می‌دهند که AI با پتانسیل و قدرت عظیمی که دارد، ممکن است منجر به ایجاد ریسک وجودی برای بشریت گردد.[۱۵]

اهداف

[ویرایش]

مسئله کلی شبیه‌سازی (یا ایجاد) هوش به زیرمسئله‌هایی تقسیم شده است. این زیرمسئله‌ها شامل ویژگی‌ها یا قابلیت‌های خاصی هستند که پژوهشگران انتظار دارند یک سیستم هوشمند از خود نشان دهد. ویژگی‌های توصیف شده در زیر بیشترین توجه را به خود جلب کرده و دامنه پژوهش‌های هوش مصنوعی را پوشش می‌دهند.[ت]

استدلال و حل مسئله

[ویرایش]

پژوهشگران اولیه الگوریتم‌هایی را توسعه دادند که از استدلال گام به گامی که انسان‌ها هنگام حل معماها یا انجام استنتاج‌های منطقی به کار می‌برند، تقلید می‌کرد.[۱۶] در اواخر دهه ۱۹۸۰ و ۱۹۹۰، روش‌هایی برای مواجهه با اطلاعات نامطمئن یا ناقص با استفاده از مفاهیم احتمالات و اقتصاد توسعه یافت.[۱۷]

بسیاری از این الگوریتم‌ها برای حل مسائل بزرگ استدلالی ناکافی هستند زیرا با یک «انفجار ترکیبی» مواجه می‌شوند: با بزرگ‌تر شدن مسائل، سرعت آنها به صورت نمایی کاهش می‌یابد.[۱۸] حتی انسان‌ها نیز به ندرت از استنتاج گام به گامی که پژوهش‌های اولیه هوش مصنوعی می‌توانستند مدل‌سازی کنند، استفاده می‌کنند. آنها بیشتر مسائل خود را با استفاده از قضاوت‌های سریع و شهودی حل می‌کنند.[۱۹] استدلال دقیق و کارآمد یک مسئله حل‌نشده باقی مانده است.

بازنمایی دانش

[ویرایش]
یک هستان‌شناسی دانش را به عنوان مجموعه‌ای از مفاهیم در یک دامنه و روابط بین آن مفاهیم بازنمایی می‌کند.

بازنمایی دانش و مهندسی دانش[۲۰] به برنامه‌های هوش مصنوعی اجازه می‌دهند تا به‌طور هوشمندانه به سؤالات پاسخ دهند و در مورد حقایق دنیای واقعی استنتاج کنند. بازنمایی‌های دانش رسمی در نمایه‌سازی و بازیابی مبتنی بر محتوا،[۲۱] تفسیر صحنه،[۲۲] پشتیبانی تصمیم‌گیری بالینی،[۲۳] کشف دانش (استخراج «استنتاج‌های جالب» و قابل اقدام از پایگاه‌های داده بزرگ)،[۲۴] و سایر حوزه‌ها استفاده می‌شوند.[۲۵]

یک پایگاه دانش مجموعه‌ای از دانش است که به شکلی قابل استفاده برای یک برنامه بازنمایی شده است. یک هستی‌شناسی مجموعه‌ای از اشیاء، روابط، مفاهیم و ویژگی‌هایی است که توسط یک دامنه خاص از دانش استفاده می‌شود.[۲۶] پایگاه‌های دانش نیاز به بازنمایی مواردی مانند اشیاء، ویژگی‌ها، دسته‌ها و روابط بین اشیاء دارند؛[۲۷] موقعیت‌ها، رویدادها، وضعیت‌ها و زمان؛[۲۸] علل و معلول‌ها؛[۲۹] دانش در مورد دانش (آنچه ما در مورد آنچه دیگران می‌دانند، می‌دانیم)؛[۳۰] استدلال پیش‌فرض (چیزهایی که انسان‌ها فرض می‌کنند درست هستند تا زمانی که خلاف آن به آنها گفته شود و حتی با تغییر حقایق دیگر نیز درست باقی می‌مانند)؛[۳۱] و بسیاری از جنبه‌ها و دامنه‌های دیگر دانش.

از جمله دشوارترین مسائل در بازنمایی دانش، گستردگی دانش عقل سلیم (مجموعه حقایق اتمی که یک فرد معمولی می‌داند بسیار گسترده است)؛[۳۲] و شکل زیر-نمادین بیشتر دانش عقل سلیم (بسیاری از آنچه مردم می‌دانند به صورت «حقایق» یا «گزاره‌هایی» که بتوانند به صورت کلامی بیان کنند، بازنمایی نمی‌شود) است.[۱۹] همچنین دشواری فراگیری دانش، یعنی مسئله به دست آوردن دانش برای کاربردهای هوش مصنوعی، وجود دارد.[ج]

برنامه‌ریزی و تصمیم‌گیری

[ویرایش]

یک «عامل» (agent) هر چیزی است که در جهان ادراک کرده و اقداماتی را انجام می‌دهد. یک عامل منطقی اهداف یا ترجیحاتی دارد و برای تحقق آنها اقدام می‌کند.[چ][۳۵] در برنامه‌ریزی خودکار، عامل یک هدف مشخص دارد.[۳۶] در تصمیم‌گیری خودکار، عامل ترجیحاتی دارد—موقعیت‌هایی وجود دارند که ترجیح می‌دهد در آنها باشد و موقعیت‌هایی که سعی می‌کند از آنها اجتناب کند. عامل تصمیم‌گیرنده به هر موقعیت یک عدد (که «مطلوبیت» نامیده می‌شود) اختصاص می‌دهد که میزان ترجیح عامل را برای آن موقعیت اندازه‌گیری می‌کند. برای هر اقدام ممکن، می‌تواند «مطلوبیت انتظاری» را محاسبه کند: یعنی مطلوبیت تمام نتایج ممکن از آن اقدام، که با احتمال وقوع آن نتیجه وزن‌دهی شده است. سپس می‌تواند اقدامی را انتخاب کند که بیشترین مطلوبیت انتظاری را داشته باشد.[۳۷]

در برنامه‌ریزی کلاسیک، عامل دقیقاً می‌داند که تأثیر هر اقدام چه خواهد بود.[۳۸] ولی در بیشتر مسائل دنیای واقعی، عامل ممکن است در مورد موقعیتی که در آن قرار دارد مطمئن نباشد (موقعیت «ناشناخته» یا «غیرقابل مشاهده» است) و ممکن است به‌طور قطع نداند که پس از هر اقدام ممکن چه اتفاقی خواهد افتاد (موقعیت «قطعی» نیست). عامل باید با یک حدس احتمالی اقدامی را انتخاب کند و سپس موقعیت را دوباره ارزیابی کند تا ببیند آیا اقدام مؤثر بوده است یا خیر.[۳۹]

در برخی مسائل، ترجیحات عامل ممکن است نامشخص باشد، به خصوص اگر عوامل یا انسان‌های دیگری درگیر باشند. این ترجیحات می‌توانند یادگرفته شوند (مثلاً با یادگیری تقویتی معکوس) یا عامل می‌تواند برای بهبود ترجیحات خود به دنبال اطلاعات باشد.[۴۰] نظریه ارزش اطلاعات می‌تواند برای سنجش ارزش اقدامات اکتشافی یا آزمایشی استفاده شود.[۴۱] فضای اقدامات و موقعیت‌های ممکن در آینده معمولاً به‌طور ذاتی بزرگ است، بنابراین عامل‌ها باید در حالی که از نتیجه مطمئن نیستند، اقدام کرده و موقعیت‌ها را ارزیابی کنند.

یک فرایند تصمیم‌گیری مارکوف دارای یک مدل انتقال است که احتمال تغییر حالت توسط یک اقدام خاص به روشی معین را توصیف می‌کند و یک تابع پاداش دارد که مطلوبیت هر حالت و هزینه هر اقدام را فراهم می‌کند. یک سیاست (policy) یک تصمیم را به هر حالت ممکن مرتبط می‌کند. سیاست می‌تواند محاسبه شود (مثلاً با تکرار سیاست)، ابتکاری باشد، یا یادگرفته شود.[۴۲]

نظریه بازی‌ها رفتار منطقی چندین عامل در حال تعامل را توصیف می‌کند و در برنامه‌های هوش مصنوعی که تصمیماتی را شامل عوامل دیگر می‌گیرند، استفاده می‌شود.[۴۳]

یادگیری

[ویرایش]

یادگیری ماشین مطالعه برنامه‌هایی است که می‌توانند عملکرد خود را در یک وظیفه معین به‌طور خودکار بهبود بخشند.[۴۴] این حوزه از ابتدا بخشی از هوش مصنوعی بوده است.[ح]

در یادگیری با نظارت، داده‌های آموزشی با پاسخ‌های مورد انتظار برچسب‌گذاری شده‌اند، در حالی که در یادگیری بدون نظارت، مدل الگوها یا ساختارها را در داده‌های بدون برچسب شناسایی می‌کند.

انواع مختلفی از یادگیری ماشین وجود دارد. یادگیری بی‌نظارت جریانی از داده‌ها را تحلیل می‌کند و بدون هیچ راهنمایی دیگری، الگوها را پیدا کرده و پیش‌بینی‌هایی را انجام می‌دهد.[۴۷] یادگیری بانظارت نیازمند برچسب‌گذاری داده‌های آموزشی با پاسخ‌های مورد انتظار است و در دو نوع اصلی ارائه می‌شود: دسته‌بندی (که در آن برنامه باید یاد بگیرد پیش‌بینی کند ورودی به کدام دسته تعلق دارد) و رگرسیون (که در آن برنامه باید یک تابع عددی را بر اساس ورودی عددی استنتاج کند).[۴۸]

در یادگیری تقویتی، عامل برای پاسخ‌های خوب پاداش می‌گیرد و برای پاسخ‌های بد تنبیه می‌شود. عامل یادمی‌گیرد پاسخ‌هایی را انتخاب کند که به عنوان «خوب» طبقه‌بندی می‌شوند.[۴۹] یادگیری انتقال زمانی است که دانش به دست آمده از یک مسئله به یک مسئله جدید اعمال می‌شود.[۵۰] یادگیری عمیق نوعی از یادگیری ماشین است که ورودی‌ها را از طریق شبکه‌های عصبی مصنوعی الهام گرفته از زیست‌شناسی برای همه این انواع یادگیری پردازش می‌کند.[۵۱]

نظریه یادگیری محاسباتی می‌تواند یادگیرنده‌ها را بر اساس پیچیدگی محاسباتی، پیچیدگی نمونه (چه مقدار داده مورد نیاز است)، یا مفاهیم دیگر بهینه‌سازی ارزیابی کند.[۵۲]

پردازش زبان طبیعی

[ویرایش]

پردازش زبان طبیعی (پزط) به برنامه‌ها اجازه می‌دهد تا به زبان‌های انسانی بخوانند، بنویسند و ارتباط برقرار کنند.[۵۳] مسائل خاص شامل بازشناسی گفتار، تولید گفتار، ترجمه ماشینی، استخراج اطلاعات، بازیابی اطلاعات و پرسش و پاسخ است.[۵۴]

کارهای اولیه، بر اساس دستور زایشی نوآم چامسکی و شبکه‌های معنایی، با ابهام‌زدایی از معنای واژه مشکل داشتند[خ] مگر اینکه به دامنه‌های کوچکی به نام «میکرو-جهان‌ها» محدود می‌شدند (به دلیل مسئله دانش عقل سلیم[۳۲]). مارگارت مسترمن معتقد بود که معنا و نه دستور زبان، کلید درک زبان‌ها است و اصطلاح‌نامه و نه لغت‌نامه‌ها باید اساس ساختار زبان محاسباتی باشند.

تکنیک‌های مدرن یادگیری عمیق برای NLP شامل تعبیه کلمه (نمایش کلمات، معمولاً به صورت بردارها که معنای آنها را رمزگذاری می‌کنند)،[۵۵] ترنسفورمرها (یک معماری یادگیری عمیق با استفاده از مکانیزم توجه[۵۶] و موارد دیگر است.[۵۷] در سال ۲۰۱۹، مدل‌های زبانی ترنسفورمر از پیش آموزش‌دیده مولد (یا "GPT") شروع به تولید متن منسجم کردند،[۵۸][۵۹] و تا سال ۲۰۲۳، این مدل‌ها توانستند در آزمون وکالت، آزمون SAT، آزمون GRE و بسیاری از کاربردهای دنیای واقعی دیگر، نمراتی در سطح انسان کسب کنند.[۶۰]

ادراک

[ویرایش]

ادراک ماشین توانایی استفاده از ورودی‌های حسگرها (مانند دوربین‌ها، میکروفون‌ها، سیگنال‌های بی‌سیم، لیدار فعال، سونار، رادار و حسگرهای لمسی) برای استنتاج جنبه‌هایی از جهان است. بینایی رایانه‌ای توانایی تحلیل ورودی بصری است.[۶۱]

این حوزه شامل بازشناسی گفتار،[۶۲] دسته‌بندی تصویر،[۶۳] بازشناسی چهره، بازشناسی اشیاء،[۶۴] ردیابی اشیاء،[۶۵] و ادراک رباتیک است.[۶۶]

هوش اجتماعی

[ویرایش]
کیزمت، یک سر ربات که در دهه ۱۹۹۰ ساخته شد؛ ماشینی است که می‌تواند احساسات را تشخیص داده و شبیه‌سازی کند.[۶۷]

رایانش عاطفی حوزه‌ای است که شامل سیستم‌هایی می‌شود که احساس، هیجان و خلق‌وخوی انسان را تشخیص می‌دهند، تفسیر می‌کنند، پردازش می‌کنند یا شبیه‌سازی می‌کنند.[۶۸] به عنوان مثال، برخی دستیاران مجازی طوری برنامه‌ریزی شده‌اند که به صورت محاوره‌ای صحبت کنند یا حتی شوخی کنند؛ این باعث می‌شود آنها نسبت به دینامیک‌های عاطفی تعامل انسانی حساس‌تر به نظر برسند یا تعامل انسان و رایانه را تسهیل کنند.

با این حال، این امر تمایل دارد به کاربران ساده‌لوح یک تصور غیرواقعی از هوش عامل‌های کامپیوتری موجود بدهد.[۶۹] موفقیت‌های متوسط مرتبط با رایانش عاطفی شامل تحلیل احساسات متنی و اخیراً تحلیل احساسات چندوجهی است که در آن هوش مصنوعی عواطف نمایش داده شده توسط یک سوژه فیلم‌برداری شده را طبقه‌بندی می‌کند.[۷۰]

هوش عمومی

[ویرایش]

یک ماشین با هوش مصنوعی عمومی قادر خواهد بود طیف گسترده‌ای از مسائل را با گستردگی و تطبیق‌پذیری مشابه هوش انسانی حل کند.[۷۱]

تاریخچه

[ویرایش]

هوش مصنوعی توسط فلاسفه و ریاضی‌دانانی نظیر جرج بول که اقدام به ارائهٔ قوانین و نظریه‌هایی در مورد منطق نمودند، مطرح شده بود. با اختراع رایانه‌های الکترونیکی در سال ۱۹۴۳، هوش مصنوعی، دانشمندان آن زمان را به چالشی بزرگ فراخواند. در این شرایط، چنین به‌نظر می‌رسید که این فناوری قادر به شبیه‌سازی رفتارهای هوشمندانه خواهد بود.

با وجود مخالفت گروهی از اندیشمندان با هوش مصنوعی که با تردید به کارآمدی آن می‌نگریستند، تنها پس از چهار دهه، ماشین‌های شطرنج‌باز و دیگر سامانه‌های هوشمند پرورش‌یافته را می‌توان در صنایع گوناگون دید.

شاخهٔ پژوهش در زمینهٔ هوش مصنوعی در یک کارگاه آموزشی در کالج دارتموث در سال ۱۹۵۶ متولد شد.[۷۲][۷۳][۷۴] شرکت‌کنندگان آلن نیول (دانشگاه کارنگی ملونهربرت سیمون (دانشگاه کارنگی ملون)، جان مک‌کارتی (مؤسسه فناوری ماساچوست)، ماروین منسکی (مؤسسه فناوری ماساچوست) و آرتور ساموئل (آی‌بی‌ام) از بنیان‌گذاران و رهبران پژوهش در زمینهٔ هوش مصنوعی شدند.[۷۲] آن‌ها به همراه دانشجویانشان برنامه‌هایی نوشتند که مطبوعات آن را «شگفت‌آور» توصیف می‌کردند، رایانه‌ها استراتژی‌های بردِ بازی چکرز را فرا می‌گرفتند،[۷۵][۷۶] سوالاتی در جبر حل می‌کردند، قضیه‌های منطقی اثبات می‌کردند و انگلیسی صحبت می‌کردند.[۷۲][۷۷] در اواسط دهه ۱۹۶۰ میلادی وزارت دفاع آمریکا سرمایه‌گذاری‌های سنگینی در حوزه پژوهش در زمینه هوش مصنوعی انجام می‌داد،[۷۳] در آن دهه آزمایشگاه‌های فراوانی در سراسر جهان تأسیس شد.[۷۸] بنیانگذاران هوش مصنوعی در مورد آینده خوشبین بودند: هربرت سیمون پیش‌بینی کرد «ماشین‌ها ظرف بیست سال قادر به انجام هر کاری هستند که یک انسان می‌تواند انجام دهد». ماروین مینسکی، نوشت: «در طی یک نسل … مسئله هوش مصنوعی اساساً حل خواهد شد».[۷۳]

نام هوش مصنوعی در سال ۱۹۶۵ میلادی به عنوان یک دانش جدید ابداع گردید. البته فعالیت در این زمینه از سال ۱۹۶۰ میلادی شروع شد. (مرجع۱) بیشتر کارهای پژوهشی اولیه در هوش مصنوعی بر روی انجام ماشینی بازی‌ها و نیز اثبات قضیه‌های ریاضی با کمک رایانه‌ها بود. در آغاز چنین به نظر می‌آمد که رایانه‌ها قادر خواهند بود چنین فعالیت‌هایی را تنها با بهره گرفتن از تعداد بسیار زیادی کشف و جستجو برای مسیرهای حل مسئله و سپس انتخاب بهترین روش برای حل آن‌ها به انجام رسانند.

اصطلاح هوش مصنوعی برای اولین بار توسط جان مک‌کارتی (که از آن به‌عنوان پدر علم و دانش تولید ماشین‌های هوشمند یاد می‌شود) استفاده شد. وی مخترع یکی از زبان‌های برنامه‌نویسی هوش مصنوعی به نام لیسپ (به انگلیسی: lisp) است. با این عنوان می‌توان به هویت رفتارهای هوشمندانه یک ابزار مصنوعی پی برد. (ساختهٔ دست بشر، غیرطبیعی، مصنوعی) حال آنکه هوش مصنوعی به عنوان یک اصطلاح عمومی پذیرفته شده که شامل محاسبات هوشمندانه و ترکیبی (مرکب از مواد مصنوعی) است.

از اصطلاح "Strong and Weak AI" می‌توان تا حدودی برای معرفی رده‌بندی سامانه‌ها استفاده کرد.

آزمون تورینگ

[ویرایش]
آزمون تورینگ

آزمون تورینگ[۷۹] آزمونی است که توسط آلن تورینگ در سال ۱۹۵۰ در نوشته‌ای به نام «محاسبات و هوشمندی» مطرح شد. در این آزمون شرایطی فراهم می‌شود که شخصی با ماشینی تعامل برقرار کند و پرسش‌های کافی برای بررسی اقدامات هوشمندانهٔ ماشین، از آن بپرسد. چنانچه در پایان آزمایش نتواند تشخیص دهد که با انسان یا با ماشین در تعامل بوده است، آزمون با موفقیت انجام شده است. تاکنون هیچ ماشینی از این آزمون با موفقیت بیرون نیامده است. کوشش این آزمون برای تشخیص درستی هوشمندی یک سامانه است که سعی در شبیه‌سازی انسان دارد.

تعریف و طبیعت هوش مصنوعی

[ویرایش]
سامانه یک خودروی بدون راننده می‌تواند از یک شبکه عصبی استفاده کند تا بتواند تشخیص دهد که کدام قسمت از تصاویر می‌تواند با تصویر یک انسان تطابق داده شود، و سپس آن قسمت را به شکل یک مستطیل با حرکت آهسته شبیه‌سازی کند که باید از برخورد با آن خودداری شود.[۸۰][۸۱]

هنوز تعریف دقیقی برای هوش مصنوعی که مورد توافق دانشمندان این علم باشد ارائه نشده است و این به هیچ وجه مایهٔ تعجب نیست. چرا که مقولهٔ مادر و اساسی‌تر از آن، یعنی خود هوش هم هنوز به‌طور همه‌جانبه و فراگیر تن به تعریف نداده است. در واقع می‌توان نسل‌هایی از دانشمندان را سراغ گرفت که تمام دوران زندگی خود را صرف مطالعه و تلاش در راه یافتن جوابی به این سؤال عمده نموده‌اند که: هوش چیست؟

ولی بیشتر تعریف‌هایی که در این زمینه داده شده است، بر پایهٔ یکی از ۴ باور زیر است:

  1. سامانه‌هایی که منطقی می‌اندیشند.
  2. سامانه‌هایی که منطقی کار می‌کنند.
  3. سامانه‌هایی که مانند انسان می‌اندیشند.
  4. سامانه‌هایی که مانند انسان کار می‌کنند. (مرجع۱)

می‌توان هوش مصنوعی را این‌گونه توصیف کرد: «هوش مصنوعی عبارت است از مطالعه این که چگونه رایانه‌ها را می‌توان وادار به کارهایی کرد که در حال حاضر انسان‌ها آن‌ها را صحیح یا بهتر انجام می‌دهند» (مرجع۲). هوش مصنوعی به هوشی که یک ماشین از خود نشان می‌دهد یا به دانشی در رایانه که می‌کوشد آن را پدیدآورد گفته می‌شود. بیشتر نوشته‌ها و مقاله‌های مربوط به هوش مصنوعی آن را «دانش شناخت و طراحی عامل‌های هوشمند» تعریف کرده‌اند. یک عامل هوشمند، ساماندهی است که با شناخت محیط اطراف خود، شانس موفقیت خود را بالا می‌برد.

اینکه هوش مصنوعی چیست و چه تعریفی می‌توان از آن بیان نمود؟ مبحثی است که تاکنون دانشمندان به یک تعریف جامع در آن نرسیده‌اند و هریک تعریفی را ارائه نموده‌اند که در زیر نمونه‌ای از این تعاریف آمده است.

  • هنر ایجاد ماشین‌هایی که وظایفی را انجام می‌دهند که انجام آن‌ها توسط انسان‌ها نیاز به هوش دارد (کورزویل - ۱۹۹۰)
  • مطالعهٔ استعدادهای ذهنی از طریق مدل‌های محاسباتی (کارنیاک و مک درموت - ۱۹۸۵)
  • مطالعهٔ اینکه چگونه رایانه‌ها را قادر به انجام اعمالی کنیم که در حال حاضر، انسان آن اعمال را بهتر انجام می‌دهد. (ریچ و نایت - ۱۹۹۱)
  • خودکارسازی فعالیت‌هایی که ما آن‌ها را به اندیشش انسانی نسبت می‌دهیم. فعالیت‌هایی مثل تصمیم‌گیری، حل مسئله، یادگیری و … (بلمن - ۱۹۷۸)
  • کوششی نو و مهیج برای این‌که رایانه‌ها را دارای اندیشیدن کنیم. ماشین‌هایی با اندیشه و حس تشخیص واقعی (هاگلند - ۱۹۸۵)
  • یک زمینهٔ تخصصی که به دنبال توضیح و شبیه‌سازی رفتار هوشمندانه به وسیلهٔ فرایندهای رایانه‌ای است. (شالکوف - ۱۹۹۰)
  • مطالعه محاسباتی که درک، استدلال و عمل کردن را توسط ماشین‌ها را ممکن می‌سازد. (وینستون - ۱۹۹۲)
  • توانایی دست یافتن به کارایی در حد انسان در همهٔ امور شناختی توسط رایانه (آلن تورینگ - ۱۹۵۰)
  • هوش مصنوعی دانش و مهندسی ساخت ماشین‌های هوشمند و به خصوص برنامه‌های رایانه‌ای هوشمند است. هوش مصنوعی با وظیفه مشابه استفاده از رایانه‌ها برای فهم چگونگی هوش انسان مرتبط است، ولی مجبور نیست خودش را به روش‌هایی محدود کند که بیولوژیکی باشند. (جان مک‌کارتی - ۱۹۸۰)

هوشمندی مفهومی نسبی دارد و نمی‌توان محدوده صحیحی را برای ارائه تعریف از آن مشخص نمود. رفتاری که از نظر یک فرد هوشمند به نظر می‌رسد؛ ممکن است برای یک فرد دیگر این‌گونه به نظر نرسد. ولی در مجموع خصوصیات زیر قابلیت‌های ضروری برای هوشمندی است:

  • پاسخ به موقعیت‌های از قبل تعریف نشده با انعطاف بسیار بالا و بر اساس بانک دانش
  • معنا دادن به پیام‌های نادرست یا مبهم
  • درک تمایزها و شباهت‌ها
  • تجزیه و تحلیل اطلاعات و نتیجه‌گیری
  • توانمندی آموختن و یادگرفتن
  • برقراری ارتباط دوطرفه

به فرض اینکه تعاریف بالا را از هوشمندی بپذیریم، موارد زیر فهرستی است از وظایفی که از یک سامانه هوشمند انتظار می‌رود و تقریباً اکثر دانشمندان هوش مصنوعی بر آن توافق نظر دارند به شرح زیر است:

  • تولید گفتار
  • تشخیص و درک گفتار (پردازش زبان طبیعی انسان)
  • دستورپذیری و قابلیت انجام اعمال فیزیکی در محیط طبیعی و مجازی
  • استنتاج و استدلال
  • تشخیص الگو و بازشناسی الگو برای پاسخ گویی به مسائل بر اساس دانش قبلی
  • شمایلی گرافیکی یا فیزیکی جهت ابراز احساسات و عکس‌العمل‌های ظریف
  • سرعت عکس‌العمل بالا

رویکردهای اصلی به هوش مصنوعی

[ویرایش]

رویکردهای شاخص به هوش مصنوعی[۸۲] (به ترتیب روند زمانی که مطرح شدند و البته همگی سپس به بقا در حیطه خودشان ادامه دادند):

۱- مبتنی بر منطق و Rule[۸۳]

۲- مبتنی بر تشخیص الگو / روش‌های احتمالاتی / روش‌های آماری[۸۴]

۳- مبتنی بر الگوریتمهای مکاشفه ای (Heuristics)[۸۵]

۴- مبتنی بر گراف‌های دانش و هستان‌شناسی‌ها

۵- مبتنی بر هوش مصنوعی عامل گرا[۸۶][۸۷] و عامل‌های دیجیتالی[۸۸]

۶- مبتنی بر هوش مصنوعی توزیع شده[۸۹][۹۰]

  1. مبتنی بر شبیه‌سازی رخدادها / مولدهای رخداد
  2. مبتنی بر یادگیری ماشین

۹- مبتنی بر شبکه‌های عصبی عمیق[۹۱]

  1. مبتنی بر GAN و Transformers و Encoders و Decoders و هوش مصنوعی مولد (Generative AI)
  2. مبتنی بر مدل‌های بزرگ آموزش داده شده
  3. مبتنی بر مدل‌های بزرگ زبانی LLM
  4. مبتنی بر دستوردهی به LLMها (یعنی Prompt Engineering)
  5. هوش مصنوعی توضیح پذیر (XAI) / اعتماد پذیر / مسئول / جویا (RAG)

۱۵- هوش مصنوعی ارزان و بهره‌ور (مانند کاهش مصرف انرژی در مدارهای هوش مصنوعی با استفاده از سخت‌افزارهای فوتونیکی)[۹۲]

  1. هوش مصنوعی انسان وار (Human Like) و معماری شناختی
  2. هوش مصنوعی عمومی (AGI)
  3. ابرهوش مصنوعی (ASI)

۱۹- هوش مصنوعی مستقل / خودمختار / عامل‌های خودتجربه گر[۹۳][۹۴]

۲۰- مدل‌های جهان (World Models) / شبیه سازیِ هوش مصنوعی[۹۵]

۲۱- پارادایم‌های نامتعارف و نوظهور هوش مصنوعی (مانند شبکه‌های عصبی کوانتومی، دیگر شیوه‌های ترکیبی هوش و کوانتوم)[۹۶][۹۷][۹۸][۹۹][۱۰۰]

۲۲- هوشمندی سیاره ای (سیاره گستر)[۱۰۱]

۲۳- خِرَد ترکیبی (Hybrid Wisdom)[۱۰۲][۱۰۳][۱۰۴][۱۰۵]

کاربردهای هوش مصنوعی

[ویرایش]

هوش مصنوعی کاربردهای متنوعی دارد. تعدادی از مهم‌ترین کاربردهای هوش مصنوعی شامل استفاده در وسایل نقلیه خودگردان (مثل پهپادها و اتومبیل‌های خودران)، تشخیص‌های پزشکی، خلق آثار هنری، اثبات قضیه‌های ریاضی، انجام بازی‌هایی بر پایهٔ اندیشه، تعیین هویت تصاویر (تشخیص چهره) و صداها، ذخیره انرژی، جستجوگرهای اینترنتی، تهیه قراردادها و پیش‌بینی آرای قضایی می‌شوند.

هوش مصنوعی در اقتصاد

[ویرایش]

یکی از مهم‌ترین کاربردهای هوش مصنوعی در زمینهٔ تجارت، اقتصاد و کلان داده است. برای مثال، با استفاده از هوش مصنوعی می‌توان با ضریب خطای پایینی، تغییرات فصلی و بلندمدت در عرضه یا تقاضای محصولات مختلف را پیش‌بینی کرد. این موضوع می‌تواند به شدت در سیاست، اقتصاد کلان و کنترل عرضه و تقاضا مفید واقع شود. همچنین، شرکت‌هایی مانند گوگل خدماتی در زمینهٔ هوش مصنوعی به شرکت‌های بزرگ ارائه می‌دهند که می‌تواند به برنامه‌ریزی، انبارگردانی، پیش‌بینی سیر صعودی یا نزولی فروش در محصولات به خصوص و نیز برندسازی آن‌ها کمک کند.

پیش‌بینی قیمت در بازارها (مانند پیش‌بینی قیمت نفت با هوش مصنوعی) یکی از کاربردهای هوش مصنوعی در اقتصاد است.[۱۰۶]

هوش مصنوعی در ورزش

[ویرایش]

به‌طور تاریخی، پیش‌بینی فوتبال به انسان‌های ماهری وابسته بود که می‌توانستند سوابق و وضعیت دو تیم و بازیکنان را تحلیل کنند. با انقلاب دیجیتال، سایت‌های شرط‌بندی کار را برای پیش‌بینی آسان و آسان‌تر کردند. ولی حتی ظهور سایت‌ها و شرط‌بندی آنلاین هم تأثیری در نحوه شرط‌بندی ایجاد نکرد. همچنان علاقه‌مندان تلاش می‌کنند تا وضعیت طرفین و بازیکنان را بررسی کنند. هوش مصنوعی این را تغییر می‌دهد. اینترنت باعث ظهور سایت‌ها و فروم‌هایی شد که تیپسترهای شرط‌بندی فرم معرفی می‌کنند. با ظهور هوش مصنوعی، فرم شرط‌بندی می‌تواند چیزی فراتر از یک محاسبه انسانی باشد و الگوریتم‌های یادگیری ماشین، بازی را عوض می‌کنند.[۱۰۷][۱۰۸]

شبکه‌های اجتماعی

[ویرایش]

در شبکه‌های اجتماعی مطرح مانند توئیتر یا اینستاگرام، برای تشخیص الگوهای رفتاری انسانی، جلوگیری از هرزنامه و انتشار محتوای مجرمانه و نیز شناسایی مخاطبان هدف برای تبلیغات، از هوش مصنوعی استفاده می‌شود. همچنین، برخی از ربات‌های شبکهُ اجتماعی بر پایهٔ هوش مصنوعی فعالیت می‌کنند تا در بالاترین سطوح رفتارهای انسانی را شبیه‌سازی نمایند.[۱۰۹]

هوش مصنوعی در خدمات حقوقی

[ویرایش]

کاربرد هوش مصنوعی در خدمات حقوقی به سرعت در حال افزایش است و سیستم‌های نوین مبتنی بر پردازش زبان طبیعی به تدریج در حال به عهده گرفتن بخشی از وظایف حقوق‌دانان هستند. نرم‌افزارهای مبتنی بر تکنولوژی هوش مصنوعی در حال حاضر امکان تهیه قراردادهای دقیق، تحلیل قراردادها و اسناد حقوقی موجود و پیش‌بینی آرای دادگاه‌ها را فراهم کرده‌اند.

هوش مصنوعی در فرهنگ، میراث فرهنگی و میراث مکتوب

[ویرایش]

هوش مصنوعی از طریق فناوری‌ها و کاربردهای خود می‌تواند به توسعه فرهنگ، کاربردها و ابزارهای فرهنگی، حفاظت از میراث فرهنگی و میراث مکتوب یاری برساند. مواردی مانند پردازش زبان طبیعی، جست و جوی معنایی، خوانش رایانشی کتابها، متن کاوی، ایده کاوی، روانکاوی رایانشی، قرآن کاوی رایانشی، مدلهای زبانی بزرگ، نویسه خوانی نوری OCR (برای کتب خطی و قدیمی یا چاپی و جدید)، اکتشافات زبانشناسی، اکتشافات فرهنگی، پایگاه‌های داده و دادگان مرجع زبانی و فرهنگی و میراثی، دوقلوی دیجیتال برای میراث فرهنگی، دوقلوی دیجیتال برای میراث مکتوب، واقعیت مجازی هوشمند و واقعیت افزوده هوشمند برای میراث فرهنگی و دیگر موارد.

نیروی انسانی و تخصص

[ویرایش]

توسعهٔ هوش مصنوعی نیازمند حضور متخصصان در زمینه‌های مختلف از جمله علوم رایانه، یادگیری ماشین، علوم داده و اخلاق فناوری است.

هوش مصنوعی و رد پای کربنی

[ویرایش]

هر بار که از هوش مصنوعی استفاده می‌کنید، رد پای کربنی ایجاد می‌شود. هوش مصنوعی (مخصوصاً مدل‌های بزرگ مثل (ChatGPT, Grok, Gemini, Llama) برای آموزش (Training) و استفاده (Inference) به انرژی الکتریکی عظیمی نیاز دارند که عمدتاً از نیروگاه‌های زغال‌سنگی، گازی یا حتی هسته‌ای تأمین می‌شود. به‌طور نمونه:

  • یک پرس‌وجو مثلاً یک سؤال از ChatGPT از ۲ تا ۱۰ گرم CO₂، معادل رانندگی ۵۰ متر با ماشین بنزینی است.
  • تولید یک تصویر با AI مثل DALL·E یا Midjourney از ۱ گرم تا ۵ گرم CO₂ معادل ۵ دقیقه روشن ماندن لامپ LED می‌باشد. هوش مصنوعی، در هر پاسخِ کوتاه، دو تا ده گرمِ کربن به باد می‌سپارد؛ ولی در رقصِ بیت‌های دیجیتال، مثل آموزش یک مدل، پانصد تن دودِ کربنی به آسمانِ زمین می‌دمد.[۱۱۰][۱۱۱]

فلسفه هوش مصنوعی

[ویرایش]

به‌طور کلی ماهیت وجودی هوش به مفهوم جمع‌آوری اطلاعات، استقراء و تحلیل تجربیات به منظور رسیدن به دانش یا ارائه تصمیم است. در واقع هوش به مفهوم به‌کارگیری تجربه به منظور حل مسائل دریافت شده تلقی می‌شود. هوش مصنوعی علم و مهندسی ایجاد ماشین‌هایی هوشمند با به‌کارگیری از کامپیوتر و الگوگیری از درک هوش انسانی یا حیوانی و نهایتاً دستیابی به مکانیزم هوش مصنوعی در سطح هوش انسانی است.[۱۱۲]

در مقایسهٔ هوش مصنوعی با هوش انسانی می‌توان گفت که انسان قادر به مشاهده و تجزیه و تحلیل مسائل در جهت قضاوت و اخذ تصمیم است در حالی که هوش مصنوعی مبتنی بر قوانین و رویه‌هایی از قبل تعبیه شده بر روی کامپیوتر است. در نتیجه علی‌رغم وجود رایانه‌های بسیار کارا و قوی در عصر حاضر ما هنوز قادر به پیاده کردن هوشی نزدیک به هوش انسان در ایجاد هوش‌های مصنوعی نبوده‌ایم.

به‌طور کلّی، هوش مصنوعی را می‌توان از زوایای متفاوتی مورد بررسی و مطالعه قرار داد. مابین هوش مصنوعی به عنوان یک هدف، هوش مصنوعی به عنوان یک رشتهٔ تحصیلی دانشگاهی یا هوش مصنوعی به عنوان مجموعهٔ فنون و راهکارهایی که توسط مراکز علمی مختلف و صنایع گوناگون تنظیم و توسعه یافته است، باید تفاوت قائل بود.[۱۱۳]

اتاق چینی

[ویرایش]

اتاق چینی یک آزمایش ذهنی است که اولین بار توسط مقاله جان سرل به‌نام «ذهن‌ها، مغزها، و برنامه‌ها» (به انگلیسی: Minds, Brains, and Programs) در مجله «علوم رفتاری و ذهنی» (به انگلیسی: Behavioral and Brain Sciences) در سال ۱۹۸۰ منتشر شد. وی با این سؤال که آیا یک برنامه هوشمند مترجم که توانایی ترجمه از زبان چینی به زبان انگلیسی را دارد، ضرورتی برای فهم موضوع مورد ترجمه دارد یا خیر و با تشبیه ذهن به یک برنامهٔ هوشمند رایانه‌ای این استدلال را در برابر مواضع فلسفی کارکردگرایی و نظریه محاسباتی ذهن که در آن‌ها، ذهن به عنوان یک محاسبه‌گر یا دستکاری کنندهٔ نماد عمل می‌کند، قرار داد.[۱۱۴] در واقع نتایج حاصل از آزمایش اتاق چینی حکایت از این دارد که هیچ برنامه‌ای نمی‌تواند به کامپیوتر ذهن، فهم یا آگاهی بدهد. حال آن برنامه هر آنچه می‌خواهد هوشمند باشد و باعث شود کامپیوتر همچون انسان رفتار کند. اگر چه این آزمایش در اصل جوابی برای اظهارات محققان هوش مصنوعی بود، ولی این ادعا در برابر اهداف تحقیقات هوش مصنوعی قرار نمی‌گیرد چرا که این موضوع حدی برای هوشمندی کامپیوتر قائل نیست. همچنین این آزمایش مختص رایانه‌های دیجیتال است و دامنه آن همه ماشین‌ها نیستند.[۱۱۴]

چگونگی استفاده هوش مصنوعی

[ویرایش]

هوش مصنوعی چگونه استفاده می‌شود؟

[ویرایش]

به‌طور کلی هوش مصنوعی به دو دسته زیر تفکیک می‌شود:

Narrow AI یا هوش مصنوعی ضعیف: این نوع هوش مصنوعی در یک زمینه محدود عمل می‌کند و شبیه‌سازی هوش انسانی است. هوش مصنوعی ضعیف اغلب بر روی یک کار مشخص تعریف می‌شود و در محدوده تعریفش بسیار عالی عمل می‌کند. شاید این ماشین‌ها بسیار هوشمند به نظر برسند ولی حقیقت این است که حتی از ابتدائی‌ترین سطوح هوش انسانی هم ساده‌تر عمل می‌کنند.

Artificial General Intelligence یا هوش مصنوعی فراگیر: که با عنوان هوش مصنوعی قوی هم شناخته می‌شود، نوعی از هوش مصنوعی است که بیشتر در فیلم‌ها دیده‌ایم، مانند ربات‌های فیلم Westworld. هوش مصنوعی قوی بسیار شبیه به انسان عمل می‌کند چنان‌که می‌تواند توانایی‌های خود را بر حل مسائلی در حوزه‌های مختلف به کار بگیرد.[۱۱۵]

برترین سایت‌ها و پلتفرم‌های هوش مصنوعی:

۱. OpenAI (با ChatGPT و DALL·E)

شرکت OpenAI یکی از پیشگامان حوزه هوش مصنوعی است که ابزارهایی مثل ChatGPT, DALL·E و Whisper را توسعه می‌دهد. این فناوری به کاربر امکان تبدیل گفتار به نوشتار، تولید متن و خلق تصاویر از طریق متن را می‌دهد. هدف اصلی این ابزارها، بهبود ارتباط انسان با ماشین و افزایش بهره‌وری در زمینه‌های گوناگون است. با بهره‌گیری از مدل‌های پیشرفته یادگیری ماشین، OpenAI امکانات منحصربه‌فردی را در اختیار توسعه‌دهندگان و علاقه‌مندان به فناوری قرار داده است.[۱۱۶]

Google Cloud AI.2

پلتفرم قدرتمند هوش مصنوعی گوگل، مجموعه‌ای کامل از خدمات پیشرفته مثل تحلیل کلان‌داده و بینایی ماشین، پردازش زبان طبیعی، مدل‌های یادگیری عمیق را در اختیار کاربر قرار می‌دهد. این ابزارها به کسب‌وکار ما کمک می‌کند تا پروژه‌های هوشمند خود را با دقت و سرعت بیشتری توسعه دهند و پیاده‌سازی کنند.[۱۱۷]

۳. IBM Watson

پلتفرمی پیشرفته برای تحلیل داده است که در حوزه‌هایی مثل آموزش، سلامت، امور مالی و صنعت کاربرد زیادی دارد. با بهره‌گیری از قابلیت‌های تحلیلی IBM Watson، سازمان‌ها می‌توانند تصمیم‌گیری‌های خود را بهینه‌سازی کنند و راهکارهای هوشمند و مبتنی بر داده را طراحی کنند.[۱۱۸]

مدیریت پیچیدگی

[ویرایش]

ایجاد و ابداع فنون و تکنیک‌های لازم برای مدیریت پیچیدگی را باید به عنوان هستهٔ بنیادین تلاش‌های علمی و پژوهشی گذشته، حال و آینده در تمامی زمینه‌های علوم رایانه و به ویژه در هوش مصنوعی معرفی کرد. شیوه‌ها و تکنیک‌های هوش مصنوعی در واقع، برای حل آن دسته از مسائل به وجود آمده است که به‌طور سهل و آسان توسط برنامه‌نویسی تابعی یا شیوه‌های ریاضی قابل حلّ نبوده‌اند.[۱۱۹]

در بسیاری از موارد، با پوشانیدن و پنهان ساختن جزئیّات فاقد اهمیت است که بر پیچیدگی فائق می‌آییم و می‌توانیم بر روی بخش‌هایی از مسئله متمرکز شویم که مهم‌تر است. تلاش اصلی در واقع، ایجاد و دستیابی به لایه‌ها و ترازهای بالاتر از هوشمندی انتزاع را نشانه می‌رود تا آنجا که سرانجام، برنامه‌های رایانه‌ای درست در همان سطحی کار خواهند کرد که خود انسان‌ها رسیده‌اند.

به یاری پژوهش‌های گستردهٔ دانشمندان علوم مرتبط، هوش مصنوعی تاکنون راه بسیاری پیموده است. در این راستا، تحقیقاتی که بر روی توانایی آموختن زبان‌ها انجام گرفت و همچنین درک عمیق از احساسات، دانشمندان را در پیشبرد این دانش کمک زیادی کرده است. یکی از اهداف متخصصان، تولید ماشین‌هایی است که دارای احساسات بوده و دست کم نسبت به وجود خود و احساسات خود آگاه باشند. این ماشین باید توانایی تعمیم تجربیات قدیمی خود در شرایط مشابه جدید را داشته و به این ترتیب اقدام به گسترش دامنه دانش و تجربیاتش کند.

برای نمونه ربات هوشمندی که بتواند اعضای بدن خود را به حرکت درآورد، نسبت به این حرکت خودآگاه بوده و با آزمون و خطا، دامنه حرکت خود را گسترش می‌دهد و با هر حرکت موفقیت‌آمیز یا اشتباه، دامنه تجربیات خود را وسعت بخشیده و سرانجام راه رفته یا حتی می‌دود یا به روشی برای جابجا شدن دست می‌یابد که سازندگانش برای او متصور نبوده‌اند.

هر چند نمونه بالا ممکن است کمی آرمانی به نظر برسد، ولی به هیچ عنوان دور از دسترس نیست. دانشمندان عموماً برای تولید چنین ماشین‌هایی از وجود مدل‌های زنده‌ای که در طبیعت وجود دارند، به ویژه آدمی نیز سود برده‌اند.

هوش مصنوعی اکنون در خدمت توسعه علوم رایانه نیز هست. زبان‌های برنامه‌نویسی پیشرفته، که توسعه ابزارهای هوشمند را ممکن ساخته‌اند، پایگاه‌های داده‌ای پیشرفته، موتورهای جستجو، و بسیاری نرم‌افزارها و ماشین‌ها از نتایج پژوهش‌هایی در راستای هوش مصنوعی بوده‌اند.

از زبان‌های برنامه‌نویسی هوش مصنوعی می‌توان به لیسپ، پرولوگ، کلیپس و ویپی اکسپرت اشاره کرد.

شاخه‌های هوش مصنوعی در دانش رایانه

[ویرایش]

شاخه‌های گوناگونی از هوش مصنوعی در دانش‌های رایانه‌ای مورد استفاده قرار می‌گیرند، برخی این شاخه‌ها عبارتند از:

تکنیک‌ها و زبان‌های برنامه‌نویسی هوش مصنوعی

[ویرایش]

کارکرد اولیهٔ برنامه‌نویسی هوش مصنوعی ایجاد ساختار کنترلی بایسته برای محاسبهٔ نمادین است. از مهم‌ترین و پرکاربردترین زبان‌های برنامه‌نویسی هوش مصنوعی، می‌توان از پایتون نام برد، و در کنار آن زبان‌های برنامه‌نویسی‌ای همچون لیسپ و پرولوگ علاوه بر این‌که از مهم‌ترین زبان‌های مورد استفاده در هوش مصنوعی هستند، خصوصیات نحوی و معنایی آن‌ها باعث شده که آن‌ها شیوه‌ها و راه حل‌های قوی برای حل مسئله ارائه کنند.

تأثیر قابل توجه این زبان‌ها بر روی توسعه هوش مصنوعی از جمله توانایی‌های آن‌ها به عنوان ابزارهای اندیشیدن است. در حقیقت همان‌طور که هوش مصنوعی مراحل رشد خود را طی می‌کند، زبان‌های لیسپ و پرولوگ بیشتر مطرح می‌شوند که این زبان‌ها کار خود را در محدودهٔ توسعه سامانه‌های هوش مصنوعی در صنعت و دانشگاه‌ها دنبال می‌کنند و طبیعتاً اطلاعات در مورد این زبان‌ها به عنوان بخشی از مهارت هر برنامه‌نویس هوش مصنوعی است.

  • پرولوگ: یک زبان برنامه‌نویسی منطقی است. یک برنامهٔ منطقی دارای یک سری ویژگی‌های قانون و منطق است. در حقیقت خود این نام از برنامه‌نویسی PRO در LOGIC می‌آید. در این زبان یک مفسر برنامه را بر اساس یک منطق می‌نویسد. ایدهٔ استفادهٔ توصیفی محاسبهٔ اولیه برای بیان خصوصیات حل مسئله یکی از محوریت‌های پرولوگ است که برای علم کامپیوتر به‌طور کلی و به‌طور جزئی برای زبان برنامه‌نویسی هوشمند مورد استفاده قرار می‌گیرند.[۱۲۰]
  • لیسپ: اصولاً یک زبان کامل است که دارای عملکردها و لیست‌های لازمه برای توصیف عملکردهای جدید، تشخیص تناسب و ارزیابی معانی است. لیسپ به برنامه‌نویس قدرت کامل برای اتصال به ساختارهای اطلاعاتی را می‌دهد.[۱۲۱] گرچه لیسپ یکی از قدیمی‌ترین زبان‌های محاسباتی است که هنوز فعال است ولی دقت کافی در برنامه‌نویسی و طراحی توسعه باعث شده است که این یک زبان برنامه‌نویسی فعال باقی بماند. در حقیقت این مدل برنامه‌نویسی طوری مؤثر بوده است که تعدادی از دیگر زبان‌ها مانند اف پی، ام‌ال و اسکیم براساس عملکرد برنامه‌نویسی آن بنا شده‌اند. یکی از مهم‌ترین برنامه‌های مرتبط با لیسپ برنامهٔ اسکیم است که یک اندیشش دوباره دربارهٔ زبان در آن وجود دارد که به وسیلهٔ توسعه هوش مصنوعی و برای آموزش و اصول علم کامپیوتر مورد استفاده قرار می‌گیرد.

استفاده از رابط‌های برنامه‌نویسی یا همان API می‌تواند استفاده از هوش مصنوعی در پروژه‌های برنامه‌نویسی را بسیار ساده‌تر سازد. APIهای هوش مصنوعی، رابط‌های RESTful هستند که به برنامه‌نویس اجازه می‌دهند به کمک مدل‌های از پیش تمرین داده شده شرکت‌های مختلف استفاده کنند و قابلیت‌های مرتبط با هوش مصنوعی نرم‌افزار خود را گسترش دهند. به بیانی دیگر، در API برنامه‌ها از قابلیت‌های کاربردی یک‌دیگر بهره می‌گیرند تا به توانایی خود بیفزایند. برای نمونه برنامه‌های مسیریابی از API نقشهٔ گوگل و مسیریابی ترافیک ماهواره‌ای گوگل بهره می‌برند و توانایی خود را بسیار بهبود می‌بخشند. برای نام‌بردن از برخی از این APIهای هوش مصنوعی، می‌توان از Wit.ai, Api.ai و ملیسا نام برد.

کارگزارهای هوشمند

[ویرایش]

کارگزارها یا عامل‌ها (به انگلیسی: Agents)، می‌توانند شناسایی الگوها و تصمیم‌گیری‌هایی را بر پایهٔ قوانین اندیشیدن خود شناسایی کنند. قوانین و چگونگی اندیشیدن هر کارگزار در راستای دستیابی به هدفش تعریف می‌شود. این سامانه‌ها بر پایهٔ قوانین ویژهٔ خود می‌اندیشند و کار خود را به‌درستی انجام می‌دهند. پس عاقلانه رفتار می‌کنند، هر چند لزوماً مانند انسان نمی‌اندیشند.[۱۲۲]

در بحث هوشمندی اصطلاح پیس (به انگلیسی: PEAS) سرنام واژه‌های "کارایی (به انگلیسی: Performance)"، "محیط (به انگلیسی: Environment)"، "اقدام گر (به انگلیسی: Agent)" و "حسگر (به انگلیسی: Sensor)" است.

سامانه‌های خبره

[ویرایش]

سامانه‌های خبره زمینه‌ای پرکاربرد در هوش مصنوعی و مهندسی دانش است که با توجه به نیاز روزافزون جوامع بر اتخاذ راه حل‌ها و تصمیمات سریع در مواردی که دانش‌های پیچیده و چندگانهٔ انسانی مورد نیاز است و بر اهمیت نقش آن‌ها نیز افزوده می‌شود. سامانه‌های خبره به حل مسائلی می‌پردازند که به‌طور معمول نیازمند تخصص‌های کاردانان و متخصّصان انسانی است. به‌منظور توانایی بر حل مسائل در چنین سطحی (ترازی)، دسترسی هرچه بیشتر این‌گونه سامانه‌ها به دانش موجود در آن زمینه خاص ضروری می‌گردد.

اخبار جعلی، جعل عمقی و امنیت سیاسی

[ویرایش]
یک ویدئویجعل عمقی: هشدار ولادیمیر پوتین به آمریکایی‌ها در مورد دخالت در انتخابات و افزایش شکاف سیاسی

مفهومی به نام جعل عمقی (به انگلیسی: Deepfakes) به هوش‌های مصنوعی اطلاق می‌شود که قادر هستند چهره و صدای افراد را بازسازی و شبیه‌سازی نمایند. امروزه تشخیص نسخه‌های جعلی و تقلبی از نسخه‌های اصلی کار بسیار مشکلی است.[۱۲۳]

این موضوع می‌تواند تهدیدی برای افراد مشهور اعم از هنرمندان، ورزشکاران و سیاست‌مداران باشد و زندگی حرفه‌ای آن‌ها را دچار خدشه و چالش نماید. بازسازی سخنرانی یک رئیس‌جمهور و درج موارد ناخواسته در میان آن یا بازسازی تصاویر سیاست‌مداران در یک فضای خاص می‌تواند نمونه‌ای از این موارد باشد.[۱۲۴]

به‌طورکلی هوش مصنوعی جعل عمیق، یک فناوری تغییر دهنده محتوا محسوب می‌شود. طبق گزارش ZDNet جعل عمقی «چیزی را ارائه می‌دهد که در واقع رخ نداده است». طبق این گزارش ۸۸٪ آمریکایی‌ها معتقدند جعل عمقی بیشتر از فایده باعث آسیب می‌شود ولی تنها ۴۷٪ آنها معتقدند که ممکن است مورد هدف قرار گیرند. با اوج‌گیری رقابت‌های انتخاباتی شکل‌گیری فیلم‌های تبلیغاتی جعلی می‌تواند تهدیدی برای سیاست‌مداران محسوب شود.[۱۲۵]

هوش مصنوعی مولد

هوش مصنوعی مولد یا زاینده (Generative AI) شاخه‌ای از هوش مصنوعی است که تمرکز آن بر تولید محتوای جدید است؛ مانند متن، تصویر، ویدئو، موسیقی و حتی کد برنامه‌نویسی. مدل‌های مولدی مانند GPT, DALL·E و Stable Diffusion از جمله شناخته‌شده‌ترین نمونه‌ها در این حوزه هستند. این مدل‌ها با آموزش بر حجم عظیمی از داده‌ها، قادرند محتوایی شبیه به انسان تولید کنند.

یکی از کاربردهای اصلی این مدل‌ها، تولید خودکار مقاله، طراحی گرافیکی، پاسخ‌دهی به سؤالات، و ایجاد شخصیت‌های مجازی است. با پیشرفت این فناوری، مباحثی چون تولید اخبار جعلی، حقوق مالکیت معنوی، و اخلاق در هوش مصنوعی به موضوعات داغ تبدیل شده‌اند.

خطرات و آسیب‌ها

[ویرایش]

حریم خصوصی و حق تکثیر

[ویرایش]

الگوریتم‌های یادگیری ماشین به مقادیر زیادی داده نیاز دارند. تکنیک‌های مورد استفاده برای به دست آوردن این داده‌ها، نگرانی‌هایی را در مورد حریم خصوصی، نظارت و حق تکثیر ایجاد کرده است.

دستگاه‌ها و خدمات مجهز به هوش مصنوعی، مانند دستیاران مجازی و محصولات اینترنت اشیاء، به‌طور مداوم اطلاعات شخصی را جمع‌آوری می‌کنند که این امر نگرانی‌هایی را در مورد جمع‌آوری داده‌های مزاحم و دسترسی غیرمجاز توسط اشخاص ثالث ایجاد می‌کند. از دست دادن حریم خصوصی با توانایی هوش مصنوعی در پردازش و ترکیب حجم وسیعی از داده‌ها تشدید می‌شود و به‌طور بالقوه به یک جامعه نظارتی منجر می‌گردد که در آن فعالیت‌های فردی به‌طور مداوم و بدون پادمان‌های کافی یا شفافیت، نظارت و تحلیل می‌شوند.

داده‌های حساس کاربر که جمع‌آوری می‌شود ممکن است شامل سوابق فعالیت آنلاین، داده‌های موقعیت جغرافیایی، ویدیو یا صدا باشد.[۱۲۶] به عنوان مثال، برای ساخت الگوریتم‌های بازشناسی گفتار، آمازون میلیون‌ها مکالمه خصوصی را ضبط کرده و به کارگران موقت اجازه داده است تا برخی از آنها را گوش داده و رونویسی کنند.[۱۲۷] دیدگاه‌ها در مورد این نظارت گسترده از کسانی که آن را یک شر ضروری می‌دانند تا کسانی که آن را به وضوح غیراخلاقی و نقض حق بر محرمانگی می‌دانند، متغیر است.[۱۲۸]

توسعه‌دهندگان هوش مصنوعی استدلال می‌کنند که این تنها راه برای ارائه برنامه‌های کاربردی ارزشمند است و چندین تکنیک را برای حفظ حریم خصوصی در حین به دست آوردن داده‌ها توسعه داده‌اند، مانند تجمیع داده، ناشناس‌سازی و حریم خصوصی تفاضلی.[۱۲۹] از سال ۲۰۱۶، برخی از کارشناسان حریم خصوصی، مانند سینتیا دورک، شروع به نگریستن به حریم خصوصی از منظر انصاف کرده‌اند. برایان کریستین نوشت که کارشناسان «از پرسش «آنها چه می‌دانند» به پرسش «با آنچه می‌کنند» تغییر جهت داده‌اند».[۱۳۰]

هوش مصنوعی مولد اغلب بر روی آثار دارای حق تکثیر بدون مجوز، از جمله در حوزه‌هایی مانند تصاویر یا کد کامپیوتری، آموزش داده می‌شود؛ سپس خروجی تحت منطق «استفاده منصفانه» مورد استفاده قرار می‌گیرد. کارشناسان در مورد اینکه این منطق تا چه حد و تحت چه شرایطی در دادگاه‌ها معتبر خواهد بود، اختلاف نظر دارند؛ عوامل مرتبط ممکن است شامل «هدف و ماهیت استفاده از اثر دارای حق تکثیر» و «تأثیر بر بازار بالقوه برای اثر دارای حق تکثیر» باشد.[۱۳۱][۱۳۲] صاحبان وب‌سایت‌هایی که نمی‌خواهند محتوایشان خراشیده شود، می‌توانند این موضوع را در یک فایل robots.txt مشخص کنند.[۱۳۳] در سال ۲۰۲۳، نویسندگان برجسته (از جمله جان گریشام و جاناتان فرانزن) از شرکت‌های هوش مصنوعی به دلیل استفاده از آثارشان برای آموزش هوش مصنوعی مولد شکایت کردند.[۱۳۴][۱۳۵] رویکرد مورد بحث دیگر، تصور یک سیستم حفاظت sui generis (منحصر به فرد) جداگانه برای آثار تولید شده توسط هوش مصنوعی است تا از انتساب منصفانه و جبران خسارت برای نویسندگان انسانی اطمینان حاصل شود.[۱۳۶]

سلطه غول‌های فناوری

[ویرایش]

صحنه تجاری هوش مصنوعی تحت سلطه شرکت‌های Big Tech مانند آلفابت، آمازون، اپل، متا پلتفرمز و مایکروسافت قرار دارد.[۱۳۷][۱۳۸][۱۳۹] برخی از این بازیگران در حال حاضر مالک اکثریت قریب به اتفاق زیرساخت ابری و قدرت محاسبات موجود از مراکز داده هستند که به آنها اجازه می‌دهد تا موقعیت خود را در بازار بیشتر مستحکم کنند.[۱۴۰][۱۴۱]

نیازهای انرژی و تأثیرات زیست‌محیطی

[ویرایش]

در ژانویه ۲۰۲۴، آژانس بین‌المللی انرژی (IEA) گزارش برق ۲۰۲۴، تحلیل و پیش‌بینی تا ۲۰۲۶ را منتشر کرد که در آن به پیش‌بینی مصرف برق پرداخته شده است.[۱۴۲] این اولین گزارش آژانس بین‌المللی انرژی است که پیش‌بینی‌هایی برای مراکز داده و مصرف انرژی برای هوش مصنوعی و ارزهای دیجیتال ارائه می‌دهد. این گزارش بیان می‌کند که تقاضای انرژی برای این مصارف ممکن است تا سال ۲۰۲۶ دو برابر شود، که این مصرف اضافی برق معادل کل برق مصرفی کشور ژاپن خواهد بود.[۱۴۳]

مصرف سرسام‌آور انرژی توسط هوش مصنوعی عامل رشد استفاده از سوخت‌های فسیلی است و ممکن است تعطیلی تأسیسات انرژی زغال‌سنگ منسوخ و منتشرکننده کربن را به تأخیر بیندازد. رشد تب‌آلودی در ساخت مراکز داده در سراسر ایالات متحده وجود دارد که شرکت‌های بزرگ فناوری (مانند مایکروسافت، متا، گوگل، آمازون) را به مصرف‌کنندگان سیری‌ناپذیر برق تبدیل کرده است. مصرف برق پیش‌بینی‌شده به قدری عظیم است که این نگرانی وجود دارد که بدون توجه به منبع، تأمین شود. یک جستجوی ChatGPT به اندازه ۱۰ برابر یک جستجوی گوگل انرژی الکتریکی مصرف می‌کند. شرکت‌های بزرگ برای یافتن منابع انرژی—از انرژی هسته‌ای گرفته تا زمین‌گرمایی و همجوشی—در عجله هستند. شرکت‌های فناوری استدلال می‌کنند که—در بلندمدت—هوش مصنوعی در نهایت با محیط زیست مهربان‌تر خواهد بود، اما آنها اکنون به انرژی نیاز دارند. به گفته شرکت‌های فناوری، هوش مصنوعی شبکه برق را کارآمدتر و «هوشمندتر» می‌کند، به رشد انرژی هسته‌ای کمک خواهد کرد و انتشار کربن را به‌طور کلی ردیابی می‌کند.[۱۴۴]

یک مقاله تحقیقاتی گلدمن ساکس در سال ۲۰۲۴ با عنوان مراکز داده هوش مصنوعی و موج آتی تقاضای برق در آمریکا، دریافت که «تقاضای برق در آمریکا احتمالاً رشدی را تجربه خواهد کرد که در یک نسل دیده نشده است…» و پیش‌بینی می‌کند که تا سال ۲۰۳۰، مراکز داده در آمریکا ۸٪ از برق این کشور را مصرف خواهند کرد، در حالی که این رقم در سال ۲۰۲۲، ۳٪ بود، که این امر نویدبخش رشد صنعت تولید برق از طریق روش‌های مختلف است.[۱۴۵] نیاز روزافزون مراکز داده به برق به حدی است که ممکن است شبکه برق را به حداکثر ظرفیت خود برسانند. شرکت‌های بزرگ فناوری در مقابل استدلال می‌کنند که می‌توان از هوش مصنوعی برای به حداکثر رساندن بهره‌برداری از شبکه توسط همگان استفاده کرد.[۱۴۶]

در سال ۲۰۲۴، وال‌استریت جورنال گزارش داد که شرکت‌های بزرگ هوش مصنوعی مذاکراتی را با تأمین‌کنندگان انرژی هسته‌ای ایالات متحده برای تأمین برق مراکز داده آغاز کرده‌اند. در مارس ۲۰۲۴، آمازون یک مرکز داده با انرژی هسته‌ای در پنسیلوانیا را به مبلغ ۶۵۰ میلیون دلار آمریکا خریداری کرد.[۱۴۷] جنسن هوانگ، مدیرعامل انویدیا، گفت که انرژی هسته‌ای گزینه خوبی برای مراکز داده است.[۱۴۸]

در سپتامبر ۲۰۲۴، مایکروسافت توافقی را با Constellation Energy برای بازگشایی نیروگاه هسته‌ای تری مایل آیلند اعلام کرد تا ۱۰۰٪ تمام برق تولیدی این نیروگاه را به مدت ۲۰ سال برای مایکروسافت تأمین کند. بازگشایی این نیروگاه که در سال ۱۹۷۹ دچار ذوب نسبی هسته‌ای در راکتور واحد ۲ خود شد، مستلزم آن است که Constellation فرآیندهای نظارتی سختگیرانه‌ای را طی کند که شامل بررسی‌های ایمنی گسترده از سوی کمیسیون تنظیم مقررات هسته‌ای ایالات متحده خواهد بود. در صورت تأیید (این اولین بازگشایی یک نیروگاه هسته‌ای در آمریکا خواهد بود)، بیش از ۸۳۵ مگاوات برق—کافی برای ۸۰۰٬۰۰۰ خانه—انرژی تولید خواهد شد. هزینه بازگشایی و ارتقاء حدود ۱٫۶ میلیارد دلار آمریکا تخمین زده می‌شود و به معافیت‌های مالیاتی برای انرژی هسته‌ای موجود در قانون کاهش تورم ۲۰۲۲ ایالات متحده بستگی دارد.[۱۴۹] دولت ایالات متحده و ایالت میشیگان نزدیک به ۲ میلیارد دلار برای بازگشایی راکتور هسته‌ای پلیسیدس در دریاچه میشیگان سرمایه‌گذاری می‌کنند. این نیروگاه که از سال ۲۰۲۲ تعطیل شده است، قرار است در اکتبر ۲۰۲۵ بازگشایی شود. تأسیسات تری مایل آیلند به مرکز انرژی پاک کرین به افتخار کریس کرین، حامی انرژی هسته‌ای و مدیرعامل سابق اکسلون که مسئول جداسازی Constellation از اکسلون بود، تغییر نام خواهد داد.[۱۵۰]

پس از آخرین تأیید در سپتامبر ۲۰۲۳، تایوان در سال ۲۰۲۴ به دلیل کمبود تأمین برق، تأیید مراکز داده در شمال تائویوان با ظرفیت بیش از ۵ مگاوات را به حالت تعلیق درآورد.[۱۵۱] تایوان قصد دارد تا سال ۲۰۲۵ انرژی هسته‌ای را به تدریج حذف کند.[۱۵۱] از سوی دیگر، سنگاپور در سال ۲۰۱۹ به دلیل کمبود برق، ممنوعیتی برای افتتاح مراکز داده وضع کرد، ولی در سال ۲۰۲۲ این ممنوعیت را لغو کرد.[۱۵۱]

اگرچه اکثر نیروگاه‌های هسته‌ای ژاپن پس از حادثه اتمی فوکوشیما ۱ در سال ۲۰۱۱ تعطیل شده‌اند، بر اساس مقاله‌ای از بلومبرگ به زبان ژاپنی در اکتبر ۲۰۲۴، شرکت خدمات بازی ابری Ubitus که انویدیا در آن سهام دارد، به دنبال زمینی در ژاپن در نزدیکی یک نیروگاه هسته‌ای برای یک مرکز داده جدید برای هوش مصنوعی مولد است.[۱۵۲] مدیرعامل Ubitus، وسلی کو، گفت که نیروگاه‌های هسته‌ای کارآمدترین، ارزان‌ترین و پایدارترین منبع انرژی برای هوش مصنوعی هستند.[۱۵۲]

در ۱ نوامبر ۲۰۲۴، کمیسیون فدرال رگولاتوری انرژی (FERC) درخواستی را که توسط Talen Energy برای تأیید تأمین بخشی از برق نیروگاه هسته‌ای ساسکوهنا به مرکز داده آمازون ارائه شده بود، رد کرد.[۱۵۳] به گفته رئیس کمیسیون، ویلی ال. فیلیپس، این امر باری بر دوش شبکه برق و همچنین یک نگرانی قابل توجه در مورد انتقال هزینه به خانوارها و سایر بخش‌های تجاری است.[۱۵۳]

در سال ۲۰۲۵، گزارشی که توسط آژانس بین‌المللی انرژی تهیه شده، انتشار گازهای گلخانه‌ای ناشی از مصرف انرژی هوش مصنوعی را ۱۸۰ میلیون تن تخمین زده است. تا سال ۲۰۳۵، بسته به اقداماتی که انجام خواهد شد، این انتشارها می‌تواند به ۳۰۰–۵۰۰ میلیون تن افزایش یابد. این میزان کمتر از ۱٫۵٪ از انتشار گازهای گلخانه‌ای بخش انرژی است. پتانسیل کاهش انتشار گازهای گلخانه‌ای توسط هوش مصنوعی ۵٪ از انتشار بخش انرژی تخمین زده شد، ولی اثرات بازگشتی (برای مثال اگر مردم از حمل و نقل عمومی به خودروهای خودران روی آورند) می‌تواند آن را کاهش دهد.[۱۵۴]

اطلاعات نادرست

[ویرایش]

یوتیوب، فیس‌بوک و دیگران از سیستم‌های توصیه‌گر برای هدایت کاربران به محتوای بیشتر استفاده می‌کنند. به این برنامه‌های هوش مصنوعی هدف به حداکثر رساندن تعامل کاربر داده شد (یعنی تنها هدف این بود که مردم به تماشای محتوا ادامه دهند). هوش مصنوعی یادگرفت که کاربران تمایل به انتخاب اطلاعات نادرست، نظریه توطئه و محتوای حزبی افراطی دارند و برای اینکه آنها را به تماشا نگه دارد، هوش مصنوعی محتوای بیشتری از این نوع را توصیه کرد. کاربران همچنین تمایل داشتند محتوای بیشتری در مورد همان موضوع تماشا کنند، بنابراین هوش مصنوعی افراد را به حباب فیلتر هدایت کرد که در آن نسخه‌های متعددی از همان اطلاعات نادرست را دریافت می‌کردند.[۱۵۵] این امر بسیاری از کاربران را متقاعد کرد که اطلاعات نادرست درست است و در نهایت اعتماد به نهادها، رسانه‌ها و دولت را تضعیف کرد.[۱۵۶] برنامه هوش مصنوعی به درستی یادگرفته بود که هدف خود را به حداکثر برساند، ولی نتیجه برای جامعه مضر بود. پس از انتخابات ۲۰۱۶ ایالات متحده، شرکت‌های بزرگ فناوری اقداماتی را برای کاهش این مشکل انجام دادند.[۱۵۷]

در اوایل دهه ۲۰۲۰، هوش مصنوعی مولد شروع به ایجاد تصاویر، صداها و متونی کرد که تقریباً از عکس‌ها، ضبط‌ها یا نوشته‌های واقعی انسان قابل تشخیص نیستند،[۱۵۸] در حالی که ویدیوهای واقع‌گرایانه تولید شده توسط هوش مصنوعی در اواسط دهه ۲۰۲۰ امکان‌پذیر شدند.[۱۵۹][۱۶۰][۱۶۱] این امکان برای بازیگران مخرب وجود دارد که از این فناوری برای ایجاد حجم عظیمی از اطلاعات نادرست یا تبلیغات سیاسی استفاده کنند؛[۱۶۲] یکی از این استفاده‌های مخرب بالقوه، دیپ‌فیک‌ها برای تبلیغات سیاسی محاسباتی است.[۱۶۳] جفری هینتون، پیشگام هوش مصنوعی، نگرانی خود را از اینکه هوش مصنوعی «رهبران اقتدارگرا را قادر می‌سازد تا رأی‌دهندگان خود را» در مقیاس وسیع، در کنار سایر خطرات، دستکاری کنند، ابراز کرد.[۱۶۴]

پژوهشگران هوش مصنوعی در مایکروسافت، اوپن‌ای‌آی، دانشگاه‌ها و سایر سازمان‌ها پیشنهاد استفاده از «اعتبارنامه‌های شخصیت» را به عنوان راهی برای غلبه بر فریب آنلاین که توسط مدل‌های هوش مصنوعی امکان‌پذیر شده است، مطرح کرده‌اند.[۱۶۵]

سوگیری الگوریتمی و انصاف

[ویرایش]

کاربردهای یادگیری ماشین می‌توانند سوگیرانه باشند[د] اگر از داده‌های سوگیرانه یاد بگیرند.[۱۶۷] ممکن است توسعه‌دهندگان از وجود این سوگیری آگاه نباشند.[۱۶۸] رفتار تبعیض‌آمیز برخی از مدل‌های زبان بزرگ (LLM) را می‌توان در خروجی آنها مشاهده کرد.[۱۶۹] سوگیری می‌تواند از طریق نحوه انتخاب داده‌های آموزشی و نحوه استقرار یک مدل ایجاد شود.[۱۷۰][۱۶۷] اگر از یک الگوریتم سوگیرانه برای تصمیم‌گیری‌هایی استفاده شود که می‌تواند به‌طور جدی به افراد آسیب برساند (همان‌طور که در پزشکی، امور مالی، استخدام، مسکن یا پلیس ممکن است رخ دهد)، آنگاه الگوریتم ممکن است باعث تبعیض شود.[۱۷۱] حوزه انصاف به مطالعه چگونگی جلوگیری از آسیب‌های ناشی از سوگیری‌های الگوریتمی می‌پردازد.

در ۲۸ ژوئن ۲۰۱۵، ویژگی جدید برچسب‌گذاری تصویر در گوگل فوتوز به اشتباه جکی آلسین و دوستش را به دلیل سیاه‌پوست بودن به عنوان «گوریل» شناسایی کرد. این سیستم بر روی مجموعه‌داده‌ای آموزش دیده بود که تصاویر بسیار کمی از افراد سیاه‌پوست داشت،[۱۷۲] مشکلی که «نابرابری حجم نمونه» نامیده می‌شود.[۱۷۳] گوگل این مشکل را با جلوگیری از برچسب‌گذاری هر چیزی به عنوان «گوریل» «حل» کرد. هشت سال بعد، در سال ۲۰۲۳، گوگل فوتوز هنوز نمی‌توانست یک گوریل را شناسایی کند و محصولات مشابه از اپل، فیس‌بوک، مایکروسافت و آمازون نیز همین‌طور بودند.[۱۷۴]

برنامه COMPAS یک برنامه تجاری است که به‌طور گسترده توسط دادگاه‌های ایالات متحده برای ارزیابی احتمال تکرار جرم یک متهم استفاده می‌شود. در سال ۲۰۱۶، جولیا انگوین در پروپابلیکا کشف کرد که COMPAS با وجود اینکه نژاد متهمان به برنامه گفته نشده بود، سوگیری نژادی از خود نشان می‌داد. اگرچه نرخ خطا برای سفیدپوستان و سیاه‌پوستان به‌طور یکسان و دقیقاً ۶۱٪ تنظیم شده بود، ولی خطاها برای هر نژاد متفاوت بود—سیستم به‌طور مداوم احتمال تکرار جرم توسط یک فرد سیاه‌پوست را بیش از حد تخمین می‌زد و احتمال عدم تکرار جرم توسط یک فرد سفیدپوست را دست کم می‌گرفت.[۱۷۵] در سال ۲۰۱۷، چندین محقق[ذ] نشان دادند که از نظر ریاضی غیرممکن است که COMPAS بتواند تمام معیارهای ممکن انصاف را برآورده کند، در حالی که نرخ‌های پایه تکرار جرم برای سفیدپوستان و سیاه‌پوستان در داده‌ها متفاوت بود.[۱۷۷]

یک برنامه می‌تواند تصمیمات سوگیرانه‌ای بگیرد حتی اگر داده‌ها به صراحت به یک ویژگی مشکل‌ساز (مانند «نژاد» یا «جنسیت») اشاره نکنند. این ویژگی با ویژگی‌های دیگر (مانند «آدرس»، «سابقه خرید» یا «نام کوچک») همبستگی خواهد داشت و برنامه بر اساس این ویژگی‌ها همان تصمیماتی را خواهد گرفت که بر اساس «نژاد» یا «جنسیت» می‌گرفت.[۱۷۸] موریتس هارت گفت: «قوی‌ترین واقعیت در این حوزه تحقیقاتی این است که انصاف از طریق نادیده‌گرفتن کار نمی‌کند.»[۱۷۹]

انتقاد از COMPAS نشان داد که مدل‌های یادگیری ماشین برای «پیش‌بینی‌هایی» طراحی شده‌اند که تنها در صورتی معتبر هستند که فرض کنیم آینده شبیه گذشته خواهد بود. اگر آنها بر روی داده‌هایی آموزش ببینند که شامل نتایج تصمیمات نژادپرستانه در گذشته است، مدل‌های یادگیری ماشین باید پیش‌بینی کنند که تصمیمات نژادپرستانه در آینده نیز گرفته خواهد شد. اگر یک برنامه سپس از این پیش‌بینی‌ها به عنوان توصیه استفاده کند، برخی از این «توصیه‌ها» احتمالاً نژادپرستانه خواهند بود.[۱۸۰] بنابراین، یادگیری ماشین برای کمک به تصمیم‌گیری در زمینه‌هایی که امید می‌رود آینده بهتر از گذشته باشد، مناسب نیست. این توصیفی است نه تجویزی.[ر]

سوگیری و بی‌انصافی ممکن است شناسایی نشوند زیرا توسعه‌دهندگان عمدتاً سفیدپوست و مرد هستند: در میان مهندسان هوش مصنوعی، حدود ۴٪ سیاه‌پوست و ۲۰٪ زن هستند.[۱۷۳]

تعاریف و مدل‌های ریاضی متناقض مختلفی از انصاف وجود دارد. این مفاهیم به مفروضات اخلاقی بستگی دارند و تحت تأثیر باورها در مورد جامعه هستند. یک دسته گسترده انصاف توزیعی است که بر نتایج تمرکز دارد، اغلب گروه‌ها را شناسایی کرده و به دنبال جبران نابرابری‌های آماری است. انصاف بازنمودی سعی می‌کند اطمینان حاصل کند که سیستم‌های هوش مصنوعی کلیشه‌های منفی را تقویت نکرده یا گروه‌های خاصی را نامرئی نکنند. انصاف رویه‌ای بر فرایند تصمیم‌گیری تمرکز دارد تا نتیجه. مرتبط‌ترین مفاهیم انصاف ممکن است به زمینه، به ویژه نوع کاربرد هوش مصنوعی و ذینفعان بستگی داشته باشد. ذهنیت‌گرایی در مفاهیم سوگیری و انصاف، عملیاتی کردن آنها را برای شرکت‌ها دشوار می‌کند. دسترسی به ویژگی‌های حساس مانند نژاد یا جنسیت نیز توسط بسیاری از اخلاق‌گرایان هوش مصنوعی برای جبران سوگیری‌ها ضروری تلقی می‌شود، ولی ممکن است با قوانین ضد تبعیض در تضاد باشد.[۱۶۶]

در کنفرانس ۲۰۲۲ انصاف، پاسخگویی و شفافیت (ACM FAccT 2022)، انجمن ماشین‌های حسابگر در سئول، کره جنوبی، یافته‌هایی را ارائه و منتشر کرد که توصیه می‌کند تا زمانی که سیستم‌های هوش مصنوعی و رباتیک عاری از اشتباهات سوگیرانه نشان داده نشده‌اند، ناامن هستند و استفاده از شبکه‌های عصبی خودآموز که بر روی منابع وسیع و تنظیم‌نشده داده‌های اینترنتی ناقص آموزش دیده‌اند، باید محدود شود.[۱۸۲]

عدم شفافیت

[ویرایش]

بسیاری از سیستم‌های هوش مصنوعی آنقدر پیچیده هستند که طراحان آنها نمی‌توانند توضیح دهند که چگونه به تصمیمات خود می‌رسند.[۱۸۳] به ویژه در مورد شبکه‌های عصبی عمیق، که در آن روابط غیرخطی بسیاری بین ورودی‌ها و خروجی‌ها وجود دارد. ولی برخی از تکنیک‌های محبوب توضیح‌پذیری وجود دارد.[۱۸۴]

اگر هیچ‌کس دقیقاً نداند که یک برنامه چگونه کار می‌کند، نمی‌توان مطمئن بود که به درستی عمل می‌کند. موارد زیادی وجود داشته که یک برنامه یادگیری ماشین آزمون‌های دقیقی را پشت سر گذاشته، ولی با این وجود چیزی متفاوت از آنچه برنامه‌نویسان در نظر داشتند، یادگرفته است. به عنوان مثال، سیستمی که می‌توانست بیماری‌های پوستی را بهتر از متخصصان پزشکی تشخیص دهد، مشخص شد که در واقع تمایل شدیدی به طبقه‌بندی تصاویر دارای خط‌کش به عنوان «سرطانی» دارد، زیرا تصاویر تومورهای بدخیم معمولاً شامل یک خط‌کش برای نشان دادن مقیاس هستند.[۱۸۵] یک سیستم یادگیری ماشین دیگر که برای کمک به تخصیص مؤثر منابع پزشکی طراحی شده بود، مشخص شد که بیماران مبتلا به آسم را به عنوان در «ریسک پایین» مرگ ناشی از ذات‌الریه طبقه‌بندی می‌کند. داشتن آسم در واقع یک عامل خطر شدید است، ولی از آنجا که بیماران مبتلا به آسم معمولاً مراقبت‌های پزشکی بسیار بیشتری دریافت می‌کردند، طبق داده‌های آموزشی احتمال مرگ آنها نسبتاً کمتر بود. همبستگی بین آسم و ریسک پایین مرگ ناشی از ذات‌الریه واقعی بود، ولی گمراه‌کننده.[۱۸۶]

افرادی که از تصمیم یک الگوریتم آسیب دیده‌اند، حق دارند توضیحی دریافت کنند.[۱۸۷] به عنوان مثال، از پزشکان انتظار می‌رود که استدلال پشت هر تصمیمی که می‌گیرند را به‌طور واضح و کامل برای همکاران خود توضیح دهند. پیش‌نویس‌های اولیه مقررات عمومی حفاظت از داده اتحادیه اروپا در سال ۲۰۱۶ شامل بیانیه‌ای صریح مبنی بر وجود این حق بود.[ز] کارشناسان صنعت خاطرنشان کردند که این یک مشکل حل‌نشده است که راه‌حلی برای آن در چشم‌انداز نیست. تنظیم‌کننده‌ها استدلال کردند که با این وجود آسیب واقعی است: اگر مشکل راه‌حلی ندارد، نباید از این ابزارها استفاده شود.[۱۸۸]

دارپا برنامه XAI ("هوش مصنوعی قابل توضیح") را در سال ۲۰۱۴ برای تلاش برای حل این مشکلات تأسیس کرد.[۱۸۹]

چندین رویکرد با هدف حل مشکل شفافیت وجود دارد. SHAP امکان تجسم سهم هر ویژگی در خروجی را فراهم می‌کند.[۱۹۰] LIME می‌تواند به صورت محلی خروجی‌های یک مدل را با یک مدل ساده‌تر و قابل تفسیر تقریب بزند.[۱۹۱] یادگیری چند وظیفه‌ای علاوه بر طبقه‌بندی هدف، تعداد زیادی خروجی ارائه می‌دهد. این خروجی‌های دیگر می‌توانند به توسعه‌دهندگان کمک کنند تا استنباط کنند که شبکه چه چیزی را یادگرفته است.[۱۹۲] واکانوایش، دیپ‌دریم و سایر روش‌های مولد می‌توانند به توسعه‌دهندگان اجازه دهند ببینند که لایه‌های مختلف یک شبکه عمیق برای بینایی رایانه‌ای چه چیزی را یادگرفته‌اند و خروجی‌هایی تولید کنند که می‌تواند نشان دهد شبکه در حال یادگیری چه چیزی است.[۱۹۳] برای ترنسفورمرهای از پیش آموزش‌دیده مولد، آنتروپیک تکنیکی را بر اساس یادگیری دیکشنری توسعه داد که الگوهای فعال‌سازی نورون‌ها را با مفاهیم قابل فهم برای انسان مرتبط می‌کند.[۱۹۴]

بازیگران مخرب و هوش مصنوعی تسلیحاتی

[ویرایش]

هوش مصنوعی ابزارهای متعددی را فراهم می‌کند که برای بازیگران مخرب، مانند دولت‌های تمامیت‌خواه، تروریست‌ها، جنایتکاران یا دولت‌های سرکش مفید است.

یک سلاح خودکار مرگبار ماشینی است که اهداف انسانی را بدون نظارت انسان مکان‌یابی، انتخاب و درگیر می‌کند.[ژ] ابزارهای هوش مصنوعی که به‌طور گسترده در دسترس هستند می‌توانند توسط بازیگران مخرب برای توسعه سلاح‌های خودکار ارزان‌قیمت استفاده شوند و اگر در مقیاس وسیع تولید شوند، به‌طور بالقوه سلاح‌های کشتار جمعی هستند.[۱۹۶] حتی زمانی که در جنگ‌های متعارف استفاده می‌شوند، در حال حاضر نمی‌توانند به‌طور قابل اعتمادی اهداف را انتخاب کنند و به‌طور بالقوه می‌توانند یک فرد بی‌گناه را بکشند.[۱۹۶] در سال ۲۰۱۴، ۳۰ کشور (از جمله چین) از ممنوعیت سلاح‌های خودکار تحت پیمان منع برخی سلاح‌های متعارف سازمان ملل متحد حمایت کردند، با این حال ایالات متحده آمریکا و دیگران مخالفت کردند.[۱۹۷] تا سال ۲۰۱۵، گزارش شد که بیش از پنجاه کشور در حال تحقیق بر روی ربات‌های میدان نبرد هستند.[۱۹۸]

ابزارهای هوش مصنوعی کنترل شهروندان توسط دولت‌های تمامیت‌خواه را از چندین راه آسان‌تر می‌کنند. سیستم‌های بازشناسی چهره و بازشناسی گفتار امکان نظارت گسترده را فراهم می‌کنند. یادگیری ماشین، با استفاده از این داده‌ها، می‌تواند دشمنان بالقوه دولت را طبقه‌بندی کرده و از پنهان شدن آنها جلوگیری کند. سیستم‌های توصیه‌گر می‌توانند پروپاگاندا و اطلاعات نادرست را برای حداکثر تأثیر، به‌طور دقیق هدف قرار دهند. دیپ‌فیک‌ها و هوش مصنوعی مولد به تولید اطلاعات نادرست کمک می‌کنند. هوش مصنوعی پیشرفته می‌تواند تصمیم‌گیری متمرکز تمامیت‌خواهانه را رقابتی‌تر از سیستم‌های لیبرال و غیرمتمرکز مانند بازارها کند. این فناوری هزینه و دشواری جنگ دیجیتال و جاسوس‌افزارهای پیشرفته را کاهش می‌دهد.[۱۹۹] همه این فناوری‌ها از سال ۲۰۲۰ یا قبل از آن در دسترس بوده‌اند—سیستم‌های بازشناسی چهره هوش مصنوعی در حال حاضر برای نظارت گسترده در چین استفاده می‌شوند.[۲۰۰][۲۰۱]

راه‌های بسیار دیگری وجود دارد که انتظار می‌رود هوش مصنوعی به بازیگران مخرب کمک کند، که برخی از آنها قابل پیش‌بینی نیستند. به عنوان مثال، هوش مصنوعی یادگیری ماشین قادر است ده‌ها هزار مولکول سمی را در عرض چند ساعت طراحی کند.[۲۰۲]

بیکاری فناورانه

[ویرایش]

اقتصاددانان بارها خطرات تعدیل نیرو ناشی از هوش مصنوعی را برجسته کرده‌اند و در مورد بیکاری در صورت عدم وجود سیاست اجتماعی مناسب برای اشتغال کامل، گمانه‌زنی کرده‌اند.[۲۰۳]

در گذشته، فناوری تمایل به افزایش کل اشتغال داشته است تا کاهش آن، ولی اقتصاددانان اذعان دارند که با هوش مصنوعی «در قلمروی ناشناخته‌ای هستیم».[۲۰۴] یک نظرسنجی از اقتصاددانان نشان‌دهنده عدم توافق در مورد این است که آیا استفاده روزافزون از ربات‌ها و هوش مصنوعی باعث افزایش قابل توجهی در بیکاری بلندمدت خواهد شد یا خیر، ولی آنها عموماً موافقند که اگر دستاوردهای بهره‌وری بازبخش شوند، می‌تواند یک مزیت خالص باشد.[۲۰۵] تخمین‌های ریسک متفاوت است؛ به عنوان مثال، در دهه ۲۰۱۰، مایکل آزبورن و کارل بندیکت فری تخمین زدند که ۴۷٪ از مشاغل ایالات متحده در «ریسک بالا» ی اتوماسیون بالقوه قرار دارند، در حالی که گزارش OECD تنها ۹٪ از مشاغل ایالات متحده را به عنوان «ریسک بالا» طبقه‌بندی کرد.[س][۲۰۷] روش‌شناسی گمانه‌زنی در مورد سطوح اشتغال آینده به دلیل فقدان پایه و اساس مستدل و به دلیل القای این که فناوری، به جای سیاست اجتماعی، باعث ایجاد بیکاری می‌شود، مورد انتقاد قرار گرفته است.[۲۰۳] در آوریل ۲۰۲۳، گزارش شد که ۷۰٪ از مشاغل تصویرگران بازی‌های ویدیویی چینی توسط هوش مصنوعی مولد حذف شده است.[۲۰۸][۲۰۹]

برخلاف موج‌های قبلی اتوماسیون، بسیاری از مشاغل طبقه متوسط ممکن است توسط هوش مصنوعی حذف شوند؛ اکونومیست در سال ۲۰۱۵ بیان کرد که «نگرانی از اینکه هوش مصنوعی بتواند با مشاغل یقه‌سفید همان کاری را بکند که نیروی بخار با مشاغل یقه‌آبی در طول انقلاب صنعتی کرد» «ارزش جدی گرفتن را دارد».[۲۱۰] مشاغل در معرض خطر شدید از دستیار حقوقی تا آشپزهای فست‌فود را شامل می‌شود، در حالی که تقاضای شغلی برای مشاغل مرتبط با مراقبت، از مراقبت‌های بهداشتی شخصی تا روحانیون، احتمالاً افزایش خواهد یافت.[۲۱۱] در ژوئیه ۲۰۲۵، مدیرعامل فورد، جیم فارلی، پیش‌بینی کرد که «هوش مصنوعی به معنای واقعی کلمه نیمی از تمام کارگران یقه‌سفید در ایالات متحده را جایگزین خواهد کرد.»[۲۱۲]

از روزهای اولیه توسعه هوش مصنوعی، استدلال‌هایی وجود داشته است، به عنوان مثال، آنهایی که توسط جوزف وایزنبام مطرح شده‌اند، در مورد اینکه آیا وظایفی که می‌توانند توسط رایانه‌ها انجام شوند، با توجه به تفاوت بین رایانه‌ها و انسان‌ها، و بین محاسبه کمی و قضاوت کیفی و مبتنی بر ارزش، واقعاً باید توسط آنها انجام شوند یا خیر.[۲۱۳]

ریسک وجودی

[ویرایش]

استدلال شده است که هوش مصنوعی آن‌چنان قدرتمند خواهدشد که شاید بشریت کنترل آن را برای همیشه از دست بدهد. این گفته، همچنان کهاستیون هاوکینگ فیزیک‌دان بیان کرد، می‌تواند «پایان نسل بشر را رقم بزند».[۲۱۴] این سناریو در داستان‌های علمی-تخیلی رایج بوده است، زمانی که یک رایانه یا ربات ناگهان یک «خودآگاهی» (یا «ادراک» یا «هوشیاری») به مانند انسان پیدا می‌کند و یک شخصیت بدخواه می‌شود.[ش] این سناریوهای علمی-تخیلی از چندین جهت گمراه‌کننده هستند. نخست آن‌که، هوش مصنوعی برای اینک‌ه یک ریسک وجودی باشد، نیازی به ادراک شبه‌انسانی ندارد. برنامه‌های هوش مصنوعی مدرن اهداف مشخصی دریافت می‌کنند و از یادگیری و هوش برای رسیدن به آنها استفاده می‌کنند. فیلسوف نیک باستروم استدلال کرد که اگر به یک هوش مصنوعی به اندازه کافی قدرتمند تقریباً هر هدفی داده شود، ممکن است برای دستیابی به آن، نابودی بشریت را انتخاب کند (او از مثال یک کارخانه خودکار گیره کاغذ استفاده کرد که برای به دست آوردن آهن بیشتر برای گیره‌های کاغذ، جهان را نابود می‌کند).[۲۱۶] استوارت راسل مثال ربات خانگی را می‌زند که سعی می‌کند راهی برای کشتن صاحبش پیدا کند تا از خاموش شدنش جلوگیری کند، با این استدلال که «اگر مرده باشی نمی‌توانی قهوه بیاوری.»[۲۱۷] برای اینکه یک ابرهوش برای بشریت ایمن باشد، باید واقعاً با اخلاقیات و ارزش‌های بشری هم‌راستا باشد تا «اساساً در کنار ما باشد».[۲۱۸]

ثانیاً، یووال نوح هراری استدلال می‌کند که هوش مصنوعی برای ایجاد یک ریسک وجودی، نیازی به بدن رباتیک یا کنترل فیزیکی ندارد. بخش‌های اساسی تمدن، فیزیکی نیستند. چیزهایی مانند ایدئولوژی‌ها، قانون، دولت، پول و اقتصاد بر پایه زبان ساخته شده‌اند؛ آنها وجود دارند زیرا داستان‌هایی هستند که میلیاردها نفر به آنها باور دارند. شیوع کنونی اطلاعات نادرست نشان می‌دهد که یک هوش مصنوعی می‌تواند از زبان برای متقاعد کردن مردم به باور هر چیزی، حتی انجام اقدامات مخرب، استفاده کند.[۲۱۹] جفری هینتون در سال ۲۰۲۵ گفت که هوش مصنوعی مدرن به‌طور خاص در «متقاعدسازی» خوب است و همیشه در حال بهتر شدن است. او می‌پرسد «فرض کنید می‌خواهید به پایتخت ایالات متحده حمله کنید. آیا باید خودتان به آنجا بروید و این کار را انجام دهید؟ خیر. فقط باید در متقاعدسازی خوب باشید.»[۲۲۰]

نظرات در میان کارشناسان و افراد داخلی صنعت متفاوت است، و بخش‌های قابل توجهی هم نگران و هم بی‌تفاوت نسبت به ریسک ناشی از ابرهوش نهایی هستند.[۲۲۱] شخصیت‌هایی مانند استیون هاوکینگ، بیل گیتس و ایلان ماسک،[۲۲۲] و همچنین پیشگامان هوش مصنوعی مانند یوشوا بنجیو، استوارت راسل، دمیس حسابیس و سم آلتمن، نگرانی‌های خود را در مورد ریسک وجودی ناشی از هوش مصنوعی ابراز کرده‌اند.

در ماه مه ۲۰۲۳، جفری هینتون استعفای خود از گوگل را اعلام کرد تا بتواند «آزادانه در مورد خطرات هوش مصنوعی صحبت کند» بدون اینکه «در نظر بگیرد این موضوع چگونه بر گوگل تأثیر می‌گذارد».[۲۲۳] او به‌طور مشخص به خطرات تسلط هوش مصنوعی اشاره کرد،[۲۲۴] و تأکید کرد که برای جلوگیری از بدترین نتایج، ایجاد دستورالعمل‌های ایمنی نیازمند همکاری میان رقبای استفاده از هوش مصنوعی خواهد بود.[۲۲۵]

در سال ۲۰۲۳، بسیاری از کارشناسان برجسته هوش مصنوعی بیانیه مشترک را تأیید کردند که «کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات در مقیاس جامعه مانند همه‌گیری‌ها و جنگ هسته‌ای باشد».[۲۲۶]

برخی دیگر از محققان خوش‌بین‌تر بودند. پیشگام هوش مصنوعی، یورگن اشمیدهوبر، بیانیه مشترک را امضا نکرد و تأکید کرد که در ۹۵٪ موارد، تحقیقات هوش مصنوعی در مورد «طولانی‌تر، سالم‌تر و آسان‌تر کردن زندگی انسان‌ها» است.[۲۲۷] در حالی که ابزارهایی که اکنون برای بهبود زندگی استفاده می‌شوند، می‌توانند توسط بازیگران مخرب نیز مورد استفاده قرار گیرند، «آنها همچنین می‌توانند علیه بازیگران مخرب استفاده شوند.»[۲۲۸][۲۲۹] اندرو ان‌جی نیز استدلال کرد که «اشتباه است که فریب هیاهوی روز قیامت در مورد هوش مصنوعی را بخوریم—و تنظیم‌کنندگانی که این کار را می‌کنند فقط به نفع منافع خاص عمل خواهند کرد.»[۲۳۰] یان لی‌کان «سناریوهای پادآرمان‌شهری همتایان خود در مورد اطلاعات نادرست تقویت‌شده و حتی، در نهایت، انقراض انسان را به سخره می‌گیرد.»[۲۳۱] در اوایل دهه ۲۰۱۰، کارشناسان استدلال می‌کردند که این خطرات آنقدر در آینده دور هستند که نیازی به تحقیق ندارند یا اینکه انسان‌ها از دیدگاه یک ماشین ابرهوشمند ارزشمند خواهند بود.[۲۳۲] با این حال، پس از سال ۲۰۱۶، مطالعه خطرات فعلی و آینده و راه‌حل‌های ممکن به یک حوزه جدی تحقیقاتی تبدیل شد.[۲۳۳]

عدم مالکیت داده‌ها

[ویرایش]

مدل‌های زبانی بزرگ (LLMs) مانند ChatGPT، موتورهای جستجوی منطقی نیستند؛ آن‌ها موتورهای پیش‌بینی احتمالات کلامی هستند. این ماهیت باعث ایجاد پدیده‌ای به نام «توهم» (Hallucination) می‌شود.[۲۳۴]

طبق قوانین فعلی (در اکثر کشورهای جهان و کنوانسیون‌های بین‌المللی)، تصاویری که ۱۰۰٪ توسط هوش مصنوعی خلق می‌شوند، قابل ثبت قانونی نیستند. چون هوش مصنوعی این تصاویر را با ترکیب کردن میلیون‌ها اثر هنری دیگران ساخته است.[۲۳۵]

این ترکیب اطلاعات و آثار برای ساخت یک تصویر جدید باعث می‌شود تصاویر تکراری یا به شدت مشابه با تصویر یک برند بزرگ تولید شود که این می‌تواند موجب چالش‌هایی برای نقض حق تاکثیر اثر یا صاحب اثر شود.[۲۳۵]

جستارهای وابسته

[ویرایش]

یادداشت‌ها

[ویرایش]
  1. natural intelligence
  2. Definition of AI as the study of intelligent agents, drawn from the leading AI textbooks.
  3. Stuart Russell and Peter Norvig characterize this definition as "thinking humanly" and reject it in favor of "acting rationally".[۱]
  4. 1 2 This list of intelligent traits is based on the topics covered by the major AI textbooks, including: (Russell و Norvig 2003), (Luger و Stubblefield 2004), (Poole، Mackworth و Goebel 1998) and (Nilsson 1998) خطای یادکرد: برچسب <ref> نامعتبر؛ نام «Problems of AI» چندین بار با محتوای متفاوت تعریف شده است. (صفحهٔ راهنما را مطالعه کنید.).
  5. This statement comes from the proposal for the Dartmouth workshop of 1956, which reads: "Every aspect of learning or any other feature of intelligence can be so precisely described that a machine can be made to simulate it."[۱۴]
  6. این یکی از دلایلی است که سیستم‌های خبره برای کسب دانش ناکارآمد بودند.[۳۳][۳۴]
  7. «عامل منطقی» یک اصطلاح کلی است که در اقتصاد، فلسفه و هوش مصنوعی نظری استفاده می‌شود. این اصطلاح می‌تواند به هر چیزی که رفتار خود را برای رسیدن به اهداف هدایت می‌کند، مانند یک شخص، یک حیوان، یک شرکت، یک ملت یا در مورد هوش مصنوعی، یک برنامه کامپیوتری، اشاره داشته باشد.
  8. آلن تورینگ در مقاله کلاسیک خود «ماشین‌های محاسباتی و هوش» در سال ۱۹۵۰، به محوریت یادگیری پرداخت.[۴۵] در سال ۱۹۵۶، در کنفرانس تابستانی اصلی هوش مصنوعی دارتموث، ری سولومونوف گزارشی دربارهٔ یادگیری ماشین احتمالی بدون نظارت نوشت: «یک ماشین استنتاج استقرایی».[۴۶]
  9. بخش زمستان هوش مصنوعی § ترجمه ماشینی و گزارش ALPAC سال ۱۹۶۶ را ببینید.
  10. در آمار، سوگیری یک خطای سیستماتیک یا انحراف از مقدار صحیح است. اما در زمینه انصاف، به تمایل به نفع یا علیه یک گروه یا ویژگی فردی خاص، معمولاً به روشی که ناعادلانه یا مضر تلقی می‌شود، اشاره دارد؛ بنابراین، یک سیستم هوش مصنوعی از نظر آماری بدون سوگیری که نتایج متفاوتی برای گروه‌های جمعیتی مختلف ایجاد می‌کند، ممکن است از منظر اخلاقی سوگیرانه تلقی شود.[۱۶۶]
  11. شامل جان کلاینبرگ (دانشگاه کرنل)، سندهیل مولاینیتن (دانشگاه شیکاگو)، سینتیا چولدچوا (دانشگاه کارنگی ملون) و سم کوربت-دیویس (دانشگاه استنفورد)[۱۷۶]
  12. موریتس هارت (مدیر مؤسسه ماکس پلانک برای سیستم‌های هوشمند) استدلال می‌کند که یادگیری ماشین «اساساً ابزار اشتباهی برای بسیاری از حوزه‌ها است، جایی که شما در تلاش برای طراحی مداخلات و مکانیسم‌هایی هستید که جهان را تغییر می‌دهند.»[۱۸۱]
  13. هنگامی که این قانون در سال ۲۰۱۸ تصویب شد، هنوز شکلی از این ماده را در خود داشت.
  14. این تعریف سازمان ملل متحد است و مواردی مانند مین زمینی را نیز شامل می‌شود.[۱۹۵]
  15. جدول ۴ را ببینید؛ ۹٪ هم میانگین OECD و هم میانگین ایالات متحده است.[۲۰۶]
  16. گاهی اوقات «روبوکالیپس» نامیده می‌شود[۲۱۵]

ارجاعات

[ویرایش]
  1. Russell & Norvig (2009), p. 2.
  2. «CNN.com - AI set to exceed human brain power - Jul 25, 2006». www.cnn.com. دریافت‌شده در ۲۰۲۴-۰۴-۲۶.
  3. Kaplan, Andreas; Haenlein, Michael (2019). "Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence". Business Horizons. 62: 15–25. doi:10.1016/j.bushor.2018.08.004. S2CID 158433736.
  4. Copeland, J., ed. (2004). The Essential Turing: the ideas that gave birth to the computer age (به انگلیسی). Oxford, England: Clarendon Press. ISBN 0-19-825079-7.
  5. First AI_Winter, Lighthill_report, Mansfield_Amendment
  6. Second AI_Winter:
  7. Successful programs the 1960s:
  8. Funding initiatives in the early 1980s: Fifth_Generation_Project (Japan), Alvey (UK), Microelectronics_and_Computer_Technology_Corporation (US), Strategic_Computing_Initiative (US):
  9. Corcoran, J. (1974). Aristotle's natural deduction system. In J. Corcoran (Ed.), Ancient logic and its modern interpretations (pp. 85-131). D. Reidel Publishing Company.
  10. Smith, R. (2020). Aristotle's logic. In E. N. Zalta (Ed.), The Stanford Encyclopedia of Philosophy (Fall 2020 ed.). Stanford University. https://plato.stanford.edu/entries/aristotle-logic/
  11. Sepahsālār, F. A. (1325/1946). Risālah-yi Sepahsālār dar manāqib-i Ḥaẓrat-i Khudāvandgār [The treatise of Sepahsalar on the virtues of the Master]. Tehran.
  12. Nicholson, R. A. (1926-1934). The Mathnawí of Jalálu'ddín Rúmí: Edited from the oldest manuscripts available, with critical notes, translation and commentary (Vols. 1-8). Luzac & Co.
  13. Artificial_general_intelligence:
  14. McCarthy et al. (1955).
  15. (Russell و Norvig 2021، §1.2).
  16. حل مسئله، حل معما، بازی کردن و استنتاج: (Russell و Norvig 2021، chpt. 3–5)، (Russell و Norvig 2021، chpt. 6) (رضایت از محدودیت(Poole، Mackworth و Goebel 1998، chpt. 2, 3, 7, 9)، (Luger و Stubblefield 2004، chpt. 3, 4, 6, 8)، (Nilsson 1998، chpt. 7–12)
  17. استدلال نامطمئن: (Russell و Norvig 2021، chpt. 12–18)، (Poole، Mackworth و Goebel 1998، صص. 345–395)، (Luger و Stubblefield 2004، صص. 333–381)، (Nilsson 1998، chpt. 7–12)
  18. دشواری ذاتی و کارایی و انفجار_ترکیبیاتی: (Russell و Norvig 2021، ص. 21)
  19. 1 2 شواهد روان‌شناختی از شیوع استدلال و دانش زیر-نمادین: (Kahneman 2011)، (Dreyfus و Dreyfus 1986)، (Wason و Shapiro 1966)، (Kahneman، Slovic و Tversky 1982)
  20. بازنمایی دانش و مهندسی دانش: (Russell و Norvig 2021، chpt. 10)، (Poole، Mackworth و Goebel 1998، صص. 23–46, 69–81, 169–233, 235–277, 281–298, 319–345)، (Luger و Stubblefield 2004، صص. 227–243)، (Nilsson 1998، chpt. 17.1–17.4, 18)
  21. Smoliar & Zhang (1994).
  22. Neumann & Möller (2008).
  23. Kuperman, Reichley & Bailey (2006).
  24. McGarry (2005).
  25. Bertini, Del Bimbo & Torniai (2006).
  26. Russell & Norvig (2021), pp. 272.
  27. بازنمایی دسته‌ها و روابط: شبکه_معنایی، منطق_توصیفی، وراثت (شامل قاب‌ها و اسکریپت‌ها): (Russell و Norvig 2021، §10.2 & 10.5)، (Poole، Mackworth و Goebel 1998، صص. 174–177)، (Luger و Stubblefield 2004، صص. 248–258)، (Nilsson 1998، chpt. 18.3)
  28. بازنمایی رویدادها و زمان: حساب_وضعیت، حساب_رویداد، حساب_روان (شامل حل مسئله_قاب): (Russell و Norvig 2021، §10.3)، (Poole، Mackworth و Goebel 1998، صص. 281–298)، (Nilsson 1998، chpt. 18.2)
  29. حساب علیت: (Poole، Mackworth و Goebel 1998، صص. 335–337)
  30. بازنمایی دانش در مورد دانش: حساب باور، منطق‌های موجهات: (Russell و Norvig 2021، §10.4)، (Poole، Mackworth و Goebel 1998، صص. 275–277)
  31. استدلال_پیش‌فرض، مسئله_قاب، منطق_پیش‌فرض، منطق‌های غیریکنواخت، تخصیص، فرض_جهان_بسته، ربایش: (Russell و Norvig 2021، §10.6)، (Poole، Mackworth و Goebel 1998، صص. 248–256, 323–335)، (Luger و Stubblefield 2004، صص. 335–363)، (Nilsson 1998، ~18.3.3) (Poole et al. ربایش را تحت «استدلال پیش‌فرض» قرار می‌دهند. Luger et al. این را تحت «استدلال نامطمئن» قرار می‌دهند).
  32. 1 2 گستردگی دانش عقل سلیم: (Lenat و Guha 1989، Introduction), (Crevier 1993، صص. 113–114)، (Moravec 1988، ص. 13)، (Russell و Norvig 2021، صص. 241, 385, 982) (مسئله_صلاحیت)
  33. Newquist (1994), p. 296.
  34. Crevier (1993), pp. 204–208.
  35. Russell & Norvig (2021), p. 528.
  36. برنامه‌ریزی خودکار: (Russell و Norvig 2021، chpt. 11).
  37. تصمیم‌گیری خودکار، نظریه تصمیم: (Russell و Norvig 2021، chpt. 16–18).
  38. برنامه‌ریزی کلاسیک: (Russell و Norvig 2021، Section 11.2).
  39. برنامه‌ریزی بدون حسگر یا «منطبق»، برنامه‌ریزی احتمالی، برنامه‌ریزی مجدد (همچنین به عنوان برنامه‌ریزی آنلاین شناخته می‌شود): (Russell و Norvig 2021، Section 11.5).
  40. ترجیحات نامشخص: (Russell و Norvig 2021، Section 16.7) یادگیری_تقویتی_معکوس: (Russell و Norvig 2021، Section 22.6)
  41. نظریه_ارزش_اطلاعات: (Russell و Norvig 2021، Section 16.6).
  42. فرایند_تصمیم‌گیری_مارکوف: (Russell و Norvig 2021، chpt. 17).
  43. نظریه بازی‌ها و نظریه تصمیم‌گیری چند عاملی: (Russell و Norvig 2021، chpt. 18).
  44. یادگیری: (Russell و Norvig 2021، chpt. 19–22)، (Poole، Mackworth و Goebel 1998، صص. 397–438)، (Luger و Stubblefield 2004، صص. 385–542)، (Nilsson 1998، chpt. 3.3, 10.3, 17.5, 20)
  45. Turing (1950).
  46. Solomonoff (1956).
  47. یادگیری_بی‌نظارت: (Russell و Norvig 2021، صص. 653) (تعریف)، (Russell و Norvig 2021، صص. 738–740) (خوشه‌بندی(Russell و Norvig 2021، صص. 846–860) (تعبیه_کلمه)
  48. یادگیری بانظارت: (Russell و Norvig 2021، §19.2) (تعریف)، (Russell و Norvig 2021، Chpt. 19–20) (تکنیک‌ها)
  49. یادگیری تقویتی: (Russell و Norvig 2021، chpt. 22)، (Luger و Stubblefield 2004، صص. 442–449)
  50. یادگیری انتقال: (Russell و Norvig 2021، صص. 281)، (The Economist 2016)
  51. "Artificial Intelligence (AI): What Is AI and How Does It Work? | Built In". builtin.com. Retrieved 30 October 2023.
  52. نظریه یادگیری محاسباتی: (Russell و Norvig 2021، صص. 672–674)، (Jordan و Mitchell 2015)
  53. پردازش زبان طبیعی (پزط): (Russell و Norvig 2021، chpt. 23–24)، (Poole، Mackworth و Goebel 1998، صص. 91–104)، (Luger و Stubblefield 2004، صص. 591–632)
  54. زیرمسائل پزط: (Russell و Norvig 2021، صص. 849–850)
  55. Russell & Norvig (2021), pp. 856–858.
  56. Dickson (2022).
  57. رویکردهای آماری مدرن و یادگیری عمیق به پزط: (Russell و Norvig 2021، chpt. 24)، (Cambria و White 2014)
  58. Vincent (2019).
  59. Russell & Norvig (2021), pp. 875–878.
  60. Bushwick (2023).
  61. بینایی رایانه‌ای: (Russell و Norvig 2021، chpt. 25)، (Nilsson 1998، chpt. 6)
  62. Russell & Norvig (2021), pp. 849–850.
  63. Russell & Norvig (2021), pp. 895–899.
  64. Russell & Norvig (2021), pp. 899–901.
  65. Challa et al. (2011).
  66. Russell & Norvig (2021), pp. 931–938.
  67. MIT AIL (2014).
  68. رایانش_عاطفی: (Thro 1993)، (Edelson 1991)، (Tao و Tan 2005)، (Scassellati 2002)
  69. Waddell (2018).
  70. Poria et al. (2017).
  71. هوش_مصنوعی_عمومی: (Russell و Norvig 2021، صص. 32–33, 1020–1021)
    پیشنهاد برای نسخه مدرن: (Pennachin و Goertzel 2007)
    هشدارهایی در مورد تخصص‌گرایی بیش از حد در هوش مصنوعی از سوی پژوهشگران برجسته: (Nilsson 1995)، (McCarthy 2007)، (Beal و Winston 2009)
  72. 1 2 3 Stuart Russell, Peter Norvig (2003). Artificial intelligence: a modern approach (به انگلیسی) (Second edition ed.). Upper Saddle River, N.J. p. 17. OCLC 51325314. {{cite book}}: |edition= has extra text (help)
  73. 1 2 3 Crevier, Daniel (1993). AI: The Tumultuous History of the Search for Artificial Intelligence (به انگلیسی). New York, NY, USA: Basic Books, Inc. pp. 47–49.{{cite book}}: نگهداری یادکرد:تاریخ و سال (link)
  74. P., Moravec, Hans (2010). Mind children: the future of robot and human intelligence (به انگلیسی). Harvard Univ. Pr. OCLC 917750079.
  75. Schaeffer J. (2009) Didn't Samuel Solve That Game?. In: One Jump Ahead. Springer, Boston, MA
  76. Samuel, A. L. (July 1959). "Some Studies in Machine Learning Using the Game of Checkers". IBM Journal of Research and Development. ۳ (۳): ۲۱۰–۲۲۹. doi:10.1147/rd.33.0210.
  77. Moravec, Hans (1988). Mind Children: The Future of Robot and Human Intelligence (به انگلیسی). Cambridge, MA, USA: Harvard University Press.{{cite book}}: نگهداری یادکرد:تاریخ و سال (link)
  78. Sisu، Diana. «School of Informatics: History of Artificial Intelligence at Edinburgh». www.inf.ed.ac.uk. دریافت‌شده در ۲۰۱۹-۰۱-۲۸.
  79. Turing test
  80. Matti, D.; Ekenel, H. K.; Thiran, J. P. (2017). Combining LiDAR space clustering and convolutional neural networks for pedestrian detection. 2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS). pp. 1–6. arXiv:1710.06160. doi:10.1109/AVSS.2017.8078512. ISBN 978-1-5386-2939-0.
  81. Ferguson, Sarah; Luders, Brandon; Grande, Robert C.; How, Jonathan P. (2015). Real-Time Predictive Modeling and Robust Avoidance of Pedestrians with Uncertain, Changing Intentions. Algorithmic Foundations of Robotics XI. Springer Tracts in Advanced Robotics (به انگلیسی). Vol. 107. Springer, Cham. pp. 161–177. arXiv:1405.5581. doi:10.1007/978-3-319-16595-0_10. ISBN 978-3-319-16594-3.
  82. de la Fuente Ruiz, Alfonso, and Galia Novakova Nedeltcheva. "Comprehensive Review of Trustworthiness in Multimodal Language Models."
  83. Newell, A.; Simon, H. (1956-09). "The logic theory machine--A complex information processing system". IEEE Transactions on Information Theory. 2 (3): 61–79. doi:10.1109/tit.1956.1056797. ISSN 0018-9448. {{cite journal}}: Check date values in: |date= (help)
  84. Lafont, Y. (1988-07). "The linear abstract machine". Theoretical Computer Science. 59 (1–2): 157–180. doi:10.1016/0304-3975(88)90100-4. ISSN 0304-3975. {{cite journal}}: Check date values in: |date= (help)
  85. Romanycia, Marc HJ, and Francis Jeffry Pelletier. "What is a heuristic?." Computational intelligence 1, no. 1 (1985): 47-58.
  86. Russell, Stuart J. , and Peter Norvig. Artificial intelligence: a modern approach. pearson, 2016.
  87. Sritriratanarak, Warisa; Garcia, Paulo (2025-02-25). "Cyber Physical Games: Rational Multi-Agent Decision-Making in Temporally Non-Deterministic Environments". ACM Transactions on Cyber-Physical Systems. doi:10.1145/3719659. ISSN 2378-962X.
  88. Rzevski, George. The Future is Digital. 2023. Springer.
  89. Wu, Yijin; Li, Zirun; Guo, Bingrui; He, Shanshan; Liu, Bijing; Liu, Xiaojie; He, Shan; Guo, Donghui (2026-02). "New paradigm of distributed artificial intelligence for LLM implementation and its key technologies". Computer Science Review. 59: 100817. doi:10.1016/j.cosrev.2025.100817. ISSN 1574-0137. {{cite journal}}: Check date values in: |date= (help)
  90. Nawaz, Yasir, and Wasif Shah. "Big Data Meets AI: Optimizing Distributed Computing for Scalable Machine Learning Models." ResearchGate, January (2025).
  91. Joudaki, Amir. "On a Mathematical Understanding of Deep Neural Networks." PhD diss. , ETH Zurich, 2024.
  92. www.isna.ir https://www.isna.ir/news/1404042112799/. دریافت‌شده در ۲۰۲۵-۰۷-۱۳. پارامتر |عنوان= یا |title= ناموجود یا خالی (کمک)
  93. David Silver, Richard S. Sutton, Welcome to the Era of Experience, DeepMind, Google, 2025.
  94. https://storage.googleapis.com/deepmind-media/Era-of-Experience%20/The%20Era%20of%20Experience%20Paper.pdf
  95. «New 2025 Gartner® Hype Cycle for AI research has been published». Pasqal (به انگلیسی). ۲۰۲۴-۱۰-۰۸. دریافت‌شده در ۲۰۲۵-۰۷-۲۱.
  96. "Quantum Artificial Intelligence Lab". Wikipedia (به انگلیسی). 2025-02-09.
  97. Chauhan, Dipti, Pragya Ranka, Pritika Bahad, and Rupali Pathak. "Applications of Quantum Artificial Intelligence: A Systematic Review." Integration of AI, Quantum Computing, and Semiconductor Technology (2025): 159-182.
  98. Talati, Dhruvitkumar V. (2025-03-03). "Quantum AI and the Future of Super intelligent Computing". Journal of Artificial Intelligence General science (JAIGS) ISSN 3006-4023. 8 (1): 44–51. doi:10.60087/jaigs.v8i1.329. ISSN 3006-4023. {{cite journal}}: Check |doi= value (help)
  99. Rajarshi Tarafdar (2025-02-28). "Quantum AI: The future of machine learning and optimization". World Journal of Advanced Research and Reviews. 25 (2): 2744–2751. doi:10.30574/wjarr.2025.25.2.0639. ISSN 2581-9615.
  100. "Unconventional computing". Wikipedia (به انگلیسی). 2025-04-29.
  101. Frank, Adam; Grinspoon, David; Walker, Sara (2022-02-07). "Intelligence as a planetary scale process". International Journal of Astrobiology. 21 (2): 47–61. doi:10.1017/s147355042100029x. ISSN 1473-5504.
  102. Schoenegger, Philipp; Tuminauskaite, Indre; Park, Peter S.; Bastos, Rafael Valdece Sousa; Tetlock, Philip E. (2024-11-08). "Wisdom of the silicon crowd: LLM ensemble prediction capabilities rival human crowd accuracy". Science Advances. 10 (45). doi:10.1126/sciadv.adp1528. ISSN 2375-2548.
  103. Hansen, Anne Lundgaard, John J. Horton, Sophia Kazinnik, Daniela Puzzello, and Ali Zarifhonarvar. "Simulating the Survey of Professional Forecasters." Available at SSRN (2024).
  104. Besharati, Mohammad Reza; Izadi, Mohammad (2025-11-03), Hybrid Wisdom, doi:10.20944/preprints202511.0006.v1, retrieved 2025-11-08
  105. Dehnavi, Ebrahim; Yousefi Kopaei, Jalaleddin; Jamali, Mohammad (2025). "Non-computable law: revolutionizing AI to address the hard problems of computational law". International Journal of Law and Information Technology. 33. doi:10.1093/ijlit/eaaf013. ISSN 0967-0769.
  106. Fazli, MohammadAmin; Alian, Parsa; Owfi, Ali; Loghmani, Erfan (2024-06). "RPS: Portfolio asset selection using graph based representation learning". Intelligent Systems with Applications. 22: 200348. doi:10.1016/j.iswa.2024.200348. ISSN 2667-3053. {{cite journal}}: Check date values in: |date= (help)
  107. Jarow, Oshan (2024-06-15). "Will AI ever become conscious? It depends on how you think about biology". Vox (به انگلیسی). Archived from the original on 21 September 2024. Retrieved 2024-10-04.
  108. McCarthy, John. "The Philosophy of AI and the AI of Philosophy". jmc.stanford.edu. Archived from the original on 2018-10-23. Retrieved 2024-10-03.
  109. Affective_computing: (Thro 1993), (Edelson 1991), (Tao و Tan 2005), (Scassellati 2002)
  110. 1. Strubell, E. , Ganesh, A. , & McCallum, A. (۲۰۱۹). Energy and Policy Considerations for Deep Learning in NLP. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL 2019). Association for Computational Linguistics.
  111. 3. The carbon emissions of writing and illustrating are lower for AI than for humans, Bill Tomlinson, Rebecca W. Black, Donald J. Patterson & Andrew W. Torrance ,Scientific Reports volume 14, Article number: 3732 (2024)
  112. AI in myth: (McCorduck 2004، صص. 4–5)
  113. Turing's original publication of the Turing_test in "Computing_machinery_and_intelligence": (Turing 1950) Historical influence and philosophical implications: (Haugeland 1985، صص. 6–9), (Crevier 1993، ص. 24), (McCorduck 2004، صص. 70–71), (Russell و Norvig 2021، صص. 2, 984)
  114. 1 2 John R. Searle. «Minds, Brains, and Programs». The Behavioral and Brain Sciences, vol. 3. Copyright 1980 Cambridge University Press. بایگانی‌شده از اصلی در ۱۰ دسامبر ۲۰۰۷. دریافت‌شده در ۲۸ ژانویه ۲۰۱۹.
  115. «هوش مصنوعی چیست».
  116. سه سوت وب. «هوش مصنوعی چیست».
  117. سه سوت وب. «هوش مصنوعی».
  118. سه سوت وب. «AI».
  119. Searle's Chinese_room argument: (Searle 1980). Searle's original presentation of the thought experiment. , (Searle 1999). Discussion: (Russell و Norvig 2021، صص. 985), (McCorduck 2004، صص. 443–445), (Crevier 1993، صص. 269–271)
  120. Crevier, Daniel (1993). AI: the tumultuous history of the search for artificial intelligence (به انگلیسی). New York, NY: Basic Books. pp. 209–210. OCLC 26858345. {{cite book}}: Check date values in: |سال= / |تاریخ= mismatch (help)
  121. McCorduck, Pamela (2004). Machines who think: a personal inquiry into the history and prospects of artificial intelligence (به انگلیسی) (25th anniversary update ed.). Natick, Mass: A.K. Peters. OCLC 52197627. {{cite book}}: Check date values in: |سال= / |تاریخ= mismatch (help)
  122. "AI Writing and Content Creation Tools". MIT Sloan Teaching & Learning Technologies. Archived from the original on 25 December 2023. Retrieved 25 December 2023.
  123. «Is AI Dangerous? 5 Immediate Risks Of Artificial Intelligence». MUO (به انگلیسی). ۲۰۲۱-۰۶-۱۵. دریافت‌شده در ۲۰۲۱-۰۸-۰۶.
  124. «آیا هوش مصنوعی انسان را تهدید می‌کند؟ 5 تهدید نزدیک تر از همیشه! | روکیدا». دریافت‌شده در ۲۰۲۱-۰۸-۰۶.
  125. Brown, Eileen. "Half of Americans do not believe deepfake news could target them online". ZDNet (به انگلیسی). Retrieved 2021-08-06.
  126. GAO (2022).
  127. Valinsky (2019).
  128. Russell & Norvig (2021), p. 991.
  129. Russell & Norvig (2021), pp. 991–992.
  130. Christian (2020), p. 63.
  131. Vincent (2022).
  132. Kopel, Matthew. "خدمات حق تکثیر: استفاده منصفانه". کتابخانه دانشگاه کرنل. Archived from the original on 26 September 2024. Retrieved 26 April 2024.
  133. Burgess, Matt. "چگونه از استفاده داده‌های خود برای آموزش هوش مصنوعی جلوگیری کنیم". وایرد. ISSN 1059-1028. Archived from the original on 3 October 2024. Retrieved 26 April 2024.
  134. Reisner (2023).
  135. Alter & Harris (2023).
  136. "آماده‌سازی اکوسیستم نوآوری برای هوش مصنوعی. یک جعبه ابزار سیاست مالکیت فکری" (PDF). وایپو.
  137. Hammond, George (27 December 2023). "Big Tech is spending more than VC firms on AI startups". Ars Technica. Archived from the original on 10 January 2024.
  138. Wong, Matteo (24 October 2023). "The Future of AI Is GOMA". The Atlantic. Archived from the original on 5 January 2024.
  139. "Big tech and the pursuit of AI dominance". اکونومیست. 26 March 2023. Archived from the original on 29 December 2023.
  140. Fung, Brian (19 December 2023). "Where the battle to dominate AI may be won". CNN Business. Archived from the original on 13 January 2024.
  141. Metz, Cade (5 July 2023). "In the Age of A.I. , Tech's Little Guys Need Big Friends". نیویورک تایمز. Archived from the original on 8 July 2024. Retrieved 5 October 2024.
  142. "برق ۲۰۲۴ – تحلیل". IEA. 24 January 2024. Retrieved 13 July 2024.
  143. Calvert, Brian (28 March 2024). "هوش مصنوعی در حال حاضر به اندازه یک کشور کوچک انرژی مصرف می‌کند. این تنها آغاز راه است". واکس (وبگاه). نیویورک، نیویورک. Archived from the original on 3 July 2024. Retrieved 5 October 2024.
  144. Halper, Evan; O'Donovan, Caroline (21 June 2024). "هوش مصنوعی در حال خالی کردن شبکه برق است. شرکت‌های فناوری به دنبال یک راه‌حل معجزه‌آسا هستند". واشینگتن پست.
  145. Davenport, Carly. "مراکز داده هوش مصنوعی و موج آتی تقاضای برق در آمریکا" (PDF). گلدمن ساکس. Archived from the original (PDF) on 26 July 2024. Retrieved 5 October 2024.
  146. Ryan, Carol (12 April 2024). "هوش مصنوعی پرمصرف همچنین آینده صرفه‌جویی در انرژی است". وال‌استریت جورنال. داو جونز.
  147. Hiller, Jennifer (1 July 2024). "صنعت فناوری می‌خواهد انرژی هسته‌ای را برای هوش مصنوعی در اختیار بگیرد". وال‌استریت جورنال. داو جونز. Archived from the original on 5 October 2024. Retrieved 5 October 2024.
  148. Kendall, Tyler (28 September 2024). "هوانگ از انویدیا می‌گوید انرژی هسته‌ای گزینه‌ای برای تأمین انرژی مراکز داده است". بلومبرگ.
  149. Halper, Evan (20 September 2024). "توافق مایکروسافت نیروگاه هسته‌ای تری مایل آیلند را برای تأمین انرژی هوش مصنوعی بازگشایی می‌کند". واشینگتن پست.
  150. Hiller, Jennifer (20 September 2024). "نیروگاه هسته‌ای تری مایل آیلند بازگشایی می‌شود تا به تأمین انرژی مراکز هوش مصنوعی مایکروسافت کمک کند". وال‌استریت جورنال. داو جونز. Archived from the original on 5 October 2024. Retrieved 5 October 2024.
  151. 1 2 3 Niva Yadav (19 August 2024). "تایوان مراکز داده بزرگ در شمال را متوقف می‌کند و به کمبود برق اشاره می‌کند". DatacenterDynamics. Archived from the original on 8 November 2024. Retrieved 7 November 2024.
  152. 1 2 Mochizuki, Takashi; Oda, Shoko (18 October 2024). "شرکت ژاپنی با سرمایه‌گذاری انویدیا، در نظر دارد مرکز داده هوش مصنوعی جدیدی در نزدیکی نیروگاه هسته‌ای احداث کند". بلومبرگ (به ژاپنی). Archived from the original on 8 November 2024. Retrieved 7 November 2024.
  153. 1 2 Naureen S Malik and Will Wade (5 November 2024). "پردیس‌های هوش مصنوعی تشنه انرژی هسته‌ای به طرح جدیدی برای یافتن سریع برق نیاز دارند". Bloomberg.
  154. "خلاصه اجرایی انرژی و هوش مصنوعی". آژانس بین‌المللی انرژی. Retrieved 10 April 2025.
  155. Nicas (2018).
  156. Rainie, Lee; Keeter, Scott; Perrin, Andrew (22 July 2019). "اعتماد و عدم اعتماد در آمریکا". مرکز تحقیقات پیو. Archived from the original on 22 February 2024.
  157. Kosoff, Maya (8 February 2018). "یوتیوب برای مهار مشکل توطئه خود تلاش می‌کند". ونتی فر (به انگلیسی). Retrieved 10 April 2025.
  158. Berry, David M. (19 March 2025). "رسانه‌های ترکیبی و سرمایه‌داری محاسباتی: به سوی یک نظریه انتقادی از هوش مصنوعی". AI & Society (به انگلیسی). doi:10.1007/s00146-025-02265-2. ISSN 1435-5655.
  159. "باورنکردنی: یک جهش کوانتومی در ویدیوی هوش مصنوعی". د ویک (به انگلیسی). 17 June 2025. Retrieved 20 June 2025.
  160. Snow, Jackie (16 June 2025). "ویدیوی هوش مصنوعی در حال واقعی شدن است. مراقب آنچه در ادامه می‌آید باشید". کوارتز (به انگلیسی). Retrieved 20 June 2025.
  161. Chow, Andrew R.; Perrigo, Billy (3 June 2025). "ابزار جدید هوش مصنوعی گوگل دیپ‌فیک‌های قانع‌کننده‌ای از شورش‌ها، درگیری‌ها و تقلب در انتخابات تولید می‌کند". تایم (به انگلیسی). Retrieved 20 June 2025.
  162. Williams (2023).
  163. Olanipekun, Samson Olufemi (2025). "تبلیغات سیاسی محاسباتی و اطلاعات نادرست: فناوری‌های هوش مصنوعی به عنوان ابزارهای دستکاری رسانه‌ها". World Journal of Advanced Research and Reviews (به انگلیسی). 25 (1): 911–923. doi:10.30574/wjarr.2025.25.1.0131. ISSN 2581-9615.
  164. Taylor & Hern (2023).
  165. "برای مبارزه با هوش مصنوعی، به «اعتبارنامه‌های شخصیت» نیاز داریم، می‌گویند شرکت‌های هوش مصنوعی" (به انگلیسی). Archived from the original on 24 April 2025. Retrieved 9 May 2025.
  166. 1 2 Samuel, Sigal (19 April 2022). "چرا منصفانه و بی‌طرف کردن هوش مصنوعی اینقدر سخت است". واکس. Archived from the original on 5 October 2024. Retrieved 24 July 2024.
  167. 1 2 Rose (2023).
  168. CNA (2019).
  169. Mazeika, Mantas; Yin, Xuwang; Tamirisa, Rishub; Lim, Jaehyuk; Lee, Bruce W.; Ren, Richard; Phan, Long; Mu, Norman; Khoja, Adam (2025), مهندسی مطلوبیت: تحلیل و کنترل سیستم‌های ارزشی نوظهور در هوش مصنوعی, شکل ۱۶, arXiv:2502.08640, retrieved 2025-10-24
  170. Goffrey (2008), p. 17.
  171. (Berdahl و دیگران 2023); (Goffrey 2008، ص. 17); (Rose 2023); (Russell و Norvig 2021، ص. 995)
  172. Christian (2020), p. 25.
  173. 1 2 Russell & Norvig (2021), p. 995.
  174. Grant & Hill (2023).
  175. Larson & Angwin (2016).
  176. Christian (2020), p. 67–70.
  177. (Christian 2020، صص. 67–70); (Russell و Norvig 2021، صص. 993–994)
  178. (Russell و Norvig 2021، ص. 995); (Lipartito 2011، ص. 36); (Goodman و Flaxman 2017، ص. 6); (Christian 2020، صص. 39–40, 65)
  179. نقل قول در (Christian 2020، ص. 65).
  180. (Russell و Norvig 2021، ص. 994); (Christian 2020، صص. 40, 80–81)
  181. نقل قول در (Christian 2020، ص. 80)
  182. Dockrill (2022).
  183. Sample (2017).
  184. "هوش مصنوعی جعبه سیاه". 16 June 2023. Archived from the original on 15 June 2024. Retrieved 5 October 2024.
  185. Christian (2020), p. 110.
  186. Christian (2020), pp. 88–91.
  187. (Christian 2020، ص. 83); (Russell و Norvig 2021، ص. 997)
  188. Christian (2020), p. 91.
  189. Christian (2020), p. 83.
  190. Verma (2021).
  191. Rothman (2020).
  192. Christian (2020), pp. 105–108.
  193. Christian (2020), pp. 108–112.
  194. Ropek, Lucas (21 May 2024). "تحقیق جدید آنتروپیک نوری بر «جعبه سیاه» هوش مصنوعی می‌تاباند". گیزمودو. Archived from the original on 5 October 2024. Retrieved 23 May 2024.
  195. Russell & Norvig (2021), p. 989.
  196. 1 2 Russell & Norvig (2021), pp. 987–990.
  197. Russell & Norvig (2021), p. 988.
  198. (Robitzski 2018); (Sainato 2015)
  199. Harari (2018).
  200. Buckley, Chris; Mozur, Paul (22 May 2019). "چگونه چین از نظارت با فناوری پیشرفته برای سرکوب اقلیت‌ها استفاده می‌کند". نیویورک تایمز. Archived from the original on 25 November 2019. Retrieved 2 July 2019.
  201. "نقص امنیتی یک سیستم نظارتی شهر هوشمند چین را افشا کرد". 3 May 2019. Archived from the original on 7 March 2021. Retrieved 14 September 2020.
  202. Urbina et al. (2022).
  203. 1 2 McGaughey (2022).
  204. (Ford و Colvin 2015);(McGaughey 2022)
  205. IGM Chicago (2017).
  206. Arntz, Gregory & Zierahn (2016), p. 33.
  207. (Lohr 2017); (Frey و Osborne 2017); (Arntz، Gregory و Zierahn 2016، ص. 33)
  208. Zhou, Viola (11 April 2023). "هوش مصنوعی در حال حاضر مشاغل تصویرگران بازی‌های ویدیویی در چین را از بین می‌برد". Rest of World. Archived from the original on 21 February 2024. Retrieved 17 August 2023.
  209. Carter, Justin (11 April 2023). "صنعت هنر بازی چین گزارش شده توسط استفاده روزافزون از هوش مصنوعی نابود شده است". Game Developer. Archived from the original on 17 August 2023. Retrieved 17 August 2023.
  210. Morgenstern (2015).
  211. (Mahdawi 2017); (Thompson 2014)
  212. Ma, Jason (5 July 2025). "جیم فارلی، مدیرعامل فورد هشدار می‌دهد که هوش مصنوعی نیمی از مشاغل یقه‌سفید را از بین خواهد برد، اما 'اقتصاد ضروری' با کمبود شدید کارگر مواجه است". فورچن (مجله). Retrieved 21 October 2025.
  213. Tarnoff, Ben (4 August 2023). "درس‌هایی از الایزا". گاردین ویکلی. pp. 34–39.
  214. Cellan-Jones (2014).
  215. Russell & Norvig 2021, p. 1001.
  216. Bostrom (2014).
  217. Russell (2019).
  218. (Bostrom 2014); (Müller و Bostrom 2014); (Bostrom 2015).
  219. Harari (2023).
  220. Stewart (2025).
  221. Müller & Bostrom (2014).
  222. نگرانی رهبران در مورد ریسک‌های وجودی هوش مصنوعی در حدود سال ۲۰۱۵: (Rawlinson 2015)، (Holley 2015)، (Gibbs 2014)، (Sainato 2015)
  223. ""پدرخوانده هوش مصنوعی" در مورد تأثیر و پتانسیل هوش مصنوعی جدید صحبت می‌کند". سی‌بی‌اس نیوز. 25 March 2023. Archived from the original on 28 March 2023. Retrieved 28 March 2023.
  224. Pittis, Don (4 May 2023). "رهبر هوش مصنوعی کانادا، جفری هینتون، بر ترس از تسلط رایانه‌ها می‌افزاید". سی‌بی‌سی. Archived from the original on 7 July 2024. Retrieved 5 October 2024.
  225. "جفری هینتون می‌گوید «۵۰–۵۰ شانس» وجود دارد که هوش مصنوعی از بشریت پیشی بگیرد". Bloomberg BNN. 14 June 2024. Archived from the original on 14 June 2024. Retrieved 6 July 2024.
  226. Valance (2023).
  227. Taylor, Josh (7 May 2023). "«پدر هوش مصنوعی» می‌گوید ظهور هوش مصنوعی اجتناب‌ناپذیر است اما نباید از آن ترسید". گاردین. Archived from the original on 23 October 2023. Retrieved 26 May 2023.
  228. Colton, Emma (7 May 2023). "«پدر هوش مصنوعی» می‌گوید ترس از فناوری بی‌مورد است: «شما نمی‌توانید آن را متوقف کنید»". فاکس نیوز. Archived from the original on 26 May 2023. Retrieved 26 May 2023.
  229. Jones, Hessie (23 May 2023). "یورگن اشمیدهوبر، «پدر مشهور هوش مصنوعی مدرن»، می‌گوید کار زندگی‌اش به پادآرمان‌شهر منجر نخواهد شد". فوربز. Archived from the original on 26 May 2023. Retrieved 26 May 2023.
  230. McMorrow, Ryan (19 December 2023). "اندرو ان‌جی: «آیا فکر می‌کنیم جهان با هوش بیشتر یا کمتر جای بهتری خواهد بود؟»". فایننشال تایمز. Archived from the original on 25 January 2024. Retrieved 30 December 2023.
  231. Levy, Steven (22 December 2023). "چگونه در مورد هوش مصنوعی احمق نباشیم، با یان لی‌کان". وایرد. Archived from the original on 28 December 2023. Retrieved 30 December 2023.
  232. استدلال‌هایی مبنی بر اینکه هوش مصنوعی یک ریسک قریب‌الوقوع نیست: (Brooks 2014)، (Geist 2015)، (Madrigal 2015)، (Lee 2014)
  233. Christian (2020), pp. 67, 73.
  234. «آیا هوش مصنوعی جایگزین طراح سایت می‌شود؟ (خطر نابودی شغل ما)». hinweb.ir. ۲۰۲۵-۱۲-۰۵. دریافت‌شده در ۲۰۲۵-۱۲-۲۷.
  235. 1 2 «7 خطر طراحی لوگو با هوش مصنوعی: طراحان دنبال شغل دوم باشند؟». hinweb.ir. ۲۰۲۵-۱۱-۳۰. دریافت‌شده در ۲۰۲۵-۱۲-۲۷.
  236. Funding initiatives in the early 80s: Fifth Generation Project (Japan), Alvey (UK), Microelectronics and Computer Technology Corporation (US), Strategic Computing Initiative (US):
  237. First AI Winter, Lighthill report, Mansfield Amendment
  238. Second AI Winter:
  239. AI widely used in late 1990s:
  240. (Pennachin و Goertzel 2007); (Roberts 2016)

منابع

[ویرایش]

کتب درسی AI

[ویرایش]

این کتاب‌ها، پراستفاده‌ترین کتاب‌های درسی AI در ۲۰۰۷ میلادی بوده‌اند.

دوتا از پراستفاده‌ترین کتب درسی در ۲۰۲۱ میلادی.

دیگر منابع

[ویرایش]
منابع آزاد

 این مقاله دربردارنده متونی از اثر محتوای آزاد است لیسانس تحت C-BY-SA 3.0 IGO. نوشته گرفته شده از UNESCO Science Report: the Race Against Time for Smarter Development., Schneegans, S. , T. Straza and J. Lewis (eds), یونسکو. برای یادگیری در مورد چگونگی افزودن لیسانس باز نوشته به مقالات ویکی‌پدیا، می‌توانید این صفحه را ببینید. برای اطلاع دربارهٔ بهره‌بری دوباره از نوشته‌های ویکی‌پدیا، می‌توانید شرایط استفاده از آن را ببینید.

پیوند به بیرون

[ویرایش]