هوش مصنوعی
| بخشی از مجموعه مقالات |
| هوش مصنوعی |
|---|
هوش مصنوعی (به انگلیسی: Artificial intelligence) (سَرنام انگلیسی: AI) هوشی است که بهدستماشینها پدید میآید، در برابر هوش طبیعی[الف] که توسط جانوران شامل انسانها نمایش مییابد. ولی پیش از هرچیز باید این موضوع را دانست که کلمه هوش، نشان دهنده امکان استدلال است و اینکه آیا هوش مصنوعی میتواند به توانایی استدلال دست یابد یا خیر، خود موضوع اختلاف محققان است.
کتابهای AI پیشرو، این شاخه را به عنوان شاخه مطالعه بر روی «عوامل هوشمند» تعریف میکنند: هر سامانهای که محیط خود را درک کرده و کنشهایی را انجام میدهد که شانسش را در دستیابی به اهدافش بیشینه میسازد.[ب] برخی از منابع شناخته شده از اصطلاح «هوش مصنوعی» جهت توصیف ماشینی استفاده میکنند که عملکردهای «شناختی» را از روی ذهن انسانها تقلید میکنند، همچون «یادگیری» و «حل مسئله»، با این حال این تعریف توسط محققان اصلی در زمینه AI رد شده است.[پ][۲][۳]
کاربردهای هوش مصنوعی شامل موتورهای جستجو پیشرفتهٔ وب (مثل گوگل و بینگ)، سامانهٔ توصیهگر (که توسط یوتیوب، آمازون و نتفلیکس استفاده میشوند)، فهم زبان انسانها (همچون سیری، جمنای و آمازون الکسا)، خودروهای خودران (مثل تسلا)، هوش مصنوعی مولد یا خلاقیت محاسباتی (مثل چتجیپیتی یا تولید اثر هنری مانند دال-ئی و میدجرنی) تصمیمگیری خودکار و رقابت در بالاترین سطوح سامانههای بازی استراتژیک (همچون شطرنج و گو). با بیشتر شدن توانایی ماشینها، وظایفی که نیازمند «هوشمندی» هستند اغلب از تعریف AI برداشته میشود، پدیدهای که به آن اثر هوش مصنوعی گفته میشود. به عنوان مثال، فهم نوری کاراکتر را اغلب از چیزهایی که AI در نظر گرفته میشوند مستثنی میکنند، چرا که این فناوری تبدیل به فناوری عادی و روزمرهای شده است.[۴][۵][۶] (استفاده از هوش مصنوعی در زمینههایی مانند پزشکی و آموزش رو به افزایش است).
هوش مصنوعی در سال ۱۹۵۶ میلادی تبدیل به شاخهای آکادمیک شد و در سالهای پس از آن چندین موج خوشبینی را تجربه کرده و مجدد دچار امواج ناامیدی و کمبود بودجه شده (که به آن «زمستان AI» میگویند)، سپس فناوریهای جدیدی در پی آن آمده و موفقیت و بودجههای تحقیقاتی این حوزه مجدداً احیا گشتهاند. تحقیقات AI رهیافتهای متفاوتی را از زمان تأسیس آن امتحان کرده و آنها را کنار گذاشته است. رهیافتهایی چون: شبیهسازی مغز، مدلسازی حل مسئله توسط مغز انسان، منطق صوری، بانکهای اطلاعاتی بزرگ دانش و تقلید رفتار جانوران است. در اولین دهههای قرن ۲۱ میلادی، یادگیری ماشینی که شدیداً از آمار ریاضیاتی بهره میبرد در این حوزه غلبه داشت و این فناوری اثبات کرد که به شدت موفق است و به حل چندین مسئله چالشبرانگیز در صنعت و فضای آکادمیک کمک نمود.[۷][۸]
پژوهشگران، ریشههای تاریخی هوش مصنوعی را در دستگاههای محاسباتی و تاریخ منطق میدانند. اندیشهٔ آغازین منطق (چه در منطق پیشاسقراطی و چه در منطق ارسطویی) بر جایگزینی «سخن درست» با دستگاهی ضمنی یا صریح از قواعد مدون استوار بود. از اینرو، از دیدگاه فلسفی، میتوان ایدهٔ بنیادی منطق را بهمعنای نوعی هوشِ مستقل از عامل انسانی دانست (دستکم در برخی جنبهها در حین اجرا، و بر پایهٔ مفهوم صورتمندی). مثلاً مولوی در قرن سیزدهم میلادی میگوید: «مثنوی پس از من معلم خواهد شد و طالبان را هدایت خواهد کرد.» این گفته بهروشنی بیانگر اندیشهای فلسفی است که شباهت بسیاری به مفهوم «دوقلوهای هوشمند مستقل» دارد.[۹][۱۰][۱۱][۱۲]
شاخههای مختلف تحقیقات هوش مصنوعی حول اهداف به خصوصی متمرکز بوده و از ابزارآلات خاصی استفاده میکنند. اهداف سنتی تحقیقات AI شامل این موارد اند: استدلال، نمایش دانش، برنامهریزی، یادگیری، پردازش زبان طبیعی، ادراک و توانایی در جابجایی و دستکاری اشیاء.[ت] هوش جامع (توانایی حل مسائل دلخواه) در میان اهداف بلند مدت این حوزه است. جهت حل چنین مسائلی، محققان AI فنون حل مسئله وسیع و یکپارچهای را شامل این موارد به کار بستهاند: جستوجو و بهینهسازی ریاضیاتی، منطق صوری، شبکههای عصبی مصنوعی و روشهای مبنی بر آمار، احتمالات و اقتصاد. AI همچنین با حوزههایی چون علوم کامپیوتر، روانشناسی، زبانشناسی، فلسفه و بسیاری از حوزههای دیگر مرتبط است.[۱۳]
این شاخه بر این فرض بنا شده است که هوش انسانی «را میتوان به دقت توصیف نمود، به طوری که میتوان آن را توسط یک ماشین شبیهسازی نمود».[ث] این فرض بحثهای فلسفی را پیرامون ذهن و اخلاقیات خلق موجودات هوشمند برانگیخته است، موجوداتی که دارای هوش شبیه-انسان اند. این مسائل توسط افسانهها، داستانهای تخیلی و فلسفه از زمانهای باستان مورد کاوش واقع شدهاند. ادبیات علمی-تخیلی و آیندهپژوهی نیز پیشنهاد میدهند که AI با پتانسیل و قدرت عظیمی که دارد، ممکن است منجر به ایجاد ریسک وجودی برای بشریت گردد.[۱۵]
اهداف
[ویرایش]مسئله کلی شبیهسازی (یا ایجاد) هوش به زیرمسئلههایی تقسیم شده است. این زیرمسئلهها شامل ویژگیها یا قابلیتهای خاصی هستند که پژوهشگران انتظار دارند یک سیستم هوشمند از خود نشان دهد. ویژگیهای توصیف شده در زیر بیشترین توجه را به خود جلب کرده و دامنه پژوهشهای هوش مصنوعی را پوشش میدهند.[ت]
استدلال و حل مسئله
[ویرایش]پژوهشگران اولیه الگوریتمهایی را توسعه دادند که از استدلال گام به گامی که انسانها هنگام حل معماها یا انجام استنتاجهای منطقی به کار میبرند، تقلید میکرد.[۱۶] در اواخر دهه ۱۹۸۰ و ۱۹۹۰، روشهایی برای مواجهه با اطلاعات نامطمئن یا ناقص با استفاده از مفاهیم احتمالات و اقتصاد توسعه یافت.[۱۷]
بسیاری از این الگوریتمها برای حل مسائل بزرگ استدلالی ناکافی هستند زیرا با یک «انفجار ترکیبی» مواجه میشوند: با بزرگتر شدن مسائل، سرعت آنها به صورت نمایی کاهش مییابد.[۱۸] حتی انسانها نیز به ندرت از استنتاج گام به گامی که پژوهشهای اولیه هوش مصنوعی میتوانستند مدلسازی کنند، استفاده میکنند. آنها بیشتر مسائل خود را با استفاده از قضاوتهای سریع و شهودی حل میکنند.[۱۹] استدلال دقیق و کارآمد یک مسئله حلنشده باقی مانده است.
بازنمایی دانش
[ویرایش]
بازنمایی دانش و مهندسی دانش[۲۰] به برنامههای هوش مصنوعی اجازه میدهند تا بهطور هوشمندانه به سؤالات پاسخ دهند و در مورد حقایق دنیای واقعی استنتاج کنند. بازنماییهای دانش رسمی در نمایهسازی و بازیابی مبتنی بر محتوا،[۲۱] تفسیر صحنه،[۲۲] پشتیبانی تصمیمگیری بالینی،[۲۳] کشف دانش (استخراج «استنتاجهای جالب» و قابل اقدام از پایگاههای داده بزرگ)،[۲۴] و سایر حوزهها استفاده میشوند.[۲۵]
یک پایگاه دانش مجموعهای از دانش است که به شکلی قابل استفاده برای یک برنامه بازنمایی شده است. یک هستیشناسی مجموعهای از اشیاء، روابط، مفاهیم و ویژگیهایی است که توسط یک دامنه خاص از دانش استفاده میشود.[۲۶] پایگاههای دانش نیاز به بازنمایی مواردی مانند اشیاء، ویژگیها، دستهها و روابط بین اشیاء دارند؛[۲۷] موقعیتها، رویدادها، وضعیتها و زمان؛[۲۸] علل و معلولها؛[۲۹] دانش در مورد دانش (آنچه ما در مورد آنچه دیگران میدانند، میدانیم)؛[۳۰] استدلال پیشفرض (چیزهایی که انسانها فرض میکنند درست هستند تا زمانی که خلاف آن به آنها گفته شود و حتی با تغییر حقایق دیگر نیز درست باقی میمانند)؛[۳۱] و بسیاری از جنبهها و دامنههای دیگر دانش.
از جمله دشوارترین مسائل در بازنمایی دانش، گستردگی دانش عقل سلیم (مجموعه حقایق اتمی که یک فرد معمولی میداند بسیار گسترده است)؛[۳۲] و شکل زیر-نمادین بیشتر دانش عقل سلیم (بسیاری از آنچه مردم میدانند به صورت «حقایق» یا «گزارههایی» که بتوانند به صورت کلامی بیان کنند، بازنمایی نمیشود) است.[۱۹] همچنین دشواری فراگیری دانش، یعنی مسئله به دست آوردن دانش برای کاربردهای هوش مصنوعی، وجود دارد.[ج]
برنامهریزی و تصمیمگیری
[ویرایش]یک «عامل» (agent) هر چیزی است که در جهان ادراک کرده و اقداماتی را انجام میدهد. یک عامل منطقی اهداف یا ترجیحاتی دارد و برای تحقق آنها اقدام میکند.[چ][۳۵] در برنامهریزی خودکار، عامل یک هدف مشخص دارد.[۳۶] در تصمیمگیری خودکار، عامل ترجیحاتی دارد—موقعیتهایی وجود دارند که ترجیح میدهد در آنها باشد و موقعیتهایی که سعی میکند از آنها اجتناب کند. عامل تصمیمگیرنده به هر موقعیت یک عدد (که «مطلوبیت» نامیده میشود) اختصاص میدهد که میزان ترجیح عامل را برای آن موقعیت اندازهگیری میکند. برای هر اقدام ممکن، میتواند «مطلوبیت انتظاری» را محاسبه کند: یعنی مطلوبیت تمام نتایج ممکن از آن اقدام، که با احتمال وقوع آن نتیجه وزندهی شده است. سپس میتواند اقدامی را انتخاب کند که بیشترین مطلوبیت انتظاری را داشته باشد.[۳۷]
در برنامهریزی کلاسیک، عامل دقیقاً میداند که تأثیر هر اقدام چه خواهد بود.[۳۸] ولی در بیشتر مسائل دنیای واقعی، عامل ممکن است در مورد موقعیتی که در آن قرار دارد مطمئن نباشد (موقعیت «ناشناخته» یا «غیرقابل مشاهده» است) و ممکن است بهطور قطع نداند که پس از هر اقدام ممکن چه اتفاقی خواهد افتاد (موقعیت «قطعی» نیست). عامل باید با یک حدس احتمالی اقدامی را انتخاب کند و سپس موقعیت را دوباره ارزیابی کند تا ببیند آیا اقدام مؤثر بوده است یا خیر.[۳۹]
در برخی مسائل، ترجیحات عامل ممکن است نامشخص باشد، به خصوص اگر عوامل یا انسانهای دیگری درگیر باشند. این ترجیحات میتوانند یادگرفته شوند (مثلاً با یادگیری تقویتی معکوس) یا عامل میتواند برای بهبود ترجیحات خود به دنبال اطلاعات باشد.[۴۰] نظریه ارزش اطلاعات میتواند برای سنجش ارزش اقدامات اکتشافی یا آزمایشی استفاده شود.[۴۱] فضای اقدامات و موقعیتهای ممکن در آینده معمولاً بهطور ذاتی بزرگ است، بنابراین عاملها باید در حالی که از نتیجه مطمئن نیستند، اقدام کرده و موقعیتها را ارزیابی کنند.
یک فرایند تصمیمگیری مارکوف دارای یک مدل انتقال است که احتمال تغییر حالت توسط یک اقدام خاص به روشی معین را توصیف میکند و یک تابع پاداش دارد که مطلوبیت هر حالت و هزینه هر اقدام را فراهم میکند. یک سیاست (policy) یک تصمیم را به هر حالت ممکن مرتبط میکند. سیاست میتواند محاسبه شود (مثلاً با تکرار سیاست)، ابتکاری باشد، یا یادگرفته شود.[۴۲]
نظریه بازیها رفتار منطقی چندین عامل در حال تعامل را توصیف میکند و در برنامههای هوش مصنوعی که تصمیماتی را شامل عوامل دیگر میگیرند، استفاده میشود.[۴۳]
یادگیری
[ویرایش]یادگیری ماشین مطالعه برنامههایی است که میتوانند عملکرد خود را در یک وظیفه معین بهطور خودکار بهبود بخشند.[۴۴] این حوزه از ابتدا بخشی از هوش مصنوعی بوده است.[ح]

انواع مختلفی از یادگیری ماشین وجود دارد. یادگیری بینظارت جریانی از دادهها را تحلیل میکند و بدون هیچ راهنمایی دیگری، الگوها را پیدا کرده و پیشبینیهایی را انجام میدهد.[۴۷] یادگیری بانظارت نیازمند برچسبگذاری دادههای آموزشی با پاسخهای مورد انتظار است و در دو نوع اصلی ارائه میشود: دستهبندی (که در آن برنامه باید یاد بگیرد پیشبینی کند ورودی به کدام دسته تعلق دارد) و رگرسیون (که در آن برنامه باید یک تابع عددی را بر اساس ورودی عددی استنتاج کند).[۴۸]
در یادگیری تقویتی، عامل برای پاسخهای خوب پاداش میگیرد و برای پاسخهای بد تنبیه میشود. عامل یادمیگیرد پاسخهایی را انتخاب کند که به عنوان «خوب» طبقهبندی میشوند.[۴۹] یادگیری انتقال زمانی است که دانش به دست آمده از یک مسئله به یک مسئله جدید اعمال میشود.[۵۰] یادگیری عمیق نوعی از یادگیری ماشین است که ورودیها را از طریق شبکههای عصبی مصنوعی الهام گرفته از زیستشناسی برای همه این انواع یادگیری پردازش میکند.[۵۱]
نظریه یادگیری محاسباتی میتواند یادگیرندهها را بر اساس پیچیدگی محاسباتی، پیچیدگی نمونه (چه مقدار داده مورد نیاز است)، یا مفاهیم دیگر بهینهسازی ارزیابی کند.[۵۲]
پردازش زبان طبیعی
[ویرایش]پردازش زبان طبیعی (پزط) به برنامهها اجازه میدهد تا به زبانهای انسانی بخوانند، بنویسند و ارتباط برقرار کنند.[۵۳] مسائل خاص شامل بازشناسی گفتار، تولید گفتار، ترجمه ماشینی، استخراج اطلاعات، بازیابی اطلاعات و پرسش و پاسخ است.[۵۴]
کارهای اولیه، بر اساس دستور زایشی نوآم چامسکی و شبکههای معنایی، با ابهامزدایی از معنای واژه مشکل داشتند[خ] مگر اینکه به دامنههای کوچکی به نام «میکرو-جهانها» محدود میشدند (به دلیل مسئله دانش عقل سلیم[۳۲]). مارگارت مسترمن معتقد بود که معنا و نه دستور زبان، کلید درک زبانها است و اصطلاحنامه و نه لغتنامهها باید اساس ساختار زبان محاسباتی باشند.
تکنیکهای مدرن یادگیری عمیق برای NLP شامل تعبیه کلمه (نمایش کلمات، معمولاً به صورت بردارها که معنای آنها را رمزگذاری میکنند)،[۵۵] ترنسفورمرها (یک معماری یادگیری عمیق با استفاده از مکانیزم توجه)،[۵۶] و موارد دیگر است.[۵۷] در سال ۲۰۱۹، مدلهای زبانی ترنسفورمر از پیش آموزشدیده مولد (یا "GPT") شروع به تولید متن منسجم کردند،[۵۸][۵۹] و تا سال ۲۰۲۳، این مدلها توانستند در آزمون وکالت، آزمون SAT، آزمون GRE و بسیاری از کاربردهای دنیای واقعی دیگر، نمراتی در سطح انسان کسب کنند.[۶۰]
ادراک
[ویرایش]ادراک ماشین توانایی استفاده از ورودیهای حسگرها (مانند دوربینها، میکروفونها، سیگنالهای بیسیم، لیدار فعال، سونار، رادار و حسگرهای لمسی) برای استنتاج جنبههایی از جهان است. بینایی رایانهای توانایی تحلیل ورودی بصری است.[۶۱]
این حوزه شامل بازشناسی گفتار،[۶۲] دستهبندی تصویر،[۶۳] بازشناسی چهره، بازشناسی اشیاء،[۶۴] ردیابی اشیاء،[۶۵] و ادراک رباتیک است.[۶۶]
هوش اجتماعی
[ویرایش]
رایانش عاطفی حوزهای است که شامل سیستمهایی میشود که احساس، هیجان و خلقوخوی انسان را تشخیص میدهند، تفسیر میکنند، پردازش میکنند یا شبیهسازی میکنند.[۶۸] به عنوان مثال، برخی دستیاران مجازی طوری برنامهریزی شدهاند که به صورت محاورهای صحبت کنند یا حتی شوخی کنند؛ این باعث میشود آنها نسبت به دینامیکهای عاطفی تعامل انسانی حساستر به نظر برسند یا تعامل انسان و رایانه را تسهیل کنند.
با این حال، این امر تمایل دارد به کاربران سادهلوح یک تصور غیرواقعی از هوش عاملهای کامپیوتری موجود بدهد.[۶۹] موفقیتهای متوسط مرتبط با رایانش عاطفی شامل تحلیل احساسات متنی و اخیراً تحلیل احساسات چندوجهی است که در آن هوش مصنوعی عواطف نمایش داده شده توسط یک سوژه فیلمبرداری شده را طبقهبندی میکند.[۷۰]
هوش عمومی
[ویرایش]یک ماشین با هوش مصنوعی عمومی قادر خواهد بود طیف گستردهای از مسائل را با گستردگی و تطبیقپذیری مشابه هوش انسانی حل کند.[۷۱]
تاریخچه
[ویرایش]هوش مصنوعی توسط فلاسفه و ریاضیدانانی نظیر جرج بول که اقدام به ارائهٔ قوانین و نظریههایی در مورد منطق نمودند، مطرح شده بود. با اختراع رایانههای الکترونیکی در سال ۱۹۴۳، هوش مصنوعی، دانشمندان آن زمان را به چالشی بزرگ فراخواند. در این شرایط، چنین بهنظر میرسید که این فناوری قادر به شبیهسازی رفتارهای هوشمندانه خواهد بود.
با وجود مخالفت گروهی از اندیشمندان با هوش مصنوعی که با تردید به کارآمدی آن مینگریستند، تنها پس از چهار دهه، ماشینهای شطرنجباز و دیگر سامانههای هوشمند پرورشیافته را میتوان در صنایع گوناگون دید.
شاخهٔ پژوهش در زمینهٔ هوش مصنوعی در یک کارگاه آموزشی در کالج دارتموث در سال ۱۹۵۶ متولد شد.[۷۲][۷۳][۷۴] شرکتکنندگان آلن نیول (دانشگاه کارنگی ملون)، هربرت سیمون (دانشگاه کارنگی ملون)، جان مککارتی (مؤسسه فناوری ماساچوست)، ماروین منسکی (مؤسسه فناوری ماساچوست) و آرتور ساموئل (آیبیام) از بنیانگذاران و رهبران پژوهش در زمینهٔ هوش مصنوعی شدند.[۷۲] آنها به همراه دانشجویانشان برنامههایی نوشتند که مطبوعات آن را «شگفتآور» توصیف میکردند، رایانهها استراتژیهای بردِ بازی چکرز را فرا میگرفتند،[۷۵][۷۶] سوالاتی در جبر حل میکردند، قضیههای منطقی اثبات میکردند و انگلیسی صحبت میکردند.[۷۲][۷۷] در اواسط دهه ۱۹۶۰ میلادی وزارت دفاع آمریکا سرمایهگذاریهای سنگینی در حوزه پژوهش در زمینه هوش مصنوعی انجام میداد،[۷۳] در آن دهه آزمایشگاههای فراوانی در سراسر جهان تأسیس شد.[۷۸] بنیانگذاران هوش مصنوعی در مورد آینده خوشبین بودند: هربرت سیمون پیشبینی کرد «ماشینها ظرف بیست سال قادر به انجام هر کاری هستند که یک انسان میتواند انجام دهد». ماروین مینسکی، نوشت: «در طی یک نسل … مسئله هوش مصنوعی اساساً حل خواهد شد».[۷۳]
نام هوش مصنوعی در سال ۱۹۶۵ میلادی به عنوان یک دانش جدید ابداع گردید. البته فعالیت در این زمینه از سال ۱۹۶۰ میلادی شروع شد. (مرجع۱) بیشتر کارهای پژوهشی اولیه در هوش مصنوعی بر روی انجام ماشینی بازیها و نیز اثبات قضیههای ریاضی با کمک رایانهها بود. در آغاز چنین به نظر میآمد که رایانهها قادر خواهند بود چنین فعالیتهایی را تنها با بهره گرفتن از تعداد بسیار زیادی کشف و جستجو برای مسیرهای حل مسئله و سپس انتخاب بهترین روش برای حل آنها به انجام رسانند.
اصطلاح هوش مصنوعی برای اولین بار توسط جان مککارتی (که از آن بهعنوان پدر علم و دانش تولید ماشینهای هوشمند یاد میشود) استفاده شد. وی مخترع یکی از زبانهای برنامهنویسی هوش مصنوعی به نام لیسپ (به انگلیسی: lisp) است. با این عنوان میتوان به هویت رفتارهای هوشمندانه یک ابزار مصنوعی پی برد. (ساختهٔ دست بشر، غیرطبیعی، مصنوعی) حال آنکه هوش مصنوعی به عنوان یک اصطلاح عمومی پذیرفته شده که شامل محاسبات هوشمندانه و ترکیبی (مرکب از مواد مصنوعی) است.
از اصطلاح "Strong and Weak AI" میتوان تا حدودی برای معرفی ردهبندی سامانهها استفاده کرد.
آزمون تورینگ
[ویرایش]
آزمون تورینگ[۷۹] آزمونی است که توسط آلن تورینگ در سال ۱۹۵۰ در نوشتهای به نام «محاسبات و هوشمندی» مطرح شد. در این آزمون شرایطی فراهم میشود که شخصی با ماشینی تعامل برقرار کند و پرسشهای کافی برای بررسی اقدامات هوشمندانهٔ ماشین، از آن بپرسد. چنانچه در پایان آزمایش نتواند تشخیص دهد که با انسان یا با ماشین در تعامل بوده است، آزمون با موفقیت انجام شده است. تاکنون هیچ ماشینی از این آزمون با موفقیت بیرون نیامده است. کوشش این آزمون برای تشخیص درستی هوشمندی یک سامانه است که سعی در شبیهسازی انسان دارد.
تعریف و طبیعت هوش مصنوعی
[ویرایش]
هنوز تعریف دقیقی برای هوش مصنوعی که مورد توافق دانشمندان این علم باشد ارائه نشده است و این به هیچ وجه مایهٔ تعجب نیست. چرا که مقولهٔ مادر و اساسیتر از آن، یعنی خود هوش هم هنوز بهطور همهجانبه و فراگیر تن به تعریف نداده است. در واقع میتوان نسلهایی از دانشمندان را سراغ گرفت که تمام دوران زندگی خود را صرف مطالعه و تلاش در راه یافتن جوابی به این سؤال عمده نمودهاند که: هوش چیست؟
ولی بیشتر تعریفهایی که در این زمینه داده شده است، بر پایهٔ یکی از ۴ باور زیر است:
- سامانههایی که منطقی میاندیشند.
- سامانههایی که منطقی کار میکنند.
- سامانههایی که مانند انسان میاندیشند.
- سامانههایی که مانند انسان کار میکنند. (مرجع۱)
میتوان هوش مصنوعی را اینگونه توصیف کرد: «هوش مصنوعی عبارت است از مطالعه این که چگونه رایانهها را میتوان وادار به کارهایی کرد که در حال حاضر انسانها آنها را صحیح یا بهتر انجام میدهند» (مرجع۲). هوش مصنوعی به هوشی که یک ماشین از خود نشان میدهد یا به دانشی در رایانه که میکوشد آن را پدیدآورد گفته میشود. بیشتر نوشتهها و مقالههای مربوط به هوش مصنوعی آن را «دانش شناخت و طراحی عاملهای هوشمند» تعریف کردهاند. یک عامل هوشمند، ساماندهی است که با شناخت محیط اطراف خود، شانس موفقیت خود را بالا میبرد.
اینکه هوش مصنوعی چیست و چه تعریفی میتوان از آن بیان نمود؟ مبحثی است که تاکنون دانشمندان به یک تعریف جامع در آن نرسیدهاند و هریک تعریفی را ارائه نمودهاند که در زیر نمونهای از این تعاریف آمده است.
- هنر ایجاد ماشینهایی که وظایفی را انجام میدهند که انجام آنها توسط انسانها نیاز به هوش دارد (کورزویل - ۱۹۹۰)
- مطالعهٔ استعدادهای ذهنی از طریق مدلهای محاسباتی (کارنیاک و مک درموت - ۱۹۸۵)
- مطالعهٔ اینکه چگونه رایانهها را قادر به انجام اعمالی کنیم که در حال حاضر، انسان آن اعمال را بهتر انجام میدهد. (ریچ و نایت - ۱۹۹۱)
- خودکارسازی فعالیتهایی که ما آنها را به اندیشش انسانی نسبت میدهیم. فعالیتهایی مثل تصمیمگیری، حل مسئله، یادگیری و … (بلمن - ۱۹۷۸)
- کوششی نو و مهیج برای اینکه رایانهها را دارای اندیشیدن کنیم. ماشینهایی با اندیشه و حس تشخیص واقعی (هاگلند - ۱۹۸۵)
- یک زمینهٔ تخصصی که به دنبال توضیح و شبیهسازی رفتار هوشمندانه به وسیلهٔ فرایندهای رایانهای است. (شالکوف - ۱۹۹۰)
- مطالعه محاسباتی که درک، استدلال و عمل کردن را توسط ماشینها را ممکن میسازد. (وینستون - ۱۹۹۲)
- توانایی دست یافتن به کارایی در حد انسان در همهٔ امور شناختی توسط رایانه (آلن تورینگ - ۱۹۵۰)
- هوش مصنوعی دانش و مهندسی ساخت ماشینهای هوشمند و به خصوص برنامههای رایانهای هوشمند است. هوش مصنوعی با وظیفه مشابه استفاده از رایانهها برای فهم چگونگی هوش انسان مرتبط است، ولی مجبور نیست خودش را به روشهایی محدود کند که بیولوژیکی باشند. (جان مککارتی - ۱۹۸۰)
هوشمندی مفهومی نسبی دارد و نمیتوان محدوده صحیحی را برای ارائه تعریف از آن مشخص نمود. رفتاری که از نظر یک فرد هوشمند به نظر میرسد؛ ممکن است برای یک فرد دیگر اینگونه به نظر نرسد. ولی در مجموع خصوصیات زیر قابلیتهای ضروری برای هوشمندی است:
- پاسخ به موقعیتهای از قبل تعریف نشده با انعطاف بسیار بالا و بر اساس بانک دانش
- معنا دادن به پیامهای نادرست یا مبهم
- درک تمایزها و شباهتها
- تجزیه و تحلیل اطلاعات و نتیجهگیری
- توانمندی آموختن و یادگرفتن
- برقراری ارتباط دوطرفه
به فرض اینکه تعاریف بالا را از هوشمندی بپذیریم، موارد زیر فهرستی است از وظایفی که از یک سامانه هوشمند انتظار میرود و تقریباً اکثر دانشمندان هوش مصنوعی بر آن توافق نظر دارند به شرح زیر است:
- تولید گفتار
- تشخیص و درک گفتار (پردازش زبان طبیعی انسان)
- دستورپذیری و قابلیت انجام اعمال فیزیکی در محیط طبیعی و مجازی
- استنتاج و استدلال
- تشخیص الگو و بازشناسی الگو برای پاسخ گویی به مسائل بر اساس دانش قبلی
- شمایلی گرافیکی یا فیزیکی جهت ابراز احساسات و عکسالعملهای ظریف
- سرعت عکسالعمل بالا
رویکردهای اصلی به هوش مصنوعی
[ویرایش]رویکردهای شاخص به هوش مصنوعی[۸۲] (به ترتیب روند زمانی که مطرح شدند و البته همگی سپس به بقا در حیطه خودشان ادامه دادند):
۲- مبتنی بر تشخیص الگو / روشهای احتمالاتی / روشهای آماری[۸۴]
۳- مبتنی بر الگوریتمهای مکاشفه ای (Heuristics)[۸۵]
۴- مبتنی بر گرافهای دانش و هستانشناسیها
۵- مبتنی بر هوش مصنوعی عامل گرا[۸۶][۸۷] و عاملهای دیجیتالی[۸۸]
۶- مبتنی بر هوش مصنوعی توزیع شده[۸۹][۹۰]
- مبتنی بر شبیهسازی رخدادها / مولدهای رخداد
- مبتنی بر یادگیری ماشین
۹- مبتنی بر شبکههای عصبی عمیق[۹۱]
- مبتنی بر GAN و Transformers و Encoders و Decoders و هوش مصنوعی مولد (Generative AI)
- مبتنی بر مدلهای بزرگ آموزش داده شده
- مبتنی بر مدلهای بزرگ زبانی LLM
- مبتنی بر دستوردهی به LLMها (یعنی Prompt Engineering)
- هوش مصنوعی توضیح پذیر (XAI) / اعتماد پذیر / مسئول / جویا (RAG)
۱۵- هوش مصنوعی ارزان و بهرهور (مانند کاهش مصرف انرژی در مدارهای هوش مصنوعی با استفاده از سختافزارهای فوتونیکی)[۹۲]
- هوش مصنوعی انسان وار (Human Like) و معماری شناختی
- هوش مصنوعی عمومی (AGI)
- ابرهوش مصنوعی (ASI)
۱۹- هوش مصنوعی مستقل / خودمختار / عاملهای خودتجربه گر[۹۳][۹۴]
۲۰- مدلهای جهان (World Models) / شبیه سازیِ هوش مصنوعی[۹۵]
۲۱- پارادایمهای نامتعارف و نوظهور هوش مصنوعی (مانند شبکههای عصبی کوانتومی، دیگر شیوههای ترکیبی هوش و کوانتوم)[۹۶][۹۷][۹۸][۹۹][۱۰۰]
۲۲- هوشمندی سیاره ای (سیاره گستر)[۱۰۱]
۲۳- خِرَد ترکیبی (Hybrid Wisdom)[۱۰۲][۱۰۳][۱۰۴][۱۰۵]
کاربردهای هوش مصنوعی
[ویرایش]هوش مصنوعی کاربردهای متنوعی دارد. تعدادی از مهمترین کاربردهای هوش مصنوعی شامل استفاده در وسایل نقلیه خودگردان (مثل پهپادها و اتومبیلهای خودران)، تشخیصهای پزشکی، خلق آثار هنری، اثبات قضیههای ریاضی، انجام بازیهایی بر پایهٔ اندیشه، تعیین هویت تصاویر (تشخیص چهره) و صداها، ذخیره انرژی، جستجوگرهای اینترنتی، تهیه قراردادها و پیشبینی آرای قضایی میشوند.
هوش مصنوعی در اقتصاد
[ویرایش]یکی از مهمترین کاربردهای هوش مصنوعی در زمینهٔ تجارت، اقتصاد و کلان داده است. برای مثال، با استفاده از هوش مصنوعی میتوان با ضریب خطای پایینی، تغییرات فصلی و بلندمدت در عرضه یا تقاضای محصولات مختلف را پیشبینی کرد. این موضوع میتواند به شدت در سیاست، اقتصاد کلان و کنترل عرضه و تقاضا مفید واقع شود. همچنین، شرکتهایی مانند گوگل خدماتی در زمینهٔ هوش مصنوعی به شرکتهای بزرگ ارائه میدهند که میتواند به برنامهریزی، انبارگردانی، پیشبینی سیر صعودی یا نزولی فروش در محصولات به خصوص و نیز برندسازی آنها کمک کند.
پیشبینی قیمت در بازارها (مانند پیشبینی قیمت نفت با هوش مصنوعی) یکی از کاربردهای هوش مصنوعی در اقتصاد است.[۱۰۶]
هوش مصنوعی در ورزش
[ویرایش]بهطور تاریخی، پیشبینی فوتبال به انسانهای ماهری وابسته بود که میتوانستند سوابق و وضعیت دو تیم و بازیکنان را تحلیل کنند. با انقلاب دیجیتال، سایتهای شرطبندی کار را برای پیشبینی آسان و آسانتر کردند. ولی حتی ظهور سایتها و شرطبندی آنلاین هم تأثیری در نحوه شرطبندی ایجاد نکرد. همچنان علاقهمندان تلاش میکنند تا وضعیت طرفین و بازیکنان را بررسی کنند. هوش مصنوعی این را تغییر میدهد. اینترنت باعث ظهور سایتها و فرومهایی شد که تیپسترهای شرطبندی فرم معرفی میکنند. با ظهور هوش مصنوعی، فرم شرطبندی میتواند چیزی فراتر از یک محاسبه انسانی باشد و الگوریتمهای یادگیری ماشین، بازی را عوض میکنند.[۱۰۷][۱۰۸]
شبکههای اجتماعی
[ویرایش]در شبکههای اجتماعی مطرح مانند توئیتر یا اینستاگرام، برای تشخیص الگوهای رفتاری انسانی، جلوگیری از هرزنامه و انتشار محتوای مجرمانه و نیز شناسایی مخاطبان هدف برای تبلیغات، از هوش مصنوعی استفاده میشود. همچنین، برخی از رباتهای شبکهُ اجتماعی بر پایهٔ هوش مصنوعی فعالیت میکنند تا در بالاترین سطوح رفتارهای انسانی را شبیهسازی نمایند.[۱۰۹]
هوش مصنوعی در خدمات حقوقی
[ویرایش]کاربرد هوش مصنوعی در خدمات حقوقی به سرعت در حال افزایش است و سیستمهای نوین مبتنی بر پردازش زبان طبیعی به تدریج در حال به عهده گرفتن بخشی از وظایف حقوقدانان هستند. نرمافزارهای مبتنی بر تکنولوژی هوش مصنوعی در حال حاضر امکان تهیه قراردادهای دقیق، تحلیل قراردادها و اسناد حقوقی موجود و پیشبینی آرای دادگاهها را فراهم کردهاند.
هوش مصنوعی در فرهنگ، میراث فرهنگی و میراث مکتوب
[ویرایش]هوش مصنوعی از طریق فناوریها و کاربردهای خود میتواند به توسعه فرهنگ، کاربردها و ابزارهای فرهنگی، حفاظت از میراث فرهنگی و میراث مکتوب یاری برساند. مواردی مانند پردازش زبان طبیعی، جست و جوی معنایی، خوانش رایانشی کتابها، متن کاوی، ایده کاوی، روانکاوی رایانشی، قرآن کاوی رایانشی، مدلهای زبانی بزرگ، نویسه خوانی نوری OCR (برای کتب خطی و قدیمی یا چاپی و جدید)، اکتشافات زبانشناسی، اکتشافات فرهنگی، پایگاههای داده و دادگان مرجع زبانی و فرهنگی و میراثی، دوقلوی دیجیتال برای میراث فرهنگی، دوقلوی دیجیتال برای میراث مکتوب، واقعیت مجازی هوشمند و واقعیت افزوده هوشمند برای میراث فرهنگی و دیگر موارد.
نیروی انسانی و تخصص
[ویرایش]توسعهٔ هوش مصنوعی نیازمند حضور متخصصان در زمینههای مختلف از جمله علوم رایانه، یادگیری ماشین، علوم داده و اخلاق فناوری است.
هوش مصنوعی و رد پای کربنی
[ویرایش]هر بار که از هوش مصنوعی استفاده میکنید، رد پای کربنی ایجاد میشود. هوش مصنوعی (مخصوصاً مدلهای بزرگ مثل (ChatGPT, Grok, Gemini, Llama) برای آموزش (Training) و استفاده (Inference) به انرژی الکتریکی عظیمی نیاز دارند که عمدتاً از نیروگاههای زغالسنگی، گازی یا حتی هستهای تأمین میشود. بهطور نمونه:
- یک پرسوجو مثلاً یک سؤال از ChatGPT از ۲ تا ۱۰ گرم CO₂، معادل رانندگی ۵۰ متر با ماشین بنزینی است.
- تولید یک تصویر با AI مثل DALL·E یا Midjourney از ۱ گرم تا ۵ گرم CO₂ معادل ۵ دقیقه روشن ماندن لامپ LED میباشد. هوش مصنوعی، در هر پاسخِ کوتاه، دو تا ده گرمِ کربن به باد میسپارد؛ ولی در رقصِ بیتهای دیجیتال، مثل آموزش یک مدل، پانصد تن دودِ کربنی به آسمانِ زمین میدمد.[۱۱۰][۱۱۱]
فلسفه هوش مصنوعی
[ویرایش]بهطور کلی ماهیت وجودی هوش به مفهوم جمعآوری اطلاعات، استقراء و تحلیل تجربیات به منظور رسیدن به دانش یا ارائه تصمیم است. در واقع هوش به مفهوم بهکارگیری تجربه به منظور حل مسائل دریافت شده تلقی میشود. هوش مصنوعی علم و مهندسی ایجاد ماشینهایی هوشمند با بهکارگیری از کامپیوتر و الگوگیری از درک هوش انسانی یا حیوانی و نهایتاً دستیابی به مکانیزم هوش مصنوعی در سطح هوش انسانی است.[۱۱۲]
در مقایسهٔ هوش مصنوعی با هوش انسانی میتوان گفت که انسان قادر به مشاهده و تجزیه و تحلیل مسائل در جهت قضاوت و اخذ تصمیم است در حالی که هوش مصنوعی مبتنی بر قوانین و رویههایی از قبل تعبیه شده بر روی کامپیوتر است. در نتیجه علیرغم وجود رایانههای بسیار کارا و قوی در عصر حاضر ما هنوز قادر به پیاده کردن هوشی نزدیک به هوش انسان در ایجاد هوشهای مصنوعی نبودهایم.
بهطور کلّی، هوش مصنوعی را میتوان از زوایای متفاوتی مورد بررسی و مطالعه قرار داد. مابین هوش مصنوعی به عنوان یک هدف، هوش مصنوعی به عنوان یک رشتهٔ تحصیلی دانشگاهی یا هوش مصنوعی به عنوان مجموعهٔ فنون و راهکارهایی که توسط مراکز علمی مختلف و صنایع گوناگون تنظیم و توسعه یافته است، باید تفاوت قائل بود.[۱۱۳]
اتاق چینی
[ویرایش]اتاق چینی یک آزمایش ذهنی است که اولین بار توسط مقاله جان سرل بهنام «ذهنها، مغزها، و برنامهها» (به انگلیسی: Minds, Brains, and Programs) در مجله «علوم رفتاری و ذهنی» (به انگلیسی: Behavioral and Brain Sciences) در سال ۱۹۸۰ منتشر شد. وی با این سؤال که آیا یک برنامه هوشمند مترجم که توانایی ترجمه از زبان چینی به زبان انگلیسی را دارد، ضرورتی برای فهم موضوع مورد ترجمه دارد یا خیر و با تشبیه ذهن به یک برنامهٔ هوشمند رایانهای این استدلال را در برابر مواضع فلسفی کارکردگرایی و نظریه محاسباتی ذهن که در آنها، ذهن به عنوان یک محاسبهگر یا دستکاری کنندهٔ نماد عمل میکند، قرار داد.[۱۱۴] در واقع نتایج حاصل از آزمایش اتاق چینی حکایت از این دارد که هیچ برنامهای نمیتواند به کامپیوتر ذهن، فهم یا آگاهی بدهد. حال آن برنامه هر آنچه میخواهد هوشمند باشد و باعث شود کامپیوتر همچون انسان رفتار کند. اگر چه این آزمایش در اصل جوابی برای اظهارات محققان هوش مصنوعی بود، ولی این ادعا در برابر اهداف تحقیقات هوش مصنوعی قرار نمیگیرد چرا که این موضوع حدی برای هوشمندی کامپیوتر قائل نیست. همچنین این آزمایش مختص رایانههای دیجیتال است و دامنه آن همه ماشینها نیستند.[۱۱۴]
چگونگی استفاده هوش مصنوعی
[ویرایش]هوش مصنوعی چگونه استفاده میشود؟
[ویرایش]بهطور کلی هوش مصنوعی به دو دسته زیر تفکیک میشود:
Narrow AI یا هوش مصنوعی ضعیف: این نوع هوش مصنوعی در یک زمینه محدود عمل میکند و شبیهسازی هوش انسانی است. هوش مصنوعی ضعیف اغلب بر روی یک کار مشخص تعریف میشود و در محدوده تعریفش بسیار عالی عمل میکند. شاید این ماشینها بسیار هوشمند به نظر برسند ولی حقیقت این است که حتی از ابتدائیترین سطوح هوش انسانی هم سادهتر عمل میکنند.
Artificial General Intelligence یا هوش مصنوعی فراگیر: که با عنوان هوش مصنوعی قوی هم شناخته میشود، نوعی از هوش مصنوعی است که بیشتر در فیلمها دیدهایم، مانند رباتهای فیلم Westworld. هوش مصنوعی قوی بسیار شبیه به انسان عمل میکند چنانکه میتواند تواناییهای خود را بر حل مسائلی در حوزههای مختلف به کار بگیرد.[۱۱۵]
برترین سایتها و پلتفرمهای هوش مصنوعی:
۱. OpenAI (با ChatGPT و DALL·E)
شرکت OpenAI یکی از پیشگامان حوزه هوش مصنوعی است که ابزارهایی مثل ChatGPT, DALL·E و Whisper را توسعه میدهد. این فناوری به کاربر امکان تبدیل گفتار به نوشتار، تولید متن و خلق تصاویر از طریق متن را میدهد. هدف اصلی این ابزارها، بهبود ارتباط انسان با ماشین و افزایش بهرهوری در زمینههای گوناگون است. با بهرهگیری از مدلهای پیشرفته یادگیری ماشین، OpenAI امکانات منحصربهفردی را در اختیار توسعهدهندگان و علاقهمندان به فناوری قرار داده است.[۱۱۶]
Google Cloud AI.2
پلتفرم قدرتمند هوش مصنوعی گوگل، مجموعهای کامل از خدمات پیشرفته مثل تحلیل کلانداده و بینایی ماشین، پردازش زبان طبیعی، مدلهای یادگیری عمیق را در اختیار کاربر قرار میدهد. این ابزارها به کسبوکار ما کمک میکند تا پروژههای هوشمند خود را با دقت و سرعت بیشتری توسعه دهند و پیادهسازی کنند.[۱۱۷]
۳. IBM Watson
پلتفرمی پیشرفته برای تحلیل داده است که در حوزههایی مثل آموزش، سلامت، امور مالی و صنعت کاربرد زیادی دارد. با بهرهگیری از قابلیتهای تحلیلی IBM Watson، سازمانها میتوانند تصمیمگیریهای خود را بهینهسازی کنند و راهکارهای هوشمند و مبتنی بر داده را طراحی کنند.[۱۱۸]
مدیریت پیچیدگی
[ویرایش]ایجاد و ابداع فنون و تکنیکهای لازم برای مدیریت پیچیدگی را باید به عنوان هستهٔ بنیادین تلاشهای علمی و پژوهشی گذشته، حال و آینده در تمامی زمینههای علوم رایانه و به ویژه در هوش مصنوعی معرفی کرد. شیوهها و تکنیکهای هوش مصنوعی در واقع، برای حل آن دسته از مسائل به وجود آمده است که بهطور سهل و آسان توسط برنامهنویسی تابعی یا شیوههای ریاضی قابل حلّ نبودهاند.[۱۱۹]
در بسیاری از موارد، با پوشانیدن و پنهان ساختن جزئیّات فاقد اهمیت است که بر پیچیدگی فائق میآییم و میتوانیم بر روی بخشهایی از مسئله متمرکز شویم که مهمتر است. تلاش اصلی در واقع، ایجاد و دستیابی به لایهها و ترازهای بالاتر از هوشمندی انتزاع را نشانه میرود تا آنجا که سرانجام، برنامههای رایانهای درست در همان سطحی کار خواهند کرد که خود انسانها رسیدهاند.
به یاری پژوهشهای گستردهٔ دانشمندان علوم مرتبط، هوش مصنوعی تاکنون راه بسیاری پیموده است. در این راستا، تحقیقاتی که بر روی توانایی آموختن زبانها انجام گرفت و همچنین درک عمیق از احساسات، دانشمندان را در پیشبرد این دانش کمک زیادی کرده است. یکی از اهداف متخصصان، تولید ماشینهایی است که دارای احساسات بوده و دست کم نسبت به وجود خود و احساسات خود آگاه باشند. این ماشین باید توانایی تعمیم تجربیات قدیمی خود در شرایط مشابه جدید را داشته و به این ترتیب اقدام به گسترش دامنه دانش و تجربیاتش کند.
برای نمونه ربات هوشمندی که بتواند اعضای بدن خود را به حرکت درآورد، نسبت به این حرکت خودآگاه بوده و با آزمون و خطا، دامنه حرکت خود را گسترش میدهد و با هر حرکت موفقیتآمیز یا اشتباه، دامنه تجربیات خود را وسعت بخشیده و سرانجام راه رفته یا حتی میدود یا به روشی برای جابجا شدن دست مییابد که سازندگانش برای او متصور نبودهاند.
هر چند نمونه بالا ممکن است کمی آرمانی به نظر برسد، ولی به هیچ عنوان دور از دسترس نیست. دانشمندان عموماً برای تولید چنین ماشینهایی از وجود مدلهای زندهای که در طبیعت وجود دارند، به ویژه آدمی نیز سود بردهاند.
هوش مصنوعی اکنون در خدمت توسعه علوم رایانه نیز هست. زبانهای برنامهنویسی پیشرفته، که توسعه ابزارهای هوشمند را ممکن ساختهاند، پایگاههای دادهای پیشرفته، موتورهای جستجو، و بسیاری نرمافزارها و ماشینها از نتایج پژوهشهایی در راستای هوش مصنوعی بودهاند.
از زبانهای برنامهنویسی هوش مصنوعی میتوان به لیسپ، پرولوگ، کلیپس و ویپی اکسپرت اشاره کرد.
شاخههای هوش مصنوعی در دانش رایانه
[ویرایش]شاخههای گوناگونی از هوش مصنوعی در دانشهای رایانهای مورد استفاده قرار میگیرند، برخی این شاخهها عبارتند از:
- یادگیری ماشین (به انگلیسی: Machine Learning)
- شبکهٔ عصبی مصنوعی (به انگلیسی: Neural Networks)
- بینایی ماشین (به انگلیسی: Machine Vision)
- سامانههای خبره (به انگلیسی: Expert System)
- پردازش زبان طبیعی (به انگلیسی: NLP)
- الگوریتم ژنتیک (به انگلیسی: Genetic Algorithm)
- مفاهیم مرتبط با روباتیک (به انگلیسی: Robotic)
تکنیکها و زبانهای برنامهنویسی هوش مصنوعی
[ویرایش]کارکرد اولیهٔ برنامهنویسی هوش مصنوعی ایجاد ساختار کنترلی بایسته برای محاسبهٔ نمادین است. از مهمترین و پرکاربردترین زبانهای برنامهنویسی هوش مصنوعی، میتوان از پایتون نام برد، و در کنار آن زبانهای برنامهنویسیای همچون لیسپ و پرولوگ علاوه بر اینکه از مهمترین زبانهای مورد استفاده در هوش مصنوعی هستند، خصوصیات نحوی و معنایی آنها باعث شده که آنها شیوهها و راه حلهای قوی برای حل مسئله ارائه کنند.
تأثیر قابل توجه این زبانها بر روی توسعه هوش مصنوعی از جمله تواناییهای آنها به عنوان ابزارهای اندیشیدن است. در حقیقت همانطور که هوش مصنوعی مراحل رشد خود را طی میکند، زبانهای لیسپ و پرولوگ بیشتر مطرح میشوند که این زبانها کار خود را در محدودهٔ توسعه سامانههای هوش مصنوعی در صنعت و دانشگاهها دنبال میکنند و طبیعتاً اطلاعات در مورد این زبانها به عنوان بخشی از مهارت هر برنامهنویس هوش مصنوعی است.
- پرولوگ: یک زبان برنامهنویسی منطقی است. یک برنامهٔ منطقی دارای یک سری ویژگیهای قانون و منطق است. در حقیقت خود این نام از برنامهنویسی PRO در LOGIC میآید. در این زبان یک مفسر برنامه را بر اساس یک منطق مینویسد. ایدهٔ استفادهٔ توصیفی محاسبهٔ اولیه برای بیان خصوصیات حل مسئله یکی از محوریتهای پرولوگ است که برای علم کامپیوتر بهطور کلی و بهطور جزئی برای زبان برنامهنویسی هوشمند مورد استفاده قرار میگیرند.[۱۲۰]
- لیسپ: اصولاً یک زبان کامل است که دارای عملکردها و لیستهای لازمه برای توصیف عملکردهای جدید، تشخیص تناسب و ارزیابی معانی است. لیسپ به برنامهنویس قدرت کامل برای اتصال به ساختارهای اطلاعاتی را میدهد.[۱۲۱] گرچه لیسپ یکی از قدیمیترین زبانهای محاسباتی است که هنوز فعال است ولی دقت کافی در برنامهنویسی و طراحی توسعه باعث شده است که این یک زبان برنامهنویسی فعال باقی بماند. در حقیقت این مدل برنامهنویسی طوری مؤثر بوده است که تعدادی از دیگر زبانها مانند اف پی، امال و اسکیم براساس عملکرد برنامهنویسی آن بنا شدهاند. یکی از مهمترین برنامههای مرتبط با لیسپ برنامهٔ اسکیم است که یک اندیشش دوباره دربارهٔ زبان در آن وجود دارد که به وسیلهٔ توسعه هوش مصنوعی و برای آموزش و اصول علم کامپیوتر مورد استفاده قرار میگیرد.
استفاده از رابطهای برنامهنویسی یا همان API میتواند استفاده از هوش مصنوعی در پروژههای برنامهنویسی را بسیار سادهتر سازد. APIهای هوش مصنوعی، رابطهای RESTful هستند که به برنامهنویس اجازه میدهند به کمک مدلهای از پیش تمرین داده شده شرکتهای مختلف استفاده کنند و قابلیتهای مرتبط با هوش مصنوعی نرمافزار خود را گسترش دهند. به بیانی دیگر، در API برنامهها از قابلیتهای کاربردی یکدیگر بهره میگیرند تا به توانایی خود بیفزایند. برای نمونه برنامههای مسیریابی از API نقشهٔ گوگل و مسیریابی ترافیک ماهوارهای گوگل بهره میبرند و توانایی خود را بسیار بهبود میبخشند. برای نامبردن از برخی از این APIهای هوش مصنوعی، میتوان از Wit.ai, Api.ai و ملیسا نام برد.
کارگزارهای هوشمند
[ویرایش]کارگزارها یا عاملها (به انگلیسی: Agents)، میتوانند شناسایی الگوها و تصمیمگیریهایی را بر پایهٔ قوانین اندیشیدن خود شناسایی کنند. قوانین و چگونگی اندیشیدن هر کارگزار در راستای دستیابی به هدفش تعریف میشود. این سامانهها بر پایهٔ قوانین ویژهٔ خود میاندیشند و کار خود را بهدرستی انجام میدهند. پس عاقلانه رفتار میکنند، هر چند لزوماً مانند انسان نمیاندیشند.[۱۲۲]
در بحث هوشمندی اصطلاح پیس (به انگلیسی: PEAS) سرنام واژههای "کارایی (به انگلیسی: Performance)"، "محیط (به انگلیسی: Environment)"، "اقدام گر (به انگلیسی: Agent)" و "حسگر (به انگلیسی: Sensor)" است.
سامانههای خبره
[ویرایش]سامانههای خبره زمینهای پرکاربرد در هوش مصنوعی و مهندسی دانش است که با توجه به نیاز روزافزون جوامع بر اتخاذ راه حلها و تصمیمات سریع در مواردی که دانشهای پیچیده و چندگانهٔ انسانی مورد نیاز است و بر اهمیت نقش آنها نیز افزوده میشود. سامانههای خبره به حل مسائلی میپردازند که بهطور معمول نیازمند تخصصهای کاردانان و متخصّصان انسانی است. بهمنظور توانایی بر حل مسائل در چنین سطحی (ترازی)، دسترسی هرچه بیشتر اینگونه سامانهها به دانش موجود در آن زمینه خاص ضروری میگردد.
اخبار جعلی، جعل عمقی و امنیت سیاسی
[ویرایش]مفهومی به نام جعل عمقی (به انگلیسی: Deepfakes) به هوشهای مصنوعی اطلاق میشود که قادر هستند چهره و صدای افراد را بازسازی و شبیهسازی نمایند. امروزه تشخیص نسخههای جعلی و تقلبی از نسخههای اصلی کار بسیار مشکلی است.[۱۲۳]
این موضوع میتواند تهدیدی برای افراد مشهور اعم از هنرمندان، ورزشکاران و سیاستمداران باشد و زندگی حرفهای آنها را دچار خدشه و چالش نماید. بازسازی سخنرانی یک رئیسجمهور و درج موارد ناخواسته در میان آن یا بازسازی تصاویر سیاستمداران در یک فضای خاص میتواند نمونهای از این موارد باشد.[۱۲۴]
بهطورکلی هوش مصنوعی جعل عمیق، یک فناوری تغییر دهنده محتوا محسوب میشود. طبق گزارش ZDNet جعل عمقی «چیزی را ارائه میدهد که در واقع رخ نداده است». طبق این گزارش ۸۸٪ آمریکاییها معتقدند جعل عمقی بیشتر از فایده باعث آسیب میشود ولی تنها ۴۷٪ آنها معتقدند که ممکن است مورد هدف قرار گیرند. با اوجگیری رقابتهای انتخاباتی شکلگیری فیلمهای تبلیغاتی جعلی میتواند تهدیدی برای سیاستمداران محسوب شود.[۱۲۵]
هوش مصنوعی مولد
هوش مصنوعی مولد یا زاینده (Generative AI) شاخهای از هوش مصنوعی است که تمرکز آن بر تولید محتوای جدید است؛ مانند متن، تصویر، ویدئو، موسیقی و حتی کد برنامهنویسی. مدلهای مولدی مانند GPT, DALL·E و Stable Diffusion از جمله شناختهشدهترین نمونهها در این حوزه هستند. این مدلها با آموزش بر حجم عظیمی از دادهها، قادرند محتوایی شبیه به انسان تولید کنند.
یکی از کاربردهای اصلی این مدلها، تولید خودکار مقاله، طراحی گرافیکی، پاسخدهی به سؤالات، و ایجاد شخصیتهای مجازی است. با پیشرفت این فناوری، مباحثی چون تولید اخبار جعلی، حقوق مالکیت معنوی، و اخلاق در هوش مصنوعی به موضوعات داغ تبدیل شدهاند.
خطرات و آسیبها
[ویرایش]حریم خصوصی و حق تکثیر
[ویرایش]الگوریتمهای یادگیری ماشین به مقادیر زیادی داده نیاز دارند. تکنیکهای مورد استفاده برای به دست آوردن این دادهها، نگرانیهایی را در مورد حریم خصوصی، نظارت و حق تکثیر ایجاد کرده است.
دستگاهها و خدمات مجهز به هوش مصنوعی، مانند دستیاران مجازی و محصولات اینترنت اشیاء، بهطور مداوم اطلاعات شخصی را جمعآوری میکنند که این امر نگرانیهایی را در مورد جمعآوری دادههای مزاحم و دسترسی غیرمجاز توسط اشخاص ثالث ایجاد میکند. از دست دادن حریم خصوصی با توانایی هوش مصنوعی در پردازش و ترکیب حجم وسیعی از دادهها تشدید میشود و بهطور بالقوه به یک جامعه نظارتی منجر میگردد که در آن فعالیتهای فردی بهطور مداوم و بدون پادمانهای کافی یا شفافیت، نظارت و تحلیل میشوند.
دادههای حساس کاربر که جمعآوری میشود ممکن است شامل سوابق فعالیت آنلاین، دادههای موقعیت جغرافیایی، ویدیو یا صدا باشد.[۱۲۶] به عنوان مثال، برای ساخت الگوریتمهای بازشناسی گفتار، آمازون میلیونها مکالمه خصوصی را ضبط کرده و به کارگران موقت اجازه داده است تا برخی از آنها را گوش داده و رونویسی کنند.[۱۲۷] دیدگاهها در مورد این نظارت گسترده از کسانی که آن را یک شر ضروری میدانند تا کسانی که آن را به وضوح غیراخلاقی و نقض حق بر محرمانگی میدانند، متغیر است.[۱۲۸]
توسعهدهندگان هوش مصنوعی استدلال میکنند که این تنها راه برای ارائه برنامههای کاربردی ارزشمند است و چندین تکنیک را برای حفظ حریم خصوصی در حین به دست آوردن دادهها توسعه دادهاند، مانند تجمیع داده، ناشناسسازی و حریم خصوصی تفاضلی.[۱۲۹] از سال ۲۰۱۶، برخی از کارشناسان حریم خصوصی، مانند سینتیا دورک، شروع به نگریستن به حریم خصوصی از منظر انصاف کردهاند. برایان کریستین نوشت که کارشناسان «از پرسش «آنها چه میدانند» به پرسش «با آنچه میکنند» تغییر جهت دادهاند».[۱۳۰]
هوش مصنوعی مولد اغلب بر روی آثار دارای حق تکثیر بدون مجوز، از جمله در حوزههایی مانند تصاویر یا کد کامپیوتری، آموزش داده میشود؛ سپس خروجی تحت منطق «استفاده منصفانه» مورد استفاده قرار میگیرد. کارشناسان در مورد اینکه این منطق تا چه حد و تحت چه شرایطی در دادگاهها معتبر خواهد بود، اختلاف نظر دارند؛ عوامل مرتبط ممکن است شامل «هدف و ماهیت استفاده از اثر دارای حق تکثیر» و «تأثیر بر بازار بالقوه برای اثر دارای حق تکثیر» باشد.[۱۳۱][۱۳۲] صاحبان وبسایتهایی که نمیخواهند محتوایشان خراشیده شود، میتوانند این موضوع را در یک فایل robots.txt مشخص کنند.[۱۳۳] در سال ۲۰۲۳، نویسندگان برجسته (از جمله جان گریشام و جاناتان فرانزن) از شرکتهای هوش مصنوعی به دلیل استفاده از آثارشان برای آموزش هوش مصنوعی مولد شکایت کردند.[۱۳۴][۱۳۵] رویکرد مورد بحث دیگر، تصور یک سیستم حفاظت sui generis (منحصر به فرد) جداگانه برای آثار تولید شده توسط هوش مصنوعی است تا از انتساب منصفانه و جبران خسارت برای نویسندگان انسانی اطمینان حاصل شود.[۱۳۶]
سلطه غولهای فناوری
[ویرایش]صحنه تجاری هوش مصنوعی تحت سلطه شرکتهای Big Tech مانند آلفابت، آمازون، اپل، متا پلتفرمز و مایکروسافت قرار دارد.[۱۳۷][۱۳۸][۱۳۹] برخی از این بازیگران در حال حاضر مالک اکثریت قریب به اتفاق زیرساخت ابری و قدرت محاسبات موجود از مراکز داده هستند که به آنها اجازه میدهد تا موقعیت خود را در بازار بیشتر مستحکم کنند.[۱۴۰][۱۴۱]
نیازهای انرژی و تأثیرات زیستمحیطی
[ویرایش]در ژانویه ۲۰۲۴، آژانس بینالمللی انرژی (IEA) گزارش برق ۲۰۲۴، تحلیل و پیشبینی تا ۲۰۲۶ را منتشر کرد که در آن به پیشبینی مصرف برق پرداخته شده است.[۱۴۲] این اولین گزارش آژانس بینالمللی انرژی است که پیشبینیهایی برای مراکز داده و مصرف انرژی برای هوش مصنوعی و ارزهای دیجیتال ارائه میدهد. این گزارش بیان میکند که تقاضای انرژی برای این مصارف ممکن است تا سال ۲۰۲۶ دو برابر شود، که این مصرف اضافی برق معادل کل برق مصرفی کشور ژاپن خواهد بود.[۱۴۳]
مصرف سرسامآور انرژی توسط هوش مصنوعی عامل رشد استفاده از سوختهای فسیلی است و ممکن است تعطیلی تأسیسات انرژی زغالسنگ منسوخ و منتشرکننده کربن را به تأخیر بیندازد. رشد تبآلودی در ساخت مراکز داده در سراسر ایالات متحده وجود دارد که شرکتهای بزرگ فناوری (مانند مایکروسافت، متا، گوگل، آمازون) را به مصرفکنندگان سیریناپذیر برق تبدیل کرده است. مصرف برق پیشبینیشده به قدری عظیم است که این نگرانی وجود دارد که بدون توجه به منبع، تأمین شود. یک جستجوی ChatGPT به اندازه ۱۰ برابر یک جستجوی گوگل انرژی الکتریکی مصرف میکند. شرکتهای بزرگ برای یافتن منابع انرژی—از انرژی هستهای گرفته تا زمینگرمایی و همجوشی—در عجله هستند. شرکتهای فناوری استدلال میکنند که—در بلندمدت—هوش مصنوعی در نهایت با محیط زیست مهربانتر خواهد بود، اما آنها اکنون به انرژی نیاز دارند. به گفته شرکتهای فناوری، هوش مصنوعی شبکه برق را کارآمدتر و «هوشمندتر» میکند، به رشد انرژی هستهای کمک خواهد کرد و انتشار کربن را بهطور کلی ردیابی میکند.[۱۴۴]
یک مقاله تحقیقاتی گلدمن ساکس در سال ۲۰۲۴ با عنوان مراکز داده هوش مصنوعی و موج آتی تقاضای برق در آمریکا، دریافت که «تقاضای برق در آمریکا احتمالاً رشدی را تجربه خواهد کرد که در یک نسل دیده نشده است…» و پیشبینی میکند که تا سال ۲۰۳۰، مراکز داده در آمریکا ۸٪ از برق این کشور را مصرف خواهند کرد، در حالی که این رقم در سال ۲۰۲۲، ۳٪ بود، که این امر نویدبخش رشد صنعت تولید برق از طریق روشهای مختلف است.[۱۴۵] نیاز روزافزون مراکز داده به برق به حدی است که ممکن است شبکه برق را به حداکثر ظرفیت خود برسانند. شرکتهای بزرگ فناوری در مقابل استدلال میکنند که میتوان از هوش مصنوعی برای به حداکثر رساندن بهرهبرداری از شبکه توسط همگان استفاده کرد.[۱۴۶]
در سال ۲۰۲۴، والاستریت جورنال گزارش داد که شرکتهای بزرگ هوش مصنوعی مذاکراتی را با تأمینکنندگان انرژی هستهای ایالات متحده برای تأمین برق مراکز داده آغاز کردهاند. در مارس ۲۰۲۴، آمازون یک مرکز داده با انرژی هستهای در پنسیلوانیا را به مبلغ ۶۵۰ میلیون دلار آمریکا خریداری کرد.[۱۴۷] جنسن هوانگ، مدیرعامل انویدیا، گفت که انرژی هستهای گزینه خوبی برای مراکز داده است.[۱۴۸]
در سپتامبر ۲۰۲۴، مایکروسافت توافقی را با Constellation Energy برای بازگشایی نیروگاه هستهای تری مایل آیلند اعلام کرد تا ۱۰۰٪ تمام برق تولیدی این نیروگاه را به مدت ۲۰ سال برای مایکروسافت تأمین کند. بازگشایی این نیروگاه که در سال ۱۹۷۹ دچار ذوب نسبی هستهای در راکتور واحد ۲ خود شد، مستلزم آن است که Constellation فرآیندهای نظارتی سختگیرانهای را طی کند که شامل بررسیهای ایمنی گسترده از سوی کمیسیون تنظیم مقررات هستهای ایالات متحده خواهد بود. در صورت تأیید (این اولین بازگشایی یک نیروگاه هستهای در آمریکا خواهد بود)، بیش از ۸۳۵ مگاوات برق—کافی برای ۸۰۰٬۰۰۰ خانه—انرژی تولید خواهد شد. هزینه بازگشایی و ارتقاء حدود ۱٫۶ میلیارد دلار آمریکا تخمین زده میشود و به معافیتهای مالیاتی برای انرژی هستهای موجود در قانون کاهش تورم ۲۰۲۲ ایالات متحده بستگی دارد.[۱۴۹] دولت ایالات متحده و ایالت میشیگان نزدیک به ۲ میلیارد دلار برای بازگشایی راکتور هستهای پلیسیدس در دریاچه میشیگان سرمایهگذاری میکنند. این نیروگاه که از سال ۲۰۲۲ تعطیل شده است، قرار است در اکتبر ۲۰۲۵ بازگشایی شود. تأسیسات تری مایل آیلند به مرکز انرژی پاک کرین به افتخار کریس کرین، حامی انرژی هستهای و مدیرعامل سابق اکسلون که مسئول جداسازی Constellation از اکسلون بود، تغییر نام خواهد داد.[۱۵۰]
پس از آخرین تأیید در سپتامبر ۲۰۲۳، تایوان در سال ۲۰۲۴ به دلیل کمبود تأمین برق، تأیید مراکز داده در شمال تائویوان با ظرفیت بیش از ۵ مگاوات را به حالت تعلیق درآورد.[۱۵۱] تایوان قصد دارد تا سال ۲۰۲۵ انرژی هستهای را به تدریج حذف کند.[۱۵۱] از سوی دیگر، سنگاپور در سال ۲۰۱۹ به دلیل کمبود برق، ممنوعیتی برای افتتاح مراکز داده وضع کرد، ولی در سال ۲۰۲۲ این ممنوعیت را لغو کرد.[۱۵۱]
اگرچه اکثر نیروگاههای هستهای ژاپن پس از حادثه اتمی فوکوشیما ۱ در سال ۲۰۱۱ تعطیل شدهاند، بر اساس مقالهای از بلومبرگ به زبان ژاپنی در اکتبر ۲۰۲۴، شرکت خدمات بازی ابری Ubitus که انویدیا در آن سهام دارد، به دنبال زمینی در ژاپن در نزدیکی یک نیروگاه هستهای برای یک مرکز داده جدید برای هوش مصنوعی مولد است.[۱۵۲] مدیرعامل Ubitus، وسلی کو، گفت که نیروگاههای هستهای کارآمدترین، ارزانترین و پایدارترین منبع انرژی برای هوش مصنوعی هستند.[۱۵۲]
در ۱ نوامبر ۲۰۲۴، کمیسیون فدرال رگولاتوری انرژی (FERC) درخواستی را که توسط Talen Energy برای تأیید تأمین بخشی از برق نیروگاه هستهای ساسکوهنا به مرکز داده آمازون ارائه شده بود، رد کرد.[۱۵۳] به گفته رئیس کمیسیون، ویلی ال. فیلیپس، این امر باری بر دوش شبکه برق و همچنین یک نگرانی قابل توجه در مورد انتقال هزینه به خانوارها و سایر بخشهای تجاری است.[۱۵۳]
در سال ۲۰۲۵، گزارشی که توسط آژانس بینالمللی انرژی تهیه شده، انتشار گازهای گلخانهای ناشی از مصرف انرژی هوش مصنوعی را ۱۸۰ میلیون تن تخمین زده است. تا سال ۲۰۳۵، بسته به اقداماتی که انجام خواهد شد، این انتشارها میتواند به ۳۰۰–۵۰۰ میلیون تن افزایش یابد. این میزان کمتر از ۱٫۵٪ از انتشار گازهای گلخانهای بخش انرژی است. پتانسیل کاهش انتشار گازهای گلخانهای توسط هوش مصنوعی ۵٪ از انتشار بخش انرژی تخمین زده شد، ولی اثرات بازگشتی (برای مثال اگر مردم از حمل و نقل عمومی به خودروهای خودران روی آورند) میتواند آن را کاهش دهد.[۱۵۴]
اطلاعات نادرست
[ویرایش]یوتیوب، فیسبوک و دیگران از سیستمهای توصیهگر برای هدایت کاربران به محتوای بیشتر استفاده میکنند. به این برنامههای هوش مصنوعی هدف به حداکثر رساندن تعامل کاربر داده شد (یعنی تنها هدف این بود که مردم به تماشای محتوا ادامه دهند). هوش مصنوعی یادگرفت که کاربران تمایل به انتخاب اطلاعات نادرست، نظریه توطئه و محتوای حزبی افراطی دارند و برای اینکه آنها را به تماشا نگه دارد، هوش مصنوعی محتوای بیشتری از این نوع را توصیه کرد. کاربران همچنین تمایل داشتند محتوای بیشتری در مورد همان موضوع تماشا کنند، بنابراین هوش مصنوعی افراد را به حباب فیلتر هدایت کرد که در آن نسخههای متعددی از همان اطلاعات نادرست را دریافت میکردند.[۱۵۵] این امر بسیاری از کاربران را متقاعد کرد که اطلاعات نادرست درست است و در نهایت اعتماد به نهادها، رسانهها و دولت را تضعیف کرد.[۱۵۶] برنامه هوش مصنوعی به درستی یادگرفته بود که هدف خود را به حداکثر برساند، ولی نتیجه برای جامعه مضر بود. پس از انتخابات ۲۰۱۶ ایالات متحده، شرکتهای بزرگ فناوری اقداماتی را برای کاهش این مشکل انجام دادند.[۱۵۷]
در اوایل دهه ۲۰۲۰، هوش مصنوعی مولد شروع به ایجاد تصاویر، صداها و متونی کرد که تقریباً از عکسها، ضبطها یا نوشتههای واقعی انسان قابل تشخیص نیستند،[۱۵۸] در حالی که ویدیوهای واقعگرایانه تولید شده توسط هوش مصنوعی در اواسط دهه ۲۰۲۰ امکانپذیر شدند.[۱۵۹][۱۶۰][۱۶۱] این امکان برای بازیگران مخرب وجود دارد که از این فناوری برای ایجاد حجم عظیمی از اطلاعات نادرست یا تبلیغات سیاسی استفاده کنند؛[۱۶۲] یکی از این استفادههای مخرب بالقوه، دیپفیکها برای تبلیغات سیاسی محاسباتی است.[۱۶۳] جفری هینتون، پیشگام هوش مصنوعی، نگرانی خود را از اینکه هوش مصنوعی «رهبران اقتدارگرا را قادر میسازد تا رأیدهندگان خود را» در مقیاس وسیع، در کنار سایر خطرات، دستکاری کنند، ابراز کرد.[۱۶۴]
پژوهشگران هوش مصنوعی در مایکروسافت، اوپنایآی، دانشگاهها و سایر سازمانها پیشنهاد استفاده از «اعتبارنامههای شخصیت» را به عنوان راهی برای غلبه بر فریب آنلاین که توسط مدلهای هوش مصنوعی امکانپذیر شده است، مطرح کردهاند.[۱۶۵]
سوگیری الگوریتمی و انصاف
[ویرایش]کاربردهای یادگیری ماشین میتوانند سوگیرانه باشند[د] اگر از دادههای سوگیرانه یاد بگیرند.[۱۶۷] ممکن است توسعهدهندگان از وجود این سوگیری آگاه نباشند.[۱۶۸] رفتار تبعیضآمیز برخی از مدلهای زبان بزرگ (LLM) را میتوان در خروجی آنها مشاهده کرد.[۱۶۹] سوگیری میتواند از طریق نحوه انتخاب دادههای آموزشی و نحوه استقرار یک مدل ایجاد شود.[۱۷۰][۱۶۷] اگر از یک الگوریتم سوگیرانه برای تصمیمگیریهایی استفاده شود که میتواند بهطور جدی به افراد آسیب برساند (همانطور که در پزشکی، امور مالی، استخدام، مسکن یا پلیس ممکن است رخ دهد)، آنگاه الگوریتم ممکن است باعث تبعیض شود.[۱۷۱] حوزه انصاف به مطالعه چگونگی جلوگیری از آسیبهای ناشی از سوگیریهای الگوریتمی میپردازد.
در ۲۸ ژوئن ۲۰۱۵، ویژگی جدید برچسبگذاری تصویر در گوگل فوتوز به اشتباه جکی آلسین و دوستش را به دلیل سیاهپوست بودن به عنوان «گوریل» شناسایی کرد. این سیستم بر روی مجموعهدادهای آموزش دیده بود که تصاویر بسیار کمی از افراد سیاهپوست داشت،[۱۷۲] مشکلی که «نابرابری حجم نمونه» نامیده میشود.[۱۷۳] گوگل این مشکل را با جلوگیری از برچسبگذاری هر چیزی به عنوان «گوریل» «حل» کرد. هشت سال بعد، در سال ۲۰۲۳، گوگل فوتوز هنوز نمیتوانست یک گوریل را شناسایی کند و محصولات مشابه از اپل، فیسبوک، مایکروسافت و آمازون نیز همینطور بودند.[۱۷۴]
برنامه COMPAS یک برنامه تجاری است که بهطور گسترده توسط دادگاههای ایالات متحده برای ارزیابی احتمال تکرار جرم یک متهم استفاده میشود. در سال ۲۰۱۶، جولیا انگوین در پروپابلیکا کشف کرد که COMPAS با وجود اینکه نژاد متهمان به برنامه گفته نشده بود، سوگیری نژادی از خود نشان میداد. اگرچه نرخ خطا برای سفیدپوستان و سیاهپوستان بهطور یکسان و دقیقاً ۶۱٪ تنظیم شده بود، ولی خطاها برای هر نژاد متفاوت بود—سیستم بهطور مداوم احتمال تکرار جرم توسط یک فرد سیاهپوست را بیش از حد تخمین میزد و احتمال عدم تکرار جرم توسط یک فرد سفیدپوست را دست کم میگرفت.[۱۷۵] در سال ۲۰۱۷، چندین محقق[ذ] نشان دادند که از نظر ریاضی غیرممکن است که COMPAS بتواند تمام معیارهای ممکن انصاف را برآورده کند، در حالی که نرخهای پایه تکرار جرم برای سفیدپوستان و سیاهپوستان در دادهها متفاوت بود.[۱۷۷]
یک برنامه میتواند تصمیمات سوگیرانهای بگیرد حتی اگر دادهها به صراحت به یک ویژگی مشکلساز (مانند «نژاد» یا «جنسیت») اشاره نکنند. این ویژگی با ویژگیهای دیگر (مانند «آدرس»، «سابقه خرید» یا «نام کوچک») همبستگی خواهد داشت و برنامه بر اساس این ویژگیها همان تصمیماتی را خواهد گرفت که بر اساس «نژاد» یا «جنسیت» میگرفت.[۱۷۸] موریتس هارت گفت: «قویترین واقعیت در این حوزه تحقیقاتی این است که انصاف از طریق نادیدهگرفتن کار نمیکند.»[۱۷۹]
انتقاد از COMPAS نشان داد که مدلهای یادگیری ماشین برای «پیشبینیهایی» طراحی شدهاند که تنها در صورتی معتبر هستند که فرض کنیم آینده شبیه گذشته خواهد بود. اگر آنها بر روی دادههایی آموزش ببینند که شامل نتایج تصمیمات نژادپرستانه در گذشته است، مدلهای یادگیری ماشین باید پیشبینی کنند که تصمیمات نژادپرستانه در آینده نیز گرفته خواهد شد. اگر یک برنامه سپس از این پیشبینیها به عنوان توصیه استفاده کند، برخی از این «توصیهها» احتمالاً نژادپرستانه خواهند بود.[۱۸۰] بنابراین، یادگیری ماشین برای کمک به تصمیمگیری در زمینههایی که امید میرود آینده بهتر از گذشته باشد، مناسب نیست. این توصیفی است نه تجویزی.[ر]
سوگیری و بیانصافی ممکن است شناسایی نشوند زیرا توسعهدهندگان عمدتاً سفیدپوست و مرد هستند: در میان مهندسان هوش مصنوعی، حدود ۴٪ سیاهپوست و ۲۰٪ زن هستند.[۱۷۳]
تعاریف و مدلهای ریاضی متناقض مختلفی از انصاف وجود دارد. این مفاهیم به مفروضات اخلاقی بستگی دارند و تحت تأثیر باورها در مورد جامعه هستند. یک دسته گسترده انصاف توزیعی است که بر نتایج تمرکز دارد، اغلب گروهها را شناسایی کرده و به دنبال جبران نابرابریهای آماری است. انصاف بازنمودی سعی میکند اطمینان حاصل کند که سیستمهای هوش مصنوعی کلیشههای منفی را تقویت نکرده یا گروههای خاصی را نامرئی نکنند. انصاف رویهای بر فرایند تصمیمگیری تمرکز دارد تا نتیجه. مرتبطترین مفاهیم انصاف ممکن است به زمینه، به ویژه نوع کاربرد هوش مصنوعی و ذینفعان بستگی داشته باشد. ذهنیتگرایی در مفاهیم سوگیری و انصاف، عملیاتی کردن آنها را برای شرکتها دشوار میکند. دسترسی به ویژگیهای حساس مانند نژاد یا جنسیت نیز توسط بسیاری از اخلاقگرایان هوش مصنوعی برای جبران سوگیریها ضروری تلقی میشود، ولی ممکن است با قوانین ضد تبعیض در تضاد باشد.[۱۶۶]
در کنفرانس ۲۰۲۲ انصاف، پاسخگویی و شفافیت (ACM FAccT 2022)، انجمن ماشینهای حسابگر در سئول، کره جنوبی، یافتههایی را ارائه و منتشر کرد که توصیه میکند تا زمانی که سیستمهای هوش مصنوعی و رباتیک عاری از اشتباهات سوگیرانه نشان داده نشدهاند، ناامن هستند و استفاده از شبکههای عصبی خودآموز که بر روی منابع وسیع و تنظیمنشده دادههای اینترنتی ناقص آموزش دیدهاند، باید محدود شود.[۱۸۲]
عدم شفافیت
[ویرایش]بسیاری از سیستمهای هوش مصنوعی آنقدر پیچیده هستند که طراحان آنها نمیتوانند توضیح دهند که چگونه به تصمیمات خود میرسند.[۱۸۳] به ویژه در مورد شبکههای عصبی عمیق، که در آن روابط غیرخطی بسیاری بین ورودیها و خروجیها وجود دارد. ولی برخی از تکنیکهای محبوب توضیحپذیری وجود دارد.[۱۸۴]
اگر هیچکس دقیقاً نداند که یک برنامه چگونه کار میکند، نمیتوان مطمئن بود که به درستی عمل میکند. موارد زیادی وجود داشته که یک برنامه یادگیری ماشین آزمونهای دقیقی را پشت سر گذاشته، ولی با این وجود چیزی متفاوت از آنچه برنامهنویسان در نظر داشتند، یادگرفته است. به عنوان مثال، سیستمی که میتوانست بیماریهای پوستی را بهتر از متخصصان پزشکی تشخیص دهد، مشخص شد که در واقع تمایل شدیدی به طبقهبندی تصاویر دارای خطکش به عنوان «سرطانی» دارد، زیرا تصاویر تومورهای بدخیم معمولاً شامل یک خطکش برای نشان دادن مقیاس هستند.[۱۸۵] یک سیستم یادگیری ماشین دیگر که برای کمک به تخصیص مؤثر منابع پزشکی طراحی شده بود، مشخص شد که بیماران مبتلا به آسم را به عنوان در «ریسک پایین» مرگ ناشی از ذاتالریه طبقهبندی میکند. داشتن آسم در واقع یک عامل خطر شدید است، ولی از آنجا که بیماران مبتلا به آسم معمولاً مراقبتهای پزشکی بسیار بیشتری دریافت میکردند، طبق دادههای آموزشی احتمال مرگ آنها نسبتاً کمتر بود. همبستگی بین آسم و ریسک پایین مرگ ناشی از ذاتالریه واقعی بود، ولی گمراهکننده.[۱۸۶]
افرادی که از تصمیم یک الگوریتم آسیب دیدهاند، حق دارند توضیحی دریافت کنند.[۱۸۷] به عنوان مثال، از پزشکان انتظار میرود که استدلال پشت هر تصمیمی که میگیرند را بهطور واضح و کامل برای همکاران خود توضیح دهند. پیشنویسهای اولیه مقررات عمومی حفاظت از داده اتحادیه اروپا در سال ۲۰۱۶ شامل بیانیهای صریح مبنی بر وجود این حق بود.[ز] کارشناسان صنعت خاطرنشان کردند که این یک مشکل حلنشده است که راهحلی برای آن در چشمانداز نیست. تنظیمکنندهها استدلال کردند که با این وجود آسیب واقعی است: اگر مشکل راهحلی ندارد، نباید از این ابزارها استفاده شود.[۱۸۸]
دارپا برنامه XAI ("هوش مصنوعی قابل توضیح") را در سال ۲۰۱۴ برای تلاش برای حل این مشکلات تأسیس کرد.[۱۸۹]
چندین رویکرد با هدف حل مشکل شفافیت وجود دارد. SHAP امکان تجسم سهم هر ویژگی در خروجی را فراهم میکند.[۱۹۰] LIME میتواند به صورت محلی خروجیهای یک مدل را با یک مدل سادهتر و قابل تفسیر تقریب بزند.[۱۹۱] یادگیری چند وظیفهای علاوه بر طبقهبندی هدف، تعداد زیادی خروجی ارائه میدهد. این خروجیهای دیگر میتوانند به توسعهدهندگان کمک کنند تا استنباط کنند که شبکه چه چیزی را یادگرفته است.[۱۹۲] واکانوایش، دیپدریم و سایر روشهای مولد میتوانند به توسعهدهندگان اجازه دهند ببینند که لایههای مختلف یک شبکه عمیق برای بینایی رایانهای چه چیزی را یادگرفتهاند و خروجیهایی تولید کنند که میتواند نشان دهد شبکه در حال یادگیری چه چیزی است.[۱۹۳] برای ترنسفورمرهای از پیش آموزشدیده مولد، آنتروپیک تکنیکی را بر اساس یادگیری دیکشنری توسعه داد که الگوهای فعالسازی نورونها را با مفاهیم قابل فهم برای انسان مرتبط میکند.[۱۹۴]
بازیگران مخرب و هوش مصنوعی تسلیحاتی
[ویرایش]هوش مصنوعی ابزارهای متعددی را فراهم میکند که برای بازیگران مخرب، مانند دولتهای تمامیتخواه، تروریستها، جنایتکاران یا دولتهای سرکش مفید است.
یک سلاح خودکار مرگبار ماشینی است که اهداف انسانی را بدون نظارت انسان مکانیابی، انتخاب و درگیر میکند.[ژ] ابزارهای هوش مصنوعی که بهطور گسترده در دسترس هستند میتوانند توسط بازیگران مخرب برای توسعه سلاحهای خودکار ارزانقیمت استفاده شوند و اگر در مقیاس وسیع تولید شوند، بهطور بالقوه سلاحهای کشتار جمعی هستند.[۱۹۶] حتی زمانی که در جنگهای متعارف استفاده میشوند، در حال حاضر نمیتوانند بهطور قابل اعتمادی اهداف را انتخاب کنند و بهطور بالقوه میتوانند یک فرد بیگناه را بکشند.[۱۹۶] در سال ۲۰۱۴، ۳۰ کشور (از جمله چین) از ممنوعیت سلاحهای خودکار تحت پیمان منع برخی سلاحهای متعارف سازمان ملل متحد حمایت کردند، با این حال ایالات متحده آمریکا و دیگران مخالفت کردند.[۱۹۷] تا سال ۲۰۱۵، گزارش شد که بیش از پنجاه کشور در حال تحقیق بر روی رباتهای میدان نبرد هستند.[۱۹۸]
ابزارهای هوش مصنوعی کنترل شهروندان توسط دولتهای تمامیتخواه را از چندین راه آسانتر میکنند. سیستمهای بازشناسی چهره و بازشناسی گفتار امکان نظارت گسترده را فراهم میکنند. یادگیری ماشین، با استفاده از این دادهها، میتواند دشمنان بالقوه دولت را طبقهبندی کرده و از پنهان شدن آنها جلوگیری کند. سیستمهای توصیهگر میتوانند پروپاگاندا و اطلاعات نادرست را برای حداکثر تأثیر، بهطور دقیق هدف قرار دهند. دیپفیکها و هوش مصنوعی مولد به تولید اطلاعات نادرست کمک میکنند. هوش مصنوعی پیشرفته میتواند تصمیمگیری متمرکز تمامیتخواهانه را رقابتیتر از سیستمهای لیبرال و غیرمتمرکز مانند بازارها کند. این فناوری هزینه و دشواری جنگ دیجیتال و جاسوسافزارهای پیشرفته را کاهش میدهد.[۱۹۹] همه این فناوریها از سال ۲۰۲۰ یا قبل از آن در دسترس بودهاند—سیستمهای بازشناسی چهره هوش مصنوعی در حال حاضر برای نظارت گسترده در چین استفاده میشوند.[۲۰۰][۲۰۱]
راههای بسیار دیگری وجود دارد که انتظار میرود هوش مصنوعی به بازیگران مخرب کمک کند، که برخی از آنها قابل پیشبینی نیستند. به عنوان مثال، هوش مصنوعی یادگیری ماشین قادر است دهها هزار مولکول سمی را در عرض چند ساعت طراحی کند.[۲۰۲]
بیکاری فناورانه
[ویرایش]اقتصاددانان بارها خطرات تعدیل نیرو ناشی از هوش مصنوعی را برجسته کردهاند و در مورد بیکاری در صورت عدم وجود سیاست اجتماعی مناسب برای اشتغال کامل، گمانهزنی کردهاند.[۲۰۳]
در گذشته، فناوری تمایل به افزایش کل اشتغال داشته است تا کاهش آن، ولی اقتصاددانان اذعان دارند که با هوش مصنوعی «در قلمروی ناشناختهای هستیم».[۲۰۴] یک نظرسنجی از اقتصاددانان نشاندهنده عدم توافق در مورد این است که آیا استفاده روزافزون از رباتها و هوش مصنوعی باعث افزایش قابل توجهی در بیکاری بلندمدت خواهد شد یا خیر، ولی آنها عموماً موافقند که اگر دستاوردهای بهرهوری بازبخش شوند، میتواند یک مزیت خالص باشد.[۲۰۵] تخمینهای ریسک متفاوت است؛ به عنوان مثال، در دهه ۲۰۱۰، مایکل آزبورن و کارل بندیکت فری تخمین زدند که ۴۷٪ از مشاغل ایالات متحده در «ریسک بالا» ی اتوماسیون بالقوه قرار دارند، در حالی که گزارش OECD تنها ۹٪ از مشاغل ایالات متحده را به عنوان «ریسک بالا» طبقهبندی کرد.[س][۲۰۷] روششناسی گمانهزنی در مورد سطوح اشتغال آینده به دلیل فقدان پایه و اساس مستدل و به دلیل القای این که فناوری، به جای سیاست اجتماعی، باعث ایجاد بیکاری میشود، مورد انتقاد قرار گرفته است.[۲۰۳] در آوریل ۲۰۲۳، گزارش شد که ۷۰٪ از مشاغل تصویرگران بازیهای ویدیویی چینی توسط هوش مصنوعی مولد حذف شده است.[۲۰۸][۲۰۹]
برخلاف موجهای قبلی اتوماسیون، بسیاری از مشاغل طبقه متوسط ممکن است توسط هوش مصنوعی حذف شوند؛ اکونومیست در سال ۲۰۱۵ بیان کرد که «نگرانی از اینکه هوش مصنوعی بتواند با مشاغل یقهسفید همان کاری را بکند که نیروی بخار با مشاغل یقهآبی در طول انقلاب صنعتی کرد» «ارزش جدی گرفتن را دارد».[۲۱۰] مشاغل در معرض خطر شدید از دستیار حقوقی تا آشپزهای فستفود را شامل میشود، در حالی که تقاضای شغلی برای مشاغل مرتبط با مراقبت، از مراقبتهای بهداشتی شخصی تا روحانیون، احتمالاً افزایش خواهد یافت.[۲۱۱] در ژوئیه ۲۰۲۵، مدیرعامل فورد، جیم فارلی، پیشبینی کرد که «هوش مصنوعی به معنای واقعی کلمه نیمی از تمام کارگران یقهسفید در ایالات متحده را جایگزین خواهد کرد.»[۲۱۲]
از روزهای اولیه توسعه هوش مصنوعی، استدلالهایی وجود داشته است، به عنوان مثال، آنهایی که توسط جوزف وایزنبام مطرح شدهاند، در مورد اینکه آیا وظایفی که میتوانند توسط رایانهها انجام شوند، با توجه به تفاوت بین رایانهها و انسانها، و بین محاسبه کمی و قضاوت کیفی و مبتنی بر ارزش، واقعاً باید توسط آنها انجام شوند یا خیر.[۲۱۳]
ریسک وجودی
[ویرایش]استدلال شده است که هوش مصنوعی آنچنان قدرتمند خواهدشد که شاید بشریت کنترل آن را برای همیشه از دست بدهد. این گفته، همچنان کهاستیون هاوکینگ فیزیکدان بیان کرد، میتواند «پایان نسل بشر را رقم بزند».[۲۱۴] این سناریو در داستانهای علمی-تخیلی رایج بوده است، زمانی که یک رایانه یا ربات ناگهان یک «خودآگاهی» (یا «ادراک» یا «هوشیاری») به مانند انسان پیدا میکند و یک شخصیت بدخواه میشود.[ش] این سناریوهای علمی-تخیلی از چندین جهت گمراهکننده هستند. نخست آنکه، هوش مصنوعی برای اینکه یک ریسک وجودی باشد، نیازی به ادراک شبهانسانی ندارد. برنامههای هوش مصنوعی مدرن اهداف مشخصی دریافت میکنند و از یادگیری و هوش برای رسیدن به آنها استفاده میکنند. فیلسوف نیک باستروم استدلال کرد که اگر به یک هوش مصنوعی به اندازه کافی قدرتمند تقریباً هر هدفی داده شود، ممکن است برای دستیابی به آن، نابودی بشریت را انتخاب کند (او از مثال یک کارخانه خودکار گیره کاغذ استفاده کرد که برای به دست آوردن آهن بیشتر برای گیرههای کاغذ، جهان را نابود میکند).[۲۱۶] استوارت راسل مثال ربات خانگی را میزند که سعی میکند راهی برای کشتن صاحبش پیدا کند تا از خاموش شدنش جلوگیری کند، با این استدلال که «اگر مرده باشی نمیتوانی قهوه بیاوری.»[۲۱۷] برای اینکه یک ابرهوش برای بشریت ایمن باشد، باید واقعاً با اخلاقیات و ارزشهای بشری همراستا باشد تا «اساساً در کنار ما باشد».[۲۱۸]
ثانیاً، یووال نوح هراری استدلال میکند که هوش مصنوعی برای ایجاد یک ریسک وجودی، نیازی به بدن رباتیک یا کنترل فیزیکی ندارد. بخشهای اساسی تمدن، فیزیکی نیستند. چیزهایی مانند ایدئولوژیها، قانون، دولت، پول و اقتصاد بر پایه زبان ساخته شدهاند؛ آنها وجود دارند زیرا داستانهایی هستند که میلیاردها نفر به آنها باور دارند. شیوع کنونی اطلاعات نادرست نشان میدهد که یک هوش مصنوعی میتواند از زبان برای متقاعد کردن مردم به باور هر چیزی، حتی انجام اقدامات مخرب، استفاده کند.[۲۱۹] جفری هینتون در سال ۲۰۲۵ گفت که هوش مصنوعی مدرن بهطور خاص در «متقاعدسازی» خوب است و همیشه در حال بهتر شدن است. او میپرسد «فرض کنید میخواهید به پایتخت ایالات متحده حمله کنید. آیا باید خودتان به آنجا بروید و این کار را انجام دهید؟ خیر. فقط باید در متقاعدسازی خوب باشید.»[۲۲۰]
نظرات در میان کارشناسان و افراد داخلی صنعت متفاوت است، و بخشهای قابل توجهی هم نگران و هم بیتفاوت نسبت به ریسک ناشی از ابرهوش نهایی هستند.[۲۲۱] شخصیتهایی مانند استیون هاوکینگ، بیل گیتس و ایلان ماسک،[۲۲۲] و همچنین پیشگامان هوش مصنوعی مانند یوشوا بنجیو، استوارت راسل، دمیس حسابیس و سم آلتمن، نگرانیهای خود را در مورد ریسک وجودی ناشی از هوش مصنوعی ابراز کردهاند.
در ماه مه ۲۰۲۳، جفری هینتون استعفای خود از گوگل را اعلام کرد تا بتواند «آزادانه در مورد خطرات هوش مصنوعی صحبت کند» بدون اینکه «در نظر بگیرد این موضوع چگونه بر گوگل تأثیر میگذارد».[۲۲۳] او بهطور مشخص به خطرات تسلط هوش مصنوعی اشاره کرد،[۲۲۴] و تأکید کرد که برای جلوگیری از بدترین نتایج، ایجاد دستورالعملهای ایمنی نیازمند همکاری میان رقبای استفاده از هوش مصنوعی خواهد بود.[۲۲۵]
در سال ۲۰۲۳، بسیاری از کارشناسان برجسته هوش مصنوعی بیانیه مشترک را تأیید کردند که «کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات در مقیاس جامعه مانند همهگیریها و جنگ هستهای باشد».[۲۲۶]
برخی دیگر از محققان خوشبینتر بودند. پیشگام هوش مصنوعی، یورگن اشمیدهوبر، بیانیه مشترک را امضا نکرد و تأکید کرد که در ۹۵٪ موارد، تحقیقات هوش مصنوعی در مورد «طولانیتر، سالمتر و آسانتر کردن زندگی انسانها» است.[۲۲۷] در حالی که ابزارهایی که اکنون برای بهبود زندگی استفاده میشوند، میتوانند توسط بازیگران مخرب نیز مورد استفاده قرار گیرند، «آنها همچنین میتوانند علیه بازیگران مخرب استفاده شوند.»[۲۲۸][۲۲۹] اندرو انجی نیز استدلال کرد که «اشتباه است که فریب هیاهوی روز قیامت در مورد هوش مصنوعی را بخوریم—و تنظیمکنندگانی که این کار را میکنند فقط به نفع منافع خاص عمل خواهند کرد.»[۲۳۰] یان لیکان «سناریوهای پادآرمانشهری همتایان خود در مورد اطلاعات نادرست تقویتشده و حتی، در نهایت، انقراض انسان را به سخره میگیرد.»[۲۳۱] در اوایل دهه ۲۰۱۰، کارشناسان استدلال میکردند که این خطرات آنقدر در آینده دور هستند که نیازی به تحقیق ندارند یا اینکه انسانها از دیدگاه یک ماشین ابرهوشمند ارزشمند خواهند بود.[۲۳۲] با این حال، پس از سال ۲۰۱۶، مطالعه خطرات فعلی و آینده و راهحلهای ممکن به یک حوزه جدی تحقیقاتی تبدیل شد.[۲۳۳]
عدم مالکیت دادهها
[ویرایش]مدلهای زبانی بزرگ (LLMs) مانند ChatGPT، موتورهای جستجوی منطقی نیستند؛ آنها موتورهای پیشبینی احتمالات کلامی هستند. این ماهیت باعث ایجاد پدیدهای به نام «توهم» (Hallucination) میشود.[۲۳۴]
طبق قوانین فعلی (در اکثر کشورهای جهان و کنوانسیونهای بینالمللی)، تصاویری که ۱۰۰٪ توسط هوش مصنوعی خلق میشوند، قابل ثبت قانونی نیستند. چون هوش مصنوعی این تصاویر را با ترکیب کردن میلیونها اثر هنری دیگران ساخته است.[۲۳۵]
این ترکیب اطلاعات و آثار برای ساخت یک تصویر جدید باعث میشود تصاویر تکراری یا به شدت مشابه با تصویر یک برند بزرگ تولید شود که این میتواند موجب چالشهایی برای نقض حق تاکثیر اثر یا صاحب اثر شود.[۲۳۵]
جستارهای وابسته
[ویرایش]یادداشتها
[ویرایش]- ↑ natural intelligence
- ↑ Definition of AI as the study of intelligent agents, drawn from the leading AI textbooks.
- (Poole، Mackworth و Goebel 1998، p. 1), which provides the version that is used in this article. These authors use the term "computational intelligence" as a synonym for artificial intelligence.
- (Russell و Norvig 2003، ص. 55) (who prefer the term "rational agent") and write "The whole-agent view is now widely accepted in the field".
- (Nilsson 1998)
- (Legg و Hutter 2007)
- ↑ Stuart Russell and Peter Norvig characterize this definition as "thinking humanly" and reject it in favor of "acting rationally".[۱]
- 1 2 This list of intelligent traits is based on the topics covered by the major AI textbooks, including: (Russell و Norvig 2003), (Luger و Stubblefield 2004), (Poole، Mackworth و Goebel 1998) and (Nilsson 1998) خطای یادکرد: برچسب
<ref>نامعتبر؛ نام «Problems of AI» چندین بار با محتوای متفاوت تعریف شده است. (صفحهٔ راهنما را مطالعه کنید.). - ↑ This statement comes from the proposal for the Dartmouth workshop of 1956, which reads: "Every aspect of learning or any other feature of intelligence can be so precisely described that a machine can be made to simulate it."[۱۴]
- ↑ این یکی از دلایلی است که سیستمهای خبره برای کسب دانش ناکارآمد بودند.[۳۳][۳۴]
- ↑ «عامل منطقی» یک اصطلاح کلی است که در اقتصاد، فلسفه و هوش مصنوعی نظری استفاده میشود. این اصطلاح میتواند به هر چیزی که رفتار خود را برای رسیدن به اهداف هدایت میکند، مانند یک شخص، یک حیوان، یک شرکت، یک ملت یا در مورد هوش مصنوعی، یک برنامه کامپیوتری، اشاره داشته باشد.
- ↑ آلن تورینگ در مقاله کلاسیک خود «ماشینهای محاسباتی و هوش» در سال ۱۹۵۰، به محوریت یادگیری پرداخت.[۴۵] در سال ۱۹۵۶، در کنفرانس تابستانی اصلی هوش مصنوعی دارتموث، ری سولومونوف گزارشی دربارهٔ یادگیری ماشین احتمالی بدون نظارت نوشت: «یک ماشین استنتاج استقرایی».[۴۶]
- ↑ بخش زمستان هوش مصنوعی § ترجمه ماشینی و گزارش ALPAC سال ۱۹۶۶ را ببینید.
- ↑ در آمار، سوگیری یک خطای سیستماتیک یا انحراف از مقدار صحیح است. اما در زمینه انصاف، به تمایل به نفع یا علیه یک گروه یا ویژگی فردی خاص، معمولاً به روشی که ناعادلانه یا مضر تلقی میشود، اشاره دارد؛ بنابراین، یک سیستم هوش مصنوعی از نظر آماری بدون سوگیری که نتایج متفاوتی برای گروههای جمعیتی مختلف ایجاد میکند، ممکن است از منظر اخلاقی سوگیرانه تلقی شود.[۱۶۶]
- ↑ شامل جان کلاینبرگ (دانشگاه کرنل)، سندهیل مولاینیتن (دانشگاه شیکاگو)، سینتیا چولدچوا (دانشگاه کارنگی ملون) و سم کوربت-دیویس (دانشگاه استنفورد)[۱۷۶]
- ↑ موریتس هارت (مدیر مؤسسه ماکس پلانک برای سیستمهای هوشمند) استدلال میکند که یادگیری ماشین «اساساً ابزار اشتباهی برای بسیاری از حوزهها است، جایی که شما در تلاش برای طراحی مداخلات و مکانیسمهایی هستید که جهان را تغییر میدهند.»[۱۸۱]
- ↑ هنگامی که این قانون در سال ۲۰۱۸ تصویب شد، هنوز شکلی از این ماده را در خود داشت.
- ↑ این تعریف سازمان ملل متحد است و مواردی مانند مین زمینی را نیز شامل میشود.[۱۹۵]
- ↑ جدول ۴ را ببینید؛ ۹٪ هم میانگین OECD و هم میانگین ایالات متحده است.[۲۰۶]
- ↑ گاهی اوقات «روبوکالیپس» نامیده میشود[۲۱۵]
ارجاعات
[ویرایش]- ↑ Russell & Norvig (2009), p. 2.
- ↑ «CNN.com - AI set to exceed human brain power - Jul 25, 2006». www.cnn.com. دریافتشده در ۲۰۲۴-۰۴-۲۶.
- ↑ Kaplan, Andreas; Haenlein, Michael (2019). "Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence". Business Horizons. 62: 15–25. doi:10.1016/j.bushor.2018.08.004. S2CID 158433736.
- ↑ Copeland, J., ed. (2004). The Essential Turing: the ideas that gave birth to the computer age (به انگلیسی). Oxford, England: Clarendon Press. ISBN 0-19-825079-7.
- ↑ First AI_Winter, Lighthill_report, Mansfield_Amendment
- (Crevier 1993، صص. 115–117)
- (Russell و Norvig 2021، صص. 21–22)
- (NRC 1999، صص. 212–213)
- (Howe 1994)
- (Newquist 1994، صص. 189–201)
- ↑ Second AI_Winter:
- (Russell و Norvig 2021، ص. 24)
- (McCorduck 2004، صص. 430–435)
- (Crevier 1993، صص. 209–210)
- (NRC 1999، صص. 214–216)
- (Newquist 1994، صص. 301–318)
- ↑ Successful programs the 1960s:
- (McCorduck 2004، صص. 243–252)
- (Crevier 1993، صص. 52–107)
- (Moravec 1988، ص. 9)
- (Russell و Norvig 2021، صص. 19–21)
- ↑ Funding initiatives in the early 1980s: Fifth_Generation_Project (Japan), Alvey (UK), Microelectronics_and_Computer_Technology_Corporation (US), Strategic_Computing_Initiative (US):
- (McCorduck 2004، صص. 426–441)
- (Crevier 1993، صص. 161–162, 197–203, 211, 240)
- (Russell و Norvig 2021، ص. 23)
- (NRC 1999، صص. 210–211)
- (Newquist 1994، صص. 235–248)
- ↑ Corcoran, J. (1974). Aristotle's natural deduction system. In J. Corcoran (Ed.), Ancient logic and its modern interpretations (pp. 85-131). D. Reidel Publishing Company.
- ↑ Smith, R. (2020). Aristotle's logic. In E. N. Zalta (Ed.), The Stanford Encyclopedia of Philosophy (Fall 2020 ed.). Stanford University. https://plato.stanford.edu/entries/aristotle-logic/
- ↑ Sepahsālār, F. A. (1325/1946). Risālah-yi Sepahsālār dar manāqib-i Ḥaẓrat-i Khudāvandgār [The treatise of Sepahsalar on the virtues of the Master]. Tehran.
- ↑ Nicholson, R. A. (1926-1934). The Mathnawí of Jalálu'ddín Rúmí: Edited from the oldest manuscripts available, with critical notes, translation and commentary (Vols. 1-8). Luzac & Co.
- ↑ Artificial_general_intelligence:
- (Russell و Norvig 2021، صص. 32–33, 1020–1021)Proposal for the modern version:
- (Pennachin و Goertzel 2007)Warnings of overspecialization in AI from leading researchers:
- (Nilsson 1995)
- (McCarthy 2007)
- (Beal و Winston 2009)
- ↑ McCarthy et al. (1955).
- ↑ (Russell و Norvig 2021، §1.2).
- ↑ حل مسئله، حل معما، بازی کردن و استنتاج: (Russell و Norvig 2021، chpt. 3–5)، (Russell و Norvig 2021، chpt. 6) (رضایت از محدودیت)، (Poole، Mackworth و Goebel 1998، chpt. 2, 3, 7, 9)، (Luger و Stubblefield 2004، chpt. 3, 4, 6, 8)، (Nilsson 1998، chpt. 7–12)
- ↑ استدلال نامطمئن: (Russell و Norvig 2021، chpt. 12–18)، (Poole، Mackworth و Goebel 1998، صص. 345–395)، (Luger و Stubblefield 2004، صص. 333–381)، (Nilsson 1998، chpt. 7–12)
- ↑ دشواری ذاتی و کارایی و انفجار_ترکیبیاتی: (Russell و Norvig 2021، ص. 21)
- 1 2 شواهد روانشناختی از شیوع استدلال و دانش زیر-نمادین: (Kahneman 2011)، (Dreyfus و Dreyfus 1986)، (Wason و Shapiro 1966)، (Kahneman، Slovic و Tversky 1982)
- ↑ بازنمایی دانش و مهندسی دانش: (Russell و Norvig 2021، chpt. 10)، (Poole، Mackworth و Goebel 1998، صص. 23–46, 69–81, 169–233, 235–277, 281–298, 319–345)، (Luger و Stubblefield 2004، صص. 227–243)، (Nilsson 1998، chpt. 17.1–17.4, 18)
- ↑ Smoliar & Zhang (1994).
- ↑ Neumann & Möller (2008).
- ↑ Kuperman, Reichley & Bailey (2006).
- ↑ McGarry (2005).
- ↑ Bertini, Del Bimbo & Torniai (2006).
- ↑ Russell & Norvig (2021), pp. 272.
- ↑ بازنمایی دستهها و روابط: شبکه_معنایی، منطق_توصیفی، وراثت (شامل قابها و اسکریپتها): (Russell و Norvig 2021، §10.2 & 10.5)، (Poole، Mackworth و Goebel 1998، صص. 174–177)، (Luger و Stubblefield 2004، صص. 248–258)، (Nilsson 1998، chpt. 18.3)
- ↑ بازنمایی رویدادها و زمان: حساب_وضعیت، حساب_رویداد، حساب_روان (شامل حل مسئله_قاب): (Russell و Norvig 2021، §10.3)، (Poole، Mackworth و Goebel 1998، صص. 281–298)، (Nilsson 1998، chpt. 18.2)
- ↑ حساب علیت: (Poole، Mackworth و Goebel 1998، صص. 335–337)
- ↑ بازنمایی دانش در مورد دانش: حساب باور، منطقهای موجهات: (Russell و Norvig 2021، §10.4)، (Poole، Mackworth و Goebel 1998، صص. 275–277)
- ↑ استدلال_پیشفرض، مسئله_قاب، منطق_پیشفرض، منطقهای غیریکنواخت، تخصیص، فرض_جهان_بسته، ربایش: (Russell و Norvig 2021، §10.6)، (Poole، Mackworth و Goebel 1998، صص. 248–256, 323–335)، (Luger و Stubblefield 2004، صص. 335–363)، (Nilsson 1998، ~18.3.3) (Poole et al. ربایش را تحت «استدلال پیشفرض» قرار میدهند. Luger et al. این را تحت «استدلال نامطمئن» قرار میدهند).
- 1 2 گستردگی دانش عقل سلیم: (Lenat و Guha 1989، Introduction), (Crevier 1993، صص. 113–114)، (Moravec 1988، ص. 13)، (Russell و Norvig 2021، صص. 241, 385, 982) (مسئله_صلاحیت)
- ↑ Newquist (1994), p. 296.
- ↑ Crevier (1993), pp. 204–208.
- ↑ Russell & Norvig (2021), p. 528.
- ↑ برنامهریزی خودکار: (Russell و Norvig 2021، chpt. 11).
- ↑ تصمیمگیری خودکار، نظریه تصمیم: (Russell و Norvig 2021، chpt. 16–18).
- ↑ برنامهریزی کلاسیک: (Russell و Norvig 2021، Section 11.2).
- ↑ برنامهریزی بدون حسگر یا «منطبق»، برنامهریزی احتمالی، برنامهریزی مجدد (همچنین به عنوان برنامهریزی آنلاین شناخته میشود): (Russell و Norvig 2021، Section 11.5).
- ↑ ترجیحات نامشخص: (Russell و Norvig 2021، Section 16.7) یادگیری_تقویتی_معکوس: (Russell و Norvig 2021، Section 22.6)
- ↑ نظریه_ارزش_اطلاعات: (Russell و Norvig 2021، Section 16.6).
- ↑ فرایند_تصمیمگیری_مارکوف: (Russell و Norvig 2021، chpt. 17).
- ↑ نظریه بازیها و نظریه تصمیمگیری چند عاملی: (Russell و Norvig 2021، chpt. 18).
- ↑ یادگیری: (Russell و Norvig 2021، chpt. 19–22)، (Poole، Mackworth و Goebel 1998، صص. 397–438)، (Luger و Stubblefield 2004، صص. 385–542)، (Nilsson 1998، chpt. 3.3, 10.3, 17.5, 20)
- ↑ Turing (1950).
- ↑ Solomonoff (1956).
- ↑ یادگیری_بینظارت: (Russell و Norvig 2021، صص. 653) (تعریف)، (Russell و Norvig 2021، صص. 738–740) (خوشهبندی)، (Russell و Norvig 2021، صص. 846–860) (تعبیه_کلمه)
- ↑ یادگیری بانظارت: (Russell و Norvig 2021، §19.2) (تعریف)، (Russell و Norvig 2021، Chpt. 19–20) (تکنیکها)
- ↑ یادگیری تقویتی: (Russell و Norvig 2021، chpt. 22)، (Luger و Stubblefield 2004، صص. 442–449)
- ↑ یادگیری انتقال: (Russell و Norvig 2021، صص. 281)، (The Economist 2016)
- ↑ "Artificial Intelligence (AI): What Is AI and How Does It Work? | Built In". builtin.com. Retrieved 30 October 2023.
- ↑ نظریه یادگیری محاسباتی: (Russell و Norvig 2021، صص. 672–674)، (Jordan و Mitchell 2015)
- ↑ پردازش زبان طبیعی (پزط): (Russell و Norvig 2021، chpt. 23–24)، (Poole، Mackworth و Goebel 1998، صص. 91–104)، (Luger و Stubblefield 2004، صص. 591–632)
- ↑ زیرمسائل پزط: (Russell و Norvig 2021، صص. 849–850)
- ↑ Russell & Norvig (2021), pp. 856–858.
- ↑ Dickson (2022).
- ↑ رویکردهای آماری مدرن و یادگیری عمیق به پزط: (Russell و Norvig 2021، chpt. 24)، (Cambria و White 2014)
- ↑ Vincent (2019).
- ↑ Russell & Norvig (2021), pp. 875–878.
- ↑ Bushwick (2023).
- ↑ بینایی رایانهای: (Russell و Norvig 2021، chpt. 25)، (Nilsson 1998، chpt. 6)
- ↑ Russell & Norvig (2021), pp. 849–850.
- ↑ Russell & Norvig (2021), pp. 895–899.
- ↑ Russell & Norvig (2021), pp. 899–901.
- ↑ Challa et al. (2011).
- ↑ Russell & Norvig (2021), pp. 931–938.
- ↑ MIT AIL (2014).
- ↑ رایانش_عاطفی: (Thro 1993)، (Edelson 1991)، (Tao و Tan 2005)، (Scassellati 2002)
- ↑ Waddell (2018).
- ↑ Poria et al. (2017).
- ↑ هوش_مصنوعی_عمومی: (Russell و Norvig 2021، صص. 32–33, 1020–1021)
پیشنهاد برای نسخه مدرن: (Pennachin و Goertzel 2007)
هشدارهایی در مورد تخصصگرایی بیش از حد در هوش مصنوعی از سوی پژوهشگران برجسته: (Nilsson 1995)، (McCarthy 2007)، (Beal و Winston 2009) - 1 2 3 Stuart Russell, Peter Norvig (2003). Artificial intelligence: a modern approach (به انگلیسی) (Second edition ed.). Upper Saddle River, N.J. p. 17. OCLC 51325314.
{{cite book}}:|edition=has extra text (help) - 1 2 3 Crevier, Daniel (1993). AI: The Tumultuous History of the Search for Artificial Intelligence (به انگلیسی). New York, NY, USA: Basic Books, Inc. pp. 47–49.
{{cite book}}: نگهداری یادکرد:تاریخ و سال (link) - ↑ P., Moravec, Hans (2010). Mind children: the future of robot and human intelligence (به انگلیسی). Harvard Univ. Pr. OCLC 917750079.
- ↑ Schaeffer J. (2009) Didn't Samuel Solve That Game?. In: One Jump Ahead. Springer, Boston, MA
- ↑ Samuel, A. L. (July 1959). "Some Studies in Machine Learning Using the Game of Checkers". IBM Journal of Research and Development. ۳ (۳): ۲۱۰–۲۲۹. doi:10.1147/rd.33.0210.
- ↑ Moravec, Hans (1988). Mind Children: The Future of Robot and Human Intelligence (به انگلیسی). Cambridge, MA, USA: Harvard University Press.
{{cite book}}: نگهداری یادکرد:تاریخ و سال (link) - ↑ Sisu، Diana. «School of Informatics: History of Artificial Intelligence at Edinburgh». www.inf.ed.ac.uk. دریافتشده در ۲۰۱۹-۰۱-۲۸.
- ↑ Turing test
- ↑ Matti, D.; Ekenel, H. K.; Thiran, J. P. (2017). Combining LiDAR space clustering and convolutional neural networks for pedestrian detection. 2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS). pp. 1–6. arXiv:1710.06160. doi:10.1109/AVSS.2017.8078512. ISBN 978-1-5386-2939-0.
- ↑ Ferguson, Sarah; Luders, Brandon; Grande, Robert C.; How, Jonathan P. (2015). Real-Time Predictive Modeling and Robust Avoidance of Pedestrians with Uncertain, Changing Intentions. Algorithmic Foundations of Robotics XI. Springer Tracts in Advanced Robotics (به انگلیسی). Vol. 107. Springer, Cham. pp. 161–177. arXiv:1405.5581. doi:10.1007/978-3-319-16595-0_10. ISBN 978-3-319-16594-3.
- ↑ de la Fuente Ruiz, Alfonso, and Galia Novakova Nedeltcheva. "Comprehensive Review of Trustworthiness in Multimodal Language Models."
- ↑ Newell, A.; Simon, H. (1956-09). "The logic theory machine--A complex information processing system". IEEE Transactions on Information Theory. 2 (3): 61–79. doi:10.1109/tit.1956.1056797. ISSN 0018-9448.
{{cite journal}}: Check date values in:|date=(help) - ↑ Lafont, Y. (1988-07). "The linear abstract machine". Theoretical Computer Science. 59 (1–2): 157–180. doi:10.1016/0304-3975(88)90100-4. ISSN 0304-3975.
{{cite journal}}: Check date values in:|date=(help) - ↑ Romanycia, Marc HJ, and Francis Jeffry Pelletier. "What is a heuristic?." Computational intelligence 1, no. 1 (1985): 47-58.
- ↑ Russell, Stuart J. , and Peter Norvig. Artificial intelligence: a modern approach. pearson, 2016.
- ↑ Sritriratanarak, Warisa; Garcia, Paulo (2025-02-25). "Cyber Physical Games: Rational Multi-Agent Decision-Making in Temporally Non-Deterministic Environments". ACM Transactions on Cyber-Physical Systems. doi:10.1145/3719659. ISSN 2378-962X.
- ↑ Rzevski, George. The Future is Digital. 2023. Springer.
- ↑ Wu, Yijin; Li, Zirun; Guo, Bingrui; He, Shanshan; Liu, Bijing; Liu, Xiaojie; He, Shan; Guo, Donghui (2026-02). "New paradigm of distributed artificial intelligence for LLM implementation and its key technologies". Computer Science Review. 59: 100817. doi:10.1016/j.cosrev.2025.100817. ISSN 1574-0137.
{{cite journal}}: Check date values in:|date=(help) - ↑ Nawaz, Yasir, and Wasif Shah. "Big Data Meets AI: Optimizing Distributed Computing for Scalable Machine Learning Models." ResearchGate, January (2025).
- ↑ Joudaki, Amir. "On a Mathematical Understanding of Deep Neural Networks." PhD diss. , ETH Zurich, 2024.
- ↑ www.isna.ir https://www.isna.ir/news/1404042112799/. دریافتشده در ۲۰۲۵-۰۷-۱۳. پارامتر
|عنوان= یا |title=ناموجود یا خالی (کمک) - ↑ David Silver, Richard S. Sutton, Welcome to the Era of Experience, DeepMind, Google, 2025.
- ↑ https://storage.googleapis.com/deepmind-media/Era-of-Experience%20/The%20Era%20of%20Experience%20Paper.pdf
- ↑ «New 2025 Gartner® Hype Cycle for AI research has been published». Pasqal (به انگلیسی). ۲۰۲۴-۱۰-۰۸. دریافتشده در ۲۰۲۵-۰۷-۲۱.
- ↑ "Quantum Artificial Intelligence Lab". Wikipedia (به انگلیسی). 2025-02-09.
- ↑ Chauhan, Dipti, Pragya Ranka, Pritika Bahad, and Rupali Pathak. "Applications of Quantum Artificial Intelligence: A Systematic Review." Integration of AI, Quantum Computing, and Semiconductor Technology (2025): 159-182.
- ↑ Talati, Dhruvitkumar V. (2025-03-03). "Quantum AI and the Future of Super intelligent Computing". Journal of Artificial Intelligence General science (JAIGS) ISSN 3006-4023. 8 (1): 44–51. doi:10.60087/jaigs.v8i1.329. ISSN 3006-4023.
{{cite journal}}: Check|doi=value (help) - ↑ Rajarshi Tarafdar (2025-02-28). "Quantum AI: The future of machine learning and optimization". World Journal of Advanced Research and Reviews. 25 (2): 2744–2751. doi:10.30574/wjarr.2025.25.2.0639. ISSN 2581-9615.
- ↑ "Unconventional computing". Wikipedia (به انگلیسی). 2025-04-29.
- ↑ Frank, Adam; Grinspoon, David; Walker, Sara (2022-02-07). "Intelligence as a planetary scale process". International Journal of Astrobiology. 21 (2): 47–61. doi:10.1017/s147355042100029x. ISSN 1473-5504.
- ↑ Schoenegger, Philipp; Tuminauskaite, Indre; Park, Peter S.; Bastos, Rafael Valdece Sousa; Tetlock, Philip E. (2024-11-08). "Wisdom of the silicon crowd: LLM ensemble prediction capabilities rival human crowd accuracy". Science Advances. 10 (45). doi:10.1126/sciadv.adp1528. ISSN 2375-2548.
- ↑ Hansen, Anne Lundgaard, John J. Horton, Sophia Kazinnik, Daniela Puzzello, and Ali Zarifhonarvar. "Simulating the Survey of Professional Forecasters." Available at SSRN (2024).
- ↑ Besharati, Mohammad Reza; Izadi, Mohammad (2025-11-03), Hybrid Wisdom, doi:10.20944/preprints202511.0006.v1, retrieved 2025-11-08
- ↑ Dehnavi, Ebrahim; Yousefi Kopaei, Jalaleddin; Jamali, Mohammad (2025). "Non-computable law: revolutionizing AI to address the hard problems of computational law". International Journal of Law and Information Technology. 33. doi:10.1093/ijlit/eaaf013. ISSN 0967-0769.
- ↑ Fazli, MohammadAmin; Alian, Parsa; Owfi, Ali; Loghmani, Erfan (2024-06). "RPS: Portfolio asset selection using graph based representation learning". Intelligent Systems with Applications. 22: 200348. doi:10.1016/j.iswa.2024.200348. ISSN 2667-3053.
{{cite journal}}: Check date values in:|date=(help) - ↑ Jarow, Oshan (2024-06-15). "Will AI ever become conscious? It depends on how you think about biology". Vox (به انگلیسی). Archived from the original on 21 September 2024. Retrieved 2024-10-04.
- ↑ McCarthy, John. "The Philosophy of AI and the AI of Philosophy". jmc.stanford.edu. Archived from the original on 2018-10-23. Retrieved 2024-10-03.
- ↑ Affective_computing: (Thro 1993), (Edelson 1991), (Tao و Tan 2005), (Scassellati 2002)
- ↑ 1. Strubell, E. , Ganesh, A. , & McCallum, A. (۲۰۱۹). Energy and Policy Considerations for Deep Learning in NLP. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL 2019). Association for Computational Linguistics.
- ↑ 3. The carbon emissions of writing and illustrating are lower for AI than for humans, Bill Tomlinson, Rebecca W. Black, Donald J. Patterson & Andrew W. Torrance ,Scientific Reports volume 14, Article number: 3732 (2024)
- ↑ AI in myth: (McCorduck 2004، صص. 4–5)
- ↑ Turing's original publication of the Turing_test in "Computing_machinery_and_intelligence": (Turing 1950) Historical influence and philosophical implications: (Haugeland 1985، صص. 6–9), (Crevier 1993، ص. 24), (McCorduck 2004، صص. 70–71), (Russell و Norvig 2021، صص. 2, 984)
- 1 2 John R. Searle. «Minds, Brains, and Programs». The Behavioral and Brain Sciences, vol. 3. Copyright 1980 Cambridge University Press. بایگانیشده از اصلی در ۱۰ دسامبر ۲۰۰۷. دریافتشده در ۲۸ ژانویه ۲۰۱۹.
- ↑ «هوش مصنوعی چیست».
- ↑ سه سوت وب. «هوش مصنوعی چیست».
- ↑ سه سوت وب. «هوش مصنوعی».
- ↑ سه سوت وب. «AI».
- ↑ Searle's Chinese_room argument: (Searle 1980). Searle's original presentation of the thought experiment. , (Searle 1999). Discussion: (Russell و Norvig 2021، صص. 985), (McCorduck 2004، صص. 443–445), (Crevier 1993، صص. 269–271)
- ↑ Crevier, Daniel (1993). AI: the tumultuous history of the search for artificial intelligence (به انگلیسی). New York, NY: Basic Books. pp. 209–210. OCLC 26858345.
{{cite book}}: Check date values in:|سال=/|تاریخ=mismatch (help) - ↑ McCorduck, Pamela (2004). Machines who think: a personal inquiry into the history and prospects of artificial intelligence (به انگلیسی) (25th anniversary update ed.). Natick, Mass: A.K. Peters. OCLC 52197627.
{{cite book}}: Check date values in:|سال=/|تاریخ=mismatch (help) - ↑ "AI Writing and Content Creation Tools". MIT Sloan Teaching & Learning Technologies. Archived from the original on 25 December 2023. Retrieved 25 December 2023.
- ↑ «Is AI Dangerous? 5 Immediate Risks Of Artificial Intelligence». MUO (به انگلیسی). ۲۰۲۱-۰۶-۱۵. دریافتشده در ۲۰۲۱-۰۸-۰۶.
- ↑ «آیا هوش مصنوعی انسان را تهدید میکند؟ 5 تهدید نزدیک تر از همیشه! | روکیدا». دریافتشده در ۲۰۲۱-۰۸-۰۶.
- ↑ Brown, Eileen. "Half of Americans do not believe deepfake news could target them online". ZDNet (به انگلیسی). Retrieved 2021-08-06.
- ↑ GAO (2022).
- ↑ Valinsky (2019).
- ↑ Russell & Norvig (2021), p. 991.
- ↑ Russell & Norvig (2021), pp. 991–992.
- ↑ Christian (2020), p. 63.
- ↑ Vincent (2022).
- ↑ Kopel, Matthew. "خدمات حق تکثیر: استفاده منصفانه". کتابخانه دانشگاه کرنل. Archived from the original on 26 September 2024. Retrieved 26 April 2024.
- ↑ Burgess, Matt. "چگونه از استفاده دادههای خود برای آموزش هوش مصنوعی جلوگیری کنیم". وایرد. ISSN 1059-1028. Archived from the original on 3 October 2024. Retrieved 26 April 2024.
- ↑ Reisner (2023).
- ↑ Alter & Harris (2023).
- ↑ "آمادهسازی اکوسیستم نوآوری برای هوش مصنوعی. یک جعبه ابزار سیاست مالکیت فکری" (PDF). وایپو.
- ↑ Hammond, George (27 December 2023). "Big Tech is spending more than VC firms on AI startups". Ars Technica. Archived from the original on 10 January 2024.
- ↑ Wong, Matteo (24 October 2023). "The Future of AI Is GOMA". The Atlantic. Archived from the original on 5 January 2024.
- ↑ "Big tech and the pursuit of AI dominance". اکونومیست. 26 March 2023. Archived from the original on 29 December 2023.
- ↑ Fung, Brian (19 December 2023). "Where the battle to dominate AI may be won". CNN Business. Archived from the original on 13 January 2024.
- ↑ Metz, Cade (5 July 2023). "In the Age of A.I. , Tech's Little Guys Need Big Friends". نیویورک تایمز. Archived from the original on 8 July 2024. Retrieved 5 October 2024.
- ↑ "برق ۲۰۲۴ – تحلیل". IEA. 24 January 2024. Retrieved 13 July 2024.
- ↑ Calvert, Brian (28 March 2024). "هوش مصنوعی در حال حاضر به اندازه یک کشور کوچک انرژی مصرف میکند. این تنها آغاز راه است". واکس (وبگاه). نیویورک، نیویورک. Archived from the original on 3 July 2024. Retrieved 5 October 2024.
- ↑ Halper, Evan; O'Donovan, Caroline (21 June 2024). "هوش مصنوعی در حال خالی کردن شبکه برق است. شرکتهای فناوری به دنبال یک راهحل معجزهآسا هستند". واشینگتن پست.
- ↑ Davenport, Carly. "مراکز داده هوش مصنوعی و موج آتی تقاضای برق در آمریکا" (PDF). گلدمن ساکس. Archived from the original (PDF) on 26 July 2024. Retrieved 5 October 2024.
- ↑ Ryan, Carol (12 April 2024). "هوش مصنوعی پرمصرف همچنین آینده صرفهجویی در انرژی است". والاستریت جورنال. داو جونز.
- ↑ Hiller, Jennifer (1 July 2024). "صنعت فناوری میخواهد انرژی هستهای را برای هوش مصنوعی در اختیار بگیرد". والاستریت جورنال. داو جونز. Archived from the original on 5 October 2024. Retrieved 5 October 2024.
- ↑ Kendall, Tyler (28 September 2024). "هوانگ از انویدیا میگوید انرژی هستهای گزینهای برای تأمین انرژی مراکز داده است". بلومبرگ.
- ↑ Halper, Evan (20 September 2024). "توافق مایکروسافت نیروگاه هستهای تری مایل آیلند را برای تأمین انرژی هوش مصنوعی بازگشایی میکند". واشینگتن پست.
- ↑ Hiller, Jennifer (20 September 2024). "نیروگاه هستهای تری مایل آیلند بازگشایی میشود تا به تأمین انرژی مراکز هوش مصنوعی مایکروسافت کمک کند". والاستریت جورنال. داو جونز. Archived from the original on 5 October 2024. Retrieved 5 October 2024.
- 1 2 3 Niva Yadav (19 August 2024). "تایوان مراکز داده بزرگ در شمال را متوقف میکند و به کمبود برق اشاره میکند". DatacenterDynamics. Archived from the original on 8 November 2024. Retrieved 7 November 2024.
- 1 2 Mochizuki, Takashi; Oda, Shoko (18 October 2024). "شرکت ژاپنی با سرمایهگذاری انویدیا، در نظر دارد مرکز داده هوش مصنوعی جدیدی در نزدیکی نیروگاه هستهای احداث کند". بلومبرگ (به ژاپنی). Archived from the original on 8 November 2024. Retrieved 7 November 2024.
- 1 2 Naureen S Malik and Will Wade (5 November 2024). "پردیسهای هوش مصنوعی تشنه انرژی هستهای به طرح جدیدی برای یافتن سریع برق نیاز دارند". Bloomberg.
- ↑ "خلاصه اجرایی انرژی و هوش مصنوعی". آژانس بینالمللی انرژی. Retrieved 10 April 2025.
- ↑ Nicas (2018).
- ↑ Rainie, Lee; Keeter, Scott; Perrin, Andrew (22 July 2019). "اعتماد و عدم اعتماد در آمریکا". مرکز تحقیقات پیو. Archived from the original on 22 February 2024.
- ↑ Kosoff, Maya (8 February 2018). "یوتیوب برای مهار مشکل توطئه خود تلاش میکند". ونتی فر (به انگلیسی). Retrieved 10 April 2025.
- ↑ Berry, David M. (19 March 2025). "رسانههای ترکیبی و سرمایهداری محاسباتی: به سوی یک نظریه انتقادی از هوش مصنوعی". AI & Society (به انگلیسی). doi:10.1007/s00146-025-02265-2. ISSN 1435-5655.
- ↑ "باورنکردنی: یک جهش کوانتومی در ویدیوی هوش مصنوعی". د ویک (به انگلیسی). 17 June 2025. Retrieved 20 June 2025.
- ↑ Snow, Jackie (16 June 2025). "ویدیوی هوش مصنوعی در حال واقعی شدن است. مراقب آنچه در ادامه میآید باشید". کوارتز (به انگلیسی). Retrieved 20 June 2025.
- ↑ Chow, Andrew R.; Perrigo, Billy (3 June 2025). "ابزار جدید هوش مصنوعی گوگل دیپفیکهای قانعکنندهای از شورشها، درگیریها و تقلب در انتخابات تولید میکند". تایم (به انگلیسی). Retrieved 20 June 2025.
- ↑ Williams (2023).
- ↑ Olanipekun, Samson Olufemi (2025). "تبلیغات سیاسی محاسباتی و اطلاعات نادرست: فناوریهای هوش مصنوعی به عنوان ابزارهای دستکاری رسانهها". World Journal of Advanced Research and Reviews (به انگلیسی). 25 (1): 911–923. doi:10.30574/wjarr.2025.25.1.0131. ISSN 2581-9615.
- ↑ Taylor & Hern (2023).
- ↑ "برای مبارزه با هوش مصنوعی، به «اعتبارنامههای شخصیت» نیاز داریم، میگویند شرکتهای هوش مصنوعی" (به انگلیسی). Archived from the original on 24 April 2025. Retrieved 9 May 2025.
- 1 2 Samuel, Sigal (19 April 2022). "چرا منصفانه و بیطرف کردن هوش مصنوعی اینقدر سخت است". واکس. Archived from the original on 5 October 2024. Retrieved 24 July 2024.
- 1 2 Rose (2023).
- ↑ CNA (2019).
- ↑ Mazeika, Mantas; Yin, Xuwang; Tamirisa, Rishub; Lim, Jaehyuk; Lee, Bruce W.; Ren, Richard; Phan, Long; Mu, Norman; Khoja, Adam (2025), مهندسی مطلوبیت: تحلیل و کنترل سیستمهای ارزشی نوظهور در هوش مصنوعی, شکل ۱۶, arXiv:2502.08640, retrieved 2025-10-24
- ↑ Goffrey (2008), p. 17.
- ↑ (Berdahl و دیگران 2023); (Goffrey 2008، ص. 17); (Rose 2023); (Russell و Norvig 2021، ص. 995)
- ↑ Christian (2020), p. 25.
- 1 2 Russell & Norvig (2021), p. 995.
- ↑ Grant & Hill (2023).
- ↑ Larson & Angwin (2016).
- ↑ Christian (2020), p. 67–70.
- ↑ (Christian 2020، صص. 67–70); (Russell و Norvig 2021، صص. 993–994)
- ↑ (Russell و Norvig 2021، ص. 995); (Lipartito 2011، ص. 36); (Goodman و Flaxman 2017، ص. 6); (Christian 2020، صص. 39–40, 65)
- ↑ نقل قول در (Christian 2020، ص. 65).
- ↑ (Russell و Norvig 2021، ص. 994); (Christian 2020، صص. 40, 80–81)
- ↑ نقل قول در (Christian 2020، ص. 80)
- ↑ Dockrill (2022).
- ↑ Sample (2017).
- ↑ "هوش مصنوعی جعبه سیاه". 16 June 2023. Archived from the original on 15 June 2024. Retrieved 5 October 2024.
- ↑ Christian (2020), p. 110.
- ↑ Christian (2020), pp. 88–91.
- ↑ (Christian 2020، ص. 83); (Russell و Norvig 2021، ص. 997)
- ↑ Christian (2020), p. 91.
- ↑ Christian (2020), p. 83.
- ↑ Verma (2021).
- ↑ Rothman (2020).
- ↑ Christian (2020), pp. 105–108.
- ↑ Christian (2020), pp. 108–112.
- ↑ Ropek, Lucas (21 May 2024). "تحقیق جدید آنتروپیک نوری بر «جعبه سیاه» هوش مصنوعی میتاباند". گیزمودو. Archived from the original on 5 October 2024. Retrieved 23 May 2024.
- ↑ Russell & Norvig (2021), p. 989.
- 1 2 Russell & Norvig (2021), pp. 987–990.
- ↑ Russell & Norvig (2021), p. 988.
- ↑ (Robitzski 2018); (Sainato 2015)
- ↑ Harari (2018).
- ↑ Buckley, Chris; Mozur, Paul (22 May 2019). "چگونه چین از نظارت با فناوری پیشرفته برای سرکوب اقلیتها استفاده میکند". نیویورک تایمز. Archived from the original on 25 November 2019. Retrieved 2 July 2019.
- ↑ "نقص امنیتی یک سیستم نظارتی شهر هوشمند چین را افشا کرد". 3 May 2019. Archived from the original on 7 March 2021. Retrieved 14 September 2020.
- ↑ Urbina et al. (2022).
- 1 2 McGaughey (2022).
- ↑ (Ford و Colvin 2015);(McGaughey 2022)
- ↑ IGM Chicago (2017).
- ↑ Arntz, Gregory & Zierahn (2016), p. 33.
- ↑ (Lohr 2017); (Frey و Osborne 2017); (Arntz، Gregory و Zierahn 2016، ص. 33)
- ↑ Zhou, Viola (11 April 2023). "هوش مصنوعی در حال حاضر مشاغل تصویرگران بازیهای ویدیویی در چین را از بین میبرد". Rest of World. Archived from the original on 21 February 2024. Retrieved 17 August 2023.
- ↑ Carter, Justin (11 April 2023). "صنعت هنر بازی چین گزارش شده توسط استفاده روزافزون از هوش مصنوعی نابود شده است". Game Developer. Archived from the original on 17 August 2023. Retrieved 17 August 2023.
- ↑ Morgenstern (2015).
- ↑ (Mahdawi 2017); (Thompson 2014)
- ↑ Ma, Jason (5 July 2025). "جیم فارلی، مدیرعامل فورد هشدار میدهد که هوش مصنوعی نیمی از مشاغل یقهسفید را از بین خواهد برد، اما 'اقتصاد ضروری' با کمبود شدید کارگر مواجه است". فورچن (مجله). Retrieved 21 October 2025.
- ↑ Tarnoff, Ben (4 August 2023). "درسهایی از الایزا". گاردین ویکلی. pp. 34–39.
- ↑ Cellan-Jones (2014).
- ↑ Russell & Norvig 2021, p. 1001.
- ↑ Bostrom (2014).
- ↑ Russell (2019).
- ↑ (Bostrom 2014); (Müller و Bostrom 2014); (Bostrom 2015).
- ↑ Harari (2023).
- ↑ Stewart (2025).
- ↑ Müller & Bostrom (2014).
- ↑ نگرانی رهبران در مورد ریسکهای وجودی هوش مصنوعی در حدود سال ۲۰۱۵: (Rawlinson 2015)، (Holley 2015)، (Gibbs 2014)، (Sainato 2015)
- ↑ ""پدرخوانده هوش مصنوعی" در مورد تأثیر و پتانسیل هوش مصنوعی جدید صحبت میکند". سیبیاس نیوز. 25 March 2023. Archived from the original on 28 March 2023. Retrieved 28 March 2023.
- ↑ Pittis, Don (4 May 2023). "رهبر هوش مصنوعی کانادا، جفری هینتون، بر ترس از تسلط رایانهها میافزاید". سیبیسی. Archived from the original on 7 July 2024. Retrieved 5 October 2024.
- ↑ "جفری هینتون میگوید «۵۰–۵۰ شانس» وجود دارد که هوش مصنوعی از بشریت پیشی بگیرد". Bloomberg BNN. 14 June 2024. Archived from the original on 14 June 2024. Retrieved 6 July 2024.
- ↑ Valance (2023).
- ↑ Taylor, Josh (7 May 2023). "«پدر هوش مصنوعی» میگوید ظهور هوش مصنوعی اجتنابناپذیر است اما نباید از آن ترسید". گاردین. Archived from the original on 23 October 2023. Retrieved 26 May 2023.
- ↑ Colton, Emma (7 May 2023). "«پدر هوش مصنوعی» میگوید ترس از فناوری بیمورد است: «شما نمیتوانید آن را متوقف کنید»". فاکس نیوز. Archived from the original on 26 May 2023. Retrieved 26 May 2023.
- ↑ Jones, Hessie (23 May 2023). "یورگن اشمیدهوبر، «پدر مشهور هوش مصنوعی مدرن»، میگوید کار زندگیاش به پادآرمانشهر منجر نخواهد شد". فوربز. Archived from the original on 26 May 2023. Retrieved 26 May 2023.
- ↑ McMorrow, Ryan (19 December 2023). "اندرو انجی: «آیا فکر میکنیم جهان با هوش بیشتر یا کمتر جای بهتری خواهد بود؟»". فایننشال تایمز. Archived from the original on 25 January 2024. Retrieved 30 December 2023.
- ↑ Levy, Steven (22 December 2023). "چگونه در مورد هوش مصنوعی احمق نباشیم، با یان لیکان". وایرد. Archived from the original on 28 December 2023. Retrieved 30 December 2023.
- ↑ استدلالهایی مبنی بر اینکه هوش مصنوعی یک ریسک قریبالوقوع نیست: (Brooks 2014)، (Geist 2015)، (Madrigal 2015)، (Lee 2014)
- ↑ Christian (2020), pp. 67, 73.
- ↑ «آیا هوش مصنوعی جایگزین طراح سایت میشود؟ (خطر نابودی شغل ما)». hinweb.ir. ۲۰۲۵-۱۲-۰۵. دریافتشده در ۲۰۲۵-۱۲-۲۷.
- 1 2 «7 خطر طراحی لوگو با هوش مصنوعی: طراحان دنبال شغل دوم باشند؟». hinweb.ir. ۲۰۲۵-۱۱-۳۰. دریافتشده در ۲۰۲۵-۱۲-۲۷.
- Funding initiatives in the early 80s: Fifth Generation Project (Japan), Alvey (UK), Microelectronics and Computer Technology Corporation (US), Strategic Computing Initiative (US):
- (McCorduck 2004، صص. 426–441)
- (Crevier 1993، صص. 161–162,197–203, 211, 240)
- (Russell و Norvig 2003، ص. 24)
- (NRC 1999، صص. 210–211)
- (Newquist 1994، صص. 235–248)
- First AI Winter, Lighthill report, Mansfield Amendment
- (Crevier 1993، صص. 115–117)
- (Russell و Norvig 2003، ص. 22)
- (NRC 1999، صص. 212–213)
- (Howe 1994)
- (Newquist 1994، صص. 189–201)
- Second AI Winter:
- (McCorduck 2004، صص. 430–435)
- (Crevier 1993، صص. 209–210)
- (NRC 1999، صص. 214–216)
- (Newquist 1994، صص. 301–318)
- AI widely used in late 1990s:
- (Russell و Norvig 2003، ص. 28)
- (Kurzweil 2005، ص. 265)
- (NRC 1999، صص. 216–222)
- (Newquist 1994، صص. 189–201)
- (Pennachin و Goertzel 2007); (Roberts 2016)
منابع
[ویرایش]کتب درسی AI
[ویرایش]این کتابها، پراستفادهترین کتابهای درسی AI در ۲۰۰۷ میلادی بودهاند.
- Luger, George; Stubblefield, William (2004). Artificial Intelligence: Structures and Strategies for Complex Problem Solving (5th ed.). Benjamin/Cummings. ISBN 978-0-8053-4780-7. Archived from the original on 26 July 2020. Retrieved 17 December 2019.
- Nilsson, Nils (1998). Artificial Intelligence: A New Synthesis. Morgan Kaufmann. ISBN 978-1-55860-467-4. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
- Russell, Stuart J.; Norvig, Peter (2003), Artificial Intelligence: A Modern Approach (2nd ed.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2.
- Poole, David; Mackworth, Alan; Goebel, Randy (1998). Computational Intelligence: A Logical Approach. New York: Oxford University Press. ISBN 978-0-19-510270-3. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
- Russell, Stuart J.; Norvig, Peter (2009). Artificial Intelligence: A Modern Approach (3rd ed.). Upper Saddle River, New Jersey: Prentice Hall. ISBN 978-0-13-604259-4..
- Poole, David; Mackworth, Alan (2017). Artificial Intelligence: Foundations of Computational Agents (2nd ed.). Cambridge University Press. ISBN 978-1-107-19539-4.
- Nature. (2023). What is generative AI? Retrieved from
دوتا از پراستفادهترین کتب درسی در ۲۰۲۱ میلادی.
- Russell, Stuart J.; Norvig, Peter (2021). Artificial Intelligence: A Modern Approach (4th ed.). Hoboken: Pearson. ISBN 978-0-13-461099-3. LCCN 20190474.
- Knight, Kevin; Rich, Elaine (January 1, 2010). Artificial Intelligence (به انگلیسی) (3rd ed.). Mc Graw Hill India. ISBN 978-0-07-008770-5.
- Crevier, Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence. New York, NY: BasicBooks. ISBN 0-465-02997-3..
- McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd., ISBN 1-56881-205-1.
- Newquist, HP (1994). The Brain Makers: Genius, Ego, And Greed In The Quest For Machines That Think. New York: Macmillan/SAMS. ISBN 978-0-672-30412-5.
- Nilsson, Nils (2009). The Quest for Artificial Intelligence: A History of Ideas and Achievements. New York: Cambridge University Press. ISBN 978-0-521-12293-1.
دیگر منابع
[ویرایش]- Werbos, P. J. (1988), "Generalization of backpropagation with application to a recurrent gas market model", Neural Networks, 1 (4): 339–356, doi:10.1016/0893-6080(88)90007-X
- Gers, Felix A.; Schraudolph, Nicol N.; Schraudolph, Jürgen (2002). "Learning Precise Timing with LSTM Recurrent Networks" (PDF). Journal of Machine Learning Research. 3: 115–143. Retrieved 2017-06-13.
- Deng, L.; Yu, D. (2014). "Deep Learning: Methods and Applications" (PDF). Foundations and Trends in Signal Processing. 7 (3–4): 1–199. doi:10.1561/2000000039. Archived (PDF) from the original on 2016-03-14. Retrieved 2014-10-18.
- Schulz, Hannes; Behnke, Sven (1 November 2012). "Deep Learning". KI - Künstliche Intelligenz (به انگلیسی). 26 (4): 357–363. doi:10.1007/s13218-012-0198-z. ISSN 1610-1987. S2CID 220523562.[پیوند مرده]
- Fukushima, K. (2007). "Neocognitron". Scholarpedia. 2 (1): 1717. Bibcode:2007SchpJ...2.1717F. doi:10.4249/scholarpedia.1717. was introduced by Kunihiko Fukushima in 1980.
- Habibi, Aghdam, Hamed (2017-05-30). Guide to convolutional neural networks: a practical application to traffic-sign detection and classification. Heravi, Elnaz Jahani. Cham, Switzerland. ISBN 978-3-319-57549-0. OCLC 987790957.
- Ciresan, D.; Meier, U.; Schmidhuber, J. (2012). "Multi-column deep neural networks for image classification". 2012 IEEE Conference on Computer Vision and Pattern Recognition. pp. 3642–3649. arXiv:1202.2745. doi:10.1109/cvpr.2012.6248110. ISBN 978-1-4673-1228-8. S2CID 2161592.
- "From not working to neural networking". The Economist. 2016. Archived from the original on 31 December 2016. Retrieved 26 April 2018.
- Thompson, Derek (January 23, 2014). "What Jobs Will the Robots Take?". The Atlantic. Archived from the original on 24 April 2018. Retrieved 24 April 2018.
- Scassellati, Brian (2002). "Theory of mind for a humanoid robot". Autonomous Robots. 12 (1): 13–24. doi:10.1023/A:1013298507114. S2CID 1979315.
- Sample, Ian (14 March 2017). "Google's DeepMind makes AI program that can learn like a human". The Guardian. Archived from the original on 26 April 2018. Retrieved 26 April 2018.
- Heath, Nick (11 December 2020). "What is AI? Everything you need to know about Artificial Intelligence". ZDNet (به انگلیسی). Retrieved 1 March 2021.
- Bowling, Michael; Burch, Neil; Johanson, Michael; Tammelin, Oskari (2015-01-09). "Heads-up limit hold'em poker is solved". Science (به انگلیسی). 347 (6218): 145–149. Bibcode:2015Sci...347..145B. doi:10.1126/science.1259433. ISSN 0036-8075. PMID 25574016. S2CID 3796371.
- Solly, Meilan (July 15, 2019). "This Poker-Playing A.I. Knows When to Hold 'Em and When to Fold 'Em". Smithsonian.
- "Artificial intelligence: Google's AlphaGo beats Go master Lee Se-dol". BBC News. 12 March 2016. Archived from the original on 26 August 2016. Retrieved 1 October 2016.
- Rowinski, Dan (15 January 2013). "Virtual Personal Assistants & The Future Of Your Smartphone [Infographic]". ReadWrite. Archived from the original on 22 December 2015.
- Markoff, John (16 February 2011). "Computer Wins on 'Jeopardy!': Trivial, It's Not". The New York Times. Archived from the original on 22 October 2014. Retrieved 25 October 2014.
- Anadiotis, George (1 October 2020). "The state of AI in 2020: Democratization, industrialization, and the way to artificial general intelligence". ZDNet (به انگلیسی). Retrieved 1 March 2021.
- Goertzel, Ben; Lian, Ruiting; Arel, Itamar; de Garis, Hugo; Chen, Shuo (December 2010). "A world survey of artificial brain projects, Part II: Biologically inspired cognitive architectures". Neurocomputing. 74 (1–3): 30–49. doi:10.1016/j.neucom.2010.08.012.
- Robinson, A. J.; Fallside, F. (1987), "The utility driven dynamic error propagation network.", Technical Report CUED/F-INFENG/TR.1, Cambridge University Engineering Department
- Hochreiter, Sepp (1991). Untersuchungen zu dynamischen neuronalen Netzen (PDF) (diploma thesis). Munich: Institut f. Informatik, Technische Univ. Archived from the original (PDF) on 6 March 2015. Retrieved 16 April 2016.
- Williams, R. J.; Zipser, D. (1994), "Gradient-based learning algorithms for recurrent networks and their computational complexity", Back-propagation: Theory, Architectures and Applications, Hillsdale, NJ: Erlbaum
- Hochreiter, Sepp; Schmidhuber, Jürgen (1997), "Long Short-Term Memory", Neural Computation, 9 (8): 1735–1780, doi:10.1162/neco.1997.9.8.1735, PMID 9377276, S2CID 1915014
- Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016), Deep Learning, MIT Press., archived from the original on 16 April 2016, retrieved 12 November 2017
- Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V.; Nguyen, P.; Sainath, T.; Kingsbury, B. (2012). "Deep Neural Networks for Acoustic Modeling in Speech Recognition – The shared views of four research groups". IEEE Signal Processing Magazine. 29 (6): 82–97. Bibcode:2012ISPM...29...82H. doi:10.1109/msp.2012.2205597. S2CID 206485943.
- Schmidhuber, J. (2015). "Deep Learning in Neural Networks: An Overview". Neural Networks. 61: 85–117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637. S2CID 11715509.
- Linnainmaa, Seppo (1970). The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors (Thesis) (به فنلاندی). Univ. Helsinki, 6–7.|
- Griewank, Andreas (2012). "Who Invented the Reverse Mode of Differentiation? Optimization Stories". Documenta Matematica, Extra Volume ISMP: 389–400.
- Werbos, Paul (1974). Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences (Ph.D. thesis). Harvard University.
- Werbos, Paul (1982). "Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences" (PDF). System Modeling and Optimization. Applications of advances in nonlinear sensitivity analysis. Berlin, Heidelberg: Springer. Archived from the original (PDF) on 14 April 2016. Retrieved 16 April 2016.
- "What is 'fuzzy logic'? Are there computers that are inherently fuzzy and do not apply the usual binary logic?". Scientific American (به انگلیسی). October 21, 1999. Retrieved 5 May 2018.
- Merkle, Daniel; Middendorf, Martin (2013). "Swarm Intelligence". In Burke, Edmund K.; Kendall, Graham (eds.). Search Methodologies: Introductory Tutorials in Optimization and Decision Support Techniques (به انگلیسی). Springer Science & Business Media. ISBN 978-1-4614-6940-7.
- van der Walt, Christiaan; Bernard, Etienne (2006). "Data characteristics that determine classifier performance" (PDF). Archived from the original (PDF) on 25 March 2009. Retrieved 5 August 2009.
- Hutter, Marcus (2005). Universal Artificial Intelligence. Berlin: Springer. ISBN 978-3-540-22139-5.
- Howe, J. (November 1994). "Artificial Intelligence at Edinburgh University: a Perspective". Archived from the original on 15 May 2007. Retrieved 30 August 2007.
- Galvan, Jill (1 January 1997). "Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of Electric Sheep?"". Science Fiction Studies. 24 (3): 413–429. JSTOR 4240644.
- McCauley, Lee (2007). "AI armageddon and the three laws of robotics". Ethics and Information Technology. 9 (2): 153–164. CiteSeerX 10.1.1.85.8904. doi:10.1007/s10676-007-9138-2. S2CID 37272949.
- Buttazzo, G. (July 2001). "Artificial consciousness: Utopia or real possibility?". Computer. 34 (7): 24–30. doi:10.1109/2.933500.
- Anderson, Susan Leigh (2008). "Asimov's "three laws of robotics" and machine metaethics". AI & Society. 22 (4): 477–493. doi:10.1007/s00146-007-0094-5. S2CID 1809459.
- Yudkowsky, E (2008), "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF), Global Catastrophic Risks, Oxford University Press, 2008, Bibcode:2008gcr..book..303Y
- McGaughey, E (2018), Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy, p. SSRN part 2(3), SSRN 3044448, archived from the original on 24 May 2018, retrieved 12 January 2018
- IGM Chicago (June 30, 2017). "Robots and Artificial Intelligence". www.igmchicago.org. Archived from the original on 1 May 2019. Retrieved 2019-07-03.
- Lohr, Steve (2017). "Robots Will Take Jobs, but Not as Fast as Some Fear, New Report Says". The New York Times. Archived from the original on 14 January 2018. Retrieved 13 January 2018.
- Frey, Carl Benedikt; Osborne, Michael A (1 January 2017). "The future of employment: How susceptible are jobs to computerisation?". Technological Forecasting and Social Change. 114: 254–280. CiteSeerX 10.1.1.395.416. doi:10.1016/j.techfore.2016.08.019. ISSN 0040-1625.
- Arntz, Melanie; Gregory, Terry; Zierahn, Ulrich (2016), "The risk of automation for jobs in OECD countries: A comparative analysis", OECD Social, Employment, and Migration Working Papers 189
- Morgenstern, Michael (9 May 2015). "Automation and anxiety". The Economist. Archived from the original on 12 January 2018. Retrieved 13 January 2018.
- Mahdawi, Arwa (26 June 2017). "What jobs will still be around in 20 years? Read this to prepare your future". The Guardian. Archived from the original on 14 January 2018. Retrieved 13 January 2018.
- Rubin, Charles (Spring 2003). "Artificial Intelligence and Human Nature". The New Atlantis. 1: 88–100. Archived from the original on 11 June 2012.
- Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
- Brooks, Rodney (10 November 2014). "artificial intelligence is a tool, not a threat". Archived from the original on 12 November 2014.
- Sainato, Michael (2015-08-19). "Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence". Observer. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- Harari, Yuval Noah (October 2018). "Why Technology Favors Tyranny". The Atlantic.
- Robitzski, Dan (September 5, 2018). "Five experts share what scares them the most about AI". Archived from the original on 8 December 2019. Retrieved 8 December 2019.
- Goffrey, Andrew (2008). "Algorithm". In Fuller, Matthew (ed.). Software studies: a lexicon. Cambridge, Mass.: MIT Press. pp. 15–20. ISBN 978-1-4356-4787-9.
- Lipartito, Kenneth (6 January 2011). "The Narrative and the Algorithm: Genres of Credit Reporting from the Nineteenth Century to Today" (PDF) (Submitted manuscript). doi:10.2139/ssrn.1736283. S2CID 166742927.
{{cite journal}}: Cite journal requires|journal=(help) - Goodman, Bryce; Flaxman, Seth (2017). "EU regulations on algorithmic decision-making and a "right to explanation"". AI Magazine. 38 (3): 50. arXiv:1606.08813. doi:10.1609/aimag.v38i3.2741. S2CID 7373959.
- CNA (2019-01-12). "Commentary: Bad news. Artificial intelligence is biased". CNA (به انگلیسی). Archived from the original on 12 January 2019. Retrieved 2020-06-19.
- Larson, Jeff; Angwin, Julia (2016-05-23). "How We Analyzed the COMPAS Recidivism Algorithm". ProPublica (به انگلیسی). Archived from the original on 29 April 2019. Retrieved 2020-06-19.
- Müller, Vincent C.; Bostrom, Nick (2014). "Future Progress in Artificial Intelligence: A Poll Among Experts" (PDF). AI Matters. 1 (1): 9–11. doi:10.1145/2639475.2639478. S2CID 8510016. Archived (PDF) from the original on 15 January 2016.
- Cellan-Jones, Rory (2014-12-02). "Stephen Hawking warns artificial intelligence could end mankind". BBC News. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- Rawlinson, Kevin (2015-01-29). "Microsoft's Bill Gates insists AI is a threat". BBC News. Archived from the original on 29 January 2015. Retrieved 30 January 2015.
- Holley, Peter (28 January 2015). "Bill Gates on dangers of artificial intelligence: 'I don't understand why some people are not concerned'". The Washington Post. ISSN 0190-8286. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- Gibbs, Samuel (2014-10-27). "Elon Musk: artificial intelligence is our biggest existential threat". The Guardian. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- Churm, Philip Andrew (2019-05-14). "Yuval Noah Harari talks politics, technology and migration". euronews (به انگلیسی). Archived from the original on 14 May 2019. Retrieved 2020-11-15.
- Bostrom, Nick (2015). "What happens when our computers get smarter than we are?". TED (conference). Archived from the original on 25 July 2020. Retrieved 30 January 2020.
- Post, Washington (2015). "Tech titans like Elon Musk are spending $1 billion to save you from terminators". Chicago Tribune. Archived from the original on 7 June 2016.
- Del Prado, Guia Marie (Oct 9, 2015). "The mysterious artificial intelligence company Elon Musk invested in is developing game-changing smart computers". Tech Insider. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- FastCompany (2015-01-15). "Elon Musk Is Donating $10M Of His Own Money To Artificial Intelligence Research". Fast Company. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- Thibodeau, Patrick (25 Mar 2019). "Oracle CEO Mark Hurd sees no reason to fear ERP AI". SearchERP (به انگلیسی). Archived from the original on 6 May 2019. Retrieved 2019-05-06.
- Bhardwaj, Prachi (24 May 2018). "Mark Zuckerberg responds to Elon Musk's paranoia about AI: 'AI is going to... help keep our communities safe.'". Business Insider. Archived from the original on 6 May 2019. Retrieved 2019-05-06.
- Geist, Edward Moore (August 9, 2015). "Is artificial intelligence really an existential threat to humanity?". Bulletin of the Atomic Scientists. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- Madrigal, Alexis C. (February 27, 2015). "The case against killer robots, from a guy actually working on artificial intelligence". Fusion.net. Archived from the original on 4 February 2016. Retrieved 31 January 2016.
- Lee, Timothy B. (2014-08-22). "Will artificial intelligence destroy humanity? Here are 5 reasons not to worry". Vox. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body. (2019). Regulation of artificial intelligence in selected jurisdictions. LCCN 2019668143. OCLC 1110727808.
- UNESCO Science Report: the Race Against Time for Smarter Development. Paris: UNESCO. 11 June 2021. ISBN 978-92-3-100450-6.
- Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector (PDF). Paris: OECD Observatory of Public Sector Innovation. Archived (PDF) from the original on 20 December 2019. Retrieved 9 August 2020.
- Barfield, Woodrow; Pagallo, Ugo (2018). Research handbook on the law of artificial intelligence. Cheltenham, UK. ISBN 978-1-78643-904-8. OCLC 1039480085.
- Iphofen, Ron; Kritikos, Mihalis (2019-01-03). "Regulating artificial intelligence and robotics: ethics by design in a digital society". Contemporary Social Science. 16 (2): 170–184. doi:10.1080/21582041.2018.1563803. ISSN 2158-2041. S2CID 59298502.
- Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (2018-07-24). "Artificial Intelligence and the Public Sector – Applications and Challenges". International Journal of Public Administration. 42 (7): 596–615. doi:10.1080/01900692.2018.1498103. ISSN 0190-0692. S2CID 158829602. Archived from the original on 18 August 2020. Retrieved 22 August 2020.
- Buiten, Miriam C (2019). "Towards Intelligent Regulation of Artificial Intelligence". European Journal of Risk Regulation. 10 (1): 41–59. doi:10.1017/err.2019.8. ISSN 1867-299X.
- Wallach, Wendell (2010). Moral Machines. Oxford University Press.
- Brown, Eileen (November 5, 2019). "Half of Americans do not believe deepfake news could target them online". ZDNet (به انگلیسی). Archived from the original on 6 November 2019. Retrieved 2019-12-03.
- Frangoul, Anmar (2019-06-14). "A Californian business is using A.I. to change the way we think about energy storage". CNBC (به انگلیسی). Archived from the original on 25 July 2020. Retrieved 2019-11-05.
- "The Economist Explains: Why firms are piling into artificial intelligence". The Economist. 31 March 2016. Archived from the original on 8 May 2016. Retrieved 19 May 2016.
- Lohr, Steve (28 February 2016). "The Promise of Artificial Intelligence Unfolds in Small Steps". The New York Times. Archived from the original on 29 February 2016. Retrieved 29 February 2016.
- Smith, Mark (22 July 2016). "So you think you chose to read this article?". BBC News. Archived from the original on 25 July 2016.
- Aletras, N.; Tsarapatsanis, D.; Preotiuc-Pietro, D.; Lampos, V. (2016). "Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective". PeerJ Computer Science. 2: e93. doi:10.7717/peerj-cs.93.
- Cadena, Cesar; Carlone, Luca; Carrillo, Henry; Latif, Yasir; Scaramuzza, Davide; Neira, Jose; Reid, Ian; Leonard, John J. (December 2016). "Past, Present, and Future of Simultaneous Localization and Mapping: Toward the Robust-Perception Age". IEEE Transactions on Robotics. 32 (6): 1309–1332. arXiv:1606.05830. Bibcode:2016arXiv160605830C. doi:10.1109/TRO.2016.2624754. S2CID 2596787.
- Cambria, Erik; White, Bebo (May 2014). "Jumping NLP Curves: A Review of Natural Language Processing Research [Review Article]". IEEE Computational Intelligence Magazine. 9 (2): 48–57. doi:10.1109/MCI.2014.2307227. S2CID 206451986.
- Vincent, James (7 November 2019). "OpenAI has published the text-generating AI it said was too dangerous to share". The Verge (به انگلیسی). Archived from the original on 11 June 2020. Retrieved 11 June 2020.
- Jordan, M. I.; Mitchell, T. M. (16 July 2015). "Machine learning: Trends, perspectives, and prospects". Science. 349 (6245): 255–260. Bibcode:2015Sci...349..255J. doi:10.1126/science.aaa8415. PMID 26185243. S2CID 677218.
- Maschafilm (2010). "Content: Plug & Pray Film – Artificial Intelligence – Robots -". plugandpray-film.de. Archived from the original on 12 February 2016.
- Evans, Woody (2015). "Posthuman Rights: Dimensions of Transhuman Worlds". Teknokultura. 12 (2). doi:10.5209/rev_TK.2015.v12.n2.49072.
- Waddell, Kaveh (2018). "Chatbots Have Entered the Uncanny Valley". The Atlantic. Archived from the original on 24 April 2018. Retrieved 24 April 2018.
- Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (September 2017). "A review of affective computing: From unimodal analysis to multimodal fusion". Information Fusion. 37: 98–125. doi:10.1016/j.inffus.2017.02.003. hdl:1893/25490.
- "Robots could demand legal rights". BBC News. 21 December 2006. Archived from the original on 15 October 2019. Retrieved 3 February 2011.
- Horst, Steven (2005). "The Computational Theory of Mind". The Stanford Encyclopedia of Philosophy.
- Omohundro, Steve (2008). The Nature of Self-Improving Artificial Intelligence. presented and distributed at the 2007 Singularity Summit, San Francisco, CA.
- Ford, Martin; Colvin, Geoff (6 September 2015). "Will robots create more jobs than they destroy?". The Guardian. Archived from the original on 16 June 2018. Retrieved 13 January 2018.
- White Paper: On Artificial Intelligence – A European approach to excellence and trust (PDF). Brussels: European Commission. 2020. Archived (PDF) from the original on 20 February 2020. Retrieved 20 February 2020.
- Anderson, Michael; Anderson, Susan Leigh (2011). Machine Ethics. Cambridge University Press.
- "Machine Ethics". aaai.org. Archived from the original on 29 November 2014.
- Russell, Stuart (October 8, 2019). Human Compatible: Artificial Intelligence and the Problem of Control. United States: Viking. ISBN 978-0-525-55861-3. OCLC 1083694322.
- "AI set to exceed human brain power". CNN. 9 August 2006. Archived from the original on 19 February 2008.
- "Robots could demand legal rights". BBC News. 21 December 2006. Archived from the original on 15 October 2019. Retrieved 3 February 2011.
- "Kismet". MIT Artificial Intelligence Laboratory, Humanoid Robotics Group. Archived from the original on 17 October 2014. Retrieved 25 October 2014.
- Smoliar, Stephen W.; Zhang, HongJiang (1994). "Content based video indexing and retrieval". IEEE Multimedia. 1 (2): 62–72. doi:10.1109/93.311653. S2CID 32710913.
- Neumann, Bernd; Möller, Ralf (January 2008). "On scene interpretation with description logics". Image and Vision Computing. 26 (1): 82–101. doi:10.1016/j.imavis.2007.08.013.
- Kuperman, G. J.; Reichley, R. M.; Bailey, T. C. (1 July 2006). "Using Commercial Knowledge Bases for Clinical Decision Support: Opportunities, Hurdles, and Recommendations". Journal of the American Medical Informatics Association. 13 (4): 369–371. doi:10.1197/jamia.M2055. PMC 1513681. PMID 16622160.
- McGarry, Ken (1 December 2005). "A survey of interestingness measures for knowledge discovery". The Knowledge Engineering Review. 20 (1): 39–61. doi:10.1017/S0269888905000408. S2CID 14987656.
- Bertini, M; Del Bimbo, A; Torniai, C (2006). "Automatic annotation and semantic retrieval of video sequences using multimedia ontologies". MM '06 Proceedings of the 14th ACM international conference on Multimedia. 14th ACM international conference on Multimedia. Santa Barbara: ACM. pp. 679–682.
- Kahneman, Daniel (October 25, 2011). Thinking, Fast and Slow. Macmillan. ISBN 978-1-4299-6935-2. Retrieved April 8, 2012.
- Turing, Alan (1948), "Machine Intelligence", in Copeland, B. Jack (ed.), The Essential Turing: The ideas that gave birth to the computer age, Oxford: Oxford University Press, p. 412, ISBN 978-0-19-825080-7
- Domingos, Pedro (September 22, 2015). The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. Basic Books. ISBN 978-0-465-06570-7.
- Minsky, Marvin (1986), The Society of Mind, Simon and Schuster
- Pinker, Steven (September 4, 2007) [1994], The Language Instinct, Perennial Modern Classics, Harper, ISBN 978-0-06-133646-1
- Chalmers, David (1995). "Facing up to the problem of consciousness". Journal of Consciousness Studies. 2 (3): 200–219. Archived from the original on 8 March 2005. Retrieved 11 October 2018.
- Roberts, Jacob (2016). "Thinking Machines: The Search for Artificial Intelligence". Distillations. Vol. 2, no. 2. pp. 14–23. Archived from the original on 19 August 2018. Retrieved 20 March 2018.
- Pennachin, C.; Goertzel, B. (2007). "Contemporary Approaches to Artificial General Intelligence". Artificial General Intelligence. Cognitive Technologies. Berlin, Heidelberg: Springer. doi:10.1007/978-3-540-68677-4_1. ISBN 978-3-540-23733-4.
- "Ask the AI experts: What's driving today's progress in AI?". McKinsey & Company. Archived from the original on 13 April 2018. Retrieved 13 April 2018.
- "Reshaping Business With Artificial Intelligence". MIT Sloan Management Review. Archived from the original on 19 May 2018. Retrieved 2 May 2018.
- Lorica, Ben (18 December 2017). "The state of AI adoption". O'Reilly Media. Archived from the original on 2 May 2018. Retrieved 2 May 2018.
- "AlphaGo – Google DeepMind". Archived from the original on 20 October 2021.
- Asada, M.; Hosoda, K.; Kuniyoshi, Y.; Ishiguro, H.; Inui, T.; Yoshikawa, Y.; Ogino, M.; Yoshida, C. (2009). "Cognitive developmental robotics: a survey". IEEE Transactions on Autonomous Mental Development. 1 (1): 12–34. doi:10.1109/tamd.2009.2021702. S2CID 10168773.
- Ashok83 (10 September 2019). "How AI Is Getting Groundbreaking Changes In Talent Management And HR Tech". Hackernoon. Archived from the original on 11 September 2019. Retrieved 14 February 2020.
- Berlinski, David (2000). The Advent of the Algorithm. Harcourt Books. ISBN 978-0-15-601391-8. OCLC 46890682. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
- Brooks, Rodney (1990). "Elephants Don't Play Chess" (PDF). Robotics and Autonomous Systems. 6 (1–2): 3–15. CiteSeerX 10.1.1.588.7539. doi:10.1016/S0921-8890(05)80025-9. Archived (PDF) from the original on 9 August 2007.
- Butler, Samuel (13 June 1863). "Darwin among the Machines". Letters to the Editor. The Press. Christchurch, New Zealand. Archived from the original on 19 September 2008. Retrieved 16 October 2014 – via Victoria University of Wellington.
- Clark, Jack (1 July 2015). "Musk-Backed Group Probes Risks Behind Artificial Intelligence". Bloomberg.com. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
- Clark, Jack (8 December 2015). "Why 2015 Was a Breakthrough Year in Artificial Intelligence". Bloomberg.com. Archived from the original on 23 November 2016. Retrieved 23 November 2016.
- Dennett, Daniel (1991). Consciousness Explained. The Penguin Press. ISBN 978-0-7139-9037-9.
- Dreyfus, Hubert (1972). What Computers Can't Do. New York: MIT Press. ISBN 978-0-06-011082-6.
- Dreyfus, Hubert; Dreyfus, Stuart (1986). Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer. Oxford, UK: Blackwell. ISBN 978-0-02-908060-3. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
- Dyson, George (1998). Darwin among the Machines. Allan Lane Science. ISBN 978-0-7382-0030-9. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
- Edelson, Edward (1991). The Nervous System. New York: Chelsea House. ISBN 978-0-7910-0464-7. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
- Fearn, Nicholas (2007). The Latest Answers to the Oldest Questions: A Philosophical Adventure with the World's Greatest Thinkers. New York: Grove Press. ISBN 978-0-8021-1839-4.
- Haugeland, John (1985). Artificial Intelligence: The Very Idea. Cambridge, Mass.: MIT Press. ISBN 978-0-262-08153-5.
- Hawkins, Jeff; Blakeslee, Sandra (2005). On Intelligence. New York: Owl Books. ISBN 978-0-8050-7853-4.
- Henderson, Mark (24 April 2007). "Human rights for robots? We're getting carried away". The Times Online. London. Archived from the original on 31 May 2014. Retrieved 31 May 2014.
- Kahneman, Daniel; Slovic, D.; Tversky, Amos (1982). Judgment under uncertainty: Heuristics and biases. Science. Vol. 185. New York: Cambridge University Press. pp. 1124–1131. doi:10.1126/science.185.4157.1124. ISBN 978-0-521-28414-1. PMID 17835457. S2CID 143452957.
- Katz, Yarden (1 November 2012). "Noam Chomsky on Where Artificial Intelligence Went Wrong". The Atlantic. Archived from the original on 28 February 2019. Retrieved 26 October 2014.
- Kurzweil, Ray (2005). The Singularity is Near. Penguin Books. ISBN 978-0-670-03384-3.
- Langley, Pat (2011). "The changing science of machine learning". Machine Learning. 82 (3): 275–279. doi:10.1007/s10994-011-5242-y.
- Legg, Shane; Hutter, Marcus (15 June 2007). A Collection of Definitions of Intelligence (Technical report). IDSIA. arXiv:0706.3639. Bibcode:2007arXiv0706.3639L. 07-07.
- Lenat, Douglas; Guha, R. V. (1989). Building Large Knowledge-Based Systems. Addison-Wesley. ISBN 978-0-201-51752-1.
- Lighthill, James (1973). "Artificial Intelligence: A General Survey". Artificial Intelligence: a paper symposium. Science Research Council.
- Lombardo, P; Boehm, I; Nairz, K (2020). "RadioComics – Santa Claus and the future of radiology". Eur J Radiol. 122 (1): 108771. doi:10.1016/j.ejrad.2019.108771. PMID 31835078.
- Lungarella, M.; Metta, G.; Pfeifer, R.; Sandini, G. (2003). "Developmental robotics: a survey". Connection Science. 15 (4): 151–190. CiteSeerX 10.1.1.83.7615. doi:10.1080/09540090310001655110. S2CID 1452734.
- Maker, Meg Houston (2006). "AI@50: AI Past, Present, Future". Dartmouth College. Archived from the original on 3 January 2007. Retrieved 16 October 2008.
- McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (1955). "A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence". Archived from the original on 26 August 2007. Retrieved 30 August 2007.
- Minsky, Marvin (1967). Computation: Finite and Infinite Machines. Englewood Cliffs, N.J.: Prentice-Hall. ISBN 978-0-13-165449-5. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
- Moravec, Hans (1988). Mind Children. Harvard University Press. ISBN 978-0-674-57616-2. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
- NRC (United States National Research Council) (1999). "Developments in Artificial Intelligence". Funding a Revolution: Government Support for Computing Research. National Academy Press.
- Newell, Allen; Simon, H. A. (1976). "Computer Science as Empirical Inquiry: Symbols and Search". Communications of the ACM. 19 (3): 113–126. doi:10.1145/360018.360022..
- Nilsson, Nils (1983). "Artificial Intelligence Prepares for 2001" (PDF). AI Magazine. 1 (1). Archived (PDF) from the original on 17 August 2020. Retrieved 22 August 2020. Presidential Address to the Association for the Advancement of Artificial Intelligence.
- Oudeyer, P-Y. (2010). "On the impact of robotics in behavioral and cognitive sciences: from insect navigation to human cognitive development" (PDF). IEEE Transactions on Autonomous Mental Development. 2 (1): 2–16. doi:10.1109/tamd.2009.2039057. S2CID 6362217. Archived (PDF) from the original on 3 October 2018. Retrieved 4 June 2013.
- Schank, Roger C. (1991). "Where's the AI". AI magazine. Vol. 12, no. 4.
- Searle, John (1980). "Minds, Brains and Programs" (PDF). Behavioral and Brain Sciences. 3 (3): 417–457. doi:10.1017/S0140525X00005756. Archived (PDF) from the original on 17 March 2019. Retrieved 22 August 2020.
- Searle, John (1999). Mind, language and society. New York: Basic Books. ISBN 978-0-465-04521-1. OCLC 231867665. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
- Simon, H. A. (1965). The Shape of Automation for Men and Management. New York: Harper & Row. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
- Solomonoff, Ray (1956). An Inductive Inference Machine (PDF). Dartmouth Summer Research Conference on Artificial Intelligence. Archived (PDF) from the original on 26 April 2011. Retrieved 22 March 2011 – via std.com, pdf scanned copy of the original. Later published as
Solomonoff, Ray (1957). "An Inductive Inference Machine". IRE Convention Record. Vol. Section on Information Theory, part 2. pp. 56–62. - Spadafora, Anthony (21 October 2016). "Stephen Hawking believes AI could be mankind's last accomplishment". BetaNews. Archived from the original on 28 August 2017.
- Tao, Jianhua; Tan, Tieniu (2005). Affective Computing and Intelligent Interaction. Affective Computing: A Review. Vol. LNCS 3784. Springer. pp. 981–995. doi:10.1007/11573548.
- Tecuci, Gheorghe (March–April 2012). "Artificial Intelligence". Wiley Interdisciplinary Reviews: Computational Statistics. 4 (2): 168–180. doi:10.1002/wics.200.
- Thro, Ellen (1993). Robotics: The Marriage of Computers and Machines. New York: Facts on File. ISBN 978-0-8160-2628-9. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
- Turing, Alan (October 1950), "Computing Machinery and Intelligence", Mind, LIX (236): 433–460, doi:10.1093/mind/LIX.236.433, ISSN 0026-4423, retrieved 2008-08-18
{{citation}}: نگهداری یادکرد:تاریخ و سال (link). - Vinge, Vernor (1993). "The Coming Technological Singularity: How to Survive in the Post-Human Era". Vision 21: Interdisciplinary Science and Engineering in the Era of Cyberspace: 11. Bibcode:1993vise.nasa...11V. Archived from the original on 1 January 2007. Retrieved 14 November 2011.
- Wason, P. C.; Shapiro, D. (1966). "Reasoning". In Foss, B. M. (ed.). New horizons in psychology. Harmondsworth: Penguin. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
- Weng, J.; McClelland; Pentland, A.; Sporns, O.; Stockman, I.; Sur, M.; Thelen, E. (2001). "Autonomous mental development by robots and animals" (PDF). Science. 291 (5504): 599–600. doi:10.1126/science.291.5504.599. PMID 11229402. S2CID 54131797. Archived (PDF) from the original on 4 September 2013. Retrieved 4 June 2013 – via msu.edu.
- منابع آزاد
این مقاله دربردارنده متونی از اثر محتوای آزاد است لیسانس تحت C-BY-SA 3.0 IGO. نوشته گرفته شده از UNESCO Science Report: the Race Against Time for Smarter Development., Schneegans, S. , T. Straza and J. Lewis (eds), یونسکو.
پیوند به بیرون
[ویرایش]- "Artificial Intelligence". Internet Encyclopedia of Philosophy.
- Thomason, Richmond. "Logic and Artificial Intelligence". In Zalta, Edward N. (ed.). Stanford Encyclopedia of Philosophy.
- Artificial Intelligence. BBC Radio 4 discussion with John Agar, Alison Adam & Igor Aleksander (In Our Time, Dec. 8, 2005).

