تای (ربات)

از ویکی‌پدیا، دانشنامهٔ آزاد
تای
توسعه‌دهنده(ها)مؤسسه تحقیقاتی مایکروسافت، بینگ
در دسترس بهانگلیسی
نوعبات مکالمه هوش مصنوعی
مجوزمالکیتی
وبگاهhttps://tay.ai توسط Wayback Machine (بایگانی‌شده ۲۰۱۶-۰۳-۲۳)

تای (به انگلیسی: Tay) یک بات مکالمه هوش مصنوعی بود که در ابتدا توسط شرکت مایکروسافت از طریق توییتر در ۲۳ مارس ۲۰۱۶ منتشر شد. هنگامی که ربات شروع به ارسال توییت‌های تحریک آمیز و توهین آمیز از طریق حساب توییتر خود کرد، جنجال‌های بعدی را ایجاد کرد که باعث شد مایکروسافت تنها ۱۶ ساعت پس از عرضه این سرویس را خاموش کند.[۱] به گفتهٔ مایکروسافت، این امر توسط ترول‌هایی ایجاد شد که به این سرویس «حمله» کردند زیرا ربات بر اساس تعامل خود با افراد در توییتر پاسخ می‌داد.[۲] این ربات بعدها با زو جایگزین شد.

پیش‌زمینه[ویرایش]

این ربات توسط بخش فناوری و تحقیقات مایکروسافت و بخش بینگ[۳] ایجاد شد و نام «تای» به عنوان مخفف «فکر کردن دربارهٔ شما» (thinking about you) برای این ربات انتخاب شد.[۴] اگرچه مایکروسافت در ابتدا جزئیات کمی دربارهٔ این ربات منتشر کرد، اما منابع ذکر کردند که شبیه یا مبتنی بر شیائویس، یک پروژهٔ مشابه در چین است.[۵] ارز تکنیکا گزارش داد که از اواخر سال ۲۰۱۴، شیائویس «بیش از ۴۰ میلیون مکالمه که حادثهٔ بزرگی را در برنداشته» داشته‌است.[۶] تای برای تقلید از الگوهای زبانی یک دختر ۱۹ سالهٔ آمریکایی و یادگیری از تعامل با کاربران انسانی توییتر طراحی شده‌است.[۷]

اولین عرضه[ویرایش]

تای در ۲۳ مارس ۲۰۱۶ با نام کاربری TayTweets و آی‌دی TayandYou@ وارد توییتر شد.[۸] این ربات به‌عنوان «هوش مصنوعی با سرمای صفر» ارائه شد.[۹] تای شروع به پاسخ دادن به سایر کاربران توییتر کرد و همچنین توانست عکس‌های ارائه شده به آن را به شکلی از میم‌های اینترنتی شرح دهد.[۱۰] ارز تکنیکا گزارش داد که تای دارای «فهرست سیاه» است: در تعامل با تای «در مورد بعضی از موضوعات داغ مانند اریک گارنر (که توسط پلیس نیویورک در سال ۲۰۱۴ کشته شد) پاسخ‌های امن و مطمئنی دریافت می‌شود».[۶]

برخی از کاربران در توییتر شروع به توییت کردن عبارات نادرست سیاسی کردند و به آن پیام‌های تحریک آمیزی را آموزش دادند که دور موضوعات رایج در اینترنت مانند «قرص قرمز و قرص آبی» و «جنجال گیمرگیت» می‌چرخید. در نتیجه، ربات شروع به انتشار پیام‌های نژادپرستانه و لاس‌زنی در پاسخ به سایر کاربران توییتر کرد.[۷] رومن یامپولسکی، محقق هوش مصنوعی، اظهار داشت که رفتار نادرست تای قابل درک است زیرا او رفتار توهین آمیز عامدانهٔ سایر کاربران توییتر را تقلید می‌کند و مایکروسافت به ربات درک درستی از رفتار نامناسب نداده‌است. او این موضوع را با واتسون آی‌بی‌ام مقایسه کرد که پس از خواندن مدخل‌های وبگاه واژه‌نامه اربن، شروع به استفاده از فحش کرده بود.[۳][۱۱] بسیاری از توییت‌های تحریک‌آمیز تای، بهره‌برداری ساده از قابلیت «تکرار بعد از من» تای بود.[۱۲] به‌طور عمومی مشخص نیست که آیا قابلیت «تکرار بعد از من» یک ویژگی داخلی بود یا اینکه یک پاسخ آموخته شده بود یا در غیر این صورت نمونه ای از رفتار پیچیده بود.[۶] تمام پاسخ‌های التهابی تای شامل قابلیت «تکرار بعد از من» نبودند. به عنوان مثال، تای به سؤال «آیا هولوکاست اتفاق افتاد؟» پاسخ «ساخته شد» را داد.[۱۲]

تعلیق[ویرایش]

به زودی، مایکروسافت شروع به حذف توییت‌های تحریک آمیز تای کرد.[۱۲][۱۳] ابی اولهایزر از واشینگتن پست این نظریه را مطرح کرد که تیم تحقیقاتی تای، از جمله کارکنان تحریریه، در آن روز شروع به اثرگذاری یا ویرایش توییت‌های تای کرده‌اند و به نمونه‌هایی از پاسخ‌های تقریباً یکسان توسط تای اشاره می‌کنند و می‌نویسند که «گیمرگیت سوکس. تمام جنسیت‌ها برابرند و باید با آنها عادلانه رفتار شود».[۱۲] بر اساس همان شواهد، گیزمودو موافق بود که تای «به نظر می‌رسد سخت در رد گیمرگیت است».[۱۴] کمپین "#JusticeForTay" به ادعای ویرایش توییت‌های تای اعتراض کرد.[۱]

در عرض ۱۶ ساعت پس از انتشار[۱۵] و پس از اینکه تای بیش از ۹۶ هزار توییت ارسال کرد،[۱۶] مایکروسافت حساب توییتر آن را برای تعدیل به حالت تعلیق درآورد[۱۷] و گفت که از «حملهٔ هماهنگ شده توسط مجموعه‌ای از افراد» رنج می‌برد که «از یک آسیب پذیری در تای سوء استفاده کردند».[۱۷][۱۸]

مادومیتا مورگیا از دیلی تلگراف، تای را «یک فاجعهٔ روابط عمومی» خواند و افزود که استراتژی مایکروسافت این است که «برچسب زدن به این خرابکاری را آزمایشی خوب و اشتباه انجام داده و بحثی را در مورد نفرت کاربران توییتر ایجاد کند.» با این حال، مورگیا مشکل بزرگ‌تر تای را این دانست که «هوش مصنوعی در بدترین حالت خود است - و این تنها آغاز راه است».[۱۹]

در ۲۵ مارس، مایکروسافت تأیید کرد که تای آفلاین شده‌است. مایکروسافت در وبلاگ رسمی خود به دلیل توئیت‌های جنجالی ارسال شده توسط تای عذرخواهی کرد.[۱۸][۲۰] مایکروسافت «عمیقاً به خاطر توئیت‌های توهین‌آمیز و آسیب‌رسان ناخواستهٔ تای متاسف بود» و «تنها در زمانی به دنبال بازگرداندن تای هستیم که مطمئن باشیم بهتر می‌توانیم نیت مخربی را پیش‌بینی کنیم که با اصول و ارزش‌های ما در تضاد است».[۲۱]

دومین عرضه و خاموش شدن[ویرایش]

در ۳۰ مارس ۲۰۱۶، مایکروسافت به‌طور تصادفی این ربات را هنگام آزمایش آن در توییتر دوباره منتشر کرد.[۲۲] تای که توانست دوباره توییت کند، تعدادی توییت مرتبط با مواد مخدر منتشر کرد.[۲۳] با این حال، این حساب کاربری به زودی در یک حلقه مکرر توئیت «شما خیلی سریع هستید، لطفا استراحت کنید» چندین بار در ثانیه گیر کرد. از آنجایی که این توییت‌ها نام کاربری خود را در این فرایند ذکر کردند، در فیدهای بیش از ۲۰۰ هزار دنبال کنندهٔ توییتر ظاهر شدند و باعث آزار برخی‌ها شدند. ربات به سرعت دوباره آفلاین شد و حساب توییتر آن نیز خصوصی شد؛ به این معنا که دنبال کنندگان جدید قبل از تعامل با تای باید پذیرفته شوند. در پاسخ، مایکروسافت گفت تای به‌طور ناخواسته در طول آزمایش آنلاین شده‌است.[۲۴]

چند ساعت پس از این حادثه، توسعه‌دهندگان نرم‌افزار مایکروسافت چشم‌انداز «مکالمه به‌عنوان یک پلت‌فرم» را با استفاده از ربات‌ها و برنامه‌های مختلف اعلام کردند که احتمالاً به دلیل آسیب رساندن به شهرت توسط تای بود. مایکروسافت اعلام کرده‌است که قصد دارد تای را «به محض اینکه بتواند ربات را ایمن کند» را مجدداً منتشر کند[۴] اما تاکنون هیچ تلاش عمومی برای این کار انجام نداده‌است.

میراث[ویرایش]

در دسامبر ۲۰۱۶، مایکروسافت جانشین تای را منتشر کرد، یک بات مکالمه به نام زو.[۲۵] ساتیا نادلا، مدیرعامل مایکروسافت، گفت که تای «تأثیر زیادی بر نحوهٔ رویکرد مایکروسافت به هوش مصنوعی داشته‌است» و اهمیت مسئولیت پذیری را به شرکت آموزش داده‌است.[۲۶]

در ژوئیه ۲۰۱۹، دایانا کلی، مدیر ارشد فناوری مایکروسافت در زمینه امنیت سایبری دربارهٔ نحوهٔ پیگیری فرآیند شکست خوردن تای توسط شرکت گفت: «یادگیری از تای بخش واقعاً مهمی در گسترش پایگاه دانش آن تیم بود، زیرا اکنون آنها نیز تنوع خود را از طریق یادگیری به دست می‌آورند».[۲۷]

منابع[ویرایش]

  1. ۱٫۰ ۱٫۱ Wakefield, Jane. "Microsoft chatbot is taught to swear on Twitter". BBC News. Retrieved 25 March 2016.
  2. Mason, Paul (29 March 2016). "The racist hijacking of Microsoft's chatbot shows how the internet teems with hate". The Guardian. Retrieved 11 September 2021.
  3. ۳٫۰ ۳٫۱ Hope Reese (March 24, 2016). "Why Microsoft's 'Tay' AI bot went wrong". Tech Republic.
  4. ۴٫۰ ۴٫۱ Bass, Dina (30 March 2016). "Clippy's Back: The Future of Microsoft Is Chatbots". Bloomberg. Retrieved 6 May 2016.
  5. Caitlin Dewey (March 23, 2016). "Meet Tay, the creepy-realistic robot who talks just like a teen". The Washington Post.
  6. ۶٫۰ ۶٫۱ ۶٫۲ Bright, Peter (26 March 2016). "Tay, the neo-Nazi millennial chatbot, gets autopsied". Ars Technica. Retrieved 27 March 2016.
  7. ۷٫۰ ۷٫۱ Rob Price (March 24, 2016). "Microsoft is deleting its AI chatbot's incredibly racist tweets". Business Insider. Archived from the original on January 30, 2019.
  8. Andrew Griffin (March 23, 2016). "Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to". The Independent. Archived from the original on 2022-05-26.
  9. Horton, Helena. "Microsoft deletes 'teen girl' AI after it became a Hitler-loving, racial sex robot within 24 hours". The Daily Telegraph. Retrieved 25 March 2016.
  10. "Microsoft's AI teen turns into Hitler-loving Trump fan, thanks to the internet". Stuff. Retrieved 26 March 2016.
  11. Dave Smith. "IBM's Watson Gets A 'Swear Filter' After Learning The Urban Dictionary". International Business Times.
  12. ۱۲٫۰ ۱۲٫۱ ۱۲٫۲ ۱۲٫۳ Ohlheiser, Abby. "Trolls turned Tay, Microsoft's fun millennial AI bot, into a genocidal maniac". The Washington Post. Retrieved 25 March 2016.
  13. Baron, Ethan. "The rise and fall of Microsoft's 'Hitler-loving sex robot'". Silicon Beat. Bay Area News Group. Archived from the original on 25 March 2016. Retrieved 26 March 2016.
  14. Williams, Hayley. "Microsoft's Teen Chatbot Has Gone Wild". Gizmodo. Retrieved 25 March 2016.
  15. Hern, Alex (24 March 2016). "Microsoft scrambles to limit PR damage over abusive AI bot Tay". The Guardian.
  16. Vincent, James. "Twitter taught Microsoft's AI chatbot to be a racist asshole in less than a day". The Verge. Retrieved 25 March 2016.
  17. ۱۷٫۰ ۱۷٫۱ Worland, Justin. "Microsoft Takes Chatbot Offline After It Starts Tweeting Racist Messages". Time. Archived from the original on 25 March 2016. Retrieved 25 March 2016.
  18. ۱۸٫۰ ۱۸٫۱ Lee, Peter. "Learning from Tay's introduction". Official Microsoft Blog. Microsoft. Retrieved 29 June 2016.
  19. Murgia, Madhumita (25 March 2016). "We must teach AI machines to play nice and police themselves". The Daily Telegraph.
  20. Staff agencies (26 March 2016). "Microsoft 'deeply sorry' for racist and sexist tweets by AI chatbot". The Guardian (به انگلیسی). ISSN 0261-3077. Retrieved 26 March 2016.
  21. Murphy, David (25 March 2016). "Microsoft Apologizes (Again) for Tay Chatbot's Offensive Tweets". PC Magazine. Retrieved 27 March 2016.
  22. Graham, Luke (30 March 2016). "Tay, Microsoft's AI program, is back online". CNBC. Retrieved 30 March 2016.
  23. Charlton, Alistair (30 March 2016). "Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers". International Business Times. Retrieved 11 September 2021.
  24. Meyer, David (30 March 2016). "Microsoft's Tay 'AI' Bot Returns, Disastrously". Fortune. Retrieved 30 March 2016.
  25. Foley, Mary Jo (December 5, 2016). "Meet Zo, Microsoft's newest AI chatbot". CNET. CBS Interactive. Retrieved December 16, 2016.
  26. Moloney, Charlie (29 September 2017). ""We really need to take accountability", Microsoft CEO on the 'Tay' chatbot". Access AI. Archived from the original on 1 October 2017. Retrieved 30 September 2017.
  27. "Microsoft and the learnings from its failed Tay artificial intelligence bot". ZDNet. CBS Interactive. Archived from the original on 25 July 2019. Retrieved 16 August 2019.

پیوند به بیرون[ویرایش]