کیو-یادگیری

از ویکی‌پدیا، دانشنامهٔ آزاد
تکنبک یادگیری تقویتی کیو_یادگیری به روس ریاضیاتی

کیو-یادگیری تکنیک یادگیری تقویتی است که با یادگیری یک تابع اقدام/مقدار، سیاست مشخصی را برای انجام حرکات مختلف در وضعیت‌های مختلف دنبال می‌کند. یکی از نقاط قوت این روش، توانایی یادگیری تابع مذکور بدون داشتن مدل معینی از محیط می‌باشد. اخیراً در این روش اصلاحی با نام کیو-یادگیری تأخیری انجام شده که بهبود قابل توجهی ایجاد نموده‌است. در روش اخیر یادگیری PAC با فراینده‌های تصمیم مارکوف ترکیب شده‌اند.[۱] کیو-یادگیری در تلاش است با توجه به شرایط فعلی، بهترین اقدامات را انجام دهد. این الگوریتم خارج‌از خط‌مشی در نظر گرفته می‌شود. چراکه، تابع کیو-یادگیری از اقداماتی خارج‌از خط‌مشی فعلی یادمی‌گیرد. به‌طور کلی می‌توان گفت که، کیو-یادگیری به‌دنبال یادگیری خط‌مشی است تا مجموع پاداش را بیشینه کند.[۲]

الگوریتم[ویرایش]

در اینجا مدل مسئله تشکیل شده از یک عامل، وضعیت‌ها یا حالت S و مجموعه از اقدامات یا عمل A برای هر وضعیت. با انجام یک اقدام ، عامل یا بازیگر از یک وضعیت به وضعیت بعدی حرکت کرده و هر وضعیت پاداشی به عامل می‌دهد. هدف عامل حداکثر کردن پاداش دریافتی کل خود است. این کار با یادگیری اقدام بهینه برای هر وضعیت انجام می‌گردد. الگوریتم دارای تابعی است که ترکیب حالت/اقدام را محاسبه می‌نماید:

قبل از شروع یادگیری، جدول کیو مقدار ثابتی را که توسط طراح انتخاب شده برمی‌گرداند. سپس هر بار که به عامل پاداش داده می‌شود، مقادیر جدیدی برای هر ترکیب وضعیت/اقدام محاسبه می‌گردد. هسته الگوریتم از یک بروز رسانی تکراری ساده تشکیل شده‌است. به این ترتیب که بر اساس اطلاعات جدید مقادیر قبلی اصلاح می‌شود.

که پاداش حالت و عمل است. نرخ یادگیری () ممکن است برای همه زوج‌ها یکسان باشد. مقدار عامل تخفیف بگونه است که

فرمول فوق معادل عبارت زیر است:

یک اپیزود الگوریتم وقتی به وضعیت نهایی می سد پایان می‌یابد. توجه کنید که برای همه وضعیت‌های نهایی و مربوطه هیچگاه بروز نمی‌شود و مقدار اولیه خود را حفظ می‌کند.

تأثیر متغیرها بر الگوریتم[ویرایش]

نرخ یادگیری[ویرایش]

این نرخ تعیین می‌کند که تا چه میزان اطلاعات به‌دست آمده جدید بر اطلاعات قدیمی ترجیح داده شود. مقدار صفر باعث می‌شود عامل چیزی یادنگیرد و مقدار یک باعث می‌شود عامل فقط اطلاعات جدید را ملاک قرار دهد.

عامل تخفیف[ویرایش]

عامل تخفیف به‌صورت مستقیم روی پاداش منتقل شده از محیط به بازیگر، تأثیر می‌گذارد

عامل تخفیف اهمیت پاداش‌های آینده را تعیین می‌کند. مقدار صفر باعث می‌شود عامل ماهیت فرصت طلبانه گرفته و فقط پاداش‌های فعلی را مد نظر قرار می‌دهد. در حالی که مقدار یک عامل را ترغیب می‌کند برای یک دوره زمانی طولانی برای پاداش تقلا کند. اگر این عامل، یک یا بیشتر از یک باشد مقادیر در جدول کیو واگرا می‌شود.

شرایط اولیه (Q_0)[ویرایش]

از آنجایی که یادگیری کیو یک الگوریتم تکرار شونده است، شرایط اولیه را به‌صورت شهودی فرض می‌کند و سپس بروزشدن‌ها از آن آغاز می‌شود. شرایط اولیه خوشبینانه باعث می‌شود خیلی سریع ماتریس کیو به یک مقدار مشخص همگرا شود و در مقایسه با شرایط اولیه تصادفی، به نتایج بهتری در زمان آموزش مدل خواهد رسید ولی در هنگام کارکردن با آن در داده‌های تست، این موضوع برقرار نیست.[۳]

کارایی عملی[ویرایش]

در ساده‌ترین شکل کیو-یادگیری از جداول برای ذخیره داده استفاده می‌شود. این روش با پیچیده شدن سیستم مورد نظر، به سرعت کارایی خود را از دست می‌دهد. یک راه حل استفاده از شبکه عصبی به عنوان تخمین‌گر تابع است. از این روش تسارو در بازی تخته نرد استفاده کرد.

تخمین‌گر تابع[ویرایش]

گاهی اوقات که فضای حالت ما بزرگ می‌شود یا به سمت پیوسته می‌رود، دیگر بصرفه نیست از ماتریس کیو معمولی استفاده کنیم، زیرا که اردر محاسباتی و فضا، بالا خواهد رفت. در این زمان‌ها ما از تخمین‌گر تابع استفاده می‌کنیم. یک راه برای تشکیل تخمین‌گر تابع، استفاده از شبکه عصبی مصنوعی است و راه دیگر، استفاده از قوانین فازی پراکنده خواهد بود.

هرچند ماتریس کیو گسسته، درک بیشتری برای انسان داشت، اما تخمینگر تابع سرعت پردازش را بهبود و اردر فضایی را کاهش می‌دهد زیرا در بعضی اوقات تجربیات قبلی را به تجربیات فعلی تعمیم می‌دهد.

گسسته سازی(Quantization)[ویرایش]

یک روش دیگر برای کاهش فضای حالت/عمل گسسته سازی فضا است. برای مثال بازی تعادل چوپ روی انگشت را درنظر بگیرید. در این بازی ما یک حالت را به وسیلهٔ موقعیت انگشت در فضا بر روی چوب، سرعت، زاویه چوب و سرعت زاویه ای مشخص می‌کنند. اما مشکل در این است که ممکن است بینهایت حالت وجود داشته باشد؛ مثلاً موقعیت انگشت در فضا بر روی چوب، از نقطهٔ شروع خود می‌تواند بینهایت فاصله ممکن داشته باشد. ما به وسیله گسسته سازی می‌توانیم حالت‌های نزدیک به هم را در یک دسته قرار دهیم و فضای حالت را محدود تر کنیم.

تاریخچه[ویرایش]

کیو-یادگیری اولین بار توسط واتکینز معرفی شد.[۴] in 1989. برهان همگرایی بعداً توسط واتکینز و دایان ارائه شد.[۵] in 1992.

واتکینز اولین بار در مقاله ای با عنوان «یادگیری از پاداش تاخیری» در رسالهٔ دکترایش به این موضوع اشاره کرد. هشت سال زودتر در سال ۱۹۸۱ مسئله ای با عنوان «یادگیری تقویتی تاخیری» توسط بولونسزکی حل شد.[۶][۷]

درسال۲۰۱۴ تیم گوگل دیپ مایند یادگیری کیو را با یادگیری عمیق ترکیب کرد و با نام «یادگیری عمیق کیو» منتشر کرد که می‌توانست بازی آتاری۳۶۰۰ را در سطح انسان بازی کند.[۸]

مشتقات[ویرایش]

یادگیری عمیق کیو[ویرایش]

یادگیری عمیق کیو

در یادگیری کیو معمولی، فقط اعداد داخل ماتریس اهمیت دارند زیرا فضای حالت محیط مارا مشخص می‌کنند، اما با بزرگتر شدن محیط مسئله، این نوع یادگیری کاربرد خود را از دست می‌دهد و نمی‌تواند در زمان معقول به جواب برسد. اینجا زمانی بود که تیم گوگل دیپ مایند، یادگیری عمیق کیو را وارد میدان کرد. در این الگوریتم به‌جای ماترس کیو اولیه، ما از یک شبکه عصبی استفاده می‌کنیم و هر اکشن را با توجه به خروجی شبکه عصبی پیش‌بینی می‌کنیم. این روش بر این قاعده توجیه می‌شود که مقادیر داخل ماتریس کیو، فقط اهمیت نسبی دارند و هرکدام جدا جدا تأثیر خاصی در مسئله ندارند.[۹][۱۰]

یادگیری دوگانه کیو[ویرایش]

همان‌طور که دیدیم، یادگیری کیو معمولی بر اساس تخمین پاداش در آینده عمل می‌کرد و اکشن مناسب را انتخاب می‌کرد. اما گاهی اوقات و به‌خصوص در مسائل نویزی، یادگیری کیو معمولی به سختی به جواب بهینه، همگرا می‌شوند و ممکن است در داخل یک حلقه تکرار شونده تا بی‌نهایت پیش روند و خیلی کند یا حتی هرگز به جواب بهینه برسند. در اینجا یادگیری کیو دوگانه این مشکل را حل می‌کند.[۱۱]

این روش، دو ماتریس کیو دارد که هردو به‌وسیلهٔ تجربیات مجزا و مستقل از یکدیگر آموزش دیده‌اند:

و

در هنگام اتخاذ تصمیم برا اساس ماتریس کیو، اگر یکی از این دو ماتریس به وسیلهٔ نویزها یا تغیرات تصادفی دچار مشکل شود، ماتریس دیگر این مشکل را حل می‌کند و الگوریتم به سمت همگرا شدن پیش خواهد رفت.

در سال ۲۰۱۵ نیز روش یادگیری دوگانه کیو با یادگیری عمیق کیو ترکیب شد و روشی جدید به نام یادگیری عمیق دوگانه کیو را به‌وجود آورد که برآیند دو روش ذکر شده در بالا هستند.[۱۲]

جستارهای وابسته[ویرایش]

یادگیری تقویتی

یادگیری تقویتی عمیق

استراتژی مین مکس

شبکه عصبی

پیوند به بیرون[ویرایش]

منابع[ویرایش]

  1. Alexander L. Strehl, Lihong Li, Eric Wiewiora, John Langford, and Michael L. Littman. Pac model-free reinforcement learning. In Proc. 23nd ICML 2006, pages 881–888, 2006.
  2. میلاد وزان، یادگیری عمیق: اصول، مفاهیم و رویکردها، میعاد اندیشه، 1399
  3. Shteingart, Hanan; Neiman, Tal; Loewenstein, Yonatan (2013). "The role of first impression in operant learning". Journal of Experimental Psychology: General (به انگلیسی). 142 (2): 476–488. doi:10.1037/a0029550. ISSN 1939-2222.
  4. Watkins, C.J.C.H. , (1989), Learning from Delayed Rewards. Ph.D. thesis, Cambridge University.
  5. Watkins and Dayan, C.J.C.H. , (1992), 'Q-learning.Machine Learning',
  6. https://books.google.com/books?id=clKwynlfZYkC&pg=PA320-325
  7. https://books.google.com/books?id=mGtQAAAAMAAJ&pg=PA397
  8. https://patentimages.storage.googleapis.com/71/91/4a/c5cf4ffa56f705/US20150100530A1.pdf
  9. «Deep Q-Learning». GeeksforGeeks (به انگلیسی). ۲۰۱۹-۰۶-۱۳. دریافت‌شده در ۲۰۲۳-۰۱-۰۶.
  10. Fan, Jianqing, et al. "A theoretical analysis of deep Q-learning." Learning for Dynamics and Control. PMLR, 2020.
  11. Hasselt, Hado (2010). "Double Q-learning". Advances in Neural Information Processing Systems. Curran Associates, Inc. 23.
  12. «نسخه آرشیو شده». بایگانی‌شده از اصلی در ۶ فوریه ۲۰۲۰. دریافت‌شده در ۶ ژانویه ۲۰۲۳.