واحد بازگشتی دروازه‌ای: تفاوت میان نسخه‌ها

از ویکی‌پدیا، دانشنامهٔ آزاد
محتوای حذف‌شده محتوای افزوده‌شده
ایجاد شده به‌واسطهٔ ترجمهٔ صفحهٔ «Gated recurrent unit»
(بدون تفاوت)

نسخهٔ ‏۱۷ مارس ۲۰۲۲، ساعت ۰۰:۱۴

واحدهای بازگشتی دروازه‌ای (GRUs) یک مکانیسم دروازه‌ای در شبکه‌های عصبی بازگشتی هستند که در سال ۲۰۱۴ توسط کیونگهیون چو و همکارانش ایجاد شدند.[۱] واحد بازگشتی دروازه‌ای مانند یک حافظه طولانی کوتاه مدت (LSTM) با یک دروازه فراموشی کار می‌کند،[۲] اما پارامترهای کمتری نسبت به LSTM دارد، زیرا فاقد دروازه خروجی است.[۳] عملکرد GRU در برخی از وظایف مانند مدل‌سازی موسیقی چندصدایی، مدل‌سازی سیگنال گفتار و پردازش زبان طبیعی مشابه عملکرد LSTM است.[۴] [۵] GRUها عملکرد بهتری در مجموعه داده‌های کوچکتر و داده‌های کم‌بسامد دارند. [۶]

معماری

تغییرات مختلفی در واحد دروازه کامل وجود دارد، با استفاده از حالت مخفی قبلی و بایاس در ترکیب‌های مختلف، و یک شکل ساده به نام واحد حداقل دروازه‌ای.

اپراتور محصول هادامارد را در زیر نشان می دهد.

واحد تمام دروازه‌ای

واحد بازگشتی دردار، نسخه کاملاً دردار

در ابتدا، برای ، بردار خروجی عبارت است از .

متغیرها

  •  : بردار ورودی
  •  : بردار خروجی
  •  : بردار فعال‌سازی
  •  : بردار به روز رسانی
  •  : بردار ریست
  • ، و  : ماتریس پارامتر و بردار

توابع فعال سازی

از سایر توابع فعال‌سازی نیز می‌توان استفاده کرد مشروط بر اینکه .

نوع 1
نوع 2
نوع 3

با تغییر و می‌توان شکلهای دیگری از مدل را ایجاد کرد:[۷]

  • نوع اول، هر دروازه فقط به حالت پنهان قبلی و b بستگی دارد.
  • نوع دوم، هر دروازه فقط به حالت پنهان قبلی بستگی دارد.
  • نوع سوم، هر دروازه فقط با استفاده از b محاسبه می شود.

واحد حداقل دروازه‌ای

واحد حداقل دروازه‌ای مشابه واحد تمام دروازه‌ای است، به جز اینکه بردار به روز رسانی و ریست در یک دروازه فراموشی ادغام شده است.: [۸]

متغیرها

  •  : بردار ورودی
  •  : بردار خروجی
  •  : بردار فعال سازی
  •  : بردار فراموشی
  • ، و  : ماتریس های پارامتر و بردار

واحد تکراری تطبیقی محتوا

معماری کامل CARU. جهت جریان داده ها با فلش ها، توابع درگیر با مستطیل های زرد و گیت های مختلف (عملیات) با دایره های آبی نشان داده می شوند.

واحد تکراری تطبیقی محتوا یا Content Adaptive Recurrent Unit (CARU) گونه‌ای از GRU است که در سال ۲۰۲۰ توسط کاهو چان و همکاران وی ایجاد شد.[۹] CARU شامل گیت به روز رسانی مانند GRU است، اما به جای گیت ریست، یک گیت تطبیقی با محتوا معرفی می‌کند. CARU برای کاهش مشکل وابستگی طولانی مدت مدل‌های RNN طراحی شده است. CARU پارامترهای کمتری نسبت به GRU دارد و در مسائل پردازش زبانهای طبیعی عملکردش تنها قدری بهتر از GRU است.[۱۰]

در معادلات زیر، متغیرهای حروف کوچک نشان دهنده بردارها و پارامترهای مدل را نشان می دهد که لایه‌های خطی هستند که از وزن‌ها و بایاس‌ها تشکیل شده‌اند. در ابتدا، برای ، CARU مستقیماً بردارد را بر می‌گرداند; برای خروجی‌ها عبارتند از:

در اینجا اپراتور نشان دهنده ضرب هادامارد است، و و به ترتیب نشان‌دهنده تابع سیگموئید و هذلولی است.

منابع

  1. Cho, Kyunghyun; van Merrienboer, Bart; Bahdanau, DZmitry; Bengio, Yoshua (2014). "On the Properties of Neural Machine Translation: Encoder-Decoder Approaches". arXiv:1409.1259. {{cite journal}}: Cite journal requires |journal= (help)
  2. Felix Gers; Jürgen Schmidhuber; Fred Cummins (1999). "Learning to Forget: Continual Prediction with LSTM". Proc. ICANN'99, IEE, London. 1999: 850–855. doi:10.1049/cp:19991218. ISBN 0-85296-721-7.
  3. "Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano – WildML". 2015-10-27. Archived from the original on 2021-11-10. Retrieved May 18, 2016.
  4. Ravanelli, Mirco; Brakel, Philemon; Omologo, Maurizio; Bengio, Yoshua (2018). "Light Gated Recurrent Units for Speech Recognition". IEEE Transactions on Emerging Topics in Computational Intelligence. 2 (2): 92–102. arXiv:1803.10225. doi:10.1109/TETCI.2017.2762739.
  5. Su, Yuahang; Kuo, Jay (2019). "On extended long short-term memory and dependent bidirectional recurrent neural network". Neurocomputing. 356: 151–161. arXiv:1803.01686. doi:10.1016/j.neucom.2019.04.044.
  6. Gruber, N.; Jockisch, A. (2020), "Are GRU cells more specific and LSTM cells more sensitive in motive classification of text?", Frontiers in Artificial Intelligence, 3: 40, doi:10.3389/frai.2020.00040, PMC 7861254, PMID 33733157
  7. Dey. "Gate-Variants of Gated Recurrent Unit (GRU) Neural Networks". arXiv:1701.05923.
  8. Heck. "Simplified Minimal Gated Unit Variations for Recurrent Neural Networks". arXiv:1701.03452.
  9. Chan, Ka-Hou; Ke, Wei; Im, Sio-Kei (2020), Yang, Haiqin; Pasupa, Kitsuchart; Leung, Andrew Chi-Sing; Kwok, James T. (eds.), "CARU: A Content-Adaptive Recurrent Unit for the Transition of Hidden State in NLP", Neural Information Processing (به انگلیسی), Cham: Springer International Publishing, 12532: 693–703, doi:10.1007/978-3-030-63830-6_58, ISBN 978-3-030-63829-0, retrieved 2022-02-18
  10. Ke, Wei; Chan, Ka-Hou (2021-11-30). "A Multilayer CARU Framework to Obtain Probability Distribution for Paragraph-Based Sentiment Analysis". Applied Sciences (به انگلیسی). 11 (23): 11344. doi:10.3390/app112311344. ISSN 2076-3417.