پیش‌نویس:لایه (یادگیری عمیق)

از ویکی‌پدیا، دانشنامهٔ آزاد
مقایسه‌ی لایه‌ها در شبکه‌ی AlexNet با شبکه‌ی LeNet

یک لایه در مدل یادگیری عمیق یک ساختار یا توپولوژی شبکه در معماری مدل است که اطلاعات لایه‌های قبلی را گرفته و سپس به لایه بعدی منتقل می کند. چندین لایه معروف در یادگیری عمیق مانند لایه کانولوشن [۱] و لایه تجمعی حداکثر [۲] [۳] در شبکه عصبی کانولوشن وجود دارد. لایه کاملا متصل و لایه ReLU در شبکه عصبی وانیلی. لایه RNN در مدل RNN [۴] [۵] [۶] و لایه deconvolutional در رمزگذار خودکار و غیره.

هر لایه از گره‌هایی تشکیل شده است که از سلول‌های عصبی مغز ما تقلید می‌کنند. این گره‌ها از گره‌های لایه‌ی قبلی اطلاعات دریافت می‌کنند، آنها را در یک مقدار قابل تعیین (وزن) ضرب می‌کنند و سپس یک بایاس به آن اضافه می‌شود تا به لایه‌ی بعدی برسد. هر خط در شکل نشان‌دهنده‌ی یک وزن است. روش‌های مختلفی برای وزن مقداردهی این وزن‌ها وجود دارد.

به طور خلاصه، شبکه‌های عصبی اطلاعات را از لایه‌ی ورودی می‌گیرند، آنها را در لایه‌های پنهان پردازش می‌کنند و اطلاعات مورد نظر را در لایه‌ی خروجی تولید می‌کنند.

انواع لایه‌ها[ویرایش]

لایه‌های شبکه‌ی عصبی
  • لایه‌ی ورودی: لایه‌ای است که اطلاعات را برای پردازش شبکه عصبی وارد می‌کند. هر دایره نشان‌دهنده‌ی ۱ ویژگی (یک ستون) است.
  • لایه‌ی پنهان: این لایه‌ها تمام پردازش‌ها را برای شبکه‌های عصبی انجام می‌دهند. یک شبکه می‌تواند هر تعداد از این لایه‌ها داشته باشد. به طور کلی هرچه لایه‌های پنهان شبکه بیش‌تر باشد، شبکه عصبی دقیق‌تر خواهد بود ولی سرعت یادگیری و پردازش بیش‌تر خواهد بود.
  • لایه‌ی خروجی: این لایه به سادگی اطلاعات مربوط به آخرین لایه‌ی پنهان در ساختار شبکه عصبی را گرد هم می‌آورد تا تمام اطلاعات مورد نیاز شما به عنوان خروجی نمایش داده شود.

تفاوت با لایه‌های نئوکورتکس[ویرایش]

یک تفاوت ذاتی بین لایه‌بندی یادگیری عمیق و لایه‌بندی نئوکورتیکال وجود دارد؛ لایه‌بندی یادگیری عمیق به توپولوژی شبکه بستگی دارد، در حالی که لایه‌بندی نئوکورکیتال به همگنی لایه‌ها‌ی درونی بستگی دارد.

لایه‌ی متراکم[ویرایش]

لایه متراکم که به آن لایه کاملاً متصل نیز می‌گویند، به لایه‌ای اطلاق می‌شود که نورون‌های درون آن به هر نورون در لایه‌ی قبلی متصل می‌شوند. [۷] [۸] [۹] [۱۰]

منابع[ویرایش]

  1. Habibi, Aghdam, Hamed (2017-05-30). Guide to convolutional neural networks : a practical application to traffic-sign detection and classification. Heravi, Elnaz Jahani. Cham, Switzerland. ISBN 9783319575490. OCLC 987790957.
  2. Yamaguchi, Kouichi; Sakamoto, Kenji; Akabane, Toshio; Fujimoto, Yoshiji (November 1990). A Neural Network for Speaker-Independent Isolated Word Recognition. First International Conference on Spoken Language Processing (ICSLP 90). Kobe, Japan.
  3. Yamaguchi, Kouichi; Sakamoto, Kenji; Akabane, Toshio; Fujimoto, Yoshiji (November 1990). A Neural Network for Speaker-Independent Isolated Word Recognition. First International Conference on Spoken Language Processing (ICSLP 90). Kobe, Japan.
  4. Dupond, Samuel (2019). "A thorough review on the current advance of neural network structures". Annual Reviews in Control. 14: 200–230.
  5. Abiodun, Oludare Isaac; Jantan, Aman; Omolara, Abiodun Esther; Dada, Kemi Victoria; Mohamed, Nachaat Abdelatif; Arshad, Humaira (2018-11-01). "State-of-the-art in artificial neural network applications: A survey". Heliyon (به انگلیسی). 4 (11): e00938. doi:10.1016/j.heliyon.2018.e00938. ISSN 2405-8440. PMC 6260436. PMID 30519653.
  6. Tealab, Ahmed (2018-12-01). "Time series forecasting using artificial neural networks methodologies: A systematic review". Future Computing and Informatics Journal (به انگلیسی). 3 (2): 334–340. doi:10.1016/j.fcij.2018.10.003. ISSN 2314-7288.
  7. Géron, Aurélien (2019). Hands-on machine learning with Scikit-Learn, Keras, and TensorFlow : concepts, tools, and techniques to build intelligent systems. Sebastopol, CA: O'Reilly Media, Inc. p. 322 - 323. ISBN 978-1-4920-3264-9. OCLC 1124925244.
  8. "CS231n Convolutional Neural Networks for Visual Recognition". CS231n Convolutional Neural Networks for Visual Recognition. 10 May 2016. Retrieved 27 Apr 2021. Fully-connected layer: Neurons in a fully connected layer have full connections to all activations in the previous layer, as seen in regular Neural Networks.
  9. "Convolutional Neural Network. In this article, we will see what are… - by Arc". Medium. 26 Dec 2018. Retrieved 27 Apr 2021. Fully Connected Layer is simply, feed forward neural networks.
  10. "Fully connected layer". MATLAB. 1 Mar 2021. Retrieved 27 Apr 2021. A fully connected layer multiplies the input by a weight matrix and then adds a bias vector.

الگو:Comparison image neural networks.svg