یادگیری بی‌نظارت

از ویکی‌پدیا، دانشنامهٔ آزاد

یادگیری بدون نظارت نوعی یادگیری ماشینی است که به دنبال الگوهای قبلاً کشف نشده در یک مجموعه داده بدون برچسب قبلی و با حداقل نظارت بر انسان است. بر خلاف یادگیری تحت نظارت که معمولاً از داده های دارای برچسب انسانی استفاده می شود ، یادگیری بدون نظارت ، همچنین به عنوان خودسازمانی شناخته می شود ، امکان مدل سازی تراکم احتمال را نسبت به ورودی ها فراهم می کند. این یکی از سه دسته اصلی یادگیری ماشین است ،که همراه با یادگیری تحت نظارت و تقویت یادگیری است . یادگیری نیمه نظارت شده ، یک نوع مرتبط ، از تکنیک های نظارت شده و بدون نظارت استفاده می کند.

دو روش اصلی که در یادگیری بدون نظارت استفاده می شود ، تحلیل مولفه های اصلی و تحلیل مولفه های خوشه ای است . تجزیه و تحلیل خوشه ای در یادگیری بدون نظارت برای گروه بندی یا تقسیم بندی مجموعه داده ها با ویژگی های مشترک به منظور برون یابی روابط الگوریتمی استفاده می شود. [۱] تجزیه و تحلیل خوشه ای شاخه ای از یادگیری ماشین است که داده هایی را که برچسب گذاری یا طبقه بندی نشده اند را گروه بندی می کند. تجزیه و تحلیل خوشه ای به جای پاسخ دادن به بازخورد ، نقاط مشترک داده ها را شناسایی می کند و بر اساس وجود یا عدم وجود چنین اشتراکاتی در هر قطعه جدید از داده ها واکنش نشان می دهد. این روش کمک می کند تا نقاط داده های غیرعادی که در هر دو گروه نمی گنجد ، شناسایی شود.

تنها لازمه ای که می توان آن را استراتژی یادگیری بدون نظارت نامید ، یادگیری فضای جدیدی است که با به حداکثر رساندن برخی از عملکردهای هدف یا با به حداقل رساندن برخی از عملکردهای از دست رفته ، ویژگی های فضای اصلی را به تصویر می کشد. بنابراین ، تولید یک ماتریس کوواریانس یادگیری بدون نظارت نیست ، اما در نظر گرفتن بردارهای ویژه ماتریس کوواریانس به این دلیل است که عملیات ترکیب جبر خطی ، واریانس را به حداکثر می رساند. این به عنوان تجزیه و تحلیل مولفه های اصلی شناخته می شود. [۲] به همین ترتیب ، ورود به سیستم یک مجموعه داده یادگیری بدون نظارت نیست ، اما انتقال داده های ورودی از طریق چندین توابع سیگموئید در حالی که برخی از عملکردهای فاصله را بین داده های تولید شده و حاصل از آن به حداقل می رساند ، شناخته می شود و به عنوان خودرمزگذار شناخته می شود.

یک کاربرد اصلی یادگیری بدون نظارت در زمینه برآورد تراکم در آمار است ، اگرچه یادگیری بدون نظارت بسیاری از حوزه های دیگر را شامل می شود که شامل جمع بندی و توضیح ویژگی های داده می باشد. این می تواند با یادگیری نظارت شده در تقابل باشد با گفتن اینکه یادگیری تحت نظارت قصد دارد یک توزیع احتمال مشروط را استنباط کند که مشروط به برچسب از داده های ورودی می باشد. یادگیری بدون نظارت قصد دارد یک توزیع احتمالات پیشینی را استنتاج کند .

شبکه های خصمانه تولیدی را نیز می توان با یادگیری نظارت شده استفاده کرد ، اگرچه می توان آنها را برای تکنیک های بدون نظارت و تقویت نیز به کار برد.

رویکردها[ویرایش]

برخی از متداول ترین الگوریتم های مورد استفاده در یادگیری بدون نظارت عبارتند از: (1) خوشه بندی ، (2) تشخیص ناهنجاری ، (3) شبکه های عصبی ، و (4) رویکردهایی برای یادگیری مدل های متغیر پنهان. هر رویکرد از چندین روش به شرح زیر استفاده می کند:

شبکه های عصبی[ویرایش]

مثال کلاسیک برای یادگیری بی نظارت در مطالعه شبکه های عصبی ، اصل دونالد هب است ، یعنی نورونهایی که بهم متصل می شوند و با هم شلیک می شوند. در یادگیری Hebbian ، صرف نظر از خطا ، اتصال تقویت می شود ، اما منحصرا تابعی از همزمانی بین پتانسیل های عمل بین دو نورون است. [۴] نسخه مشابهی که وزن های سیناپسی را اصلاح می کند ، زمان بین پتانسیل های عمل ( پلاستیک وابسته به زمان سنبله یا STDP) را در نظر می گیرد. فرضیه یادگیری Hebbian این است که زیربنای طیف وسیعی از عملکردهای شناختی مانند شناخت الگو و یادگیری تجربی است.

در میان مدلهای شبکه عصبی ، از نقشه خودسازمانده (SOM) و تئوری تشدید تطبیقی (ART) معمولاً در الگوریتمهای یادگیری بی نظارت استفاده می شود. SOM سازمانی توپوگرافی است که در آن مکانهای نزدیک به نقشه ورودیهای دارای خصوصیات مشابه را نشان می دهد. مدل ART به تعداد خوشه ها اجازه می دهد تا با اندازه مسئله متفاوت باشند و به کاربر اجازه می دهد با یک ثابت تعریف شده توسط کاربر به نام پارامتر هوشیاری ، میزان شباهت بین اعضای همان خوشه ها را کنترل کند. شبکه های ART برای بسیاری از وظایف تشخیص الگو مانند شناسایی خودکار هدف و پردازش سیگنال لرزه ای استفاده می شود. [۵]

روش لحظه ها[ویرایش]

یکی از رویکردهای آماری برای یادگیری بدون نظارت ، روش لحظه ها است . در روش لحظه ها،پارامترهای ناشناخته (مورد نظر) در مدل مربوط به لحظه های یک یا چند متغیر تصادفی است و بنابراین این پارامترهای ناشناخته را می توان با توجه به لحظه ها تخمین زد. لحظه ها معمولاً به صورت تجربی از نمونه ها برآورد می شود. لحظات اساسی لحظه های مرتبه اول و دوم هستند. برای یک بردار تصادفی ، لحظه مرتبه اول بردار میانگین است و لحظه مرتبه دوم ماتریس کوواریانس است (وقتی میانگین صفر است). لحظه های مرتبه بالاتر معمولاً با استفاده از تنسورهایی است که تعمیم ماتریس ها به مرتبه های بالاتر به عنوان آرایه های چند بعدی هستند ، نمایش داده می شوند.

به طور خاص ، روش لحظه ها در یادگیری پارامترهای مدل های متغیر پنهان مؤثر نشان داده شده است. [۶] مدلهای متغیر پنهان مدلهای آماری هستند که در آن ها علاوه بر متغیرهای مشاهده شده ، یک مجموعه از متغیرهای پنهان نیز وجود دارد که مشاهده نمی شود. یک نمونه کاملاً کاربردی از مدل های متغیر پنهان در یادگیری ماشین ،مدل سازی موضوع است که یک مدل آماری برای تولید کلمات (متغیرهای مشاهده شده)در سند بر اساس موضوع (متغیر پنهان) سند است.در مدل سازی موضوع،کلمات موجود در سند با توجه به پارامترهای آماری متفاوت هنگامی که موضوع سند تغییر می کند تولید می شوند. نشان داده شده است که روش لحظه ها(تکنیک های تجزیه تنسور) به طور مداوم پارامترهای یک طبقه بزرگ از مدل های متغیر پنهان را تحت برخی فرضیات بازیابی می کند.

الگوریتم امید ریاضی - حداکثر سازی (EM) نیز یکی از کاربردی ترین روش ها برای یادگیری مدل های متغیر پنهان است. با این حال ، می تواند در اپتیمای محلی گیر کند و تضمین نمی شود که این الگوریتم به پارامترهای ناشناخته واقعی در مدل همگرا شود. در متقابلا ، برای روش لحظه ها ، همگرایی جهانی تحت برخی شرایط تضمین می شود. [۶]

جستارهای وابسته[ویرایش]

منابع[ویرایش]

  1. Roman, Victor (2019-04-21). "Unsupervised Machine Learning: Clustering Analysis". Medium. Retrieved 2019-10-01.
  2. Snow, Dr Derek (2020-03-26). "Machine Learning in Asset Management: Part 2: Portfolio Construction—Weight Optimization". Journal of Financial Data Science. doi:10.3905/jfds.2020.1.029 (inactive 2020-10-10). Retrieved 2020-05-16.
  3. Garbade, Dr Michael J. (2018-09-12). "Understanding K-means Clustering in Machine Learning". Medium. Retrieved 2019-10-31.
  4. Comesaña-Campos, Alberto; Bouza-Rodríguez, José Benito (June 2016). "An application of Hebbian learning in the design process decision-making". Journal of Intelligent Manufacturing. 27 (3): 487–506. doi:10.1007/s10845-014-0881-z. ISSN 0956-5515.
  5. Carpenter, G.A.; Grossberg, S. (1988). "The ART of adaptive pattern recognition by a self-organizing neural network" (PDF). Computer. 21 (3): 77–88. doi:10.1109/2.33. Archived from the original (PDF) on 16 May 2018. Retrieved 10 December 2020.
  6. ۶٫۰ ۶٫۱ Anandkumar, Animashree; Ge, Rong; Hsu, Daniel; Kakade, Sham; Telgarsky, Matus (2014). "Tensor Decompositions for Learning Latent Variable Models" (PDF). Journal of Machine Learning Research. 15: 2773–2832. arXiv:1210.7559. Bibcode:2012arXiv1210.7559A.

پیوند به بیرون[ویرایش]

نام کاربری:CSF828