پیچیدگی نمونه

از ویکی‌پدیا، دانشنامهٔ آزاد
پرش به ناوبری پرش به جستجو

پیچیدگی نمونه یک الگوریتم یادگیری ماشین، برابر است با تعداد نمونه‌های یادگیری که برای موفقیت الگوریتم لازم است. به صورت دقیق‌تر، پیچیدگی نمونه برابر است با حداقل تعداد نمونه‌های لازم، تا تابع خروجی الگوریتم با احتمالی نزدیک به «یک» در فاصله‌ای نزدیک به «صفر» از تابع هدف قرار گیرد. پیچیدگی نمونه به دو صورت در نظر گرفته می‌شود:

  • نوع ضعیف؛ که در آن فرضی روی توزیع احتمال ورودی و خروجی در نظر گرفته می‌شود.
  • نوع قوی؛ که در آن فرضی روی توزیع احتمال ورودی و خروجی الگوریتم گذاشته نمی‌شود.

طبق قضیه از ناهار مجانی خبری نیست می‌دانیم که در حالت کلی، پیچیدگی نمونه نوع قوی بی‌نهایت است. به عبارت دیگر هیچ الگوریتم یادگیری‌ای وجود ندارد که بتواند با تعداد محدودی نمونه هر تابع هدفی را یاد بگیرد. به‌هرحال اگر خود را به توابع خاصی مانند توابع خطی یا توابع دودویی محدود کنیم؛ پیچیدگی نمونه محدود است و به بعد وی‌سی مربوط می‌شود.[۱]

تعریف[ویرایش]

اگر را مجموعه ورودی‌های ممکن و را مجموعه خروجی‌های ممکن در نظر بگیریم، را به صورت ضرب دکارتی این دو مجموعه تعریف می‌کنیم. برای مثال برای مسئله دسته‌بندی دو‎کلاسه، یک فضای برداری متناهی و برابر با مجموعه است.

را مجموعه‌ای از توابع که است در نظر می‌گیریم. یک الگوریتم یادگیری عبارت‌است از تابعی از به . به‌عبارت دیگر یک الگوریتم یادگیری تعداد محدودی از نمونه‌های یادگیری را دریافت می‌کند و یک تابع را به عنوان خروجی برمی‌گرداند. یک تابع هزینه را در نظر می‌گیریم، برای مثال این تابع می‌تواند تابع هزینه خطای مربعات باشد. برای یک توزیع احتمال داده‌شده روی متوسط خطای تابع ، که یکی از اعضای کلاس فرضیه است، به صورت زیر تعریف می‌شود.

داده‌های آموزشی یک دنباله تایی از زوج مرتب‌های به صورت تشکیل می‌دهند، که تمامی آن‌ها به صورت یکسان و مستقل از توزیع نمونه‌برداری شده‌اند. یک الگوریتم یادگیری به هر دنباله از داده‌های آموزشی یکی از اعضای کلاس فرضیه را نسبت می‌دهد. کمینه خطای کلاس فرضیه به صورت زیر تعریف می‌شود.

را خروجی الگوریتم به‌ازای داده‎های آموزشی در نظر می‌گیریم( یک متغیر تصادفی است که به متغیر تصادفی که از توزیع نمونه‌برداری شده‌است بستگی دارد). به الگوریتم ، قاطع گفته می‌شود اگر به صورت احتمالی به میل کند. به‌عبارت دیگر به ازای هر و عدد صحیح و مثبتی مانند وجود داشته‌باشد که به‌ازای هر داشته‌باشیم

به‌ازای هر الگوریتم یادگیری و داده شده، پیچیدگی نمونه، را کمترین مقدار تعریف می‌کنیم که رابطه بالا به‌ازای آن درست باشد. اگر الگوریتم قاطع نباشد، آن‌گاه ، هم‌چنین اگر الگوریتمی مانند وجود داشته باشد که عددی محدود باشد، می‌گوییم کلاس فرضیه قابل یادگیری است.[۲]

یادگیری احتمالاً تقریباً صحیح و پیچیدگی نمونه[ویرایش]

فضای فرضیه، فرضیه‌های سازگار، فرضیه‌های سازگار با خطای بالا

پیچیدگی نمونه نشان‌دهنده میزان قاطعیت یک الگوریتم است، یعنی به ازای میزان دقت داده‌شده و میزان اطمینان داده‌شده الگوریتم به حداقل نمونه آموزشی نیاز دارد تا بتواند با احتمال حداقل ، خروجی‌ای با خطایی کمتر از تولید کند. در مدل یادگیری احتمالاً تقریباً صحیح پیچیدگی نمونه باید تابعی چند جمله‌ای از و باشد. به عبارت دیگر باید داشته باشیم:[۳]

کرانی برای پیچیدگی نمونه فضای فرضیه متناهی[ویرایش]

اگر یک مجموعه متناهی از فرضیه‌ها باشد و مجموعه آموزشی به صورت یکسان و مستقل از توزیع نمونه برداری شده باشد آنگاه به‌ازای هر و اگر الگوریتم یکی از فرضیه‌های سازگار را به عنوان خروجی تولید کند(فرضیه‌ای سازگار است که روی تمام نمونه‌های آموزشی با تابع هدف یکسان باشد) آنگاه

اثبات[ویرایش]

می‌دانیم که فرضیه سازگار است بنابراین

با توجه به نابرابری بول می‌دانیم که:

بنابراین:

[۴]

منابع[ویرایش]

  1. Vapnik, Vladimir (1998), Statistical Learning Theory, New York: Wiley.
  2. Rosasco, Lorenzo (2014), Consistency, Learnability, and Regularization, Lecture Notes for MIT Course 9.520.
  3. M.Mitchell, Tom (1997). Machine Learning. p. 206.
  4. M.Mitchell, Tom (1997). Machine Learning. p. 209.