مدل سازنده

از ویکی‌پدیا، دانشنامهٔ آزاد

در دسته‌بندی آماری، دو روش اصلی به صورت روش سازنده و روش جداکننده نامیده می‌شوند. این دسته‌بندی‌کننده‌ها را با روش‌های گوناگونی که در درجه مدل‌سازی آماری متفاوت هستند، محاسبه می‌کنند. اصطلاحات در تناقض هستند، [الف] اما سه نوع اصلی را می‌توان متمایز کرد، به شکل زیر (Jebara 2004):

  1. الگوی سازنده یک مدل آماری از توزیع احتمال مشترک است بر روی متغیر قابل مشاهده داده شده X و متغیر هدف Y ;[۱]
  2. الگوی تمایزی مدلی از احتمال شرطی است از هدف Y, با توجه به مشاهده x ; و
  3. دسته‌بندی‌کننده‌هایی که بدون استفاده از یک مدل احتمال محاسبه می‌شوند، به‌طور بی قید به عنوان «متمایزکننده» شناخته می‌شوند.

تمایز بین این دو طبقه آخر به‌طور پیوسته انجام نشده‌است.[۲] (Jebara 2004) به این سه طبقه به عنوان یادگیری سازنده، یادگیری شرطی و یادگیری متمایز اشاره می‌کند، اما (Ng و Jordan 2002) فقط دو طبقه را متمایز می‌کنند و آنها را طبقه‌بندی کننده‌های سازنده (توزیع مشترک) و طبقه‌بندی کننده‌های متمایز (توزیع شرطی یا بدون توزیع) می‌نامند، عدم تفاوت بین دو طبقه آخر.[۳] به این ترتیب، طبقه‌بندی‌کننده بر پایه یک مدل سازنده، یک طبقه‌بندی کننده سازنده است، در حالی که طبقه‌بندی‌کننده مبتنی بر مدل تمایزی، یک طبقه‌بندی کننده متمایزکننده است، اگرچه این اصطلاح به طبقه‌بندی‌کننده‌هایی اشاره دارد که بر اساس مدل نیستند.

مثال‌های استاندارد از هر کدام که همه آن‌ها طبقه‌بندی کننده‌های خطی هستند عبارتند از:

در کاربرد طبقه‌بندی، فرد می‌خواهد از مسئله x به طبقه‌بندی y (یا توزیع احتمال روی طبقه‌ها) برود. می‌توان این را به‌طور مستقیم و بدون استفاده از توزیع احتمال (طبقه‌بندی کننده بدون توزیع) حساب کرد. با توجه به مسئله، می‌توان احتمال یک طبقه‌بندی و طبقه‌بندی بر اساس آن را حساب کرد، (مدل تمایزی)؛ یا می‌توان توزیع مشترک را ارزیابی کرد (مدل سازنده)، از آن احتمال شرطی و طبقه‌بندی بر اساس آن را می‌توان به دست آورد. این‌ها به شکل افزایشیی غیرمستقیم ولی احتمالی هستند، و اجازه می‌دهند علم حوزه و فرضیه احتمال بیشتری اجرا شود. در عمل براساس مسئله‌های خاص از روش‌های متفاوتی استفاده می‌شود و مخلوط‌ها می‌توانند نقاط قوت روش‌های گوناگون را ترکیب کنند.

تعریف[ویرایش]

یک بخش دیگر این موارد را به شکل متقارن به این شکل زیر تعریف می‌کند:

  • یک مدل سازنده مدلی از احتمال شرطی قابل مشاهده X است، یک هدف y معین می‌کند، به‌طور نمادین، [۴]
  • یک مدل متمایز مدلی از احتمال شرطی هدف Y است، با توجه به مسئله x، به‌طور نمادین، [۵]

با چشم پوشی از تعریف دقیق، این اصطلاح قانونمند است زیرا یک مدل سازنده می‌تواند برای «تولید» نمونه‌های تصادفی ( نتیجه‌ها) از یک مشاهده و هدف استفاده کند. یا یک مشاهده x با مقدار هدف y ،[۴] در حالی که یک مدل متمایز یا طبقه‌بندی کننده تمایزی (بدون مدل) می‌تواند برای «تمایز» مقدار متغیر هدف Y با مشاهده x استفاده شود.[۵] تفاوت بین " تمایز" (متمایز کردن) و " طبقه بندی " نامحسوس است و اینها به‌طور مداوم از هم متمایز نمی‌شوند. (اصطلاح «طبقه‌بندی‌کننده متمایزکننده» زمانی تبدیل به یک حرف بی‌مورد می‌شود که «تبعیض» معادل «طبقه‌بندی» باشد)

اصطلاح «مدل سازنده» همچنین برای توصیف مدل‌هایی استفاده می‌شود که نمونه‌هایی از متغیرهای خروجی را تولید می‌کنند به طوری که هیچ رابطه دقیقی با توزیع احتمال بر روی نمونه‌های پنهانی متغیرهای ورودی ندارد. شبکه‌های رقابتی سازنده نمونه‌هایی از این دسته از مدل‌های سازنده هستند و اساساً با شباهت خروجی‌های خاص به ورودی‌های پنهانی تشخیص داده می‌شوند. چنین مدل‌هایی طبقه‌بندی کننده نیستند.

روابط بین مدل‌ها[ویرایش]

در کاربرد طبقه‌بندی، X قابل مشاهده اغلب یک متغیر پیوسته‌است، Y هدف معمولاً یک متغیر گسسته شامل مجموعه‌ای محدود از طبقه‌بندی و احتمال شرطی است. همچنین می‌تواند به عنوان یک تابع هدف (غیر قطعی) تعریف شود ، X را به عنوان ورودی و Y را به عنوان خروجی در نظر می‌گیریم.

با توجه به مجموعه محدودی از طبقه‌ها، دو تعریف «مدل سازنده» ارتباط نزدیکی با هم دارند. مدلی از توزیع شرطی مدلی از توزیع هر طبقه است و مدل توزیع مشترک معادل مدلی از توزیع مقدارهای طبقه است. ، همراه با توزیع مشاهداتی که یک طبقه داده‌است،  ; به صورت نمادین، . بنابراین، در حالی که یک مدل از توزیع احتمال مشترک پرمعنی تر از مدل توزیع طبقه است (اما بدون وفور نسبی آنها)، این یک گام نسبتاً کوچک است، به همین خاطر اینها همیشه متمایز نیستند.

یادداشت‌ها[ویرایش]

  1. Three leading sources, Ng & Jordan 2002, Jebara 2004, and Mitchell 2015, give different divisions and definitions.

منابع[ویرایش]

  1. (Ng و Jordan 2002): "Generative classifiers learn a model of the joint probability, , of the inputs x and the label y, and make their predictions by using Bayes rules to calculate , and then picking the most likely label y.
  2. Jebara 2004: "This distinction between conditional learning and discriminative learning is not currently a well established convention in the field."
  3. Ng & Jordan 2002: "Discriminative classifiers model the posterior directly, or learn a direct map from inputs x to the class labels."
  4. ۴٫۰ ۴٫۱ Mitchell 2015: "We can use Bayes rule as the basis for designing learning algorithms (function approximators), as follows: Given that we wish to learn some target function , or equivalently, , we use the training data to learn estimates of and . New X examples can then be classified using these estimated probability distributions, plus Bayes rule. This type of classifier is called a generative classifier, because we can view the distribution as describing how to generate random instances X conditioned on the target attribute Y.
  5. ۵٫۰ ۵٫۱ Mitchell 2015: "Logistic Regression is a function approximation algorithm that uses training data to directly estimate , in contrast to Naive Bayes. In this sense, Logistic Regression is often referred to as a discriminative classifier because we can view the distribution as directly discriminating the value of the target value Y for any given instance X