طبقه‌بندی آماری

از ویکی‌پدیا، دانشنامهٔ آزاد
(تغییرمسیر از طبقه بندی)
طبقه‌بندی دایره‌های توپر و توخالی با الگوریتم اس وی ام

فارسی یادگیری ماشینی و آمار، رده‌‎بندی[۱] (به انگلیسی: Classification) یا طبقه‌بندی مسئلهٔ شناسایی تعلق یک مشاهده جدید به کدام یک از مجموعه دسته‌ها (زیر-جمعیت‌ها)، بر اساس یک مجموعه از داده‌های مورد استفاده به منظور آموزش شامل مشاهدات است که عضویت در دسته هایشان معلوم است.[۲] در اصطلاح یادگیری ماشین، طبقه‌بندی نوعی یادگیری با نظارت است، که مجموعه‌ای داده‌ها برای آموزش موجودند. برای نمونه طبقه‌بندی ایمیل‌ها به اسپم و غیراسپم یک طبقه‌بندی با دو دسته است. اگر الگوریتمی بخواهد ایمیل‌های دریافت‌شده را طبقه بندی کند هر ایمیل به کلاس اسپم یا غیراسپم تعلق خواهد داشت. این نمونه‌ای از یک طبقه‌بندی دودویی است.[۳] در مقابل طبقه‌بندی دودویی، طبقه‌بندی چندکلاسه قرار دارد (برای نمونه تشخیص یک عدد بین ٠ تا ٩ از روی تصویر نه کلاس دارد). طبقه‌بندی‌های چندکلاسه معمولا دشوارتر از طبقه‌بندی دودویی هستند.[۳][۴]

الگوریتمی که طبقه‌بندی را اجرا می‌کند، به‌ویژه در یک پیاده‌سازی بتن، به‌عنوان یک طبقه‌بندی شناخته می‌شود. اصطلاح «طبقه‌بند» گاهی اوقات به تابع ریاضی پیاده‌سازی شده توسط یک الگوریتم طبقه‌بندی نیز اشاره دارد که داده‌های ورودی را به یک دسته نگاشت می‌کند.

اصطلاحات در زمینه‌ها کاملاً متنوع است. در آمار، جایی که طبقه‌بندی اغلب با رگرسیون لجستیک یا رویه‌های مشابه انجام می‌شود، ویژگی‌های مشاهدات را متغیرهای توضیحی (یا متغیرهای مستقل، رگرسیون‌ها و غیره) می‌نامند، و دسته‌هایی که باید پیش‌بینی شوند به‌عنوان پیامدها شناخته می‌شوند که به‌عنوان مقادیر ممکن متغیر وابسته باشد، در نظر گرفته می‌شوند. در یادگیری ماشینی، مشاهدات اغلب به‌عنوان نمونه شناخته می‌شوند. متغیرهای توضیحی ویژگی‌ها نامیده می‌شوند (در یک بردار ویژگی گروه‌بندی می‌شوند)، و دسته‌های احتمالی قابل پیش‌بینی کلاس‌ها هستند. سایر زمینه‌ها ممکن است از اصطلاحات مختلفی استفاده کنند: به‌عنوان مثال در بوم‌شناسی جامعه، اصطلاح «طبقه‌بندی» معمولاً به تجزیه و تحلیل خوشه‌ای اشاره دارد.

ارتباط با مشکلات دیگر[ویرایش]

طبقه‌بندی و خوشه‌بندی نمونه‌هایی از مشکل کلی‌تر تشخیص الگو هستند که تخصیص نوعی مقدار خروجی به یک مقدار ورودی داده‌شده است. نمونه‌های دیگر رگرسیون هستند که یک خروجی با ارزش واقعی به هر ورودی اختصاص می‌دهد. برچسب گذاری توالی که به هر عضو یک دنباله از مقادیر یک کلاس اختصاص می‌دهد (به‌عنوان مثال، بخشی از برچسب زدن گفتار، که بخشی از گفتار را به هر کلمه در یک جمله ورودی اختصاص می‌دهد). تجزیه که درخت تجزیه را به یک جملهٔ ورودی اختصاص می‌دهد و ساختار نحوی جمله را توصیف می‌کند؛ و غیره.

یک زیر کلاس رایج طبقه‌بندی، طبقه‌بندی احتمالی است. الگوریتم‌هایی با این ماهیت از استنتاج آماری برای یافتن بهترین کلاس برای یک نمونه معین استفاده می‌کنند. بر خلاف سایر الگوریتم‌ها، که به سادگی یک کلاس «بهترین» را ارائه می‌دهند، الگوریتم‌های احتمالی احتمال عضوی از هر یک از کلاس‌های ممکن را به‌دست می‌آورند. بهترین کلاس معمولاً به‌عنوان کلاس با بالاترین احتمال انتخاب می‌شود. با این حال، چنین الگوریتمی مزایای متعددی نسبت به طبقه‌بندی‌کننده‌های غیراحتمالی دارد:

  • می‌تواند یک مقدار اطمینان مرتبط با انتخاب خود را خروجی دهد (به‌طور کلی، طبقه‌بندی‌کننده‌ای که بتواند این کار را انجام دهد به‌عنوان طبقه‌بندی‌کننده با وزن اطمینان شناخته می‌شود).
  • به همین ترتیب، زمانی که اعتمادش به انتخاب یک خروجی خاص خیلی کم باشد، می‌تواند خودداری کند.
  • به دلیل احتمالات ایجادشده، طبقه‌بندی‌کننده‌های احتمالی را می‌توان به‌طور مؤثرتری در وظایف بزرگ‌تر یادگیری ماشینی گنجاند، به گونه‌ای که تا حدی یا به‌طور کامل از مشکل انتشار خطا جلوگیری کرد.

رویه‌های مکرر[ویرایش]

کار اولیه بر روی طبقه‌بندی آماری توسط فیشر انجام شد،[۵][۶] در زمینهٔ مسائل دو گروهی، که منجر به تابع تفکیک خطی فیشر به‌عنوان قاعده‌ای برای اختصاص یک گروه به یک مشاهدهٔ جدید شد. [۷] در این کار اولیه فرض شد که مقادیر داده در هر یک از دو گروه دارای یک توزیع نرمال چندمتغیره است. گسترش همین زمینه به بیش از دو گروه نیز با محدودیتی که قاعدهٔ طبقه‌بندی باید خطی باشد در نظر گرفته شده‌است.[۷][۸] کار بعدی برای توزیع نرمال چندمتغیره باعث شد طبقه‌بندی‌کننده غیرخطی باشد:[۹] چندین قانون طبقه‌بندی را می‌توان بر اساس تنظیمات مختلف فاصله ماهالانوبیس استخراج کرد، با مشاهدهٔ جدیدی که به گروهی که مرکز آن کمترین فاصلهٔ تنظیم‌شده را با مشاهده دارد، اختصاص داد.

رویه‌های بیزی[ویرایش]

بر خلاف رویه‌های مکرر، روش‌های طبقه‌بندی بیزی روشی طبیعی برای در نظر گرفتن هرگونه اطلاعات موجود دربارهٔ اندازه‌های نسبی گروه‌های مختلف در کل جمعیت ارائه می‌کند.[۱۰] رویه‌های بیزی از نظر محاسباتی گران هستند و در روزهای قبل از توسعهٔ محاسبات زنجیره‌ای مارکوف مونت کارلو، تقریبی‌هایی برای قوانین خوشه‌بندی بیزی ابداع شد.[۱۱]

برخی از رویه‌های بیزی شامل محاسبهٔ احتمال عضویت در گروه می‌شوند: این روش‌ها نتیجهٔ آموزنده‌تری را نسبت به نسبت دادن سادهٔ یک برچسب گروهی به هر مشاهدهٔ جدید ارائه می‌دهند.

طبقه‌بندی دودویی و چندکلاسه[ویرایش]

طبقه‌بندی را می‌توان به‌عنوان دو مشکل جداگانه در نظر گرفت. طبقه‌بندی باینری و طبقه‌بندی چندطبقه. در طبقه‌بندی باینری، وظیفه‌ای که بهتر درک می‌شود، فقط دو کلاس درگیر هستند، در حالی که طبقه‌بندی چندکلاسه شامل تخصیص یک شیئ به یکی از چندین کلاس است. از آنجایی که بسیاری از روش‌های طبقه‌بندی به‌طور خاص برای طبقه‌بندی باینری توسعه یافته‌اند، طبقه‌بندی چندکلاسه اغلب به استفادهٔ ترکیبی از طبقه‌بندی‌کننده‌های دودویی متعدد نیاز دارد.

بردارهای ویژگی[ویرایش]

بیشتر الگوریتم‌ها یک نمونه منفرد را توصیف می‌کنند که دستهٔ آن باید با استفاده از بردار ویژگی ویژگی‌های فردی و قابل اندازه‌گیری نمونه پیش‌بینی شود. هر خصوصیت یک ویژگی نامیده می‌شود که در آمار به‌عنوان یک متغیر توضیحی نیز شناخته می‌شود (یا متغیر مستقل، اگرچه ویژگی‌ها ممکن است از نظر آماری مستقل باشند یا نباشند). ویژگی‌ها ممکن است باینری باشند (به‌عنوان مثال «روشن» یا «خاموش»). طبقه‌بندی‌شده (مثلاً «A»،‫ «B»،‫ «AB» یا «O»، برای گروه خونی )، ترتیبی (مثلاً «بزرگ»، «متوسط» یا «کوچک»)، با مقدار صحیح (مثلاً تعداد تکرار یک کلمهٔ خاص در ایمیل) یا با ارزش واقعی (مثلاً اندازه‌گیری فشار خون). اگر نمونه یک تصویر باشد، مقادیر ویژگی ممکن است با پیکسل‌های یک تصویر مطابقت داشته باشد. اگر نمونه یک قطعه متن باشد، مقادیر ویژگی ممکن است فراوانی وقوع کلمات مختلف باشد. برخی از الگوریتم‌ها فقط بر حسب داده‌های گسسته کار می‌کنند و نیاز دارند که داده‌های با ارزش واقعی یا با مقدار صحیح به گروه‌هایی گسسته شوند (مثلاً کمتر از ۵، بین ۵ تا ۱۰، یا بیشتر از ۱۰).

طبقه‌بندی‌کننده‌های خطی[ویرایش]

تعداد زیادی از الگوریتم‌ها برای طبقه‌بندی را می‌توان در قالب یک تابع خطی بیان کرد که با ترکیب بردار ویژگی یک نمونه با بردار وزن‌ها، با استفاده از حاصل ضرب نقطه‌ای، به هر دستهٔ ممکن k امتیازی اختصاص می‌دهد. دسته‌بندی پیش‌بینی‌شده، دسته‌ای است که بالاترین امتیاز را دارد. این نوع از تابع امتیاز به‌عنوان یک تابع پیش‌بینی خطی شناخته می‌شود و دارای شکل کلی زیر است:

که در آن Xi بردار ویژگی برای مثال i است ، βk بردار وزن‌های مربوط به دستهٔ k است، و امتیاز ( Xi , k) امتیاز مربوط به اختصاص مثال i به دستهٔ k است. در تئوری انتخاب گسسته، جایی که نمونه‌ها نشان‌دهندهٔ افراد و دسته‌ها نشان‌دهنده انتخاب‌ها هستند، امتیاز به‌عنوان ابزاری در نظر گرفته می‌شود که با فردی که دستهٔ k را انتخاب می‌کند، مرتبط است.

الگوریتم‌هایی با این تنظیمات اولیه به‌عنوان طبقه‌بندی‌کنندهٔ خطی شناخته می‌شوند. آنچه آن‌ها را متمایز می‌کند، روش تعیین (آموزش) وزن‌ها/ضرایب بهینه و نحوهٔ تفسیر امتیاز است.

نمونه‌هایی از این الگوریتم‌ها:

الگوریتم‌ها[ویرایش]

از آنجایی که هیچ شکل واحدی از طبقه‌بندی برای همهٔ مجموعهٔ داده‌ها مناسب نیست، مجموعهٔ ابزار بزرگی از الگوریتم‌های طبقه‌بندی توسعه داده شده‌است. متداول‌ترین آن‌ها عبارتند از:[۱۲]

ارزیابی[ویرایش]

عملکرد طبقه‌بندی‌کننده تا حد زیادی به ویژگی‌های داده‌هایی که باید طبقه‌بندی شوند بستگی دارد. هیچ طبقه‌بندی‌کننده‌ای وجود ندارد که در تمام مسائل داده‌شده به بهترین شکل کار کند (پدیده‌ای که ممکن است با قضیهٔ بدون ناهار رایگان توضیح داده شود). تست‌های تجربی مختلفی برای مقایسهٔ عملکرد طبقه‌بندی‌کننده و یافتن ویژگی‌های داده‌هایی که عملکرد طبقه‌بندی‌کننده را تعیین می‌کنند، انجام شده‌است. با این حال، تعیین طبقه‌بندی‌کنندهٔ مناسب برای یک مسئلهٔ معین، بیشتر یک هنر است تا یک علم.

دقت اندازه‌گیری و یادآوری معیارهای رایجی هستند که برای ارزیابی کیفیت یک سیستم طبقه‌بندی استفاده می‌شوند. اخیراً، منحنی‌های مشخصهٔ عملکرد گیرنده (ROC) برای ارزیابی مبادلهٔ بین نرخ‌های مثبت درست و نادرست الگوریتم‌های طبقه‌بندی استفاده شده‌اند.

به‌عنوان یک معیار عملکرد، ضریب عدم قطعیت مزیتی نسبت به دقت ساده دارد، زیرا تحت تأثیر اندازه‌های نسبی کلاس‌های مختلف قرار نمی‌گیرد.[۱۳] علاوه بر این، الگوریتمی را برای تنظیم مجدد کلاس‌ها جریمه نمی‌کند.

دامنه‌های کاربردی[ویرایش]

طبقه‌بندی کاربردهای زیادی دارد. در برخی از آن‌ها به‌عنوان یک روش داده‌کاوی استفاده می‌شود، در حالی که در برخی دیگر مدل‌سازی آماری دقیق‌تری انجام می‌شود.

جستارهای وابسته[ویرایش]

منابع[ویرایش]

  1. «رده‌بندی داده‌ها» [رایانه و فنّاوری اطلاعات] هم‌ارزِ «data classification»؛ منبع: گروه واژه‌گزینی. جواد میرشکاری، ویراستار. دفتر دوم. فرهنگ واژه‌های مصوب فرهنگستان. تهران: انتشارات فرهنگستان زبان و ادب فارسی. شابک ۹۶۴-۷۵۳۱-۳۷-۰ (ذیل سرواژهٔ رده‌بندی داده‌ها)
  2. T. Hastie, R. Tibshirani, and J. Friedman, “The Elements of Statistical Learning,” Bayesian Forecast. Dyn. Model., vol. 1, pp. 1–694, 2009.
  3. ۳٫۰ ۳٫۱ Provost, F., & Fawcett, T. (2013). Data Science for Business: What you need to know about data mining and data-analytic thinking. " O'Reilly Media, Inc.".
  4. Piryonesi S. Madeh; El-Diraby Tamer E. (2020-06-01). "Role of Data Analytics in Infrastructure Asset Management: Overcoming Data Size and Quality Problems". Journal of Transportation Engineering, Part B: Pavements. 146 (2): 04020022. doi:10.1061/JPEODX.0000175.
  5. Fisher, R. A. (1936). "The Use of Multiple Measurements in Taxonomic Problems". Annals of Eugenics. 7 (2): 179–188. doi:10.1111/j.1469-1809.1936.tb02137.x. {{cite journal}}: |hdl-access= requires |hdl= (help)
  6. Fisher, R. A. (1938). "The Statistical Utilization of Multiple Measurements". Annals of Eugenics. 8 (4): 376–386. doi:10.1111/j.1469-1809.1938.tb02189.x. {{cite journal}}: |hdl-access= requires |hdl= (help)
  7. ۷٫۰ ۷٫۱ Gnanadesikan, R. (1977) Methods for Statistical Data Analysis of Multivariate Observations, Wiley. شابک ‎۰−۴۷۱−۳۰۸۴۵−۵ (p. 83–86)
  8. Rao, C.R. (1952) Advanced Statistical Methods in Multivariate Analysis, Wiley. (Section 9c)
  9. Anderson, T.W. (1958) An Introduction to Multivariate Statistical Analysis, Wiley.
  10. Binder, D. A. (1978). "Bayesian cluster analysis". Biometrika. 65: 31–38. doi:10.1093/biomet/65.1.31.
  11. Binder, David A. (1981). "Approximations to Bayesian clustering rules". Biometrika. 68: 275–285. doi:10.1093/biomet/68.1.275.
  12. "A Tour of The Top 10 Algorithms for Machine Learning Newbies". Built In. 2018-01-20. Retrieved 2019-06-10.
  13. Peter Mills (2011). "Efficient statistical classification of satellite measurements". International Journal of Remote Sensing. 32 (21): 6109–6132. arXiv:1202.2194. Bibcode:2011IJRS...32.6109M. doi:10.1080/01431161.2010.507795.