مطلوبیت دسته

از ویکی‌پدیا، دانشنامهٔ آزاد

مطلوبیت دسته معیاری از "خوبی دسته" است که در (Gluck و Corter 1985) و (Corter و Gluck 1992) تعریف شده است. مطلوبیت دسته سعی می‌کند احتمال اینکه دو شی در یک دسته دارای مقادیر مشخصه مشترک هستند و همینطور احتمال اینکه اشیاء از دسته‌های مختلف دارای مقادیر مشخصه متفاوت هستند را به حداکثر برساند. این در نظر گرفته شده بود تا معیارهای محدودتری از خوبی دسته را جایگزین کند، مانند "اعتبار علامت " ( (Reed 1972) ; (Rosch و Mervis 1975) ) و "شاخص تطبیق" (Jones 1983) . این یک معیار اصولی نظریه اطلاعات از مزیت پیشگویانه به‌دست‌آمده توسط ناظری که از ساختار طبقه‌بندی داده شده (یعنی برچسب‌های کلاس از نمونه‌ها) نسبت به ناظری که دانشی از ساختار طبقه‌بندی ندارد به دست می‌آورد. از این نظر، انگیزه برای معیار مطلوبیت دسته مشابه معیار به دست آوردن اطلاعات مورد استفاده در یادگیری درخت تصمیم گیری است . در برخی ارائه ها، رسما معادل اطلاعات متقابل است، همانطور که در زیر مورد بحث قرار می گیرد. مروری بر مطلوبیت دسته در تجسم احتمالی آن، با کاربردهایی در یادگیری ماشین ، در (Witten و Frank 2005) .

تعریف نظری-احتمال مطلوبیت دسته[ویرایش]

تعریف نظری-احتمال مطلوبیت دسته در (Fisher 1987) و (Witten و Frank 2005) به شرح زیر است:

جایی که یک اندازه است - مجموعه از ویژگی های آری و مجموعه از دسته بندی. عبارت احتمال حاشیه‌ای را مشخص می کند که ویژگی مقدار را می گیرد، و عبارت دسته احتمال مشروطرا مشخص می کند که ویژگی مقدار را می گیرد با توجه به اینکه شی مورد نظر به دسته تعلق دارد.

انگیزه و توسعه این عبارت برای مطلوبیت دسته و نقش چندگانه به عنوان یک کنترل بیش از حد خام، در منابع بالا آورده شده است. بی قید و شرط (Fisher 1987) ، عبارت تعداد مورد انتظار از مقادیر مشخصه است که می تواند توسط ناظر با استفاده از استراتژی تطبیق احتمال به همراه دانش برچسب های دسته به درستی حدس بزند، در حالی که تعداد مورد انتظار مقادیر مشخصه است که می تواند توسط ناظر همان استراتژی را به درستی حدس بزند، اما بدون آگاهی از برچسب های دسته. بنابراین تفاوت آنها نشان دهنده مزیت نسبی است که ناظر با داشتن دانش از ساختار دسته بندی به دست می آورد.

تعریف نظری اطلاعات از مطلوبیت دسته[ویرایش]

تعریف نظری اطلاعات از مطلوبیت دسته برای مجموعه ای از موجودیت ها با اندازه- مجموعه ویژگی های دودویی و یک دسته دودویی در (Gluck و Corter 1985) به شرح زیر آمده است:

جایی که احتمال پیشین یک موجودیت متعلق به دسته مثبت است (در صورت عدم وجود هرگونه اطلاعات از ویژگی)، احتمال مشروط یک موجودیت دارای ویژگی است با توجه به اینکه این موجودیت به دسته تعلق دارد ، به همین ترتیب احتمال مشروط یک موجودیت دارای ویژگی است با توجه به اینکه این موجودیت به دسته تعلق دارد ، و احتمال پیشین یک موجودیت دارای ویژگی است (در صورت عدم وجود هرگونه اطلاعات از دسته بندی).

بینش پشت عبارت فوق به شرح زیر است: عبارت هزینه (بر حسب بیت) رمزگذاری (یا انتقال) بهینه ویژگی اطلاعات را هنگامی نشان می دهد که مشخص شود اشیایی که باید توصیف شوند به دسته تعلق دارند.به طور مشابه، عبارت هزینه (بر حسب بیت) رمزگذاری (یا انتقال) بهینه ویژگی اطلاعات را هنگامی نشان می دهد که مشخص شود اشیایی که باید توصیف شوند به دسته تعلق دارند. بنابراین مجموع این دو عبارت در پرانتز میانگین وزنی این دو هزینه است. عبارت نهایی، ، هزینه (بر حسب بیت) رمزگذاری (یا انتقال) بهینه ویژگی اطلاعات را هنگامی که اطلاعات هیچ دسته ای در دسترس نیست نشان می دهد. مقدار مطلوبیت دسته، در فرمول بالا، منفی خواهد بود (؟؟؟ ).

همچنین ببینید[ویرایش]

منابع[ویرایش]

 

  • Corter, James E.; Gluck, Mark A. (1992), "Explaining basic categories: Feature predictability and information" (PDF), Psychological Bulletin, 111 (2): 291–303, doi:10.1037/0033-2909.111.2.291, archived from the original (PDF) on 2011-08-10
  • Edgell, Stephen E. (1993), "Using configural and dimensional information", in N. John Castellan (ed.), Individual and Group Decision Making: Current Issues, Hillsdale, New Jersey: Lawrence Erlbaum, pp. 43–64
  • Fisher, Douglas H. (1987), "Knowledge acquisition via incremental conceptual clustering", Machine Learning, 2 (2): 139–172, doi:10.1007/BF00114265
  • Gennari, John H. (1989), "Focused concept formation", in Alberto Maria Segre (ed.), Proceedings of the Sixth International Workshop on Machine Learning, Ithaca, NY: Morgan Kaufmann, pp. 379–382
  • Gennari, John H.; Langley, Pat; Fisher, Doug (1989), "Models of incremental concept formation", Artificial Intelligence, 40 (1–3): 11–61, doi:10.1016/0004-3702(89)90046-5
  • Gluck, Mark A.; Corter, James E. (1985), "Information, uncertainty, and the utility of categories", Program of the Seventh Annual Conference of the Cognitive Science Society, pp. 283–287
  • Hanson, Stephen José; Bauer, Malcolm (1989), "Conceptual clustering, categorization, and polymorphy", Machine Learning, 3 (4): 343–372, doi:10.1007/BF00116838
  • Harnad, Stevan (2005), "To cognize is to categorize: Cognition is categorization", in Henri Cohen & Claire Lefebvre (ed.), Handbook of Categorization in Cognitive Science, Amsterdam: Elsevier, pp. 19–43, archived from the original on 8 February 2012, retrieved 27 May 2022
  • Jones, Gregory V. (1983), "Identifying basic categories", Psychological Bulletin, 94 (3): 423–428, doi:10.1037/0033-2909.94.3.423
  • Kruschke, John K.; Johansen, Mark K. (1999), "A model of probabilistic category learning", Journal of Experimental Psychology: Learning, Memory, and Cognition, 25 (5): 1083–1119, doi:10.1037/0278-7393.25.5.1083, PMID 10505339
  • Mill, John Stuart (1843), A System of Logic, Ratiocinative and Inductive: Being a Connected View of the Principles of Evidence and the Methods of Scientific Investigation, London: Longmans, Green and Co..
  • Murphy, Gregory L. (1982), "Cue validity and levels of categorization", Psychological Bulletin, 91 (1): 174–177, doi:10.1037/0033-2909.91.1.174
  • Reed, Stephen K. (1972), "Pattern recognition and categorization", Cognitive Psychology, 3 (3): 382–407, doi:10.1016/0010-0285(72)90014-x
  • Rosch, Eleanor (1978), "Principles of categorization", in Eleanor Rosch & Barbara B. Lloyd (ed.), Cognition and Categorization, Hillsdale, New Jersey: Lawrence Erlbaum, pp. 27–48
  • Rosch, Eleanor; Mervis, Carolyn B. (1975), "Family Resemblances: Studies in the Internal Structure of Categories", Cognitive Psychology, 7 (4): 573–605, doi:10.1016/0010-0285(75)90024-9, S2CID 17258322
  • Smith, Edward E.; Medin, Douglas L. (1981), Categories and Concepts, Cambridge, MA: Harvard University Press
  • Witten, Ian H.; Frank, Eibe (2005), Data Mining: Practical Machine Learning Tools and Techniques, Amsterdam: Morgan Kaufmann