خوشه‌بندی کی-میانگین

از ویکی‌پدیا، دانشنامهٔ آزاد
پرش به ناوبری پرش به جستجو

خوشه‌بندی کی-میانگین (به انگلیسی: k-means clustering) روشی در کمی‌سازی بردارهاست که در اصل از پردازش سیگنال گرفته شده و برای آنالیز خوشه بندی در داده کاوی محبوب است. کی-میانگین خوشه‌بندی با هدف تجزیه مشاهدات به خوشه است که در آن هر یک از مشاهدات متعلق به خوشهای با نزدیکترین میانگین آن است، این میانگین به عنوان پیش‌نمونه استفاده می‌شود. این به پارتیشن‌بندی داده‌های به یک دیاگرام ورونوی تبدیل می‌شود.







تاریخچه الگوریتم[ویرایش]

اصطلاح کی-میانگین (به انگلیسی: k-means clustering) برای اولین بار توسط جیمز مک‌کوین در سال ۱۹۶۷ مورد استفاده قرار گرفت،[۱] هرچند این ایده به هوگو استینگز در سال ۱۹۵۷ باز می گردد.[۲] این الگوریتم ابتدا توسط استوارت لویید در سال ۱۹۵۷ به عنوان یک تکنیک برای مدولاسیون کد پالس پیشنهاد شد و تا سال ۱۹۸۲ خارج از آزمایشگاه‌های بل به انتشار نرسید.[۳] فورجی در سال ۱۹۶۵ الگوریتمی مشابه را منتشر کرد، به همین دلیل است که بعضی اوقات این الگوریتم، لویید فورجی هم نامیده می‌شود.[۴]

توضیحات[ویرایش]

با توجه به مجموعه‌ای از مشاهدات که در آن هر یک از مشاهدات یک بردار حقیقی -بعدی است. خوشه بندی کی-میانگین با هدف پارتیشن‌بندی مشاهدات به مجموعه است به طوری که مجموع مربع اختلاف از میانگین (یعنی واریانس) برای هر خوشه حداقل شود. تعریف دقیق ریاضی آن به این شکل است:

که در آن میانگین نقاط در است. این معادل است با به حداقل رساندن دو به دو مربع انحراف از نقاط در همان خوشه:

چون کل واریانس ثابت است، از قانون واریانس کلی می توان نتیجه گرفت که این معادله برابر است با بیشینه کردن مربع انحرافات بین نقاط خوشه‌های مختلف (BCSS).[۵]

الگوریتم[ویرایش]

الگوریتم استاندارد[ویرایش]

رایج‌ترین الگوریتم کی-میانگین با استفاده از یک تکرار شونده پالایش کار می‌کند. اغلب به نام الگوریتم کی-میانگین شناخته می‌شود. آن را با عنوان الگوریتم لوید نیز می‌شناسند مخصوصاً در میان جامعه علوم کامپیوتر.

الگوریتم به این شکل عمل می‌کند:[۶]

  1. ابتدا میانگین یعنی را که نماینده خوشه‌ها هستند، بصورت تصادفی مقدار دهی می‌کنیم.
  2. سپس، این دو مرحله پایین را به تناوب چندین بار اجرا می‌کنیم تا میانگین‌ها به یک ثبات کافی برسند و یا مجموع واریانس‌های خوشه‌ها تغییر چندانی نکنند:
    • از میانگین ها خوشه می‌سازیم، خوشه ام در زمان تمام داده‌هایی هستند که از لحاظ اقلیدسی کمترین فاصله را با میانگین یعنی میانگین ام در زمان دارند[۷]. به زبان ریاضی خوشه ام در زمان برابر خواهد بود با:
  3. حال میانگین‌ها را بر اساس این خوشه های جدید به این شکل بروز می‌کنیم:[۸]
  4. در نهایت میانگین‌های مرحله آخر (در زمان ) یعنی خوشه‌ها را نمایندگی خواهند کرد.

الگوریتم کی-میانگین را می‌توان با پویانمایی پایین برای به تصویر کشید.

همگرایی کی-میانگین
همگرایی کی-میانگین











نگارخانه[ویرایش]

منابع[ویرایش]

  1. MacQueen, J. B. (1967). Some Methods for classification and Analysis of Multivariate Observations. Proceedings of 5th Berkeley Symposium on Mathematical Statistics and Probability. 1. University of California Press. pp. 281&ndash, 297. MR 0214227. Zbl 0214.46201. Retrieved 2009-04-07.
  2. Steinhaus, H. (1957). "Sur la division des corps matériels en parties". Bull. Acad. Polon. Sci. (به French). 4 (12): 801&ndash, 804. MR 0090073. Zbl 0079.16403.
  3. Lloyd, S. P. (1957). "Least square quantization in PCM". Bell Telephone Laboratories Paper. Published in journal much later: Lloyd., S. P. (1982). "Least squares quantization in PCM" (PDF). IEEE Transactions on Information Theory. 28 (2): 129&ndash, 137. doi:10.1109/TIT.1982.1056489. Retrieved 2009-04-15.
  4. E.W. Forgy (1965). "Cluster analysis of multivariate data: efficiency versus interpretability of classifications". Biometrics. 21: 768–769. JSTOR 2528559.
  5. Kriegel, Hans-Peter; Schubert, Erich; Zimek, Arthur (2016). "The (black) art of runtime evaluation: Are we comparing algorithms or implementations?". Knowledge and Information Systems. 52: 341–378. doi:10.1007/s10115-016-1004-2. ISSN 0219-1377.
  6. MacKay, David (2003). "Chapter 20. An Example Inference Task: Clustering" (PDF). Information Theory, Inference and Learning Algorithms. Cambridge University Press. pp. 284&ndash, 292. ISBN 0-521-64298-1. MR 2012999.
  7. Since the square root is a monotone function, this also is the minimum Euclidean distance assignment.
  8. Hartigan, J. A.; Wong, M. A. (1979). "Algorithm AS 136: A k-Means Clustering Algorithm". Journal of the Royal Statistical Society, Series C. 28 (1): 100&ndash, 108. JSTOR 2346830.