پرش به محتوا

واگرایی کولبک-لیبلر

از ویکی‌پدیا، دانشنامهٔ آزاد

در آمار ریاضی از واگرایی کولبک-لیبلر یا انتروپی نسبی به عنوان معیاری برای اندازه‌گیری واگرایی یک توزیع احتمال از یک توزیع احتمال ثانویه، یاد می‌شود.[۱][۲] از جمله کاربردهای این مفهوم شامل توصیف انتروپی نسبی (shannon) در سیستم‌های اطلاعاتی، میزان تصادفی‌بودن در سری‌های زمانی پیوسته و بهره اطلاعاتی در زمانی که به مقایسه با مدلهای آماری استنباطی می‌پردازیم، می‌باشد. برخلاف تنوع اطلاعات، این معیار، یک معیار نامتقارن می‌باشد و در نتیجه نمی‌توان آن را به عنوان یک معیار پراکندگی معرفی کرد. به عبارت دیگر، مقدار برای واگرایی کولبک-لیبلر نشان می‌دهد که ما می‌توانیم انتظار رفتار مشابهی (نه دقیقاً یکسان) از دو توزیع داشته باشیم در حالی که مقدار برای این معیار نشان می‌دهد که دو توزیع رفتارهای متضادی دارند.

ریشه‌شناسی

[ویرایش]

عبارت واگرایی کولبک-لیبلر در اصل توسط Solomon Kullback و Richard Leibler در سال ۱۹۵۱ به عنوان واگرایی جهت‌دار بین دو توزیع معرفی گردید؛ هرچند که Kullback خودش نام تمییز اطلاعات را بیشتر ترجیح می‌داد.[۳] در Kullback's historic text, Information Theory and Statistics، این معیار مورد بحث قرار گرفته است.

تفسیر

[ویرایش]

واگرایی کولبک-لیبلر توزیع نسبت به اغلب به صورت نوشته می‌شود.

یادگیری ماشین

[ویرایش]

در حوزه یادگیری ماشین از عموماً به نام بهره اطلاعاتی حاصل به شرطی که به جای توزیع از توزیع استفاده شود، یاد می‌شود. از منظر تئوری اطلاعات، این مسئله انتروپی نسبی از توزیع با توجه به توزیع نامیده می‌شود.

کدگذاری

[ویرایش]

در حوزه نظریه کدگذاری، می‌تواند به عنوان معیاری برای اندازه‌گیری متوسط تعداد بیت‌های اضافی مورد نیاز به منظور کد کردن نمونه‌ای از توزیع با استفاده از یک کد بهینه‌سازی شده برای توزیع ، به جای استفاده از کد بهینه‌سازی شده برای می‌باشد.

استنتاج بیزی

[ویرایش]

از منظر استنتاج بیزی ، یک معیار اندازه‌گیری اطلاعات کسب شده هنگامی که یک اصلاح باورهای از توزیع پیشین احتمال به توزیع پسین احتمال رخ دهد. به عبارت دیگر، مقداری از اطلاع است که به واسطه تقریب زدن در هنگامی که از برای آن استفاده می‌شود، می‌باشد.[۴] در عمل، به‌طور معمول نشان دهنده توزیع «صحیح» داده‌ها، مشاهدات یا یک توزیع تئوری است که دقیق محاسبه شده است؛ در حالی که به‌طور معمول نشان دهنده یک نظریه، مدل، توصیف یا تقریبی از می‌باشد. به منظور پیدا کردن یک توزیع که نزدیکترین توزیع به باشد، می‌توان به دنبال محاسبه توزیعی گشت که معیار واگرایی را کمینه می‌کند.

هندسه اطلاعات

[ویرایش]

در کاربردها، معمولا توزیع صحیح داده‌ها را نشان می‌دهد و یک فرضیه،‌ مدل یا تخمینی از را نشان می‌دهد. برای اینکه بهترین تخمین توزیع از توزیع را بدست بیاوریم می‌توانیم واگرایی کولبک-لیبلر این دو توزیع را کمینه کنیم و سپس پرجکشن اطلاعات را بدست بیاوریم.

با اینکه انتروپی نسبی یک فاصله آماری به شمار می‌رود اما یک متریک نیست. بلکه یک معیار واگرایی است. چرا که این معیار متقارن نیست، یعنی و همچنین نامساوی مثلث در مورد آن صادق نیست. واگرایی برخلاف متریک که فاصله خطی را تعمیم می‌دهد،‌ تعمیمی از مربع فاصله است. فرم بی‌نهایت‌کوچک انتروپی نسبی و به‌طور خاص هسین آن، یک تنسور متریک می‌هد.

انتروپی نسبی یک حالت خاص از یک کلاس گسترده‌تر از واگرایی‌های آماری به نام واگرایی f و همچنین کلاس واگرایی‌های برگمن است، و این تنها واگرایی روی توزیع‌های احتمالاتی است که در هر دو کلاس قرار می‌گیرد.

اقتصاد

[ویرایش]

یک بازیکن را در یک بازی عادلانه با نتیجه متقابلا مجزا در نظر بگیرید. برای مثال یک شخص که در مسابقه اسب‌سواری که جمع شانس‌های رسمی برد یک است سرمایه‌گذاری می‌کند. نرخ سود مورد انتظار این سرمایه‌گذار برابر است با انتروپی نسبی احتمالاتی که وی براساس آنها سرمایه‌گذاری می‌کند و مقادیر رسمی شانس برد.[۵]

تعریف

[ویرایش]

برای توزیعهای احتمالاتی گسسته و معیار واگرایی کولبک-لیبلر واگرایی از به ، به صورت زیر تعریف می‌شود[۶]

به عبارت دیگر، امید تفاوت لگاریتمی بین احتمالات و در جایی که امید با استفاده از توزیع به دست آمده باشد، می‌باشد. معیار واگرایی کولبک-لیبلر تنها در صورتی که نتیجه دهد تعریف شده است. هر زمان که برابر صفر گردد سهم مین جمله صفر تفسیر می‌شود و این بخاطر می‌باشد. برای توزیعهای و از یک متغیر تصادفی پیوسته، معیار واگرایی کولبک-لیبلر به صورت انتگرال زیر تعریف می‌شود:[۷]

به‌طوریکه در آن و به معنی چگالی احتمال و می‌باشد. به‌طور کلی، اگر و احتمال‌هایی تعریف شده بر روی یک مجموعه X باشند و اکیداً پیوسته نسبت به باشد، آنگاه معیار واگرایی کولبک-لیبلر از به به صورت زیر تعریف می‌گردد:

در این تعریف، مشتق Radon–Nikodym از نسبت به می‌باشد و می‌تواند به صورت زیر بازنویسی شود:

که ما آن را به عنوان آنتروپی نسبی نسبت به می‌شناسیم. در ادامه در این مورد، اگر هر اندازه‌گیری بر روی باشد که در آن و برقرار باشد (به این معنی که و اکیداً نسبت به ) آنگاه معیار واگرایی کولبک-لیبلر از به ، به صورت زیر می‌باشد

در صورتی که اطلاعات با واحد بیت اندازه‌گیری شده باشد لگاریتمها در مبنای می‌باشند و در صورتی که از واحد nats برای سنجش اطلاعات استفاده شده باشد، پایه لگاریتم‌ها خواهد بود.

قراردادهای مختلفی برای اشاره به به صورت لفظی وجود دارد. اغلب از آن به عنوان اختلاف بین توزیع‌های و یاد می‌شود;در حالی که این توصیف با خاصیت نامتقارن بودن فرمول (یعنی واگرایی توزیع از با میزان واگرایی توزیع از لزوماً برابر نیست) در تعارض است. از این رو برخی مواقع، همان‌طور که در این مقاله هم از آن یاد شد، از آن به عنوان واگرایی توزیع از یا نسبت به توزیع یاد می‌کنند.

خصوصیات

[ویرایش]

Arthur Hobson ثابت کرد که معیار واگرایی کولبک-لیبلر تنها معیار تفاوت بین توزیعهای احتمالی است که برخی از خواص مورد نظر را در خود دارد.[۸] و نتیجتاً، اطلاعات متقابل نیز تنها معیار وابستگی متقابل میان متغیرهای تصادفی است که یکسری شرایط خاص را دارا می‌باشد، چرا که آن می‌تواند از منظر معیار واگرایی مورد نظر نیز تعریف گردد.

در این‌جا به برخی از خصوصیات معیار واگرایی کولبک-لیبلر اشاره می‌کنیم:

  • انتروپی نسبی همیشه نامنفی است،‌ در نتیجه

که به عنوان نامساوی گیبز شناخته می‌شود. همچنین داریم اگر و تنها اگر .

اثبات: حالت گسسته را درنظر بگیرید. حکم بالا را می‌توان با استفاده از نامساوی ینسن و نامساوی جمع لگاریتم اثبات کرد. از آنجایی که لوگاریتم یک تابع محدب است داریم:نامساوی اول از ینسن نتیجه می‌شود و نامساوی دوم از تابع احتمالاتی بودن . همچنین از آنجایی که لوگاریتم اکیدا محدب است،‌ بنابر نابرابری ینسن تساوی زمانی رخ می‌دهد کهو . فرض کنید این نسبت برابر با باشد. در این صورت:پس تساوی زمانی رخ می‌دهد که .

  • به‌طور کلی برای واگرایی کولبک-لیبلر کران بالایی وجود ندارد. با این حال، نشان داده شده است که اگر و دو توزیع احتمال گسسته باشند که با توزیع یک مقدار گسسته ساخته شده‌اند، آن‌گاه حداکثر مقدار به‌دست می‌آید.[۹]
  • انتروپی نسبی تقریباً مانند انتروپی شانون برای توزیع‌های مستقل جمعی است. اگر توزیع‌های مستقلی باشند و و به‌طور مشابه برای توزیع‌های مستقل آنگاه
  • انتروپی نسبی برای جفت توزیع‌های احتمالی محدب است. یعنی اگر و دو جفت تابع احتمال باشند آنگاه

انگیزه

[ویرایش]

در تئوری اطلاعات، قضیه Kraft–McMillan بیان می‌کند که هر شمای کدگذاری قابل دیکد کردنی برای کد کردن یک پیام به‌طوریکه بتوان مقدار xi را از مجموعه تمامی مقادیر ممکن به صورت مستقیم کدگشایی کند نیاز تا احتمال نمایش هر مقدار را به صورت توزیع احتمال در نظر گرفته شود که در آن li، طول کد برای xi در واحد بیت می‌باشد. بنابراین، معیار واگرایی کولبک لیبلر را می‌توان به عنوان امید مقدار طول پیام اضافی به ازای هر داده دانست که در صورتی که اگر از یک کد که برای توزیع بهینه است (توزیع ناصحیح) برای انتقال آن استفاده گردد، باید به صورت اضافی (نسبت به حالتی که از یک کد بهینه برای توزیع صحیح استفاده شود) مخابره گردد.

در اینجا آنتروپی مشترک توزیعهای و می‌باشد و نیز آنتروپی توزیع می‌باشد.

همچنین توجه داشته باشید که یک رابطه میان معیار واگرایی Kullback–Leibler و «تابع نرخ» در نظریه انحراف بزرگ وجود دارد.[۱۰][۱۱]

رابطه با سایر کمیت‌ها در نظریه اطلاعات

[ویرایش]

بسیاری از کمیت‌های دیگر نظریه اطلاعات را می‌توان به عنوان کاربردهای انتروپی نسبی در موارد خاص تفسیر کرد.

اطلاعات متقابل

[ویرایش]

اطلاعات متقابل با تعریفانتروپی نسبی ضرب دو احتمال حاشیه‌ای توزیع توأم است. به عبارت دیگر تعداد بیت های اضافی مورد انتظار که باید برای شناسایی و ارسال شوند، اگر به جای توزیع توأم تنها با استفاده از توزیع حاشیه‌ایشان کدگذاری شده باشند.

انتروپی شنون

[ویرایش]

انتروپی شنون با تعریف برای توزیع با الفبای شماراو توزیع پیوستهبرابر است با

جستارهای وابسته

[ویرایش]
  • Akaike Information Criterion
  • بیزی اطلاعات معیار
  • Bregman واگرایی
  • Cross-entropy
  • انحراف معیار اطلاعات
  • آنتروپی ارزش در معرض خطر
  • آنتروپی قدرت نابرابری
  • به دست آوردن اطلاعات در درخت‌های تصمیم‌گیری
  • اطلاعات به دست آوردن نسبت
  • اطلاعات تئوری و نظریه اندازه‌گیری
  • جنسن–Shannon واگرایی
  • کوانتومی آنتروپی نسبی
  • جزایر Kullback و ریچارد Leibler

منابع

[ویرایش]
  1. Kullback, S.; Leibler, R.A. (1951). "On information and sufficiency". Annals of Mathematical Statistics. 22 (1): 79–86. doi:10.1214/aoms/1177729694. MR 0039968.
  2. Kullback, S. (1959). Information Theory and Statistics. John Wiley & Sons.
  3. Kullback, S. (1987). "Letter to the Editor: The Kullback–Leibler distance". The American Statistician. 41 (4): 340–341. doi:10.1080/00031305.1987.10475510. JSTOR 2684769.
  4. Burnham K.P. , Anderson D.R. (2002), Model Selection and Multi-Model Inference (Springer). (2nd edition), p.51
  5. Soklakov, Andrei N. (2020-08). "Economics of Disagreement—Financial Intuition for the Rényi Divergence". Entropy (به انگلیسی). 22 (8): 860. doi:10.3390/e22080860. ISSN 1099-4300. {{cite journal}}: Check date values in: |date= (help)
  6. MacKay, David J.C. (2003). Information Theory, Inference, and Learning Algorithms (First ed.). Cambridge University Press. p. 34.
  7. Bishop C. (2006).
  8. Hobson, Arthur (1971). Concepts in statistical mechanics. New York: Gordon and Breach. ISBN 0-677-03240-4.
  9. Bonnici, Vincenzo (2020-12-10). "Kullback-Leibler divergence between quantum distributions, and its upper-bound". arXiv:2008.05932 [quant-ph].
  10. Sanov, I.N. (1957). "On the probability of large deviations of random magnitudes". Matem. Sbornik. 42 (84): 11–44.
  11. Novak S.Y. (2011), Extreme Value Methods with Applications to Finance ch. 14.5 (Chapman & Hall).