آنتروپی مشترک

از ویکی‌پدیا، دانشنامهٔ آزاد

در نظریه اطلاعات، آنتروپی مشترک معیاری است برای بیان میزان ابهام در مورد مجموعه‌ای از متغیرهای تصادفی.

یک نمودار ون که به‌طور نمادین رابطه معیارهای اطلاعاتی مختلف متغیرهای تصادفی X و Y را نشان می‌دهد.

تعریف[ویرایش]

آنتروپی (شانون) مشترک دو متغیر تصادفی و (بر حسب بیت) به صورت زیر تعریف می گردد:

که در آن و نشان دهنده مقدارهایی هستند که متغیرهای تصادفی و اختیار می‌کنند و نشان دهنده احتمال رخداد هم‌زمان این مقادیر می‌باشد. همچنین اگر باشد، مقدار برابر صفر تعریف می‌شود.

برای تعداد بیشتر متغیرهای تصادفی، تعریف به صورت زیر تعمیم می یابد:

که در آن نشان دهنده مقدارهایی هستند که متغیرهای تصادفی اختیار می‌کنند و نشان دهنده احتمال رخداد هم‌زمان این مقادیر می‌باشد. همچنین اگر باشد، مقدار برابر صفر تعریف می‌شود.

خواص[ویرایش]

بزرگتر مساوی آنتروپی‌های تکی[ویرایش]

آنتروپی مشترک مجموعه‌ای از متغیرهای تصادفی بزرگتر یا مساوی تک تک آنتروپی‌های هر یک از متغیرهای تصادفی موجود در آن مجموعه می‌باشد، یعنی:

کوچکتر مساوی مجموع آنتروپی‌های تکی[ویرایش]

آنتروپی مشترک مجموعه‌ای از متغیرهای تصادفی کوچکتر یا مساوی مجموع آنتروپی‌های تکی هر یک از متغیرهای تصادفی موجود در آن مجموعه می‌باشد. نامساوی‌های زیر تنها در صورتی تبدیل به تساوی می‌شوند که و از لحاظ آماری از یکدیگر مستقل باشند.

رابطه با دیگر معیارهای نظریه اطلاعات[ویرایش]

آنتروپی مشترک با آنتروپی شرطی به صورت روابط زیر رابطه دارند:

و

همچنین آنتروپی مشترک به صورت زیر دارای رابطه با mutual information می‌باشد

منابع[ویرایش]