در نظریه احتمالات و نظریه اطلاعات، اطلاعات متقابل بین دو متغیر تصادفی معیاری برای نشان دادن میزان وابستگی متقابل آن دو متغیر میباشد. به بیان دیگر در حقیقت این معیار «میزان اطلاعات» به دست آمده (مثلاً در واحد بیت) در مورد یک متغیر تصادفی از طریق متغیر تصادفی دیگر را نشان میدهد. مفهوم اطلاعات متقابل ذاتاً مرتبط با آنتروپی یک متغیر تصادفی که میزان اطلاعات موجود در یک متغیر تصادفی را نشان میدهد، میباشد.
اطلاعات متقابل میزان شباهت بین توزیع مشترک و ضرب احتمالهای حاشیه ای یعنی را مشخص میسازد.
که در رابطهٔ فوق اکنون تابع چگالی احتمال مشترک و ، و و تابعهای چگالی احتمال حاشیه ای به ترتیب و میباشند.
اگر لگاریتم در پایهٔ ۲ استفاده شود، واحد اطلاعات متقابل بیت خواهد بود.
اطلاعات متقابل میزان اطلاعاتی که بین و مشترک است را انداره میگیرد. اطلاعات متقابل نشان میدهد تا چه میزان دانستن یکی از این متغیرها میزان ابهام ما در مورد دیگری را کاهش میدهد. مثلاً اگر و مستقل باشند، در این صورت دانستن هیچ اطلاعاتی در مورد به ما نمیدهد (و بر عکس)، بنا بر این اطلاعات متقابلشان صفر است. از طرف دیگر، اگر یک تابع قطعی (deterministic) از و یک تابع قطعی (deterministic) از باشد، در این صورت تمام اطلاعاتی که با خود حمل میکند، در هم هست، دانستن مقدار را مشخص میکند و بر عکس. در نتیجه در این حالت اطلاعات متقابل برابر میزان ابهام در (یا )، یعنی آنتروپی (یا ) میباشد.
اطلاعات متقابل میزان وابستگی را بر اساس توزیع مشترک و ، در مقایسه با توزیع مشترک و تحت فرض استقلال، به دست میآورد. اطلاعات متقابل در نتیجه وابستگی را در معنای زیر اندازهگیری میکند:
اگر و فقط اگر و متغیرهای تصادفی مستقل باشند. بررسی این حقیقت از یک سمت آسان است: اگر و مستقل باشند، در این صورت و در نتیجه:
در ضمن لازم است ذکر شود که اطلاعات متقابل نامنفی و متقارن میباشد.
اطلاعات متقابل معادلاً تحت روابط زیر قابل بیان میباشد:
که در روابط فوق و آنتروپیهای حاشیه ای، و آنتروپیهای شرطی میباشند و آنتروپی مشترک و میباشد. به شباهت روابط با روابط اجتماع، اشتراک و اختلاف دو مجموعه توجه کنید.
به کمک نامساوی Jensen روی تعریف اطلاعات متقابل میتوان نشان داد نامنفی است، و در نتیجه، . اکنون ما در اینجا اثبات رابطه را ارائه میدهیم:
اثبات تساویهای دیگر که در بالا آمدهاست، به طور مشابه انجام میپذیرد.
اطلاعات متقابل همچنین بر اساس انحراف Kullback-Leibler به شکل زیر قابل بیان میباشد: