اطلاعات متقابل نقطه ای
در آمار، نظریه احتمالات و نظریه اطلاعات، اطلاعات متقابل نقطه ای(PMI)، معیاری برای همبستگی و وابستگی است. این معیار، احتمال وقوع دو رویداد بهطور همزمان را با احتمال به وقوع پیوستن آنها به شرط مستقل بودن مقایسه میکند.
اطلاعات متقابل نقطهای (به ویژه در نوع اطلاعات متقابل مثبت آن) به عنوان "یکی از مهمترین مفاهیم در پردازش زبانهای طبیعی " توصیف شدهاست؛ این مفهوم بر اساس گرایشی تأکید میکند که بهترین روش برای سنجیدن ارتباط بین دو کلمه این است که مقایسه تعداد وقوع همزمان آنها در یک متن چقدر بیشتر از چیزی است که ما پیش از این انتظار داشتیم بهطور تصادفی ظاهر شوند.
این مفهوم در سال ۱۹۶۱ توسط رابرت فانو تحت عنوان «اطلاعات متقابل» معرفی شد، اما امروزه این عبارت برای یک معیار وابستگی مرتبط بین متغیرهای تصادفی استفاده میشود: اطلاعات متقابل دو متغیر تصادفی گسسته به میانگین اطلاعات متقابل نقطه ای تمام رویدادهای ممکن اشاره دارد.
تعریف
[ویرایش]PMI جفتی از نتایج x و y که به متغیرهای تصادفی گسسته X و Y تعلق دارند، اختلاف بین احتمال همزمانی آنها را با توجه به توزیع مشترک و توزیعهای فردی آنها کمیت میدهد. از نظر ریاضی:
(در حالی که دو عبارت اخیر با قضیه بیز برابر با اولی هستند). اطلاعات متقابل (MI) متغیرهای تصادفی X و Y مقدار مورد انتظار PMI (بر روی تمام نتایج ممکن) است.
اندازهگیری متقارن است(pmi(x;y) = pmi(y;x)) و میتواند مقادیر مثبت یا منفی بگیردو اما اگر x و y مستقل باشند صفر است. توجه داشته باشید که حتی اگر PMI منفی یا مثبت باشد، نتیجه مورد انتظار آن در تمام رویدادهای مشترک (MI) نامنفی است. PMI هنگامی که X و Y کاملاً با هم مرتبط هستند، حداکثر میشود (p(x|y) or p(y|x) = ۱) و مرزهای زیر را ایجاد میکند:
در آخر، اگر p(x|y) ثابت باشد، (x;y)pmi افزایش مییابد اما p(x) کاهش مییابد.
در اینجا یک مثال برای توضیح وجود دارد:
با استفاده از این جدول میتوانیم حاشیهسازی کنیم تا جدول اضافی زیر را برای توزیعهای فردی بهدست آوریم:
با این مثال، میتوانیم چهار مقدار برای pmi(x;y) محاسبه کنیم. با استفاده از الگوریتم بر مبنای دو:
pmi(x=0;y=۰)=−۱
pmi(x=0;y=۱)=۰٫۲۲۲۳۹۲
pmi(x=1;y=۰)=۱٫۵۸۴۹۶۳
pmi(x=1;y=۱)=-۱٫۵۸۴۹۶۳
(برای مرجع، اطلاعات متقابل(X;Y)I در این صورت ۰٫۲۱۴۱۷۰۹ خواهد بود)
شباهت با اطلاعات متقابل
[ویرایش]اطلاعات متقابل نقطه ای روابط مشابه بسیاری با اطلاعات متقابل دارد. به خصوص،
pmi(x;y) = h(x)+h(y)-h(x,y) = h(x)-h(x|y) = h(y)-h(y|x)
انواع اطلاعات متقابل نقطه ای
[ویرایش]چندین گونه از PMI تعریف شدهاست، به ویژه خطاب به آنچه به عنوان «دو محدودیت اصلی» آن توصیف شدهاست.
- PMI میتواند هم مقادیر مثبت و هم مقادیر منفی داشته باشد و هیچ مرز ثابتی ندارد، که تفسیر آن را سختتر میکند.
- PMI "تمایل شناخته شدهای برای دادن امتیازهای بالاتر به رویدادهای با بسامد پایین" دارد، اما در کاربردهایی مانند اندازهگیری شباهت کلمات، ترجیحاً "امتیاز بالاتری برای جفت کلماتی که ارتباط آنها با شواهد بیشتری پشتیبانی میشود در نظر گرفته میشود.
PMIمثبت
[ویرایش]اطلاعات متقابل نقطه ای مثبت با تنظیم مقادیر منفی PMI بر روی صفر تعریف میشود.
این تعریف برگرفته از مشاهده این که "مقادیر PMI منفی (که به این معنی است که هر چیزی کمتر از آنچه که به طور تصادفی انتظار داریم همزمان اتفاق میافتند) معمولاً غیرقابل اعتماد هستند، مگر اینکه مجموعههای ما عظیم باشند" و همچنین با این نگرانی که "معلوم نیست که آیا میتوان چنین امتیازهایی از "بیارتباطی" را با قضاوت انسانی ارزیابی کرد یا خیر". همچنین از پرداختن به مقادیر برای رویدادهایی که هرگز با هم اتفاق نمیافتند (pmi(x,y) = ۰) با تنظیم PPMI آنها بر روی ۰ اجتناب میکند.
اطلاعات متقابل نقطه ای عادی سازی شده
[ویرایش]اطلاعات متقابل نقطه ای را میتوان بین [۱+,۱-]عادی سازی کرد که به ۱- (در حد) برای اینکه هرگز با هم اتفاق نیفتند، ۰ برای استقلال، و +۱ برای همزمانی کامل نتیجه میدهد.
خانواده PMIk
[ویرایش]اندازهگیری PMIk (برای k=۲، ۳ و غیره)، که توسط بئاتریس دیل در حدود سال ۱۹۹۴ معرفی شد و از سال ۲۰۱۱ به عنوان «از جمله پرکاربردترین انواع» توصیف شد، به این صورت تعریف میشود
به خصوص، pmi1(x;y) = pmi(x;y). عوامل اضافی p(x,y) در داخل لگاریتم برای تصحیح سوگیری PMI نسبت به رویدادهای فرکانس پایین، با افزایش امتیاز جفتهای مکرر در نظر گرفته شدهاست. یک مطالعه موردی در سال ۲۰۱۱ موفقیت PMI3 را در تصحیح این سوگیری در مجموعه ای از ویکیپدیای انگلیسی نشان داد. با در نظر گرفتن x به عنوان کلمه "فوتبال"، قویترین کلمات مرتبط با آن y بر اساس معیار PMI است (یعنی آنهایی که pmi(x;y) را حداکثر میکنند، دامنه خاص ("هافبک"، "کرنربک"، "دروازه بان") بودند، در حالی که عباراتی که بالاترین رتبه را توسط PMI3 داشتند، بسیار عمومی تر بودند ("لیگ"، "باشگاه ها"، "انگلیس").
قانون زنجیره ای برای pmi
[ویرایش]مانند اطلاعات متقابل، اطلاعات متقابل نقطه ای از قانون زنجیره پیروی میکند، یعنی،
pmi(x;yz) = pmi(x;y) + pmi(x;z|y)
این با استفاده از قضیه بیز ثابت میشود.
کاربردها
[ویرایش]PMI میتواند در رشتههای مختلفی مورد استفاده قرار گیرد. در نظریه اطلاعات، زبانشناسی یا شیمی (در پروفایل و تجزیه و تحلیل ترکیبات شیمیایی). در زبانشناسی محاسباتی، PMI برای یافتن همآهنگیها و ارتباط بین کلمات استفاده شدهاست. برای مثال، شمارش رخدادها و همرویکردن کلمات در یک پیکره متنی میتواند به ترتیب برای تقریب احتمالات p(x) و p(x,y) استفاده شود. جدول زیر تعداد جفتهایی از کلمات را نشان میدهد که بیشترین و کمترین امتیاز PMI را در ۵۰ میلیون کلمه اول در ویکیپدیا دریافت کردهاند. فراوانی هر شمارش را میتوان با تقسیم مقدار آن بر ۵۰٬۰۰۰٬۹۵۲ بهدستآورد. (توجه: لگاریتم طبیعی برای محاسبه مقادیر PMI در این مثال به جای لگاریتم بر مبنای دو استفاده میشود).
جفتهای ترتیب خوب PMI بالایی دارند زیرا احتمال وقوع همزمان فقط کمی کمتر از احتمال وقوع هر کلمه است.
برعکس، یک جفت کلمه که احتمال وقوع آنها بهطور قابل توجهی بیشتر از احتمال وقوع همزمان آنها است، امتیاز PMI کوچکی دریافت میکنند.