ضریب همبستگی پیرسون

از ویکی‌پدیا، دانشنامهٔ آزاد
پرش به: ناوبری، جستجو
مثال‌هایی از حالت‌های مختلف همبستگی و مقادیر ضریب همبستگی پیرسون برای هر مورد.

در آمار، ضریب همبستگی پیرسون یا ضریب همبستگی حاصل‌ضرب-گشتاور پیرسون میزان همبستگی خطی بین دو متغیر تصادفی را می‌سنجد. مقدار این ضریب بین ۱- تا ۱ تغییر می‌کند که «۱» به معنای همبستگی مثبت کامل، «۰» به معنی نبود همبستگی، و «۱-» به معنی همبستگی منفی کامل است. این ضریب که کاربرد فراوانی در آمار دارد، توسط کارل پیرسون براساس ایدهٔ اولیهٔ فرانسیس گالتون تدوین شد.

تعریف[ویرایش]

ضریب همبستگی پیرسون بین دو متغیر تصادفی برابر با کوواریانس آنها تقسیم بر انحراف معیار آنها تعریف می‌شود.

جامعهٔ آماری

برای یک جامعهٔ آماری، ضریب همبستگی جامعه به صورت زیر تعریف می‌شود:

 \rho_{X,Y}={\mathrm{cov}(X,Y) \over \sigma_X \sigma_Y} ={E[(X-\mu_X)(Y-\mu_Y)] \over \sigma_X\sigma_Y}

که در آن  \mathrm{cov} کوواریانس،  \sigma_X انحراف معیار متغیر  X ،  \mu_X میانگین متغیر  X و  E امید ریاضی را نشان می‌دهد.

نمونه آماری

ضریب همبستگی پیرسون برای یک نمونه آماری با n زوج داده  (X_i, Y_i) به صورت زیر تعریف می‌شود:

r = \frac{\sum ^n _{i=1}(X_i - \bar{X})(Y_i - \bar{Y})}{\sqrt{\sum ^n _{i=1}(X_i - \bar{X})^2} \sqrt{\sum ^n _{i=1}(Y_i - \bar{Y})^2}}

تعریف زیر نیز معادل تعریف بالاست:

r = \frac{1}{n-1} \sum ^n _{i=1} \left( \frac{X_i - \bar{X}}{s_X} \right) \left( \frac{Y_i - \bar{Y}}{s_Y} \right)

که در آن کمیت‌ها به صورت زیر تعریف شده‌اند:

\bar{X}=\frac{1}{n}\sum_{i=1}^n X_i, \text{ and } s_X=\sqrt{\frac{1}{n-1}\sum_{i=1}^n(X_i-\bar{X})^2}

منابع[ویرایش]