همبستگی و وابستگی

از ویکی‌پدیا، دانشنامهٔ آزاد
مثال همبستگی پیرسون
چندین مجموعه از نقاط (x, y)، با ضریب همبستگی پیرسون بین نقاط x و y آن‌ها نمایش داده شده‌است. این همبستگی نمایانگر میزان نویز و جهت خطی رابطه (ردیف بالا) است، اما شیب رابطه را نشان نمی‌دهد (ردیف وسط)، و همچنین نمی‌تواند جنبه غیر خطی بودن روابط را نشان دهد (ردیف پایین). دقت کنید: در تصویر وسط شیب صفر است، اما در این حالت ضریب همبستگی تعریف نمی‌شود، چون واریانس Y برابر صفر است.

در آمار، وابستگی هر نوع رابطه آماری علی یا غیر علی بین دو متغیر تصادفی یا داده‌های دو متغیره می‌باشد. همبستگی در وسیع‌ترین معنای خود، هر نوع پیوند آماری را شامل می‌شود، اگرچه بیشتر از این اصطلاح برای درجه ارتباط خطی بین یک جفت متغیر استفاده می‌شود. مثال‌های آشنای پدیده‌های وابستگی شامل همبستگی بین قد والدین و اولادشان و همبستگی بین تقاضای یک عرضه محدود و قیمتش می‌باشد.

همبستگی مفهوم مفیدی است، چرا که می‌تواند نشانگر رابطهٔ قابل پیش‌بینی بوده و در عمل ازین پیش‌بینی پذیر بودن می‌توان سود جست. به عنوان مثال، یک کالای الکتریکی ممکن است در یک روز معتدل، بر اساس همبستگی بین تقاضای الکتریسیته و وضعیت هوا، قدرت کمتری تولید کند. در این مثال، یک رابطه علی وجود دارد، چون هوای نامساعد موجب می‌گردد که مردم جهت گرم یا خنک‌سازی انرژی بیشتری مصرف کنند. با این حال، در کل، وجود یک همبستگی برای استنتاج یک رابطه علی کافی نیست (یعنی، همبستگی علیت را نتیجه نمی‌دهد).

به لحاظ صوری، متغیرهای تصادفی وابسته هستند اگر خاصیت ریاضیاتی استقلال احتمالاتی را ارضاء نکنند. اما در گفتگوی عادی همبستگی هم‌معنی با وابستگی است. چندین ضریب همبستگی وجود دارند که درجه همبستگی را اندازه‌گیری می‌کنند و اغلب به صورت یا نمایش داده می‌شوند. رایج‌ترین این ضرایب، ضریب همبستگی پیرسون است، که تنها برای رابطه خطی بین دو متغیر معنا دارد (اگر حتی یک متغیر هم تابع غیر خطی از دیگری باشد نیس این ضریب وجود خواهد داشت). دیگر ضرایب همبستگی قوی تر از پیرسون نیز توسعه یافته‌اند، یعنی ضرایبی که نسبت به روابط غیر خطی حساسیت بیشتری داشته باشند.[۱][۲][۳] از اطلاعات متقابل هم می‌توان برای اندازه‌گیری وابستگی بین دو متغیر استفاده کرد.

ضریب همبستگی پیرسون[ویرایش]

مقاله اصلی: ضریب همبستگی پیرسون

تعریف[ویرایش]

آشناترین شاخص برای اندازه‌گیری وابستگی بین دو کمیت، ضریب همبستگی پیرسون است که اغلب به آن «ضریب همبستگی» می‌گویند. این ضریب از تقسیم کوواریانس دو متغیر از طریق ضرب انحراف معیارشان بدست می‌آید. کارل پیرسن این ضریب را از طریق ایده مشابه، اما متفاوتی از فرانسیس گالتون بدست آورد.[۴]

ضریب همبستگی جمعیت بین دو متغیر تصادفی و با مقادیر امید ریاضی‌های و و انحراف معیارهای و به این صورت تعریف شده‌است:

که در آن عملگر امید ریاضی، و به معنای کوواریانس و همبستگی هستند. ضریب پیرسون تنها زمانی قابل تعریف است که هر دوی انحراف معیارها متناهی و مثبت باشند. می‌توان فرمول فوق را به صورت زیر هم نوشت، که در آن از گشتاورها استفاده شده‌است:

منابع[ویرایش]

  1. Croxton, Frederick Emory; Cowden, Dudley Johnstone; Klein, Sidney (1968) Applied General Statistics, Pitman. شابک ‎۹۷۸۰۲۷۳۴۰۳۱۵۹ (page 625)
  2. Dietrich, Cornelius Frank (1991) Uncertainty, Calibration and Probability: The Statistics of Scientific and Industrial Measurement 2nd Edition, A. Higler. شابک ‎۹۷۸۰۷۵۰۳۰۰۶۰۵ (Page 331)
  3. Aitken, Alexander Craig (1957) Statistical Mathematics 8th Edition. Oliver & Boyd. شابک ‎۹۷۸۰۰۵۰۰۱۳۰۰۷ (Page 95)
  4. Rodgers, J. L.; Nicewander, W. A. (1988). "Thirteen ways to look at the correlation coefficient". The American Statistician. 42 (1): 59–66. doi:10.1080/00031305.1988.10475524. JSTOR 2685263.

برای مطالعه بیشتر[ویرایش]