حداقل مربعات خطی

از ویکی‌پدیا، دانشنامهٔ آزاد
(تغییرمسیر از کمینه مربعات خطی)
پرش به ناوبری پرش به جستجو

در محاسبات عددی، اگر یک مجموعه از نقاط را بخواهید با یک خط درون‌یابی کنید و شیب خط () و عرض از مبدأ () را بدست آورید، کافی است که خطای تعریف شده () در زیر را کمینه (مینیمم) کنید:

که میانگین ها و تعداد نقاط می‌باشد. و بدست آمده، بهینه خط عبوری از این نقاط را می‌دهد.

از این روش می‌توانید برای درون‌یابی چندجمله‌ای‌های مرتبه بالاتر نیز استفاده کنید، کافی است که تعریف خطا () را مطابق با چندجمله‌ای که می‌خواهید عوض کرده بقیه محاسبات را همان‌طور ادامه داده و ضرایب را بدست آورید.

هندسه روش کمترین مربعات معمولی[ویرایش]

فرمول کلی یک برآورد خطی با معادله به صورت است. حال می‌خواهیم این رابطه و خصوصیات آن را به‌طور هندسی مورد بررسی قرار داده و ببینیم چه نتایجی برای ما در بردارند. این بررسی نه تنها از دیدگاه تئوری دارای ارزش می‌باشد بلکه بسیاری از روابطی که از حل معادله‌های پیچیده جبری بدست می‌آیند را بااستفاده از اثبات‌های هندسی ساده کرده و فهم ارتباط این روابط را برای ما آسان می‌کند. فرض کنید مجموعه متغیرهای توضیح دهنده ما به صورت باشند می‌دانیم از هم مستقل هستند و بنابراین می‌توانند پایه‌هایی برای زیر فضای از به وجود آورند در حقیقت اگر دلخواهی را در نظر بگیریم یک عضو دلخواه از زیر فضای ما خواهد بود و داریم:


در حقیقت می‌توانیم هر عضو را به صورت بنویسیم و حتی را حت تر به صورت مختصاتبیان کنیم و به همین دلیل برآورد گر OLS(روش کمترین مربعات معمولی) در فضای قرار دارد یعنی می‌دانیم که از معادله اساسی زیر محاسبه می‌شود:

با دقت در معادله بالا متوجه می‌شویم که این معادله دارای تفسیر بسیار ساده‌ای می‌باشد. را در نظر بگیرید می‌دانیم که همان ماتریس متغیرهای توضیح دهنده‌است و هر ستون آن مربوط به یک متغیر توضیح دهنده می‌باشد که می‌توان معادله بالا را به صورت زیر نوشت
که همان ضرب داخلی متغیر توضیح دهنده ام در بردارهای خطا می‌باشد نکته‌ای که در اینجا وجود دارد این است که با توجه به معادله اساسی برای محاسبه برآوردگر در روش OLS متغیرهای بردار متغیرهای توضیح دهنده نسبت به متغیرهای خطای تخمین زده شده عمود می با شند یعنی وها نسبت به هم عمودند و به این شرط اصطلاحاً شرط عمود بودن (orthogonality conditions) می‌گویند.
همان‌طور که در بالا گفتیم همان متغیرهای خطای ما می‌باشند که با توجه به برآورد گر ما و روش برآورد به متغیرهای خطای تخمین زده شده (residuals) تبدیل می‌شوند در حقیقت اگر خطا را با نمایش دهیم می‌توان آن را به صورت تابعی از نمایش داد یعنی به صوت اختصاری . آنچه ما در اینجا بدان علاقه‌مندیم بررسی عناصر خطا در زمانی می‌باشند که متغیر با روش OLS تخمین زده شده‌است. ومی توانیم آن را به اختصار به صورت بنویسیم. ملاحظه کردید که این نسبت به همه متغیرهای توضیح دهنده عمود است و چون به تک تک پایه‌های فضای برداری ما عمود می‌باشد پس بر کل فضا عمود است و می‌توان آن را به صورت نوشت؛ و از آن نتیجه گرفت که هر عضو در این فضا عمود بر است یعنی:


پس می‌توان از بحث بالا نتیجه گرفت که که به آن اصطلاحاً بردار مقادیر برازانده شده (fitted values) می‌گویند در فضای قرار دارد و بر عمود است، یعنی شرط عمود بودن برای آن بر قرار است و از شرط عمود بودن می‌توان نتیجه گرفت که زاویه‌ای که این دو بردار با هم می‌سازند همان‌طور که شکل ۱ نشان می‌دهد قائمه‌است.

برای اینکه تا حدودی مفهوم عمود بودن (orthogonality) را تشریح کرده باشیم. فرض می‌کنیم دو متغیر توضیح دهنده داشته باشیم و به ترتیب آنهارا با نمایش می‌دهیم با توجه به شکل ۲ می‌بینیم که این دومتغیر فضایی را پدید می‌آورند که می‌توانیم آن را با نمایش دهیم و همانطور که در شکل نشان می‌دهد این دو متغیر می‌توانند دارای طول‌های یکسان و زاویه‌های یکسان در بین آنه می‌باشند. همان‌طور که می‌بینید بردار متغیرهای برازانده شده (fitted values) در داخل فضای قرار گرفته و متغیر نسبت به صفحهَ A(شکل۳)عمود است (شکل۴)و متغیرهای وابسته که از مجموع متغیرهای مستقل و متغیرهای خطا تشکیل می‌شوند در بیرون و قدری بالاتر ز صفحهA قرار می‌گیرند.

با توجه به توضیحاتی که در بالا داده شد می‌توان فهمید که چرا به روش برآورد مذکور کمترین مربعات گفته می‌شود در واقع با توجه به شکل‌های ۱ و۴ می‌توان فهمید که متغیرهای خطای تخمین زده شده دارای کمترین فاصله از متغیرهای برازانده شده (fitted values) تا فضای متغیرهای توضیح دهنده می‌باشد. یعنی اندازه تابع را کمینه می‌کند. اگر کمی دقت کنیم متوجه می‌شویم که همان مجموع مربعات خطاست و می‌دانیم که برآورد گر که را کمینه می‌کند را نیز کمینه می‌کند.
همان‌طور که در شکل۳ مشاهده می‌کنید شکل به ما صفحه را از بال نشان می‌دهد که دو بعدی است نقطه A در این صفحه به‌طور عمودی در زیر قرار گرفته‌است و با توجه به معادله و اینکه برآورد از روش OLS انجام شده‌است. می‌توان نتیجه گرفت که بردار OA در صفحه همان بردار مقادیر برازانده شده (fitted values) می‌باشد یعنی بدار OA به‌طور هندسی نمایش دهنده می‌باشد. والبته چون ستون‌های ماتریس همان پایه‌های فضای ما می‌باشند می‌توان OA را با مختصات نمایش داد. از آنجا که بحث مختصات پیش کشیده شد می‌توان تفسیر جالبی را ارائه داد اینکه در حقیقت میزان مشارکت متغیر پایه در تشکیل است. حال به شکل۴ نگاهی بیندازید همان‌طور که می‌بینید در شکل ۴ زاویه بین متغیرهای برازانده شده (fitted values) و خطای تخمین زده شده (residuals) قائمه‌است، که با استفاده از آن می‌توانیم اساسی‌ترین معادله مربوط به OLS را بدست آوریم. یعنی:

می‌دانیم همان مجموع مربعات کل و همان‌طور که پیش تر گفتیم مجموع مربعات متغیرهای توضیح دهنده و مجموع مربعات خطای تخمین زده شده می‌باشد؛ و فرمول معروف اثبات می‌شود، می‌توان رابطه‌های فوق را نیز با استفاده از رابطه زیر به صورتی دیگر نمایش داد:


که نکته مهمی را بیان می‌کند تغییرات کل برابر است با تغییرات متغیرهای توضیح دهنده به علاوه تغییرات خطای تخمین زده شده.

تحلیل جبری مسئله[ویرایش]

اگر فرض کنیم متغیر ما بُعد دارد، یعنی ، مسئله رگرسیون به یک مسئله بهینه‌سازی برای پیدا کردن پارامتر تبدیل می‌شود.[۱] به این معنی که ما یک پارامتر چند متغیره به اسم داریم و سعی می‌کنیم که متغیر وابسته که همان است را با ترکیبی خطی از بردارد ورودیِ ، تخمین بزنیم یعنی . حال اگر یک بعد دیگر به متغیر اضافه کنیم و مقدارش را همیشه عدد ثابت در نظر بگیریم () و را به صورتِ تغییر دهیم، تخمینی که از داریم در واقع ضرب نقطه ای بردار ورودی و بردار پارامترهای ماست یعنی . حال فرض کنیم که تعداد مثالهایی که قرار است برای تخمین پارامترها استفاده کنیم است و این مثالها را به این شکل نمایش دهیم . پارامتر بهینه پارامتری است که یک تابع هزینه را به حداقل برساند و تخمینهایی ما را به متغیر وابسته بسیار نزدیک کند. تابع هزینه را با جمع مربع تفاضل تخمینها با متغیر وابسته تعریف می‌کنیم، به این شکل که ، با این حساب پارامتر بهینه می‌شود:

برای بدست آوردن یا همان پارامتر بهینه، از تابع هزینه که هم نسبت به گرادیان می‌گیریم و گرادیان را برابر صفر قرار می‌دهیم و پارامتر بهینه را بدست می‌آوریم.[۲] از آنجا که تابع نسبت به تابعی کاملاً محدب است، در نقطه مینیمم گرادیان ما صفر خواهد بود و این روش پارامتر بهینه را بدست می‌دهد.[۳] برای تسهیل کار شکل تابع را با بکارگیری چند ماتریس ساده می‌کنیم. دو ماتریس برای این کار نیاز داردیم ماتریس و ماتریس . ماتریس ماتریس ورودهای چندمتغیره ماست. هر سطر معادل یک نمونه از داده ماست، سطر ام برابر است با امین نمونه ورودی ما یعنی بردار ، از اینرو یک ماتریس خواهد بود. ماتریس از طرف دیگر برابر است با مجموعه متغیرهای وابسته داده ما. سطر ام این ماتریس برابر است با متغیر وابسته برای امین نمونه داده ما یا همان . ماتریس یک ماتریس است. با کمک این دو ماتریس می‌توان تابع هزینه را به شکل ذیل تعریف کرد:

حال گرادیان این تابع را نسبت به پیدا می‌کنیم که می‌شود:

با برابر قرار دادن گرادیان با صفر پارامتر بهینه بدست می‌آید:

پس پارامتر بهینه ما برابر است با:

جستارهای وابسته[ویرایش]

منابع[ویرایش]

  1. Rencher, Alvin C. و William F. Christensen. Methods of Multivariate Analysis. John Wiley & Sons, 2012-08-15. 19. ISBN ‎9781118391679. 
  2. Yan, Xin. Linear Regression Analysis: Theory and Computing. World Scientific, 2009. ISBN ‎9789812834119. 
  3. Rencher, Alvin C. و William F. Christensen. Methods of Multivariate Analysis. John Wiley & Sons, 2012-08-15. 155. ISBN ‎9781118391679.