معیار اطلاعاتی آکائیکه

از ویکی‌پدیا، دانشنامهٔ آزاد
پرش به: ناوبری، جستجو

معیار اطلاعاتی آکائیکه (به انگلیسی: Akaike information criterion، یا به طور مخفف AIC) معیاری برای سنجش نیکویی برازش است. این معیار بر اساس مفهوم انتروپی بنا شده‌است و نشان می‌دهد که استفاده از یک مدل آماری به چه میزان باعث از دست رفتن اطلاعات می‌شود. به عبارت دیگر، این معیار تعادلی میان دقت مدل و پیچیدگی آن برقرار می‌کند. این معیار توسط هیروتسوگو آکائیکه برای انتخاب بهترین مدل آماری پیشنهاد شد.[۱]

با توجه به داده‌ها، چند مدل رقیب ممکن است با توجه به مقدار AIC رتبه بندی شوند و مدل دارای کمترین AIC بهترین است. از مقدار AIC می‌توان استنباط نمود که به عنوان مثال سه مدل بهتر وضعیت نسبتاً یکسانی دارند و بقیه مدل‌ها به مراتب بدتر هستند، اما معیاری برای انتخاب مقدار آستانه‌ای برای AIC که بتوان مدلی را به واسطه داشتن AIC بزرگتر از این مقدار رد کرد وجود ندارد.[۲]

تعریف[ویرایش]

در حالت کلی ، AIC برابر است با[۳]:

\mathit{AIC} = 2k - 2\ln(L)\,

که k تعداد پارامترهای مدل آماری است و L مقدار حداکثر تابع درستنمایی برای مدل برآورد شده است.

AIC تصحیح شده[ویرایش]

با تصحیح مرتبه دو AIC برای نمونه‌های با تعداد کمتر AICc به دست می‌آید:

AICc = AIC + \frac{2k(k + 1)}{n - k - 1}

از آنجایی که برای نمونه‌های با تعداد زیاد AICc به AIC همگرا می‌شود، همیشه باید AICc را به جای AIC بکار برد.[۴]

منابع[ویرایش]

  1. Akaike, Hirotugu (1974). "A new look at the statistical model identification". IEEE Transactions on Automatic Control 19 (6): 716–723. doi:10.1109/TAC.1974.1100705. MR0423716. 
  2. Burnham, Anderson, 1998, "Model Selection and Inference - A practical information-theoretic approach" ISBN 0-387-98504-2
  3. Burnham, K. P., and D. R. Anderson, 2002. Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, 2nd ed. Springer-Verlag. ISBN 0-387-95364-7.
  4. Burnham, K. P., and D. R. Anderson, 2004. Multimodel Inference: understanding AIC and BIC in Model Selection, Amsterdam Workshop on Model Selection.