برآوردگر سازگار

از ویکی‌پدیا، دانشنامهٔ آزاد
پرش به: ناوبری، جستجو

درآمار، دنباله ای از برآوردگر ها برای پارامتر θ۰ سازگار نامیده می شوند (یا سازگاری مجانبی) اگر این دنباله در احتمال به θ۰ همگرا شود. این بدین معناست که توزیع های برآوردگر ها بیشتر و بیشتر در نزدیکی مقدار واقعی آن پارامتری که تخمین زده می شود، متمرکز شوند. در نتیجه احتمال اینکه نخمین زن بطور اختیاری به θ۰ نزدیک شود، به یک همگرا می شود.

در عمل ممکن است که شخصی برآوردگری را بسازد که تابعی از نمونه ی موجود با اندازه ی n است، سپس این طور تصور می کند که قادر است به جمع آوری داده ادامه دهد و نمونه را تا بینهایت توسعه دهد. از این طریق دنباله ای از برآوردگرها با اندیس n به دست می آید و مفهوم سازگاری با "میل به بینهایت" درک می شود. اگر این دنباله در احتمال به مقدار درست θ۰ همگرا شود، برآوردگر را سازگار می نامند؛ در غیر این صورت برآوردگر را ناسازگار می نامند.

سازگاری همانطور که در اینجا تعریف شد، گاهی اوقات سازگاری ضعیف نیز نامیده می شود. وقتی همگرایی در احتمال را با همگرایی تقریباًَ مطمئن جایگزین می کنیم، در نتیجه دنباله ی برآوردگر ها سازگار قوی نامیده می شوند.

تعریف[ویرایش]

به بیانی ساده، برآوردگر Tn پارامتر θ سازگار نامیده می شود اگر در احتمال به مقدار واقعی پارامتر همگرا شود:


    \underset{n\to\infty}{\operatorname{plim}}\;T_n = \theta

تعریف کامل تر به این حقیقت توجه دارد که در واقع θ نامشخص است، و بنابراین همگرایی در احتمال باید برای هر مقدار احتمالی این پارامتر اتفاق بیفتد. فرض کنید که {pθ: θ ∈ Θ} یک خانواده از توزیع ها (مدل پارامتری) باشد، و {Xθ = {X1, X2, … : Xi ~ pθ یک نمونه ی نامتناهی از توزیع pθ باشد. فرض کنید که { Tn(Xθ) } یک دنباله از برآوردگرها برای بعضی از پارامترهای (g(θ باشد. معمولاًَ Tn بر اساس اولین n مشاهده ی یک نمونه می باشد. پس این دنباله {Tn} (بطور ضعیف) سازگار نامیده می شود اگر :


    \underset{n\to\infty}{\operatorname{plim}}\;T_n(X^{\theta}) = g(\theta),\ \ \text{for all}\ \theta\in\Theta

این تعریف از (g(θ به جای θ استفاده می کند، چون اغلب به تخمین زدن یک تابع مشخص یا یک زیر بردار از پارامتر مورد بررسی علاقه دارد. در مثال بعدی ما موقعیت و مکان پارامتر مدل را برآورد می کنیم، نه مقیاس آن .

مثال: میانگین نمونه برای متغیرهای تصادفی نرمال[ویرایش]

فرض کنید که یک دنباله از مشاهدات بصورت { ...,X1, X2} از یک توزیع نرمال [(N(μ, σ2] داریم. برای برآورد کردن μ بر اساس اولین n مشاهده، ما از میانگین نمونه استفاده می کنیم: Tn = (X1 + … + Xn)/n این امر یک دنباله از برآوردگرها را مشخص می کند که توسط اندازه ی نمونه n سنجیده شد.

از خواص توزیع نرمال ما می دانیم که Tn خود بصورت نرمال توزیع شده است، با میانگین μ و واریانس σ2/n . بصورتی معادل، \scriptstyle (T_n-\mu)/(\sigma/\sqrt{n}) توزیع نرمال استاندارد دارد. پس :


    \Pr\!\Big[\,|T_n-\mu|\geq\varepsilon\,\Big] = 
    \Pr\!\left[ \sqrt{n}\big|T_n-\mu\big|/\sigma \geq \sqrt{n}\varepsilon/\sigma \right] = 
    2\big(1-\Phi(\sqrt{n}\varepsilon/\sigma)\big)\ \to\ 0

همانطور که n به بی نهایت میل می کند، برای هر مقدار ثابت ε> 0 . مشاهده می شود که دنباله ی Tn از میانگین های نمونه برای μ میانگین جامعه سازگار می باشد.

ایجاد سازگاری[ویرایش]

نظریه ی سازگاری مجانبی بسیار نزدیک و تقریباًَ مترادف با نظریه ی همگرایی در احتمال می باشد. به همین صورت هر تئوری، لم، یا خاصیت که همگرایی در احتمال را ایجاد می کند، ممکن است به منظور اثبات سازگاری استفاده شود. ابزارهای مشابه بسیاری وجود دارد :

  • به منظور نشان دادن سازگاری، بصورت مستقیم از تعریف، می توان از نابرابری زیر استفاده کرد


    \Pr\!\big[h(T_n-\theta)\geq\varepsilon\big] \leq \frac{\operatorname{E}\big[h(T_n-\theta)\big]}{\varepsilon}

رایج ترین انتخاب برای تابع h، یا مقداری مطلق (در این حالت به عنوان نامعادله ی مارکوف شناخته می شود)، یا تابعی درجه دو است (با توجه به نامعادله ی چبیشف).

  • نتیجه ی مفید دیگر تئوری پیوستگی : اگر Tn برای θ سازگار باشد و (·)g یک مقدار واقعی تابع پیوسته در نقطه ی θ باشد، (g(Tn برای (g(θ پیوسته خواهد بود:


    T_n\ \xrightarrow{p}\ \theta\ \quad\Rightarrow\quad g(T_n)\ \xrightarrow{p}\ g(\theta)

  • از تئوری اسلاتسکی می توان به منظور ترکیب تعداد بسیاری از برآوردگرهای متفاوت، یا یک برآوردگر با یک دنباله ی غیر تصادفی همگرا استفاده کرد. اگر Tn →pα، و Sn →pβ، پس :

\begin{align}
  & T_n + S_n \ \xrightarrow{p}\ \alpha+\beta, \\
  & T_n   S_n \ \xrightarrow{p}\ \alpha \beta, \\
  & T_n / S_n \ \xrightarrow{p}\ \alpha/\beta,\ \text{موجب می شود که}\ \beta\neq0
  \end{align}

  • اگر برآوردگر Tn توسط یک فرمول مستقیم و واضح داده شود، پس به احتمال زیاد فرمول دلالتی بر مجموع های متغیرهای تصادفی خواهد داشت، و قانون اعداد بزرگ می تواند استفاده شود، برای دنباله ی متغیرهای تصادفی {Xn} و تحت شرایط مناسب داریم:

\frac{1}{n}\sum_{i=1}^n g(X_i) \ \xrightarrow{p}\ \operatorname{E}[\,g(X)\,]

  • اگر برآوردگر Tn بصورت ضمنی تعریف شود، برای مثال بعنوان یک مقدار که تابع هدف مشخصی را ماکسیمم می کند، پس مباحث بیشتری که پیوستگی در آمار را در بر دارد، باید استفاده گردد.

اریبی و سازگاری[ویرایش]

بدون اریبی اما ناسازگار[ویرایش]

یک برآوردگر می تواند بدون اریبی اما ناسازگار باشد. برای مثال، برای نمونه با توزیع مشابه و مستقل می توان از T(X) = X1 بعنوان برآوردگر با میانگین [E[x استفاده کرد. این برآوردگر بصورتی واضح بدون اریبی، و بصورتی آشکار ناسازگار می باشد.

بااریبی اما سازگار[ویرایش]

بصورتی مشابه، یک برآوردگر می تواند بااریبی اما سازگار باشد. برای مثال اگرمیانگین توسط {1 \over n} \sum x_i + {1 \over n} برآورد شده باشد، بااریبی است، اما همانطور که n \rightarrow \infty، این به مقدار صحیح می رسد، و بنابراین سازگار می باشد.

منابع[ویرایش]