توزیع هندسی

از ویکی‌پدیا، دانشنامهٔ آزاد
پرش به: ناوبری، جستجو
هندسی
پارامترها 0<p \leq 1
احتمال پیروزی (حقیقی)
‫تکیه‌گاه k \in \{1,2,3,\dots\}\!
تابع چگالی احتمال (1 - p)^{k-1}\,p\!
تابع توزیع تجمعی‫ (سی‌دی‌اف) 1-(1 - p)^k\!
میانگین \frac{1}{p}\!
میانه \left\lceil \frac{-\log(2)}{\log(1-p)} \right\rceil\! (در صورتی که -\log(2)/\log(1-p) عددی طبیعی باشد میانه یکتا نیست.)
مُد 1
واریانس \frac{1-p}{p^2}\!
چولگی \frac{2-p}{\sqrt{1-p}}\!
کشیدگی 6+\frac{p^2}{1-p}\!
انتروپی -\frac{1-p}{p}\ln(1-p)-\ln p\!
‫تابع مولد گشتاور (ام‌جی‌اف) \frac{pe^t}{1-(1-p) e^t}\!
تابع مشخصه \frac{pe^{it}}{1-(1-p)\,e^{it}}\!

توزیع هندسی، توزیعی است گسسته که بیانگر احتمال اولین پیروزی پس از k-1 شکست در فرایند برنولی می‌باشد

p_X(k) = \text{P}\{X = k\} = (1 - p)^{k-1}\,p

که در آن p احتمال پیروزی در یک دفعه است.

اثبات[ویرایش]

می دانیم شرط لازم و کافی برای X=n آن است که ابتدا،n-1 آزمایش شکست و n اُمین آزمایش موفقیت باشد. از آنجا که برآمدهای متوالی آزمایش ها بنا به فرض مستقل هستند داریم [۱] :

p_X(k) =  \text{P}\{X=n\}=p  (1-p)^{n-1}

هر متغیر تصادفی که تابع جرم احتمال بصورت بالا باشد را یک متغیر (فرایند) تصادفی هندسی با پارامتر p می نامیم.

\sum_{n=1}^\infty \text{Pr}\{X=n\}=p \sum_{n=1}^\infty (1-p)^{n-1}=\frac{p}{1-(1-p)}=1

در نتیجه با احتمال ۱، یک موفقیت بالاخره اتفاق می افتد.

چند مثال ساده[ویرایش]

  • فرض کنیم می خواهیم رمز عبور 8 کاراکتری یک کامپیوتر را حدس بزنیم. چند مرتبه باید این کار را تکرار کنیم؟
  • فرض کنیم یک دارو به احتمال p سبب درمان شود، دارو روی چندمین بیمار موثر واقع می‌شود؟
  • فرض کنیم احتمال برد یک تیم p باشد، چند مرتبه این تیم باید بازی کند تا یک بازی را ببرد ؟

امید ریاضی متغیر تصادفی هندسی[ویرایش]

قصیه: امید ریاضی متغیر تصادفی هندسی با پارامتر p برابر است با

\text{E}[X]=\frac{1}{p}

اثبات[ویرایش]

می دانیم p_X(k)=(1-p)^{k-1}p بنابراین برای محاسبه امید ریاضی می‌بایست عبارت زیر را محاسبه کنیم

\text{E}[X]=\sum_{x}x p_X(x)

پس با ترکیب دو رابطه ی بالا برای متغیر تصادفی هندسی داریم

\text{E}[X]=\sum_{k=0}^\infty k(1-p)^{k-1}p

حال اگر فرض کنیم

F(p)=\sum_{k=0}^\infty (1-p)^{k}=\frac{1}{1-(1-p)}=\frac{1}{p}

داریم

\frac{dF(p)}{dp}=-\sum_{k=0}^\infty k(1-p)^{k-1}=-\frac{1}{p^{2}}

در نتیجه

\text{E}[X]=p\frac{1}{p^{2}}=\frac{1}{p}

واریانس متغیر تصادفی هندسی[ویرایش]

قضیه: واریانس متغیر تصادفی هندسی با پارامتر p برابر است با

\text{var}[X]=\frac{1-p}{p^{2}}

اثبات[ویرایش]

فرض می کنیم پیشامد A= \{X=1\} و پیشامد B= \{X>1\} با توجه به اینکه A و B افرازهای فضای نمونه ی ما هستند، داریم

\text{E}[X^2]=\text{E}[X^2|A] \text{P}(A) + \text{E}[X^2|B] \text{P}(B)

می‌دانیم

 \text{E}[X^{2}|A]=\text{E}[X^{2}|X=1]=1

و

\text{E}[X^{2}|B]=\text{E}[X^{2}|X>1]=\text{E}[(X+1)^{2}]=\text{E}[X^{2}+2X+1]=\text{E}[X^{2}]+\frac{2}{p}+1

بنابراین

\text{E}[X^{2}]=1\times p + \left( \text{E}[X^{2}]+\frac{2}{p}+1 \right)(1-p)

\text{E}[X^{2}]=\frac{2-p}{p^{2}}

در نهایت از آنجا که \text{var}[X]=\text{E}[X^{2}]-(\text{E}[X])^{2} داریم

\text{var}[X]=\frac{2-p}{p^{2}}-\frac{1}{p^{2}}=\frac{1-p}{p^{2}}

متغیر تصادفی هندسی بدون حافظه است ![ویرایش]

فرض کنیم می دانیم تعداد دفعاتی که سکه ای را اندخته ایم از n بیشتر است، احتمال اینکه سکه را بیش از n+m دفعه بی اندازیم تا شیر بیاید چقدر است ؟

P(X>n+m|X>n)=\frac{P((X>n+m) \cap (X>n))}{P(X>n)}=\frac{P(X>n+m)}{P(X>n)}=\frac{(1-p)^{n+m}}{(1-p)^{n}}=(1-p)^{m}

پس تنها m بار پرتاب بعدی اهمیت دارد و n بار پرتاب اولیه بی ارزش می شود.

همچنین می توان ثابت کرد اگر یک متغیر تصادفی گسسته بی حافظه باشد، هندسی است.(عکس قضیه)

منابع[ویرایش]

  1. A First Course In Probability 8 Edition-Sheldon Ross