امید ریاضی

از ویکی‌پدیا، دانشنامهٔ آزاد
پرش به: ناوبری، جستجو

در نظریه احتمالات امید ریاضی، میانگین، مقدار مورد انتظار یا ارزش مورد انتظار یک متغیر تصادفی گسسته برابر است با مجموع حاصل‌ضرب احتمال وقوع هر یک از حالات ممکن در مقدار آن حالت. در نتیجه میانگین برابر است با مقداری که بطور متوسط از یک فرایند تصادفی با بی‌نهایت تکرار انتظار می‌رود. بطور مثال برای تاس داریم:


\mathbb{E}[X] = \frac{1}{6}\times 1 + \frac{1}{6}\times 2 + \frac{1}{6}\times 3 + \frac{1}{6}\times 4 + \frac{1}{6}\times 5 + \frac{1}{6}\times 6 = 3.5

یعنی اگر بی‌نهایت بار تاس را پرت کنیم، مقدار میانگین بدست آمده به سمت عدد ۳٫۵ میل خواهد کرد.

تعریف ریاضی[ویرایش]

امید ریاضی یک متغیر تصادفی به صورت زیر تعریف می‌شود:


\mathbb{E}[X] = \int{xf_X(x)dx}

که در آن f_X(x) تابع چگالی احتمال متغیر تصادفی X است. برای متغیرهای تصادفی گسسته تعریف بالا به صورت زیر بازنویسی می‌شود:


\mathbb{E}[X] = \sum_{i=1}^{n}{x_ip_X(x_i)}

ویژگی‌ها[ویرایش]

ثابت‌ها[ویرایش]

امید ریاضی یک عدد ثابت برابر با همان عدد ثابت است؛ یعنی اگر  c عددی ثابت باشد، آنگاه:  \operatorname{E}(c)=c .

یکنوایی[ویرایش]

اگر برای دو متغیر تصادفی X و Y داشته باشیم X \le Y ، آنگاه با احتمال قریب به یقین داریم:  \operatorname{E}(X) \le \operatorname{E}(Y).

خطی بودن[ویرایش]

عملگر امید ریاضی خطی است یعنی برای هر دو متغیر تصادفی X و Y و هر عدد حقیقی a و b و c داریم :

\operatorname{E}(X + c)=  \operatorname{E}(X) + c\,
\operatorname{E}(X + Y)=  \operatorname{E}(X) + \operatorname{E}(Y)\,
\operatorname{E}(aX)= a \operatorname{E}(X)\,

و یا:

\operatorname{E}(aX + b)= a \operatorname{E}(X) + b\,
\operatorname{E}(a X + b Y) = a \operatorname{E}(X) + b \operatorname{E}(Y)\,

میانگین احتمال شرطی[ویرایش]

نامساوی[ویرایش]

اگر متغیر تصادفی X همواره کوچکتر یا مساوی متغیر تصادفی Y باشد، امید ریاضی X کوچکتر یا مساوی امید ریاضی Y خواهد بود:

اگر XY آنگاه [E[X]≤E[Y

در یک حالت خاص اگر Y را با |X| مقایسه کنیم، میدانیم که XY و XY-. پس میتوان نتیجه گرفت که [E[X] ≤ E[Y و [E[-X] ≤ E[Y. بنا به خاصیت خطی امیدریاضی داریم [E[X] ≤ E[Y-.

در نتیجه قدر مطلق امیدریاضی یک متغیر تصادفی، کوچکتر یا مساوی امیدریاضی قدر مطلق متغیر تصادفی است.

|\operatorname{E}(X)| \leq \operatorname{E}(|X|)

تعریف متغیر تصادفی گسسته،حالت متناهی فرض کنید که متغیر تصادفی X بتواند مقدار x1با احتمال p1, مقدار x2با احتمال p2, و غیره تا مقدار xk با احتمال pk را بگیرد. پس امید انی متغیر تصادفی X به صورت زیر تعریف می شود:


    \operatorname{E}[X] = x_1p_1 + x_2p_2 + \ldots + x_kp_k \;.

چون جمع همۀ احتمالات pi برابر یک است p1 + p2 + ... + pk = 1 ( بنابر این می توان مقدار مورد انتظار را به صورت میانگین وزن دار به همراه pi’sهایی که وزن هستند دید:


    \operatorname{E}[X] = \frac{x_1p_1 + x_2p_2 + \ldots + x_kp_k}{p_1 + p_2 + \ldots + p_k} \;.

اگر همۀ جواب های xi دارای احتمال یکسان باشند (یعنی p1 = p2 = ... = pk), پس میانگین وزن دار به میانگین ساده تبدیل می شود. این شهودی است: مقدار مورد انتظار یک متغیر تصادفی میانگین همۀ مقادیری است که می توان گرفت؛ بنابراین، این مقدار مورد انتظار، مقداری است که شما انتظار دارید روی میانگین اتفاق بیفتد. اگر جواب های xi هم احتمال نباشند، بنابراین ممکن است میانگین ساده جایگزین میانگین وزن دار (که بعضی از جواب های محتمل تر از بقیه را در نظر می گیرد) شود. ولی با این حال این شهود و کشف به همین صورت باقی می ماند: مقدار مورد انتظار X، مقداری است که انتظار می رود روی میانگین اتفاق بیفتد. مثال 1- فرض کنید X جواب یک تاس شش گوشه را نشان دهد. Xتعداد خال های روی وجه بالایی تاس بعد از پرتاب است می باشد. مقادیر ممکن برای X، 1، 2، 3، 4، 5و6 (که همگی دارای احتمال برابر 1/6 هستند) می باشند. امید Xبرابر است با:


    \operatorname{E}[X] = 1\cdot\frac16 + 2\cdot\frac16 + 3\cdot\frac16 + 4\cdot\frac16 + 5\cdot\frac16 + 6\cdot\frac16 = 3.5.

اگر تاس n بار پرتاب شود و میانگین نتایج محاسبه شوند پس با افزایش n ، میانگین به مقدار مورد انتظار همگرا خواهد بود. به این موضوع قانون قوی مقادیر بزرگ می گویند. برای مثال دنبالۀ ده تاس به صورت 2, 3, 1, 2, 5, 6, 2, 2, 2, 6 است که میانگین آنها برابر 3.1 با فاصلۀ 0.4 از مقدار مورد انتظار 3.5 می باشند.همگرایی نسبتاً پائین است. احتمالی که میانگین در بین محدودۀ 3.5 ± 0.1 افت می کند برای ده پرتاب 21.6% و برای هزار پرتاب 93.7% است. شکل که برای توضیح میانگین های دنباله های طولانی تر پرتاب ها نشان داده شده را ببینید و توجه کنید که چطور آنها به مقدار مورد انتظار 3.5 همگرا می شوند. عموماً نسبت همگرایی را می توان از طریق مثلاً نامساوی چبیشف و نظریۀ بری-اسن (Berry-Esseen theorem) به سختی کمی کرد. مثال 2- بازی رولت شامل یک توپ کوچک و یک چرخ با 38 پاکت شماره گذاری شده در اطراف لبۀ آن است. همانطور که این چرخ می چرخد، توپ به طور تصادفی به چرخش در می آید تا در یکی از این پاکت ها متوقف شود. فرض کنید متغیر تصادفی X جواب یک شرط بندی 1دلاری ( شرط مستقیم) رانشان دهد. اگر این شرط برنده شود (که با احتمال 1/38 اتفاق می افتد)، حاصل 35 دلار می شود. در غیر اینصورت بازیکن شرط را می بازد. سود مورد انتظار از این چنین شرطی به صورت زیر خواهد بود:


    \operatorname{E}[\,\text{gain from }$1\text{ bet}\,] =
      -$1 \cdot \frac{37}{38}\ +\ $35 \cdot \frac{1}{38} = -$0.0526.

متغیر تصادفی گسسته، حالت قابل شمارش فرض کنیدXیک متغیر تصادفی گسسته ای باشد که مقادیر x
1
, x
2
, ... به ترتیب با احتمالات ,p
1
, p
2
, ... را در خود می گیرد. پس مقدار مورد انتظار این متغیر تصادفی جمع متناهی زیر می باشد:


    \operatorname{E}[X] = \sum_{i=1}^\infty x_i\, p_i,

مشروط بر اینکه این سری مطلقاً همگرا است (که این جمع باید در صورتی متناهی باشد که ما همۀ x
i
'
s را با مقادیر قدرمطلقشان جایگزین کنیم). اگر این سری مطقاً همگرا نباشد می گوئیم که مقدار مورد انتظار X وجود ندارد. برای مثال فرض کنید که متغیر تصادفی X شامل مقادیر 1, −2, 3, −4, ... به ترتیب با احتمالات c/12, c/22, c/32, c/42, ...,باشد که c = 6/π2 یک ثابت نرمالیزه است که مطمئن می سازد که مجموع احتمالات برابر یک است. پس جمع متناهی زیر همگرا است و جمعش برابر ln(2) ≃ 0.69315. می باشد:


    \sum_{i=1}^\infty x_i\,p_i = c\,\bigg( 1 - \frac{1}{2} + \frac{1}{3} - \frac{1}{4} + \ldots \bigg)

با این حال صحیح نیست که ادعا کنیم مقدار مورد انتظار X با این مقدار برابر است در حقیقت E[X] وجود ندارد جون این سری مطلقاً همگرا نیست (سری های هارمونیک را ببیند).

متغیر تصادفی پیوسته یک متغیره اگر توزیع احتمال X در یک تابع چگالی احتمال f(x), صدق کند پس می توان مقدار مورد انتظار را به صورت زیر محاسبه کرد:


    \operatorname{E}[X] = \int_{-\infty}^\infty x f(x)\, \operatorname{d}x .

تعریف عمومی عموماً اگر Xیک متغیر تصادفی تعریف شده روی یک فضای احتمال (Ω, Σ, P), باشد پس مقدار مورد انتظار X (که به صورت E[X], <X>, X or E[X], مشخص می شود) به صورت انتگرال لبسگو تعریف می شود:

\operatorname{E}[X] = \int_\Omega X\, \operatorname{d}P = \int_\Omega X(\omega)\, P(\operatorname{d}\omega)

وقتی که این انتگرال وجود داشته باشد، پس به صورت امید X تعریف می شود. توجه کنید که هیچ متغیر تصادفی اصلاً مقدار مورد انتظار متناهی ندارد چون ممکن نیست که این انتگرال مطلقاً همگرا باشد؛ بعلاوه برای بعضی این اصلاً تعریف نشده است (مثلاً توزیع کوشی). دو متغیر با توزیع احتمال یکسان، مقدار مورد انتظار یکسانی خواهند داشت در صورتی که این انتگرال تعریف شده باشد این موضوع مستقیماً از تعریف حالت گسسته پیروی می کند که اگر Xیک متغیر تصادفی ثابت باشد (یعنی X = b برای چند تا مقدار حقیقی ثابت b) پس مقدار مورد انتظارX نیز bخواهد بود. مقدار مورد انتظار یک تابع دلخواه X, g(X), نسبت به تابع چگالی احتمال ƒ(x) از طریق ضرب داخلی ƒ و g بدست می آید.

\operatorname{E}(g(X)) = \int_{-\infty}^\infty g(x) f(x)\, \operatorname{d}x .

بعضی مواقع به این قانون آماری ناخودآگاه می گویند. بااستفاده از نمایش ها به صورت انتگرال ریمان – استیلتجس و انتگرالگیری جزئی می توان این فرمول را به صورت زیر دوباره بیان کرد:

  • \operatorname{E}(g(X)) = \int_a^\infty g(x) \, \mathrm{d} \operatorname{P}(X \le x)= g(a)+ \int_a^\infty g'(x)\operatorname{P}(X> x) \, \mathrm{d} x if \operatorname{P}(g(X) \ge g(a))=1,
  • \operatorname{E}(g(X)) = \int_{-\infty}^a g(x) \, \mathrm{d} \operatorname{P}(X \le x)= g(a)- \int_{-\infty}^a g'(x)\operatorname{P}(X \le x) \, \mathrm{d} x if \operatorname{P}(g(X) \le g(a))=1.

چون در این حالت ویژه، α یک عدد حقیقی مثبت را نشان می دهد پس:

 \operatorname{E}(\left|X \right|^\alpha) = \alpha \int_{0}^{\infty} t^{\alpha -1}\operatorname{P}(\left|X \right|>t) \, \operatorname{d}t.

به ویژه برای α = 1 این به شکل زیر کاهش می یابد در صورتی که Pr[X ≥ 0] = 1, باشد (که F تابع توزیع تجمعی X است). اصطلاحات متداول

  • وقتی که شخصی از قیمت مورد انتظار، ارتفاع مورد انتظار و غیره صحبت می کند یعنی اینکه مقدار مورد انتظار یک متغیر تصادفی آن یک قیمت یا یک ارتفاع و غیره است.
  • وقتی که شخصی از تعداد مورد انتظار تلاش های مورد نیاز برای موفق شدن صحبت می کند، ممکن است شخص به طور محافظه کارانه آن را به صورت نسبت معکوس احتمال موفقیت برای اینچنین تلاشی تقریب بزند(یعنی مقدار مورد انتظار توزیع هندسی).

ویژگی ها ثابت ها مقدار مورد انتظار یک ثابت مساوی باخود ثابت است یعنی اگر cیک ثابت است پس E[c] = c.

است.

یکنوایی اگر X وY متغیر های تصادفی هستند به طوریکه XY است، پس E[X] ≤ E[Y].

خطی بودن عملگر مقدار مورد انتظار (یا عملگر امید ریاضی) E در مورد زیر خطی است:

\operatorname{E}(X + c)=  \operatorname{E}(X) + c\,
\operatorname{E}(X + Y)=  \operatorname{E}(X) + \operatorname{E}(Y)\,
\operatorname{E}(aX)= a \operatorname{E}(X)\,

توجه داشته باشید که نتیجۀ دوم حتی اگر X از لحاظ آماری مستقل از Y نباشد، معتبر و دست است. با ترکیب نتایج حاصل از سه معادلۀ قبلی، ما می توانیم به نتیجۀ زیر برسیم:

\operatorname{E}(aX + b)= a \operatorname{E}(X) + b\,
\operatorname{E}(a X + b Y) = a \operatorname{E}(X) + b \operatorname{E}(Y)\,

برای هر کدام از متغیر های تصادفی Xو Y (که باید در همان فضای احتمال تعریف شوند) و هر عدد aو bنتیجۀ بالا در نظر گرفته می شود. امید ریاضی مکرر امید ریاضی برای متغیر های تصادفی گسسته برای هر کدام از متغیر های تصافی گسستۀ X, Y ما ممکن است امید ریاضی شرطی را تعریف کنیم:

 \operatorname{E}(X|Y)(y) = \operatorname{E}(X|Y=y) = \sum\limits_x x \cdot \operatorname{P}(X=x|Y=y).

که بدین معنی است E[X|Y](y) یک تابعY است. پس امید ریاضی x در معادلۀ زیر صدق می کند:

\operatorname{E}_Y\left[ \operatorname{E}_{X|Y=y}(x) \right]=
=\operatorname{E} \left( \operatorname{E}(X|Y) \right)= \sum\limits_y \operatorname{E}(X|Y=y) \cdot \operatorname{P}(Y=y)  \,
=\sum\limits_y \left( \sum\limits_x x \cdot \operatorname{P}(X=x|Y=y) \right) \cdot \operatorname{P}(Y=y)\,
=\sum\limits_y \sum\limits_x x \cdot \operatorname{P}(X=x|Y=y) \cdot \operatorname{P}(Y=y)\,
=\sum\limits_y \sum\limits_x x \cdot \operatorname{P}(Y=y|X=x) \cdot \operatorname{P}(X=x) \,
=\sum\limits_x x \cdot \operatorname{P}(X=x) \cdot \left( \sum\limits_y \operatorname{P}(Y=y|X=x) \right) \,
=\sum\limits_x x \cdot \operatorname{P}(X=x) \,
=\operatorname{E}(X)
=\operatorname{E}_X(x).

بنابر این معادلۀ زیر برقرار است: Sheldon M Ross. "§3.4: Computing expectations by conditioning". cited work. p. 105 ff. ISBN 0125980620.  </ref>

\operatorname{E}(X) = \operatorname{E} \left( \operatorname{E}(X|Y) \right).

یعنی:

\operatorname{E}_X(x) = \operatorname{E}_Y\left[ \operatorname{E}_{X|Y=y}(x) \right].

طرف راست معادله به امید ریاضی مکرر اشاره دارد و گاهی اوقات قانون برج یا احتمال برج نامیده شده است. این پیش فرض در قانون کل امید ریاضی مورد توجه قرار گرفته است. امید مکرر برای متغیر های تصادفی پیوسته در مورد متغیر های پیوسته، نتایج ما کاملاً قابل قیاس هستند. تعریف امید ریاضی شرطی از نابرابری ها، تابع های چگالی و انتگرال ها استفاده می کند تا با نابرابری ها، تابع های جزئی و مجموع ها به ترتیب جایگزین کند. اما نتیجۀ اصلی هنوز برقرار است:

\operatorname{E}(X) = \operatorname{E} \left( \operatorname{E}(X|Y) \right).

نابرابری ها اگر یک متغیر تصادفی x همیشه کمتر یا مساوی با متغیر تصادفی دیگری Y باشد، پس امید ریاضی (یامقدار مورد انتظار) کمتر یا مساوی با مقدار مورد انتظار Y است. اگر XY, است، پس E[X] ≤ E[Y]. است. به ویژه، اگر y را با |X| منطبق کنیم، می دانیم XYوXY. است. از اینرو ما می دانیم E[X] ≤ E[Y] و E[-X] ≤ E[Y]. با توجه به خطی بودن امید ریاضی ما می دانیم -E[X] ≤ E[Y] است. از اینرو، مقدار مطلق امید ریاضی یک متغیر تصادفی کمتر یا مساوی با مقدار مطلق آن است:

|\operatorname{E}(X)| \leq \operatorname{E}(|X|)

غیر ضربی اگر تابع چگالی احتمال مشترک (یا توأم) x و y را در نظر بگیریم (مثلاً j(x,y)) پس امید ریاضی xy بدین صورت است:


\operatorname{E}(XY)=\int\int xy \, j(x,y)\,dx\,dy.

به طور کلی، عملگر مقدار مورد انتظار ضربی نیست، یعنی E[XY] لزوماً با E[X]·E[Y] مساوی نیست. در حقیقت، مقداری که نمی‌تواند ضرب شود، را کوواریانس می نامند:


\operatorname{Cov}(X,Y)=\operatorname{E}(XY)-\operatorname{E}(X)\operatorname{E}(Y).

از اینرو، این ضرب هنگامیکه Cov(X, Y) = 0 است، برقرار است، در آن کوواریانس، XوY گفته می شود نا همبسته هستند (متغیر های مستقل یک مورد مهم متغیر های نا همبسته هستند). حالا اگر X و Y مستقل هستند، پس با توجه به تعریف j(x,y) = ƒ(x)g(y) در اینجا f و g در واقع PDF های حاشیه ای برای X و Yهستند. پس:


\begin{align}
\operatorname{E}(XY) & = \int \int xy \,j(x,y)\,dx\,dy=
\int\int x y f(x) g(y)\,dy\,dx \\
& = \left[\int x f(x)\,dx\right]\left[\int y g(y)\,dy\right]=\operatorname{E}(X)\operatorname{E}(Y)
\end{align}

and Cov(X, Y) = 0. مشاهده کنید که استقلال X و Y مورد نیاز است تا این معادله نوشته شود: j(x,y) = ƒ(x)g(y), و این باید دومین تساوی بالا را ثابت کند. تساوی سوم از یک کاربرد اولیه و اصلی تئوری نوبینی-تونلی پیروی می کند. ناوردایی تابعی به طور کلی، عملگر امید ریاضی و تابع های متغیر های تصادفی تبدیل نیم شوند یعنی:

\operatorname{E}(g(X)) = \int_{\Omega} g(X)\, \operatorname{d}P \neq g(\operatorname{E}(X)),

یک نا تساوی مهم برای این موضوع نا تساوی جنسن است، که شامل مقدار های مورد انتطار تابع های محدب می شود. استفاده ها و کاربرد ها مقدار های مورد انتظار توان های Xگشتاور های Xمی نامند؛ گشتاور ها نزدیک به میانگین X در واقع مقدار های مورد انتظار توان های X − E[X] هستند. گشتاور های بعضی از متغیر های تصادفی می توانند برای تعیین توزیع هایشان از طریق تابع تولیدی گشتاوریشان استفاده شوند. برای تخمین تجربی مقدار مورد انتظار یک متغیر تصادفی، ما به طور پیوسته مشاهدات متغیر را اندازه گیری می کنیم و میانگین حسابی نتایج را محاسبه می کنیم. اگر مقدار مورد انتظار وجود دارد، این فرایند مقدار مورد انتظار حقیقی را با یک شیوۀ غیر تعصبی و غیر طرفدارانه را تخمین می زند و ویژگی به حداقل رساندن مجموع مربع های باقی‌مانده ها دارد (جمع تفاضل های مربع بین مشاهدات و تخمین) قانون اعداد بزرگ نشان داد که تحت شرایط نسبتاً مناسب، هنگامیکه اندازۀ نمونه بزرگتر می شود واریانس این تخمین کوچکتر می شود. این ویژگی در بسیار از مصارف استفاده می شود مانند: مسائل کلی تخمین آماری و آموزش ماشین، بریا تخمین مقدار های (احتمالی) سود از طریق متود ها/روش های مونت کارلو، زیرا اکثر مقدار های (کمیت های) سود می تواند از لحاظ امید ریاضی نوشته شوند یعنی ، در اینجا تابع شاخصی برای مجموعۀ است . در مکانیک کلاسیک، مرکز جرم یک مفهوم مشابه امید ریاضی است. برای مثال، فرض کنید X یک متغیر تصادفی گسسته با مقدار های xi و احتمالات مرتبط pi است، حالا یک میلۀ بدون وزن که بر روی آن وزن ها در موقعیت های xi در طول میله قرار گرفته اند و جرم آنها pi است (که مجموع آنها یک است) نقطه که در آن میله متعادل E[X] است. مقدار های مورد انتظار می توانند همچنین برای محاسبۀ واریانس به وسیلۀ فرمول های محساباتی واریانس استفاده شوند.

\operatorname{Var}(X)=  \operatorname{E}(X^2) - (\operatorname{E}(X))^2.

یک کاربرد بسیار مهم مقدار مورد انتظار در زمینۀ مکانیک کوانتوم است. مقدار مرود انتظار یک عملگر (یا اپراتور) مکانیکی کوانتوم \hat{A} که در بردار حالت کوانتوم |\psi\rangle کار می کند، به این صورت نوشته می شود:\langle\hat{A}\rangle = \langle\psi|A|\psi\rangle. . ابهام در \hat{A} می تواند با استفاده از (\Delta A)^2 = \langle\hat{A}^2\rangle - \langle\hat{A}\rangle^2 محاسبه شود. امید ماتریس ها اگر X یک ماتریس m \times n ماتریس, باشد پس مقدار مورد انتظار ماتریس به صورت ماتریس مقادیر مورد انتظار تعریف می شود:


\operatorname{E}(X)
=
\operatorname{E}
\begin{pmatrix}
 x_{1,1} & x_{1,2} & \cdots & x_{1,n} \\
 x_{2,1} & x_{2,2} & \cdots & x_{2,n} \\
 \vdots  & \vdots  & \ddots & \vdots  \\
 x_{m,1} & x_{m,2} & \cdots & x_{m,n}
\end{pmatrix}
=
\begin{pmatrix}
 \operatorname{E}(x_{1,1}) & \operatorname{E}(x_{1,2}) & \cdots & \operatorname{E}(x_{1,n}) \\
 \operatorname{E}(x_{2,1}) & \operatorname{E}(x_{2,2}) & \cdots & \operatorname{E}(x_{2,n}) \\
 \vdots                    & \vdots                    & \ddots & \vdots \\
 \operatorname{E}(x_{m,1}) & \operatorname{E}(x_{m,2}) & \cdots & \operatorname{E}(x_{m,n})
\end{pmatrix}.

از این در ماتریس های کوواریانس استفاده می شود فرمول ها برای حالت های ویژه توزیع گسسته ای که فقط مقادیر صحیح غیر منفی را می گیرد وقتی که یک مقدار تصادفی فقط مقادیر داخل \{0,1,2,3,...\}را می گیرد پس می توانیم از فرمول زیر برای محاسبۀ امیدش (حتی وقتی که این امید نا متناهی باشد) استفاده کنیم:


\operatorname{E}(X)=\sum\limits_{i=1}^\infty P(X\geq i).

اثبات:


\begin{align}
\sum\limits_{i=1}^\infty P(X\geq i)&=\sum\limits_{i=1}^\infty \sum\limits_{j=i}^\infty P(X = j)
\end{align}

با مبادلۀ توان مجموع همانطور که ادعا می کردیم، داریم:


\begin{align}
\sum\limits_{i=1}^\infty P(X\geq i)&=\sum\limits_{j=1}^\infty \sum\limits_{i=1}^j P(X = j)\\
                   &=\sum\limits_{j=1}^\infty j\, P(X = j)\\
                   &=\operatorname{E}(X)
\end{align}

این جواب می تواند یک میانبر محاسباتی مفید باشد. برای مثال فرض کنید که ما یک سکه ای را بالا می اندازیم که احتمال عدد آمدن آن pباشد. با چند پرتاب می توان اولین خط ها (نه آنهایی که شامل خود خط هستند) را انتظار داشت؟ فرض کنید X این تعداد را نشان دهد. توجه کنید که ما فقط دنباله ها را میشماریم و خط هایی که آزمایش را پایان می دهند را نمی شماریم. ما می توانیم داشته باشیم که X = 0. امید Xرا می توان از طریق محاسبه کرد. این بدین خاطر است که تعداد پرتاب های سکه حداقل دقیقاً i هستند (در زمانی که اولین پرتاب های i دنباله ها را بدست آورده است). این امر، امید یک متغیر تصادفی را با یک توزیع نمایی منطبق می سازد. ما از این فرمول برای تصاعد هندسی استفاده کردیم: 
\sum_{k=1}^\infty r^k=\frac{r}{1-r}.
توزیع پیوسته ای که مقادیر غیر منفی را می گیرد مثل حالت گسسته ای که قبلاً گفته شده وقتی که یک متغیر تصادفی پیوسته ای مثلX فقط مقادیر غیر منفی را می گیرد پس می توانیم از فرمول زیر برای محاسبۀ امیدش استفاده کنیم (حتی وقتی که امید نامتناهی باشد):


\operatorname{E}(X)=\int_0^\infty P(X \ge x)\; dx

اثبات: ابتدا فرض کنید که X یک چگالی برابر f_X(x) داشته باشد. ما دو تکنیک ارائه می کنیم:


\operatorname{E}(X) = \int_0^\infty (-x)(-f_X(x))\;dx = \left[ -x(1 - F(x)) \right]_0^\infty + \int_0^\infty (1 - F(x))\;dx

و کروشۀ آن به صفر می رسد چون 1-F(x) = o(1/x) به طوری که x \to \infty.

  • با استفاده از یک مبادله در مرتبۀ انتگرالگیری:

\int_0^\infty P(X\ge x)\;dx =\int_0^\infty \int_x^\infty f_X(t)\;dt\;dx = \int_0^\infty \int_0^t f_X(t)\;dx\;dt = \int_0^\infty t f_X(t)\;dt = \operatorname{E}(X)

در حالتی که هیچ چگالی وجود نداشته باشد دیده می شود که:


\begin{align}
\operatorname{E}(X) = \int_0^\infty \int_0^x \;dt\; dF(x) = \int_0^\infty \int_t^\infty dF(x) \;dt = \int_0^\infty (1-F(t)) \;dt.
\end{align}

تاریخ نظریه ی مقدارمورد انتظاردر اواسط قرن هفدهم از مطالعه مشکل معروف امتیازات منشاء گرفته است. مشکل این بود: چگونه باید پولهای شرط بندی شده را به طور عادلانه بین دو بازیکنی که قبل از اینکه بازی کاملاً تمام شود مجبور هستند بازی را تمام کنند تقسیم کرد؟ این مشکل قرن ها مورد بحث وبررسی قرار گرفت و راه حلهاو پیشنهادات جنگجال برانگیز زیادی پیشنهاد شدند.این نظریه برای اولین بار توسط یک نجیب زاده ی فرانسوی دو مر( ( de Mere در سال 1654 به بلیز پاسکال ارائه شد. دو مر اظهار نظر کرد که این مشکل نمی‌تواند حل شود و این نشان می دهد ریاضی نمی‌تواند در دنیای واقعی استفاده شود و کمبود دارد. پاسکال، که یک ریاضیدان است، برانگیخته شد و تصمیم گرفت این مشکل را برای همیشه حل کند. اولین موضوع را از طریق نامه های معروفی با پیر دو فرمات (Pierre de fermat) در میان گذاشت. بعد از مدت زمان کوتاهی هر دوی آنها به دو راه حل مجزا رسیدند. آنها این مشکل را با دو راه حل محاسباتی متفاوت حل کردند، اما نتیجۀ آنها یکسان بود زیرا محاسبات شان بر اساس اصول پایه و اساسی یکسانی بود. این اصل پایه این بود که مقدار یک یود آینده باید مستقیماً با شانس به دست آوردن آن مساوی باشد. این اصل به نظر هر دوی آنها کاملاً طبیعی بود. آنها از اینکه به راه حل رسیده بودند بسیار خوشحال بودند و از اینرو این باعث شد آنها متقاعد شوند بالاخره انی شکل را توانسته اند حل کنند. با این حال آنها یافته هایشان را منتشر نکردند. آنها تنها به تعدادی از دوستان مشترک محققانشان در پاریس اطلاع دادند. سه سال بعد در سال 1657 یک ریاضی دان آلمانی کریستیان هیگنز، که به پاریس سفر کرده بود، یک مقاله در مورد نظریۀ احتمال با نام (de ratiociniis in ludo ale) چاپ کرد. در آن مقاله هیگنز مسئله امتیازات را در نظر گرفته بود و یک راه حل بر اساس همان اصلی که پاسکال و فرمات دنبال کرده بودند پیشنهاد کرد. او همچنین نظریه امید را با اضافه کردن قوانین مربوط به چگونه محاسبه کردن امید ها در موقعیت های پیچیده تر از مسئلۀ اصلی، گسترش داد. هینگز در مقدمۀ مقاله اش نوشت: باید گفته شود که بریا بعضی مواقع، بعضی از بهترین ریاضی دانان از فرانسه قبلاً به حل آن پرداخته بودند بنابراین هیچ کس نباید افتخار ابداع این نظریه را به من نسبت دهد. این به من تعلق ندارد. اما انی دانشمندان، اگر چه هر دو یکدیگر را از طریق پرسیدن سوالات دشوار از یکدیگر در معرض آزمایش قرار داده بودند ولی روش هایشان را از هم پنهان کرده بودند.از اینرو من از همان اصول اولیه شروع کردم تا به حل این مسئله رسیدم و بدین دلیل غیر ممکن است تأئید کنم که از همان اصول آنها آغاز به کار کردم. اما در نهایت من در بسیاری از موارد بدین نتیجه رسیدم که پاسخ هایم با آنها متفاوت هستند. از اینرو هیگنز در طی سفرش به فرانسه از اظهار نظر دومر در سال 1655 مطلع شد، بعداً در سال 1656 از طریق ارتباط با کارکاوی دریافت که روش او کاملاً همانند پاسکال است، بنابراین قبل از اینکه مقاله اش برای چاپ برود، او از ارجحیت و پیش قدمی پاسکال در این زمینه آگاه بود. پاسکال و هیگنز هیچکدام کلمۀ امید را با مفهوم امروزی استفاده نکردند. به خصوص شانس یا امید من برای بردن هر چیزی مساوی با به دست نیاوردن آن است... اگر من انتظار دارم a یا b را به دست بیاورم، شانس بدست آوردن هر کدام از آنها مساوی است، مقدار امید من (a+b)/2 است. بیش از صد سال قبل، در سال 1814 پیرسایمون لاپلاس مقالۀ خود را با عنوان "Théorie analytique des probabilités" منتشر کرد، در آنجا مفهوم مقدار مورد انتظار (یا امید ریاضی) به طور واضح توضیح داده شد. استفاده از حرف E به معنی مقدار مورد انتظار است که به نظریۀ انتخاب و شانس دابیلیو.ای وایت ورت بر میگردد این سمبل در زمانی که بریا همۀ نویسندگان انگلیسی، آلمانی و فرانسوی E به معنی انتظار شد.

منابع[ویرایش]

مشارکت‌کنندگان ویکی‌پدیا، «Expected value»، ویکی‌پدیای انگلیسی، دانشنامهٔ آزاد (بازیابی در ۱۹ فوریه ۲۰۰۸).

  • مشارکت‌کنندگان ویکی‌پدیا، «Expected value»، ویکی‌پدیای انگلیسی، دانشنامهٔ آزاد (بازیابی در ۳۰ ژوئیهٔ ۲۰۱۲).
  • Casella، George و Roger L. Berger. «۱». در Statistical Inference. Duxbury Press، 2001. شابک ‎۰۵۳۴۲۴۳۱۲۶.