فرایند مارکوف

از ویکی‌پدیا، دانشنامهٔ آزاد
(تغییرمسیر از فرآیند مارکف)
پرش به: ناوبری، جستجو

به فرایندی تصادفی که احتمالات آینده آن از طریق مقادیر اخیر آن محاسبه می‌شود، فرایند مارکف می‌گویند. این فرایند از روی نام ریاضیدان روسی به نام آندری مارکف نامگذاری شده است.

فرایند مارکف: markov process[ویرایش]

دنباله ای از متغیرهای تصادفی را در نظر گرفته و فرض کنید مجموعه مقادیر ممکن که این متغیرها انتخاب میکنند برابر با باشد.اگر را به عنوان حالتی از یک سیستم در لحظه در نظر گرفته و چنین تفسیر کنیم که سیستم در لحظه در حالت است هرگاه باشد انگاه دنباله متغیرهای تصادفی اصطلاحاً تشکیل یک زنجیر مارکف میدهد.اگر هروقت سیستم در حالت است با احتمال ثابتی که ان را می نامیم به حالت تغییر حالت دهد. برای همه مقادیر داریم :

اگر این احتمال ها را درون یک ماتریس قرار دهیم ماتریسی به شکل زیر بدست میآد که به آن ماتریس احتمال انتقال transition probability matrix و یا ماتریس مارکف گویند. اگر به سطر i+۱ ام نگاه کنیدتوزیع احتمالX_{n+۱} را به شرط آنکه X_n =i باشد به شما نشان می دهد از (علیرضا فرداد)

مثال[ویرایش]

۱ - مجموع متغیرهای تصادفی و مستقل همتوزیع (قدم زدن تصادفی کلی ): فر ض کنید مستقل و همتوزیع باشد باشند اگر فرض کنید آنگاه یک فرایند مارکف است که برای آن قدم تصادفی کلی گوییم این نوع قدم زدن در مسایل بسیاری کار برد دارند برای مثال در مدل بندی برد های قمارباز و یا در قیمت های متوالی شرکت معینی که در بازار سهام فهرست شده اند. هم چنین در تحلیل سیستم های صف بندی ورشکستگی کاربرد دارند. ۲-قدم زدن تصادفی ساده: قدم زدن که در آن

 

را قدم زدن تصادفی ساده گوییم اگر Pیی موجود باشد به قسمی که

                                  

بنابراین در فرایند قدم زدن تصادفی همیشه۱ پله با احتمال به بالا میرود و با احتمال به پایین می آید. قضیه: اگر زنجیر مارکف گسسته زمان باشد بعلاوه اگر P ماتریس احتمال انتقال ۱ مرحله ای باشد نشان می دهیم که ماتریس احتمال انتقال n مرحله ای خواهد بود. اثبات: اثبات به روش استقراست ابتدا برای n=۲ ثابت می کنیم

با توجه به خاصیت مارکف هر مرحله فقط به یکی قبل از خود بستگی دارد

حال اگر فرض کنیم که این رابطه برای n=k درست باشد آن را برای k+۱ ثابت می کنیم.

برابری چپمن – کولموگروف[ویرایش]

اگر احتمال تغییر وضعیت n مرحله ای را برابر بگیریم داریم:

اثبات: با توجه به قضیه بالا داریم:

دسته بندی وضعیت های زنجیر مارکف[ویرایش]

۱- وضعیت های در دسترس (Accessible State)[ویرایش]

وضعیت j   در دسترس وضعیت i نامیم و با
نشان می دهیم اگر و تنها اگر

اگر

j در دسترس i است.

۲- وضعیت های مرتبط(Communicate State)[ویرایش]

وضعیت iوj را مرتبط می نامیم اگر وتنها اگر j در دسترس iو iدر دسترس j باشد مرتبط بودن را با نماد مشخص می کنیم

قضیه[ویرایش]

مرتیط بودن یک رابطه هم ارزی است.

اثبات: بدیهی است چون مرتبط بودن دارای خاصیت بازتابی است.

مرتبط بودن دارای خاصیت تقارنی است.

میدانیم

بنا بر این مرتبط بودن یک کلاس هم ارزی است.

منابع[ویرایش]

  • Weisstein, Eric W. "Markov Process." From MathWorld--A Wolfram Web Resource.

A first course in stochastic processes , samuel karlin academic press1969

فرایند های تصادفی / شلدون .م.راس/ترجمه عین الله پاشا / مرکز نشر دانشگاهی تهران/1385