فرایند مارکوف

از ویکی‌پدیا، دانشنامهٔ آزاد

به زبان ساده، فرایند مارکوف یعنی محل بعدی یک متغیر تصادفی بدون حافظه را فقط با دانستن محل فعلی آن می‌توان براورد.

قضیه

ریاضیدان روسی به نام آندری مارکوف اندیشید که قدم بعدی یک مجنون در یک محوطه باز، فقط به قدم فعلی او وابسته است. سپس فرایند مارکوف را تعریف و کمی سازی کرد.

فرایند مارکف

دنباله‌ای از متغیرهای تصادفی را در نظر گرفته و فرض کنید مجموعه مقادیر ممکن که این متغیرها انتخاب می‌کنند برابر با باشد. اگر را به عنوان حالتی از یک سیستم در لحظه در نظر گرفته و چنین تفسیر کنیم که سیستم در لحظه در حالت است هرگاه باشد آنگاه دنباله متغیرهای تصادفی اصطلاحاً تشکیل یک زنجیر مارکف می‌دهد. اگر هروقت سیستم در حالت است با احتمال ثابتی که ان را می‌نامیم به حالت تغییر حالت دهد. برای همه مقادیر داریم :

اگر این احتمال‌ها را درون یک ماتریس قرار دهیم ماتریسی به شکل زیر بدست میآد که به آن ماتریس احتمال انتقال transition probability matrix یا ماتریس مارکف گویند. اگر به سطر i+۱ ام نگاه کنیدتوزیع احتمالX_{n+۱} را به شرط آنکه X_n =i باشد به شما نشان می‌دهد.

مثال

۱ - مجموع متغیرهای تصادفی و مستقل همتوزیع (قدم زدن تصادفی کلی): فر ض کنید مستقل و همتوزیع باشد باشند اگر فرض کنید آنگاه یک فرایند مارکف است که برای آن قدم تصادفی کلی گوییم این نوع قدم زدن در مسایل بسیاری کار برد دارند برای مثال در مدل بندی بردهای قمارباز یا در قیمت‌های متوالی شرکت معینی که در بازار سهام فهرست شده‌اند. هم چنین در تحلیل سیستم‌های صف بندی ورشکستگی کاربرد دارند. ۲-قدم زدن تصادفی ساده: قدم زدن که در آن


را قدم زدن تصادفی ساده گوییم اگر Pیی موجود باشد به قسمی که

                           

بنابراین در فرایند قدم زدن تصادفی همیشه۱ پله با احتمال به بالا می‌رود و با احتمال به پایین می‌آید. قضیه: اگر زنجیر مارکف گسسته زمان باشد به‌علاوه اگر P ماتریس احتمال انتقال ۱ مرحله‌ای باشد نشان می‌دهیم که ماتریس احتمال انتقال n مرحله‌ای خواهد بود. اثبات: اثبات به روش استقراست ابتدا برای n=۲ ثابت می‌کنیم

با توجه به خاصیت مارکف هر مرحله فقط به یکی قبل از خود بستگی دارد

حال اگر فرض کنیم که این رابطه برای n=k درست باشد آن را برای k+۱ ثابت می‌کنیم.

برابری چپمن – کولموگروف

اگر احتمال تغییر وضعیت n مرحله‌ای را برابر بگیریم داریم:

اثبات: با توجه به قضیه بالا داریم:

دسته‌بندی وضعیت‌های زنجیر مارکف

۱- وضعیت‌های در دسترس (Accessible State)

وضعیت j در دسترس وضعیت i نامیم و با
نشان می‌دهیم اگر و تنها اگر

اگر

j در دسترس i است.

۲- وضعیت‌های مرتبط(Communicate State)

وضعیت iوj را مرتبط می‌نامیم اگر و تنها اگر j در دسترس iو iدر دسترس j باشد مرتبط بودن را با نماد مشخص می‌کنیم

قضیه

مرتبط بودن یک رابطه هم‌ارزی است.

اثبات: بدیهی است چون مرتبط بودن دارای خاصیت بازتابی است.

مرتبط بودن دارای خاصیت تقارنی است.

می‌دانیم

بنا بر این مرتبط بودن یک کلاس هم‌ارزی است.

منابع

  • Weisstein, Eric W. "Markov Process." From MathWorld—A Wolfram Web Resource.

A first course in stochastic processes , samuel karlin academic press1969

فرایندهای تصادفی / شلدون. م. راس/ترجمه عین‌الله پاشا / مرکز نشر دانشگاهی تهران/۱۳۸۵