استنتاج الگوریتمی

از ویکی‌پدیا، دانشنامهٔ آزاد

استنتاج الگوریتمی پیشرفت‌های جدیدی را در روش‌های استنباط آماری حاصل می‌کند تا توسط دستگاه‌های محاسباتی قوی که به طور گسترده در دسترس هر تحلیلگر داده ای است، امکان‌پذیر باشد. سنگ بنای این رشته شامل تئوری یادگیری محاسباتی ، محاسبات دانه ای ، بیوانفورماتیک است و برای مدت ها پیش، احتمال ساختاری (فرزر 1966) نیز جزء این دسته بود . تمرکز اصلی بر روی الگوریتم‌هایی است که آمار را بر اساس یک پدیده تصادفی ریشه‌یابی می‌کنند و مقدار داده‌هایی را که باید از آنها تغذیه شود تا نتایج قابل اعتمادی بدست آید، محاسبه می‌کنند. این موضوع علاقه ریاضیدانان را از مطالعه قوانین توزیع به ویژگی های عملکردی آمار و علاقه دانشمندان کامپیوتر را از الگوریتم های پردازش داده ها به اطلاعاتی که آنها پردازش می کنند تغییر داد.

مسئله استنتاج پارامتریکی فیشر[ویرایش]

در مورد شناسایی پارامترهای یک قانون توزیع، خواننده آگاه ممکن است مناقشات طولانی را در اواسط قرن بیستم در مورد تفسیر تنوع آن ها از نظر توزیع اعتباری (فیشر 1956)، احتمالات ساختاری (فرزر 1966)، پیشین/پسین ها(رمزی 1925) و . . . به یاد آورد. از دیدگاه معرفت‌شناسی ، این امر مستلزم اختلاف نظر در مورد ماهیت احتمال بود: آیا این ویژگی فیزیکی پدیده‌ها است که از طریق متغیرهای تصادفی توصیف می شود یا یک روش برای سنتز داده ها درباره یک پدیده است؟ فیشر با انتخاب دومین مورد، قانون توزیع اعتباری پارامترهای یک متغیر تصادفی معین را که توسط نمونه ای از مشخصات آن استنباط کرد تعریف می کند . برای مثال، او با این قانون محاسبه می‌کند: «احتمالی که μ (میانگین یک متغیر گوسی – یادداشت omeur) کمتر از هر مقدار تخصیص داده شده باشد یا احتمالی که بین هر مقدار تخصیص داده شده باشد، یا به طور خلاصه، توزیع احتمال آن در نمونه در نظر گرفته شده».

راه حل کلاسیک[ویرایش]

فیشر سخت مبارزه کرد تا از تفاوت و برتری مفهوم خود از توزیع پارامتر در مقایسه با مفاهیم مشابه ای چون توزیع پسین بیز، احتمال سازنده فرزر و فواصل اطمینان نیمن دفاع کند. برای نیم قرن، فواصل اطمینان نیمن برای تمام اهداف عملی برنده شد و ماهیت پدیدارشناختی احتمالات را اعتبار بخشید. با این دیدگاه، وقتی با یک متغیر گوسی سروکار دارید، میانگین μ توسط ویژگی‌های فیزیکی پدیده‌ای که مشاهده می‌کنید در واقع در جایی که مشاهدات، عملگرهای تصادفی هستند ثابت می‌شود. بنابراین مقادیر مشاهده‌شده، مشخصات یک نمونه تصادفی هستند. به دلیل تصادفی بودن آن‌ها، می‌توانید فواصل زمانی خاص نمونه حاوی μ ثابت را با احتمال معینی که نشان دهنده اطمینان است، محاسبه کنید.

مثال[ویرایش]

فرض کنید X، متغیری گوسی [۱] با پارامتر و است و نمونه ای که از آن گرفته شده است، می باشد . کار با آماره :

و

میانگین نمونه است، پی می بریم که

از توزیع تی-استیودنت (ویلکس 1962) با پارامتر (درجه های آزادی) m - 1 پیروی می کند، به طوری که

T را بین دو چندک اندازه گیری کرده و عبارت آن را به عنوان تابعی از نمایش دهید و فواصل اطمینان را برای بدست آورید.

با مشخصات نمونه:

با داشتن m = 10، آماره و را محاسبه می کنید، و فاصله اطمینان 0.90 را برای با حدود (3.03,5.65) بدست می آورید.

استنتاج توابع با کمک کامپیوتر[ویرایش]

از دیدگاه مدل سازی، اختلاف کلی مانند دوراهی مرغ و تخم مرغ به نظر می رسد:

اول داده های ثابت و توزیع احتمال ویژگی آنها به عنوان یک نتیجه و یا اول ویژگی های ثابت و توزیع احتمال داده های مشاهده شده به عنوان نتیجه در نظر می گیریم. راه حل کلاسیک یک مزیت و یک اشکال دارد. زمانی که مردم هنوز محاسبات را با کاغذ و مداد انجام می‌دادند، از مورد اول به ویژه استقبال شد. فی النفسه، کار محاسبه فاصله اطمینان نیمن برای پارامتر ثابت θ سخت است: شما θ را نمی‌دانید، اما به دنبال از بین بردن فاصله‌ای با احتمالی بسیار کم شکست هستید. راه حل تحلیلی برای تعداد بسیار محدودی از موارد تئوری، قابل اجرا است. درمقابل، طیف وسیعی از نمونه‌ها را می‌توان سریع به روشی تقریبی با قضیه حد مرکزی از نظر فاصله اطمینان حول یک توزیع گوسی حل کرد - این خود یک مزیت محسوب می شود. مشکل در این است که قضیه حد مرکزی زمانی قابل اعمال خواهد بود که حجم نمونه به اندازه کافی بزرگ باشد. بنابراین برای نمونه مربوط به نمونه های استنتاج نوین کاربرد بسیار کمی دارد. در واقع مشکل به خودی خود در اندازه نمونه نیست بلکه این اندازه به دلیل پیچیدگی مسئله استنتاج به اندازه کافی بزرگ نیست.

منابع[ویرایش]

  • Fraser, D. A. S. (1966), "Structural probability and generalization", Biometrika, 53 (1/2): 1–9, doi:10.2307/2334048, JSTOR 2334048.
  • Fisher, M. A. (1956), Statistical Methods and Scientific Inference, Edinburgh and London: Oliver and Boyd
  • Apolloni, B.; Malchiodi, D.; Gaito, S. (2006), Algorithmic Inference in Machine Learning, International Series on Advanced Intelligence, vol. 5 (2nd ed.), Adelaide: Magill, Advanced Knowledge International
  • Apolloni, B.; Bassis, S.; Malchiodi, D.; Witold, P. (2008), The Puzzle of Granular Computing, Studies in Computational Intelligence, vol. 138, Berlin: Springer, ISBN 9783540798637
  • Ramsey, F. P. (1925), "The Foundations of Mathematics", Proceedings of the London Mathematical Society: 338–384, doi:10.1112/plms/s2-25.1.338.
  • Wilks, S.S. (1962), Mathematical Statistics, Wiley Publications in Statistics, New York: John Wiley
    • Fraser, D. A. S. (1966), "Structural probability and generalization", Biometrika, 53 (1/2): 1–9, doi:10.2307/2334048, JSTOR 2334048.
    • Fisher, M. A. (1956), Statistical Methods and Scientific Inference, Edinburgh and London: Oliver and Boyd
    • Apolloni, B.; Malchiodi, D.; Gaito, S. (2006), Algorithmic Inference in Machine Learning, International Series on Advanced Intelligence, vol. 5 (2nd ed.), Adelaide: Magill, Advanced Knowledge International
    • Apolloni, B.; Bassis, S.; Malchiodi, D.; Witold, P. (2008), The Puzzle of Granular Computing, Studies in Computational Intelligence, vol. 138, Berlin: Springer, ISBN 9783540798637
    • Ramsey, F. P. (1925), "The Foundations of Mathematics", Proceedings of the London Mathematical Society: 338–384, doi:10.1112/plms/s2-25.1.338.
    • Wilks, S.S. (1962), Mathematical Statistics, Wiley Publications in Statistics, New York: John Wiley
  1. By default, capital letters (such as U, X) will denote random variables and small letters (u, x) their corresponding specifications.