برنامه‌ریزی پارامتری: تفاوت میان نسخه‌ها

از ویکی‌پدیا، دانشنامهٔ آزاد
محتوای حذف‌شده محتوای افزوده‌شده
جز ابرابزار
بدون خلاصۀ ویرایش
خط ۱: خط ۱:
'''برنامه‌ریزی [[پرمایش|پَرمایش]]ی''' یا '''بهینه‌سازی زمان‌وردا''' از مسایل [[بهینه‌سازی ریاضی]] می‌باشد که مسئله به یاری [[تابع]]ی از یک یا چند [[پارامتر|پارامون]] واکاوی می‌شود.<ref>{{Cite journal|last=Kungurtsev|first=Vyacheslav|last2=Diehl|first2=Moritz|date=2014-12|title=Sequential quadratic programming methods for parametric nonlinear optimization|url=http://link.springer.com/10.1007/s10589-014-9696-2|journal=Computational Optimization and Applications|language=en|volume=59|issue=3|pages=475–509|doi=10.1007/s10589-014-9696-2|issn=0926-6003}}</ref> گوالش این شاخه از ریاضی به یاری '''واکاوی حساسیت''' یک مسئله بهینه‌سازی انجام شده‌است.
'''برنامه‌ریزی [[پرمایش|پَرمایش]]ی''' یا '''بهینه‌سازی زمان‌وردا''' از مسایل [[بهینه‌سازی ریاضی]] می‌باشد که مساله به یاری [[تابع]]ی از یک یا چند [[پارامتر|پارامون]] واکاوی می‌شود.<ref>{{Cite journal|last=Kungurtsev|first=Vyacheslav|last2=Diehl|first2=Moritz|date=2014-12|title=Sequential quadratic programming methods for parametric nonlinear optimization|url=http://link.springer.com/10.1007/s10589-014-9696-2|journal=Computational Optimization and Applications|language=en|volume=59|issue=3|pages=475–509|doi=10.1007/s10589-014-9696-2|issn=0926-6003}}</ref> گوالش و گسترش این شاخه از ریاضی به یاری '''واکاوی حساسیت''' (sensitivity analysis) و '''پیداشت هوموتپی''' (Homotopy Continuation) از یک مسئله بهینه‌سازی انجام گرفته است.


== مسئله ==
== مسئله ==
خط ۱۸: خط ۱۸:
</math> تابع هزینه (objective) و <math>
</math> تابع هزینه (objective) و <math>
g(x,\theta)
g(x,\theta)
</math> تابع پاوَند (constraint) می‌باشند. درنگرید که این مسئله خود، یک بهینه‌سازی پاوندیده می‌باشد. همچنین <math>J^*(\theta)</math> مقدار بهینه مسئله برحسب تابعی از <math>\theta</math> را برگردانده و <math>
</math> تابع پاوَند (constraint) می‌باشند. در نگر داشته باشید که این مسئله خود، یک بهینه‌سازی پاوَسته می‌باشد. همچنین <math>J^*(\theta)</math> مقدار بهینه مساله برحسب تابعی از <math>\theta</math> را برگردانده و <math>
\Theta
\Theta
</math> فضای پارامون را نشان می‌دهد.
</math> فضای پارامون را نشان می‌دهد.


== روش حل ==
== روش حل ==
برای حل این مسئله، گمان می‌شود که پاسخ بهینه برای مقداری از در دسترس است. سپس شرایط KKT ([[شرایط کاروش–کون–تاکر]]) برای این مسئله برجسب پارامون <math>\theta</math> نوشته می‌شود. با روش '''پیداشت هوموتپی''' (Homotopy Continuation)، شرایط KKT را می‌توان به روشی گام‌به‌گام و به یاری دستگاهی از [[معادله دیفرانسیل]] حل کرد. فرجام از حل این معادلات به پاسخ بهینه دست می‌یابیم.
برای حل این مسئله، گمان می‌شود که پاسخ بهینه برای مقداری از <math>\theta</math> در دسترس است. سپس شرایط KKT ([[شرایط کاروش–کون–تاکر]]) برای این مسئله برجسب پارامون <math>\theta</math> نوشته می‌شود. با روش '''پیداشت هوموتپی''' (Homotopy Continuation)، شرایط KKT را می‌توان به روشی گام‌به‌گام و به یاری دستگاهی از [[معادله دیفرانسیل]] حل کرد. از حل این معادلات، فرجام، به پاسخ بهینه دست می‌یابیم.


== الگوریتم حل ==
== الگوریتم حل ==
به هر روی معادلات دیفرانسیل وابسته به این گونه بهینه‌سازی، معمولاً پیچیده‌است که به روشی کاربردی نیاز می‌شود. روش '''پیش‌بینی-ویرایش''' ([[:en:Predictor–corrector method]]) یک روش کاربردی برای حل گام‌به‌گام این بهینه‌سازی است.
به هر روی معادلات دیفرانسیل وابسته به این گونه بهینه‌سازی، معمولاً پیچیده‌است که به روشی کاربردی نیاز می‌شود. [[روش پیش‌بینی-ویرایش]] یک روش کاربردی برای حل گام‌به‌گام این گونه از بهینه‌سازی است.


== کاربرد ==
== کاربرد ==
بهینه‌سازی پرمایشی در حل مسایل بهینه‌سازی دشوار ویا نامحدبی که پاسخ بهینه آن در شرایط ویژه‌ای از تابع هزینه در دسترس است، کاربرد دارد. فرض کنید، پاسخ مسئله بالا برای مقدار ویژه‌ای از <math>\theta</math> در دسترس باشد، آنگاه به یاری واکاوی حساسیت شرایط KKT ([[شرایط کاروش–کون–تاکر]]) می‌توان برای مقادیر دلخواه از <math>\theta</math> پاسخ بهینه (و یا زیربهینه) را بدست آورد.
بهینه‌سازی پرمایشی در حل مسایل بهینه‌سازی دشوار ویا نامحدبی که پاسخ بهینه آن در شرایط ویژه‌ای از تابع هزینه در دسترس است، کاربرد دارد. گمان کنید، پاسخ مساله بالا برای مقدار ویژه‌ای از <math>\theta</math> در دسترس باشد، آنگاه به یاری واکاوی حساسیت شرایط KKT ([[شرایط کاروش–کون–تاکر]]) می‌توان برای مقادیر دلخواه از <math>\theta</math> پاسخ بهینه (و یا زیربهینه) را بدست آورد.


از کاربردهای دیگر آن در نگره [[کنترل بهینه]] می‌باشد. با بررسی پیوند میان [[کنترل پیش‌بینانه مدل]] و این نوع بهینه‌سازی، گرایش به این شاخه از ریاضیات فزونی‌یافت.<ref>{{Cite journal|last=Bemporad|first=A.|last2=Morari|first2=M.|last3=Dua|first3=V.|last4=Pistikopoulos|first4=E.N.|date=2000|title=The explicit solution of model predictive control via multiparametric quadratic programming|url=http://ieeexplore.ieee.org/document/876624/|journal=Proceedings of the 2000 American Control Conference. ACC (IEEE Cat. No.00CH36334)|location=Chicago, IL, USA|publisher=IEEE|pages=872–876 vol.2|doi=10.1109/ACC.2000.876624|isbn=978-0-7803-5519-4}}</ref>
از کاربردهای دیگر آن در نگره [[کنترل بهینه]] می‌باشد. با بررسی پیوند میان [[کنترل پیش‌بینانه مدل]] و این نوع بهینه‌سازی، گرایش به این شاخه از ریاضیات فزونی‌یافته است.<ref>{{Cite journal|last=Bemporad|first=A.|last2=Morari|first2=M.|last3=Dua|first3=V.|last4=Pistikopoulos|first4=E.N.|date=2000|title=The explicit solution of model predictive control via multiparametric quadratic programming|url=http://ieeexplore.ieee.org/document/876624/|journal=Proceedings of the 2000 American Control Conference. ACC (IEEE Cat. No.00CH36334)|location=Chicago, IL, USA|publisher=IEEE|pages=872–876 vol.2|doi=10.1109/ACC.2000.876624|isbn=978-0-7803-5519-4}}</ref>


== جستارهای وابسته ==
== جستارهای وابسته ==

نسخهٔ ‏۱۹ سپتامبر ۲۰۲۱، ساعت ۱۵:۱۵

برنامه‌ریزی پَرمایشی یا بهینه‌سازی زمان‌وردا از مسایل بهینه‌سازی ریاضی می‌باشد که مساله به یاری تابعی از یک یا چند پارامون واکاوی می‌شود.[۱] گوالش و گسترش این شاخه از ریاضی به یاری واکاوی حساسیت (sensitivity analysis) و پیداشت هوموتپی (Homotopy Continuation) از یک مسئله بهینه‌سازی انجام گرفته است.

مسئله

مسئله بهینه‌سازی زیر را درنگرید.

که در آن متغیر بِهینش، پارامون‌ها، تابع هزینه (objective) و تابع پاوَند (constraint) می‌باشند. در نگر داشته باشید که این مسئله خود، یک بهینه‌سازی پاوَسته می‌باشد. همچنین مقدار بهینه مساله برحسب تابعی از را برگردانده و فضای پارامون را نشان می‌دهد.

روش حل

برای حل این مسئله، گمان می‌شود که پاسخ بهینه برای مقداری از در دسترس است. سپس شرایط KKT (شرایط کاروش–کون–تاکر) برای این مسئله برجسب پارامون نوشته می‌شود. با روش پیداشت هوموتپی (Homotopy Continuation)، شرایط KKT را می‌توان به روشی گام‌به‌گام و به یاری دستگاهی از معادله دیفرانسیل حل کرد. از حل این معادلات، فرجام، به پاسخ بهینه دست می‌یابیم.

الگوریتم حل

به هر روی معادلات دیفرانسیل وابسته به این گونه بهینه‌سازی، معمولاً پیچیده‌است که به روشی کاربردی نیاز می‌شود. روش پیش‌بینی-ویرایش یک روش کاربردی برای حل گام‌به‌گام این گونه از بهینه‌سازی است.

کاربرد

بهینه‌سازی پرمایشی در حل مسایل بهینه‌سازی دشوار ویا نامحدبی که پاسخ بهینه آن در شرایط ویژه‌ای از تابع هزینه در دسترس است، کاربرد دارد. گمان کنید، پاسخ مساله بالا برای مقدار ویژه‌ای از در دسترس باشد، آنگاه به یاری واکاوی حساسیت شرایط KKT (شرایط کاروش–کون–تاکر) می‌توان برای مقادیر دلخواه از پاسخ بهینه (و یا زیربهینه) را بدست آورد.

از کاربردهای دیگر آن در نگره کنترل بهینه می‌باشد. با بررسی پیوند میان کنترل پیش‌بینانه مدل و این نوع بهینه‌سازی، گرایش به این شاخه از ریاضیات فزونی‌یافته است.[۲]

جستارهای وابسته

منابع

  1. Kungurtsev, Vyacheslav; Diehl, Moritz (2014-12). "Sequential quadratic programming methods for parametric nonlinear optimization". Computational Optimization and Applications (به انگلیسی). 59 (3): 475–509. doi:10.1007/s10589-014-9696-2. ISSN 0926-6003. {{cite journal}}: Check date values in: |date= (help)
  2. Bemporad, A.; Morari, M.; Dua, V.; Pistikopoulos, E.N. (2000). "The explicit solution of model predictive control via multiparametric quadratic programming". Proceedings of the 2000 American Control Conference. ACC (IEEE Cat. No.00CH36334). Chicago, IL, USA: IEEE: 872–876 vol.2. doi:10.1109/ACC.2000.876624. ISBN 978-0-7803-5519-4.