بهینه‌سازی محدب

از ویکی‌پدیا، دانشنامهٔ آزاد
پرش به: ناوبری، جستجو

مسئلهٔ بهینه‌سازی محدب یا بهینه‌سازی کوژ (به انگلیسی: Convex Optimization) به یافتن مقدار حداقل یک تابع محدب (یا حداکثر یک تابع مقعر) از بین مجموعه‌ای محدب گفته می‌شود. مهمترین مزیت این نوع مسائل بهینه‌سازی در این است که هر نقطهٔ بهینهٔ محلی یک نقطه بهینهٔ سراسری نیز است و هر الگوریتم بهینه‌سازی که یک نقطه بهینهٔ محلی را یافت در حقیقت یک نقطه بهینهٔ سراسری را یافته‌است.

مسئله بهینه‌سازی شبه محدب[ویرایش]

مسئله بهینه‌سازی شبه محدب، فرم استاندارد زیر را دارد:[۱]

که قیود نامساوی محدب هستند و تابع هدف نیز شبه محدب می‌باشد (زمانیکه مسئله محدب باشد تابع هدف نیز محدب است). قیود شبه محدب می‌توانند با معادل محدب شان جایگزین شوند. در این نوشتار بعضی از اختلافات پایه‌ای بین مسائل بهینه‌سازی محدب و شبه محدب نشان داده خواهد شد، همچنین نشان داده می‌شود حل یک مسئله بهینه‌سازی شبه محدب چگونه می‌تواند به حل چند دنباله از مسائل بهینه‌سازی محدب کاهش یابد.

پاسخ‌های بهینه محلی و شرایط بهینگی[ویرایش]

مهمترین اختلاف بین بهینه‌سازی محدب و شبه محدب این است که مسائل بهینه‌سازی شبه محدب می‌توانند جواب‌های بهینه محلی داشته باشد. این پدیده می‌تواند حتی در ساده‌ترین مورد، کمینه سازی بدون قید یک تابع شبه محدب روی R دیده شود.

برای یک مسئله بهینه‌سازی محدب، x بهینه است اگر:

انواع شرایط بهینگی برای مسائل بهینه‌سازی شبه محدب با توابع هدف مشتق پذیر برقرار است. X را فضای شدنی برای مسئله بهینه‌سازی شبه محدب در نظر بگیرید، در این صورت x بهینه است اگر:

دو تفاوت مهم بین معیار فوق و معیار بهینگی برای مسائل محدب وجود دارد:

۱- معیار مسائل شبه محدب برای بهینگی پاسخ شرط کافی است و برقراری آن برای نقطه بهینه ضروری نیست اما برقراری رابطه فوق برای مسائل محدب شرط لازم و کافی برای بهینگی x می‌باشد.

۲-معیار فوق نیازمند این است که گرادیان تابع هدف غیر صفر باشد در حالی که در رابطه بهینگی مسائل محدب اینگونه نیست، در واقع زمانی که ، معیار بهینگی مسائل محدب صادق است و x نقطه بهینه است.

یک روش کلی برای مسائل بهینه‌سازی شبه محدب وابسته به نمایش مجموعه‌های زیرسطحی از یک تابع شبه محدب است. را به عنوان مجموعه‌ای از توابع محدب که در رابطه زیر صدق می‌کنند در نظر بگیرید.[۲]

و برای هر x, یک تابع غیر صعودی از t است. فرض کنید جواب بهینه مسئله بهینه‌سازی شبه محدب باشد.

اگر مسئله امکان‌سنجی زیر،

شدنی باشد سپس را خواهیم داشت. در طرف مقابل اگر مسئله فوق نشدنی باشد می‌توانیم نتیجه بگیریم خواهد بود. مسئله فوق یک مسئله امکان‌سنجی محدب است چون قیود نامساوی محدب هستند و قید تساوی نیز خطی است؛ بنابراین می‌توانیم بررسی کنیم آیا مقدار کمتر یا بیشتر از مقدار t ای است که با حل مسئله امکان‌سنجی فوق به دست می‌آید. اگر مسئله امکان‌سنجی شدنی باشد پس خواهیم داشت و هر نقطه شدنی مثل x برای مسئله شبه محدب نیز شدنی است و رابطه را ارضا می‌کند. اگر مسئله امکان‌سنجی محدب نشدنی باشد می‌توان نتیجه گرفت خواهد بود.

جستارهای وابسته[ویرایش]

منابع[ویرایش]

  1. Boyd، Stephen. Convex Optimization. 158. 
  2. «. Convergence and efficiency of subgradient methods for quasiconvex minimization». Mathematical programming، 2001. 

پیوند به بیرون[ویرایش]