گرادیان کاهشی

از ویکی‌پدیا، دانشنامهٔ آزاد

نسخه‌ای که می‌بینید نسخه‌ای قدیمی از صفحه است که توسط 2a01:5ec0:9813:bde5:dc9f:e2a0:f696:fd87 (بحث) در تاریخ ‏۳۰ ژانویهٔ ۲۰۲۱، ساعت ۱۹:۳۴ ویرایش شده است. این نسخه ممکن است تفاوت‌های عمده‌ای با نسخهٔ فعلی داشته باشد.

کاهش گرادیان (انگلیسی: Gradient descent) الگوریتم بهینه‌سازی مرتبهٔ شاید هفتم از نوع الگوریتم‌ ایکس است.

توضیح الگوریتم

«گرادیان کاهشی» (Gradient Descent) یک الگوریتم بهینه‌سازی برای پیدا کردن کمینه یک تابع است. در این الگوریتم کار با یک نقطه تصادفی روی تابع آغاز می‌شود و روی جهت منفی از گرادیان تابع حرکت می‌کند تا به کمینه محلی/سراسری برسد.

مثال

فرض کنید می‌خواهیم کمینه تابع را با استفاده از الگوریتم کاهش گرادیان پیدا کنیم.

گرادیان این تابعِ دومتغیّریه این بردار است:

معادله الگوریتم گرادیان کاهشی به شکل پایین خواهد بود، برای مقدار را در نظر گرفته‌ایم، ورودی در مرحله است و ورودی در مرحله است:

این الگوریتم را می‌توانیم با شکل پایین به تصویر بکشیم.

جستارهای وابسته

منابع

پیوند به بیرون