تابع لجستیک: تفاوت میان نسخه‌ها

از ویکی‌پدیا، دانشنامهٔ آزاد
محتوای حذف‌شده محتوای افزوده‌شده
Fatranslator (بحث | مشارکت‌ها)
جز ربات:افزودن الگو ناوباکس {{مدلسازی بوم‌سازگان}}+
بدون خلاصۀ ویرایش
برچسب‌ها: افزودن پیوند بیرونی به جای ویکی‌پیوند ویرایشگر دیداری: به ویرایشگر منبع تغییر داده شده
خط ۱: خط ۱:
[[پرونده:Logistic-curve.svg|بندانگشتی|320px|چپ|تابع لجستیک استاندارد]]
[[پرونده:Logistic-curve.svg|چپ|بندانگشتی|320x320پیکسل|تابع سیگمویید لجیستیک استاندارد که در آن <math>L=1,k=1,x_0=0</math>]]
یک '''تابع لجیستیک''' {{به انگلیسی|logistic function}} یا '''منحنی لوجیستیک'''، یک منحنی معمولی Sشکل (منحنی سیگموئید) با معادله زیر است
: <math>f(x) = \frac{L}{1 + e^{-k(x-x_0)}},</math>


که در آن
'''تابع لُجستیک''' ({{lang-en|Logistic function}}) یا منحنی لجستیک، نوع متفاوتی از [[تابع سیگموئید]] یا منحنی-اِس (s) است. این تابع نخستین بار در فاصله سالهای ۱۸۳۸ تا ۱۸۴۷ توسط پیر فرانسوا ورهال، در زمان مطالعه رابطه منحنی [[رشد نمایی]] با [[رشد جمعیت]]، معرفی شد. امروزه تابع لجستیک در بسیاری از زمینه‌ها همچون: [[شبکه عصبی مصنوعی|شبکه‌های عصبی مصنوعی]]، [[علوم زمین]]، [[زیست‌شناسی]] و [[بوم‌شناسی]]، [[علم اقتصاد|اقتصاد]]، [[جمعیت‌شناسی]]، [[جامعه‌شناسی]] و [[زبان‌شناسی]]، [[علوم سیاسی]]، [[آمار]] و [[احتمالات]]، مورد استفاده قرار می‌گیرد.


<math>x_0</math>، مقدار <math>x</math> برای نقطه میانه سیگموید است؛
== شکل ریاضی تابع لُجستیک ==
<math>f(x)=\tfrac{L}{1\ + \ \exp(-k(x-x_0))}</math>


<math>L</math>، مقدار ماکزیمم منحنی است؛
که در این‌جا: <math>L</math> بیشینه مقدار تابع، <math>x_0</math> مقدار میانی [[تابع سیگموئید]] و k نرخ رُشد لُجستیک یا تُندیِ [[منحنی]] است. برای مقادیر <math>x</math> در دامنه [[عدد حقیقی|اعداد حقیقی]] از <math>{\displaystyle -\infty }</math> تا <math>{\displaystyle +\infty }</math> منحنی-اِس که در سمت چپ نشان داده شده است، بدست می‌آید.


<math>k</math>، نرخ رشد لوجیستیک یا شیب منحنی است.<ref name="verhulst1838">{{cite journal|last=Verhulst|first=Pierre-François|year=1838|title=Notice sur la loi que la population poursuit dans son accroissement|url=https://books.google.com/books?id=8GsEAAAAYAAJ|format=PDF|journal=Correspondance Mathématique et Physique|volume=10|pages=113–121|access-date=3 December 2014}}</ref>

برای مقادیر x در دامنه [[عدد حقیقی|اعداد حقیقی]]، از <math>-\infty</math> تا <math>+\infty</math>، منحنی S نشان‌داده شده در چپ به دست می‌آید، که در آن گراف <math>f</math> موقعی که <math>x</math> به <math>+\infty</math> نزدیک می‌شود، به <math>L</math> نزدیک می‌شود، و موقعی که <math>x</math> به <math>-\infty</math> نزدیک می‌شود، به صفر نزدیک می‌شود.

تابع لوجیستیک کاربردهایی در زمینه‌های مختلف دارد که شامل [[زیست‌شناسی]] (مخصوصا [[بوم‌شناسی]])، [[زیست‌شناسی ریاضیاتی و نظری|زیست‌شناسی ریاضیاتی]]، [[شیمی]]، [[جمعیت‌شناسی]]، [[علم اقتصاد]]، [[علوم زمین]]، [[روان‌شناسی ریاضی]]، [[احتمالات]]، [[جامعه‌شناسی]]، [[علوم سیاسی]]، [[زبان‌شناسی]]، [[آمار]]، و [[شبکه عصبی مصنوعی|شبکه‌های عصبی مصنوعی]] است. [[:en:Hyperbolastic_functions|تابع هایپربولیک نوع 1]]، نوعی تعمیم برای تابع لجیستیک است.

== ویژگی‌های ریاضیاتی ==
تابع لوجیستیک استاندارد همان تابع لوجیستیک با پارامترهای <math>k = 1</math>، <math>x_0 = 0</math>، <math>L = 1</math>، که منجر به زیر می‌شود:
: <math>f(x) = \frac{1}{1 + e^{-x}} = \frac{e^x}{e^x + 1} = \frac12 + \frac12 \tanh\left(\frac{x}{2}\right).</math>
در عمل به دلیل طبیعت [[تابع نمایی]] <math>e^{-x}</math>، معمولا فقط کافی است تا تابع لوجیستیک استاندارد را برای <math>x</math> روی محدوده کوچکی از اعداد حقیقی، مثل محدوده موجود در [−6,&nbsp;+6] محاسبه کنیم، زیرا این تابع بسیار سریع به مقادیر نزدیک به اشباع 0 و 1 همگرا می شود.

تابع لوجیستیک این ویژگی متقارن را دارد:

: <math>1 - f(x) = f(-x).</math>

بنابراین <math>x \mapsto f(x) - 1/2</math> یک [[توابع زوج و فرد|تابع فرد]] است.

تابع لوجیستیک یک آفست و تابع [[تابع هذلولوی|تانژانت هذلولوی]] مقیاس‌دهی شده است:
: <math>f(x) = \frac12 + \frac12 \tanh\left(\frac{x}{2}\right),</math>
یا
: <math>\tanh(x) = 2 f(2x) - 1.</math>
این موضوع از زیر به دست آمده است:

:<math>
\begin{align}
\tanh(x) & = \frac{e^x - e^{-x}}{e^x + e^{-x}} = \frac{e^x \cdot \left(1 - e^{-2x}\right)}{e^x \cdot \left(1 + e^{-2x}\right)} \\
&= f(2x) - \frac{e^{-2x}}{1 + e^{-2x}} = f(2x) - \frac{e^{-2x} + 1 - 1}{1 + e^{-2x}} = 2f(2x) - 1.
\end{align}
</math>
=== مشتق ===
[[مشتق]] تابع لوجیستیک استاندارد به سادگی محاسبه می‌شود. به این مشتق [[:en:Logistic_distribution|توزیع لجیستیک]] می‌گویند:

: <math>f(x) = \frac{1}{1 + e^{-x}} = \frac{e^x}{1 + e^x},</math>

: <math>\frac{\mathrm{d}}{\mathrm{d}x}f(x) = \frac{e^x \cdot (1 + e^x) - e^x \cdot e^x}{(1 + e^x)^2} = \frac{e^x}{(1 + e^x)^2} = f(x)\big(1 - f(x)\big)</math>

=== انتگرال ===
به صورت برعکس، [[پاد مشتق]] را می‌توان با [[:en:Integration_by_substitution|جایگذاری]] <math>u = 1 + e^x</math> محاسبه کرد، زیرا <math>f(x) = \frac{e^x}{1 + e^x} = \frac{u'}{u}</math>، از این رو (با حذف [[:en:Constant_of_integration|ثابت انتگرال‌گیری]])

: <math>\int \frac{e^x}{1 + e^x}\,dx = \int \frac{1}{u}\,du = \ln u = \ln (1 + e^x).</math>

در [[شبکه عصبی مصنوعی|شبکه‌های عصبی مصنوعی]]، به آن، تابع [[یکسوساز (شبکه عصبی)|سافت‌پلاس]] {{به انگلیسی|softplus}} می‌گویند و (با مقیاس‌دهی) یک تقریب صاف از [[تابع شیب]] است، همانطور که تابع لوجیستیک (با مقیاس‌دهی) یک تقریب صاف از [[تابع پله‌ای هویساید]] است.
=== معادله دیفرانسیلی لجیستیک ===
تابع لوجیستیک استاندارد راه‌حل [[معادله دیفرانسیل معمولی]] غیرخطی مرتبه-اول ساده زیر:

: <math>\frac{d}{dx}f(x) = f(x)\big(1 - f(x)\big)</math>

با [[مسئله مقدار مرزی|شرط حدی]] <math>f(0) = 1/2</math> است. این معادله نسخه پیوسته [[:en:Logistic_map|تناظر لجیستیک]] است. توجه کنید که تابع لجیستیک وارون همان راه‌حل برای یک معادله دیفرانسیلی معمولی خطی مرتبه-اول ساده است.<ref>{{cite journal|last1=Kocian|first1=Alexander|last2=Carmassi|first2=Giulia|last3=Cela|first3=Fatjon|last4=Incrocci|first4=Luca|last5=Milazzo|first5=Paolo|last6=Chessa|first6=Stefano|date=7 June 2020|title=Bayesian Sigmoid-Type Time Series Forecasting with Missing Data for Greenhouse Crops|journal=Sensors|volume=20|issue=11|page=3246|doi=10.3390/s20113246|pmc=7309099|pmid=32517314|doi-access=free}}</ref>

رفتار کیفی این تابع به صورت ساده به صورت [[خط فاز (ریاضیات)|خط فازی]] قابل فهم است: موقعی که تابع 1 است، مشتق 0 است، موقعی که تابع <math>f</math> بین 0 و 1 است، مشتق مثبت است، و موقعی که <math>f</math> بالای 1 یا پایین 0 است، مشتق منفی است (اگرچه جمعیت منفی معمولا با یک مدل فیزیکی منطبق نیست). این موضوع منجر به یک تعادل غیرپایدار در 0 و تعادل پایدار در 1 می‌شود، و از این رو برای هر مقدار تابع بزرگتر از 0 و کمتر از 1، به سمت 1 رشد می‌کند.

معادله لوجیستیک نوع خاصی از [[:en:Bernoulli_differential_equation|معادله دیفرانسیلی برنولی]] است، و راه‌حل زیر را دارد:

: <math>f(x) = \frac{e^x}{e^x + C}.</math>

با انتخاب ثابت انتگرال‌گیری <math>C = 1</math> یک تعریف مشهور دیگر برای منحنی لجیستیک به دست می‌آید:

: <math>f(x) = \frac{e^x}{e^x + 1} = \frac{1}{1 + e^{-x}}.</math>

به صورت کیفی‌تر، همانطور که از راه‌حل تحلیلی قابل مشاهده است، منحنی لجیستیک یک [[رشد نمایی]] ابتدایی برای آرگومان منفی نشان می‌دهد، که به یک رشد خطی با شیب 1/4 برای آرگومان نزدیک به 0 می‌رسد، و سپس با یک شکاف تنزلی نمایی به 1 نزدیک می‌شود.

تابع لوجیستیک وارون تابع [[لوجیت]] طبیعی است، و از این رو از آن می‌توان استفاده کرد تا لگاریتم [[بخت (آمار)|بخت]] را به [[احتمالات|احتمال]] تبدیل نمود. در نمادگذاری ریاضیاتی، تابع لوجیستیک را گاهی به صورت "expit"<ref>[http://www.inside-r.org/packages/cran/clusterPower/docs/expit expit documentation for R's clusterPower package].</ref> می‌نویسند، که این موضوع، شکلی مشابه "logit" دارد. تبدیل از [[آزمون نسبت درست‌نمایی|نسبت لاگ-درست‌نمایی]] دو جایگزین نیز شکل منحنی لجیستیک را به خود می‌گیرد.

معادله دیفرانسیلی به دست آمده در بالا نوع خاصی از معادله دفیرانسیلی عمومی است که فقط تابع سیگمویید را برای <math>x > 0</math> مدل‌سازی می‌کند. در بسیاری از کاربردهای مدل‌سازی، شکل عمومی‌تر:<ref>Kyurkchiev, Nikolay, and Svetoslav Markov. "Sigmoid functions: some approximation and modelling aspects". LAP LAMBERT Academic Publishing, Saarbrucken (2015).</ref>
: <math>\frac{df(x)}{dx} = \frac{k}{a} f(x)\big(a - f(x)\big), \quad f(0) = a / (1 + e^{kr})</math>
ممکن است پسندیده‌تر باشد. راه‌حل آن همان سیگموید منتقل شده و مقیاس‌دهی شده <math>aS\big(k(x - r)\big)</math> است.

رابطه تانژانت-هایپربولیک منجر به شکل دیگری از مشتق تابع لوجیستیک می‌شود:

: <math>\frac{d}{dx} f(x) = \frac14 \operatorname{sech}^2\left(\frac{x}{2}\right),</math>

که این موضوع تابع لجیستیک را به [[:en:Logistic_distribution|توزیع لجیستیک]] پیوند می‌دهد.
=== تقارن چرخشی حول نقطه (0،1/2) ===
جمع تابع لوجیستیک و معکوس آن حول محول عمودی، یعنی <math>f(-x)</math> به این صورت است:

: <math>\frac{1}{1 + e^{-x}} + \frac{1}{1 + e^{-(-x)}} = \frac{e^x}{e^x + 1} + \frac{1}{e^x + 1} = 1.</math>

از این رو تابع لجیستیک حول نقطه (0,&nbsp;1/2) به صورت چرخشی متقارن است.<ref>{{cite book|title=Neural Networks – A Systematic Introduction|author=Raul Rojas|url=http://page.mi.fu-berlin.de/rojas/neural/chapter/K11.pdf|access-date=15 October 2016}}</ref>

== کاربردها ==
آقای لینک<ref name="A sequential theory of psychological discrimination">S. W. Link, Psychometrika, 1975, 40, 1, 77–105</ref> یک گسترش برای نظریه والد برای تحلیل ترتیبی برای تجمع فاقدتوزیع برای متغیرهای تصادفی، تا موقعی که یک حد منفی یا مثبت اول برابر شود یا بالاتر شود، ساخت. لینک<ref name="The Relative Judgment Theory of the Psychometric Function">S. W. Link, Attention and Performance VII, 1978, 619–630</ref> احتمال اولین حد مثبت برابر یا بیشتر را به صورت <math>(1+e^{-\theta A})</math> به دست‌آورد که همان تابع لوجسیتیک است. این اولین اثباتی بود که تابع لوجیستیک می‌توانست به عنوان مبنا یک فرایند تصادفی داشته باشد. لینک<ref name="The wave theory of difference and similarity">S. W. Link, The wave theory of difference and similarity (book), Taylor and Francis, 1992</ref> یک سده از مثال‌های نتایج تجربی «لجیستیک»، و رابطه تازه به دست آمده بین این احتمال و زمان جذب در حدود را ایجاد کرد.

=== در آمار و یادگیری ماشین ===
توابع لوجیستیک در چندین نقش در آمار استفاده شده است. برای مثال آن‌ها [[تابع توزیع تجمعی]] برای [[:en:Logistic_distribution|خانواده لجیستیک برای توزیع‌ها]] هستند، و از آن‌ها به صورت ساده در مدل‌سازی شانس یک بازیکن شطرنج که باید حریف خود را در [[رده‌بندی الو|سامانه نرخ‌دهی الو]] شکست دهد، استفاده می‌شوند. مثال‌های خصوصی‌تر در ادامه می‌آید.

==== رگرسیون لوجیستیک ====
از توابع لوجیستیک در [[رگرسیون لجستیک]] استفاده می شود تا این موضوع که چقدر احتمال <math>p</math> از یک رخداد ممکن است از یک یا بیشتر [[متغیر وابسته و مستقل|متغیر توضیح‌دهنده]] تاثیر بپذیرد را مدل‌سازی کنند: یک مثال آن برای مدل زیر است:

: <math>p = f(a + bx),</math>

که در آن <math>x</math> متغیر توضیح‌دهنده است، <math>a</math> و <math>b</math> پارامتر مدل برای متناسب شدن، و <math>f</math> همان تابع لجیستیک استاندارد است.

از رگرسیون لجستیک و دیگر [[:en:Log-linear_model|مدل‌های لاگ-خطی]] در [[یادگیری ماشین]] به صورت معمول استفاده می شود. یک تعمیم از تابع لجستیک به چندین ورودی، [[بیشینه هموار|تابع فعال‌سازی سافت‌مکس]] است، که در [[:en:Multinomial_logistic_regression|رگرسیون لجستیک چندجمله‌ای]] از آن استفاده می‌شود.

کاربرد دیگر تابع لجستیک در [[مدل رش]] است، که در [[:en:Item_response_theory|نظریه پاسخ مورد]] از آن استفاده می‌شود. بخصوص، مدل رش یک مبنا برای تخمین [[برآورد درست‌نمایی بیشینه|احتمال حداکثری]] برای محل اشیا یا افراد در یک [[:en:Continuum_(measurement)|پیوستار]]، بر اساس گردآوردی از داده طبقه‌ای می‌سازد، برای مثال توانایی افراد در یک پوستار مبتنی بر پاسخ‌ها، که به صورت درست یا نادرست طبقه‌بندی شده اند.

==== شبکه‌های عصبی ====
معمولا از توابع لوجیستیک در [[شبکه عصبی|شبکه‌های عصبی]] برای معرفی [[سامانه غیرخطی|غیرخطی‌بودن]] در مدل یا برای گیرانداختن سیگنال‌ها به داخل یک [[بازه|محدوده]] معین استفاده می‌شود. یک [[:en:Artificial_neuron|عنصر شبکه عصبی]] یک [[ترکیب خطی]] از سیگنال‌های ورودی‌اش را محاسبه می‌کند، و تابع لجیستیک محدود به عنوان [[:en:Activation_function|تابع فعال‌سازی]] به جواب اعمال می‌کند؛ این مدل را می‌توان به عنوان نوع «صاف‌شده» [[پرسپترون|عصب آستانه]] کلاسیک دید.

یک گزینه معمول برای توابع فعال‌سازی یا «کوبیدن یا له‌کردن» که از آن برای اتصال به مقادیر بزرگ و برای محدود نگهداشتن پاسخ شبکه عصبی استفاده می‌شود،<ref name="Gershenfeld-1999">Gershenfeld 1999, p. 150.</ref> به صورت زیر است:

: <math>g(h) = \frac{1}{1 + e^{-2 \beta h}},</math>

که یک تابع لجستیک است.

این موضوع منجر به پیاده‌سازی‌های ساده [[شبکه عصبی مصنوعی|شبکه‌های عصبی مصنوعی]] با [[:en:Artificial_neuron|عصب‌های مصنوعی]] می‌شود. متخصصان احتیاط می‌کنند که توابع سیگموییدی که حول مبدا [[توابع زوج و فرد|پادمتقارن]] هستند (مثل [[تابع هذلولوی|تانژانت هذلولوی]]) موقعی که شبکه را با [[پس‌انتشار]] آموزش می‌دهیم منجر به همگرایی سریع‌تر می‌شوند.<ref name="LeCun-1998">{{cite book|author1=LeCun, Y.|author2=Bottou, L.|author3=Orr, G.|author4=Muller, K.|editor=Orr, G.|editor2=Muller, K.|year=1998|title=Efficient BackProp|work=Neural Networks: Tricks of the trade|isbn=3-540-65311-2|publisher=Springer|url=http://yann.lecun.com/exdb/publis/pdf/lecun-98b.pdf}}</ref>

تابع لجیستیک خودش مشتق تابع فعال‌سازی پشینهادی دیگری، به نام [[یکسوساز (شبکه عصبی)|سافت‌پلاس]] است.

==== در زبان‌شناسی: دگرگونی زبانی ====
در زبان‌شناسی، از تابع لجیستیک برای مدل‌سازی [[دگرگونی زبانی]] استفاده می‌شود:<ref name="probabilistic linguistics">Bod, Hay, Jennedy (eds.) 2003, pp. 147–156</ref> یک نوآوری که در محدوده اول است با گسترش سریع‌تری در زمان شروع می شود، و سپس با قبول‌شدن جهانی آن، گسترش آن آهسته‌تر می‌شود.
== جستارهای وابسته ==
== جستارهای وابسته ==
* [[رشد نمایی]]
* [[رشد نمایی]]
خط ۱۹: خط ۱۳۱:
* [[معادله هیل]]
* [[معادله هیل]]
* [[سینتیک میکائلیس–منتن]]
* [[سینتیک میکائلیس–منتن]]
== پانویس ==

{{پانویس}}
== منابع ==
== منابع ==
{{یادکرد-ویکی|پیوند=https://en.wikipedia.org/wiki/Logistic_function|عنوان=Logistic function|زبان=انگلیسی|بازیابی=۱۰ اوت ۲۰۲۱}}
{{پانویس|چپ‌چین=بله}}

* {{یادکرد-ویکی|پیوند =//en.wikipedia.org/w/index.php?title=Logistic_function&oldid=922872267|عنوان = Logistic function|زبان =انگلیسی|بازیابی =۴ نوامبر ۲۰۱۹}}


{{مدلسازی بوم‌سازگان}}
{{مدلسازی بوم‌سازگان}}

نسخهٔ ‏۱۰ اوت ۲۰۲۱، ساعت ۰۷:۵۹

تابع سیگمویید لجیستیک استاندارد که در آن

یک تابع لجیستیک (به انگلیسی: logistic function) یا منحنی لوجیستیک، یک منحنی معمولی Sشکل (منحنی سیگموئید) با معادله زیر است

که در آن

، مقدار برای نقطه میانه سیگموید است؛

، مقدار ماکزیمم منحنی است؛

، نرخ رشد لوجیستیک یا شیب منحنی است.[۱]

برای مقادیر x در دامنه اعداد حقیقی، از تا ، منحنی S نشان‌داده شده در چپ به دست می‌آید، که در آن گراف موقعی که به نزدیک می‌شود، به نزدیک می‌شود، و موقعی که به نزدیک می‌شود، به صفر نزدیک می‌شود.

تابع لوجیستیک کاربردهایی در زمینه‌های مختلف دارد که شامل زیست‌شناسی (مخصوصا بوم‌شناسیزیست‌شناسی ریاضیاتی، شیمی، جمعیت‌شناسی، علم اقتصاد، علوم زمین، روان‌شناسی ریاضی، احتمالات، جامعه‌شناسی، علوم سیاسی، زبان‌شناسی، آمار، و شبکه‌های عصبی مصنوعی است. تابع هایپربولیک نوع 1، نوعی تعمیم برای تابع لجیستیک است.

ویژگی‌های ریاضیاتی

تابع لوجیستیک استاندارد همان تابع لوجیستیک با پارامترهای ، ، ، که منجر به زیر می‌شود:

در عمل به دلیل طبیعت تابع نمایی ، معمولا فقط کافی است تا تابع لوجیستیک استاندارد را برای روی محدوده کوچکی از اعداد حقیقی، مثل محدوده موجود در [−6, +6] محاسبه کنیم، زیرا این تابع بسیار سریع به مقادیر نزدیک به اشباع 0 و 1 همگرا می شود.

تابع لوجیستیک این ویژگی متقارن را دارد:

بنابراین یک تابع فرد است.

تابع لوجیستیک یک آفست و تابع تانژانت هذلولوی مقیاس‌دهی شده است:

یا

این موضوع از زیر به دست آمده است:

مشتق

مشتق تابع لوجیستیک استاندارد به سادگی محاسبه می‌شود. به این مشتق توزیع لجیستیک می‌گویند:

انتگرال

به صورت برعکس، پاد مشتق را می‌توان با جایگذاری محاسبه کرد، زیرا ، از این رو (با حذف ثابت انتگرال‌گیری)

در شبکه‌های عصبی مصنوعی، به آن، تابع سافت‌پلاس (به انگلیسی: softplus) می‌گویند و (با مقیاس‌دهی) یک تقریب صاف از تابع شیب است، همانطور که تابع لوجیستیک (با مقیاس‌دهی) یک تقریب صاف از تابع پله‌ای هویساید است.

معادله دیفرانسیلی لجیستیک

تابع لوجیستیک استاندارد راه‌حل معادله دیفرانسیل معمولی غیرخطی مرتبه-اول ساده زیر:

با شرط حدی است. این معادله نسخه پیوسته تناظر لجیستیک است. توجه کنید که تابع لجیستیک وارون همان راه‌حل برای یک معادله دیفرانسیلی معمولی خطی مرتبه-اول ساده است.[۲]

رفتار کیفی این تابع به صورت ساده به صورت خط فازی قابل فهم است: موقعی که تابع 1 است، مشتق 0 است، موقعی که تابع بین 0 و 1 است، مشتق مثبت است، و موقعی که بالای 1 یا پایین 0 است، مشتق منفی است (اگرچه جمعیت منفی معمولا با یک مدل فیزیکی منطبق نیست). این موضوع منجر به یک تعادل غیرپایدار در 0 و تعادل پایدار در 1 می‌شود، و از این رو برای هر مقدار تابع بزرگتر از 0 و کمتر از 1، به سمت 1 رشد می‌کند.

معادله لوجیستیک نوع خاصی از معادله دیفرانسیلی برنولی است، و راه‌حل زیر را دارد:

با انتخاب ثابت انتگرال‌گیری یک تعریف مشهور دیگر برای منحنی لجیستیک به دست می‌آید:

به صورت کیفی‌تر، همانطور که از راه‌حل تحلیلی قابل مشاهده است، منحنی لجیستیک یک رشد نمایی ابتدایی برای آرگومان منفی نشان می‌دهد، که به یک رشد خطی با شیب 1/4 برای آرگومان نزدیک به 0 می‌رسد، و سپس با یک شکاف تنزلی نمایی به 1 نزدیک می‌شود.

تابع لوجیستیک وارون تابع لوجیت طبیعی است، و از این رو از آن می‌توان استفاده کرد تا لگاریتم بخت را به احتمال تبدیل نمود. در نمادگذاری ریاضیاتی، تابع لوجیستیک را گاهی به صورت "expit"[۳] می‌نویسند، که این موضوع، شکلی مشابه "logit" دارد. تبدیل از نسبت لاگ-درست‌نمایی دو جایگزین نیز شکل منحنی لجیستیک را به خود می‌گیرد.

معادله دیفرانسیلی به دست آمده در بالا نوع خاصی از معادله دفیرانسیلی عمومی است که فقط تابع سیگمویید را برای مدل‌سازی می‌کند. در بسیاری از کاربردهای مدل‌سازی، شکل عمومی‌تر:[۴]

ممکن است پسندیده‌تر باشد. راه‌حل آن همان سیگموید منتقل شده و مقیاس‌دهی شده است.

رابطه تانژانت-هایپربولیک منجر به شکل دیگری از مشتق تابع لوجیستیک می‌شود:

که این موضوع تابع لجیستیک را به توزیع لجیستیک پیوند می‌دهد.

تقارن چرخشی حول نقطه (0،1/2)

جمع تابع لوجیستیک و معکوس آن حول محول عمودی، یعنی به این صورت است:

از این رو تابع لجیستیک حول نقطه (0, 1/2) به صورت چرخشی متقارن است.[۵]

کاربردها

آقای لینک[۶] یک گسترش برای نظریه والد برای تحلیل ترتیبی برای تجمع فاقدتوزیع برای متغیرهای تصادفی، تا موقعی که یک حد منفی یا مثبت اول برابر شود یا بالاتر شود، ساخت. لینک[۷] احتمال اولین حد مثبت برابر یا بیشتر را به صورت به دست‌آورد که همان تابع لوجسیتیک است. این اولین اثباتی بود که تابع لوجیستیک می‌توانست به عنوان مبنا یک فرایند تصادفی داشته باشد. لینک[۸] یک سده از مثال‌های نتایج تجربی «لجیستیک»، و رابطه تازه به دست آمده بین این احتمال و زمان جذب در حدود را ایجاد کرد.

در آمار و یادگیری ماشین

توابع لوجیستیک در چندین نقش در آمار استفاده شده است. برای مثال آن‌ها تابع توزیع تجمعی برای خانواده لجیستیک برای توزیع‌ها هستند، و از آن‌ها به صورت ساده در مدل‌سازی شانس یک بازیکن شطرنج که باید حریف خود را در سامانه نرخ‌دهی الو شکست دهد، استفاده می‌شوند. مثال‌های خصوصی‌تر در ادامه می‌آید.

رگرسیون لوجیستیک

از توابع لوجیستیک در رگرسیون لجستیک استفاده می شود تا این موضوع که چقدر احتمال از یک رخداد ممکن است از یک یا بیشتر متغیر توضیح‌دهنده تاثیر بپذیرد را مدل‌سازی کنند: یک مثال آن برای مدل زیر است:

که در آن متغیر توضیح‌دهنده است، و پارامتر مدل برای متناسب شدن، و همان تابع لجیستیک استاندارد است.

از رگرسیون لجستیک و دیگر مدل‌های لاگ-خطی در یادگیری ماشین به صورت معمول استفاده می شود. یک تعمیم از تابع لجستیک به چندین ورودی، تابع فعال‌سازی سافت‌مکس است، که در رگرسیون لجستیک چندجمله‌ای از آن استفاده می‌شود.

کاربرد دیگر تابع لجستیک در مدل رش است، که در نظریه پاسخ مورد از آن استفاده می‌شود. بخصوص، مدل رش یک مبنا برای تخمین احتمال حداکثری برای محل اشیا یا افراد در یک پیوستار، بر اساس گردآوردی از داده طبقه‌ای می‌سازد، برای مثال توانایی افراد در یک پوستار مبتنی بر پاسخ‌ها، که به صورت درست یا نادرست طبقه‌بندی شده اند.

شبکه‌های عصبی

معمولا از توابع لوجیستیک در شبکه‌های عصبی برای معرفی غیرخطی‌بودن در مدل یا برای گیرانداختن سیگنال‌ها به داخل یک محدوده معین استفاده می‌شود. یک عنصر شبکه عصبی یک ترکیب خطی از سیگنال‌های ورودی‌اش را محاسبه می‌کند، و تابع لجیستیک محدود به عنوان تابع فعال‌سازی به جواب اعمال می‌کند؛ این مدل را می‌توان به عنوان نوع «صاف‌شده» عصب آستانه کلاسیک دید.

یک گزینه معمول برای توابع فعال‌سازی یا «کوبیدن یا له‌کردن» که از آن برای اتصال به مقادیر بزرگ و برای محدود نگهداشتن پاسخ شبکه عصبی استفاده می‌شود،[۹] به صورت زیر است:

که یک تابع لجستیک است.

این موضوع منجر به پیاده‌سازی‌های ساده شبکه‌های عصبی مصنوعی با عصب‌های مصنوعی می‌شود. متخصصان احتیاط می‌کنند که توابع سیگموییدی که حول مبدا پادمتقارن هستند (مثل تانژانت هذلولوی) موقعی که شبکه را با پس‌انتشار آموزش می‌دهیم منجر به همگرایی سریع‌تر می‌شوند.[۱۰]

تابع لجیستیک خودش مشتق تابع فعال‌سازی پشینهادی دیگری، به نام سافت‌پلاس است.

در زبان‌شناسی: دگرگونی زبانی

در زبان‌شناسی، از تابع لجیستیک برای مدل‌سازی دگرگونی زبانی استفاده می‌شود:[۱۱] یک نوآوری که در محدوده اول است با گسترش سریع‌تری در زمان شروع می شود، و سپس با قبول‌شدن جهانی آن، گسترش آن آهسته‌تر می‌شود.

جستارهای وابسته

پانویس

  1. Verhulst, Pierre-François (1838). "Notice sur la loi que la population poursuit dans son accroissement" (PDF). Correspondance Mathématique et Physique. 10: 113–121. Retrieved 3 December 2014.
  2. Kocian, Alexander; Carmassi, Giulia; Cela, Fatjon; Incrocci, Luca; Milazzo, Paolo; Chessa, Stefano (7 June 2020). "Bayesian Sigmoid-Type Time Series Forecasting with Missing Data for Greenhouse Crops". Sensors. 20 (11): 3246. doi:10.3390/s20113246. PMC 7309099. PMID 32517314.
  3. expit documentation for R's clusterPower package.
  4. Kyurkchiev, Nikolay, and Svetoslav Markov. "Sigmoid functions: some approximation and modelling aspects". LAP LAMBERT Academic Publishing, Saarbrucken (2015).
  5. Raul Rojas. Neural Networks – A Systematic Introduction (PDF). Retrieved 15 October 2016.
  6. S. W. Link, Psychometrika, 1975, 40, 1, 77–105
  7. S. W. Link, Attention and Performance VII, 1978, 619–630
  8. S. W. Link, The wave theory of difference and similarity (book), Taylor and Francis, 1992
  9. Gershenfeld 1999, p. 150.
  10. LeCun, Y.; Bottou, L.; Orr, G.; Muller, K. (1998). Orr, G.; Muller, K. (eds.). Efficient BackProp (PDF). Neural Networks: Tricks of the trade. Springer. ISBN 3-540-65311-2.
  11. Bod, Hay, Jennedy (eds.) 2003, pp. 147–156

منابع

مشارکت‌کنندگان ویکی‌پدیا. «Logistic function». در دانشنامهٔ ویکی‌پدیای انگلیسی، بازبینی‌شده در ۱۰ اوت ۲۰۲۱.