تابع لجستیک: تفاوت میان نسخهها
Fatranslator (بحث | مشارکتها) جز ربات:افزودن الگو ناوباکس {{مدلسازی بومسازگان}}+ |
بدون خلاصۀ ویرایش برچسبها: افزودن پیوند بیرونی به جای ویکیپیوند ویرایشگر دیداری: به ویرایشگر منبع تغییر داده شده |
||
خط ۱: | خط ۱: | ||
[[پرونده:Logistic-curve.svg|بندانگشتی| |
[[پرونده:Logistic-curve.svg|چپ|بندانگشتی|320x320پیکسل|تابع سیگمویید لجیستیک استاندارد که در آن <math>L=1,k=1,x_0=0</math>]] |
||
یک '''تابع لجیستیک''' {{به انگلیسی|logistic function}} یا '''منحنی لوجیستیک'''، یک منحنی معمولی Sشکل (منحنی سیگموئید) با معادله زیر است |
|||
: <math>f(x) = \frac{L}{1 + e^{-k(x-x_0)}},</math> |
|||
که در آن |
|||
'''تابع لُجستیک''' ({{lang-en|Logistic function}}) یا منحنی لجستیک، نوع متفاوتی از [[تابع سیگموئید]] یا منحنی-اِس (s) است. این تابع نخستین بار در فاصله سالهای ۱۸۳۸ تا ۱۸۴۷ توسط پیر فرانسوا ورهال، در زمان مطالعه رابطه منحنی [[رشد نمایی]] با [[رشد جمعیت]]، معرفی شد. امروزه تابع لجستیک در بسیاری از زمینهها همچون: [[شبکه عصبی مصنوعی|شبکههای عصبی مصنوعی]]، [[علوم زمین]]، [[زیستشناسی]] و [[بومشناسی]]، [[علم اقتصاد|اقتصاد]]، [[جمعیتشناسی]]، [[جامعهشناسی]] و [[زبانشناسی]]، [[علوم سیاسی]]، [[آمار]] و [[احتمالات]]، مورد استفاده قرار میگیرد. |
|||
<math>x_0</math>، مقدار <math>x</math> برای نقطه میانه سیگموید است؛ |
|||
== شکل ریاضی تابع لُجستیک == |
|||
<math>f(x)=\tfrac{L}{1\ + \ \exp(-k(x-x_0))}</math> |
|||
<math>L</math>، مقدار ماکزیمم منحنی است؛ |
|||
که در اینجا: <math>L</math> بیشینه مقدار تابع، <math>x_0</math> مقدار میانی [[تابع سیگموئید]] و k نرخ رُشد لُجستیک یا تُندیِ [[منحنی]] است. برای مقادیر <math>x</math> در دامنه [[عدد حقیقی|اعداد حقیقی]] از <math>{\displaystyle -\infty }</math> تا <math>{\displaystyle +\infty }</math> منحنی-اِس که در سمت چپ نشان داده شده است، بدست میآید. |
|||
<math>k</math>، نرخ رشد لوجیستیک یا شیب منحنی است.<ref name="verhulst1838">{{cite journal|last=Verhulst|first=Pierre-François|year=1838|title=Notice sur la loi que la population poursuit dans son accroissement|url=https://books.google.com/books?id=8GsEAAAAYAAJ|format=PDF|journal=Correspondance Mathématique et Physique|volume=10|pages=113–121|access-date=3 December 2014}}</ref> |
|||
برای مقادیر x در دامنه [[عدد حقیقی|اعداد حقیقی]]، از <math>-\infty</math> تا <math>+\infty</math>، منحنی S نشانداده شده در چپ به دست میآید، که در آن گراف <math>f</math> موقعی که <math>x</math> به <math>+\infty</math> نزدیک میشود، به <math>L</math> نزدیک میشود، و موقعی که <math>x</math> به <math>-\infty</math> نزدیک میشود، به صفر نزدیک میشود. |
|||
تابع لوجیستیک کاربردهایی در زمینههای مختلف دارد که شامل [[زیستشناسی]] (مخصوصا [[بومشناسی]])، [[زیستشناسی ریاضیاتی و نظری|زیستشناسی ریاضیاتی]]، [[شیمی]]، [[جمعیتشناسی]]، [[علم اقتصاد]]، [[علوم زمین]]، [[روانشناسی ریاضی]]، [[احتمالات]]، [[جامعهشناسی]]، [[علوم سیاسی]]، [[زبانشناسی]]، [[آمار]]، و [[شبکه عصبی مصنوعی|شبکههای عصبی مصنوعی]] است. [[:en:Hyperbolastic_functions|تابع هایپربولیک نوع 1]]، نوعی تعمیم برای تابع لجیستیک است. |
|||
== ویژگیهای ریاضیاتی == |
|||
تابع لوجیستیک استاندارد همان تابع لوجیستیک با پارامترهای <math>k = 1</math>، <math>x_0 = 0</math>، <math>L = 1</math>، که منجر به زیر میشود: |
|||
: <math>f(x) = \frac{1}{1 + e^{-x}} = \frac{e^x}{e^x + 1} = \frac12 + \frac12 \tanh\left(\frac{x}{2}\right).</math> |
|||
در عمل به دلیل طبیعت [[تابع نمایی]] <math>e^{-x}</math>، معمولا فقط کافی است تا تابع لوجیستیک استاندارد را برای <math>x</math> روی محدوده کوچکی از اعداد حقیقی، مثل محدوده موجود در [−6, +6] محاسبه کنیم، زیرا این تابع بسیار سریع به مقادیر نزدیک به اشباع 0 و 1 همگرا می شود. |
|||
تابع لوجیستیک این ویژگی متقارن را دارد: |
|||
: <math>1 - f(x) = f(-x).</math> |
|||
بنابراین <math>x \mapsto f(x) - 1/2</math> یک [[توابع زوج و فرد|تابع فرد]] است. |
|||
تابع لوجیستیک یک آفست و تابع [[تابع هذلولوی|تانژانت هذلولوی]] مقیاسدهی شده است: |
|||
: <math>f(x) = \frac12 + \frac12 \tanh\left(\frac{x}{2}\right),</math> |
|||
یا |
|||
: <math>\tanh(x) = 2 f(2x) - 1.</math> |
|||
این موضوع از زیر به دست آمده است: |
|||
:<math> |
|||
\begin{align} |
|||
\tanh(x) & = \frac{e^x - e^{-x}}{e^x + e^{-x}} = \frac{e^x \cdot \left(1 - e^{-2x}\right)}{e^x \cdot \left(1 + e^{-2x}\right)} \\ |
|||
&= f(2x) - \frac{e^{-2x}}{1 + e^{-2x}} = f(2x) - \frac{e^{-2x} + 1 - 1}{1 + e^{-2x}} = 2f(2x) - 1. |
|||
\end{align} |
|||
</math> |
|||
=== مشتق === |
|||
[[مشتق]] تابع لوجیستیک استاندارد به سادگی محاسبه میشود. به این مشتق [[:en:Logistic_distribution|توزیع لجیستیک]] میگویند: |
|||
: <math>f(x) = \frac{1}{1 + e^{-x}} = \frac{e^x}{1 + e^x},</math> |
|||
: <math>\frac{\mathrm{d}}{\mathrm{d}x}f(x) = \frac{e^x \cdot (1 + e^x) - e^x \cdot e^x}{(1 + e^x)^2} = \frac{e^x}{(1 + e^x)^2} = f(x)\big(1 - f(x)\big)</math> |
|||
=== انتگرال === |
|||
به صورت برعکس، [[پاد مشتق]] را میتوان با [[:en:Integration_by_substitution|جایگذاری]] <math>u = 1 + e^x</math> محاسبه کرد، زیرا <math>f(x) = \frac{e^x}{1 + e^x} = \frac{u'}{u}</math>، از این رو (با حذف [[:en:Constant_of_integration|ثابت انتگرالگیری]]) |
|||
: <math>\int \frac{e^x}{1 + e^x}\,dx = \int \frac{1}{u}\,du = \ln u = \ln (1 + e^x).</math> |
|||
در [[شبکه عصبی مصنوعی|شبکههای عصبی مصنوعی]]، به آن، تابع [[یکسوساز (شبکه عصبی)|سافتپلاس]] {{به انگلیسی|softplus}} میگویند و (با مقیاسدهی) یک تقریب صاف از [[تابع شیب]] است، همانطور که تابع لوجیستیک (با مقیاسدهی) یک تقریب صاف از [[تابع پلهای هویساید]] است. |
|||
=== معادله دیفرانسیلی لجیستیک === |
|||
تابع لوجیستیک استاندارد راهحل [[معادله دیفرانسیل معمولی]] غیرخطی مرتبه-اول ساده زیر: |
|||
: <math>\frac{d}{dx}f(x) = f(x)\big(1 - f(x)\big)</math> |
|||
با [[مسئله مقدار مرزی|شرط حدی]] <math>f(0) = 1/2</math> است. این معادله نسخه پیوسته [[:en:Logistic_map|تناظر لجیستیک]] است. توجه کنید که تابع لجیستیک وارون همان راهحل برای یک معادله دیفرانسیلی معمولی خطی مرتبه-اول ساده است.<ref>{{cite journal|last1=Kocian|first1=Alexander|last2=Carmassi|first2=Giulia|last3=Cela|first3=Fatjon|last4=Incrocci|first4=Luca|last5=Milazzo|first5=Paolo|last6=Chessa|first6=Stefano|date=7 June 2020|title=Bayesian Sigmoid-Type Time Series Forecasting with Missing Data for Greenhouse Crops|journal=Sensors|volume=20|issue=11|page=3246|doi=10.3390/s20113246|pmc=7309099|pmid=32517314|doi-access=free}}</ref> |
|||
رفتار کیفی این تابع به صورت ساده به صورت [[خط فاز (ریاضیات)|خط فازی]] قابل فهم است: موقعی که تابع 1 است، مشتق 0 است، موقعی که تابع <math>f</math> بین 0 و 1 است، مشتق مثبت است، و موقعی که <math>f</math> بالای 1 یا پایین 0 است، مشتق منفی است (اگرچه جمعیت منفی معمولا با یک مدل فیزیکی منطبق نیست). این موضوع منجر به یک تعادل غیرپایدار در 0 و تعادل پایدار در 1 میشود، و از این رو برای هر مقدار تابع بزرگتر از 0 و کمتر از 1، به سمت 1 رشد میکند. |
|||
معادله لوجیستیک نوع خاصی از [[:en:Bernoulli_differential_equation|معادله دیفرانسیلی برنولی]] است، و راهحل زیر را دارد: |
|||
: <math>f(x) = \frac{e^x}{e^x + C}.</math> |
|||
با انتخاب ثابت انتگرالگیری <math>C = 1</math> یک تعریف مشهور دیگر برای منحنی لجیستیک به دست میآید: |
|||
: <math>f(x) = \frac{e^x}{e^x + 1} = \frac{1}{1 + e^{-x}}.</math> |
|||
به صورت کیفیتر، همانطور که از راهحل تحلیلی قابل مشاهده است، منحنی لجیستیک یک [[رشد نمایی]] ابتدایی برای آرگومان منفی نشان میدهد، که به یک رشد خطی با شیب 1/4 برای آرگومان نزدیک به 0 میرسد، و سپس با یک شکاف تنزلی نمایی به 1 نزدیک میشود. |
|||
تابع لوجیستیک وارون تابع [[لوجیت]] طبیعی است، و از این رو از آن میتوان استفاده کرد تا لگاریتم [[بخت (آمار)|بخت]] را به [[احتمالات|احتمال]] تبدیل نمود. در نمادگذاری ریاضیاتی، تابع لوجیستیک را گاهی به صورت "expit"<ref>[http://www.inside-r.org/packages/cran/clusterPower/docs/expit expit documentation for R's clusterPower package].</ref> مینویسند، که این موضوع، شکلی مشابه "logit" دارد. تبدیل از [[آزمون نسبت درستنمایی|نسبت لاگ-درستنمایی]] دو جایگزین نیز شکل منحنی لجیستیک را به خود میگیرد. |
|||
معادله دیفرانسیلی به دست آمده در بالا نوع خاصی از معادله دفیرانسیلی عمومی است که فقط تابع سیگمویید را برای <math>x > 0</math> مدلسازی میکند. در بسیاری از کاربردهای مدلسازی، شکل عمومیتر:<ref>Kyurkchiev, Nikolay, and Svetoslav Markov. "Sigmoid functions: some approximation and modelling aspects". LAP LAMBERT Academic Publishing, Saarbrucken (2015).</ref> |
|||
: <math>\frac{df(x)}{dx} = \frac{k}{a} f(x)\big(a - f(x)\big), \quad f(0) = a / (1 + e^{kr})</math> |
|||
ممکن است پسندیدهتر باشد. راهحل آن همان سیگموید منتقل شده و مقیاسدهی شده <math>aS\big(k(x - r)\big)</math> است. |
|||
رابطه تانژانت-هایپربولیک منجر به شکل دیگری از مشتق تابع لوجیستیک میشود: |
|||
: <math>\frac{d}{dx} f(x) = \frac14 \operatorname{sech}^2\left(\frac{x}{2}\right),</math> |
|||
که این موضوع تابع لجیستیک را به [[:en:Logistic_distribution|توزیع لجیستیک]] پیوند میدهد. |
|||
=== تقارن چرخشی حول نقطه (0،1/2) === |
|||
جمع تابع لوجیستیک و معکوس آن حول محول عمودی، یعنی <math>f(-x)</math> به این صورت است: |
|||
: <math>\frac{1}{1 + e^{-x}} + \frac{1}{1 + e^{-(-x)}} = \frac{e^x}{e^x + 1} + \frac{1}{e^x + 1} = 1.</math> |
|||
از این رو تابع لجیستیک حول نقطه (0, 1/2) به صورت چرخشی متقارن است.<ref>{{cite book|title=Neural Networks – A Systematic Introduction|author=Raul Rojas|url=http://page.mi.fu-berlin.de/rojas/neural/chapter/K11.pdf|access-date=15 October 2016}}</ref> |
|||
== کاربردها == |
|||
آقای لینک<ref name="A sequential theory of psychological discrimination">S. W. Link, Psychometrika, 1975, 40, 1, 77–105</ref> یک گسترش برای نظریه والد برای تحلیل ترتیبی برای تجمع فاقدتوزیع برای متغیرهای تصادفی، تا موقعی که یک حد منفی یا مثبت اول برابر شود یا بالاتر شود، ساخت. لینک<ref name="The Relative Judgment Theory of the Psychometric Function">S. W. Link, Attention and Performance VII, 1978, 619–630</ref> احتمال اولین حد مثبت برابر یا بیشتر را به صورت <math>(1+e^{-\theta A})</math> به دستآورد که همان تابع لوجسیتیک است. این اولین اثباتی بود که تابع لوجیستیک میتوانست به عنوان مبنا یک فرایند تصادفی داشته باشد. لینک<ref name="The wave theory of difference and similarity">S. W. Link, The wave theory of difference and similarity (book), Taylor and Francis, 1992</ref> یک سده از مثالهای نتایج تجربی «لجیستیک»، و رابطه تازه به دست آمده بین این احتمال و زمان جذب در حدود را ایجاد کرد. |
|||
=== در آمار و یادگیری ماشین === |
|||
توابع لوجیستیک در چندین نقش در آمار استفاده شده است. برای مثال آنها [[تابع توزیع تجمعی]] برای [[:en:Logistic_distribution|خانواده لجیستیک برای توزیعها]] هستند، و از آنها به صورت ساده در مدلسازی شانس یک بازیکن شطرنج که باید حریف خود را در [[ردهبندی الو|سامانه نرخدهی الو]] شکست دهد، استفاده میشوند. مثالهای خصوصیتر در ادامه میآید. |
|||
==== رگرسیون لوجیستیک ==== |
|||
از توابع لوجیستیک در [[رگرسیون لجستیک]] استفاده می شود تا این موضوع که چقدر احتمال <math>p</math> از یک رخداد ممکن است از یک یا بیشتر [[متغیر وابسته و مستقل|متغیر توضیحدهنده]] تاثیر بپذیرد را مدلسازی کنند: یک مثال آن برای مدل زیر است: |
|||
: <math>p = f(a + bx),</math> |
|||
که در آن <math>x</math> متغیر توضیحدهنده است، <math>a</math> و <math>b</math> پارامتر مدل برای متناسب شدن، و <math>f</math> همان تابع لجیستیک استاندارد است. |
|||
از رگرسیون لجستیک و دیگر [[:en:Log-linear_model|مدلهای لاگ-خطی]] در [[یادگیری ماشین]] به صورت معمول استفاده می شود. یک تعمیم از تابع لجستیک به چندین ورودی، [[بیشینه هموار|تابع فعالسازی سافتمکس]] است، که در [[:en:Multinomial_logistic_regression|رگرسیون لجستیک چندجملهای]] از آن استفاده میشود. |
|||
کاربرد دیگر تابع لجستیک در [[مدل رش]] است، که در [[:en:Item_response_theory|نظریه پاسخ مورد]] از آن استفاده میشود. بخصوص، مدل رش یک مبنا برای تخمین [[برآورد درستنمایی بیشینه|احتمال حداکثری]] برای محل اشیا یا افراد در یک [[:en:Continuum_(measurement)|پیوستار]]، بر اساس گردآوردی از داده طبقهای میسازد، برای مثال توانایی افراد در یک پوستار مبتنی بر پاسخها، که به صورت درست یا نادرست طبقهبندی شده اند. |
|||
==== شبکههای عصبی ==== |
|||
معمولا از توابع لوجیستیک در [[شبکه عصبی|شبکههای عصبی]] برای معرفی [[سامانه غیرخطی|غیرخطیبودن]] در مدل یا برای گیرانداختن سیگنالها به داخل یک [[بازه|محدوده]] معین استفاده میشود. یک [[:en:Artificial_neuron|عنصر شبکه عصبی]] یک [[ترکیب خطی]] از سیگنالهای ورودیاش را محاسبه میکند، و تابع لجیستیک محدود به عنوان [[:en:Activation_function|تابع فعالسازی]] به جواب اعمال میکند؛ این مدل را میتوان به عنوان نوع «صافشده» [[پرسپترون|عصب آستانه]] کلاسیک دید. |
|||
یک گزینه معمول برای توابع فعالسازی یا «کوبیدن یا لهکردن» که از آن برای اتصال به مقادیر بزرگ و برای محدود نگهداشتن پاسخ شبکه عصبی استفاده میشود،<ref name="Gershenfeld-1999">Gershenfeld 1999, p. 150.</ref> به صورت زیر است: |
|||
: <math>g(h) = \frac{1}{1 + e^{-2 \beta h}},</math> |
|||
که یک تابع لجستیک است. |
|||
این موضوع منجر به پیادهسازیهای ساده [[شبکه عصبی مصنوعی|شبکههای عصبی مصنوعی]] با [[:en:Artificial_neuron|عصبهای مصنوعی]] میشود. متخصصان احتیاط میکنند که توابع سیگموییدی که حول مبدا [[توابع زوج و فرد|پادمتقارن]] هستند (مثل [[تابع هذلولوی|تانژانت هذلولوی]]) موقعی که شبکه را با [[پسانتشار]] آموزش میدهیم منجر به همگرایی سریعتر میشوند.<ref name="LeCun-1998">{{cite book|author1=LeCun, Y.|author2=Bottou, L.|author3=Orr, G.|author4=Muller, K.|editor=Orr, G.|editor2=Muller, K.|year=1998|title=Efficient BackProp|work=Neural Networks: Tricks of the trade|isbn=3-540-65311-2|publisher=Springer|url=http://yann.lecun.com/exdb/publis/pdf/lecun-98b.pdf}}</ref> |
|||
تابع لجیستیک خودش مشتق تابع فعالسازی پشینهادی دیگری، به نام [[یکسوساز (شبکه عصبی)|سافتپلاس]] است. |
|||
==== در زبانشناسی: دگرگونی زبانی ==== |
|||
در زبانشناسی، از تابع لجیستیک برای مدلسازی [[دگرگونی زبانی]] استفاده میشود:<ref name="probabilistic linguistics">Bod, Hay, Jennedy (eds.) 2003, pp. 147–156</ref> یک نوآوری که در محدوده اول است با گسترش سریعتری در زمان شروع می شود، و سپس با قبولشدن جهانی آن، گسترش آن آهستهتر میشود. |
|||
== جستارهای وابسته == |
== جستارهای وابسته == |
||
* [[رشد نمایی]] |
* [[رشد نمایی]] |
||
خط ۱۹: | خط ۱۳۱: | ||
* [[معادله هیل]] |
* [[معادله هیل]] |
||
* [[سینتیک میکائلیس–منتن]] |
* [[سینتیک میکائلیس–منتن]] |
||
== پانویس == |
|||
{{پانویس}} |
|||
== منابع == |
== منابع == |
||
{{یادکرد-ویکی|پیوند=https://en.wikipedia.org/wiki/Logistic_function|عنوان=Logistic function|زبان=انگلیسی|بازیابی=۱۰ اوت ۲۰۲۱}} |
|||
{{پانویس|چپچین=بله}} |
|||
* {{یادکرد-ویکی|پیوند =//en.wikipedia.org/w/index.php?title=Logistic_function&oldid=922872267|عنوان = Logistic function|زبان =انگلیسی|بازیابی =۴ نوامبر ۲۰۱۹}} |
|||
{{مدلسازی بومسازگان}} |
{{مدلسازی بومسازگان}} |
نسخهٔ ۱۰ اوت ۲۰۲۱، ساعت ۰۷:۵۹
یک تابع لجیستیک (به انگلیسی: logistic function) یا منحنی لوجیستیک، یک منحنی معمولی Sشکل (منحنی سیگموئید) با معادله زیر است
که در آن
، مقدار برای نقطه میانه سیگموید است؛
، مقدار ماکزیمم منحنی است؛
، نرخ رشد لوجیستیک یا شیب منحنی است.[۱]
برای مقادیر x در دامنه اعداد حقیقی، از تا ، منحنی S نشانداده شده در چپ به دست میآید، که در آن گراف موقعی که به نزدیک میشود، به نزدیک میشود، و موقعی که به نزدیک میشود، به صفر نزدیک میشود.
تابع لوجیستیک کاربردهایی در زمینههای مختلف دارد که شامل زیستشناسی (مخصوصا بومشناسی)، زیستشناسی ریاضیاتی، شیمی، جمعیتشناسی، علم اقتصاد، علوم زمین، روانشناسی ریاضی، احتمالات، جامعهشناسی، علوم سیاسی، زبانشناسی، آمار، و شبکههای عصبی مصنوعی است. تابع هایپربولیک نوع 1، نوعی تعمیم برای تابع لجیستیک است.
ویژگیهای ریاضیاتی
تابع لوجیستیک استاندارد همان تابع لوجیستیک با پارامترهای ، ، ، که منجر به زیر میشود:
در عمل به دلیل طبیعت تابع نمایی ، معمولا فقط کافی است تا تابع لوجیستیک استاندارد را برای روی محدوده کوچکی از اعداد حقیقی، مثل محدوده موجود در [−6, +6] محاسبه کنیم، زیرا این تابع بسیار سریع به مقادیر نزدیک به اشباع 0 و 1 همگرا می شود.
تابع لوجیستیک این ویژگی متقارن را دارد:
بنابراین یک تابع فرد است.
تابع لوجیستیک یک آفست و تابع تانژانت هذلولوی مقیاسدهی شده است:
یا
این موضوع از زیر به دست آمده است:
مشتق
مشتق تابع لوجیستیک استاندارد به سادگی محاسبه میشود. به این مشتق توزیع لجیستیک میگویند:
انتگرال
به صورت برعکس، پاد مشتق را میتوان با جایگذاری محاسبه کرد، زیرا ، از این رو (با حذف ثابت انتگرالگیری)
در شبکههای عصبی مصنوعی، به آن، تابع سافتپلاس (به انگلیسی: softplus) میگویند و (با مقیاسدهی) یک تقریب صاف از تابع شیب است، همانطور که تابع لوجیستیک (با مقیاسدهی) یک تقریب صاف از تابع پلهای هویساید است.
معادله دیفرانسیلی لجیستیک
تابع لوجیستیک استاندارد راهحل معادله دیفرانسیل معمولی غیرخطی مرتبه-اول ساده زیر:
با شرط حدی است. این معادله نسخه پیوسته تناظر لجیستیک است. توجه کنید که تابع لجیستیک وارون همان راهحل برای یک معادله دیفرانسیلی معمولی خطی مرتبه-اول ساده است.[۲]
رفتار کیفی این تابع به صورت ساده به صورت خط فازی قابل فهم است: موقعی که تابع 1 است، مشتق 0 است، موقعی که تابع بین 0 و 1 است، مشتق مثبت است، و موقعی که بالای 1 یا پایین 0 است، مشتق منفی است (اگرچه جمعیت منفی معمولا با یک مدل فیزیکی منطبق نیست). این موضوع منجر به یک تعادل غیرپایدار در 0 و تعادل پایدار در 1 میشود، و از این رو برای هر مقدار تابع بزرگتر از 0 و کمتر از 1، به سمت 1 رشد میکند.
معادله لوجیستیک نوع خاصی از معادله دیفرانسیلی برنولی است، و راهحل زیر را دارد:
با انتخاب ثابت انتگرالگیری یک تعریف مشهور دیگر برای منحنی لجیستیک به دست میآید:
به صورت کیفیتر، همانطور که از راهحل تحلیلی قابل مشاهده است، منحنی لجیستیک یک رشد نمایی ابتدایی برای آرگومان منفی نشان میدهد، که به یک رشد خطی با شیب 1/4 برای آرگومان نزدیک به 0 میرسد، و سپس با یک شکاف تنزلی نمایی به 1 نزدیک میشود.
تابع لوجیستیک وارون تابع لوجیت طبیعی است، و از این رو از آن میتوان استفاده کرد تا لگاریتم بخت را به احتمال تبدیل نمود. در نمادگذاری ریاضیاتی، تابع لوجیستیک را گاهی به صورت "expit"[۳] مینویسند، که این موضوع، شکلی مشابه "logit" دارد. تبدیل از نسبت لاگ-درستنمایی دو جایگزین نیز شکل منحنی لجیستیک را به خود میگیرد.
معادله دیفرانسیلی به دست آمده در بالا نوع خاصی از معادله دفیرانسیلی عمومی است که فقط تابع سیگمویید را برای مدلسازی میکند. در بسیاری از کاربردهای مدلسازی، شکل عمومیتر:[۴]
ممکن است پسندیدهتر باشد. راهحل آن همان سیگموید منتقل شده و مقیاسدهی شده است.
رابطه تانژانت-هایپربولیک منجر به شکل دیگری از مشتق تابع لوجیستیک میشود:
که این موضوع تابع لجیستیک را به توزیع لجیستیک پیوند میدهد.
تقارن چرخشی حول نقطه (0،1/2)
جمع تابع لوجیستیک و معکوس آن حول محول عمودی، یعنی به این صورت است:
از این رو تابع لجیستیک حول نقطه (0, 1/2) به صورت چرخشی متقارن است.[۵]
کاربردها
آقای لینک[۶] یک گسترش برای نظریه والد برای تحلیل ترتیبی برای تجمع فاقدتوزیع برای متغیرهای تصادفی، تا موقعی که یک حد منفی یا مثبت اول برابر شود یا بالاتر شود، ساخت. لینک[۷] احتمال اولین حد مثبت برابر یا بیشتر را به صورت به دستآورد که همان تابع لوجسیتیک است. این اولین اثباتی بود که تابع لوجیستیک میتوانست به عنوان مبنا یک فرایند تصادفی داشته باشد. لینک[۸] یک سده از مثالهای نتایج تجربی «لجیستیک»، و رابطه تازه به دست آمده بین این احتمال و زمان جذب در حدود را ایجاد کرد.
در آمار و یادگیری ماشین
توابع لوجیستیک در چندین نقش در آمار استفاده شده است. برای مثال آنها تابع توزیع تجمعی برای خانواده لجیستیک برای توزیعها هستند، و از آنها به صورت ساده در مدلسازی شانس یک بازیکن شطرنج که باید حریف خود را در سامانه نرخدهی الو شکست دهد، استفاده میشوند. مثالهای خصوصیتر در ادامه میآید.
رگرسیون لوجیستیک
از توابع لوجیستیک در رگرسیون لجستیک استفاده می شود تا این موضوع که چقدر احتمال از یک رخداد ممکن است از یک یا بیشتر متغیر توضیحدهنده تاثیر بپذیرد را مدلسازی کنند: یک مثال آن برای مدل زیر است:
که در آن متغیر توضیحدهنده است، و پارامتر مدل برای متناسب شدن، و همان تابع لجیستیک استاندارد است.
از رگرسیون لجستیک و دیگر مدلهای لاگ-خطی در یادگیری ماشین به صورت معمول استفاده می شود. یک تعمیم از تابع لجستیک به چندین ورودی، تابع فعالسازی سافتمکس است، که در رگرسیون لجستیک چندجملهای از آن استفاده میشود.
کاربرد دیگر تابع لجستیک در مدل رش است، که در نظریه پاسخ مورد از آن استفاده میشود. بخصوص، مدل رش یک مبنا برای تخمین احتمال حداکثری برای محل اشیا یا افراد در یک پیوستار، بر اساس گردآوردی از داده طبقهای میسازد، برای مثال توانایی افراد در یک پوستار مبتنی بر پاسخها، که به صورت درست یا نادرست طبقهبندی شده اند.
شبکههای عصبی
معمولا از توابع لوجیستیک در شبکههای عصبی برای معرفی غیرخطیبودن در مدل یا برای گیرانداختن سیگنالها به داخل یک محدوده معین استفاده میشود. یک عنصر شبکه عصبی یک ترکیب خطی از سیگنالهای ورودیاش را محاسبه میکند، و تابع لجیستیک محدود به عنوان تابع فعالسازی به جواب اعمال میکند؛ این مدل را میتوان به عنوان نوع «صافشده» عصب آستانه کلاسیک دید.
یک گزینه معمول برای توابع فعالسازی یا «کوبیدن یا لهکردن» که از آن برای اتصال به مقادیر بزرگ و برای محدود نگهداشتن پاسخ شبکه عصبی استفاده میشود،[۹] به صورت زیر است:
که یک تابع لجستیک است.
این موضوع منجر به پیادهسازیهای ساده شبکههای عصبی مصنوعی با عصبهای مصنوعی میشود. متخصصان احتیاط میکنند که توابع سیگموییدی که حول مبدا پادمتقارن هستند (مثل تانژانت هذلولوی) موقعی که شبکه را با پسانتشار آموزش میدهیم منجر به همگرایی سریعتر میشوند.[۱۰]
تابع لجیستیک خودش مشتق تابع فعالسازی پشینهادی دیگری، به نام سافتپلاس است.
در زبانشناسی: دگرگونی زبانی
در زبانشناسی، از تابع لجیستیک برای مدلسازی دگرگونی زبانی استفاده میشود:[۱۱] یک نوآوری که در محدوده اول است با گسترش سریعتری در زمان شروع می شود، و سپس با قبولشدن جهانی آن، گسترش آن آهستهتر میشود.
جستارهای وابسته
- رشد نمایی
- انتشار نوآوری
- تابع پلهای هویساید
- رگرسیون لجستیک
- لوجیت
- آزمون نسبت درستنمایی
- پویاییشناسی جمعیت
- یکسوساز
- معادله هیل
- سینتیک میکائلیس–منتن
پانویس
- ↑ Verhulst, Pierre-François (1838). "Notice sur la loi que la population poursuit dans son accroissement" (PDF). Correspondance Mathématique et Physique. 10: 113–121. Retrieved 3 December 2014.
- ↑ Kocian, Alexander; Carmassi, Giulia; Cela, Fatjon; Incrocci, Luca; Milazzo, Paolo; Chessa, Stefano (7 June 2020). "Bayesian Sigmoid-Type Time Series Forecasting with Missing Data for Greenhouse Crops". Sensors. 20 (11): 3246. doi:10.3390/s20113246. PMC 7309099. PMID 32517314.
- ↑ expit documentation for R's clusterPower package.
- ↑ Kyurkchiev, Nikolay, and Svetoslav Markov. "Sigmoid functions: some approximation and modelling aspects". LAP LAMBERT Academic Publishing, Saarbrucken (2015).
- ↑ Raul Rojas. Neural Networks – A Systematic Introduction (PDF). Retrieved 15 October 2016.
- ↑ S. W. Link, Psychometrika, 1975, 40, 1, 77–105
- ↑ S. W. Link, Attention and Performance VII, 1978, 619–630
- ↑ S. W. Link, The wave theory of difference and similarity (book), Taylor and Francis, 1992
- ↑ Gershenfeld 1999, p. 150.
- ↑ LeCun, Y.; Bottou, L.; Orr, G.; Muller, K. (1998). Orr, G.; Muller, K. (eds.). Efficient BackProp (PDF). Neural Networks: Tricks of the trade. Springer. ISBN 3-540-65311-2.
- ↑ Bod, Hay, Jennedy (eds.) 2003, pp. 147–156
منابع
مشارکتکنندگان ویکیپدیا. «Logistic function». در دانشنامهٔ ویکیپدیای انگلیسی، بازبینیشده در ۱۰ اوت ۲۰۲۱.