درخت تصمیم

از ویکی‌پدیا، دانشنامهٔ آزاد

درخت تصمیم‌گیری (Decision Tree) یک ابزار برای پشتیبانی از تصمیم است که از درخت‌ها برای مدل کردن استفاده می‌کند. درخت تصمیم به‌طور معمول در تحقیق‌ها و عملیات مختلف استفاده می‌شود. به‌طور خاص در آنالیز تصمیم، برای مشخص کردن استراتژی که با بیشترین احتمال به هدف برسد، بکار می‌رود. استفاده دیگر درختان تصمیم، توصیف محاسبات احتمال شرطی است.

مثال‌ها[ویرایش]

سابقا نمودارهای درختی به صورت دستنویس بودند.

مثال۱[ویرایش]

در بازی بیست سؤالی، بازیکن باید یک درخت تصمیم در ذهن خود بسازد که به خوبی موارد را از هم جدا کند تا با کمترین سؤال به جواب برسد. در صورتی بازیکن به جواب می‌رسد که درخت ساخته شده بتواند به خوبی موارد را از هم جدا کند.

مثال ۲[ویرایش]

فرض کنید نمرات پارسال یک استاد به همکلاسی‌ها را داریم و می‌خواهیم قبول یا مردود شدن خود را تخمین بزنیم؛ بنابراین یک جدول می‌کشیم که در آن ویژگی‌هایی که همه همکلاسی‌ها دارند و برای ما مشخص هستند را فهرست می‌کنیم؛ ویژگی‌هایی مانند جنسیت، تأهل و اشتغال را می‌آوریم؛ بنابراین چنین نتیجه می‌شود:

  • مؤنث => ۹۰ درصد قبول (برگ)
  • مذکر => ۵۰ درصد مردود (تعیین‌کننده نیست (از لحاظ آماری همگن است)، پس تصمیم را می‌شکنیم)
  • مذکر + اشتغال => ۶۰ درصد مردود (تقریباً همگن)
  • مذکر + اشتغال + تأهل => ۸۵ درصد قبول (برگ)
  • مذکر + اشتغال + مجرد => ۷۰ درصد مردود (برگ (چون ویژگی دیگری نداریم))

مثال ۳[ویرایش]

در مجموعه داده گل زنبق، می‌خواهم نوع زنبقی را تخمین بزنم که بردار ویژگی آن x است؛ بنابراین در متلب:

clear all
load fisheriris ;% بارگیری مجموعه‌داده گل زنبق
iris_tree = fitctree(meas,species); % ایجاد درخت تصمیم
view(iris_tree,'mode','graph') % توضیح نمودار
x=[6 3 1.5 .3]; % زنبق من
disp(predict(iris_tree,x)) % نتیجه تصمیم

کلیات[ویرایش]

در آنالیز تصمیم، یک درخت تصمیم به عنوان ابزاری برای به تصویر کشیدن و آنالیز تصمیم، در جایی که مقادیر مورد انتظار از رقابت‌ها متناوباً محاسبه می‌شود، استفاده می‌گردد. یک درخت تصمیم دارای سه نوع گره‌است:

  1. گره تصمیم: به‌طور معمول با مربع نشان داده می‌شود.
  2. گره تصادفی: با دایره مشخص می‌شود.
  3. گره پایانی: با مثلث مشخص می‌شود.

نمودار درخت تصمیم‌گیری[ویرایش]

یک درخت تصمیم می‌تواند خیلی فشرده در قالب یک دیاگرام، توجه را بر روی مسئله و رابطه بین رویدادها جلب کند.

مربع نشان دهنده تصمیم‌گیری، بیضی نشان دهنده فعالیت، و لوزی نشان دهنده نتیجه است.

الگوریتم ساخت درخت تصمیم‌گیری[ویرایش]

مجموع داده‌ها را با نمایش می‌دهیم، یعنی ، به قسمی که و . درخت تصمیم‌گیری سعی می‌کند به صورت بازگشتی داده‌ها را به قسمی از هم جدا کند که در هر گِرِه متغیرهای مستقلِ به هم نزدیک شده همسان شوند.[۱] هر گِره، زیر مجموعه ای از داده هاست که به صورت بازگشتی ساخته شده‌است. به‌طور دقیق‌تر در گره اگر داده ما باشد، سعی می‌کنیم یک بُعد از متغیرهایی وابسته را به همراه یک آستانه انتخاب کنیم و داده‌ها را برحسب این بُعد و آستانه به دو نیم تقسیم کنیم، به قسمی که به‌طور متوسط در هر دو نیم متغیرهای مستقل یا خیلی به هم نزدیک و همسان شده باشند. این بعد و آستانه را می‌نامیم. دامنه برابر است با و یک عدد صحیح است. برحسب به دو بخش و به شکل پایین تقسیم می‌شود:[۱]

حال سؤال اینجاست که کدام بُعد از متغیرهای وابسته و چه آستانه‌ای را باید انتخاب کرد. به زبان ریاضی باید آن یی را انتخاب کرد که ناخالصی داده را کم کند. ناخالصی برحسب نوع مسئله تعریفی متفاوت خواهد داشت، مثلاً اگر مسئله یک دسته‌بندی دوگانه است، ناخالصی می‌تواند آنتراپی داده باشد، کمترین ناخالصی زمانی است که هم و هم از یک دسته داشته باشند، یعنی در هر کدام از این دو گِرِه دو نوع دسته وجود نداشته باشد. برای رگرسیون این ناخالصی می‌تواند واریانس متغیر وابسته باشد. از آنجا که مقدار داده در و با هم متفاوت است، میانگینی وزن‌دار از هر دو ناخالصی را به شکل پایین محاسبه می‌کنیم.[۲] در این معادله ، و :

هدف در اینجا پیدا کردن آن یی است که ناخالصی را کمینه کند، یعنی . حال همین کار را به صورت بازگشتی برای و انجام می‌دهیم. بعضی از گره‌ها را باید به برگ تبدیل کنیم. معیاری که برای تبدیل یک گره به برگ از آن استفاده می‌کنیم، می‌تواند مقداری حداقلی برای (تعداد داده در یک گره) یا عمق درخت باشد. به قسمی که اگر با دو نیم کردن گِره یکی از معیارها عوض شود، گِره را به دو نیم نکرده آن را تبدیل به یک برگ می‌کنیم. معمولاً این دو پارامتر باعث تنظیم مدل (Regularization) می‌شوند.[۲] در ابتدای کار گره شامل تمام داده‌ها می‌شود یعنی .

مسئله دسته‌بندی[ویرایش]

اگر مسئله ما دسته‌بندی باشد و باشد تابع ناخالصی برای گره می‌تواند یکی از موارد پایین باشد، در این معادله‌ها :[۳]

ناخالصی گینی:

ناخالصی آنتروپی:

ناخالصی خطا:

مسئله رگرسیون[ویرایش]

در مسئله رگرسیون ناخالصی می‌تواند یکی از موارد پایین باشد:

میانگین خطای مربعات:

میانگین خطای قدر مطلق:

مزایا[ویرایش]

در میان ابزارهای پشتیبانی تصمیم، درخت تصمیم و دیاگرام تصمیم دارای مزایای زیر هستند:

  1. فهم ساده: هر انسان با اندکی مطالعه و آموزش می‌تواند، طریقه کار با درخت تصمیم را بیاموزد.
  2. کار کردن با داده‌های بزرگ و پیچیده: درخت تصمیم در عین سادگی می‌تواند با داده‌های پیچیده به راحتی کار کند و از روی آن‌ها تصمیم بسازد.
  3. استفاده مجدد آسان: در صورتی که درخت تصمیم برای یک مسئله ساخته شد، نمونه‌های مختلف از آن مسئله را می‌توان با آن درخت تصمیم محاسبه کرد.
  4. قابلیت ترکیب با روش‌های دیگر: نتیجه درخت تصمیم را می‌توان با تکنیک‌های تصمیم‌سازی دیگر ترکیب کرده و نتایج بهتری بدست آورد.

معایب[ویرایش]

  1. مشکل استفاده از درخت‌های تصمیم آن است که به صورت نمایی با بزرگ شدن مسئله بزرگ می‌شوند.
  2. اکثر درخت‌های تصمیم تنها از یک ویژگی برای شاخه زدن در گره‌ها استفاده می‌کنند در صورتی که ممکن است ویژگی‌ها دارای توزیع توأم باشند.
  3. ساخت درخت تصمیم در برنامه‌های داده کاوی، حافظه زیادی را مصرف می‌کند زیرا برای هر گره باید معیار کارایی برای ویژگی‌های مختلف را ذخیره کند تا بتواند بهترین ویژگی را انتخاب کند.

جستارهای وابسته[ویرایش]

منابع[ویرایش]

  1. ۱٫۰ ۱٫۱ Hastie, Trevor; Tibshirani, Robert; Friedman, Jerome (2009). The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Second Edition. Springer Series in Statistics (به انگلیسی) (2 ed.). New York: Springer-Verlag.
  2. ۲٫۰ ۲٫۱ Rokach، Lior؛ Maimon، Oded (۲۰۱۴). Data Mining With Decision Trees: Theory and Applications (ویراست ۲nd). River Edge, NJ, USA: World Scientific Publishing Co. , Inc. شابک ۹۷۸۹۸۱۴۵۹۰۰۷۵.
  3. Krzywinski, Martin; Altman, Naomi (2017-07-28). "Points of Significance: Classification and regression trees". Nature Methods (به انگلیسی). Retrieved 2018-12-13.