الگوریتم آی‌دی۳

از ویکی‌پدیا، دانشنامهٔ آزاد
درخت تصمیم بالقوه تولید شده توسط ID3. در این روش ویژگی‌ها بصورت نودهایی با توانایی طبقه‌بندی نمونه‌ها مرتب می‌شوند. مقادیر ویژگی‌ها توسط شاخه‌ها نشان داده می‌شوند.


در یادگیری درخت تصمیم، ID3 (Iterative Dichotomiser 3) یک الگوریتم ابداع شده توسط راس کوینلان [۱] بوده که می‌تواند برای تولید درخت تصمیم در یک مجموعه داده استفاده شود. ID3 شاکله اصلی الگوریتم C4.5 است و عموما در حوزه‌های یادگیری ماشین و پردازش زبان‌های طبیعی مورد استفاده قرار میگیرد.

الگوریتم[ویرایش]

الگوریتم ID3 با یک مجموعه اصلی مانند S شروع می‌شود که بعنوان گره ریشه شناخته می‌شود. در هر تکرار از الگوریتم، برای هر ویژگی در مجموعه S که تا آن مرحله مورد استفاده قرار نگرفته است، مقدار آنتروپی H(s) آن ویژگی یا مقدار بهره اطلاعات IG(S) آن ویژگی محاسبه می‌شود. سپس ویژگی‌ای که دارای کمترین مقدار آنتروپی (یا بیشترین بهره اطلاعات) باشد را انتخاب می‌کند. مجموعه سپس توسط ویژگی انتخاب شده تقسیم یا اصطلاحا افراز شده تا زیرمجموعه‌هایی از داده‌ها را تولید کند. (به عنوان مثال، یک گره داخلی را می‌توان بر اساس زیر مجموعه‌های جمعیتی که سن آنها کمتر از 50 سال، بین 50 تا 100 و بیشتر از 100 سال است، به گره‌های فرزند تقسیم کرد) و الگوریتم همچنان باتوجه به ویژگی‌هایی که تا قبل از آن تکرار انتخاب نشده‌اند، به فرایند تقسیم کردن ادامه میدهد.

عملیات بازگشتی بر روی یک زیر مجموعه ممکن است در یکی از موارد زیر متوقف شود:

  • هر نمونه در یک زیرمجموعه فقط متعلق به یک کلاس باشد. در این حالت نود حاصل یک نود برگ بوده و برچسب آن، کلاس نمونه (یا نمونه‌هایی) است که در خود دارد.
  • تمام ویژگی ها انتخاب شده باشند و دیگر ویژگی‌ای برای انتخاب شدن و تقسیم وجود نداشته باشد، اما هنوز برخی نمونه ها وجود داشته باشند که به یک کلاس تنها تعلق نداشته باشند. در این حالت، یک گره به عنوان گره برگ ایجاد شده و برچسب آن کلاسی انتخاب می‌شود که بیشترین فراوانی را در نمونه‌های موجود در آن نود داشته باشد.
  • هیچ نمونه‌ای در زیر مجموعه وجود نداشته باشد. این مورد زمانی اتفاق می‌افتد که هیچ نمونه‌ای در مجموعه والد پیدا نشود که با مقدار خاصی از ویژگی انتخاب شده مطابقت داشته باشد. به عنوان مثال می‌توان عدم حضور نمونه‌ای در جمعیت با سن بالای 100 سال را نام برد. سپس یک گره برگ ایجاد می‌شود و با رایج ترین کلاس از نمونه‌های مجموعه گره والد برچسب گذاری می‌شود.

بعد از پایان یافتن الگوریتم، درخت تصمیمی ایجاد می‌شود که گره‌های غیرپایانی (گره داخلی) آن، نشان دهنده ویژگی‌های انتخابی هستند که داده‌ها با توجه به آن ها تقسیم شده‌اند و گره‌های پایانی (گره برگ) آن شامل برچسب‌های کلاس مربوط به زیرمجموعه نهایی آن شاخه است.

خلاصه[ویرایش]

  1. میزان آنتروپی را برای هر ویژگی مانند از مجموعه داده محاسبه کنید.
  2. مجوعه را با استفاده از ویژگی‌ای باعث مینیمم شدن میزان آنتروپی می‌شود به زیرمجموعه‌هایی افراز (تقسیم) کنید.
  3. یک گره برای درخت تصمیم بسازید که حاوی آن ویژگی باشد.
  4. باتوجه به ویژگی‌های باقیمانده، این عمل را بصورت بازگشتی برروی زیرمجموعه‌ها تکرار کنید.

شبه کد[ویرایش]

ID3 (Examples, Target_Attribute, Attributes)
    Create a root node for the tree
    If all examples are positive, Return the single-node tree Root, with label = +.
    If all examples are negative, Return the single-node tree Root, with label = -.
    If number of predicting attributes is empty, then Return the single node tree Root,
    with label = most common value of the target attribute in the examples.
    Otherwise Begin
        A ← The Attribute that best classifies examples.
        Decision Tree attribute for Root = A.
        For each possible value, vi, of A,
            Add a new tree branch below Root, corresponding to the test A = vi.
            Let Examples(vi) be the subset of examples that have the value vi for A
            If Examples(vi) is empty
                Then below this new branch add a leaf node with label = most common target value in the examples
           

ویژگی ها[ویرایش]

درخت تصمیم تولید شده توسط الگوریتم ID3 استفاده شده است تا تعیین کند آیا یک جفت نوکلئوتیدی خاص در یک توالی pre-mRNA مربوط به محل اتصال mRNA است یا خیر. مشخص شده است که درخت حاصل نرخ دقت پیش بینی 95% دارد. [۲]

الگوریتم ID3 تضمین نمی‌کند که جواب حاصله بهینه باشد اما می‌تواند به یک بهینه محلی همگرا شود. ID3 از یک استراتژِی حریصانه استفاده می‌کند که در هر تکرار بهترین ویژگی محلی را برای افراز مجموعه داده مورد استفاده قرار می‌دهد. روند بهینه سازی الگوریتم را می‌توان با استفاده از یک روش عقب‌گرد در طول جستجوی درخت تصمیم‌گیری بهینه و با قبول صرف زمان بیشتر، بهبود بخشید.


ID3 می‌تواند باعث بیش برازش بر روی داده‌های آموزشی شود. برای جلوگیری از این امر، درختان تصمیم کوچک‌تر باید به درختان تصمیم بزرگتر ترجیح داده شوند. این الگوریتم معمولاً درختان تصمیم کوچک تولید می‌کند، اما این به معنی نیست که همواره کوچکترین درخت تصمیم ممکن را تولید کند.

استفاده از ID3 در داده‌های پیوسته سخت‌تر از داده‌های عاملی است (داده‌های عاملی داده‌هایی هستند که دارای اعداد گسسته از مقادیر ممکن است، بنابراین نقاط انشعاب ممکن را کاهش می‌دهد). اگر مقادیر هر یک از ویژگی‌های داده شده پیوسته باشند، امکان‌های بیشتری برای افراز داده‌ها برروی آن ویژگی وجود دارد و انتخاب بهترین مقدار ممکن برای افراز می‌تواند زمانبر باشد.

استفاده[ویرایش]

الگوریتم ID3 برروی یک مجموعه داده مانند استفاده می‌شود تا درخت تصمیمی را تولید کند که در حافظه ذخیره می‌شود. در طول زمان اجرای الگوریتم، این درخت تصمیم می‌تواند برای طبقه‌بندی داده‌های جدید (تست) استفاده شود. این امر با پیمایش درخت تصمیم باتوجه به ویژگی‌های موجود در هر نود و حرکت در طول درخت تا رسیدن به یک گره برگ قابل انجام است.

معیارهای ID3[ویرایش]

آنتروپی[ویرایش]

میزان آنتروپی معیاری است که می‌تواند برای محاسبه میزان عدم قطعیت در مچموعه داده مورداستفاده قرار گیرد.

که در آن،

  • - مجموعه داده فعلی است که میزان آنتروپی برای آن محاسبه می‌شود.
    • این میزان در هر تکرار از الگوریتم ID3، تغییر می‌کند. درصورت تقسیم باتوجه به یک ویژگی به زیرمجموعه‌ای از مجموعه قبلی تقسیم می‌شود و در صورتی که عملیات بازگشتی قبلا خاتمه یافته باشد، به نودهای «خواهر و برادر» تقسیم می‌شود.
  • – مجموعه کلاس ها در
  • - نسبت تعداد عناصر در کلاس به تعداد عناصر در مجموعه

زمانی که باشد، به این معنی است که مجموعه کاملا طبقه‌بندی شده است (به این معنی که همه عناصر موجود در مربوط به یک کلاس هستند).

در الگوریتم ID3، میزان آنتروپی برای هر ویژگی‌ای که باقیمانده باشد محاسبه می‌شود. در هر تکرار الگوریتم، ویژگی با کمترین میزان آنتروپی برای تقسیم مجموعه داده مورداستفاده قرار می‌گیرد. آنتروپی در تئوری اطلاعات مقدار اطلاعاتی که در اندازه‌گیری متغیر تصادفی انتظار می‌رود را محاسبه می‌کند. به این ترتیب، می‌توان از آنتروپی برای تعیین کمیت مقداری که توزیع مقادیر کمیت در آن نامعلوم است نیز استفاده کرد. یک کمیت ثابت به این دلیل که توزیع آن کاملا مشخص است دارای میزان آنتروپی صفر است. در سمت مقابل، یک متغیر تصادفی توزیع شده یکنواخت (گسسته یا پیوسته) میزان آنتروپی را به حداکثر می‌رساند. بنابراین هرچه میزان آنتروپی در یک گره بیشتر باشد، انتظار اطلاعات کمتری در مورد طبقه‌بندی داده‌ها در این مرحله از درخت وجود دارد و درنتیجه پتانسیل بیشتری برای بهبود طبقه‌بندی در این گره وجود دارد.

ID3 یک روش اکتشافی حریصانه است که یک روش ابتدا-بهترین جستجو را برای پیدا کردن مقادیر آنتروپی بهینه محلی اجرا می‌کند. دقت الگوریتم را میتوان با عملیات پیش پردازش داده‌ها بهبود بخشید.

بهره اطلاعات[ویرایش]

بهره اطلاعات معیاری برای اندازه‌گیری تفاوت میزان آنتروپی قبل و بعد از تقسیم مجموعه باتوجه به ویژگی است. به بیان دیگر، تقسیم مجموعه با استفاده از ویژگی تا چه میزان عدم قطعیت در مجموعه را کاهش میدهد.

که در آن،

  • - میزان آنتروپی مجموعه
  • - زیر مجموعه‌های تولید شده بوسیله تقسیم مجموعه با استفاده از ویژگی به طوری که
  • - نسبت تعداد عناصر موجود در به تعداد عناصر در مجموعه
  • - آنتروپی زیر مجموعه

در الگوریتم ID3، برای هر ویژگی باقی‌مانده می‌توان بهره اطلاعات را (به جای آنتروپی) محاسبه کرد. در هر تکرار، برای تقسیم مجموعه ، ویژگی با بیشترین بهره اطلاعات مورداستفاده قرار می‌گیرد.

همچنین ببینید[ویرایش]

منابع[ویرایش]

  1. Quinlan, J. R. 1986. Induction of Decision Trees. Mach. Learn. 1, 1 (Mar. 1986), 81–106
  2. Taggart, Allison J; DeSimone, Alec M; Shih, Janice S; Filloux, Madeleine E; Fairbrother, William G (2012-06-17). "Large-scale mapping of branchpoints in human pre-mRNA transcripts in vivo". Nature Structural & Molecular Biology. 19 (7): 719–721. doi:10.1038/nsmb.2327. ISSN 1545-9993. PMC 3465671. PMID 22705790.

خواندن بیشتر[ویرایش]

لینک‌های خارجی[ویرایش]