یادگیری ماشین خصمانه

از ویکی‌پدیا، دانشنامهٔ آزاد
پرش به ناوبری پرش به جستجو

یادگیری ماشین خصمانه  یک شاخه پژوهشی است که بین دو حوزه یادگیری ماشین و امنیت کامپیوتر مشترک است. در این روش هدف فعال کردن پذیرش امن تکنیکهای یادگیری ماشین در تنظیمات خصمانه مانند مقابله با هرزنامه ها، تشخیص نرم‌افزارهای مخرب وزیست سنجی است.

مشکل از این واقعیت ناشی  شده است که تکنیک یادگیری ماشین در اصل برای محیط های ثابت طراحی شده است که در آن فرض می‌شود داده های آموزش و آزمون دارای یک نوع توزیع (اگر چه احتمالاً ناشناخته) هستند. درحالیکه در حضور دشمنان هوشمند و تطبیقی این فرضیه به احتمال زیاد و لااقل درجاتی از آن (بسته به نوع دشمن) نقض می شود. در واقع  یک دشمن مخرب با دقت می‌تواند داده های ورودی را با بهره گیری از آسیب پذیری های خاص الگوریتم های یادگیری دستکاری کند تا بتواند کل امنیت سیستم را به خطر بیندازد.

ارزیابی امنیتی[ویرایش]

نمایش مفهومی مسابقه تسلیحات واکنشی.[۱]
نمایش مفهومی مسابقه تسلیحاتی فعال.

جستارهای وابسته[ویرایش]

منابع[ویرایش]

  1. B. Biggio, G. Fumera, and F. Roli. “Security evaluation of pattern classifiers under attack بایگانی‌شده در ۱۸ مه ۲۰۱۸ توسط Wayback Machine”. IEEE Transactions on Knowledge and Data Engineering, 26(4):984–996, 2014.