سوگیری الگوریتمی
سوگیری الگوریتمی (به انگلیسی: Algorithmic Bias) به خطاهای نظاممند و تکرارشونده در یک سیستم کامپیوتری یا هوش مصنوعی اطلاق میشود که منجر به تولید نتایج ناعادلانه، مانند امتیازدهی به یک گروه از کاربران به ضرر دیگران، میشود.[۱] این سوگیری زمانی رخ میدهد که یک الگوریتم، پیشداوریها و نابرابریهای موجود در دادههایی که بر اساس آن آموزش دیده یا در طراحی انسانی آن، را منعکس، تقویت یا خودکارسازی میکند.
برخلاف تصور عمومی که الگوریتمها را موجودیتهایی عینی و بیطرف میداند، آنها محصول انتخابهای انسانی و دادههای تاریخی هستند و در نتیجه، میتوانند سوگیریهای انسانی و اجتماعی را در مقیاسی بسیار بزرگتر بازتولید کنند. سوگیری الگوریتمی یک مشکل فنی صرف نیست، بلکه یک چالش عمیق اجتماعی و اخلاقی است که میتواند به تبعیض در حوزههایی مانند استخدام، عدالت کیفری، اعطای وام و مراقبتهای بهداشتی منجر شود.[۲]
منابع اصلی سوگیری الگوریتمی
[ویرایش]سوگیری میتواند در مراحل مختلف طراحی و پیادهسازی یک سیستم هوش مصنوعی وارد شود:
۱. دادههای آموزشی جانبدارانه (Biased Training Data)
[ویرایش]این شایعترین منبع سوگیری است. الگوریتمهای یادگیری ماشین از طریق تحلیل حجم عظیمی از دادههای تاریخی «یاد میگیرند». اگر این دادهها بازتابدهنده نابرابریها و پیشداوریهای اجتماعی گذشته باشند، الگوریتم نیز همان سوگیریها را به عنوان الگوهای معتبر شناسایی و در تصمیمگیریهای آینده خود اعمال خواهد کرد.[۳]
- مثال: اگر یک الگوریتم استخدام بر روی سوابق استخدامی ۲۰ سال گذشته یک شرکت آموزش ببیند و در آن دوره اکثر مدیران مرد بودهاند، الگوریتم ممکن است به اشتباه نتیجهگیری کند که مرد بودن یکی از شاخصهای کلیدی برای موفقیت است و در نتیجه، رزومههای متقاضیان زن شایسته را با امتیاز کمتری ارزیابی کند.
۲. طراحی الگوریتم و انتخاب ویژگیها (Algorithm and Feature Selection)
[ویرایش]تصمیماتی که توسط طراحان و مهندسان در مورد ساختار الگوریتم گرفته میشود، میتواند منبع سوگیری باشد. انتخاب اینکه چه متغیرها (ویژگیهایی) در مدل لحاظ شوند یا نشوند، تأثیر مستقیمی بر خروجی دارد.
- مثال: یک الگوریتم اعتبارسنجی بانکی ممکن است به طور مستقیم از «نژاد» به عنوان یک متغیر استفاده نکند، اما از متغیرهایی مانند «کد پستی» استفاده کند که به شدت با ترکیب نژادی محلهها همبستگی دارد. این استفاده از یک «متغیر جایگزین» (Proxy Variable) میتواند به تبعیض نژادی غیرمستقیم (Redlining) منجر شود.[۴]
۳. حلقههای بازخورد (Feedback Loops)
[ویرایش]سوگیری الگوریتمی میتواند در یک چرخه معیوب، خود را تقویت کند. خروجیهای یک سیستم سوگیرانه به عنوان دادههای جدید به خود سیستم بازخورانده میشوند و سوگیری اولیه را تشدید میکنند.
- مثال: الگوریتمهای پیشنهاد محتوا در شبکههای اجتماعی تمایل دارند محتوایی را به کاربر نشان دهند که مشابه محتوای قبلی اوست. این امر میتواند به سرعت کاربران را به سمت دیدگاههای افراطی سوق دهد، زیرا الگوریتم یاد میگیرد که محتوای جنجالیتر، تعامل بیشتری ایجاد میکند و در نتیجه، آن را بیشتر ترویج میدهد.[۵]
نمونههای واقعی و پیامدها
[ویرایش]- عدالت کیفری: نرمافزار COMPAS که در برخی دادگاههای آمریکا برای پیشبینی احتمال تکرار جرم توسط متهمان استفاده میشود، به طور مداوم نرخ ریسک بالاتری را برای متهمان سیاهپوست نسبت به سفیدپوستان پیشبینی میکند، حتی زمانی که سوابق کیفری مشابهی دارند.
- استخدام: در سال ۲۰۱۸ مشخص شد که شرکت آمازون یک ابزار استخدام مبتنی بر هوش مصنوعی را کنار گذاشته است، زیرا این سیستم به طور نظاممند علیه متقاضیان زن سوگیری داشت. دلیل آن این بود که الگوریتم بر اساس رزومههای دریافتی طی یک دوره ۱۰ ساله آموزش دیده بود که اکثر آنها متعلق به مردان بود.[۶]
- تشخیص پزشکی: الگوریتمهای تشخیص بیماریهای پوستی که عمدتاً بر روی تصاویر پوستهای روشن آموزش دیدهاند، در تشخیص بیماری در افراد با پوست تیرهتر عملکرد ضعیفتری از خود نشان میدهند.
راهکارهای کاهش و مدیریت
[ویرایش]مقابله با سوگیری الگوریتمی یک چالش پیچیده است، اما چندین رویکرد برای آن وجود دارد:
- حسابرسی دادهها و الگوریتمها (Data and Algorithm Auditing): بررسی دقیق دادههای آموزشی برای شناسایی و حذف سوگیریهای آماری پیش از آموزش مدل. همچنین، آزمون خروجیهای الگوریتم برای اطمینان از عملکرد عادلانه آن در میان گروههای جمعیتی مختلف.
- معیارهای عدالت (Fairness Metrics): تعریف و گنجاندن معیارهای ریاضیاتی «عدالت» در فرآیند بهینهسازی الگوریتم. برای مثال، اطمینان از اینکه نرخ مثبت کاذب (False Positive Rate) برای همه گروهها یکسان باشد.
- شفافیت و توضیحپذیری (Transparency and Explainability - XAI): توسعه سیستمهای هوش مصنوعی که قادر به توضیح منطق پشت تصمیمات خود باشند (اصطلاحاً مدلهای «جعبه سفید» در مقابل «جعبه سیاه»). این امر امکان نظارت و مسئولیتپذیری را فراهم میکند.[۷]
- تنوع در تیمهای توسعه: اطمینان از اینکه تیمهای طراحی و توسعه هوش مصنوعی از پیشینههای متنوعی تشکیل شدهاند تا بتوانند نقاط کور و سوگیریهای بالقوه را در مراحل اولیه شناسایی کنند.
پانویس
[ویرایش]- ↑ O'Neil, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown, 2016, pp. 3-8.
- ↑ Zuboff, Shoshana. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: PublicAffairs, 2019, pp. 197-202.
- ↑ O'Neil, Cathy. Weapons of Math Destruction, pp. 21-23.
- ↑ O'Neil, Cathy. Weapons of Math Destruction, pp. 147-151.
- ↑ Zuboff, Shoshana. The Age of Surveillance Capitalism, pp. 295-300.
- ↑ Russell, Stuart J., and Peter Norvig. Artificial Intelligence: A Modern Approach. 4th ed., Hoboken, NJ: Pearson, 2021, pp. 670-672.
- ↑ Russell, Stuart J., and Peter Norvig. Artificial Intelligence: A Modern Approach, pp. 675-678.
منابع
[ویرایش]- O'Neil, Cathy (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown. ISBN 978-0553418811.
- Zuboff, Shoshana (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: PublicAffairs. ISBN 978-1610395694.
- Russell, Stuart J.; Norvig, Peter (2021). Artificial Intelligence: A Modern Approach. 4th ed. Hoboken, NJ: Pearson. ISBN 978-0134610993.