پیش‌نویس:لیگ عدالت الگوریتمی

از ویکی‌پدیا، دانشنامهٔ آزاد
Algorithmic Justice League
کوته‌نوشتAJL
بنیان‌گذاری2016
بنیان‌گذارانJoy Buolamwini
تمرکزAI activism
مکان
وبگاه

لیگ عدالت الگوریتمی ( AJL ) یک سازمان غیرانتفاعی مدافع دیجیتال واقع در کمبریج، ماساچوست است. AJL که در سال 2016 توسط دانشمند کامپیوتر جوی بولاموینی تأسیس شد، از تحقیقات، آثار هنری و خط مشی جانبدارانه برای افزایش آگاهی جامعه نسبت به استفاده از هوش مصنوعی (AI) در جامعه و آسیب‌ها و سوگیری‌هایی که هوش مصنوعی می‌تواند برای جامعه ایجاد کند، استفاده می‌کند. [۱] AJL در انواع سمینارهای آزاد آنلاین، رسانه ها و طرح های حامی فناوری برای برقراری ارتباط و تبادل اطلاعات در مورد سوگیری در سیستم های هوش مصنوعی و ترویج اقدامات صنایع و دولت در راستای کاهش ایجاد و گسترش سیستم های هوش مصنوعی مغرضانه شرکت کرده است. در سال 2021، شرکت Fast ، AJL را به عنوان یکی از 10 شرکت نوآورانه هوش مصنوعی در جهان معرفی کرد. [۲] [۳]

پیشینه[ویرایش]

بولاموینی لیگ عدالت الگوریتمی یا AJL را در سال 2016 زمانی که از آزمایشگاه رسانه MIT به عنوان دانشجوی کارشناسی ارشد فارغ التحصیل شد تاسیس کرد. او هنگامی که در تحقیقات خود از نرم افزار تشخیص چهره برای آزمایش استفاده می کرد، متوجه شد که این نرم افزار نمی تواند چهره "به شدت ملانی" او را تا زمانی که یک ماسک سفید نزند تشخیص دهد.[۴] لذا ،این حادثه بولاموینی را برانگیخت، تا AJL را جهت جلب توجه عمومی به وجود سوگیری در هوش مصنوعی و تهدیدی که می تواند برای حقوق شهروندی ایجاد کند، تاسیس کند [۴] اولین کمپین های AJL در درجه اول بر وجود تعصب در نرم افزار تشخیص چهره متمرکز بود اما کمپین های اخیر به طور گسترده تری با مسائل مربوط به برابری و پاسخگویی در هوش مصنوعی، از جمله تعصب الگوریتمی ، تصمیم گیری الگوریتمی ، حاکمیت الگوریتمی و حسابرسی الگوریتمی سروکار داشته اند.

از این گذشته مجموعه ای از سازمان های دیگر از جمله داده ها و جامعه، داده ها برای زندگی سیاه پوستان،مؤسسه تحقیقاتی هوش مصنوعی توزیع شده (DAIR)، و مبارزه برای آینده وجود دارند که در راستای اهداف مشابه AJL کار می کنند . [۵] [۶] [۷]

کارهای قابل توجه[ویرایش]

تشخیص چهره[ویرایش]

بولاموینی، بنیانگذار AJL با Timnit Gebru اخلاق دان هوش مصنوعی برای انتشار مطالعه ای در سال 2018 باموضوع تعصب نژادی وجنسیتی در الگوریتم های تشخیص چهره ی مورد استفاده توسط سیستم های تجاری مایکروسافت ، IBM ، و Face++ همکاری داشت. تحقیقات آنها با عنوان" سایه های جنسیتی" نشان داد که مدل های یادگیری ماشین منتشر شده توسط IBMو ماکروسافت در تجزیه و تحلیل چهره هایی با پوست تیره و زنانه در مقایسه با عملکرد آنها روی چهره هایی با پوست روشن ومردانه دقت کمتری دارد. [۸][۹][۱۰] مقاله "سایه های جنسیتی" با تعهد راه اندازی چهره ایمن همراه شد، ابتکاری که با مرکز حریم خصوصی و فناوری جورج تاون طراحی شد و از سازمان های فناوری و دولت خواست که استفاده مرگبار از فناوری های تشخیص چهره را ممنوع اعلام کنند.[۱۱] پروژه ی سایه های جنستی و حمایت های بعدی که توسط AJL و گروه های مشابه انجام شد، چندین شرکت فناوری از جمله آمازون و IBM را به مقابله با سو گیری ها در توسعه الگوریتم های خود و حتی ممنوعیت موقت استفاده از محصولات خود توسط پلیس در سال 2020 سوق داد. [۱۲][۱۳]

بولاموینی و AJL در مستند نتفلیکس 2020 Coded Bias که برای اولین بار در جشنواره فیلم ساندنس به نمایش گذاشته شد، حضور داشتند. [۲] [۱۴] [۱۵] این مستند تلاش های تحقیقاتی و حمایتی AJL برای گسترش آگاهی نسبت به سوگیری الگوریتمی در سیستم های تشخیص چهره را هدف قرار داده و بر روی آن متمرکز بود. [۴] [۱۵]

AJL در یک همکاری تحقیقاتی در ماه می یک مقاله سفید منتشر کرد که در آن خواستار ایجاد یک اداره جدید دولت فدرال ایالت متحده برای تنظیم و رسیدگی به امور توسعه و استقرار فناوری های تشخیص چهره شد [۱۶] این مقاله بیان کرد که ایجاد یک اداره جدید دولت فدرال برای این منطقه به کاهش خطرات نظارت انبوه و سوگیری ناشی از فناوری های تشخیص چهره برای جمعیت های آسیب پذیر کمک می کند. [۱۷]

سوگیری در تشخیص گفتار[ویرایش]

AJL ابتکارات و راهکارهایی را برای افزایش آگاهی عمومی نسبت به تعصب و نابرابری الگوریتمی در عملکرد سیستم های هوش مصنوعی برای مدل سازی گفتار و زبان در بین جمعیت‌های جنسیتی و نژادی به کار گرفته است. کار AJL در این فضا بر برجسته کردن تفاوت‌های جنسیتی و نژادی در عملکرد سیستم‌هایبازشناسی گفتار تجاری و پردازش زبان طبیعی متمرکز بود، که نشان دهنده عملکرد ضعیف این سیستم ها برای اقلیت‌های نژادی و برجسته کردن کلیشه های نژادی است.[۱۸][۱۹][۲۰]

در مارس سال 2020، AJL یک قطعه هنری به زبان گفتاری با عنوان پاک کردن صدا منتشر کرد. که آگاهی عمومی را نسبت به تعصب نژادی در سیستم‌های تشخیص گفتار خودکار (ASR) را افزایش داد. [۲۱] [۲۲] این قطعه توسط محققان زن و افراد متعددی با جنسیت کوئیر یا نان‌باینری در این زمینه از جمله Ruha Benjamin ، Sasha Costanza-Chock، Safiya Noble و Kimberlé Crenshaw اجرا شد. [۲۲] [۲۱] AJL "پاک کردن صدا" را بر اساس یک مقاله PNAS در سال 2020 با عنوان "اختلافات نژادی در تشخیص خودکار گفتار"که تفاوت های نژادی را در عملکرد پنج سیستم تجاری ASR شناسایی می کند،توسعه داد.[۲۰]

حاکمیت الگوریتمی[ویرایش]

در سال 2019، بولاموینی نماینده ی AJL در جلسه استماع کنگره ی کمیته علم، فضا و فناوری مجلس نمایندگان آمریکا بود تا در مورد کاربردهای فناوری‌های تشخیص چهره به صورت تجاری و دولتی صحبت کند [۲۳] [۲۴] بولاموینی در این جلسه به عنوان شاهد حاضر شد و در مورد عملکرد ضعیف فناوری‌های تشخیص چهره در شناسایی افراد با پوست تیره‌تر و ویژگی‌های زنانه صحبت کرد و با تحقیقات پروژه "AJL "Gender Shades از موضع خود حمایت کرد. [۲۴] [۲۵] [۲۶]

در ژانویه 2022، AJL با مبارزه برای آینده و مرکز اطلاعات حریم خصوصی الکترونیکی همکاری کرد تا یک دادخواست آنلاین به نام DumpID.me منتشر کند و از IRS خواست استفاده از ID.me ، که یک فناوری تشخیص چهره است که آنها برای کاربرانی که وارد می شوند استفاده می‌کردند، متوقف سازد.[۷] AJL و سایر سازمان ها نامه هایی به قانونگذاران ارسال کردند و از آنها خواستند که IRS را تشویق کنند تا برنامه ی استفاده از تکنولوژی تشخیص چهره را متوقف کند. [۲۷] در فوریه 2022، IRS موافقت کرد که برنامه ID.me و استفاده از فناوری تشخیص چهره را متوقف کند. اکنون AJL تلاش‌های خود را برای متقاعد کردن سایر سازمان‌های دولتی برای توقف استفاده از فناوری تشخیص چهره تغییر داده است. از مارس سال 2022، دادخواست DumpID.me برای توقف استفاده از ID.me در همه سازمان‌های دولتی مطرح شده است.[۲۸]

Olay رمزگشایی کمپین تعصب[ویرایش]

درسپتامبر 2021، Olay برای انجام کمپین Decode the Bias با AJL و O'Neil Risk Consulting & Algorithmic Auditing (ORCAA) همکاری کرد، که شامل ممیزی می شد که بررسی می کرد آیا سیستم Olay Skin Advisor (OSA) شامل سوگیری علیه زنان رنگین پوست می شود یا خیر. [۲۹] AJL به دلیل تعهد Olay نسبت به کسب رضایت مشتری برای استفاده از سلفی و داده های پوستی آنها در این ممیزی، تصمیم به همکاری با Olay گرفت. [۳۰] ممیزی AJL و ORCAA نشان داد که سیستم OSA دارای سوگیری در عملکرد خود در رنگ پوست و سن شرکت کنندگان است. [۳۰] سیستم OSA برای شرکت‌کنندگان با رنگ پوست روشن‌تر، بر اساس Fitzpatrick نوع پوست و مقیاس‌های طبقه‌بندی زاویه ی گونه شناسی فردی، دقت بالاتری را نشان داد. سیستم OSA همچنین دقت بالاتری را برای شرکت کنندگان 30 تا 39 ساله نشان داد.[۳۱] Olay از آن زمان اقداماتی را برای ممیزی داخلی و کاهش تعصبات سیستم OSA انجام داده است. [۳۰] Olay همچنین به 1000 دختر کمک مالی کرده است تا در اردوی Black Girls Code شرکت کنند تا دختران آفریقایی-آمریکایی را تشویق کند تا مشاغل STEM را دنبال کنند.[۳۰]

پروژه CRASH[ویرایش]

در ژوئیه 2020، پروژه گزارش جامعه از آسیب های سیستم الگوریتمی (CRASH) توسط AJL راه اندازی شد. [۳۲] این پروژه در سال 2019 زمانی که بولاموینی و محقق امنیت دیجیتال کامیل فرانسوا در برنامه اقامت مرکز Bellagio به میزبانی بنیاد راکفلر ملاقات کردند، آغاز شد. از آن زمان به بعد، این پروژه توسط استاد MIT و مدیر تحقیقات AJL ، ساشا کوستانزا-چاکنیز رهبری شده است. پروژه CRASH بر ایجاد چارچوبی برای توسعه برنامه‌های باگ_باونتی (BBPs) متمرکز بود که افراد را تشویق می‌کرد تا نمونه‌هایی از سوگیری الگوریتمی در فناوری‌های هوش مصنوعی را کشف و گزارش کنند. [۳۲] [۳۳] پس از انجام مصاحبه با شرکت‌کنندگان BBP و مطالعه موردی برنامه BBP توییتر، [۳۴] محققان AJL چارچوبی مفهومی برای طراحی برنامه‌های BBP ایجاد و پیشنهاد کردند که برای تشویق افراد به یافتن و افشای وجود سوگیری در سیستم‌های هوش مصنوعی است. [۳۵] AJL قصد دارد با چارچوب CRASH امکان گزارش آسیب‌های الگوریتمی و تشدید شدن تغییر در فناوری‌های هوش مصنوعی که توسط شرکت‌ها، به‌ویژه افرادی که به طور سنتی از طراحی این فناوری‌های AI مستثنی شده‌اند را برای اشخاص فراهم کند [20، گزارش DataSociety]. [۳۶] [۳۷]

پشتیبانی و حضور در رسانه ها[ویرایش]

ابتکارات AJL توسط بنیاد فورد ، بنیاد مک آرتور ، بنیاد آلفرد پی اسلون ، بنیاد راکفلر ، بنیاد موزیلا و اهداکنندگان خصوصی تامین شده است. [۳۶] [۳۸] کمپانی Fast لیگ عدالت الگوریتمی AJL را به عنوان یکی از 10 شرکت نوآورانه هوش مصنوعی در سال 2021 به رسمیت شناخت [۲] علاوه بر این، مکان هایی مانند مجله تایم ، نیویورک تایمز ، NPR و CNN کار بولاموینی با AJL را در چندین مصاحبه و مقاله به نمایش گذاشته اند. [۷] [۲۴] [۳۹]

بیشتر[ویرایش]

منابع[ویرایش]

  1. "Learn More". The Algorithmic Justice League. Archived from the original on March 29, 2022. Retrieved April 7, 2022.
  2. ۲٫۰ ۲٫۱ ۲٫۲ "The 10 most innovative companies in artificial intelligence". Fast Company. March 9, 2021. Archived from the original on April 7, 2022. Retrieved April 7, 2022.
  3. Villoro, Elías (16 February 2023). "Coded Bias and the Algorithm Justice League". Boing Boing.
  4. ۴٫۰ ۴٫۱ ۴٫۲ "Documentary 'Coded Bias' Unmasks The Racism Of Artificial Intelligence". WBUR-FM. Archived from the original on January 4, 2022. Retrieved April 7, 2022.
  5. "Google fired its star AI researcher one year ago. Now she's launching her own institute". The Washington Post. ISSN 0190-8286. Archived from the original on December 2, 2021. Retrieved April 7, 2022.
  6. "DAIR". Distributed AI Research Institute. Archived from the original on April 7, 2022. Retrieved April 7, 2022.
  7. ۷٫۰ ۷٫۱ ۷٫۲ Metz, Rachel (March 7, 2022). "Activists pushed the IRS to drop facial recognition. They won, but they're not done yet". CNN. Archived from the original on March 31, 2022. Retrieved April 7, 2022.
  8. Buolamwini, Joy; Gebru,Timnit (2018). "Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification" (PDF). Proceedings of the 1st Conference on Fairness, Accountability and Transparency. 81: 77–91. Archived (PDF) from the original on December 12, 2020. Retrieved December 12, 2020 – via December 12, 2020.{{cite journal}}: نگهداری یادکرد:نام‌های متعدد:فهرست نویسندگان (link)
  9. "Gender Shades". gendershades.org. Archived from the original on May 29, 2022. Retrieved April 7, 2022.
  10. Buell, Spencer (February 23, 2018). "MIT Researcher: AI Has a Race Problem, and We Need to Fix It". Boston. Archived from the original on April 7, 2022. Retrieved April 7, 2022.
  11. "Announcement - Safe Face Pledge". January 20, 2021. Archived from the original on January 20, 2021. Retrieved April 7, 2022.
  12. "The two-year fight to stop Amazon from selling face recognition to the police". MIT Technology Review (به انگلیسی). Archived from the original on April 7, 2022. Retrieved April 7, 2022.
  13. "IBM pulls out of facial recognition, fearing racial profiling and mass surveillance". Fortune (به انگلیسی). Archived from the original on April 7, 2022. Retrieved April 7, 2022.
  14. Lee, Jennifer 8 (February 8, 2020). "When Bias Is Coded Into Our Technology". NPR (به انگلیسی). Archived from the original on March 26, 2022. Retrieved April 7, 2022.
  15. ۱۵٫۰ ۱۵٫۱ "Watch Coded Bias | Netflix". www.netflix.com (به انگلیسی). Archived from the original on March 24, 2022. Retrieved April 8, 2022.
  16. Burt, | Chris (June 8, 2020). "Biometrics experts call for creation of FDA-style government body to regulate facial recognition | Biometric Update". www.biometricupdate.com (به انگلیسی). Archived from the original on April 7, 2022. Retrieved April 7, 2022.
  17. Miller, Erik Learned ; Ordóñez, Vicente ; Morgenstern, Jamie ; Buolamwini, Joy (2020). "Facial Recognition Technologies in the Wild: A Call for a Federal Office" (PDF). White Paper: 3–49. Archived from the original (PDF) on January 21, 2022. Retrieved April 8, 2022.{{cite journal}}: نگهداری یادکرد:نام‌های متعدد:فهرست نویسندگان (link)
  18. Bender, Emily M.; Gebru, Timnit; McMillan-Major, Angelina; Shmitchell, Shmargaret (March 3, 2021). "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜". Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. FAccT '21 (به انگلیسی). Virtual Event Canada: ACM: 610–623. doi:10.1145/3442188.3445922. ISBN 978-1-4503-8309-7. Archived from the original on October 3, 2021. Retrieved April 8, 2022.
  19. Kiritchenko, Svetlana; Mohammad, Saif M. (2018). "Examining Gender and Race Bias in Two Hundred Sentiment Analysis Systems" (PDF). Proceedings of the 7th Joint Conference on Lexical and Computational Semantics: 43–53. arXiv:1805.04508. doi:10.18653/v1/S18-2005. Archived from the original (PDF) on March 8, 2022. Retrieved April 8, 2022 – via June 5-6, 2018.{{cite journal}}: نگهداری یادکرد:نام‌های متعدد:فهرست نویسندگان (link)
  20. ۲۰٫۰ ۲۰٫۱ Koenecke, Allison; Nam, Andrew; Lake, Emily; Nudell, Joe; Quartey, Minnie; Mengesha, Zion; Toups, Connor; Rickford, John R.; Jurafsky, Dan (April 7, 2020). "Racial disparities in automated speech recognition". Proceedings of the National Academy of Sciences (به انگلیسی). 117 (14): 7684–7689. Bibcode:2020PNAS..117.7684K. doi:10.1073/pnas.1915768117. ISSN 0027-8424. PMC 7149386. PMID 32205437.
  21. ۲۱٫۰ ۲۱٫۱ "Voicing Erasure". www.ajl.org. Archived from the original on April 11, 2022. Retrieved April 7, 2022.
  22. ۲۲٫۰ ۲۲٫۱ "Algorithmic Justice League protests bias in voice AI and media coverage". VentureBeat (به انگلیسی). April 1, 2020. Archived from the original on March 31, 2022. Retrieved April 7, 2022.
  23. Quach, Katyanna (22 May 2019). "We listened to more than 3 hours of US Congress testimony on facial recognition so you didn't have to go through it". The Register (به انگلیسی). Archived from the original on January 21, 2022. Retrieved April 8, 2022.
  24. ۲۴٫۰ ۲۴٫۱ ۲۴٫۲ "Artificial Intelligence: Societal and Ethical Implications". House Committee on Science, Space and Technology (به انگلیسی). June 26, 2019. Archived from the original on March 15, 2022. Retrieved April 8, 2022.
  25. Rodrigo, Chris Mills (July 2, 2020). "Dozens of advocacy groups push for Congress to ban facial recognition technology". The Hill (به انگلیسی). Archived from the original on April 8, 2022. Retrieved April 8, 2022.
  26. "U.S. government study finds racial bias in facial recognition tools". Reuters (به انگلیسی). December 19, 2019. Archived from the original on April 8, 2022. Retrieved April 8, 2022.
  27. Rachel Metz (February 7, 2022). "IRS halts plan to require facial recognition for logging in to user accounts". CNN. Archived from the original on April 8, 2022. Retrieved April 8, 2022.
  28. "Demand All Government Agencies Drop ID.me". Fight for the Future (به انگلیسی). Archived from the original on April 26, 2022. Retrieved April 8, 2022.
  29. "Decode the Bias & Face Anything | Women in STEM | OLAY". www.olay.com (به انگلیسی). Archived from the original on April 11, 2022. Retrieved April 8, 2022.
  30. ۳۰٫۰ ۳۰٫۱ ۳۰٫۲ ۳۰٫۳ Shacknai, Gabby (September 14, 2021). "Olay Teams Up With Algorithmic Justice Pioneer Joy Buolamwini To #DecodetheBias In Beauty". Forbes (به انگلیسی). Archived from the original on March 28, 2022. Retrieved April 8, 2022.
  31. "ORCAA's Report". www.olay.com (به انگلیسی). Archived from the original on April 11, 2022. Retrieved April 8, 2022.
  32. ۳۲٫۰ ۳۲٫۱ "Algorithmic Vulnerability Bounty Project (AVBP)". www.ajl.org. Archived from the original on March 18, 2022. Retrieved April 8, 2022.
  33. Laas, Molly (January 27, 2022). "Bug Bounties For Algorithmic Harms? | Algorithmic Justice League". MediaWell (به انگلیسی). Archived from the original on January 18, 2023. Retrieved April 8, 2022.
  34. Vincent, James (August 10, 2021). "Twitter's photo-cropping algorithm prefers young, beautiful, and light-skinned faces". The Verge (به انگلیسی). Archived from the original on April 8, 2022. Retrieved April 8, 2022.
  35. "AJL Bug Bounties Report.pdf". Google Docs. Archived from the original on January 31, 2022. Retrieved April 8, 2022.
  36. ۳۶٫۰ ۳۶٫۱ League, Algorithmic Justice (August 4, 2021). "Happy Hacker Summer Camp Season!". Medium (به انگلیسی). Archived from the original on November 16, 2021. Retrieved April 8, 2022.
  37. Ellis, Ryan Ellis; Stevens, Yuan (January 2022). "Bounty Everything: Hackers and the Making of the Global Bug Marketplace" (PDF). Data Society: 3–86. Archived from the original (PDF) on February 24, 2022. Retrieved April 8, 2022.{{cite journal}}: نگهداری یادکرد:نام‌های متعدد:فهرست نویسندگان (link)
  38. "AJL Bug Bounties Report.pdf". Google Docs. Archived from the original on April 8, 2022. Retrieved April 8, 2022.
  39. "Joy Buolamwini: How Do Biased Algorithms Damage Marginalized Communities?". NPR. Archived from the original on April 3, 2022. Retrieved April 8, 2022.

لینک های خارجی[ویرایش]