بیانیه تورنتو

از ویکی‌پدیا، دانشنامهٔ آزاد

بیانیهٔ تورنتو: حفاظت از حق برابری و عدم تبعیض در سامانه‌های یادگیری ماشین، بیانیه‌ای است که از به‌کارگیری شیوه‌های مسئولانه توسط متخصصان حوزهٔ یادگیری ماشین و نهادهای حاکم حمایت می‌کند. این بیانیه به‌طور مشترک توسط گروه‌هایی از جمله عفو بین‌الملل، Access Now و امضاکنندگان برجستهٔ دیگری همچون دیده‌بان حقوق بشر و بنیاد ویکی‌مدیا صادر شده‌است.[۱] این بیانیه در تاریخ ۱۶ ماه مه ۲۰۱۸ در کنفرانس RightsCon منتشر شد.[۲][۳]

بیانیهٔ تورنتو بر نگرانی‌ها حول مسئلهٔ سوگیری الگوریتمی و احتمال تبعیض ناشی از استفاده از یادگیری ماشین و هوش مصنوعی در برنامه‌هایی که می‌توانند بر زندگی افراد مؤثر باشند تمرکز می‌کند؛ به عنوان مثال برنامه‌هایی در حوزهٔ «پاسبانی، سیستم‌های رفاهی، ارائهٔ خدمات سلامت و بسترهایی برای بحث آنلاین.»[۴] یک نگرانی ثانویهٔ این سند، امکان نقض حریم خصوصی اطلاعاتی است.

هدف این بیانیه، ترسیم «استانداردهای ملموس و قابل اجرا برای دولت‌ها و بخش خصوصی» است.[۵] بیانیهٔ تورنتو خواستار راه‌حل‌هایی ملموس همچون جبران خسارت برای قربانیان تبعیض الگوریتمی است.[۶]

محتوا[ویرایش]

بیانیهٔ تورنتو شامل ۵۹ ماده است که به شش بخش تقسیم می‌شود و در مورد قانون بین‌المللی حقوق بشر، وظایف دولتها، مسئولیت‌های بازیگران بخش خصوصی و حق دریافت جبران خسارت مؤثر است.

مقدمه[ویرایش]

این سند با طرح این پرسش آغاز می‌شود: «در دنیای سیستم‌های یادگیری ماشین، چه کسی در قبال لطمه خوردن به حقوق بشر پاسخگو خواهد بود؟»[۴] این بیانیه استدلال می‌کند که همهٔ متخصصان، چه در بخش دولتی و چه در بخش خصوصی، باید از خطراتی که حقوق بشر را تهدید می‌کند آگاه باشند و با در نظر گرفتن حقوق بشر -آگاه از قوانین، استانداردها و اصول بین‌المللی موجود- به انجام کار خود بپردازند. این بیانیه به‌گونه‌ای حقوق بشر را تعریف می‌کند که شامل «حق حریم خصوصی و حفاظت از داده‌ها، حق آزادی بیان و اجتماع، مشارکت در زندگی فرهنگی، برابری در برابر قانون و دسترسی به جبران خسارت مؤثر»[۴] می‌شود. اما بیان می‌کند که تمرکز بیانیه بیشتر حول محور برابری و عدم تبعیض است.

استفاده از چارچوب قوانین بین‌المللی حقوق بشر[ویرایش]

چارچوب قوانین بین‌المللی حقوق بشر، حقوق گوناگونی را برمی‌شمارد؛ مکانیسم‌هایی را برای بازخواست ناقضان ارائه می‌دهد و جبران خسارت را برای افرادی که حقوق آنان نقض شده تضمین می‌کند. در این بیانیه، تعریف کمیتهٔ حقوق بشر سازمان ملل از «تبعیض» ذکر شده‌است: «هرگونه امتیاز، محرومیت، محدودیت یا ترجیحی که بر اساس [شامل اما نه محدود به] نژاد، رنگ، جنسیت، زبان، مذهب، عقاید سیاسی یا سایر عقاید، خاستگاه ملی یا اجتماعی، دارایی، تولد یا هر وضعیت دیگری باشد که هدف یا تأثیر آن خنثی یا خدشه‌دار کردن شناخت، بهره‌مندی یا اِعمال تمام حقوق و آزادی‌ها، توسط تمام افراد، در شرایط برابر است»[۷]

دولت‌ها باید به‌طور فعالانه تدابیر الزام‌آوری اتخاذ کرده و نهادهای خصوصی باید سیاست‌های داخلی جهت محافظت در برابر تبعیض وضع نمایند. این تدابیر می‌تواند شامل حفاظت از داده‌های حساس، به‌ویژه برای جمعیت‌های آسیب‌پذیر باشد. سامانه‌ها باید با همکاری جامعه‌ای متکثر طراحی شوند تا از تبعیض در طراحی جلوگیری شود.

وظایف دولت‌ها: تعهدات حقوق بشری[ویرایش]

امروزه دولت‌ها -معمولا در همکاری با شرکت‌های خصوصی- در حال استقرار سامانه‌های یادگیری ماشین هستند. حتی زمانی که توسعه این سیستم‌ها به شخص ثالثی سپرده شده باشد، همچنان تعهد دولت‌ها مبنی بر حفاظت از حقوق بشر پابرجاست. پیش از اجرا و به‌طور مداوم پس از اجرا، دولت‌ها باید مخاطرات را شناسایی کرده، بازرسی‌های منظم انجام دهند و سپس تمام اقدامات لازم را برای کاهش این خطرات به انجام رسانند. آن‌ها باید در مورد نحوهٔ پیاده‌سازی و استفاده از یادگیری ماشین شفافیت داشته باشند و از سامانه‌های جعبهٔ سیاه گونه که منطقشان به سادگی قابل توضیح نیست اجتناب کنند. سامانه‌ها باید تحت نظارت سخت‌گیرانهٔ کمیته‌های داخلی متکثر و مقامات قضایی مستقل قرار گیرند.

به علاوه، دولت‌ها باید از شهروندان در مقابل تبعیض توسط نهادهای خصوصی محافظت کنند. آن‌ها باید علاوه بر نظارت، قوانین الزام‌آوری علیه تبعیض و همچنین برای حفاظت از داده‌ها و حریم خصوصی تصویب کرده و ابزار مؤثری برای جبران خسارت افراد آسیب‌دیده ارائه دهند. اهمیت بسیاری دارد که دولت‌های ملی و منطقه‌ای قوانین بین‌المللی را گسترش داده و زمینه‌سازی کنند.

مسئولیت‌های بازیگران بخش خصوصی: ارزیابی بایستهٔ حقوق بشر[ویرایش]

نهادهای خصوصی مسئول به انجام «ارزیابی بایستهٔ حقوق بشر» هستند. درست همانند دولت‌ها، نهادهای خصوصی باید با در نظر گرفتن ریسک‌های معمول و مشورت با سهام‌داران، «گروه‌های آسیب‌دیده، سازمان‌های فعال در زمینهٔ حقوق بشر، برابری و تبعیض، متخصصان مستقل حقوق بشر و یادگیری ماشین»،[۴] مخاطرات را پیش از توسعه شناسایی کنند. آن‌ها باید سامانه‌هایی طراحی کنند که خطرات را کاهش دهند، سامانه را تحت نظارت منظم قرار دهد و از پروژه‌هایی که ریسک بسیار بالایی دارند صرف نظر کند. این نهادها باید در مورد مخاطرات مفروض، از جمله -در صورت نیاز- جزئیات پیاده‌سازی فنی، شفاف باشند و باید سازوکاری برای افراد فراهم آورند تا به هر تصمیمی که بر آن‌ها تأثیر می‌گذارد اعتراض کنند.

حق دریافت جبران خسارت مؤثر[ویرایش]

«حق عدالت یک عنصر حیاتی از قانون بین‌المللی حقوق بشر است.»[۴] نهادهای خصوصی باید فرآیندهایی را برای درخواست جبران خسارت توسط افراد آسیب‌دیده ایجاد کرده و سِمت‌هایی برای نظارت بر این فرایندها تعیین نمایند. دولت‌ها باید به‌خصوص هنگام استقرار سامانه‌های یادگیری ماشین در بخش عدالت با احتیاط عمل کنند. شفافیت، مسئولیت‌پذیری و جبران خسارت می‌توانند کمک‌کننده باشند.

منابع[ویرایش]

  1. Brandom، Russell (۲۰۱۸-۰۵-۱۶). «New Toronto Declaration calls on algorithms to respect human rights». The Verge (به انگلیسی). دریافت‌شده در ۲۰۲۳-۰۴-۰۸.
  2. «The Toronto Declaration • Toronto Declaration». Toronto Declaration (به انگلیسی). دریافت‌شده در ۲۰۲۳-۰۴-۰۸.
  3. «BBC World Service - Digital Planet, The Toronto Declaration». BBC (به انگلیسی). دریافت‌شده در ۲۰۲۳-۰۴-۰۸.
  4. ۴٫۰ ۴٫۱ ۴٫۲ ۴٫۳ ۴٫۴ «The Toronto Declaration • Toronto Declaration». Toronto Declaration (به انگلیسی). دریافت‌شده در ۲۰۲۳-۰۴-۰۸.
  5. Burt، | Chris (۲۰۱۸-۰۵-۱۷). «Toronto Declaration calls for application of human rights frameworks to machine learning | Biometric Update». www.biometricupdate.com (به انگلیسی). دریافت‌شده در ۲۰۲۳-۰۴-۰۸.
  6. «The Toronto Declaration on Machine Learning calls for AI that protects human rights». Futurism. دریافت‌شده در ۲۰۲۳-۰۴-۰۸.
  7. "United Nations Human Rights Committee". Wikipedia (به انگلیسی). 2023-01-28.