قانون هوش مصنوعی

از ویکی‌پدیا، دانشنامهٔ آزاد

قانون هوش مصنوعی (قانون AI) یک مقررات پیشنهادی اتحادیه اروپا است. پیشنهادشده توسط کمیسیون اروپا در ۲۱ آوریل ۲۰۲۱،[۱] هدف آن معرفی یک چارچوب قانونی و نظارتی مشترک برای هوش مصنوعی است.[۲] دامنه آن همه بخش‌ها (به جز نظامی) و انواع هوش مصنوعی را در بر می‌گیرد. به‌عنوان بخشی از مقررات محصول، حقوقی را برای افراد اعطا نمی‌کند، اما ارائه دهندگان سیستم‌های هوش مصنوعی و نهادهایی را که از آنها در یک ظرفیت حرفه‌ای استفاده می‌کنند، تنظیم می‌کند.

قانون پیشنهادی هوش مصنوعی اتحادیه اروپا با هدف طبقه‌بندی و تنظیم برنامه‌های کاربردی هوش مصنوعی بر اساس خطر ایجاد آسیب است. این طبقه‌بندی در درجه نخست به سه دسته تقسیم می‌شود: روش‌های ممنوعه، سیستم‌های پرخطر و دیگر سیستم‌های هوش مصنوعی.[۳]

روش‌های ممنوعه آن‌هایی هستند که از هوش مصنوعی برای ایجاد دستکاری پنهان یا سوءاستفاده از آسیب‌پذیری‌های افراد استفاده می‌کنند که ممکن است منجر به آسیب جسمی یا روانی شود، استفاده بی‌رویه از شناسایی بیومتریک از راه دور در زمان واقعی در فضاهای عمومی برای اجرای قانون، یا استفاده از «نمره‌های اجتماعی» مشتق از هوش مصنوعی. توسط مقامات برای آسیب رساندن ناعادلانه به افراد یا گروه‌ها.[۴] قانون به‌طور کامل دومی را ممنوع می‌کند، درحالی‌که یک رژیم مجوز برای سه مورد نخست در زمینه اجرای قانون پیشنهاد شده‌است.[۵]

سیستم‌های پرخطر، طبق قانون، آن‌هایی هستند که سلامت، ایمنی یا حقوق اساسی افراد را تهدید می‌کنند. آنها نیاز به ارزیابی انطباق اجباری دارند که به عنوان خودارزیابی توسط ارائه دهنده پیش از راه‌اندازی در بازار انجام می‌شود. به ویژه برنامه‌های کاربردی حیاتی، مانند برنامه‌های مربوط به دستگاه‌های پزشکی، نیاز دارند که خودارزیابی ارائه‌دهنده طبق الزامات قانون هوش مصنوعی توسط سازمانی که ارزیابی را بر اساس مقررات اتحادیه اروپا انجام می‌دهد، مانند مقررات تجهیزات پزشکی، در نظر گرفته شود.[۶]

سیستم‌های هوش مصنوعی خارج از دسته‌های بالا مشمول هیچ مقرراتی نیستند، و کشورهای عضو تا حد زیادی از تنظیم بیشتر آنها از طریق حداکثر هماهنگی جلوگیری می‌کنند. قوانین ملی موجود مربوط به طراحی یا استفاده از چنین سیستم‌هایی اعمال نمی‌شود. با این حال، یک کد رفتار داوطلبانه برای چنین سیستم‌هایی در نظر گرفته شده‌است، البته نه از ابتدا.[۷]

این قانون همچنین پیشنهاد می‌کند که یک هیئت هوش مصنوعی اروپایی برای ارتقای همکاری ملی و اطمینان از انطباق با مقررات معرفی شود.[۸]

مانند مقررات عمومی حفاظت از داده‌های اتحادیه اروپا، قانون هوش مصنوعی می‌تواند به یک استاندارد جهانی تبدیل شود.[۹] در حال حاضر تأثیری فراتر از اروپا دارد. در سپتامبر ۲۰۲۱، کنگره برزیل لایحه‌ای را تصویب کرد که یک چارچوب قانونی برای هوش مصنوعی ایجاد می‌کند.[۱۰] شورای اروپا رویکرد کلی خود را در مورد قانون هوش مصنوعی در ۶ دسامبر ۲۰۲۲ تصویب کرد.[۱۱] آلمان از موضع شورا حمایت می‌کند، اما همچنان نیاز به بهبود بیشتر را همان‌طور که در بیانیه ضمیمه توسط کشور عضو فرموله شده‌است، می‌بیند.[۱۲] از جمله اقداماتی که احتمالاً پیشنهاد می‌شود این است که توسعه‌دهندگان هوش مصنوعی برای محصولاتی مانند چت‌جی‌پی‌تی Open AI اعلام کنند که آیا از مطالب دارای حق چاپ برای آموزش فناوری آنها استفاده شده‌است یا خیر.[۱۳]

اجرا[ویرایش]

این قانون ورود به بازار داخلی اتحادیه اروپا را تنظیم می‌کند. تا این حد از چارچوب قانونی جدید استفاده می‌کند که می‌توان آن را به رویکرد جدید که به سال ۱۹۸۵ بازمی‌گردد، ردیابی کرد. نحوه کار به شرح زیر است: قانونگذار اتحادیه اروپا قانون هوش مصنوعی را ایجاد می‌کند، این قانون حاوی مهم‌ترین مقرراتی است که همه سیستم‌های هوش مصنوعی که خواهان دسترسی به بازار داخلی اتحادیه اروپا هستند باید از آنها پیروی کنند. به این الزامات «نیازهای ضروری» می‌گویند. تحت چارچوب قانونی جدید، این الزامات ضروری به سازمان‌های استاندارد اروپایی منتقل می‌شود که استانداردهای فنی را تهیه می‌کنند که الزامات اساسی را بیشتر مشخص می‌کند.[۱۴]

همان‌طور که در بالا ذکر شد، این قانون از کشورهای عضو می‌خواهد که نهادهای اطلاع‌رسانی خود را ایجاد کنند. برای بررسی اینکه آیا سیستم‌های هوش مصنوعی واقعاً مطابق با استانداردهای تعیین شده در ارزیابی انطباق AI-Act هستند یا خیر، انجام می‌شود.[۱۵] این ارزیابی انطباق یا از طریق خود ارزیابی انجام می‌شود، به این معنی که ارائه‌دهنده سیستم هوش مصنوعی خود انطباق را بررسی می‌کند، یا این کار از طریق ارزیابی انطباق شخص ثالث انجام می‌شود که به این معنی است که سازمان اعلام کننده ارزیابی را انجام خواهد داد.[۱۶] نهادهای اخطار دهنده امکان انجام ممیزی را برای بررسی اینکه آیا ارزیابی انطباق به درستی انجام شده‌است را حفظ می‌کنند.[۱۷]

بر اساس پیشنهاد فعلی، به نظر می‌رسد که بسیاری از سیستم‌های هوش مصنوعی پرخطر نیازی به ارزیابی انطباق شخص ثالث ندارند که توسط برخی مورد انتقاد قرار می‌گیرد.[۱۸][۱۹][۲۰][۲۱] این انتقادات بر این واقعیت استوار است که سیستم‌های هوش مصنوعی پرخطر باید توسط یک شخص ثالث مستقل ارزیابی شوند تا ایمنی کامل آن تضمین شود.سلام

جستارهای وابسته[ویرایش]

منابع[ویرایش]

  1. "EUR-Lex - 52021PC0206 - EN - EUR-Lex". eur-lex.europa.eu. Archived from the original on 23 August 2021. Retrieved 2021-09-07.
  2. "Proposal for a Regulation laying down harmonised rules on artificial intelligence | Shaping Europe's digital future". digital-strategy.ec.europa.eu (به انگلیسی). Archived from the original on 4 January 2023. Retrieved 2023-01-09.
  3. Veale, Michael (2021). "Demystifying the Draft EU Artificial Intelligence Act". Computer Law Review International. 22 (4). doi:10.31235/osf.io/38p5f. S2CID 241559535.
  4. "The EU Artificial Intelligence Act". mhc.ie. Mason Hayes & Curran. Retrieved 29 November 2023.
  5. Mueller, Benjamin (2021-05-04). "The Artificial Intelligence Act: A Quick Explainer". Center for Data Innovation (به انگلیسی). Archived from the original on 14 October 2022. Retrieved 2021-11-14.
  6. "EU AI Act: High-Risk AI Systems". Mason Hayes & Curran. Retrieved 29 November 2023.
  7. Veale, Michael (2021). "Demystifying the Draft EU Artificial Intelligence Act". Computer Law Review International. 22 (4). doi:10.31235/osf.io/38p5f. S2CID 241559535.
  8. Propp, Mark MacCarthy and Kenneth (2021-05-04). "Machines learn that Brussels writes the rules: The EU's new AI regulation". Brookings (به انگلیسی). Archived from the original on 27 October 2022. Retrieved 2021-09-07.
  9. "Home". The Artificial Intelligence Act (به انگلیسی). 2021-09-07. Archived from the original on 17 February 2022. Retrieved 2022-02-17.
  10. "Câmara aprova projeto que regulamenta uso da inteligência artificial - Notícias". Portal da Câmara dos Deputados (به پرتغالی). Archived from the original on 17 February 2022. Retrieved 2022-02-17.
  11. "Artificial Intelligence Act: Council calls for promoting safe AI that respects fundamental rights". www.consilium.europa.eu (به انگلیسی). Archived from the original on 9 January 2023. Retrieved 9 January 2023.
  12. "Proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts General approach - Statement by Germany". www.data.consilium.europa.eu. Archived from the original on 27 January 2023. Retrieved 9 January 2023.
  13. "European parliament prepares tough measures over use of artificial intelligence". Financial Times. 2023-04-14. Archived from the original on 14 April 2023. Retrieved 2023-04-14.
  14. Tartaro, Alessio (2023). "Regulating by standards: current progress and main challenges in the standardisation of Artificial Intelligence in support of the AI Act". European Journal of Privacy Law and Technologies. 1 (1).
  15. "EUR-Lex - 52021SC0084 - EN - EUR-Lex". eur-lex.europa.eu (به انگلیسی). Archived from the original on 17 April 2023. Retrieved 2023-04-17.
  16. Veale, Michael; Borgesius, Frederik Zuiderveen (2021-08-01). "Demystifying the Draft EU Artificial Intelligence Act — Analysing the good, the bad, and the unclear elements of the proposed approach". Computer Law Review International (به انگلیسی). 22 (4): 97–112. arXiv:2107.03721. doi:10.9785/cri-2021-220402. ISSN 2194-4164. S2CID 235765823. Archived from the original on 26 March 2023. Retrieved 17 April 2023.
  17. Casarosa, Federica (2022-06-01). "Cybersecurity certification of Artificial Intelligence: a missed opportunity to coordinate between the Artificial Intelligence Act and the Cybersecurity Act". International Cybersecurity Law Review (به انگلیسی). 3 (1): 115–130. doi:10.1365/s43439-021-00043-6. ISSN 2662-9739. S2CID 258697805.
  18. Casarosa, Federica (2022-06-01). "Cybersecurity certification of Artificial Intelligence: a missed opportunity to coordinate between the Artificial Intelligence Act and the Cybersecurity Act". International Cybersecurity Law Review (به انگلیسی). 3 (1): 115–130. doi:10.1365/s43439-021-00043-6. ISSN 2662-9739. S2CID 258697805.
  19. Smuha, Nathalie A.; Ahmed-Rengers, Emma; Harkens, Adam; Li, Wenlong; MacLaren, James; Piselli, Riccardo; Yeung, Karen (2021-08-05). "How the EU Can Achieve Legally Trustworthy AI: A Response to the European Commission's Proposal for an Artificial Intelligence Act" (به انگلیسی). Rochester, NY. doi:10.2139/ssrn.3899991. S2CID 239717302. SSRN 3899991. {{cite journal}}: Cite journal requires |journal= (help)
  20. Almada, Marco; Petit, Nicolas (2022-12-20). "The EU AI Act: Between Product Safety and Fundamental Rights" (به انگلیسی). Rochester, NY. SSRN 4308072. {{cite journal}}: Cite journal requires |journal= (help)
  21. Ebers, Martin; Hoch, Veronica R. S.; Rosenkranz, Frank; Ruschemeier, Hannah; Steinrötter, Björn (December 2021). "The European Commission's Proposal for an Artificial Intelligence Act—A Critical Assessment by Members of the Robotics and AI Law Society (RAILS)". J (به انگلیسی). 4 (4): 589–603. doi:10.3390/j4040043. ISSN 2571-8800.

پیوند به بیرون[ویرایش]