اخباراخبار بین المللیاستانداردها

راهنمای کامل قانون هوش مصنوعی اتحادیه اروپا (EU AI Act)

چکیده

رشد سریع استفاده از فناوری‌های هوش مصنوعی (AI)، به‌ویژه هوش مصنوعی مولد (genAI)، ناشی از مزایای بی‌شماری است که این فناوری‌ها ارائه می‌دهند. اما برخی شرکت‌ها برای به حداکثر رساندن کارایی، بدون در نظر گرفتن ریسک‌ها و آسیب‌های احتمالی، در پذیرش هوش مصنوعی عجله کرده‌اند. قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) الزاماتی را برای سیستم‌های هوش مصنوعی خاصی که در اتحادیه اروپا استفاده می‌شوند، وضع کرده و برخی از کاربردهای آن را ممنوع می‌کند. این مقاله به بررسی دامنه و روش دسته‌بندی ریسک این قانون می‌پردازد و مروری کلی بر الزامات ذکر شده در این مقررات ارائه می‌دهد. همچنین، شامل گام‌های بعدی برای متخصصانی است که به دنبال انطباق با این قانون هستند.

مقدمه

پذیرش فناوری‌های هوش مصنوعی در چند سال اخیر به شدت افزایش یافته است. در سال ۲۰۱۹، ۵۸٪ از سازمان‌ها از هوش مصنوعی برای حداقل یک عملکرد تجاری استفاده می‌کردند؛ تا سال ۲۰۲۴، این رقم به ۷۲٪ رسید. استفاده از هوش مصنوعی مولد از سال ۲۰۲۳ تا ۲۰۲۴ تقریباً دو برابر شده و از ۳۳٪ به ۶۵٪ افزایش یافته است.

در حالی که پذیرش هوش مصنوعی می‌تواند به شرکت‌ها در کارآمدتر شدن کمک کند، ریسک قابل توجهی نیز با آن همراه است. دعاوی حقوقی متعددی به دلیل نقض ادعایی حق نسخه‌برداری علیه شرکت‌های هوش مصنوعی مولد مطرح شده است. هوش مصنوعی معیوب یا سوءاستفاده از آن می‌تواند منجر به نگرانی‌های ایمنی شود، مانند خودروهای خودرانی که دستکاری شده و منجر به جراحت یا مرگ شده‌اند. سیستم‌های هوش مصنوعی که بر روی داده‌های مغرضانه آموزش دیده‌اند، می‌توانند خروجی‌های مغرضانه تولید کنند. مسئولیت در مورد هوش مصنوعی همچنان مبهم است و اغلب مشخص نیست که در نهایت چه کسی پاسخگوی آسیب‌های ناشی از خروجی‌های هوش مصنوعی است.

قانون هوش مصنوعی اتحادیه اروپا که در ۱۳ مارس ۲۰۲۴ توسط پارلمان اروپا و در ۲۱ مه ۲۰۲۴ توسط شورای اتحادیه اروپا تصویب شد، می‌تواند به کاهش برخی از ریسک‌های مرتبط با هوش مصنوعی کمک کند و به شرکت‌ها اجازه دهد تا از این فناوری‌ها به شیوه‌ای ایمن، اخلاقی و مسئولانه استفاده کرده و اعتماد به سیستم‌های هوش مصنوعی را تقویت کنند. این قانون به عنوان اولین قانون جامع هوش مصنوعی در جهان شناخته می‌شود. با توجه به ماهیت گسترده و کامل این قانون، این احتمال وجود دارد که قوانین و مقررات آینده هوش مصنوعی از آن الگوبرداری کنند، مشابه آنچه برای مقررات عمومی حفاظت از داده‌های اتحادیه اروپا (GDPR) رخ داد.

تعهدات کلیدی قانون هوش مصنوعی اتحادیه اروپا

قانون هوش مصنوعی اتحادیه اروپا لایه‌های زیادی از الزامات انطباق را شامل می‌شود، از جمله در سطح موارد استفاده، مدل، سیستم، پروژه و شرکت. این الزامات ممکن است بسته به اینکه شرکت یک ارائه‌دهنده، پیاده‌کننده، واردکننده یا توزیع‌کننده باشد و اینکه هوش مصنوعی پرخطر، با ریسک محدود، یک مدل هوش مصنوعی همه‌منظوره یا ترکیبی از اینها باشد، متفاوت باشد. در ادامه مروری کلی بر برخی از الزامات کلیدی این قانون ارائه می‌شود.

تعاریف و دامنه

این قانون به طور کامل آنچه را که یک سیستم هوش مصنوعی محسوب می‌شود، پوشش می‌دهد. ویژگی‌های کلیدی سیستم‌های هوش مصنوعی بر اساس این قانون عبارتند از:

  • سیستم‌های هوش مصنوعی ماشین‌محور هستند.
  • آنها می‌توانند با سطوح مختلفی از خودمختاری عمل کنند.
  • این سیستم‌ها از ورودی‌ها برای استنتاج نحوه تولید خروجی‌هایی مانند پیش‌بینی، محتوا، توصیه‌ها یا تصمیمات استفاده می‌کنند.

قانون، ریسک را به عنوان ترکیبی از احتمال وقوع یک آسیب و شدت آن آسیب تعریف می‌کند. درک نقش‌های مختلف تعریف شده در قانون بسیار مهم است، از جمله ارائه‌دهندگان، تولیدکنندگان محصول، پیاده‌کنندگان، واردکنندگان و توزیع‌کنندگان.

سیستم‌های ممنوعه

برخی از شیوه‌های هوش مصنوعی که بیش از حد پرخطر تلقی می‌شوند، توسط قانون هوش مصنوعی ممنوع شده‌اند. این سیستم‌ها می‌توانند آسیب قابل توجهی به افراد وارد کنند و منجر به نقض حریم خصوصی، تبعیض و محدودیت آزادی فردی شوند. این موارد عبارتند از:

  • سیستم‌هایی که از تکنیک‌های فریبنده یا دستکاری‌کننده برای تأثیر بر رفتار افراد استفاده می‌کنند.
  • سیستم‌هایی که از آسیب‌پذیری‌های افراد (مانند سن یا ناتوانی) سوءاستفاده می‌کنند.
  • سیستم‌های امتیازدهی اجتماعی که منجر به رفتار نامطلوب با افراد می‌شود.
  • سیستم‌هایی که از پروفایل‌سازی برای پیش‌بینی ریسک ارتکاب جرم توسط یک فرد استفاده می‌کنند.
  • جمع‌آوری تصاویر از اینترنت یا دوربین‌های مداربسته برای ساخت پایگاه داده تشخیص چهره.
  • سیستم‌های تشخیص احساسات در محیط کار یا مؤسسات آموزشی.

سیستم‌های هوش مصنوعی پرخطر

بخش بزرگی از قانون هوش مصنوعی اتحادیه اروپا بر تعهدات مربوط به سیستم‌های هوش مصنوعی پرخطر تمرکز دارد. برخلاف سیستم‌های ممنوعه، این سیستم‌ها می‌توانند در اتحادیه اروپا به بازار عرضه شوند، به شرطی که چندین الزام برآورده شود. این الزامات برای حوزه‌های زیر اعمال می‌شود:

  • بیومتریک
  • زیرساخت‌های حیاتی (مانند تأمین آب)
  • آموزش و پرورش (مانند پذیرش دانشجو، ردیاب‌های تقلب)
  • استخدام و مدیریت کارکنان
  • خدمات و مزایای عمومی ضروری (مانند خدمات اضطراری)
  • اجرای قانون
  • مهاجرت و مدیریت مرزها
  • فرایندهای قضایی و دموکراتیک

الزامات کلیدی برای ارائه‌دهندگان سیستم‌های پرخطر

ارائه‌دهندگان سیستم‌های پرخطر باید مجموعه‌ای از اقدامات را برای اطمینان از انطباق اجرا کنند:

  1. مدیریت ریسک: یک سیستم مدیریت ریسک باید در طول چرخه عمر سیستم هوش مصنوعی ایجاد و به‌روزرسانی شود. این فرایند شامل شناسایی، ارزیابی و کاهش ریسک‌های مرتبط با سلامت، ایمنی و حقوق اساسی است.
  2. سیستم مدیریت کیفیت: ارائه‌دهندگان باید یک سیستم مدیریت کیفیت با سیاست‌ها و رویه‌های مکتوب برای اطمینان از انطباق ایجاد کنند.
  3. حاکمیت داده: مجموعه داده‌های آموزشی، اعتبارسنجی و آزمایشی باید با کیفیت بالا، دقیق و تا حد امکان عاری از سوگیری باشند.
  4. دقت، استحکام و امنیت سایبری: سیستم‌ها باید دقیق، مستحکم و در برابر حملات سایبری مقاوم باشند. اقدامات فنی برای جلوگیری از مسمومیت داده، مسمومیت مدل و حملات متخاصم ضروری است.
  5. مستندات فنی و شفافیت: مستندات فنی دقیق باید قبل از عرضه سیستم به بازار تهیه شود تا به درک عملکرد سیستم کمک کند.

گام‌های بعدی برای متخصصان

با توجه به دامنه گسترده قانون، شرکت‌ها در سراسر جهان باید تعیین کنند که آیا الزامات این قانون برای آنها اعمال می‌شود یا خیر. گام‌های عملی برای آماده‌سازی عبارتند از:

  • آگاهی از جدول زمانی: قانون به صورت مرحله‌ای اجرا می‌شود و ممنوعیت‌ها زودتر از سایر الزامات اعمال می‌شوند.
  • ارزیابی حریم خصوصی: همکاری نزدیک با تیم‌های حریم خصوصی برای اطمینان از همسویی با مقرراتی مانند GDPR ضروری است.
  • ایجاد فهرست موجودی هوش مصنوعی: شناسایی و دسته‌بندی تمام سیستم‌های هوش مصنوعی مورد استفاده در سازمان بر اساس سطح ریسک.
  • مستندسازی فرآیندها: مستندسازی فرآیندهای کسب و استفاده از سیستم‌های هوش مصنوعی برای اطمینان از شفافیت و پاسخگویی.

نتیجه‌گیری

قانون هوش مصنوعی اتحادیه اروپا یک چارچوب جامع برای استفاده ایمن و اخلاقی از هوش مصنوعی ارائه می‌دهد. درک الزامات آن برای شرکت‌هایی که در اتحادیه اروپا فعالیت می‌کنند یا محصولاتشان در آنجا استفاده می‌شود، حیاتی است. با اتخاذ یک رویکرد پیشگیرانه برای انطباق، سازمان‌ها می‌توانند ریسک‌ها را کاهش داده و از مزایای هوش مصنوعی به طور مسئولانه بهره‌مند شوند.

منبع: © 2024 ISACA. All rights reserved.

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا