0

اتحادیه اروپا جزئیات قانون هوش مصنوعی را منتشر کرد

اتحادیه اروپا جزئیات قانون هوش مصنوعی را منتشر کرد
بازدید 23


سیاستمداران و قانونگذاران اتحادیه اروپا در روز جمعه بر سر جزئیات قانون هوش مصنوعی به توافق رسیدند. در اولین مجموعه این قوانین دستورالعملی برای تنظیم استفاده از هوش مصنوعی در ابزارهایی مانند ChatGPT و نظارت بیومتریک دیده می‌شود.

گزارش‌ها حاکی از آن است که مقامات اروپایی در هفته‌های آینده دقیق‌تر به مفادی که امکان دارد در قانون نهایی تغییر کنند، توجه خواهند کرد. این قانون که در اوایل سال آینده به اجرا در می‌آید و تا سال ۲۰۲۶ اعمال خواهد شد، شرکت‌ها را تشویق می‌کند که به طور داوطلبانه در یک پیمان هوش مصنوعی ثبت‌نام کنند تا تعهدات کلیدی مقررات را به اجرا درآورند.

بیشتر بخوانید: نمایندگان اروپا اولین قانون جامع هوش مصنوعی را تصویب کردند

جزئیات قانون هوش مصنوعی

موضوع اصلی توافق شده برای سیستم‌های هوش مصنوعی به اصطلاح پرریسک شامل الزاماتی است که باید از آنها پیروی شود تا از احتمال آسیب رساندن به سلامت، ایمنی، حقوق اساسی، محیط زیست، دموکراسی، انتخابات و حاکمیت قانون جلوگیری کند. علاوه بر این، سیستم‌های هوش مصنوعی‌ای که کم‌ریسک‌تر محسوب می‌شوند ملزم به استفاده از برچسب‌هایی هستند که به کاربران اعلام می‌کند که این محتوا توسط هوش مصنوعی ایجاد شده است؛ به این ترتیب کاربران می‌توانند با آگاهی از این موضوع درباره‌ی نحوه استفاده از آن تصمیم بگیرند.

نحوه استفاده از هوش مصنوعی در اجرای قانون

استفاده از سیستم‌های شناسایی بیومتریک از راه دور، در مکان‌های عمومی، توسط مقامات قانونی، تنها برای اهداف مرتبط با شناسایی قربانیان آدم‌ربایی، قاچاق انسان، بهره‌برداری غیرقانونی و پیشگیری از تهدیدات تروریستی خاص و فعلی مجاز است. همچنین، استفاده از این سیستم‌ها، برای رصد و تعقیب مظنونان به جرایمی از جمله تروریسم، قاچاق، بهره‌برداری غیرقانونی، قتل، آدم‌ربایی، تجاوز، دزدی مسلحانه، عضویت در یک سازمان جنایی و جرم زیست‌محیطی، مجاز خواهد بود.

قانون استفاده از هوش مصنوعی‌های همه منظوره و بنیادی

سیستم‌های هوش مصنوعی همه منظوره باید در زمینه‌های مختلف مهمی شفافیت کامل داشته باشند. به عنوان مثال، باید مستندات فنی آنها تهیه، قانون کپی رایت اتحادیه اروپا رعایت و خلاصه‌ای دقیق از محتوای استفاده شده برای آموزش الگوریتم‌ها ارائه شود. همچنین، مدل‌های بنیادی در دسته‌بندی سیستماتیک ریسک قرار می‌گیرند و باید ارزیابی و خنثی‌سازی ریسک‌ها، آزمایش‌های ارزیابی رفتار خصمانه،  اطمینان از امنیت سایبری،  گزارش کارایی انرژی خود و گزارش حوادث جدی به کمیسیون اروپا را در دستور کار خود قرار دهند. گفتنی‌ست تا زمانی که اتحادیه‌ی اروپا استانداردی برای هماهنگی استفاده از این سیستم ارائه نکرده باشد، سیستم‌های هوش مصنوعی همه منظوره برای مطابقت با مقررات، شیوه نامه‌های عملی واحد را اجرایی خواهند کرد.

اتحادیه‌ی اروپا مواردی را نیز به طور کل ممنوع اعلام کرده است که عبارتند از:

  • استفاده از سیستم‌های طبقه‌بندی بیومتریک که از ویژگی‌های حساسی مانند عقاید سیاسی، مذهبی، فلسفی، گرایش جنسی و نژاد بهره می‌برند.
  • استخراج بدون هدف تصاویر صورت از اینترنت یا دوربین‌های مدار بسته برای ایجاد پایگاه‌های داده تشخیص چهره.
  • تشخیص احساسات در محیط کار و موسسات آموزشی.
  • امتیازدهی اجتماعی بر اساس رفتار اجتماعی یا ویژگی‌های فردی.
  • استفاده از سیستم‌های هوش مصنوعی که رفتار انسان را برای دور زدن اراده آزادش، دستکاری کند.
  • استفاده از هوش مصنوعی برای بهره‌برداری از آسیب‌پذیری افراد به دلیل سن، ناتوانی، موقعیت اجتماعی یا اقتصادی.

در صورت نقض این قوانین بسته به شهرت شرکت متخلف و نوع استفاده از هوش مصنوعی جریمه‌هایی تعیین شد که از  7.5 میلیون یورو (8 میلیون دلار) یا 1.5٪ از گردش مالی سالانه جهانی و تا 35 میلیون یورو یا 7٪ از گردش مالی جهانی، افزایش می یابد.

بیشتر بخوانید: 

نظر شما درباره‌ی جزئیات قانون هوش مصنوعی چیست؟ لطفا دیدگاه خود را در این خصوص در بخش کامنت با مجله خبری آی تی و دیجیتال در میان بگذارید.

۱
۲
۳
۴
۵
میانگین امتیازات ۵ از ۵
از مجموع ۱ رای

نظرات کاربران

  •  چنانچه دیدگاهی توهین آمیز باشد و متوجه نویسندگان و سایر کاربران باشد تایید نخواهد شد.
  •  چنانچه دیدگاه شما جنبه ی تبلیغاتی داشته باشد تایید نخواهد شد.
  •  چنانچه از لینک سایر وبسایت ها و یا وبسایت خود در دیدگاه استفاده کرده باشید تایید نخواهد شد.
  •  چنانچه در دیدگاه خود از شماره تماس، ایمیل و آیدی تلگرام استفاده کرده باشید تایید نخواهد شد.
  • چنانچه دیدگاهی بی ارتباط با موضوع آموزش مطرح شود تایید نخواهد شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

بیشتر بخوانید