0

سند داخلی متا نشان می‌دهد که این شرکت نگران پیامدهای فاجعه‌بار مدل‌های هوش مصنوعی است

سند داخلی متا نشان می‌دهد که این شرکت نگران پیامدهای فاجعه‌بار مدل‌های هوش مصنوعی است
بازدید 37


یک سند سیاست‌گذاری از شرکت Meta که نشان از نگرانی این شرکت نسبت به مدل‌های هوش مصنوعی آینده دارد. ظاهرا متا نگران توسعه تصادفی یک مدل هوش مصنوعی است که می‌تواند منجر به «پیامدهای فاجعه‌بار» شود. متا در این خصوص هشدار داده که هوش مصنوعی می‌تواند امنیت سایبری را نابود کند.

به گزارش مجله خبری آی تی و دیجیتال 9to5mac، در این سند، برنامه‌های متا برای جلوگیری از انتشار چنین مدل‌هایی تشریح شده، اما این شرکت اذعان کرده که ممکن است قادر به جلوگیری کامل از این اتفاق نباشد.

راهنمای خرید <a href=مجله خبری آی تی و دیجیتال” width=”728″ height=”90″ src=”http://itodigi.com/wp-content/uploads/2024/11/ریلمی-V60-پرو-با-شارژ-سریع-و-مقاومت-بالا-در.gif”>راهنمای خرید <a href=مجله خبری آی تی و دیجیتال” width=”728″ height=”90″>

متا برنامه‌هایی برای متوقف کردن مدل‌های خطرناک هوش مصنوعی دارد. وب‌سایت TechCrunch سندی را کشف کرده که عنوان آن Frontier AI Framework است.

متا در این سند دو نوع سیستم هوش مصنوعی پرخطر را تعریف کرده است:

  • سیستم‌های پرخطر (High Risk)
  • سیستم‌های دارای خطر بحرانی (Critical Risk)

بر اساس تعریف متا، هر دو نوع سیستم می‌توانند در حوزه‌هایی مانند امنیت سایبری ، حملات شیمیایی و حملات بیولوژیکی مؤثر باشند، اما تفاوت در این است که مدل‌های Critical Risk می‌توانند منجر به «نتایج فاجعه‌باری شوند که در شرایط پیشنهادی قابل کنترل نیست.» در مقابل، مدل‌های High Risk ممکن است حمله را آسان‌تر کنند، اما به اندازه مدل‌های Critical Risk قابل‌اعتماد نخواهند بود.

پیامد فاجعه‌بار مدل‌های هوش مصنوعی آینده از دید متا چگونه تعریف می‌شود؟

متا پیامدهای فاجعه‌بار را به این صورت تعریف کرده است:

«نتایجی که تاثیری گسترده، ویرانگر و احتمالا غیرقابل بازگشت بر بشریت دارند و می‌توانند مستقیماً در نتیجه دسترسی به [مدل‌های هوش مصنوعی ما] محقق شوند.»

یک نمونه ذکر شده در سند، هک خودکار و کامل یک شبکه کامپیوتری با بهترین تدابیر امنیتی بدون نیاز به دخالت انسانی است.

سایر خطرات احتمالی شامل:

  • شناسایی و بهره‌برداری خودکار از آسیب‌پذیری‌های روز صفر
  • کلاهبرداری‌های کاملا خودکار که به افراد و شرکت‌ها آسیب می‌زند
  • توسعه و گسترش سلاح‌های بیولوژیکی پرخطر

متا اعلام کرده که در صورت شناسایی یک مدل با خطر بحرانی، بلافاصله توسعه آن را متوقف کرده و از انتشار آن جلوگیری خواهد کرد.

متا: مهار این مدل‌ها شاید ممکن نباشد

این سند همچنین اذعان دارد که اقدامات متا برای جلوگیری از انتشار این مدل‌ها ممکن است کافی نباشد:

«دسترسی به این مدل‌ها به تعداد محدودی از کارشناسان محدود شده و تدابیر امنیتی برای جلوگیری از هک یا سرقت داده‌ها تا جایی که از نظر فنی و تجاری امکان‌پذیر باشد، اجرا خواهد شد.»

۱
۲
۳
۴
۵
میانگین امتیازات ۵ از ۵
از مجموع ۱ رای

نظرات کاربران

  •  چنانچه دیدگاهی توهین آمیز باشد و متوجه نویسندگان و سایر کاربران باشد تایید نخواهد شد.
  •  چنانچه دیدگاه شما جنبه ی تبلیغاتی داشته باشد تایید نخواهد شد.
  •  چنانچه از لینک سایر وبسایت ها و یا وبسایت خود در دیدگاه استفاده کرده باشید تایید نخواهد شد.
  •  چنانچه در دیدگاه خود از شماره تماس، ایمیل و آیدی تلگرام استفاده کرده باشید تایید نخواهد شد.
  • چنانچه دیدگاهی بی ارتباط با موضوع آموزش مطرح شود تایید نخواهد شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *