[ad_1]
هوش مصنوعی پتانسیل تغییر فرهنگ اجتماعی و اقتصادی جهان را دارد و پیشرفتهای هوش مصنوعی مولد مانند ChatGPT فرصتهای جدیدی را به وجود خواهد آورد که فراتر از درک ماست.
به گزارش مجله خبری آی تی و دیجیتال و به نقل از venturebeat، با این حال، خطراتی نیز به همراه دارد. همه میدانیم که هوش مصنوعی مولد مشکلات جدیدی در بخش اخلاق و حریم خصوصی ایجاد خواهد کرد.
یکی از بزرگترین خطرات این است که جامعه بدون هیچ مسئولیتی از این فناوری استفاده میکند.
بنابراین بسیار مهم است که نوآوری از مسئولیت پذیری جلو نزند.
چالشهای هوش مصنوعی مولد
هوش مصنوعی مانند ChatGPT، دادههای جهان را در اختیار دارد و خروجی به دادههای مورد استفاده برای آموزش بستگی دارد.
علاوه بر این پاسخی که هوش مصنوعی مولد میدهد بستگی به نحوه پرسیدن سوال دارد.
هوش مصنوعی میتواند برای تصمیم گیریهایی که بر انسانها تأثیر میگذارد، استفاده شود.
برنامههای کم خطر
برنامههای کاربردی کم خطر و دارای ضمانت اخلاقی همیشه بر روی یک کمکی انسانی در حلقه تمرکز میکنند. مثلاً میتوان از ChatGPT در کلاس ادبیات دانشگاه استفاده شود و استاد از دانش این فناوری کمک بگیرد.
برنامهها با ریسک متوسط
برخی از برنامهها دارای ریسک متوسط هستند و در صورت استفاده درست، مزایای آنها میتواند از خطرات بیشتر باشد. مثلاً، هوش مصنوعی میتواند بر اساس تاریخچه پزشکی و الگوها، توصیههای درمانی بدهد.
برنامههای پرخطر
برنامههای پرخطر با فقدان مسئولیت پذیری انسانی و تصمیم گیریهای مستقل هوش مصنوعی مشخص میشوند. مثلاً یک “قاضی هوش مصنوعی” طبق قوانین ما غیرقابل تصور است.
اقدامات فوری به سمت مسئولیت پذیری
4 مرحله وجود دارد که میتوانیم برای به حداقل رساندن خطر از آنها کمک بگیریم:
خودگردان شدن سازمانها: هر سازمان باید قوانینی برای استفاده اخلاقی از هوش مصنوعی در شرکت داشته باشد.
آزمایش: آزمایش جامع بسیار مهم است. آزمایش این سوگیریها میتواند تضمین کند که همه چیز خوب پیش میرود.
اقدام مسئولانه: با اطمینان از اینکه اقدامات هوش مصنوعی از فیلتر انسانی میگذرد، میتوانیم از استفاده درست از هوش مصنوعی اطمینان حاصل کنیم.
ارزیابی ریسک: در نظر گرفتن اینکه آیا استفاده از هوش مصنوعی در دستهٔ کم ریسک، متوسط یا پرخطر قرار میگیرد بسیار اهمیت دارد.
[ad_2]
نظرات کاربران