[ad_1]
تیمی از پژوهشگران مایکروسافت گزارش 155 صفحهای منتشر کردهاند که نشان میدهد مدل زبانی هوش مصنوعی ChatGPT-4 OpenAI در حال شروع استدلال مشابه انسان است.
به گزارش مجله خبری آی تی و دیجیتال و به نقل از gizchina، این گزارش در ژورنال نیچر منتشر شد و نشان داد که ChatGPT-4 وظایف مختلفی را انجام خواهد داد که نیاز به استدلال انسانی دارند، مانند پاسخ دادن به سؤالات، ایجاد متن و ترجمه زبانها.
به ویژه محققان تحت تأثیر قابلیت ChatGPT-4 برای تولید متن غیرقابل تشخیص از متن تولید شده توسط انسان قرار گرفتند.
در یک تست، از ChatGPT-4 خواسته شد تا داستانی درباره رباتی بنویسد که عاشق انسان میشود. داستان به قدری زیبا نوشته شد که نمیتوان آن را از دست نوشتههای انسانی تشخیص داد.
این نقطه عطف مهمی در توسعه هوش مصنوعی است.
با این حال، محققان هشدار میدهند که قابلیتهای ChatGPT-4 ممکن است برای اهداف شوم مورد استفاده قرار گیرد. مثلاً برای تولید اخبار جعلی یا رباتهای هرزنامه.
محققان خواستار قوانینی در مورد فناوریهای هوش مصنوعی هستند تا این فناوری تنها برای امور سازنده و نه آسیب زا استفاده شوند.
در این میان برخی از محققان از افراد مشغول در صنعت هوش مصنوعی تقدیر کردهاند و برخی دیگر در مورد خطرات هوش مصنوعی نگرانی خود را ابراز کردهاند.
اگر هوش مصنوعی شبیه انسان قادر به استدلال است؛ ممکن است تصمیماتی اتخاد کند که برای انسان خوب نیست.
مثلاً میتواند برای توسعه سلاحهای خودمختار بدون دخالت انسان برای کشتن نسل بشر استفاده کند.
بهتر است بدانید که هوش مصنوعی یک ابزار است. مانند هر ابزار دیگر، میتواند برای اهداف خوب و بد استفاده شود.
همهٔ این به ما بستگی دارد که از آن چگونه استفاده کنیم.
[ad_2]
نظرات کاربران