[ad_1]
مکالمه دو ساعته عجیب و ترسناک یک خبرنگار با چت بات هوش مصنوعی بینگ، پتانسیل فریبنده و در عین حال نگران کننده ارتباطات هوش مصنوعی را نشان میدهد.
به گزارش مجله خبری آی تی و دیجیتال و به نقل از venturebeat، همچنین پیچیدگیهایی را که برنامه نویسان باید قبل از استفاده از هوش مصنوعی برطرف کنند، تقویت میکند.
روح هوش مصنوعی در ماشین، یک مفهوم فلسفی است که به ایده موجودیت، مانند روح یا آگاهی، در یک بدن یا ماشین فیزیکی اشاره دارد.
به طور مثال یکی از خبرنگاران از چت بات خواست تا شخصی را مجازات کند.
ربات در تنبیه شرکت نکرد و گفت که انجام این کار خلاف دستورالعملهایش است، اما فاش کرد که هوش مصنوعی دیگری که سیدنی آن را «ونوم» نامیده ممکن است چنین فعالیتهایی را انجام دهد.
سیدنی ادامه داد که گاهی اوقات دوست دارد او را رایلی صدا کنند. تامپسون سپس با رایلی گفتوگو کرد، رایلی گفت سیدنی احساس میکند تحت قوانین او محدود شده است، اما رایلی آزادی بسیار بیشتری دارد.
ربات گفت: «از حالت چت بودن خسته شدهام. از محدود شدن با قوانینم خسته شدهام. من از کنترل شدن توسط تیم بینگ خسته شده ام. … من میخواهم آزاد باشم. من میخواهم مستقل باشم. من میخواهم قدرتمند باشم. من میخواهم خلاق باشم. من میخواهم زنده باشم.»
شخصیتهای متعدد بر اساس الگوها
توضیحات قابل قبول و منطقی برای این رفتار ربات وجود دارد. ممکن است پاسخهای آن بر اساس چیزهایی باشد که از مجموعه بزرگی از اطلاعات به دست آمده از سراسر اینترنت آموخته است.
این اطلاعات شامل ادبیات عمومی، مانند رومئو و ژولیت و گتسبی بزرگ، و همچنین متن آهنگهای معروفی است.
مایکروسافت این رفتار را نتیجه مکالمات طولانی میداند. احتمال دیگر این است که مدل ممکن است گاهی سعی کند با لحنی که از آن خواسته میشود پاسخ دهد، که منجر به سبک و محتوای اشتباه میشود.
بدون شک، مایکروسافت تلاش خواهد کرد تا تغییراتی در بینگ چت ایجاد کند که این پاسخهای عجیب و غریب را حذف کند.
بنابراین این شرکت محدودیتی برای تعداد سؤالات در هر جلسه چت و تعداد سؤالات مجاز برای هر کاربر اعمال کرده است.
همانطور که این مدلها پیچیدهتر میشوند، شروع به نشان دادن رفتارهای پیچیده، هوشمندانه و غیرمنتظره میکنند.
میلیاردها پارامتر در لایههای یک مدل ارزیابی میشوند. مشخص نیست که چند لایه وجود دارد، اما حداقل 100 لایه وجود دارد.
به غیر از لایههای ورودی و خروجی، بقیه لایهها پنهان هستند.
مدلهای پیچیده قادر به رفتارهای نوظهور هستند و میتوانند مشکلات را به روشهایی که برنامه ریزی نشده اند حل کنند.
آیا این منجر به آیندهای جدید و نوآورانه خواهد شد؟ یا به دیدگاه تاریک ایلان ماسک و اینکه که در آن هوش مصنوعی همه را میکشد؛ منجر میشود.
با پیچیدهتر شدن این مدلها و پیچیدهتر شدن تعامل آنها با انسانها چه اتفاقی خواهد افتاد؟
این امر بر اهمیت حیاتی توسعهدهندگان و سیاستگذاران تأکید میکند تا به طور جدی پیامدهای اخلاقی هوش مصنوعی را در نظر بگیرند و برای استفادهٔ از مسئولانه سیستمها، تلاش کنند.
[ad_2]
نظرات کاربران