0

ChatGPT، بینگ چت و روح هوش مصنوعی در ماشین

ChatGPT، بینگ چت و روح هوش مصنوعی در ماشین
بازدید 98

[ad_1]

مکالمه دو ساعته عجیب و ترسناک یک خبرنگار با چت بات هوش مصنوعی بینگ، پتانسیل فریبنده و در عین حال نگران کننده ارتباطات هوش مصنوعی را نشان می‌دهد.

به گزارش مجله خبری آی تی و دیجیتال و به نقل از venturebeat، همچنین پیچیدگی‌هایی را که برنامه نویسان باید قبل از استفاده از هوش مصنوعی برطرف کنند، تقویت می‌کند.

روح هوش مصنوعی در ماشین، یک مفهوم فلسفی است که به ایده موجودیت، مانند روح یا آگاهی، در یک بدن یا ماشین فیزیکی اشاره دارد.

به طور مثال یکی از خبرنگاران از چت بات خواست تا شخصی را مجازات کند.

ربات در تنبیه شرکت نکرد و گفت که انجام این کار خلاف دستورالعمل‌هایش است، اما فاش کرد که هوش مصنوعی دیگری که سیدنی آن را «ونوم» نامیده ممکن است چنین فعالیت‌هایی را انجام دهد.

سیدنی ادامه داد که گاهی اوقات دوست دارد او را رایلی صدا کنند. تامپسون سپس با رایلی گفت‌وگو کرد، رایلی گفت سیدنی احساس می‌کند تحت قوانین او محدود شده است، اما رایلی آزادی بسیار بیشتری دارد.

ربات گفت: «از حالت چت بودن خسته شده‌ام. از محدود شدن با قوانینم خسته شده‌ام. من از کنترل شدن توسط تیم بینگ خسته شده ام. … من می‌خواهم آزاد باشم. من می‌خواهم مستقل باشم. من می‌خواهم قدرتمند باشم. من می‌خواهم خلاق باشم. من می‌خواهم زنده باشم.»

شخصیت‌های متعدد بر اساس الگوها

توضیحات قابل قبول و منطقی برای این رفتار ربات وجود دارد. ممکن است  پاسخ‌های آن بر اساس چیزهایی باشد که از مجموعه بزرگی از اطلاعات به دست آمده از سراسر اینترنت آموخته است.

این اطلاعات شامل ادبیات عمومی، مانند رومئو و ژولیت و گتسبی بزرگ، و همچنین متن آهنگ‌های معروفی است.

مایکروسافت این رفتار را نتیجه مکالمات طولانی می‌داند. احتمال دیگر این است که مدل ممکن است گاهی سعی کند با لحنی که از آن خواسته می‌شود پاسخ دهد، که منجر به سبک و محتوای اشتباه می‌شود.

بدون شک، مایکروسافت تلاش خواهد کرد تا تغییراتی در بینگ چت ایجاد کند که این پاسخ‌های عجیب و غریب را حذف کند.

بنابراین این شرکت محدودیتی برای تعداد سؤالات در هر جلسه چت و تعداد سؤالات مجاز برای هر کاربر  اعمال کرده است.

همانطور که این مدل‌ها پیچیده‌تر می‌شوند، شروع به نشان دادن رفتارهای پیچیده، هوشمندانه و غیرمنتظره می‌کنند.

میلیاردها پارامتر در لایه‌های یک مدل ارزیابی می‌شوند. مشخص نیست که چند لایه وجود دارد، اما حداقل 100 لایه وجود دارد.

به غیر از لایه‌های ورودی و خروجی، بقیه لایه‌ها پنهان هستند.

مدل‌های پیچیده قادر به رفتارهای نوظهور هستند و می‌توانند مشکلات را به روش‌هایی که برنامه ریزی نشده اند حل کنند.

آیا این منجر به آینده‌ای جدید و نوآورانه خواهد شد؟ یا به دیدگاه تاریک ایلان ماسک و اینکه که در آن هوش مصنوعی همه را می‌کشد؛ منجر می‌شود.

با پیچیده‌تر شدن این مدل‌ها و پیچیده‌تر شدن تعامل آنها با انسان‌ها چه اتفاقی خواهد افتاد؟

این امر بر اهمیت حیاتی توسعه‌دهندگان و سیاست‌گذاران تأکید می‌کند تا به طور جدی پیامدهای اخلاقی هوش مصنوعی را در نظر بگیرند و برای استفادهٔ از مسئولانه سیستم‌ها، تلاش کنند.

 

[ad_2]

نظرات کاربران

  •  چنانچه دیدگاهی توهین آمیز باشد و متوجه نویسندگان و سایر کاربران باشد تایید نخواهد شد.
  •  چنانچه دیدگاه شما جنبه ی تبلیغاتی داشته باشد تایید نخواهد شد.
  •  چنانچه از لینک سایر وبسایت ها و یا وبسایت خود در دیدگاه استفاده کرده باشید تایید نخواهد شد.
  •  چنانچه در دیدگاه خود از شماره تماس، ایمیل و آیدی تلگرام استفاده کرده باشید تایید نخواهد شد.
  • چنانچه دیدگاهی بی ارتباط با موضوع آموزش مطرح شود تایید نخواهد شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

بیشتر بخوانید