0

شکایت یک مجری رادیویی از ChatGPT ؛ نقص چت‌بات‌های هوش مصنوعی بالاخره برملا شد!

شکایت یک مجری رادیویی از ChatGPT ؛ نقص چت‌بات‌های هوش مصنوعی بالاخره برملا شد!
بازدید 43


شکایت یک مجری رادیویی از ChatGPT خبرساز شد. ظاهراً چت‌بات هوش مصنوعی شرکت OpenAI این مجری مشهور را یک اختلاس‌گر معرفی کرده است.

مارک والترز مجری رادیویی گرجستان، معتقداست که افترای وارد شده بر او توسط مدل هوش مصنوعی ذکر شده باعث شده است که شهرت وی در بین مردم کشورش لطمه ببیند. اما یک مسئله اینجا حائز اهمیت است که چت‌بات‌های هوش مصنوعی با وجود کاربردهای فراوان، اصلاً قابل‌اعتماد نیستند و بارها اتفاق افتاده است که با توهین‌های بی‌اساس افراد یا سازمانی را مورد گزند قرار داده‌اند.

سرمایه گذاری پرسود و تضمینی دلاری

بیشتر بخوانید: نخستین مجری هوش مصنوعی ترکیه معرفی شد [+فیلم]

شکایت یک مجری رادیویی از ChatGPT

مجری رادیویی گرجستان، مارک والترز پس‌از اینکه سرویس ChatGPT به او گفت درحال اختلاس پول از بنیاد SAF است، از OpenAI شکایت کرد.

والترز احتمالاً اولین شکایت را در نوع خود تنظیم و ادعا کرد ChatGPT با طرح ادعاهای نادرست اختلاس، به هویت او آسیب رسانده است.

درحالی‌که وکلا احتمالاً با نبرد سختی روبرو خواهند شد که ثابت می‌کند چت‌بات هوش مصنوعی به شهرت والترز لطمه زده، اما دعوی مذکور می‌تواند گفت‌وگوها را هدایت کند زیرا این ابزارها همچنان به ارائه‌ی ادعاهای توهم‌آمیز ادامه می‌دهند.

شکایت یک مجری رادیویی از ChatGPT

وکیل والترز در شکایت خود ادعا می‌کند چت‌بات OpenAI مطالب افتراآمیزی درمورد موکلش منتشر و او را در این پرونده دخیل و حتی به‌عنوان خزانه‌دار و مدیر ارشد مالی SAF معرفی کرد که درواقع این ادعا نادرست است. والترز به هیچ‌وجه با SAF ارتباط ندارد.

ابزار هوش مصنوعی حتی به مواردی درمورد حسابداری مالی مبهم اشاره داشت که کاملاً ساختگی بودند. درواقع این چت‌بات حتی شماره‌ پرونده را به‌هم ریخته است.

نکته‌ی مهم این است که وکیل والترز هرگز اطلاعات نادرستی که هوش مصنوعی ارائه داده بود را منتشر نکرد اما بعداً با وکلای مرتبط با پرونده‌ مذکور تماس گرفت. ChatGPT و سایر چت‌بات‌های هوش مصنوعی مانند آن، سابقه‌ بسیار زیادی در ارائه‌ دروغ‌های کاملاً ساختگی دارند؛ نقصی که عمیقاً مفید بودن آن‌ها را تضعیف می‌کند.

همان‌طور که فیوچریسم می‌نویسد، با وجود این نقص‌ها، شرکت‌هایی مثل OpenAI و گوگل آن‌ها را به‌عنوان راهی جدید برای بازیابی اطلاعات معرفی کردند درحالی‌که به‌طور عجیبی به‌طور دائم هشدار می‌دهند که نباید به خروجی هوش مصنوعی اعتماد کرد.

جان مونرو، وکیل والترز اکنون استدلال می‌کند ما همچنان باید این شرکت‌ها را درقبال خروجی معیوب چت‌بات‌هایشان مسئول بدانیم.

مونرو می‌گوید:

درحالی‌که تحقیق‌وتوسعه در هوش مصنوعی، تلاش ارزشمندی محسوب می‌شود، اما راه‌اندازی سیستم برای عموم مردم غیرمسئولانه است زیرا این ابزارها می‌توانند اطلاعاتی جعل کنند که به اشخاص آسیب می‌رساند.

سؤال این است: آیا می‌توان از اطلاعات ساختگی که چت‌بات‌هایی مثل ChatGPT ارائه می‌دهند در دادگاه به‌عنوان افترا یاد کرد؟ یوجین ولوخ، استاد دانشکده‌ حقوق دانشگاه کالیفرنیای لس‌آنجلس می‌نویسد، چنین موضوعی دور از ذهن نیست.

بیشتر بخوانید:

نظر شما درباره‌ شکایت یک مجری رادیویی از ChatGPT چیست؟ دیدگاه خود را در بخش کامنت ها با مجله خبری آی تی و دیجیتال در میان بگذارید و اخبار تکنولوژی را با ما دنبال کنید.

۱
۲
۳
۴
۵
میانگین امتیازات ۵ از ۵
از مجموع ۱ رای

نظرات کاربران

  •  چنانچه دیدگاهی توهین آمیز باشد و متوجه نویسندگان و سایر کاربران باشد تایید نخواهد شد.
  •  چنانچه دیدگاه شما جنبه ی تبلیغاتی داشته باشد تایید نخواهد شد.
  •  چنانچه از لینک سایر وبسایت ها و یا وبسایت خود در دیدگاه استفاده کرده باشید تایید نخواهد شد.
  •  چنانچه در دیدگاه خود از شماره تماس، ایمیل و آیدی تلگرام استفاده کرده باشید تایید نخواهد شد.
  • چنانچه دیدگاهی بی ارتباط با موضوع آموزش مطرح شود تایید نخواهد شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

بیشتر بخوانید