[ad_1]
متأسفانه، وقتی که ضعفهای فناوری هوش مصنوعی ظاهر شد، اطلاعات درست و حقیقت و اعتماد در جامعه به سرعت از بین رفت و واقعیتها به چالش کشیده شد.
به گزارش مجله خبری آی تی و دیجیتال و به نقل از venturebeat، بعد از ChatGPT تعداد زیادی چت بات دیگر از مایکروسافت، گوگل، Tencent، Baidu، Snap، SK Telecom، Alibaba، Databricks، Anthropic، Stability Labs، متا و… به وجود آمدند که همگی نتایج متفاوتی را برای یک درخواست ارائه میدهند.
رویکردهای متا با آنتروپیک
آنتروپیک رویکرد متفاوتی در پیش گرفت. آنها یک “قانون اساسی” برای چت باتهای خود اجرا کردند. این قانون اساسی مجموعهای از ارزشها و اصول را مشخص میکند که کلود باید هنگام تعامل با کاربران از آنها پیروی کند.
متا همچنین مدل زبان بزرگ LLaMA 2 خود (LLM) را منتشر کرده است. که یک مدل توانمند و منبع باز است، به این معنی که هر کسی میتواند آن را به صورت رایگان استفاده کند.
به چالش کشیده شدن واقعیتها با هوش مصنوعی
تحقیقات جدید نشان داد که به طور موثر بخشهای محافظ هر یک از این مدلها به راحتی شکسته میشوند، چه منبع بسته یا منبع باز.
یعنی هر کسی که بخواهد دستورالعملهایی برای نحوه ساخت سلاحهای زیستی یا کلاهبرداری دریافت کند، میتواند این را از LLMهای مختلف دریافت کند.
علاوه بر این، نتایج متفاوت از مدلهای متعدد، حتی زمانی که به یک درخواست پاسخ میدهند، در حال افزایش است. یک جهان تکه تکه شده هوش مصنوعی که نمیتوان به آن اعتماد کرد.
حقیقت و اعتماد خیلی وقت است که مورد حمله قرار گرفته و این روند ادامه خواهد داشت.
[ad_2]
نظرات کاربران