[ad_1]
آیا هوش مصنوعی مولد برای تیمهای امنیتی کاربردی است؟ از زمان ارائهٔ ChatGPT ، بحثهای زیادی در مورد اینکه آیا هوش مصنوعی مولد امنیت را از بین میبرد یا نه، وجود داشته است.
به گزارش مجله خبری آی تی و دیجیتال و به نقل از venturebeat، از نظر دیوید ریبر،فسر ارشد امنیتی انویدیا، این یک بازی موش و گربه است.
یک جنگ هوش مصنوعی تهاجمی در جریان است که در آن هم مجرمان سایبری میتوانند از فناوریهایی مانند هوش مصنوعی مولد برای تولید کدهای مخرب استفاده کنند، و هم تیمهای امنیتی میتوانند از آن برای شناسایی آسیب پذیریها استفاده کنند.
اخیراً، VentureBeat یک مصاحبه با دیوید ریبر، افسر ارشد امنیتی انویدیا انجام داد.
او نظرات خود را در مورد تأثیر هوش مصنوعی مولد و ابزارهایی مانند ChatGPT بر چشم انداز تهدید در سال 2023 اعلام کرد.
VB: چرا برای متوقف کردن تهدیدات سایبری مبتنی بر هوش مصنوعی به هوش مصنوعی نیاز است؟
Reber: یکی از محدودیتهای سنتی هکرها، طراحی حملات در مقیاس و دانش است.
با پیشرفت در هوش مصنوعی مولد، حملات دقیق و هدفمند با حداقل مهارت انجام می شود.
آنچه اهمیت دارد رقابت است. سرعت و پیچیدگی حملات از ظرفیت انسان پیشی میگیرد. اینجاست که هوش مصنوعی در هر دو جبهه قرار میگیرد.
در واقع این یک بازی موش و گربه است که برای همیشه وجود دارد.
VB: تیمهای امنیتی هنگام استفاده از هوش مصنوعی در برابر هوش مصنوعی تهاجمی با چه چالشهایی روبرو هستند؟
دشمنان ما محدودیتهای ما را درک میکنند: ظرفیت انسانی، مقررات، اولویتهای رقابتی.
چالش اصلی هوش مصنوعی، اعتماد است. ما یک ماشین خودران داریم، اما آیا به آن اعتماد داریم؟
بازار مملو از راه حلهای خاص است. همه در تلاش هستند. با شرایط اقتصادی کنونی، همه ما باید راههایی را برای انجام کارهای بیشتر با کمترین منابع پیدا کنیم.
ما باید یاد بگیریم چگونه از حریف پیشی بگیریم. اگر شما یکی از 14 میلیارد هستید، دانش خود را به اشتراک بگذارید.سعی کنید سریعتر از حریف حرکت کنید.
[ad_2]
نظرات کاربران