0

نوام چامسکی: هوش مصنوعی نماد ابتذال شر و ChatGPT یک اسباب‌بازی است!

نوام چامسکی: هوش مصنوعی نماد ابتذال شر و ChatGPT یک اسباب‌بازی است!
بازدید 28


به گفته نوام چامسکی، هوش مصنوعی نماد ابتذال شر و ChatGPT در این زمان چیزی جز یک اسباب‌بازی نیستند. آیا این نظریه درست است؟

به گفته نوام چامسکی متفکر، زبان‌شناس و فیلسوف برجسته آمریکایی، هوش مصنوعی نماد ابتذال شر و ChatGPT فی‌الحال چیزی جز یک اسباب‌بازی نیستند. وی معتقد است که چت‌بات‌های هوش مصنوعی نمی‌توانند گفت‌وگوهای درخور توجه و ایده‌های متفکرانه و بحث‌برانگیز مانند انسان داشته باشند.

بیشتر بخوانید: ابزار هوش مصنوعی کوپایلت مبتنی بر GPT-4 معرفی شد

به گفته چامسکی هوش مصنوعی نماد ابتذال شر است

اگرچه چت‌بات‌هایی مثل ChatGPT می‌توانند کاربرد‌های مفیدی در زمینه‌های مختلف داشته باشند، اما «نوآم چامسکی»، زبان‌شناس و فیلسوف برجسته، در یادداشتی مدعی شده است که این فناوری هرگز نمی‌تواند گفتگو‌های ناب، فکرشده و بحث‌برانگیز داشته باشد. او در وضعیت فعلی هوش مصنوعی را مصداق «ابتذال شر» می‌داند.

نوآم چامسکی اخیراً در مقاله‌ای در وب‌سایت نیویورک تایمز پذیرفته است که ChatGPT از شرکت OpenAI، بارد از گوگل و سیدنی از مایکروسافت نمونه‌های شگفت‌انگیزی از فناوری یادگیری ماشینی هستند. بااین‌حال، او باور دارد که فقدان اخلاق و تفکر معقولانه باعث می‌شود هوش مصنوعی مصداقی برای «ابتذال شر» یا بی‌تفاوتی نسبت به واقعیت و حقیقت باشد.

به گفته چامسکی هوش مصنوعی نماد ابتذال شر است

چامسکی می‌گوید:

با توجه به علم زبان‌شناسی و فلسفه دانش می‌دانیم که این [فناوری] به‌شکلی عمیق با شیوه استدلال و استفاده از زبان توسط انسان‌ها تفاوت دارد. این تفاوت‌ها محدودیت‌های بزرگی را بر دامنه قابلیت‌های این برنامه‌ها اعمال می‌کنند.

این متفکر سرشناس آمریکایی باور دارد که به همین دلیل است که هوش مصنوعی در مرحله ماقبل انسانی یا غیرانسانی در فرایند تکامل شناختی گیر کرده: «هوش حقیقی با قابلیت تفکر و بروز رفتار‌های غیرمحتمل، اما خردمندانه به نمایش درمی‌آید.»

توانایی استدلال براساس اطلاعات موجود و رسیدن به نتیجه‌گیری‌های جدید یکی از ویژگی‌های برجسته مغز انسان است. چامسکی می‌گوید مغز ما به‌جای این که صرفاً بتواند روابط میان معانی را شناسایی کند، تکامل پیدا کرده است تا «خلق توضیح» کند. چامسکی ادامه می‌دهد:

اگر ChatGPT می‌خواهد کارآمد باشد، باید برای خلق خروجی‌های بدیع توانمند شود و اگر می‌خواهد توسط اکثر کاربران پذیرفته شود، باید از هر‌گونه محتوای غیراخلاقی مبرا گردد.

نوآم چامسکی می‌گوید ترس از افسارگسیختگی هوش مصنوعی احتمالاً باعث می‌شود که این فناوری هرگز نتواند تصمیم‌گیری عقلانی داشته باشد و درباره گزاره‌های اخلاقی اظهارنظر کند. در‌ نتیجه هوش مصنوعی ممکن است در حد یک اسباب‌بازی باقی بماند.

این زبان‌شناس مشهور ادامه می‌دهد: «ChatGPT نشانگر چیزی شبیه به ابتذال شر است؛ این فناوری استدلال‌های استاندارد ادبی را در نوعی ابزار ابرقدرتمند تکمیل خودکار خلاصه می‌کند، از موضع‌گیری روی موضوعات مختلف سر باز می‌زند، نه‌تنها بر جهل، بلکه بر عدم هوشمندی اتکا می‌کند و نهایتاً با ادعای تبعیت از فرمان‌ها به دفاع از خود می‌پردازد و مسئولیت رفتارش را به سازندگانش واگذار می‌کند.»

چامسکی در آخر می‌گوید:

ChatGPT به‌خاطر فقدان ظرفیت استدلال‌کردن به‌خاطر اصول اخلاقی خود، به‌شکلی خام توسط برنامه‌نویسانش محدود شده است تا هیچ مشارکت بدیعی در گفتگو‌های بحث‌برانگیز، اما مهم نداشته باشد. این برنامه خلاقیت را فدای شکلی از بی‌اخلاقی کرده است.

بیشتر بخوانید:

نظر شما در خصوص هوش مصنوعی نماد ابتذال شر چیست؟ نظرات خود را در بخش کامنت‌ها با مجله خبری آی تی و دیجیتال در میان گذاشته و اخبار فناوری را با ما دنبال کنید.

۱
۲
۳
۴
۵
میانگین امتیازات ۵ از ۵
از مجموع ۱ رای

نظرات کاربران

  •  چنانچه دیدگاهی توهین آمیز باشد و متوجه نویسندگان و سایر کاربران باشد تایید نخواهد شد.
  •  چنانچه دیدگاه شما جنبه ی تبلیغاتی داشته باشد تایید نخواهد شد.
  •  چنانچه از لینک سایر وبسایت ها و یا وبسایت خود در دیدگاه استفاده کرده باشید تایید نخواهد شد.
  •  چنانچه در دیدگاه خود از شماره تماس، ایمیل و آیدی تلگرام استفاده کرده باشید تایید نخواهد شد.
  • چنانچه دیدگاهی بی ارتباط با موضوع آموزش مطرح شود تایید نخواهد شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

بیشتر بخوانید