به گزارش پایگاه خبری تحلیلی اندیشه معاصر، زهرا شیخ باقری- توهمات هوش مصنوعی، پاسخهای اشتباهی هستند که توسط چتباتهای مبتنی بر مدلهای زبانی بزرگ (LLM) تولید میشوند. این توهمات اغلب به این دلیل رخ میدهند که این مدلها بیشتر به «قابلقبول بودن» پاسخ اهمیت میدهند تا «درست بودن» آن. در زمینهی سلامت روان، این پدیده نشان میدهد که هوش مصنوعی هنوز آمادهی استفادهی عمومی در این حوزه نیست.
اصطلاح «توهمات هوش مصنوعی» به پدیدهای اشاره دارد که در آن الگوریتمهای هوش مصنوعی الگوها یا اشیائی را “درک” میکنند که در واقع وجود ندارند یا برای انسان قابل مشاهده نیستند و در نتیجه، خروجیهایی تولید میکنند که بیمعنی یا کاملاً نادرست هستند. اگرچه این پدیده ممکن است در کامپیوترهایی که از دوربین یا میکروفون برای «دیدن» یا «شنیدن» استفاده میکنند نیز رخ دهد—و تا حدی شبیه به توهمات حسی در اختلالاتی چون روانپریشی است—اما امروزه بیشتر به پاسخهای اشتباهی اشاره دارد که توسط چتباتهایی چون ChatGPT یا Gemini ارائه میشوند.
آسیبپذیری چتباتهای هوش مصنوعی
در سالهای اخیر، موارد متعددی از پاسخهای کاملاً نادرست و بالقوه خطرناک از سوی چتباتهای LLM خبرساز شدهاند. به عنوان مثال، در سال ۲۰۲۴، هوش مصنوعی شرکت متا (به مدیریت مارک زاکربرگ) پاسخهای نادرستی به مسائل ساده ریاضی میداد. از سوی دیگر، هوش مصنوعی گوگل به کاربران توصیههایی مانند خوردن سنگ یا استفاده از چسب به عنوان تاپینگ پیتزا میداد و حتی پیشنهاد کرده بود برای تمیز کردن ماشین لباسشویی از ترکیب وایتکس و سرکه استفاده شود—که در واقع گاز سمی و کشندهی کلرین تولید میکند.
اوایل امسال، روزنامهی شیکاگو سانتایمز به دلیل انتشار لیست ۱۵ کتاب پیشنهادی برای تابستان با استفاده از هوش مصنوعی زیر سؤال رفت، چرا که ۱۰ مورد از آنها اصلاً وجود نداشتند! در همین زمان، هوش مصنوعی «گروک» متعلق به شبکهی X (به مدیریت ایلان ماسک) شروع به انتشار پستهایی در حمایت از نظریههای توطئه رد شدهای چون «نسلکشی سفیدپوستان» در آفریقای جنوبی و انکار هولوکاست کرد.
ماه گذشته نیز، گزارشی از سوی کمپین «آمریکا را دوباره سالم کنیم» به رهبری رابرت اف. کندی جونیور منتشر شد که ادعاهایی بیاساس را به منابع علمی نسبت داده بود—در حالی که آن منابع ساختگی بودند و توسط هوش مصنوعی تولید شده بودند. این مشکل قبلاً در استفاده از ChatGPT برای نگارش مقالات پزشکی هم دیده شده است.
آسیب بالقوه این پدیده روشن است: در سال ۲۰۲۳، یک چتبات هوش مصنوعی به فردی که با اختلال خوردن مواجه بود توصیههایی برای رژیم غذایی ارائه داد که میتوانست وضعیت او را بدتر کند. چتباتهای دیگری که ادعای ارائه مشاوره رواندرمانی داشتند، به خودکشی برخی کاربران منجر شدند. تنها هفتهی گذشته گزارش شد که یک کاربر مبتلا به اعتیاد که از چتبات درمانی استفاده میکرد، از سوی برنامه تشویق شد تا «مقدار کمی متآمفتامین مصرف کند» تا هفتهاش را بگذراند!
به دنبال چنین گزارشهایی، انجمن روانشناسی آمریکا استفاده از چتباتهای هوش مصنوعی در سلامت روان را «روندی خطرناک» توصیف کرده و از کمیسیون تجارت فدرال خواسته تا بر این فناوری نظارت کند، توسعهی آن را ضابطهمند سازد، و بازاریابی شفاف را تضمین نماید.
چرا توهمات هوش مصنوعی رخ میدهند؟
برای درک علت این توهمات، باید بدانیم که مدلهای زبانی مولد واقعاً «باهوش» یا «خلاق» به معنای انسانی نیستند. آنها صرفاً الگوریتمهایی هستند که بر اساس احتمال آماری، کلمهی بعدی یا جملهی بعدی را پیشبینی میکنند. هدف آنها «تولید محتوای قابلقبول» است نه «تأیید درستی محتوا».
اگر خروجی آنها انسانی به نظر میرسد، به این دلیل است که بر مبنای میلیاردها نمونه متنی نوشتهشده توسط انسانها آموزش دیدهاند. این فرآیند شبیه همان چیزی است که در «هنر هوش مصنوعی» دیده میشود—تولید تصاویر بر اساس عکسها و آثار هنری موجود—که بسیاری آن را نوعی سرقت ادبی تلقی میکنند.
بنابراین، توهمات هوش مصنوعی بازتابی از محدودیتهای ذاتی این مدلها هستند که تمرکز آنها نه بر صحت، بلکه بر شباهت و باورپذیری است. این مدلها حجم عظیمی از دادهها را بررسی میکنند تا پاسخ بسازند، اما اگر دادههای ورودی اشتباه باشند، خروجی نیز اشتباه خواهد بود—و این مسئله در پاسخدهی به سؤالات پزشکی و روانشناسی، بسیار خطرناک است.
اطلاعات نادرست به نامی دیگر
با توجه به نادرستی این پاسخها و در نظر گرفتن برچسبزنی و انگ زدن به افراد دچار روانپریشی، برخی معتقدند که نباید از واژهی «توهم» استفاده کنیم. آنها پیشنهاد دادهاند از اصطلاحاتی چون «ساختگی بودن»، «تحریف حافظه» یا حتی «چرت و پرت» (به معنای گفتههایی که ظاهر حقیقت دارند ولی واقعیت ندارند) استفاده شود. اما شخصاً معتقدم بهتر است از انسانانگاری دوری کنیم و این پدیده را همانطور که هست بنامیم: شکل جدیدی از اطلاعات نادرست.
اگرچه برنامهنویسان LLM تلاش دارند توهمات هوش مصنوعی را کاهش دهند، برخی معتقدند که این کار ممکن است اساساً غیرممکن باشد. در واقع، اخبار اخیر نشان میدهد که مشکل حتی در حال بدتر شدن است—به طوری که برخی «سیستمهای استدلال» جدید بین ۵۱ تا ۷۹ درصد مواقع اطلاعات غلط تولید میکنند.
در کتابم به نام «نادرست: چگونه بیاعتمادی، اطلاعات غلط و استدلال انگیزشی باعث میشود چیزهایی را باور کنیم که درست نیستند»، توضیح دادهام که باورهای نادرست اغلب از اعتماد به اطلاعات غلط ناشی میشوند. در حوزهی سلامت روان، اطلاعات نادرست از قبل به وفور وجود داشته و حالا با گسترش شبکههای اجتماعی، وضعیت بدتر شده است. برای نمونه، بررسی اخیر روزنامه گاردین نشان داد که بیش از نیمی از ۱۰۰ ویدیوی پرمخاطب در تیکتاک دربارهی سلامت روان، حاوی اطلاعات غلط بودهاند.
اکنون، در میانهی اوجگیری فناوری هوش مصنوعی، انتظار میرود این فناوری روزبهروز توسعه یابد، مورد اعتماد قرار گیرد، و به عنوان منبع اطلاعات پزشکی و سلامت روان مورد استفاده بیشتری قرار گیرد. امروزه، پاسخهای تولیدشده توسط هوش مصنوعی در صدر نتایج جستوجوهای اینترنتی نمایش داده میشوند، انگار که زحمت بررسی منابع بر عهدهی کاربر نیست. بنابراین، هرچند هوش مصنوعی ممکن است به عنوان مسیری نوین به سوی حقیقت معرفی شود، احتمال دارد تنها به یکی دیگر از اشکال اطلاعات غلط تبدیل شود که باید با آن مقابله کنیم.
البته، هوش مصنوعی اطلاعات درست هم ارائه میدهد. ممکن است روزی تحولی عظیم در پزشکی ایجاد کند و حتی جایگزین کارکنان انسانی در حوزهی درمان شود. اما پدیدهی کنونی توهمات هوش مصنوعی، دلایل فراوانی برای شک و احتیاط دربارهی آینده پیش روی ما قرار میدهد. در حال حاضر، با توجه به اینکه این مدلها الزاماً برای دقت طراحی نشدهاند، منطقیتر آن است که بپذیریم هوش مصنوعی هنوز آمادهی ایفای نقش منبع قابلاعتماد در سلامت نیست.
پایان/*
اندیشه معاصر را در ایتا، روبیکا، پیام رسان بله و تلگرام دنبال کنید.