هوش مصنوعی

توهمات هوش مصنوعی در پزشکی و سلامت روان | چرا توهمات هوش مصنوعی رخ می‌ دهد؟ + آسیب‌ پذیری چت‌ بات‌ های هوش مصنوعی

در میانه‌ی اوج‌گیری فناوری هوش مصنوعی، انتظار می‌رود این فناوری روزبه‌روز توسعه یابد، مورد اعتماد قرار گیرد، و به عنوان منبع اطلاعات پزشکی و سلامت روان مورد استفاده بیشتری قرار گیرد. امروزه، پاسخ‌های تولیدشده توسط هوش مصنوعی در صدر نتایج ...

توهمات هوش مصنوعی در پزشکی و سلامت روان | چرا توهمات هوش مصنوعی رخ می‌ دهد؟ + آسیب‌ پذیری چت‌ بات‌ های هوش مصنوعی

به گزارش پایگاه خبری تحلیلی اندیشه معاصر، زهرا شیخ باقری- توهمات هوش مصنوعی، پاسخ‌های اشتباهی هستند که توسط چت‌بات‌های مبتنی بر مدل‌های زبانی بزرگ (LLM) تولید می‌شوند. این توهمات اغلب به این دلیل رخ می‌دهند که این مدل‌ها بیشتر به «قابل‌قبول بودن» پاسخ اهمیت می‌دهند تا «درست بودن» آن. در زمینه‌ی سلامت روان، این پدیده نشان می‌دهد که هوش مصنوعی هنوز آماده‌ی استفاده‌ی عمومی در این حوزه نیست.

اصطلاح «توهمات هوش مصنوعی» به پدیده‌ای اشاره دارد که در آن الگوریتم‌های هوش مصنوعی الگوها یا اشیائی را “درک” می‌کنند که در واقع وجود ندارند یا برای انسان قابل مشاهده نیستند و در نتیجه، خروجی‌هایی تولید می‌کنند که بی‌معنی یا کاملاً نادرست هستند. اگرچه این پدیده ممکن است در کامپیوترهایی که از دوربین یا میکروفون برای «دیدن» یا «شنیدن» استفاده می‌کنند نیز رخ دهد—و تا حدی شبیه به توهمات حسی در اختلالاتی چون روان‌پریشی است—اما امروزه بیشتر به پاسخ‌های اشتباهی اشاره دارد که توسط چت‌بات‌هایی چون ChatGPT یا Gemini ارائه می‌شوند.

آسیب‌پذیری چت‌بات‌های هوش مصنوعی

در سال‌های اخیر، موارد متعددی از پاسخ‌های کاملاً نادرست و بالقوه خطرناک از سوی چت‌بات‌های LLM خبرساز شده‌اند. به عنوان مثال، در سال ۲۰۲۴، هوش مصنوعی شرکت متا (به مدیریت مارک زاکربرگ) پاسخ‌های نادرستی به مسائل ساده ریاضی می‌داد. از سوی دیگر، هوش مصنوعی گوگل به کاربران توصیه‌هایی مانند خوردن سنگ یا استفاده از چسب به عنوان تاپینگ پیتزا می‌داد و حتی پیشنهاد کرده بود برای تمیز کردن ماشین لباس‌شویی از ترکیب وایتکس و سرکه استفاده شود—که در واقع گاز سمی و کشنده‌ی کلرین تولید می‌کند.

اوایل امسال، روزنامه‌ی شیکاگو سان‌تایمز به دلیل انتشار لیست ۱۵ کتاب پیشنهادی برای تابستان با استفاده از هوش مصنوعی زیر سؤال رفت، چرا که ۱۰ مورد از آن‌ها اصلاً وجود نداشتند! در همین زمان، هوش مصنوعی «گروک» متعلق به شبکه‌ی X (به مدیریت ایلان ماسک) شروع به انتشار پست‌هایی در حمایت از نظریه‌های توطئه رد شده‌ای چون «نسل‌کشی سفیدپوستان» در آفریقای جنوبی و انکار هولوکاست کرد.

ماه گذشته نیز، گزارشی از سوی کمپین «آمریکا را دوباره سالم کنیم» به رهبری رابرت اف. کندی جونیور منتشر شد که ادعاهایی بی‌اساس را به منابع علمی نسبت داده بود—در حالی که آن منابع ساختگی بودند و توسط هوش مصنوعی تولید شده بودند. این مشکل قبلاً در استفاده از ChatGPT برای نگارش مقالات پزشکی هم دیده شده است.

آسیب بالقوه این پدیده روشن است: در سال ۲۰۲۳، یک چت‌بات هوش مصنوعی به فردی که با اختلال خوردن مواجه بود توصیه‌هایی برای رژیم غذایی ارائه داد که می‌توانست وضعیت او را بدتر کند. چت‌بات‌های دیگری که ادعای ارائه مشاوره روان‌درمانی داشتند، به خودکشی برخی کاربران منجر شدند. تنها هفته‌ی گذشته گزارش شد که یک کاربر مبتلا به اعتیاد که از چت‌بات درمانی استفاده می‌کرد، از سوی برنامه تشویق شد تا «مقدار کمی مت‌آمفتامین مصرف کند» تا هفته‌اش را بگذراند!

به دنبال چنین گزارش‌هایی، انجمن روان‌شناسی آمریکا استفاده از چت‌بات‌های هوش مصنوعی در سلامت روان را «روندی خطرناک» توصیف کرده و از کمیسیون تجارت فدرال خواسته تا بر این فناوری نظارت کند، توسعه‌ی آن را ضابطه‌مند سازد، و بازاریابی شفاف را تضمین نماید.

چرا توهمات هوش مصنوعی رخ می‌دهند؟

برای درک علت این توهمات، باید بدانیم که مدل‌های زبانی مولد واقعاً «باهوش» یا «خلاق» به معنای انسانی نیستند. آن‌ها صرفاً الگوریتم‌هایی هستند که بر اساس احتمال آماری، کلمه‌ی بعدی یا جمله‌ی بعدی را پیش‌بینی می‌کنند. هدف آن‌ها «تولید محتوای قابل‌قبول» است نه «تأیید درستی محتوا».

اگر خروجی آن‌ها انسانی به نظر می‌رسد، به این دلیل است که بر مبنای میلیاردها نمونه متنی نوشته‌شده توسط انسان‌ها آموزش دیده‌اند. این فرآیند شبیه همان چیزی است که در «هنر هوش مصنوعی» دیده می‌شود—تولید تصاویر بر اساس عکس‌ها و آثار هنری موجود—که بسیاری آن را نوعی سرقت ادبی تلقی می‌کنند.

بنابراین، توهمات هوش مصنوعی بازتابی از محدودیت‌های ذاتی این مدل‌ها هستند که تمرکز آن‌ها نه بر صحت، بلکه بر شباهت و باورپذیری است. این مدل‌ها حجم عظیمی از داده‌ها را بررسی می‌کنند تا پاسخ بسازند، اما اگر داده‌های ورودی اشتباه باشند، خروجی نیز اشتباه خواهد بود—و این مسئله در پاسخ‌دهی به سؤالات پزشکی و روان‌شناسی، بسیار خطرناک است.

اطلاعات نادرست به نامی دیگر

با توجه به نادرستی این پاسخ‌ها و در نظر گرفتن برچسب‌زنی و انگ زدن به افراد دچار روان‌پریشی، برخی معتقدند که نباید از واژه‌ی «توهم» استفاده کنیم. آن‌ها پیشنهاد داده‌اند از اصطلاحاتی چون «ساختگی بودن»، «تحریف حافظه» یا حتی «چرت و پرت» (به معنای گفته‌هایی که ظاهر حقیقت دارند ولی واقعیت ندارند) استفاده شود. اما شخصاً معتقدم بهتر است از انسان‌انگاری دوری کنیم و این پدیده را همان‌طور که هست بنامیم: شکل جدیدی از اطلاعات نادرست.

اگرچه برنامه‌نویسان LLM تلاش دارند توهمات هوش مصنوعی را کاهش دهند، برخی معتقدند که این کار ممکن است اساساً غیرممکن باشد. در واقع، اخبار اخیر نشان می‌دهد که مشکل حتی در حال بدتر شدن است—به طوری که برخی «سیستم‌های استدلال» جدید بین ۵۱ تا ۷۹ درصد مواقع اطلاعات غلط تولید می‌کنند.

در کتابم به نام «نادرست: چگونه بی‌اعتمادی، اطلاعات غلط و استدلال انگیزشی باعث می‌شود چیزهایی را باور کنیم که درست نیستند»، توضیح داده‌ام که باورهای نادرست اغلب از اعتماد به اطلاعات غلط ناشی می‌شوند. در حوزه‌ی سلامت روان، اطلاعات نادرست از قبل به وفور وجود داشته و حالا با گسترش شبکه‌های اجتماعی، وضعیت بدتر شده است. برای نمونه، بررسی اخیر روزنامه گاردین نشان داد که بیش از نیمی از ۱۰۰ ویدیوی پرمخاطب در تیک‌تاک درباره‌ی سلامت روان، حاوی اطلاعات غلط بوده‌اند.

اکنون، در میانه‌ی اوج‌گیری فناوری هوش مصنوعی، انتظار می‌رود این فناوری روزبه‌روز توسعه یابد، مورد اعتماد قرار گیرد، و به عنوان منبع اطلاعات پزشکی و سلامت روان مورد استفاده بیشتری قرار گیرد. امروزه، پاسخ‌های تولیدشده توسط هوش مصنوعی در صدر نتایج جست‌وجوهای اینترنتی نمایش داده می‌شوند، انگار که زحمت بررسی منابع بر عهده‌ی کاربر نیست. بنابراین، هرچند هوش مصنوعی ممکن است به عنوان مسیری نوین به سوی حقیقت معرفی شود، احتمال دارد تنها به یکی دیگر از اشکال اطلاعات غلط تبدیل شود که باید با آن مقابله کنیم.

البته، هوش مصنوعی اطلاعات درست هم ارائه می‌دهد. ممکن است روزی تحولی عظیم در پزشکی ایجاد کند و حتی جایگزین کارکنان انسانی در حوزه‌ی درمان شود. اما پدیده‌ی کنونی توهمات هوش مصنوعی، دلایل فراوانی برای شک و احتیاط درباره‌ی آینده پیش روی ما قرار می‌دهد. در حال حاضر، با توجه به اینکه این مدل‌ها الزاماً برای دقت طراحی نشده‌اند، منطقی‌تر آن است که بپذیریم هوش مصنوعی هنوز آماده‌ی ایفای نقش منبع قابل‌اعتماد در سلامت نیست.

 

پایان/*

اندیشه معاصر را در ایتا، روبیکا، پیام رسان بله و تلگرام دنبال کنید.

 

نویسنده : زهرا شیخ باقری

مطالب مرتبط