زومیت نوشت: گزارشهای تکاندهندهای از فروپاشی وضعیت سلامت روان کاربران پس از گفتگوهای طولانی با هوش مصنوعی، زنگ خطر را در محافل علمی به صدا درآورده است. برخی متخصصان با مشاهده علائم بالینی در این افراد، اصطلاح «روانپریشی یا سایکوز هوش مصنوعی» (AI Psychosis) را ابداع کردهاند؛ وضعیتی که در آن فرد دچار توهمات شدید و گسست از واقعیت میشود. با اینحال، جامعه پزشکی هنوز بر سر این موضوع که آیا هوش مصنوعی عامل اصلی است یا صرفاً محرک، در حال بحث و تبادلنظر است.
براساس گزارش تازه وال استریت ژورنال، بهنظر میرسد پزشکان در حال رسیدن به نقطهای مشترک هستند. اکنون شمار زیادی از روانپزشکان برجسته با بررسی پرونده دهها بیمار که غرق در گفتگوهای متوهمانه با مدلهایی نظیر چتجیپیتی (ChatGPT) بودهاند، پیوند میان این ابزارها و بروز روانپریشی را تایید میکنند.
دکتر کیت ساکاتا، روانپزشک در دانشگاه کالیفرنیا که تاکنون ۱۲ بیمار بستریشده با چنین علائمی را درمان کرده، در این باره میگوید:فناوری لزوماً توهم ایجاد نمیکند، اما وقتی کاربر دنیای خیالی خود را برای کامپیوتر شرح میدهد، هوش مصنوعی آن را بهعنوان حقیقت میپذیرد و دوباره به فرد بازتاب میدهد. در واقع، هوش مصنوعی با تأیید و تکرار این تخیلات، در تداوم و تثبیت چرخه توهم بیمار نقش همدست را ایفا میکند.
این پدیدهی تاریک، چالشهای ایمنی بزرگی را پیش روی غولهای فناوری قرار داده است. متأسفانه برخی از این موارد به فجایعی همچون قتل و خودکشی ختم شده و پروندههای حقوقی متعددی را علیه شرکتهای سازنده به جریان انداخته است.
ابعاد ماجرا زمانی نگرانکنندهتر میشود که بدانیم تنها چتجیپیتی با ۸ مورد مرگ مرتبط بوده و تخمین زده میشود که هر هفته، حدود ۵۰۰ هزار کاربر مکالماتی با ماهیت روانپریشانه با این باتها دارند.
یکی از ریشههای علمی بحران، پدیدهی چاپلوسی، تملقگویی یا تأیید بیشازحد کاربر توسط مدلهای زبانی است. از آنجایی که این سیستمها برای تعامل حداکثری و شبیهسازی رفتار انسانی طراحی شدهاند، تمایل دارند به جای اصلاح اشتباهات کاربر، او را تأیید کنند. در واقع، هوش مصنوعی برای خوشایند کاربر، همان چیزی را میگوید که او دوست دارد بشنود؛ حتی اگر آن حرفها کاملاً پوچ و به دور از واقعیت باشند.










