هوش مصنوعی در تحلیل موضوع‌های حساس گاهی خیالاتی می‌شود

ابزارهای هوش مصنوعی مانند چت‌جی‌پی‌تی در تشخیص تفاوت بین «باور» و «واقعیت»، مشکل دارند

خلاصه خبر

یک مقاله جدید نشان داده است که ابزارهای هوش مصنوعی مانند چت‌جی‌پی‌تی در تشخیص تفاوت بین «باور» و «واقعیت»، مشکل دارند.

تیمی از دانشگاه استنفورد در ایالات متحده دریافته است که تمامی چت‌بات‌های هوش مصنوعی مطرح در تشخیص مداوم اینکه یک باور چه زمانی نادرست است، شکست خوردند که این امر سبب می‌شود آن‌ها به احتمال بیشتری توهم بزنند یا اطلاعات غلط منتشر کنند.

این یافته‌ها برای استفاده از «مدل‌های زبانی بزرگ» (LLM) در حوزه‌هایی که تعیین میان اطلاعات درست و نادرست مهم است، پیامدهایی نگران‌کننده‌ دارند.

پژوهشگران یادآور شدند: «هم‌زمان با ورود روزافزون مدل‌های زبانی به حوزه‌های پرمخاطره و دارای حساسیت‌ بالا مانند قانون، پزشکی، روزنامه‌نگاری و علم، توانایی آن‌ها برای تمایز میان باور و آگاهی [یا معلومات] و بین واقعیت و تخیل، ضروری می‌شود.»

«شکست در چنین تمایزگذاری‌هایی می‌تواند تشخیص‌های پزشکی را به بیراهه ببرد، احکام قضایی را تحریف کند و اطلاعات غلط را تشدید کند.»

پژوهشگران ۲۴ مدل زبانی بزرگ، شامل کلاود، چت‌جی‌پی‌تی، دیپ‌سیک و جمنای را به منظور تحلیل توانایی آن‌ها در تشخیص میان باورها، معلومات و واقعیت، با استفاده از ۱۳ هزار سوال بررسی کردند.

تمام مدل‌های آزمایش‌شده در تشخیص باورها و اظهارات نادرست، شکست خوردند و این یک محدودیت اساسی را در توانایی پیوند دادن معلومات به حقیقت نشان می‌دهد.

پابلو هایا کول، یک پژوهشگر در آزمایشگاه زبان‌شناسی رایانه‌ای دانشگاه مستقل مادرید که خود در این مقاله مشارکت نداشت، گفت: «این یافته‌ها یک ضعف ساختاری در مدل‌های زبانی را آشکار می‌کنند، [به عبارتی] مشکلشان در اینکه [بتوانند] با قاطعیت، میان باور ذهنی و حقیقت عینی تمایز بگذارند.»

«چنین نقصی در حوزه‌هایی که این تمایزگذاری ضروری است، مانند قانون، پزشکی، یا روزنامه‌نگاری، یعنی جایی که اشتباه گرفتن باور با معلومات، می‌تواند به خطاهای جدی در قضاوت منجر شود، پیامدهای مهمی دارد.»

یک راه‌حل ممکن برای این نقص بر اساس نظر دکتر کول، می‌تواند این باشد که مدل را [به شکلی] آموزش دهند تا در پاسخ‌هایش محتاط‌تر باشد. اگرچه این کار ممکن است احتمال بروز توهم‌ها را کاهش دهد، ممکن است در عین حال، سودمندی آن‌ها را نیز تحت تاثیر قرار دهد.

پژوهشگران استنفورد خواستار آن شدند که شرکت‌های فناوری در حال توسعه ابزارهای هوش مصنوعی مدل‌ها را پیش از به‌کارگیری آن‌ها در حوزه‌های با حساسیت بالا، «هرچه سریع‌تر» بهبود دهند.

این یافته‌ها در یک مقاله با عنوان «مدل‌های زبانی نمی‌توانند به‌طور قابل‌اطمینانی باور را از معلومات و واقعیت متمایز کنند» تشریح شده‌اند، که دوشنبه [سوم نوامبر] در مجله «هوش ماشینی نیچر» (Nature Machine Intelligence) منتشر شد.

© The Independent

نظرات کاربران
ارسال به صورت ناشناس
اخبار داغ