یک مقاله جدید نشان داده است که ابزارهای هوش مصنوعی مانند چتجیپیتی در تشخیص تفاوت بین «باور» و «واقعیت»، مشکل دارند.
تیمی از دانشگاه استنفورد در ایالات متحده دریافته است که تمامی چتباتهای هوش مصنوعی مطرح در تشخیص مداوم اینکه یک باور چه زمانی نادرست است، شکست خوردند که این امر سبب میشود آنها به احتمال بیشتری توهم بزنند یا اطلاعات غلط منتشر کنند.
این یافتهها برای استفاده از «مدلهای زبانی بزرگ» (LLM) در حوزههایی که تعیین میان اطلاعات درست و نادرست مهم است، پیامدهایی نگرانکننده دارند.
پژوهشگران یادآور شدند: «همزمان با ورود روزافزون مدلهای زبانی به حوزههای پرمخاطره و دارای حساسیت بالا مانند قانون، پزشکی، روزنامهنگاری و علم، توانایی آنها برای تمایز میان باور و آگاهی [یا معلومات] و بین واقعیت و تخیل، ضروری میشود.»
«شکست در چنین تمایزگذاریهایی میتواند تشخیصهای پزشکی را به بیراهه ببرد، احکام قضایی را تحریف کند و اطلاعات غلط را تشدید کند.»
پژوهشگران ۲۴ مدل زبانی بزرگ، شامل کلاود، چتجیپیتی، دیپسیک و جمنای را به منظور تحلیل توانایی آنها در تشخیص میان باورها، معلومات و واقعیت، با استفاده از ۱۳ هزار سوال بررسی کردند.
تمام مدلهای آزمایششده در تشخیص باورها و اظهارات نادرست، شکست خوردند و این یک محدودیت اساسی را در توانایی پیوند دادن معلومات به حقیقت نشان میدهد.
پابلو هایا کول، یک پژوهشگر در آزمایشگاه زبانشناسی رایانهای دانشگاه مستقل مادرید که خود در این مقاله مشارکت نداشت، گفت: «این یافتهها یک ضعف ساختاری در مدلهای زبانی را آشکار میکنند، [به عبارتی] مشکلشان در اینکه [بتوانند] با قاطعیت، میان باور ذهنی و حقیقت عینی تمایز بگذارند.»
«چنین نقصی در حوزههایی که این تمایزگذاری ضروری است، مانند قانون، پزشکی، یا روزنامهنگاری، یعنی جایی که اشتباه گرفتن باور با معلومات، میتواند به خطاهای جدی در قضاوت منجر شود، پیامدهای مهمی دارد.»
یک راهحل ممکن برای این نقص بر اساس نظر دکتر کول، میتواند این باشد که مدل را [به شکلی] آموزش دهند تا در پاسخهایش محتاطتر باشد. اگرچه این کار ممکن است احتمال بروز توهمها را کاهش دهد، ممکن است در عین حال، سودمندی آنها را نیز تحت تاثیر قرار دهد.
پژوهشگران استنفورد خواستار آن شدند که شرکتهای فناوری در حال توسعه ابزارهای هوش مصنوعی مدلها را پیش از بهکارگیری آنها در حوزههای با حساسیت بالا، «هرچه سریعتر» بهبود دهند.
این یافتهها در یک مقاله با عنوان «مدلهای زبانی نمیتوانند بهطور قابلاطمینانی باور را از معلومات و واقعیت متمایز کنند» تشریح شدهاند، که دوشنبه [سوم نوامبر] در مجله «هوش ماشینی نیچر» (Nature Machine Intelligence) منتشر شد.
© The Independent








