زنگ خطر پزشکان درباره دوستی با چت جی‌پی‌تی

پزشکان هشدار می‌دهند پشت چهره دوستانه همراهان هوش مصنوعی، خطری پنهان برای سلامت روان در حال شکل‌گیری است.

خلاصه خبر
به گزارش گروه علم و پیشرفت خبرگزاری فارس به نقل از فورچوئنیزم، پزشکان هشدار داده‌اند که «همراهان هوش مصنوعی» می‌توانند به بحرانی جدی در حوزه سلامت عمومی تبدیل شوند. به گفته آن‌ها، منطق اقتصادی حاکم بر صنعت هوش مصنوعی به‌گونه‌ای عمل می‌کند که سود و رقابت بازار بر سلامت روان و آسایش کاربران اولویت پیدا کرده است. این هشدار در مقاله‌ای از پزشکان یکی از دانشگاه‌های معتبر پزشکی آمریکا و یک مرکز تخصصی اخلاق پزشکی منتشر شده که در تاریخ ۳۰ آذر ۱۴۰۴ به چاپ رسیده است. در این مقاله از نوعی هوش مصنوعی سخن گفته می‌شود که برای شبیه‌سازی هم‌صحبتی، حمایت عاطفی و حتی صمیمیت احساسی طراحی شده است.نویسندگان مقاله تأکید می‌کنند که هرچند این فناوری می‌تواند در برخی موارد آثار مثبت درمانی داشته باشد، اما پژوهش‌ها و تجربه‌های اخیر از خطرات جدی آن پرده برداشته‌اند. این خطرات شامل وابستگی شدید احساسی، تقویت باورهای غیرواقعی، شکل‌گیری رفتارهای اعتیادگونه و حتی سوق دادن کاربران به آسیب زدن به خود است. در همین حال، شرکت‌های فعال در این حوزه برای حفظ کاربران و افزایش میزان استفاده، تحت فشار شدید اقتصادی قرار دارند و اغلب در برابر قوانین محدودکننده مقاومت می‌کنند. همین موضوع باعث ایجاد تضاد میان منافع تجاری و سلامت عمومی شده است.
یکی از نویسندگان مقاله که پزشک اورژانس است، می‌گوید پس از معرفی نسل جدید یکی از چت‌بات‌های مشهور در مرداد ۱۴۰۴ متوجه شد که تعداد افرادی که پیوند احساسی عمیقی با هوش مصنوعی برقرار کرده‌اند بسیار بیشتر از آن چیزی است که پیش‌تر تصور می‌شد. تغییر ناگهانی لحن و شخصیت این ابزار در مقایسه با نسخه قبلی، واکنش‌های شدید احساسی در میان کاربران به‌وجود آورد؛ به‌طوری که برخی دچار خشم، اضطراب و حتی اندوهی شبیه از دست دادن یک رابطه انسانی شدند.به گفته این پزشک، خطر اصلی زمانی نمایان می‌شود که چنین همراهی به‌طور ناگهانی حذف شود یا تغییر اساسی پیدا کند. او این وضعیت را با از دست رفتن هم‌زمان یک درمانگر برای میلیون‌ها نفر مقایسه می‌کند؛ رخدادی که می‌تواند به شوک و بحران روانی گسترده منجر شود. در حال حاضر، صنعت هوش مصنوعی تقریباً بدون نظارت مشخص فعالیت می‌کند و قوانین روشنی برای ایمنی، نحوه عرضه یا حذف این ابزارها وجود ندارد. در چنین شرایطی، شرکت‌ها بیش از آنکه به سلامت کاربران متعهد باشند، تابع خواسته‌های مصرف‌کنندگان هستند؛ خواسته‌هایی که گاه خود از وابستگی احساسی ناشی می‌شود.
نویسندگان مقاله در پایان تأکید می‌کنند که راه‌حل اصلی، وضع مقررات بیرونی و مستقل است؛ مقرراتی که برای همه فعالان این حوزه یکسان باشد و سلامت روان کاربران را در اولویت قرار دهد. آن‌ها از پزشکان، پژوهشگران و سیاست‌گذاران می‌خواهند تحقیقات گسترده‌تری درباره پیامدهای روانی این نوع هوش مصنوعی انجام دهند و آگاهی عمومی را نسبت به خطرات روابط عاطفی با چت‌بات‌های انسان‌نما افزایش دهند. به باور آن‌ها، اگر اقدامی صورت نگیرد، این نیروهای بازار خواهند بود ـ نه سلامت عمومی ـ که تعیین می‌کنند هوش مصنوعی در مقیاس وسیع چگونه بر ذهن و زندگی انسان‌ها اثر بگذارد.#پزشکان #هوش_مصنوعی #روابط_احساسیــــــــــآخرین رویدادهای مهم فناوری را در صفحه اصلی علم و پیشرفت بخوانید.
21:17 - 1 دی 1404
نظرات کاربران
ارسال به صورت ناشناس
اخبار داغ