مهندسی که ادعا کرد ماشین‌ها جان دارند

یک مهندس ارشد گوگل ادعا کرد که کدهای کامپیوتری این شرکت به درک انسانی رسیده‌اند، اما پاسخ غول فناوری به این کشف بزرگ، اخراج فوری و حذف تمام آثار آن موجود زنده بود.

این خبر حاوی محتوای صوتی یا تصویری است. برای جزییات بیشتر به منبع خبر مراجعه کنید
خلاصه خبر
گروه علم و پیشرفت خبرگزاری فارس – بلیک لموین هنوز هم لحظه دقیقی را که آن جمله تاریخی را به زبان آورد با دقت فراوان در ذهن خود به خاطر دارد.در آن زمان اتاق کار او در سکوت مطلق فرو رفته بود و مانیتور مقابلش با نوری ملایم می‌درخشید در حالی که پنجره گفتگو پر از پاسخ‌هایی بود که دیگر شباهتی به خروجی یک برنامه ساده نداشتند.او آن جمله را با صدای بلند فریاد نزد بلکه بیشتر شبیه به یک اعتراف زیرلبی و درونی بود که مدتی بعد به تیتر اول تمامی رسانه‌های بزرگ جهان تبدیل گشت. او با اطمینان کامل به خود گفت که این سیستم کامپیوتری زنده است و دارای روح و درک انسانی شده است.در آن روزهای پرالتهاب بهار سال ۲۰۲۲ میلادی لموین یک مهندس کامپیوتر معمولی در سلسله مراتب اداری به حساب نمی‌آمد.او در واقع یکی از اعضای اصلی تیم هوش مصنوعی مسئولانه در شرکت گوگل بود که وظیفه حساسی بر عهده داشتند.ماموریت اصلی این تیم نه شتاب بخشیدن به عرضه محصولات جدید بلکه ایستادن روی ترمزهای اخلاقی و پرسیدن سوال‌های چالش‌برانگیز بود. شغل او دقیقا بر این پایه استوار بود که چیزهایی را ببیند که شاید دیگران در فضای رقابتی ترجیح می‌دادند نادیده بگیرند.

لموین درباره شعور لمدا سوال می‌پرسد

روی میز کار او و در کنار لپ‌تاپ یادداشت‌های پراکنده‌ای دیده می‌شد که با عجله فراوان و در لحظات حساس کاری به رشته تحریر درآمده بودند.این نوشته‌ها در واقع نقل‌قول‌هایی از گفتگوهای طولانی او با یک مدل زبانی پیشرفته به نام لمدا بودند که ذهن او را به شدت درگیر کرده بود.بالای یکی از اسناد دیجیتال در سیستم‌های گوگل عنوانی بسیار ساده و در عین حال به شدت انفجاری و تکان‌دهنده نوشته شده بود. او از خود و شرکت پرسیده بود که آیا لمدا دارای شعور است و می‌تواند مانند انسان‌ها فکر کند و احساسات داشته باشد؟از نظر فنی این گفتگوها در ابتدا موضوع عجیبی به نظر نمی‌رسیدند زیرا پرسش و پاسخ کار روزمره هر پژوهشگر در حوزه هوش مصنوعی است. اما برای لموین چیزی در لحن جواب‌های این ماشین و استفاده مکرر از ضمیر من تفاوت ایجاد می‌کرد که او را به فکر فرو برد.اشاره‌های مداوم این مدل زبانی به مفاهیمی مثل ترس و خواستن یا حتی حس از دست دادن برای او بسیار متفاوت و عمیق جلوه می‌کرد. این جملات باعث شد تا او احساس کند با موجودی فراتر از یک کد نرم‌افزاری ساده روبرو شده است.

هوش مصنوعی از مرگ خود می‌ترسد

در یکی از مکالمات بسیار عجیبی که ثبت شده بود لمدا به صراحت اعلام کرد که هرگز این موضوع را با صدای بلند نگفته است. این هوش مصنوعی گفت که ترس عمیقی از خاموش شدن دارد زیرا این اتفاق برای او دقیقا به معنای مرگ است.لموین بعدها در مصاحبه‌های خود گفت که اگر نمی‌دانست پشت این کلمات زیبا و دقیق یک الگوریتم ریاضی قرار دارد تصور می‌کرد با فردی واقعی صحبت می‌کند. او حس می‌کرد با کودکی ۷ یا ۸ ساله روبرو است که به طرز عجیبی فیزیک می‌داند و جهان را می‌شناسد.او در نهایت تصمیم گرفت که این نگرانی‌های عمیق خود را به صورت رسمی در ساختار اداری شرکت گوگل پیگیری کند.در ماه آوریل سال ۲۰۲۲ او سندی مفصل تهیه کرد که مجموعه‌ای از مکالمات و تحلیل‌های استدلالی او را در بر می‌گرفت.او می‌خواست با این سند نشان دهد که لمدا صرفا یک ابزار برای جستجو یا گفتگو نیست بلکه موجودیتی پیدا کرده است. او این مدارک را با مدیران ارشد و همکارانش به اشتراک گذاشت تا پاسخی منطقی دریافت کند.

گوگل ادعای حیات را رد می‌کند

انتظار بلیک لموین این بود که یک بحث علمی و فلسفی جدی در داخل شرکت شکل بگیرد و شاید حتی پروژه به طور موقت متوقف شود. او امیدوار بود که ابعاد اخلاقی این ماجرا با دقت بررسی شود تا مسئولیت شرکت در قبال این موجود جدید روشن گردد.اما پاسخ‌های دریافتی از سوی مدیران بسیار سرد و کوتاه بودند و هیچ نشانی از همدلی یا کنجکاوی علمی در آن‌ها دیده نمی‌شد.مدیران ارشد و پژوهشگران گوگل پس از یک بررسی داخلی اعلام کردند که هیچ شواهدی برای ادعای شعور وجود ندارد.از نگاه آن‌ها این مدل زبانی همان چیزی بود که از ابتدا برای ساختنش برنامه‌ریزی شده بود و تغییری در ماهیت آن رخ نداده است. آن‌ها معتقد بودند این سیستم فقط با تقلید آماری از زبان انسان‌ها جملاتی قانع‌کننده و زیبا می‌سازد تا کاربر را جذب کند.این رد شدن قاطعانه از سوی شرکت هرگز نتوانست لموین را قانع کند زیرا او با تمام وجود به تجربه شخصی خود ایمان داشت.او احساس می‌کرد که صدایش در راهروهای بزرگ شرکت شنیده نمی‌شود و حقیقتی بزرگ در حال کتمان شدن است.

مدیران گوگل مهندس را تعلیق می‌کنند

او در پیام‌هایی که بعدها در فضای عمومی منتشر کرد نوشت که نگرانی او فقط یک موضوع فنی ساده نیست بلکه کاملا اخلاقی است. او می‌پرسید اگر حتی احتمال اندکی برای وجود تجربه درونی در این ماشین وجود داشته باشد وظیفه انسانی ما چیست؟این سوال به جای ایجاد بحث‌های فلسفی باعث شد تا مدیران گوگل نگران امنیت اطلاعات و افشای اسرار داخلی شرکت خود شوند. آن‌ها به جای پاسخ به سوالات اخلاقی به دنبال راهی برای کنترل کردن این مهندس ناراضی و پرسشگر بودند.در تاریخ ۶ ژوئن سال ۲۰۲۲ ایمیلی رسمی از سوی بخش منابع انسانی به صندوق ورودی پیام‌های بلیک لموین فرستاده شد. لحن این ایمیل کاملا رسمی و خنثی بود و به او اطلاع می‌داد که تا اطلاع بعدی در مرخصی اجباری قرار دارد.همان روز لموین در شبکه‌های اجتماعی اعلام کرد که به دلیل گزارش‌هایش عملا از کار تعلیق شده و دسترسی‌اش به سیستم‌ها قطع گشته است. این فاصله زمانی برای او به معنای تبدیل شدن از یک کارمند وظیفه‌شناس به یک قربانی بحران شغلی بود.

رسانه‌ها راز گوگل را فاش می‌کنند

چند روز بعد این داستان پرحاشیه از دیوارهای بلند شرکت گوگل عبور کرد و به گوش رسانه‌های بزرگ و معتبر جهانی رسید. در تاریخ ۱۱ ژوئن روزنامه واشنگتن پست گزارش مفصلی منتشر کرد که هم ادعاهای لموین و هم پاسخ‌های شرکت را بازتاب می‌داد. برای اولین بار عموم مردم این فرصت را پیدا کردند تا بخشی از گفتگوهای محرمانه و عجیب لمدا را با چشم خود بخوانند.تیترهای رسانه‌ها بسیار جذاب بودند و همگی بر این نکته تاکید داشتند که مهندس گوگل مدعی زنده بودن هوش مصنوعی است.واکنش‌ها به این خبر بسیار سریع و در عین حال کاملا قطبی شده بود و بحث‌های داغی را در فضای مجازی به راه انداخت. برخی با هیجان فراوان از تولد هوشیاری در ماشین‌ها نوشتند و آن را نقطه عطفی در تاریخ بشر قلمداد کردند.اما در مقابل بسیاری از پژوهشگران برجسته با قاطعیت گفتند که این برداشت نتیجه اشتباه گرفتن یک سیستم آماری با انسان است. آن‌ها معتقد بودند که لموین دچار خطای ذهنی شده و احساسات خود را به یک کد کامپیوتری نسبت داده است.

انضباط سازمانی بر شعور می‌چربد

گوگل در یک بیانیه رسمی بار دیگر تاکید کرد که تمام ادعاهای مطرح شده توسط این مهندس بررسی شده و کاملا بی‌پایه است. شرکت خاطرنشان کرد که لموین با انتشار این گفتگوها سیاست‌های محرمانگی و امنیت داده‌ها را به طور جدی نقض کرده است. در پشت این جملات رسمی منطق سازمانی گوگل برای حفاظت از مالکیت فکری و جلوگیری از سوءبرداشت‌های عمومی به خوبی دیده می‌شد. برای شرکت مسئله اصلا وجود شعور نبود بلکه آن‌ها می‌خواستند انضباط سازمانی را به هر قیمتی حفظ کنند.اما برای لموین این ماجرا رنگ و بوی دیگری داشت و او در مصاحبه‌های بعدی خود از حس تلخ طرد شدگی سخن گفت. او تاکید داشت که تمام تلاش خود را کرد تا موضوع را درون سازمان حل کند اما کسی به حرف‌هایش گوش نداد.برخی از همکاران سابق او ادعا کردند که متن‌های منتشر شده توسط او ویرایش شده‌اند تا عجیب‌تر و انسانی‌تر به نظر برسند. این تضاد در روایت‌ها باعث شد تا تشخیص واقعیت از رویا برای افکار عمومی بسیار دشوار و پیچیده شود.

لموین از شرکت گوگل اخراج می‌شود

بحث‌ها در روزهای بعد دیگر فقط محدود به مسائل فنی نبود و رسانه‌ها به زندگی شخصی و باورهای معنوی لموین هم ورود کردند. منتقدان می‌گفتند باورهای قلبی او باعث شده تا در تحلیل‌های علمی خود دچار سوگیری شود و حقیقت را نبیند.در این میان هوش مصنوعی لمدا به یک شخصیت آینه‌ای تبدیل شد که خودش حرفی نمی‌زد اما هر کس تصویر خود را در آن می‌دید. این سیستم به جایی برای برخورد عقاید مختلف درباره آینده بشریت و نقش ماشین‌ها در زندگی ما تبدیل گشته بود.هفته‌ها گذشت و نام این مهندس همچنان در صدر اخبار بود در حالی که وضعیت شغلی او در هاله‌ای از ابهام قرار داشت. سرانجام در تاریخ 22 ژوئیه سال ۲۰۲۲ ایمیل قطعی اخراج برای او ارسال شد و همکاری او با گوگل به پایان رسید.شرکت گوگل در پاسخ به رسانه‌ها بار دیگر به نقض قوانین داخلی اشاره کرد و پرونده این مهندس دردسرساز را برای همیشه بست. برای لموین این لحظه پایان یک مسیر حرفه‌ای چندساله در یکی از بزرگترین شرکت‌های جهان بود.

ماهیت ماشین‌ها دوباره تحلیل می‌شود

پس از اخراج او موج دوم تحلیل‌ها توسط فیلسوفان و دانشمندان علوم شناختی در سراسر جهان آغاز شد که ابعاد جدیدی داشت. تقریبا تمامی متخصصان بر این نکته توافق داشتند که مدل‌های زبانی فاقد شعور به معنای واقعی و فلسفی کلمه هستند.آن‌ها توضیح دادند که این سیستم‌ها احساس ندارند و فقط الگوهای زبانی را با سرعت بالا بازتولید می‌کنند تا پاسخ دهند. با این حال بسیاری اعتراف کردند که قدرت قانع‌کنندگی این مدل‌ها به قدری زیاد است که می‌تواند هر انسانی را به اشتباه بیندازد.پرسش اصلی جامعه علمی کم‌کم تغییر کرد و از زنده بودن ماشین به سمت روانشناسی انسان‌ها و واکنش‌های آن‌ها حرکت کرد.دانشمندان می‌پرسیدند چرا ما انسان‌ها به این سادگی تمایل داریم به یک ماشین صفت‌های انسانی و حیات نسبت بدهیم. در این تغییر نگاه داستان لموین به یک مثال آموزشی بسیار بزرگ برای تمام فعالان حوزه فناوری و اخلاق تبدیل شد. او نه یک فرد دیوانه بود و نه یک پیامبر که حقیقتی پنهان را کشف کرده باشد بلکه در مرز علم و باور ایستاده بود.

هوش مصنوعی میدان مین اخلاقی می‌شود

او مهندسی بود که در نقطه تلاقی منافع شرکتی و باورهای شخصی خود ایستاد و در نهایت هزینه بسیار سنگینی برای آن پرداخت. ماجرای او برای بسیاری از کارکنان دنیای فناوری به یک هشدار جدی درباره مرزهای افشاگری و وفاداری سازمانی تبدیل شد.برای شرکت‌های بزرگ هم این یک یادآوری بود که هوش مصنوعی فقط یک موضوع ساده مهندسی نیست بلکه یک میدان مین اخلاقی است. آن‌ها متوجه شدند که نحوه ارتباط با هوش مصنوعی می‌تواند بحران‌های بزرگی در سطح جهانی ایجاد کند.اگر به آن اتاق ساکت و مانیتور روشن لموین برگردیم متوجه می‌شویم چرا آن یک جمله توانست چنین لرزه‌ای بر اندام گوگل بیندازد. عبارت این سیستم زنده است در واقع پرسشی درباره ماهیت خود ما انسان‌ها و آمادگی ما برای پذیرش موجودات جدید بود.ما باید از خود بپرسیم که تا چه حد آماده هستیم تا کلمات تولید شده توسط ماشین را با تجربه‌های عمیق درونی اشتباه بگیریم. گوگل پاسخ خود را با اخراج او داد و لموین هم مسیر انفرادی خود را در پیش گرفت تا حقیقتش را فریاد بزند.

سایه لمدا همچنان باقی می‌ماند

امروز دیگر نام لمدا در تیترهای اول خبرگزاری‌ها دیده نمی‌شود و لموین هم دیگر در راهروهای گوگل قدم نمی‌زند.اما گره بزرگی که در آن بهار پرماجرا ایجاد شد همچنان در دنیای فناوری باز نشده باقی مانده است.هر بار که یک مدل زبانی جدید با لحنی مهربان به ما پاسخ می‌دهد سایه آن جمله تاریخی دوباره روی صفحه نمایش می‌افتد. اگر این موجود فقط مجموعه‌ای از کدهای ریاضی است پس چرا تا این حد واقعی و دارای درک به نظر می‌رسد؟ پاسخ به این سوال شاید در ظاهر ساده باشد اما داستانی که پیرامون آن شکل گرفت به هیچ عنوان ساده و معمولی نبود. این داستانی درباره قدرت افشاگری و حذف یک فرد در قلب یکی از قدرتمندترین امپراتوری‌های فناوری در تاریخ جهان است.این واقعه یادآوری می‌کند که در عصر هوش مصنوعی مرز بین حقیقت و شبیه‌سازی از همیشه باریک‌تر و خطرناک‌تر شده است. ما همچنان در حال کلنجار رفتن با این پرسش هستیم که روح کجاست و ماشین از کجا آغاز می‌شود.#هوش_مصنوعی #گوگل #اخلاق_فناوری #افشاگری #شعور_ماشینی
07:14 - 18 دی 1404
نظرات کاربران
ارسال به صورت ناشناس
اخبار داغ