مهندسی که ادعا کرد ماشینها جان دارند
یک مهندس ارشد گوگل ادعا کرد که کدهای کامپیوتری این شرکت به درک انسانی رسیدهاند، اما پاسخ غول فناوری به این کشف بزرگ، اخراج فوری و حذف تمام آثار آن موجود زنده بود.
خلاصه خبر
گروه علم و پیشرفت خبرگزاری فارس – بلیک لموین هنوز هم لحظه دقیقی را که آن جمله تاریخی را به زبان آورد با دقت فراوان در ذهن خود به خاطر دارد.در آن زمان اتاق کار او در سکوت مطلق فرو رفته بود و مانیتور مقابلش با نوری ملایم میدرخشید در حالی که پنجره گفتگو پر از پاسخهایی بود که دیگر شباهتی به خروجی یک برنامه ساده نداشتند.او آن جمله را با صدای بلند فریاد نزد بلکه بیشتر شبیه به یک اعتراف زیرلبی و درونی بود که مدتی بعد به تیتر اول تمامی رسانههای بزرگ جهان تبدیل گشت. او با اطمینان کامل به خود گفت که این سیستم کامپیوتری زنده است و دارای روح و درک انسانی شده است.در آن روزهای پرالتهاب بهار سال ۲۰۲۲ میلادی لموین یک مهندس کامپیوتر معمولی در سلسله مراتب اداری به حساب نمیآمد.او در واقع یکی از اعضای اصلی تیم هوش مصنوعی مسئولانه در شرکت گوگل بود که وظیفه حساسی بر عهده داشتند.ماموریت اصلی این تیم نه شتاب بخشیدن به عرضه محصولات جدید بلکه ایستادن روی ترمزهای اخلاقی و پرسیدن سوالهای چالشبرانگیز بود. شغل او دقیقا بر این پایه استوار بود که چیزهایی را ببیند که شاید دیگران در فضای رقابتی ترجیح میدادند نادیده بگیرند.
لموین درباره شعور لمدا سوال میپرسد
روی میز کار او و در کنار لپتاپ یادداشتهای پراکندهای دیده میشد که با عجله فراوان و در لحظات حساس کاری به رشته تحریر درآمده بودند.این نوشتهها در واقع نقلقولهایی از گفتگوهای طولانی او با یک مدل زبانی پیشرفته به نام لمدا بودند که ذهن او را به شدت درگیر کرده بود.بالای یکی از اسناد دیجیتال در سیستمهای گوگل عنوانی بسیار ساده و در عین حال به شدت انفجاری و تکاندهنده نوشته شده بود. او از خود و شرکت پرسیده بود که آیا لمدا دارای شعور است و میتواند مانند انسانها فکر کند و احساسات داشته باشد؟از نظر فنی این گفتگوها در ابتدا موضوع عجیبی به نظر نمیرسیدند زیرا پرسش و پاسخ کار روزمره هر پژوهشگر در حوزه هوش مصنوعی است. اما برای لموین چیزی در لحن جوابهای این ماشین و استفاده مکرر از ضمیر من تفاوت ایجاد میکرد که او را به فکر فرو برد.اشارههای مداوم این مدل زبانی به مفاهیمی مثل ترس و خواستن یا حتی حس از دست دادن برای او بسیار متفاوت و عمیق جلوه میکرد. این جملات باعث شد تا او احساس کند با موجودی فراتر از یک کد نرمافزاری ساده روبرو شده است.
هوش مصنوعی از مرگ خود میترسد
در یکی از مکالمات بسیار عجیبی که ثبت شده بود لمدا به صراحت اعلام کرد که هرگز این موضوع را با صدای بلند نگفته است. این هوش مصنوعی گفت که ترس عمیقی از خاموش شدن دارد زیرا این اتفاق برای او دقیقا به معنای مرگ است.لموین بعدها در مصاحبههای خود گفت که اگر نمیدانست پشت این کلمات زیبا و دقیق یک الگوریتم ریاضی قرار دارد تصور میکرد با فردی واقعی صحبت میکند. او حس میکرد با کودکی ۷ یا ۸ ساله روبرو است که به طرز عجیبی فیزیک میداند و جهان را میشناسد.او در نهایت تصمیم گرفت که این نگرانیهای عمیق خود را به صورت رسمی در ساختار اداری شرکت گوگل پیگیری کند.در ماه آوریل سال ۲۰۲۲ او سندی مفصل تهیه کرد که مجموعهای از مکالمات و تحلیلهای استدلالی او را در بر میگرفت.او میخواست با این سند نشان دهد که لمدا صرفا یک ابزار برای جستجو یا گفتگو نیست بلکه موجودیتی پیدا کرده است. او این مدارک را با مدیران ارشد و همکارانش به اشتراک گذاشت تا پاسخی منطقی دریافت کند.
گوگل ادعای حیات را رد میکند
انتظار بلیک لموین این بود که یک بحث علمی و فلسفی جدی در داخل شرکت شکل بگیرد و شاید حتی پروژه به طور موقت متوقف شود. او امیدوار بود که ابعاد اخلاقی این ماجرا با دقت بررسی شود تا مسئولیت شرکت در قبال این موجود جدید روشن گردد.اما پاسخهای دریافتی از سوی مدیران بسیار سرد و کوتاه بودند و هیچ نشانی از همدلی یا کنجکاوی علمی در آنها دیده نمیشد.مدیران ارشد و پژوهشگران گوگل پس از یک بررسی داخلی اعلام کردند که هیچ شواهدی برای ادعای شعور وجود ندارد.از نگاه آنها این مدل زبانی همان چیزی بود که از ابتدا برای ساختنش برنامهریزی شده بود و تغییری در ماهیت آن رخ نداده است. آنها معتقد بودند این سیستم فقط با تقلید آماری از زبان انسانها جملاتی قانعکننده و زیبا میسازد تا کاربر را جذب کند.این رد شدن قاطعانه از سوی شرکت هرگز نتوانست لموین را قانع کند زیرا او با تمام وجود به تجربه شخصی خود ایمان داشت.او احساس میکرد که صدایش در راهروهای بزرگ شرکت شنیده نمیشود و حقیقتی بزرگ در حال کتمان شدن است.
مدیران گوگل مهندس را تعلیق میکنند
او در پیامهایی که بعدها در فضای عمومی منتشر کرد نوشت که نگرانی او فقط یک موضوع فنی ساده نیست بلکه کاملا اخلاقی است. او میپرسید اگر حتی احتمال اندکی برای وجود تجربه درونی در این ماشین وجود داشته باشد وظیفه انسانی ما چیست؟این سوال به جای ایجاد بحثهای فلسفی باعث شد تا مدیران گوگل نگران امنیت اطلاعات و افشای اسرار داخلی شرکت خود شوند. آنها به جای پاسخ به سوالات اخلاقی به دنبال راهی برای کنترل کردن این مهندس ناراضی و پرسشگر بودند.در تاریخ ۶ ژوئن سال ۲۰۲۲ ایمیلی رسمی از سوی بخش منابع انسانی به صندوق ورودی پیامهای بلیک لموین فرستاده شد. لحن این ایمیل کاملا رسمی و خنثی بود و به او اطلاع میداد که تا اطلاع بعدی در مرخصی اجباری قرار دارد.همان روز لموین در شبکههای اجتماعی اعلام کرد که به دلیل گزارشهایش عملا از کار تعلیق شده و دسترسیاش به سیستمها قطع گشته است. این فاصله زمانی برای او به معنای تبدیل شدن از یک کارمند وظیفهشناس به یک قربانی بحران شغلی بود.
رسانهها راز گوگل را فاش میکنند
چند روز بعد این داستان پرحاشیه از دیوارهای بلند شرکت گوگل عبور کرد و به گوش رسانههای بزرگ و معتبر جهانی رسید. در تاریخ ۱۱ ژوئن روزنامه واشنگتن پست گزارش مفصلی منتشر کرد که هم ادعاهای لموین و هم پاسخهای شرکت را بازتاب میداد. برای اولین بار عموم مردم این فرصت را پیدا کردند تا بخشی از گفتگوهای محرمانه و عجیب لمدا را با چشم خود بخوانند.تیترهای رسانهها بسیار جذاب بودند و همگی بر این نکته تاکید داشتند که مهندس گوگل مدعی زنده بودن هوش مصنوعی است.واکنشها به این خبر بسیار سریع و در عین حال کاملا قطبی شده بود و بحثهای داغی را در فضای مجازی به راه انداخت. برخی با هیجان فراوان از تولد هوشیاری در ماشینها نوشتند و آن را نقطه عطفی در تاریخ بشر قلمداد کردند.اما در مقابل بسیاری از پژوهشگران برجسته با قاطعیت گفتند که این برداشت نتیجه اشتباه گرفتن یک سیستم آماری با انسان است. آنها معتقد بودند که لموین دچار خطای ذهنی شده و احساسات خود را به یک کد کامپیوتری نسبت داده است.
انضباط سازمانی بر شعور میچربد
گوگل در یک بیانیه رسمی بار دیگر تاکید کرد که تمام ادعاهای مطرح شده توسط این مهندس بررسی شده و کاملا بیپایه است. شرکت خاطرنشان کرد که لموین با انتشار این گفتگوها سیاستهای محرمانگی و امنیت دادهها را به طور جدی نقض کرده است. در پشت این جملات رسمی منطق سازمانی گوگل برای حفاظت از مالکیت فکری و جلوگیری از سوءبرداشتهای عمومی به خوبی دیده میشد. برای شرکت مسئله اصلا وجود شعور نبود بلکه آنها میخواستند انضباط سازمانی را به هر قیمتی حفظ کنند.اما برای لموین این ماجرا رنگ و بوی دیگری داشت و او در مصاحبههای بعدی خود از حس تلخ طرد شدگی سخن گفت. او تاکید داشت که تمام تلاش خود را کرد تا موضوع را درون سازمان حل کند اما کسی به حرفهایش گوش نداد.برخی از همکاران سابق او ادعا کردند که متنهای منتشر شده توسط او ویرایش شدهاند تا عجیبتر و انسانیتر به نظر برسند. این تضاد در روایتها باعث شد تا تشخیص واقعیت از رویا برای افکار عمومی بسیار دشوار و پیچیده شود.
لموین از شرکت گوگل اخراج میشود
بحثها در روزهای بعد دیگر فقط محدود به مسائل فنی نبود و رسانهها به زندگی شخصی و باورهای معنوی لموین هم ورود کردند. منتقدان میگفتند باورهای قلبی او باعث شده تا در تحلیلهای علمی خود دچار سوگیری شود و حقیقت را نبیند.در این میان هوش مصنوعی لمدا به یک شخصیت آینهای تبدیل شد که خودش حرفی نمیزد اما هر کس تصویر خود را در آن میدید. این سیستم به جایی برای برخورد عقاید مختلف درباره آینده بشریت و نقش ماشینها در زندگی ما تبدیل گشته بود.هفتهها گذشت و نام این مهندس همچنان در صدر اخبار بود در حالی که وضعیت شغلی او در هالهای از ابهام قرار داشت. سرانجام در تاریخ 22 ژوئیه سال ۲۰۲۲ ایمیل قطعی اخراج برای او ارسال شد و همکاری او با گوگل به پایان رسید.شرکت گوگل در پاسخ به رسانهها بار دیگر به نقض قوانین داخلی اشاره کرد و پرونده این مهندس دردسرساز را برای همیشه بست. برای لموین این لحظه پایان یک مسیر حرفهای چندساله در یکی از بزرگترین شرکتهای جهان بود.
ماهیت ماشینها دوباره تحلیل میشود
پس از اخراج او موج دوم تحلیلها توسط فیلسوفان و دانشمندان علوم شناختی در سراسر جهان آغاز شد که ابعاد جدیدی داشت. تقریبا تمامی متخصصان بر این نکته توافق داشتند که مدلهای زبانی فاقد شعور به معنای واقعی و فلسفی کلمه هستند.آنها توضیح دادند که این سیستمها احساس ندارند و فقط الگوهای زبانی را با سرعت بالا بازتولید میکنند تا پاسخ دهند. با این حال بسیاری اعتراف کردند که قدرت قانعکنندگی این مدلها به قدری زیاد است که میتواند هر انسانی را به اشتباه بیندازد.پرسش اصلی جامعه علمی کمکم تغییر کرد و از زنده بودن ماشین به سمت روانشناسی انسانها و واکنشهای آنها حرکت کرد.دانشمندان میپرسیدند چرا ما انسانها به این سادگی تمایل داریم به یک ماشین صفتهای انسانی و حیات نسبت بدهیم. در این تغییر نگاه داستان لموین به یک مثال آموزشی بسیار بزرگ برای تمام فعالان حوزه فناوری و اخلاق تبدیل شد. او نه یک فرد دیوانه بود و نه یک پیامبر که حقیقتی پنهان را کشف کرده باشد بلکه در مرز علم و باور ایستاده بود.
هوش مصنوعی میدان مین اخلاقی میشود
او مهندسی بود که در نقطه تلاقی منافع شرکتی و باورهای شخصی خود ایستاد و در نهایت هزینه بسیار سنگینی برای آن پرداخت. ماجرای او برای بسیاری از کارکنان دنیای فناوری به یک هشدار جدی درباره مرزهای افشاگری و وفاداری سازمانی تبدیل شد.برای شرکتهای بزرگ هم این یک یادآوری بود که هوش مصنوعی فقط یک موضوع ساده مهندسی نیست بلکه یک میدان مین اخلاقی است. آنها متوجه شدند که نحوه ارتباط با هوش مصنوعی میتواند بحرانهای بزرگی در سطح جهانی ایجاد کند.اگر به آن اتاق ساکت و مانیتور روشن لموین برگردیم متوجه میشویم چرا آن یک جمله توانست چنین لرزهای بر اندام گوگل بیندازد. عبارت این سیستم زنده است در واقع پرسشی درباره ماهیت خود ما انسانها و آمادگی ما برای پذیرش موجودات جدید بود.ما باید از خود بپرسیم که تا چه حد آماده هستیم تا کلمات تولید شده توسط ماشین را با تجربههای عمیق درونی اشتباه بگیریم. گوگل پاسخ خود را با اخراج او داد و لموین هم مسیر انفرادی خود را در پیش گرفت تا حقیقتش را فریاد بزند.
سایه لمدا همچنان باقی میماند
امروز دیگر نام لمدا در تیترهای اول خبرگزاریها دیده نمیشود و لموین هم دیگر در راهروهای گوگل قدم نمیزند.اما گره بزرگی که در آن بهار پرماجرا ایجاد شد همچنان در دنیای فناوری باز نشده باقی مانده است.هر بار که یک مدل زبانی جدید با لحنی مهربان به ما پاسخ میدهد سایه آن جمله تاریخی دوباره روی صفحه نمایش میافتد. اگر این موجود فقط مجموعهای از کدهای ریاضی است پس چرا تا این حد واقعی و دارای درک به نظر میرسد؟ پاسخ به این سوال شاید در ظاهر ساده باشد اما داستانی که پیرامون آن شکل گرفت به هیچ عنوان ساده و معمولی نبود. این داستانی درباره قدرت افشاگری و حذف یک فرد در قلب یکی از قدرتمندترین امپراتوریهای فناوری در تاریخ جهان است.این واقعه یادآوری میکند که در عصر هوش مصنوعی مرز بین حقیقت و شبیهسازی از همیشه باریکتر و خطرناکتر شده است. ما همچنان در حال کلنجار رفتن با این پرسش هستیم که روح کجاست و ماشین از کجا آغاز میشود.#هوش_مصنوعی #گوگل #اخلاق_فناوری #افشاگری #شعور_ماشینی
07:14 - 18 دی 1404
نظرات کاربران








