مشاور پنتاگون همزمان به رقیب خارجی خدمت می‌کرد

شرکت‌های مشاوره‌ای بزرگ همزمان که سیاست‌های هوش مصنوعی دولت‌ها را می‌نویسند، همان سیستم‌ها را می‌فروشند؛ این تضاد منافع اکنون امنیت ملی و اعتبار گزارش‌های رسمی را تهدید کرده است.

خلاصه خبر

مشاور پنتاگون همزمان به رقیب خارجی خدمت می‌کرد

شرکت‌های مشاوره‌ای بزرگ همزمان که سیاست‌های هوش مصنوعی دولت‌ها را می‌نویسند، همان سیستم‌ها را می‌فروشند؛ این تضاد منافع اکنون امنیت ملی و اعتبار گزارش‌های رسمی را تهدید کرده است.
گروه علم و پیشرفت خبرگزاری فارس - در سایه پیشرفت بی‌سابقه هوش مصنوعی، شرکت‌های مشاوره‌ای بزرگ مانند «مَک‌کِنزی» و «دِلویت» در نقش‌هایی فراتر از یک مشاور ساده ظاهر شده‌اند. این شرکت‌ها نه تنها توصیه‌دهنده سیاست‌های هوش مصنوعی هستند، بلکه مجری همان توصیه‌ها نیز به شمار می‌آیند. این ترکیب به ظاهر قدرتمند «مشاور + فروشنده» در چند مورد مهم به یک بحران جدی تضاد منافع تبدیل شده است.این شرکت‌ها اکنون در موقعیتی قرار گرفته‌اند که می‌توانند منافع تجاری خود را به منافع عمومی ترجیح دهند. این موضوع نگرانی‌های عمیقی را در مورد شفافیت، مشروعیت و احتمال سوءاستفاده ایجاد کرده است.

قانون‌گذاران آمریکا مک‌کنزی را به دلیل همکاری با چین به چالش کشیدند

در پاییز ۲۰۲۴، تعدادی از قانون‌گذاران جمهوری‌خواه ایالات متحده نامه‌ای بسیار تند و صریح خطاب به وزارت دادگستری و وزارت دفاع ارسال کردند. امضاکنندگان این نامه، از جمله سناتور مارکو روبیو، هشدار دادند که شرکت مک‌کنزی «بارها و بارها» قراردادهای حساسی با پنتاگون داشته است.این در حالی است که این شرکت به طور همزمان کار مشاوره‌ای قابل‌توجهی را نیز برای دولت چین انجام می‌دهد. این رابطه، از دیدگاه قانون‌گذاران، «ریسک جدی برای امنیت ملی» ایالات متحده ایجاد کرده است.نامه قانون‌گذاران به صراحت اشاره می‌کند که مک‌کنزی از سال ۲۰۰۸ بیش از ۴۷۰ میلیون دلار از پنتاگون دریافت کرده است. این پروژه‌ها شامل موارد حساسی مانند تحلیل عملکرد کارخانجات کشتی‌سازی نیروی دریایی آمریکا یا مشارکت در پروژه‌های مربوط به جنگنده اِف-۳۵ بوده‌اند.

همکاری با شرکت‌های دولتی چین، ریسک امنیتی جدی ایجاد کرد

در عین حال، شرکت مک‌کنزی همکاری‌های مشاوره‌ای مستقیمی با شرکت‌های مطرح دولتی چینی داشته است. این شرکت‌ها شامل «کوسکُو» یا «شرکت ساخت‌وساز مخابرات چین» هستند. این روابط در نامه نمایندگان کنگره به عنوان «پنهان‌کاری استراتژیک» معرفی شده است.وقتی از مک‌کنزی در مورد این ادعاها سؤال شد، سخنگوی شرکت به کمیته تحقیقات تکرار کرد: «تا آن‌جا که من اطلاع دارم، ما هرگز با حزب کمونیست چین یا حکومت مرکزی چین همکاری نکرده‌ایم.» اما طبق بررسی نمایندگان، پیوند بین مک‌کنزی و ارگان‌های حکومتی چین پیچیده‌تر از آن چیزی است که شرکت ادعا کرده است.قانون‌گذاران تأکید می‌کنند که مک‌کنزی کنترل سازمان‌هایی مانند «مک‌کنزی گلوبال اینستیتیوت» و «اِربَن چاینا اینیشیتیو» را در اختیار دارد. این نهادها در مشاوره به دولت چین مشارکت داشته‌اند.در تابستان ۲۰۲۵، مک‌کنزی ظاهراً پاسخی به این فشارها داد. گزارش فایننشال تایمز حاکی از آن است که بخش چین این شرکت از پروژه‌های «هوش مصنوعی مولد» کنار گذاشته شد.تحلیل‌گران معتقدند این تصمیم، بیشتر یک اقدام برای «مدیریت ریسک ژئوپلیتیکی» بود تا یک تغییر استراتژیک در تعهدات مک‌کنزی. اما این اتفاق، پیام واضحی داشت: در تقاطع سیاست و فناوری، منافع شرکت می‌تواند با منافع ملی تلاقی کند.

گزارش دلویت در استرالیا با مشکل «هذیان‌گویی ماشینی» مواجه شد

در حالی که شرکت مک‌کنزی به خاطر تضاد منافع در فضای امنیتی زیر ذره‌بین قرار گرفته بود، در نیم‌کره جنوبی ماجرایی متفاوت اما به همان اندازه هشداردهنده رخ داد. در سال ۲۰۲۴، وزارت اشتغال و روابط کاری استرالیا با شرکت دلویت قراردادی منعقد کرد.هدف این قرارداد، انجام یک «بازبینی مستقل» از چارچوب انطباق مربوط به رفاه بود. این چارچوب سامانه‌ای بود که به صورت خودکار برای کسانی که «الزام متقابل» را رعایت نمی‌کردند، جریمه تعیین می‌کرد. بازبینی دلویت در ابتدا قرار بود یک تحلیل دقیق از نقص‌های سیستمی و معضلات قانونی ارائه دهد.گزارش اولیه دلویت در ژوئیه ۲۰۲۵ (تیر ۱۴۰۴) منتشر شد، اما خیلی زود زنگ خطر به صدا درآمد. دکتر کریستوفر راج، پژوهشگر دانشگاه سیدنی، دریافت که بخش قابل‌توجهی از مراجع علمی ذکر شده در متن، اصلاً وجود خارجی ندارند.همچنین، نقل‌قولی که به یک حکم دادگاه فدرال نسبت داده شده بود، ساختگی به نظر می‌رسید. راج در مصاحبه‌ای گفت که این خطاها شبیه به چیزی است که در مدل‌های زبان بزرگ دیده می‌شود: «هالوسینیشن» (هذیان‌گویی ماشینی). این اتفاق زمانی رخ می‌دهد که مدل تلاش می‌کند خلاها را پر کند یا پاسخ بسازد.

پژوهشگران کشف کردند ارجاعات جعلی جایگزین منابع اصلی شدند

دکتر راج افزود: «به جای جایگزینی مرجع جعلی با یک مرجع واقعی، آن‌ها مرجع‌های جعلی را با پنج، شش یا هشت مرجع جعلی دیگر جایگزین کردند.» او نتیجه گرفت که این روند نشان می‌دهد ادعاهای گزارش اولیه مبتنی بر هیچ منبع واقعی و محکمی نبوده است.شرکت دلویت در پاسخ، تأیید کرد که در نگارش اولیه گزارش، از «یک ابزار زنجیره‌ای مبتنی بر مدل بزرگ زبان» استفاده کرده است. این ابزار (اَژور اُپن‌ای‌آی جی‌پی‌تی-۴اُ) تحت مجوز وزارتخانه و بر روی سرویس ابری اَژور آن وزارتخانه میزبانی شده بود.در نسخه اصلاح‌شده گزارش، بیش از یک دوجین ارجاع جعلی حذف یا تصحیح شده‌اند. همچنین لیست ارجاعات بازنویسی شده و برخی خلاصه‌ها نیز بهبود یافته‌اند. با این وجود، دلویت اعلام کرد که «مطالب اصلی، یافته‌ها و پیشنهادات گزارش» تغییر نکرده‌اند.در نهایت، شرکت دلویت موافقت کرد که قسط پایانی پرداخت تحت قرارداد را به وزارتخانه بازپرداخت کند. سناتور لیبرال، دِبورا اُنیل، این رخداد را به‌شدت محکوم کرد و گفت: «دلویت مشکل «هوش انسانی» دارد. این یک عذرخواهی ناقص برای کاری است که سطح آن زیر استاندارد بود.»او پیشنهاد کرد که به جای استخدام مشاوران گران‌قیمت، بخش‌های دولتی بهتر است یک اشتراک «چت‌جی‌پی‌تی» بگیرند و خودشان خروجی را بررسی کنند.

نفوذ هوش مصنوعی در سیاستگذاری، امنیت و اعتماد عمومی را تهدید کرد

این دو حادثه در واشینگتن و کانبرا، اگرچه ناپیوسته به نظر می‌رسند، اما در عمق، یک موضوع مشترک را بازتاب می‌دهند. شرکت مشاوره‌ای بزرگ که هم سیاست‌گذار است و هم تولیدکننده هوش مصنوعی، در موقعیتی قرار دارد که می‌تواند منافع تجاری را به منافع عمومی ترجیح دهد.این وضعیت می‌تواند به فرسایش اعتماد عمومی و حتی به مخاطرات امنیتی منجر شود. ورود هوش مصنوعی به دنیای سیاست‌گذاری دولتی، اگر بدون کنترل، شفافیت و نظارت باشد، می‌تواند به بدترین شکل ممکن عمل کند.۱. امنیت ملی: وقتی شرکت مشاوره‌ای به نهادهای دفاعی توصیه می‌دهد و همزمان با قدرت‌های مخالف همکاری دارد، خطر نشت دانش یا تضاد استراتژیک وجود دارد. نمونه مک‌کنزی دقیقاً چنین گمانی را برانگیخته است.۲. کیفیت مشاوره: استفاده از مدل‌های مولد در تهیه گزارش می‌تواند منجر به «خطاهای ساختگی» شود، مانند نقل‌قول‌های جعلی. مثال دلویت نشان داد که حتی در یک پروژه دولتی با اهمیت بالا، نظارت انسانی کافی نبوده است.۳. مشروعیت و اعتماد: اگر شهروندان دریابند که گزارش سیاستی که قرار است بر رفاه آن‌ها تأثیر بگذارد، بخشی از آن توسط الگوریتم نوشته شده و خطا دارد، مشروعیت نهاد دولت به شدت آسیب می‌بیند.۴. نظارت ناکافی: مقررات خرید و تضاد منافع هنوز به طور کامل با چالش «مشاوره + تولید هوش مصنوعی» انطباق نیافته‌اند. شرکت‌های بزرگ می‌توانند از شکاف‌های موجود استفاده کنند.

قانون‌گذاران باید شفافیت کامل قراردادهای هوش مصنوعی را الزامی کنند

توجه به این روندها دیگر فقط بحث فناوری نیست؛ موضوع اصلی، قدرت است. قدرت تولید روایت، چارچوب‌های سیاست و مهندسی آینده هوش مصنوعی بر دوش شرکت‌هایی است که عملاً نقش دوجانبه‌ای دارند. این روایت می‌تواند محرک تغییرات حیاتی باشد.قانون‌گذاران باید قانون‌هایی را به‌روز کنند که افشای کامل قراردادها، ابزارهای مورد استفاده (مثل مدل‌های هوش مصنوعی) و منافع متقاطع را الزامی کنند. سازمان‌های دولتی باید هنگام عقد قرارداد با مشاوران بزرگ، شرط بررسی مستقل مدل‌های هوش مصنوعی و بازبینی انسانی را بگنجانند.کارشناسان مدنی، رسانه‌ها و پژوهشگران باید بیشتر نقش نظارتی ایفا کنند. این گروه‌ها باید درخواست اسناد کامل، تحلیل مستقل و پرسش از شرکت‌هایی را داشته باشند که به سیاست‌گذاری‌های مهم شکل می‌دهند.صبح سردی در واشینگتن؛ نمایندگان کنگره دست‌نوشته‌ای را امضا می‌کنند، نگران منافع پنهان مک‌کنزی هستند که نمی‌پذیرد تنها مشاور باشد. در سوی دیگر جهان، در کانبرا، یک محقق دانشگاهی درمی‌یابد که گزارش دولتی خط‌به‌خط توسط ماشین ساخته شده است.این‌ها سیگنال‌هایی هستند از یک روند بزرگ‌تر: هم‌آمیختن قدرتِ سیاست و قدرتِ الگوریتم. شرکتی که مشاوره می‌دهد، نمی‌تواند در خلأ کار کند؛ شفافیت و مسئولیت‌پذیری باید پایه‌ی تعامل آن‌ها با دولت باشد. در غیر این صورت، مرزهای منافع عمومی و خصوصی به شکلی خطرناک محو می‌شوند.#تضاد_منافع#مشاوره_فناوری#امنیت_ملی#هوش_مصنوعی#لابی_شرکتها
07:08 - 27 آبان 1404
نظرات کاربران
ارسال به صورت ناشناس
اخبار داغ