مشاور پنتاگون همزمان به رقیب خارجی خدمت میکرد
شرکتهای مشاورهای بزرگ همزمان که سیاستهای هوش مصنوعی دولتها را مینویسند، همان سیستمها را میفروشند؛ این تضاد منافع اکنون امنیت ملی و اعتبار گزارشهای رسمی را تهدید کرده است.
خلاصه خبر
مشاور پنتاگون همزمان به رقیب خارجی خدمت میکرد
شرکتهای مشاورهای بزرگ همزمان که سیاستهای هوش مصنوعی دولتها را مینویسند، همان سیستمها را میفروشند؛ این تضاد منافع اکنون امنیت ملی و اعتبار گزارشهای رسمی را تهدید کرده است.
گروه علم و پیشرفت خبرگزاری فارس - در سایه پیشرفت بیسابقه هوش مصنوعی، شرکتهای مشاورهای بزرگ مانند «مَککِنزی» و «دِلویت» در نقشهایی فراتر از یک مشاور ساده ظاهر شدهاند. این شرکتها نه تنها توصیهدهنده سیاستهای هوش مصنوعی هستند، بلکه مجری همان توصیهها نیز به شمار میآیند. این ترکیب به ظاهر قدرتمند «مشاور + فروشنده» در چند مورد مهم به یک بحران جدی تضاد منافع تبدیل شده است.این شرکتها اکنون در موقعیتی قرار گرفتهاند که میتوانند منافع تجاری خود را به منافع عمومی ترجیح دهند. این موضوع نگرانیهای عمیقی را در مورد شفافیت، مشروعیت و احتمال سوءاستفاده ایجاد کرده است.
قانونگذاران آمریکا مککنزی را به دلیل همکاری با چین به چالش کشیدند
در پاییز ۲۰۲۴، تعدادی از قانونگذاران جمهوریخواه ایالات متحده نامهای بسیار تند و صریح خطاب به وزارت دادگستری و وزارت دفاع ارسال کردند. امضاکنندگان این نامه، از جمله سناتور مارکو روبیو، هشدار دادند که شرکت مککنزی «بارها و بارها» قراردادهای حساسی با پنتاگون داشته است.این در حالی است که این شرکت به طور همزمان کار مشاورهای قابلتوجهی را نیز برای دولت چین انجام میدهد. این رابطه، از دیدگاه قانونگذاران، «ریسک جدی برای امنیت ملی» ایالات متحده ایجاد کرده است.نامه قانونگذاران به صراحت اشاره میکند که مککنزی از سال ۲۰۰۸ بیش از ۴۷۰ میلیون دلار از پنتاگون دریافت کرده است. این پروژهها شامل موارد حساسی مانند تحلیل عملکرد کارخانجات کشتیسازی نیروی دریایی آمریکا یا مشارکت در پروژههای مربوط به جنگنده اِف-۳۵ بودهاند.
همکاری با شرکتهای دولتی چین، ریسک امنیتی جدی ایجاد کرد
در عین حال، شرکت مککنزی همکاریهای مشاورهای مستقیمی با شرکتهای مطرح دولتی چینی داشته است. این شرکتها شامل «کوسکُو» یا «شرکت ساختوساز مخابرات چین» هستند. این روابط در نامه نمایندگان کنگره به عنوان «پنهانکاری استراتژیک» معرفی شده است.وقتی از مککنزی در مورد این ادعاها سؤال شد، سخنگوی شرکت به کمیته تحقیقات تکرار کرد: «تا آنجا که من اطلاع دارم، ما هرگز با حزب کمونیست چین یا حکومت مرکزی چین همکاری نکردهایم.» اما طبق بررسی نمایندگان، پیوند بین مککنزی و ارگانهای حکومتی چین پیچیدهتر از آن چیزی است که شرکت ادعا کرده است.قانونگذاران تأکید میکنند که مککنزی کنترل سازمانهایی مانند «مککنزی گلوبال اینستیتیوت» و «اِربَن چاینا اینیشیتیو» را در اختیار دارد. این نهادها در مشاوره به دولت چین مشارکت داشتهاند.در تابستان ۲۰۲۵، مککنزی ظاهراً پاسخی به این فشارها داد. گزارش فایننشال تایمز حاکی از آن است که بخش چین این شرکت از پروژههای «هوش مصنوعی مولد» کنار گذاشته شد.تحلیلگران معتقدند این تصمیم، بیشتر یک اقدام برای «مدیریت ریسک ژئوپلیتیکی» بود تا یک تغییر استراتژیک در تعهدات مککنزی. اما این اتفاق، پیام واضحی داشت: در تقاطع سیاست و فناوری، منافع شرکت میتواند با منافع ملی تلاقی کند.
گزارش دلویت در استرالیا با مشکل «هذیانگویی ماشینی» مواجه شد
در حالی که شرکت مککنزی به خاطر تضاد منافع در فضای امنیتی زیر ذرهبین قرار گرفته بود، در نیمکره جنوبی ماجرایی متفاوت اما به همان اندازه هشداردهنده رخ داد. در سال ۲۰۲۴، وزارت اشتغال و روابط کاری استرالیا با شرکت دلویت قراردادی منعقد کرد.هدف این قرارداد، انجام یک «بازبینی مستقل» از چارچوب انطباق مربوط به رفاه بود. این چارچوب سامانهای بود که به صورت خودکار برای کسانی که «الزام متقابل» را رعایت نمیکردند، جریمه تعیین میکرد. بازبینی دلویت در ابتدا قرار بود یک تحلیل دقیق از نقصهای سیستمی و معضلات قانونی ارائه دهد.گزارش اولیه دلویت در ژوئیه ۲۰۲۵ (تیر ۱۴۰۴) منتشر شد، اما خیلی زود زنگ خطر به صدا درآمد. دکتر کریستوفر راج، پژوهشگر دانشگاه سیدنی، دریافت که بخش قابلتوجهی از مراجع علمی ذکر شده در متن، اصلاً وجود خارجی ندارند.همچنین، نقلقولی که به یک حکم دادگاه فدرال نسبت داده شده بود، ساختگی به نظر میرسید. راج در مصاحبهای گفت که این خطاها شبیه به چیزی است که در مدلهای زبان بزرگ دیده میشود: «هالوسینیشن» (هذیانگویی ماشینی). این اتفاق زمانی رخ میدهد که مدل تلاش میکند خلاها را پر کند یا پاسخ بسازد.
پژوهشگران کشف کردند ارجاعات جعلی جایگزین منابع اصلی شدند
دکتر راج افزود: «به جای جایگزینی مرجع جعلی با یک مرجع واقعی، آنها مرجعهای جعلی را با پنج، شش یا هشت مرجع جعلی دیگر جایگزین کردند.» او نتیجه گرفت که این روند نشان میدهد ادعاهای گزارش اولیه مبتنی بر هیچ منبع واقعی و محکمی نبوده است.شرکت دلویت در پاسخ، تأیید کرد که در نگارش اولیه گزارش، از «یک ابزار زنجیرهای مبتنی بر مدل بزرگ زبان» استفاده کرده است. این ابزار (اَژور اُپنایآی جیپیتی-۴اُ) تحت مجوز وزارتخانه و بر روی سرویس ابری اَژور آن وزارتخانه میزبانی شده بود.در نسخه اصلاحشده گزارش، بیش از یک دوجین ارجاع جعلی حذف یا تصحیح شدهاند. همچنین لیست ارجاعات بازنویسی شده و برخی خلاصهها نیز بهبود یافتهاند. با این وجود، دلویت اعلام کرد که «مطالب اصلی، یافتهها و پیشنهادات گزارش» تغییر نکردهاند.در نهایت، شرکت دلویت موافقت کرد که قسط پایانی پرداخت تحت قرارداد را به وزارتخانه بازپرداخت کند. سناتور لیبرال، دِبورا اُنیل، این رخداد را بهشدت محکوم کرد و گفت: «دلویت مشکل «هوش انسانی» دارد. این یک عذرخواهی ناقص برای کاری است که سطح آن زیر استاندارد بود.»او پیشنهاد کرد که به جای استخدام مشاوران گرانقیمت، بخشهای دولتی بهتر است یک اشتراک «چتجیپیتی» بگیرند و خودشان خروجی را بررسی کنند.
نفوذ هوش مصنوعی در سیاستگذاری، امنیت و اعتماد عمومی را تهدید کرد
این دو حادثه در واشینگتن و کانبرا، اگرچه ناپیوسته به نظر میرسند، اما در عمق، یک موضوع مشترک را بازتاب میدهند. شرکت مشاورهای بزرگ که هم سیاستگذار است و هم تولیدکننده هوش مصنوعی، در موقعیتی قرار دارد که میتواند منافع تجاری را به منافع عمومی ترجیح دهد.این وضعیت میتواند به فرسایش اعتماد عمومی و حتی به مخاطرات امنیتی منجر شود. ورود هوش مصنوعی به دنیای سیاستگذاری دولتی، اگر بدون کنترل، شفافیت و نظارت باشد، میتواند به بدترین شکل ممکن عمل کند.۱. امنیت ملی: وقتی شرکت مشاورهای به نهادهای دفاعی توصیه میدهد و همزمان با قدرتهای مخالف همکاری دارد، خطر نشت دانش یا تضاد استراتژیک وجود دارد. نمونه مککنزی دقیقاً چنین گمانی را برانگیخته است.۲. کیفیت مشاوره: استفاده از مدلهای مولد در تهیه گزارش میتواند منجر به «خطاهای ساختگی» شود، مانند نقلقولهای جعلی. مثال دلویت نشان داد که حتی در یک پروژه دولتی با اهمیت بالا، نظارت انسانی کافی نبوده است.۳. مشروعیت و اعتماد: اگر شهروندان دریابند که گزارش سیاستی که قرار است بر رفاه آنها تأثیر بگذارد، بخشی از آن توسط الگوریتم نوشته شده و خطا دارد، مشروعیت نهاد دولت به شدت آسیب میبیند.۴. نظارت ناکافی: مقررات خرید و تضاد منافع هنوز به طور کامل با چالش «مشاوره + تولید هوش مصنوعی» انطباق نیافتهاند. شرکتهای بزرگ میتوانند از شکافهای موجود استفاده کنند.
قانونگذاران باید شفافیت کامل قراردادهای هوش مصنوعی را الزامی کنند
توجه به این روندها دیگر فقط بحث فناوری نیست؛ موضوع اصلی، قدرت است. قدرت تولید روایت، چارچوبهای سیاست و مهندسی آینده هوش مصنوعی بر دوش شرکتهایی است که عملاً نقش دوجانبهای دارند. این روایت میتواند محرک تغییرات حیاتی باشد.قانونگذاران باید قانونهایی را بهروز کنند که افشای کامل قراردادها، ابزارهای مورد استفاده (مثل مدلهای هوش مصنوعی) و منافع متقاطع را الزامی کنند. سازمانهای دولتی باید هنگام عقد قرارداد با مشاوران بزرگ، شرط بررسی مستقل مدلهای هوش مصنوعی و بازبینی انسانی را بگنجانند.کارشناسان مدنی، رسانهها و پژوهشگران باید بیشتر نقش نظارتی ایفا کنند. این گروهها باید درخواست اسناد کامل، تحلیل مستقل و پرسش از شرکتهایی را داشته باشند که به سیاستگذاریهای مهم شکل میدهند.صبح سردی در واشینگتن؛ نمایندگان کنگره دستنوشتهای را امضا میکنند، نگران منافع پنهان مککنزی هستند که نمیپذیرد تنها مشاور باشد. در سوی دیگر جهان، در کانبرا، یک محقق دانشگاهی درمییابد که گزارش دولتی خطبهخط توسط ماشین ساخته شده است.اینها سیگنالهایی هستند از یک روند بزرگتر: همآمیختن قدرتِ سیاست و قدرتِ الگوریتم. شرکتی که مشاوره میدهد، نمیتواند در خلأ کار کند؛ شفافیت و مسئولیتپذیری باید پایهی تعامل آنها با دولت باشد. در غیر این صورت، مرزهای منافع عمومی و خصوصی به شکلی خطرناک محو میشوند.#تضاد_منافع#مشاوره_فناوری#امنیت_ملی#هوش_مصنوعی#لابی_شرکتها
07:08 - 27 آبان 1404
نظرات کاربران









