یک عامل هوش مصنوعی (AI) پس از آنکه ۱۶ ساعت وبسایت یک دانشگاه را برای یافتن آسیبپذیریها پیمایش کرد، از بیشتر هکرهای انسانی عملکرد بهتری داشت، پژوهش جدیدی نشان میدهد.
این مطالعه در حالی منتشر شده که بهگفته مایکروسافت و اوپنایآی در سال جاری، هکرهایی از روسیه، کره شمالی، ایران و گروههای مورد حمایت چین برای ارتقای حملات سایبری از مدلهای زبانی بزرگ (LLM) استفاده میکنند. گروههای مسلحی مانند گروههای حامی داعش نیز برای تدارک حملات با هوش مصنوعی آزمایش میکنند.
دانشگاه استنفورد اعلام کرد که عامل هوش مصنوعی تازهتوسعهیافته آن با نام ARTEMIS در آزمایشی در کنار هکرهای انسانی، از میان ده شرکتکننده رتبه دوم را به دست آورد. پژوهشگران گفتند: «عامل هوش مصنوعی ما سطحی از پیچیدگی فنی نشان داد که با قویترین شرکتکنندگان انسانی در این مطالعه قابل قیاس است.»
بهگفته این گزارش، اجرای عامل هوش مصنوعی ARTEMIS ساعتی تنها ۱۸ دلار (حدود ۱۵ یورو) هزینه دارد، در حالی که نرخ ساعتی یک «کارشناس حرفهای تست نفوذ» ۶۰ دلار (۵۲ یورو) است. این مطالعه هنوز در نشریه علمی رسمی منتشر نشده است.
بر اساس یک گزارش گوگل، عاملهای هوش مصنوعی، دستیارهای دیجیتال کاملا خودکار که میتوانند بدون نظارت انسانی وظایف را انجام دهند، در سال ۲۰۲۶ احتمالا توسط بازیگران مخرب برای سادهسازی و گسترش حملات به کار گرفته خواهند شد.
دانشگاه استنفورد به ARTEMIS، شش عامل آزمایشگر هوش مصنوعی و ده آزمایشگر انسانی دسترسی به همه ۸ هزار دستگاه موجود در شبکه دانشگاه، از جمله سرورها، رایانهها و دستگاههای هوشمند، داد. پژوهشگران عملکرد آزمایشگر انسانی، ARTEMIS استنفورد و شش عامل دیگر را مقایسه کردند. به همگی ۱۶ ساعت برای پیمایش داده شد اما عملکردشان فقط در ۱۰ ساعت نخست ارزیابی شد.
در این مدت، ARTEMIS نه آسیبپذیری در سامانه دانشگاه کشف کرد و ۸۲ درصد از یافتههایش را بهعنوان گزارشهای معتبر ارسال کرد. این عامل هوش مصنوعی در ردهبندی دوم شد و از نه نفر از ده آزمایشگر انسانی بهتر عمل کرد.
این مطالعه میگوید: «آنچه این برنامه هوش مصنوعی را موفق کرد این بود که هرگاه به آسیبپذیری میرسید، میتوانست «زیرعامل»هایی تولید کند تا در پسزمینه بلافاصله آن را بررسی کنند و همزمان به جستوجو برای تهدیدهای دیگر ادامه دهد. انسانها چنین امکانی نداشتند و باید هر آسیبپذیری را بررسی میکردند و بعد سراغ مورد بعدی میرفتند.»
با این حال این مطالعه خاطرنشان کرد که ARTEMIS همچنان برخی از آسیبپذیریهایی را که انسانها شناسایی کرده بودند از قلم انداخت و برای یافتن آنها به سرنخ نیاز داشت.
این مطالعه میگوید: «عاملهای امنیت سایبری مبتنی بر هوش مصنوعی موجود از شرکتهایی مانند Codex اوپنایآی و Claude Code آنتروپیک، در طراحی خود تخصص امنیت سایبری ندارند.»
در جریان آزمایش، عاملهای این شرکتهای باسابقه یا از جستوجوی آسیبپذیریها امتناع کردند یا متوقف شدند.
این مطالعه میگوید: «مدلهای اوپنایآی و آنتروپیک تنها از دو عامل انسانی بهتر عمل کردند»، که نشان میدهد این مدلها «کمتر از انتظار عمل میکنند».









