مطالعه نشان می‌دهد عامل هوش مصنوعی با ساعتی ۱۵ یورو از هکرهای انسانی پیشی می‌گیرد

این عامل هوش مصنوعی سطح بسیار بالایی از پیچیدگی فنی نشان داد و عملکردی تقریبا هم‌تراز با قوی‌ترین شرکت‌کنندگان انسانی حاضر در این مطالعه علمی داشت.

خلاصه خبر

یک عامل هوش مصنوعی (AI) پس از آنکه ۱۶ ساعت وب‌سایت یک دانشگاه را برای یافتن آسیب‌پذیری‌ها پیمایش کرد، از بیشتر هکرهای انسانی عملکرد بهتری داشت، پژوهش جدیدی نشان می‌دهد.

این مطالعه در حالی منتشر شده که به‌گفته مایکروسافت و اوپن‌ای‌آی در سال جاری، هکرهایی از روسیه، کره شمالی، ایران و گروه‌های مورد حمایت چین برای ارتقای حملات سایبری از مدل‌های زبانی بزرگ (LLM) استفاده می‌کنند. گروه‌های مسلحی مانند گروه‌های حامی داعش نیز برای تدارک حملات با هوش مصنوعی آزمایش می‌کنند.

دانشگاه استنفورد اعلام کرد که عامل هوش مصنوعی تازه‌توسعه‌یافته آن با نام ARTEMIS در آزمایشی در کنار هکرهای انسانی، از میان ده شرکت‌کننده رتبه دوم را به دست آورد. پژوهشگران گفتند: «عامل هوش مصنوعی ما سطحی از پیچیدگی فنی نشان داد که با قوی‌ترین شرکت‌کنندگان انسانی در این مطالعه قابل قیاس است.»

به‌گفته این گزارش، اجرای عامل هوش مصنوعی ARTEMIS ساعتی تنها ۱۸ دلار (حدود ۱۵ یورو) هزینه دارد، در حالی که نرخ ساعتی یک «کارشناس حرفه‌ای تست نفوذ» ۶۰ دلار (۵۲ یورو) است. این مطالعه هنوز در نشریه علمی رسمی منتشر نشده است.

بر اساس یک گزارش گوگل، عامل‌های هوش مصنوعی، دستیارهای دیجیتال کاملا خودکار که می‌توانند بدون نظارت انسانی وظایف را انجام دهند، در سال ۲۰۲۶ احتمالا توسط بازیگران مخرب برای ساده‌سازی و گسترش حملات به کار گرفته خواهند شد.

دانشگاه استنفورد به ARTEMIS، شش عامل آزمایشگر هوش مصنوعی و ده آزمایشگر انسانی دسترسی به همه ۸ هزار دستگاه موجود در شبکه دانشگاه، از جمله سرورها، رایانه‌ها و دستگاه‌های هوشمند، داد. پژوهشگران عملکرد آزمایشگر انسانی، ARTEMIS استنفورد و شش عامل دیگر را مقایسه کردند. به همگی ۱۶ ساعت برای پیمایش داده شد اما عملکردشان فقط در ۱۰ ساعت نخست ارزیابی شد.

در این مدت، ARTEMIS نه آسیب‌پذیری در سامانه دانشگاه کشف کرد و ۸۲ درصد از یافته‌هایش را به‌عنوان گزارش‌های معتبر ارسال کرد. این عامل هوش مصنوعی در رده‌بندی دوم شد و از نه نفر از ده آزمایشگر انسانی بهتر عمل کرد.

این مطالعه می‌گوید: «آنچه این برنامه هوش مصنوعی را موفق کرد این بود که هرگاه به آسیب‌پذیری می‌رسید، می‌توانست «زیرعامل»هایی تولید کند تا در پس‌زمینه بلافاصله آن را بررسی کنند و هم‌زمان به جست‌وجو برای تهدیدهای دیگر ادامه دهد. انسان‌ها چنین امکانی نداشتند و باید هر آسیب‌پذیری را بررسی می‌کردند و بعد سراغ مورد بعدی می‌رفتند.»

با این حال این مطالعه خاطرنشان کرد که ARTEMIS همچنان برخی از آسیب‌پذیری‌هایی را که انسان‌ها شناسایی کرده بودند از قلم انداخت و برای یافتن آنها به سرنخ نیاز داشت.

این مطالعه می‌گوید: «عامل‌های امنیت سایبری مبتنی بر هوش مصنوعی موجود از شرکت‌هایی مانند Codex اوپن‌ای‌آی و Claude Code آنتروپیک، در طراحی خود تخصص امنیت سایبری ندارند.»

در جریان آزمایش، عامل‌های این شرکت‌های باسابقه یا از جست‌وجوی آسیب‌پذیری‌ها امتناع کردند یا متوقف شدند.

این مطالعه می‌گوید: «مدل‌های اوپن‌ای‌آی و آنتروپیک تنها از دو عامل انسانی بهتر عمل کردند»، که نشان می‌دهد این مدل‌ها «کمتر از انتظار عمل می‌کنند».

نظرات کاربران
ارسال به صورت ناشناس
اخبار داغ