با این روش ها، فیلم‌های هوش مصنوعی را شناسایی کنید

در عصری که هوش مصنوعی مرز میان واقعیت و توهم را محو کرده است، تسلط بر تکنیک‌های ساخت عکس با AI و شناسایی ناهنجاری‌های مجازی، به حیاتی‌ترین مهارت برای بقا در برابر سونامی سایبری تبدیل شده است.

این خبر حاوی محتوای صوتی یا تصویری است. برای جزییات بیشتر به منبع خبر مراجعه کنید
خلاصه خبر
گروه علم و پیشرفت خبرگزاری فارس_ عبور از مرز واقعیت در عصری به سر می‌بریم که مرزهای میان حقیقت و مجاز، باریک‌تر از یک تار مو شده است. ظهور مدل‌های پیشرفته تولید ویدیو مانند Sora، Runway و Pika Labs، دیدن باور کردن است را به چالش کشیده و آن را به دیدن، شک کردن است تغییر داده است. فضای مجازی امروز به بستری برای انتشار کلیپ‌های شایعه‌ ای تبدیل شده؛ ویدیوهایی که با هدف مهندسی افکار عمومی، تخریب شخصیت‌های سیاسی و اجتماعی، یا ایجاد نوسانات مصنوعی در بازارهای مالی تولید می‌شوند اما چگونه می‌توان در این سیلاب اطلاعات بصری دستکاری شده، سره را از ناسره تشخیص داد؟ در ادامه به بررسی فنی این پدیده و روش‌های پیشرفته دیجیتال برای کشف آن می‌پردازیم.

چرا هوش مصنوعی خطرناک است؟

پیش از ورود به بحث فنی تشخیص، باید مکانیزم اثرگذاری این ویدیوها را درک کرد. برخلاف شایعات متنی، ویدیوهای ساخته شده با هوش مصنوعی مستقیماً مراکز ادراکی مغز را هدف قرار می‌دهند. مغز انسان طی تکامل آموخته است که به ورودی‌های بصری اعتماد کند.۱. مهندسی اجتماعی و سوگیری تایید : سازندگان کلیپ‌های جعلی معمولاً محتوایی تولید می‌کنند که همسو با باورهای قبلی یا ترس‌های نهفته جامعه باشد. یک ویدیوی دیپ‌فیک از یک سیاستمدار که جمله‌ای جنجالی می‌گوید، نه به دلیل کیفیت فنی بالا، بلکه به دلیل تمایل مخاطب به باور آن دروغ وایرال می‌شود.هوش مصنوعی این امکان را فراهم کرده که این محتوا در مقیاس انبوه و با هزینه‌ای نزدیک به صفر تولید شود.۲. سرعت انتشار در برابر زمان تکذیب: یک کلیپ ۱۰ ثانیه‌ای جعلی می‌تواند در کمتر از یک ساعت میلیون‌ها بازدید بگیرد، در حالی که اثبات فنی جعلی بودن آن ممکن است روزها زمان ببرد. این شکاف زمانی همان جایی است که شایعه اثر خود را می‌گذارد.

پروتکل‌های تشخیص فنی؛ نگاهی به زیر پوست پیکسل‌ها

برای شناسایی ویدیوهای هوش مصنوعی، نباید به کلیت تصویر نگاه کرد؛ بلکه باید جزئیات را زیر ذره‌بین برد.مدل‌های هوش مصنوعی (GANs و Diffusion Models) با وجود پیشرفت شگفت‌انگیز، هنوز در درک فیزیک جهان و بیولوژی دقیق انسانی دچار خطاهای محاسباتی هستند.

خطاهای بیولوژیک و آناتومیک

هوش مصنوعی انسان را نه به عنوان یک سیستم یکپارچه بیولوژیک، بلکه به عنوان مجموعه‌ای از الگوهای هندسی می‌بیند. همین موضوع پاشنه آشیل آن است.سندرم دره وهمی در چشم‌ها : در ویدیوهای واقعی، حرکت کره چشم با انقباض عضلات اطراف چشم هماهنگ است. در ویدیوهای AI، اغلب جهت نگاه با جهت سر همخوانی ندارد.نکته فنی: به الگوی پلک زدن دقت کنید. انسان‌ها به طور متوسط هر ۲ تا ۱۰ ثانیه پلک می‌زنند. در دیپ‌فیک‌های اولیه، سوژه اصلاً پلک نمی‌زد.در مدل‌های جدیدتر، گاهی الگوی پلک زدن ریتمیک و ماشینی است یا پلک‌ها به طور کامل بسته نمی‌شوند.

هندسه پیچیده دست‌ها

دست انسان دارای درجات آزادی بسیار بالایی است. هوش مصنوعی هنوز در درک مفصل‌بندی انگشتان و نحوه قرارگیری آن‌ها روی اجسام مشکل دارد. به دنبال انگشتان اضافی، بند انگشت‌های غیرطبیعی طولانی، یا انگشتانی باشید که در هنگام گرفتن یک جسم (مانند میکروفن یا لیوان) در داخل جسم فرو رفته‌اند .

بافت پوست و دندان

پوست در ویدیوهای AI اغلب بیش از حد صاف است و فاقد پراکندگی زیرسطحی نور می‌باشد؛ پدیده‌ای که باعث می‌شود نور کمی در لایه‌های پوست نفوذ کند و آن را طبیعی جلوه دهد.همچنین، دندان‌ها در این ویدیوها معمولاً شبیه به یک نوار سفید یکپارچه هستند تا دندان‌های مجزا.

ناهنجاری‌های فیزیکی و محیطی

هوش مصنوعی درک درستی از قوانین نیوتن ندارد. این مدل‌ها صرفاً پیکسل‌های بعدی را پیش‌بینی می‌کنند، نه علت و معلول فیزیکی را.انسجام زمانی : این مهم‌ترین شاخص فنی در ویدیو است.در یک ویدیوی واقعی، بافت یک لباس یا طرح کاغذ دیواری در طول زمان ثابت است. در ویدیوهای AI، با حرکت دوربین یا سوژه، ممکن است بافت‌ها سوسو بزنند یا الگوهای روی لباس تغییر شکل دهند.

سایه و بازتاب

بررسی کنید که آیا سایه اجسام با منبع نور موجود در صحنه همخوانی دارد؟ در بسیاری از ویدیوهای جعلی، سایه‌ها جهت اشتباهی دارند یا اصلاً وجود ندارند. همچنین، بازتاب تصویر در آینه یا شیشه عینک اغلب با تصویر اصلی متفاوت است یا با تأخیر حرکت می‌کند.
عدم هماهنگی صوتی-تصویریدیپ‌فیک‌های صوتی نیز بسیار پیشرفت کرده‌اند، اما ترکیب آن‌ها با ویدیو هنوز چالش‌برانگیز است.واکه ها و همخوان‌ها: به تلفظ حروف ب، پ و م دقت کنید. برای ادای این حروف، لب‌ها باید کاملاً به هم فشرده شوند. در ویدیوهای جعلی، اغلب صدا شنیده می‌شود اما لب‌ها کاملاً بسته نمی‌شوند یا حرکات دهان با کلمات ادا شده تأخیر میلی‌ثانیه‌ای دارد.

ابزارهای نوین و آینده تشخیص

در حالی که بررسی چشمی خط اول دفاع است، جنگ اصلی در سطح کدها و الگوریتم‌ها جریان دارد. شرکت‌های بزرگ فناوری و نهادهای خبری در حال حرکت به سمت استانداردهای نوین هستند.

استاندارد C2PA

ائتلافی از شرکت‌هایی مانند ادوبی، مایکروسافت و اینتل استانداردی را ایجاد کرده‌اند که زنجیره اعتماد نام دارد. این فناوری به دوربین‌ها و نرم‌افزارها اجازه می‌دهد یک امضای دیجیتال رمزنگاری شده روی فایل قرار دهند که تاریخچه تغییرات آن را ثبت می‌کند.اگر ویدیویی توسط هوش مصنوعی ساخته شده باشد، فراداده آن باید این موضوع را نشان دهد، مگر اینکه عامدانه حذف شده باشد.

تحلیل‌گرهای طیفی و نویز

حسگرهای دوربین دیجیتال الگوی نویز خاصی (PRNU) روی تصویر به جا می‌گذارند که مثل اثر انگشت دوربین است. ویدیوهای هوش مصنوعی فاقد این الگوی نویز طبیعی هستند و تحلیل‌گرهای نرم‌افزاری می‌توانند با اسکن بافت پیکسلی، مصنوعی بودن آن را تشخیص دهند.

در مجموع، سواد رسانه‌ای، تنها راهکار قطعی

تکنولوژی تشخیص همیشه یک قدم عقب‌تر از تکنولوژی تولید است. به محض اینکه محققان راهی برای تشخیص مشکل دست‌ها پیدا کنند، مدل‌های جدید (مثل Midjourney v6 یا Sora) آن را برطرف می‌کنند. بنابراین، راهکار نهایی صرفاً فنی نیست؛ بلکه شناختی است.
در مواجهه با هر ویدیوی جنجالی در فضای مجازی، پیش از بازنشر، باید فرآیند راستی‌آزمایی سه مرحله‌ای را انجام داد: ۱. منبع: آیا این ویدیو در رسانه‌های معتبر منتشر شده یا فقط در کانال‌های ناشناس تلگرام و توییتر دست‌به‌دست می‌شود؟ ۲. منطق: آیا محتوای ویدیو با عقل سلیم و قوانین فیزیک جور در می‌آید؟ (بررسی سایه‌ها، پلک زدن و بافت)۳. ابزار: استفاده از جستجوی معکوس ویدیو برای یافتن نسخه اصلی یا تاییدیه سرویس‌های فکت‌چکینگ.جنگ آینده، جنگ روایت‌هاست و سلاح آن، پیکسل‌های ساختگی. تنها سپر دفاعی کاربران، نگاه انتقادی و مجهز بودن به دانش تشخیص فنی خواهد بود.#دیپ_فیک#هوش_مصنوعی#تکنولوژی #تکنولوژی_روز #سواد_رسانه_ای#ایلان_ماسک
01:27 - 2 دی 1404
نظرات کاربران
ارسال به صورت ناشناس
اخبار داغ