با این روش ها، فیلمهای هوش مصنوعی را شناسایی کنید
در عصری که هوش مصنوعی مرز میان واقعیت و توهم را محو کرده است، تسلط بر تکنیکهای ساخت عکس با AI و شناسایی ناهنجاریهای مجازی، به حیاتیترین مهارت برای بقا در برابر سونامی سایبری تبدیل شده است.
خلاصه خبر
گروه علم و پیشرفت خبرگزاری فارس_ عبور از مرز واقعیت در عصری به سر میبریم که مرزهای میان حقیقت و مجاز، باریکتر از یک تار مو شده است. ظهور مدلهای پیشرفته تولید ویدیو مانند Sora، Runway و Pika Labs، دیدن باور کردن است را به چالش کشیده و آن را به دیدن، شک کردن است تغییر داده است. فضای مجازی امروز به بستری برای انتشار کلیپهای شایعه ای تبدیل شده؛ ویدیوهایی که با هدف مهندسی افکار عمومی، تخریب شخصیتهای سیاسی و اجتماعی، یا ایجاد نوسانات مصنوعی در بازارهای مالی تولید میشوند اما چگونه میتوان در این سیلاب اطلاعات بصری دستکاری شده، سره را از ناسره تشخیص داد؟ در ادامه به بررسی فنی این پدیده و روشهای پیشرفته دیجیتال برای کشف آن میپردازیم.
پیش از ورود به بحث فنی تشخیص، باید مکانیزم اثرگذاری این ویدیوها را درک کرد. برخلاف شایعات متنی، ویدیوهای ساخته شده با هوش مصنوعی مستقیماً مراکز ادراکی مغز را هدف قرار میدهند. مغز انسان طی تکامل آموخته است که به ورودیهای بصری اعتماد کند.۱. مهندسی اجتماعی و سوگیری تایید : سازندگان کلیپهای جعلی معمولاً محتوایی تولید میکنند که همسو با باورهای قبلی یا ترسهای نهفته جامعه باشد. یک ویدیوی دیپفیک از یک سیاستمدار که جملهای جنجالی میگوید، نه به دلیل کیفیت فنی بالا، بلکه به دلیل تمایل مخاطب به باور آن دروغ وایرال میشود.هوش مصنوعی این امکان را فراهم کرده که این محتوا در مقیاس انبوه و با هزینهای نزدیک به صفر تولید شود.۲. سرعت انتشار در برابر زمان تکذیب: یک کلیپ ۱۰ ثانیهای جعلی میتواند در کمتر از یک ساعت میلیونها بازدید بگیرد، در حالی که اثبات فنی جعلی بودن آن ممکن است روزها زمان ببرد. این شکاف زمانی همان جایی است که شایعه اثر خود را میگذارد.
برای شناسایی ویدیوهای هوش مصنوعی، نباید به کلیت تصویر نگاه کرد؛ بلکه باید جزئیات را زیر ذرهبین برد.مدلهای هوش مصنوعی (GANs و Diffusion Models) با وجود پیشرفت شگفتانگیز، هنوز در درک فیزیک جهان و بیولوژی دقیق انسانی دچار خطاهای محاسباتی هستند.
هوش مصنوعی انسان را نه به عنوان یک سیستم یکپارچه بیولوژیک، بلکه به عنوان مجموعهای از الگوهای هندسی میبیند. همین موضوع پاشنه آشیل آن است.سندرم دره وهمی در چشمها : در ویدیوهای واقعی، حرکت کره چشم با انقباض عضلات اطراف چشم هماهنگ است. در ویدیوهای AI، اغلب جهت نگاه با جهت سر همخوانی ندارد.نکته فنی: به الگوی پلک زدن دقت کنید. انسانها به طور متوسط هر ۲ تا ۱۰ ثانیه پلک میزنند. در دیپفیکهای اولیه، سوژه اصلاً پلک نمیزد.در مدلهای جدیدتر، گاهی الگوی پلک زدن ریتمیک و ماشینی است یا پلکها به طور کامل بسته نمیشوند.
دست انسان دارای درجات آزادی بسیار بالایی است. هوش مصنوعی هنوز در درک مفصلبندی انگشتان و نحوه قرارگیری آنها روی اجسام مشکل دارد. به دنبال انگشتان اضافی، بند انگشتهای غیرطبیعی طولانی، یا انگشتانی باشید که در هنگام گرفتن یک جسم (مانند میکروفن یا لیوان) در داخل جسم فرو رفتهاند .
پوست در ویدیوهای AI اغلب بیش از حد صاف است و فاقد پراکندگی زیرسطحی نور میباشد؛ پدیدهای که باعث میشود نور کمی در لایههای پوست نفوذ کند و آن را طبیعی جلوه دهد.همچنین، دندانها در این ویدیوها معمولاً شبیه به یک نوار سفید یکپارچه هستند تا دندانهای مجزا.
هوش مصنوعی درک درستی از قوانین نیوتن ندارد. این مدلها صرفاً پیکسلهای بعدی را پیشبینی میکنند، نه علت و معلول فیزیکی را.انسجام زمانی : این مهمترین شاخص فنی در ویدیو است.در یک ویدیوی واقعی، بافت یک لباس یا طرح کاغذ دیواری در طول زمان ثابت است. در ویدیوهای AI، با حرکت دوربین یا سوژه، ممکن است بافتها سوسو بزنند یا الگوهای روی لباس تغییر شکل دهند.
بررسی کنید که آیا سایه اجسام با منبع نور موجود در صحنه همخوانی دارد؟ در بسیاری از ویدیوهای جعلی، سایهها جهت اشتباهی دارند یا اصلاً وجود ندارند. همچنین، بازتاب تصویر در آینه یا شیشه عینک اغلب با تصویر اصلی متفاوت است یا با تأخیر حرکت میکند.
عدم هماهنگی صوتی-تصویریدیپفیکهای صوتی نیز بسیار پیشرفت کردهاند، اما ترکیب آنها با ویدیو هنوز چالشبرانگیز است.واکه ها و همخوانها: به تلفظ حروف ب، پ و م دقت کنید. برای ادای این حروف، لبها باید کاملاً به هم فشرده شوند. در ویدیوهای جعلی، اغلب صدا شنیده میشود اما لبها کاملاً بسته نمیشوند یا حرکات دهان با کلمات ادا شده تأخیر میلیثانیهای دارد.
در حالی که بررسی چشمی خط اول دفاع است، جنگ اصلی در سطح کدها و الگوریتمها جریان دارد. شرکتهای بزرگ فناوری و نهادهای خبری در حال حرکت به سمت استانداردهای نوین هستند.
ائتلافی از شرکتهایی مانند ادوبی، مایکروسافت و اینتل استانداردی را ایجاد کردهاند که زنجیره اعتماد نام دارد. این فناوری به دوربینها و نرمافزارها اجازه میدهد یک امضای دیجیتال رمزنگاری شده روی فایل قرار دهند که تاریخچه تغییرات آن را ثبت میکند.اگر ویدیویی توسط هوش مصنوعی ساخته شده باشد، فراداده آن باید این موضوع را نشان دهد، مگر اینکه عامدانه حذف شده باشد.
حسگرهای دوربین دیجیتال الگوی نویز خاصی (PRNU) روی تصویر به جا میگذارند که مثل اثر انگشت دوربین است. ویدیوهای هوش مصنوعی فاقد این الگوی نویز طبیعی هستند و تحلیلگرهای نرمافزاری میتوانند با اسکن بافت پیکسلی، مصنوعی بودن آن را تشخیص دهند.
تکنولوژی تشخیص همیشه یک قدم عقبتر از تکنولوژی تولید است. به محض اینکه محققان راهی برای تشخیص مشکل دستها پیدا کنند، مدلهای جدید (مثل Midjourney v6 یا Sora) آن را برطرف میکنند. بنابراین، راهکار نهایی صرفاً فنی نیست؛ بلکه شناختی است.
در مواجهه با هر ویدیوی جنجالی در فضای مجازی، پیش از بازنشر، باید فرآیند راستیآزمایی سه مرحلهای را انجام داد: ۱. منبع: آیا این ویدیو در رسانههای معتبر منتشر شده یا فقط در کانالهای ناشناس تلگرام و توییتر دستبهدست میشود؟ ۲. منطق: آیا محتوای ویدیو با عقل سلیم و قوانین فیزیک جور در میآید؟ (بررسی سایهها، پلک زدن و بافت)۳. ابزار: استفاده از جستجوی معکوس ویدیو برای یافتن نسخه اصلی یا تاییدیه سرویسهای فکتچکینگ.جنگ آینده، جنگ روایتهاست و سلاح آن، پیکسلهای ساختگی. تنها سپر دفاعی کاربران، نگاه انتقادی و مجهز بودن به دانش تشخیص فنی خواهد بود.#دیپ_فیک#هوش_مصنوعی#تکنولوژی #تکنولوژی_روز #سواد_رسانه_ای#ایلان_ماسک
01:27 - 2 دی 1404
نظرات کاربران






