دانشمندان میگویند ابزارهای تشخیص ویدیوهای جعلی Deepfake میتوانند فریب بخورند
دانشگاهها، سازمانها و غولهای فناوری، مانند مایکروسافت و فیس بوک، در حال کار بر روی ابزاری هستند که میتواند ویدیوهای جعلی Deepfake را تشخیص دهد تا از انتشار اطلاعات غلط و ایجاد رسانههای مخرب جلوگیری کند. اما گروهی از دانشمندان علوم کامپیوتر در سان دیگو هشدار دادهاند که این ابزارهای تشخیص ویدیوهای Deepfake میتوانند فریب بخورند.
این تیم تحقیقاتی در کنفرانس رایانهای WACV سال 2021 که در ماه ژانویه به صورت آنلاین برگزار شد، با درج ورودیهایی به نام “مثالهای متناقض” در هر فریم ویدیویی خود نشان دادند که چگونه ابزار تشخیص ویدیوهای Deepfake میتوانند اشتباه کنند.
این تیم تحقیقاتی در توضیح این موضوع اعلام کرده که “مثال های متاقض” عکسهای دستکاری شدهای هستند که میتوانند باعث به وجود آمدن اشتباه در سیستم هوش مصنوعی Al شوند.
ابزارهای فعلی تشخیص ویدیوهای جعلی Deepfake چگونه کار میکنند؟
بیشتر ابزارهای تشخیص با ردیابی چهره در یک فیلم و ارسال دادههای برش داده شده از چهره آن شخص به یک شبکه عصبی مصنوعی، کار میکنند. ویدیوهای Deepfake متقاعدکننده هستند زیرا بالاخره آنها برای کپی کردن چهرۀ یک شخص واقعی ساخته شدهاند.
ابزارهای تشخیص با مشاهده عناصری مانند پلک زدن که معمولا در ویدیوهای Deepfake به خوبی تولید نمیشوند، می توانند جعلی بودن ویدیو را تعیین کنند.
دانشمندان سن دیگو دریافتند که با ایجاد مثالهای متناقضِ چهره و قرار دادن آنها در هر فریم ویدیو، توانستند “پیشرفتهترین ابزارهای تشخیص دیپفیک” را فریب دهند. بعلاوه، تکنیکی که آنها ایجاد کردند حتی برای فیلمهای فشرده شده و حتی اگر دسترسی کاملی به روش کار ابزار تشخیص نداشته باشند، کارایی دارد.
در واقع با این روش بدترین ویدیوهای جعلی نیز میتوانند حتی از سد بهترین ابزارهای تشخیص به سلامت گذر کنند! اما پس توسعهدهندگان چگونه میتوانند ابزارهای تشخیص خوبی طراحی کنند که فریب نخورند؟
دانشمندان استفاده از «آموزش معکوس» را پیشنهاد میدهند که در آن یک تولیدکننده ویدیوهای جعلی تطابقپذیر مرتباً در حال تولید ویدیوهای دیپ فیک است که میتوانند ابزارهای تشخیص را فریب دهد و با این روش ابزارهای تشخیص را آموزش دهند تا بتوانند به پیشرفت در تعیین تصاویر جعلی ادامه دهند.
در نهایت این تیم تحقیقاتی هدف خود از این موضوع را این گونه بیان کرده که ما نشان میدهیم که اگر یک دیپ فیکر اطلاعات کامل یا حتی جزئی از ابزار تشخیص را داشته باشد، میتواند به راحتی از سد روشهای ابزارهای تشخیص Deepfake عبور کند.”