دانشمندان می‌گویند ابزارهای تشخیص ویدیوهای جعلی Deepfake می‌توانند فریب بخورند

0

دانشگاه‌ها، سازمان‌ها و غول‌های فناوری، مانند مایکروسافت و فیس بوک، در حال کار بر روی ابزاری هستند که می‌تواند ویدیوهای جعلی Deepfake را تشخیص دهد تا از انتشار اطلاعات غلط و ایجاد رسانه‌های مخرب جلوگیری کند. اما گروهی از دانشمندان علوم کامپیوتر در سان دیگو هشدار داده‌اند که این ابزارهای تشخیص ویدیوهای Deepfake می‌توانند فریب بخورند.

این تیم تحقیقاتی در کنفرانس رایانه‌ای WACV سال 2021 که در ماه ژانویه به صورت آنلاین برگزار شد، با درج ورودی‌هایی به نام “مثال‌های متناقض” در هر فریم ویدیویی خود نشان دادند که چگونه ابزار تشخیص ویدیوهای Deepfake می‌توانند اشتباه کنند.

این تیم تحقیقاتی در توضیح این موضوع اعلام کرده که “مثال های متاقض” عکس‌های دستکاری شده‌ای هستند که می‌توانند باعث به وجود آمدن اشتباه در سیستم هوش مصنوعی Al شوند.

ابزارهای فعلی تشخیص ویدیوهای جعلی Deepfake چگونه کار می‌کنند؟

بیشتر ابزارهای تشخیص با ردیابی چهره در یک فیلم و ارسال داده‌های برش داده شده از چهره آن شخص به یک شبکه عصبی مصنوعی، کار می‌کنند. ویدیوهای Deepfake متقاعدکننده هستند زیرا بالاخره آنها برای کپی کردن چهرۀ یک شخص واقعی ساخته شده‌اند.

ابزار‌های تشخیص با مشاهده عناصری مانند پلک زدن که معمولا در ویدیوهای Deepfake به خوبی تولید نمی‌شوند، می توانند جعلی بودن ویدیو را تعیین کنند.

دانشمندان سن دیگو دریافتند که با ایجاد مثال‌های متناقضِ چهره و قرار دادن آنها در هر فریم ویدیو، توانستند “پیشرفته‌ترین ابزارهای تشخیص دیپ‌فیک” را فریب دهند. بعلاوه، تکنیکی که آنها ایجاد کردند حتی برای فیلم‌های فشرده شده و حتی اگر دسترسی کاملی به روش کار ابزار تشخیص نداشته باشند، کارایی دارد.

در واقع با این روش بدترین ویدیوهای جعلی نیز می‌توانند حتی از سد بهترین ابزارهای تشخیص به سلامت گذر کنند! اما پس توسعه‌دهندگان چگونه می‌توانند ابزارهای تشخیص خوبی طراحی کنند که فریب نخورند؟

دانشمندان استفاده از «آموزش معکوس» را پیشنهاد می­دهند که در آن یک تولیدکننده ویدیوهای جعلی تطابق‌پذیر مرتباً در حال تولید ویدیوهای دیپ فیک است که می‌توانند ابزارهای تشخیص را فریب دهد و با این روش ابزارهای تشخیص را آموزش دهند تا بتوانند به پیشرفت در تعیین تصاویر جعلی ادامه دهند.

در نهایت این تیم تحقیقاتی هدف خود از این موضوع را این گونه بیان کرده که ما نشان می‌دهیم که اگر یک دیپ فیکر اطلاعات کامل یا حتی جزئی از ابزار تشخیص را داشته باشد، می‌تواند به راحتی از سد روش‌های ابزارهای تشخیص Deepfake عبور کند.”

منبع Engadget
نوشتن دیدگاه

آدرس ایمیل شما منتشر نخواهد شد.

دیدگاه شما پس از بررسی توسط تحریریه منتشر خواهد شد. در صورتی که در بخش نظرات سوالی پرسیده‌اید اگر ما دانش کافی از پاسخ آن داشتیم حتماً پاسخگوی شما خواهیم بود در غیر این صورت تنها به امید دریافت پاسخ مناسب از دیگران آن را منتشر خواهیم کرد.