تعدادی از شرکت ها از جمله Microsoft і Facebookو حتی محققان دانشگاه کالیفرنیای جنوبی در حال توسعه فناوری هایی برای مبارزه با دیپ فیک و جلوگیری از انتشار آنها توسط رسانه های زرد و به طور کلی اطلاعات نادرست هستند. با این حال، گروهی از دانشمندان همچنان موفق شدند آنها را فریب دهند.
تیمی از دانشمندان کامپیوتر در دانشگاه کالیفرنیا، سن دیگو هشدار دادند که هنوز هم می توان سیستم های تشخیص دیپ فیک موجود را با قرار دادن داده های ورودی به نام "نمونه های رقابتی" در هر فریم ویدئو فریب داد. دانشمندان یافته های خود را در کنفرانس بینایی رایانه ای WACV 2021 که ماه گذشته به صورت آنلاین برگزار شد، ارائه کردند.
نمونههای رقیب ورودیهای کمی تغییر یافته هستند که باعث میشوند سیستمهای هوش مصنوعی، مانند مدلهای یادگیری ماشین، اشتباه کنند. علاوه بر این، تیم نشان داد که حمله پس از فشردهسازی ویدیو همچنان کار میکند. در ویدیوی بالا، دانشمندان نشان میدهند که XceptionNet، یک آشکارساز دیپفیک، ویدیوی رقیب خود را «واقعی» مینویسد.
بیشتر این آشکارسازها با ردیابی چهره ها در یک ویدیو و ارسال داده های برش داده شده به یک شبکه عصبی برای تجزیه و تحلیل کار می کنند. سپس شبکه عصبی این داده ها را تجزیه و تحلیل می کند و عناصری را پیدا می کند که معمولاً در دیپ فیک ها به خوبی بازتولید نمی شوند، مانند سوسو زدن.
با قرار دادن نمونههای رقیب، محققان دریافتند که میتوانند این ردیابهای دیپفیک را فریب دهند و باور کنند که ویدیوها واقعی هستند.
آنها در این مقاله بیان می کنند که «برای استفاده از این آشکارسازهای دیپ فیک در عمل، ارزیابی آنها در برابر یک دشمن تطبیقی که از این حفاظت آگاه است و عمداً سعی در شکستن آن دارد، مهم است. ما نشان میدهیم که اگر مهاجم به طور کامل یا حتی تا حدی از آشکارساز آگاه باشد، میتوان از روشهای تشخیص عمیق دیپفیک به راحتی عبور کرد.»
همانطور که این دانشمندان نشان دادهاند، فناوریهای اتوماسیونی که برای مبارزه با اطلاعات نادرست توسعه مییابند ممکن است هنوز به وظیفه خود نرسیده باشند.
همچنین بخوانید:
پاسخ دهید