دانشمندان با آزمایش پیشرفتهترین آشکارسازهای فناوری “دیپفیک”(deepfake) به معنای “جعل عمیق” ثابت کردند که میتوان آنها را نیز فریب داد.
به گزارش ایسنا و به نقل از انگجت، دانشگاهها، سازمانها و غولهای فناوری مانند مایکروسافت و فیسبوک با کار بر روی ابزارهایی که بتوانند “جعل عمیق” را تشخیص دهند، در تلاش هستند تا از استفاده از آن برای گسترش اخبار مخرب و اطلاعات غلط جلوگیری کنند.
اکنون گروهی از دانشمندان علوم رایانه از دانشگاه “سن دیگو” هشدار دادهاند که آشکارسازهای “جعل عمیق” هنوز هم با وجود این ابزارها قابل فریب دادن هستند.
این تیم در کنفرانس بینش رایانه ای “WACV 2021” که به صورت آنلاین برگزار شد، با درج ورودیهایی در هر فریم ویدیویی نشان داد که چگونه میتوان ابزارهای شناسایی “جعل عمیق” را فریب داد.
دانشمندان در اطلاعیه خود توضیح دادند که این ورودیها تصاویر دستکاری شدهای هستند که میتوانند باعث اشتباه سیستمهای هوش مصنوعی شوند. اغلب آشکارسازها با ردیابی چهره در فیلمها و ارسال دادههای برشی از چهره به یک شبکه عصبی کار میکنند. فیلمهای جعل عمیق قانع کننده هستند، زیرا با یک کپی از چهره یک شخص واقعی دستکاری شدهاند، اما سیستم ردیاب یا آشکارساز میتواند با مشاهده عناصری مانند پلک زدن که در نسخه جعل عمیق واقعی به نظر نمیرسند، صحت ویدیو را تشخیص دهد.
اما دانشمندان دریافتند که با اعمال ورودیهایی از چهره و قرار دادن آنها در هر فریم از فیلم میتوان حتی پیشرفتهترین آشکارسازهای جعل عمیق را نیز فریب داد. به علاوه، روشی که آنها ابداع کردند، حتی برای فیلمهای فشرده نیز کارایی دارد.
بنابراین توسعه دهندگان چگونه میتوانند آشکارسازهایی ایجاد کنند که قابل فریب دادن نباشند؟ دانشمندان توصیه میکنند از “آموزش متخاصم” استفاده شود. در این حالت یک نمونه جعلی تطبیقی مرتباً نسخه جعلی ایجاد میکند که میتواند آشکارساز را آموزش دهد تا آشکارساز بتواند در تشخیص تصاویر غیر معتبر پیشرفت کند.
محققان در مقاله خود نوشتند: برای استفاده از این آشکارسازهای کاربردی جعل عمیق، ما استدلال میکنیم که ارزیابی سیستم در برابر یک دشمن تطبیقی که از همه چیز آگاه است و قصد دارد این دفاعها را خنثی کند، ضروری است.
منبع:ایسنا