کد خبر : 185551
تاریخ انتشار : چهارشنبه ۱۵ دی ۱۴۰۰ - ۱۸:۲۸

آشکارسازهای “دیپ‌فیک” هم گول می‌خورند

آشکارسازهای “دیپ‌فیک” هم گول می‌خورند

دانشمندان با آزمایش پیشرفته‌ترین آشکارسازهای فناوری “دیپ‌فیک”(deepfake) به معنای “جعل عمیق” ثابت کردند که می‌توان آنها را نیز فریب داد. به گزارش ایسنا و به نقل از انگجت، دانشگاه‌ها، سازمان‌ها و غول‌های فناوری مانند مایکروسافت و فیسبوک با کار بر روی ابزارهایی که بتوانند “جعل عمیق” را تشخیص دهند، در تلاش هستند تا از استفاده از

آشکارسازهای "دیپ‌فیک" هم گول می‌خورند

دانشمندان با آزمایش پیشرفته‌ترین آشکارسازهای فناوری “دیپ‌فیک”(deepfake) به معنای “جعل عمیق” ثابت کردند که می‌توان آنها را نیز فریب داد.

به گزارش ایسنا و به نقل از انگجت، دانشگاه‌ها، سازمان‌ها و غول‌های فناوری مانند مایکروسافت و فیسبوک با کار بر روی ابزارهایی که بتوانند “جعل عمیق” را تشخیص دهند، در تلاش هستند تا از استفاده از آن برای گسترش اخبار مخرب و اطلاعات غلط جلوگیری کنند.

اکنون گروهی از دانشمندان علوم رایانه از دانشگاه “سن دیگو” هشدار داده‌اند که آشکارسازهای “جعل عمیق” هنوز هم با وجود این ابزارها قابل فریب دادن هستند.

این تیم در کنفرانس بینش رایانه ای “WACV 2021” که به صورت آنلاین برگزار شد، با درج ورودی‌هایی در هر فریم ویدیویی نشان داد که چگونه می‌توان ابزارهای شناسایی “جعل عمیق” را فریب داد.

دانشمندان در اطلاعیه خود توضیح دادند که این ورودی‌ها تصاویر دستکاری شده‌ای هستند که می‌توانند باعث اشتباه سیستم‌های هوش مصنوعی شوند. اغلب آشکارسازها با ردیابی چهره در فیلم‌ها و ارسال داده‌های برشی از چهره به یک شبکه عصبی کار می‌کنند. فیلم‌های جعل عمیق قانع کننده هستند، زیرا با یک کپی از چهره یک شخص واقعی دستکاری شده‌اند، اما سیستم ردیاب یا آشکارساز می‌تواند با مشاهده عناصری مانند پلک زدن که در نسخه جعل عمیق واقعی به نظر نمی‌رسند، صحت ویدیو را تشخیص دهد.

اما دانشمندان دریافتند که با اعمال ورودی‌هایی از چهره و قرار دادن آنها در هر فریم از فیلم می‌توان حتی پیشرفته‌ترین آشکارسازهای جعل عمیق را نیز فریب داد. به علاوه، روشی که آنها ابداع کردند، حتی برای فیلم‌های فشرده نیز کارایی دارد.

بنابراین توسعه دهندگان چگونه می‌توانند آشکارسازهایی ایجاد کنند که قابل فریب دادن نباشند؟ دانشمندان توصیه می‌کنند از “آموزش متخاصم” استفاده شود. در این حالت یک نمونه جعلی تطبیقی ​​مرتباً نسخه جعلی ایجاد می‌کند که می‌تواند آشکارساز را آموزش دهد تا آشکارساز بتواند در تشخیص تصاویر غیر معتبر پیشرفت کند.

محققان در مقاله خود نوشتند: برای استفاده از این آشکارسازهای کاربردی جعل عمیق، ما استدلال می‌کنیم که ارزیابی سیستم در برابر یک دشمن تطبیقی ​​که از همه چیز آگاه است و قصد دارد این دفاع‌ها را خنثی کند، ضروری است.

منبع:ایسنا

برچسب ها :

ناموجود
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.