درک جعل عمیق و راه‌های مقابله با آن 
درک جعل عمیق و راه‌های مقابله با آن 

دانانیوز: سرعت انتشار جعل عمیق و سایر انواع دست‌کاری ترکیبی و دست‌کاری با کمک هوش مصنوعی در محتوای رسانه‌ای در حال افزایش است و خبرنگارانی که وظیفه دارند واقعیت را از دروغ جدا کنند، باید همگام با این سرعت کار کنند.

به گزارش دانانیوز( سرویس فناوریهای نوین و هوش مصنوعی)، سایت آی جی نت(ijnet.org) در یادداشتی به قلم ( Mya Zep) آورده است:

از فیلترهای تغییر چهره در اپلیکیشن اسنپ چت گرفته تا ویدیوی جو بایدن، رئیس‌جمهور آمریکا در حال خواندن ترانه Baby Shark، عکس‌ها و ویدیوهای دست‌کاری شده در سال‌های اخیر بسیار گسترش یافته‌اند.

در یک جلسه اخیرِ نشست جهانی نیرومند ساختن واقعیت که از سوی مرکز بین‌المللی خبرنگاران ICFJ برگزار شده بود، ICFJ با shirin anlen، یک متخصص فن‌آوری برای رسانه‌ها در سازمان WITNESS گفتگو کرد. WITNESS که یک سازمان غیرانتفاعی است، به مردم کمک می‌کند که از ویدیو و فن‌آوری در حمایت از حقوق بشر استفاده کند. این سازمان طرحی به نام «تدارک ببینید، وحشت نکنید» (به انگلیسی: Prepare, Don’t Panic) دارد که بعلاوه ابتکارهای دیگر، بر مقابله با استفاده شرورانه از جعل عمیق و محتوای رسانه‌ای جعلی تمرکز دارد. 

در این گفتگو، anlen نکاتی را مطرح کرد تا خبرنگاران بتوانند تهدیدهای برخاسته از محتوای دست‌کاری شده و راه‌های مقابله با آن را بهتر درک کنند. 

در ادامه، چند نکته کلیدی این جلسه را می‌خوانید. 

فن‌آوری‌ها و تهدیدهای آنها

فن‌آوری‌هایی که به سرعت در حال تکامل هستند به کاربران اجازه می‌دهند اشیاء و ویژگی‌های صورت را ویرایش کنند، پرتره‌ها را متحرک بسازند، حرکت‌ها را تغییر دهند، صداها را شبیه‌سازی کنند و…

جعل عمیق یا deepfake به عنوان بخشی از این اکوسیستم، نوعی از دستکاری صدا و تصویر است که به کاربران اجازه می‌دهد صورت، صدا و حرکات انسان‌ها را به طوری که واقعی به نظر برسند، شبیه‌سازی کنند. از محتوای ساخته شده با جعل عمیق، امروزه به اندازه نگران‌کننده‌ای استفاده می‌شود. برای مثال از تصویرهای شبیه‌سازی شده یک فرد، برای فرستادن عکس‌ها و ویدیوهای جنسی و ترویج خشونت جنسیتی استفاده شده است. همچنین ویدیوهای جعلی افراد مشهور و کلیپ‌های صوتی ساختگی، منتشر شده‌اند. 

محتوای تهیه شده با جعل عمیق از طرح «Liar’s Dividend» نیز سود می‌برد که کار خبرنگاران و راستی‌آزمایان را در تأیید یا انکار اعتبار محتوای تصویری سخت‌تر می‌سازد. 

anlen می‌گوید که جعل عمیق، نوعی از محتوای رسانه‌ای دست‌کاری شده است که از همه بیشتر در مورد آن صحبت می‌شود: «جعل عمیق خود بخشی از یک چشم‌انداز بزرگتر تولیدکننده است که ما هر روز آن را بیشتر و بیشتر در اخبار می‌بینیم.»

هرچند محتوای تولیدشده با جعل عمیق متداول‌تر می‌شود، به اندازه‌ای که شاید تصور شود، رایج و عام نیست. زیرا تولید آن نیازمند مهارت و دانش بسیاری است تا به شکل درست ساخته شود، ساختن آن برای افراد معمولی دشوار است. به همین علت، بسیاری از آنچه به شیوه دستکاری شده تولید می‌شود، به اندازه آنچه با جعل عمیق ساخته می‌شود، مشهور نمی‌شود.

فیلترهایی که مو، رنگ چشم و صدای فرد را تغییر می‌دهند، دستکاری‌های سطحی‌تری هستند که به نام «جعل کم‌عمق یا سطحی» شناخته می‌شوند و مردم شاید روزانه با آنها روبرو شوند، به خصوص در شبکه‌های اجتماعی. تهیه کلیپ‌های صوتیِ منتسب به افراد مشهور، نوع دیگری از جعل سطحی است. 

anlen در مورد جعل عمیق می‌گوید که از آن «در سطح گسترده‌ای استفاده نشده است. اغلب آنچه در چشم‌انداز رسانه‌ای اطلاعات نادرست و دروغ می‌بینیم، محتوای تولید شده با جعل سطحی است که بیشتر، مواد بازیافتی زمینه‌ای است.»

بیشتر بخوانید: راهکارهایی برای گزارشگری دیداری مبتنی بر مستندات و اخلاق حرفه‌ای

تشخیص

هر فن‌آوری تازه یک پاشنه آشیل (نقطه ضعف یا آسیب‌پذیری) دارد و جعل عمیق هم از این قاعده مستثناء نیست. کاربران می‌توانند اشتباهات را در ظاهر تشخیص دهند. برای مثال: تصویرهای تهیه شده با جعل عمیق شاید در پس زمینه، تصویر ثابت داشته باشند و یا در آنها دندان‌ها نامنظم باشند. همچنین، ویدیوی شخصی که با هوش‌مصنوعی ساخته شده است شاید بدون مطابقت درست کلمات با حرکات لب‌ها، ساخته شده باشد.

با این حال، این فن‌آوری به سرعت در حال تغییر است. anlen می‌گوید: «در یک تحقیق گفته شد که افراد در تصاویری که با استفاده از جعل عمیق ساخته می‌شوند، پلک نمی‌زنند، بنابراین تشخیص آنها ساده است. اما دو هفته بعد، افراد در ویدیوهای جعل عمیق شروع به پلک زدن کردند.»

تلاش‌ها برای تشخیص محتوای دست‌کاری شده که امروزه دسترسی به آن آسانتر شده و کیفیت آنها افزایش یافته، مثل بازی موش و گربه است. 

به گفته anlen: «نسل اول چهره‌های جعلی، چشم‌های‌شان در مرکز صورت بود. همیشه در مرکز بود، به همین خاطر برای تشخیص آن، به این موضوع توجه می‌شد. اما حالا، انواع مختلفی از تصاویر را داریم که با نورپردازی و حالت‌های متفاوت ساخته می‌شوند و چشم‌هایشان دیگر در مرکز چهره‌شان نیستند.»

anlen می‌افزاید که در دسترسی به ابزارهای با کیفیت تشخیص جعل عمیق هم کمبودهایی وجود دارد. وبسایت‌هایی وجود دارند که همه به آن دسترسی دارند، اما کارایی آنها کم است. تنها شمار اندکی از متخصصان جعل عمیق به ابزارهای تشخیص دقیق دسترسی دارند. 

بیشتر بخوانید: مواجهه خبرنگاران زیست محیطی چین با تهدید و اطلاعات جعلی

راه حل‌ها

در میان شیوه‌های تشخیص جعل‌های عمیق، خبرنگاران می‌توانند محتوای ویدیویی را بررسی کنند و ببینند که آیا اشکال یا کاستی در آن دیده می‌شود، تکنیک‌های موجود برای تأیید را عملی کنند و در صورت امکان از رویکردهای مبتنی بر هوش مصنوعی استفاده کنند. 

همچنین افزایش سواد ابزارهای رسانه‌ای و آموزش بیشتر در مورد محتوای دستکاری شده برای خبرنگاران، بسیار مهم است. 

anlen می‌گوید: «ما باید برای آماده باشیم و واقعیتها را ببینیم. باید چشم‌انداز شرایط موجود را درک کنیم تا فن‌آوری را شکل دهیم، چگونگی ساخت فن‌آوری و چگونگی تنظیم مقررات آن را شکل دهیم و خود، بخشی از آن باشیم، نه این که تنها از آن تأثیر بپذیریم.»

ویدیوی این نشست را اینجا می‌توانید ببینید.

Disarming Disinformation از سوی مرکز بین المللی خبرنگاران با پشتیبانی مالی بنیاد Scripps Howard که یک سازمان وابسته به Scripps Howard Fund است و از فعالیت‌های خیریه شرکت The E.W. Scripps حمایت می‌کند، اداره می‌شود. این طرح سه ساله، خبرنگاران و دانشجویان خبرنگاری را قادر خواهد ساخت که با اطلاعات نادرست در رسانه‌های خبری مقابله کنند. 

توضیح عکس خبر: گلنوشتی هشدارگونه از اندیشمند و پژوهشگر برجسته کشورمان جناب پروفسور محمدعلی مقیسه

[ آنچه مهم است، در آینده نزدیک، مردم دیگر نمی توانند برای تشخیص ویدیوهای (واقعی از تقلبی و جعل)، تنها به چشمان خود اعتماد کنند!!!
بلکه در این موارد لازم است همانند نرم افزارهای ضدویروس فعلی، “نرم افزارهای ضدجعل و تقلب” به کمک انسانها بیاید!!؟]