Аналитик-фактчекер о том как распознать дипфейки: “Создать фейк легче, дешевле и быстрее, чем разоблачить его”
Аналитик-фактчекер о том как распознать дипфейки: “Создать фейк легче, дешевле и быстрее, чем разоблачить его”

Аналитик-фактчекер о том как распознать дипфейки: “Создать фейк легче, дешевле и быстрее, чем разоблачить его”

Фотография: RFE/RL Current Time

В конце февраля – начале марта 2024 года пользователи украинского сегмента тиктока стали замечать видео, на которых якобы украинские и российские солдаты рассказывают “правду” о войне, говорят, что “между Путиным и Зеленским нет разницы”, и подстрекают к так называемому “Майдану-3”.

Однако если всмотреться в видео, то можно заметить, что лица людей на них порой выглядят плоскими, на них специфические тени, а голова как будто приклеена к телу. При этом речь говорящих достаточно качественно записана, – отмечает издание “Настоящее время“. Эти видео – дипфейки (deepfake), созданные с помощью искусственного интеллекта (ИИ).

Качество видео, созданных искусственным интеллектом, стремительно улучшается. Так, в феврале 2024 года пользователей соцсетей удивила презентованная компанией OpenAI нейросеть Sora, которая генерирует довольно реалистичные видео высокого качества по текстовому запросу. С фотографиями заметить подлог еще сложнее. Находясь в эмоциональном состоянии, особенно когда речь идет о сообщениях, связанных с войной, пользователи могут не обращать внимания на то, реальны ли фото, которые они находят, и делиться ими в своих профилях.

Телеканал “Настоящее Время” рассказывает о том, какими бывают дипфейки, что помогает обычным пользователям не попадаться на эти уловки и как социальные сети и СМИ могут противодействовать распространению фальшивых фото, аудио и видео, созданных с помощью искусственного интеллекта.

Дипфейки: польза и опасность

Технологии, позволяющие создать фейковые видео, фото или аудио, вопреки распространенному мнению, приносят и пользу: их можно использовать в образовательных целях, в культуре, науке. Однако значительно чаще о дипфейках говорят в контексте распространения дезинформации и пропаганды. Одним из проектов, которые разоблачают фейки в Украине, является проект VoxCheck, созданный на базе аналитического центра VoxUkraine. Он начинал работу с классического фактчекинга: проверки фактов и данных, обнародованных политиками, а позже начал проверять также экспертов и медиа. В 2020 году VoxCheck стал одним из партнеров Facebook в фактчекинговой программе для проверки и оценки точности контента.

Редактор и старший аналитик проекта VoxCheck Кирилл Перевощиков говорит, что в своей работе все чаще сталкивается с дипфейками. Он делит их на три условные группы.

Первая – это фейки, которые используются для информационных атак, для информационно-психологических операций (ИПСО), чтобы посеять панику или вызвать недоверие к властям в Украине. “Из последних можно вспомнить разные дипфейки как Залужного, так и Зеленского. Что, мол, Залужный записал видео, где объявляет про госпереворот, [говорит] о том, что Зеленский нелегитимный”, – вспоминает Перевощиков. Также он напоминает о дипфейке, в котором ведущий французского телеканала якобы объявил, что президент Франции отменил визит в Киев в феврале 2024 года из-за того, что так называемый режим Зеленского готовил на него покушение.

За основу был взят реальный репортаж, к которому перезаписали аудио и немного подкорректировали видео. “И судя по последним заявлениям украинских властей, в частности разведки, россияне готовят спецоперацию под названием “Майдан 3”, где будут как раз “качать” ситуацию внутри Украины и шерить фейки про мобилизацию, про легитимность президента. То есть раскачивать ситуацию, чтобы люди окончательно устали от войны и были готовы к капитуляции в этой войне”, – рассказывает аналитик.

Второй подвид дипфейков – коммерческие, их публикуют не для подрыва доверия к власти, а для накрутки подписок или кликбейта. “Часто в тиктоке, в ютубе распространяются фейки с символикой известных телеканалов в Украине, например ТСН, ICTV, 24 канал. И там известные ведущие с аудио, сгенерированным с помощью ИИ, объявляют шокирующие новости”, – объясняет аналитик. Такие видео обычно низкого качества, их легко разоблачить, но какая-то часть пользователей интернета все равно продолжает их потреблять.

И, наконец, в третью группу аналитик выделяет дипфейки, созданные ради шутки, – сатиру или юмор. “Есть сеть каналов, как украинских, так и российских, которая использует ИИ для юмора, для развлечения аудитории. Они открыто заявляют, что их контент – юмористический, его не нужно воспринимать как серьезный.

Но при этом часто [другие пользователи или каналы] эти видео репостят как серьезные новости”. В начале этого года один из телеграм-каналов, который регулярно публикует дипфейки с украинскими политиками или военными, записал видео с Василием Малюком, главой СБУ, в котором тот якобы обещает приходить лично домой к украинцам, которые публикуют фото или видео работы ПВО. Далее этот фейк оказался в Z-каналах как реальное заявление СБУ.

“Наиболее опасные для украинцев, ну и, в принципе, для любой аудитории как раз дипфейки, которые сочетаются с ИПСО и созданы для подрыва поддержки Украины на Западе, для подрыва доверия к власти, снижения поддержки армии или для разжигания вражды”, – считает Перевощиков.

Как распознать дипфейк

Тренд на дипфейки в пропаганде и дезинформации аналитик связывает с тем, что технологии достаточно просты и доступны для рядового пользователя интернета – не нужно владеть навыками работы в сложных программах, достаточно иметь базовую подписку на один из высокотехнологичных сервисов за 1$.

К примеру, работая в программе ElevenLabs, которая хорошо совместима и с русским, и с украинским языком, можно генерировать довольно качественные аудио. Аналитик говорит, что процесс создания такой аудиодорожки может занять 5-10 минут: достаточно найти несколько примеров голоса спикера с качественным звуком, чтобы программа смогла скопировать голос и ввести текст, который нужно этим голосом озвучить.

“Мы сами создавали дипфейки [в демонстрационных целях]: для одного репортажа [о разоблачении дипфейков], например, мы подделали голос Путина, также у меня есть пример с Зеленским. И их голоса достаточно убедительно звучат, если не особо вдаваться в детали, прислушиваться”, – рассказывает Кирилл Перевощиков и демонстрирует один из примеров:

Дипфейк создан и предоставлен проектом VoxCheck в демонстрационных целях

Аудио можно отредактировать, изменить акценты и дальше примонтировать к видео спикера, рассказывает аналитик VoxCheck. Но работать с видео уже сложнее: “Часто пропагандисты попадаются как раз на качестве видео: там или мимика спикера отстает от звука, или само видео имеет плохое качество, или есть какие-то артефакты на фоне, или губы как-то странно двигаются”.

Еще одна важная причина тренда на дипфейки в пропаганде – сложность их разоблачения. “Создать фейк легче, дешевле и быстрее, чем разоблачить его, то есть инструменты проверки фейков, в том числе и дипфейков, развиваются медленнее, чем инструменты для проверки этих фейков. Мы как фактчекеры, журналисты, любые работники медиа всегда вынуждены запаздывать, потому что тратим больше ресурсов, времени, чтобы это разоблачить”, – говорит Перевощиков.

Он видит причину “успеха” дипфейков еще и в том, что аудитория пока к ним не привыкла: “Если украинцы уже начали меньше употреблять российской дезинформации, меньше смотреть русских каналов, то к таким технологиям они еще не привыкли, и поэтому у них не хватает знаний, как этому противодействовать”.

Однако даже обычный пользователь интернета, не имеющий специальных инструментов, с большой вероятностью может распознать дипфейк. “Главный инструмент, как бы пафосно это ни звучало, – это наша внимательность”, – говорит Кирилл Перевощиков.

Аналитик рекомендует для начала просто внимательнее присмотреться и прислушаться: “Если говорить про видео, мы обращаем внимание на мимику спикера, совпадает ли она с аудио, не отстает ли звук от картинки, какое качество самого видео или аудио. Сам голос может звучать неестественно, могут отсутствовать какие-то сторонние шумы, звуки – то есть будто бы видео записано не в помещении, не на улице, а в студии, хотя для этого нет никаких предпосылок”.

Кроме того, неладное с видео может выдать зацикленность движений, повторение одних и тех же жестов говорящего. Также аналитик VoxCheck рекомендует проверять первоисточник: если на видео или фото задействован какой-то известный человек (а большинство дипфейков, распространявшихся в Украине, созданы с “участием” известных людей – военных, политиков, ведущих, журналистов), всегда стоит проверить информацию на официальной странице либо в проверенных и надежных СМИ.

“И если этой информации нет ни на официальной странице, ни на страницах известных качественных проверенных СМИ, то тогда можно с уверенностью сказать, что это дипфейк”, – констатирует Кирилл Перевощиков.

Распознать фото, сгенерированное ИИ, может быть, сложнее. Однако всмотревшись в картинку, можно заметить нестыковки: лишние или недостающие конечности или пальцы, слишком “глянцевую” кожу, необычные символы. Когда генерируют фото с группой людей, несколько человек на нем могут выглядеть как близнецы. Кроме того, если на подозрительном фото есть известные личности, стоит опять же проверить первоисточник – действительно ли это изображение публиковалось на официальных каналах или в соцсетях этих людей.

Дипфейк проанализирован и разоблачен проектом VoxCheck. Источник: Voxukraine.org

Дипфейк проанализирован и разоблачен проектом VoxCheck. Источник: Voxukraine.org

“В конце прошлого года в украинском сегменте фейсбука часто распространяли фото будто бы украинских военных, которые стоят на коленях и молятся перед боем. И там, например, на [форме] военной на переднем плане флаг Украины состоял из трех полос – голубая, желтая и голубая. То есть искусственный интеллект как-то странно интерпретировал украинский флаг и создал новый символ. Более того, сами военные были в форме, больше похожей на российскую, у них не было такого узнаваемого “пикселя”.

К часто встречающимся “проколам” искусственного интеллекта относят странно выглядящий фон позади изображенных на картинке людей: “Недавно опубликовали фото якобы Байдена в военной форме, где он в командном центре планирует удары по Йемену. И все провода и девайсы, которые находились на столе, странно перемешались и выглядели как какая-то каша, то есть фон позади человека может вообще выглядеть неестественно”.

Дипфейк проанализирован и разоблачен проектом VoxCheck. Источник: Voxukraine.org

Дипфейк проанализирован и разоблачен проектом VoxCheck. Источник: Voxukraine.org

Нередко дипфейки используются для создания изображений так называемых чудес природы. “В прошлом году мы разоблачали фейк о том, что якобы моряки из Латинской Америки поймали самого большого в мире лобстера, и он выглядит по размеру как небольшой слон. Сам лобстер выглядит достаточно четко, а люди позади – замыленные, весь горизонт позади них завален. Все выглядит максимально фальшиво на таких фото”.

В разоблачении также может помочь обратный поиск изображений в любом поисковике (Google, Bing, Яндекс) – и система покажет картинки, похожие или идентичные загруженным. В Яндексе лучше искать именно контент, созданный на русском языке. Также обычным пользователям может пригодиться уже упомянутый сервис для создания дипфейков ElevenLabs: у него есть своя программа AI Speech Classifier – она определяет, создавали ли это видео или аудио конкретно в этой программе.

Поскольку ElevenLabs достаточно популярна среди украинцев и россиян, многие фейки можно выявить именно так. Кроме того, специалисты упоминают сервисы Hive Moderation или AI or not, но у них есть ограничения функций, доступных бесплатно. При этом аналитики подчеркивают, что даже специальные программы не могут разоблачить все дипфейки – и в программах есть погрешности.

Кроме того, есть сервисы для проверки, которые доступны только отдельным специалистам или еще находятся в разработке и доступны крупным компаниям, государственным учреждениям, но не широкой аудитории.

“Поэтому мы и настаиваем на комплексном анализе. То есть не только залили видео, проверили в инструменте – все, проверка готова. Нет, сперва мы всегда проверяем первоисточники, всегда обращаем внимание на само качество фото, аудио, видео, и уже после этого инструмент как бонус. Не основа нашей проверки, а окончательный аргумент, что это не фейк”, – делится тонкостями процесса проверки контента аналитик проекта VoxCheck Кирилл Перевощиков.

Однако лучший способ не попадаться в ловушку дипфейков – читать качественные источники информации, уверен аналитик. И даже в случае использования соцсетей и мессенджеров, где может попадаться очень разная и не всегда достоверная информация, всегда можно подписаться на качественные медиа, напоминает Перевощиков. “В Украине, например, есть белый список медиа, который составляется Институтом массовой информации. Там как раз общеукраинские медиа, которые регулярно придерживаются стандартов. Также советуем читать украиноязычные версии международных медиа – BBC, Deutsche Welle, Радио Свобода. То есть если вы подписаны на нормальные каналы, если вы не читаете анонимные каналы, особенно массовые в Украине, то у вас уже намного меньше шансов столкнуться с дипфейком”.

Дипфейки и ответственность

На фоне все более широкого распространения технологии дипфейков компания Meta (Facebook) объявила, что в 2024 году, когда во всем мире пройдет ряд важных выборов (президентские выборы в США и России, выборы в Европарламент и другие), она будет маркировать любой контент, сгенерированный искусственным интеллектом. Посты в инстаграме и фейсбуке будут сопровождаться сообщениями о том, что изображение или видео не настоящие, а созданные с помощью ИИ. Также Meta планирует маркировать ИИ-контент, созданный не только в ее сервисах, но и в продуктах других компаний, например Google или Microsoft. Нововведения обещают воплотить в ближайшие месяцы. Однако настолько серьезно к борьбе с фейками относятся не все соцсети.

“Для украинцев самую большую опасность представляет телеграм, потому что по опросам он является главным источником информации среди тех, кто читает интернет-новости, соцсети. И проблема телеграма в том числе в том, что топовые телеграм-каналы с большим количеством подписчиков – это частично или полностью анонимные каналы, которые как раз не несут никакой ответственности за свой контент. Они часто публикуют и какие-то лживые новости, недобросовестную рекламу, “джинсу” от политиков.

И у них минимальные стандарты журналистики, они кардинально отличаются от традиционных СМИ. Украинцы начали читать меньше новостей из России и про Россию. Но как раз проблема в том, что даже украинские каналы, которые якобы и поддерживают Украину, и могут постить те же сборы для военных, радоваться проукраинским новостям, публикуют непроверенные новости.

В этом как раз и ловушка: эти каналы уже после того, как набрали доверия, набрали подписчиков, могут постить дипфейки, даже ту же сатиру или шутки. Но при этом если они не будут это маркировать как несерьезный контент, некоторые невнимательные пользователи воспримут их как правду”, – говорит Перевощиков.

Он подчеркивает, что при этом в телеграме нет инструментов для противодействия фейкам: “Можно пожаловаться из-за насилия, из-за распространения наркотиков, порнографии, но именно на фейки там нельзя пожаловаться в отличие от, например, фейсбука. Или в том же твиттере есть так называемый инструмент Community Notes, то есть заметки сообщества, и когда публикуется какая-то дезинформация, пользователи могут добавить к этой новости какой-то контекст: “Осторожно! Тут приведены не все факты, и вот в чем состоит правда”. В телеграме ничего подобного нет, и как раз да, в этом заключается опасность”.

“Так же, как и с телеграмом, в ютубе, к сожалению, нет инструментов для маркировки фейкового контента, есть только опция “пожаловаться”. И у нас нет пока что инструментов для ограничения хотя бы их распространения в соцсетях”, – добавляет аналитик.

На фоне выборов в Европарламент некоторые ИИ-компании пообещали, что будут сотрудничать друг с другом, чтобы люди получали более достоверные новости. Насколько это может повлиять на распространение фейков, прогнозировать сложно. Никакой конкретики о том, как именно они будут противодействовать и какими инструментами, не сообщали, подчеркивает аналитик. “Я вижу от них больше заявлений, но меньше дел именно для создания какого-то продукта, например, для тех же фактчекеров”, – говорит аналитик проекта VoxCheck.

Что же касается регулирования дипфейков на государственном уровне, то первый шаг в этом направлении в марте 2024 года сделал Европарламент: он одобрил первый в мире закон, регулирующий применение искусственного интеллекта государствами. Он запрещает распознавание лиц в режиме реального времени, запрещает создание “социальных рейтингов” и полицейского “профилирования” с использованием ИИ, а также обязывает производителей контента соблюдать закон об авторском праве и четко маркировать все, что создано с использованием искусственного интеллекта.

Автор: Любовь Багацкая

Источник: Настоящее время

Tweet
Джерело матеріала
loader
loader