Дипфейки стали настолько реалистичны, что имитируют даже сердцебиение
Дипфейки стали настолько реалистичны, что имитируют даже сердцебиение

Дипфейки стали настолько реалистичны, что имитируют даже сердцебиение

Дипфейки стали настолько реалистичны, что имитируют даже сердцебиение

Искусственный интеллект может переносить этот показатель из настоящих видео.

Современные дипфейки имитируют сердцебиение, а это один из важнейших критериев, с помощью которых их удавалось различать. Это может быть результатом все большей точности, с которой искусственный интеллект (ИИ) компилирует подделки на основе реальных видео, пишет IFLScience.

Дипфейки – это видео, сгенерированные ИИ, демонстрирующие якобы реальных людей в местах и во время событий, которых не было на самом деле. Технология используется, например, в TikTok для создания шутливых роликов, где пользователи предстают в образе животных или в забавных ситуациях. В то же время злоумышленники используют этот инструмент для создания компрометирующих видео. Например, в начале полномасштабного вторжения россияне распространяли дипфейк с якобы объявлявшим капитуляцию президентом Владимиром Зеленским. Но обман был быстро раскрыт.

Для эффективного обнаружения дипфейков разработчики создали детекторы – программное обеспечение, эффективно распознающее видео, сгенерированное ИИ. Один из таких разработчиков – профессор Берлинского университета Гумбольдта Петер Айзерт. Он выступил с заявлением о новых вызовах, представших перед обличителями дипфейков.

«…Недавние высококачественные видео с дипфейками могут иметь реалистичное сердцебиение и незначительные изменения цвета лица, что значительно усложняет их обнаружение», – отметил он.

Сердцебиение – один из основных критериев, на котором базировалось это распознавание. Детекторы используют тот же принцип, что и пульсоксиметры: пропускание света через кожу и кровеносные сосуды. Этот принцип эффективен даже при осмотре пациентов через вебкамеры и в таком случае называется фотоплетизмографией (rPPP).

Детекторы используют rPPP при анализе видео. Масштабные тестирования специалистов Берлинского университета Гумбольдта подтвердили, что этот подход эффективен. Но недавно появились дипфейки, которые могут обмануть его.

ИИ-эксперты выдвигают гипотезу, что при создании фальшивых видео искусственный интеллект более качественно копирует тело человека. Это может быть сделано как специально для большего правдоподобия, так и случайно. Прецедент настораживает, считает Петер Айзерт. Но есть и надежда.

«Наши эксперименты показали, что современные дипфейки могут показывать реалистическое сердцебиение, но не способны симитировать физиологически реалистичные вариации кровотока лица в пространстве и времени», - отметил профессор. Он добавил, что именно этот элемент разработчики постараются включить в работу детекторов.

С момента появления дипфейков постоянно совершенствуется и система распознавания. Помимо сердцебиения алгоритмы также распознавали фальшивые фото и видео, анализируя отражение в глазах. Инструмент показал эффективность в 94% при распознавании поддельных фотографий.

Источник материала
loader