Поделиться:

Петербургские ученые создают технологию распознавания поддельных изображений

photo

Кибермошенники используют новые методы обмана, применяя искусственный интеллект для создания точных цифровых копий людей. Они рассылают аудио и видео своих "двойников" знакомым жертв, прося их перечислить деньги.

Чтобы противостоять этой угрозе, ученые из Санкт-Петербургского федерального исследовательского центра Российской академии наук разработали уникальную технологию распознавания дипфейков. Эта технология позволяет разоблачить поддельные изображения и видео, созданные с помощью нейросетей, всего за несколько секунд.

Как работает технология?

Анализ "шума": Любое отредактированное изображение содержит "шум", дополнительные наслоения, которые невооруженным глазом заметить сложно. Эта особенность помогает определить, была ли фотография или видеофайл изменен. Изменения цвета: Даже незначительные изменения в оттенках цвета, которые не видны на обычном мониторе, могут быть зафиксированы нейронными сетями. Движение: Отредактированные видеофайлы можно распознать по особенностям движения, так как нейросети не всегда могут точно имитировать естественные движения человека.

Ученые сконцентрировались на разоблачении фото-дипфейков, так как их подделка сложнее всего.

Дипфейки - не всегда зло. Используются в развлекательных целях, например, в создании фильмов и сериалов. Применяются на сайтах знакомств, чтобы скрыть недостатки внешности.

Но дипфейки могут быть очень опасными в руках мошенников. Могут использоваться для выманивания денег у жертв, заменяя лица и голоса настоящих людей. Создаются политические провокационные видео, чтобы дискредитировать людей. В судах подозреваемые могут подделывать улики и создавать ложные алиби.

Разработка петербургских ученых будет иметь большое значение в будущем:

Исследователи работают над созданием открытой базы данных, которая будет доступна всем желающим:

По условиям гранта, полученного от Фонда содействия инновациям, уже через полтора года будет создана библиотека интеллектуальных методов распознавания поддельных или измененных изображений человеческих лиц.

0

0

0

0

0

Комментарии

Актуальное