Детектор дипфейков Intel протестирован на реальных и фальшивых видео

  • Джеймс Клейтон
  • Журналист по технологиям Северной Америки

В марте прошлого года появилось видео, на котором президент Владимир Зеленский говорит народу Украины сложить оружие и сдаться России.

Это был довольно очевидный дипфейк — тип фальшивого видео, в котором искусственный интеллект используется для смены лиц или создания цифровой версии кого-то.

Но по мере того, как разработки в области ИИ упрощают создание дипфейков, их быстрое обнаружение становится все более важным.

Intel думает, что у нее есть решение, и это кровь на вашем лице.

Компания назвала систему «FakeCatcher».

В роскошном и практически пустом офисе Intel в Силиконовой долине мы встречаемся с научным сотрудником Intel Labs Илке Демиром, который рассказывает нам, как это работает.

«Интересно, что реально в аутентичных видео? Что в нас настоящего? Что является водяным знаком человека? » она говорит.

В центре системы находится метод фотоплетизмографии (ФПГ), который выявляет изменения кровотока.

По ее словам, лица, созданные дипфейками, не передают эти сигналы.

Система также анализирует движение глаз для проверки подлинности.

«Обычно, когда люди смотрят на точку, когда я смотрю на вас, это как будто я выпускаю лучи из своих глаз к вам. Но для дипфейков это как широко раскрытые глаза, они расходятся», — говорит она.

Intel полагает, что, глядя на эти две характеристики, она может определить разницу между реальным и фальшивым видео за считанные секунды.

Компания утверждает, что точность FakeCatcher составляет 96%. Поэтому мы попросили протестировать систему. Интел согласился.

Мы использовали дюжину клипов бывшего президента США Дональда Трампа и президента Джо Байдена.

Некоторые из них были настоящими, другие — дипфейками, созданными Массачусетским технологическим институтом (MIT).

Заголовок видео,

Смотреть: Джеймс Клейтон из BBC тестирует видеодетектор дипфейков

С точки зрения поиска дипфейков система показалась довольно хорошей.

В основном мы выбирали подделки с синхронизацией губ — настоящие видео, где рот и голос были отредактированы.

И он получил все правильные ответы, кроме одного.

Однако когда мы добрались до настоящих аутентичных видео, у нас начались проблемы.

Много раз система объявляла видео фейком, хотя на самом деле оно было настоящим.

Чем более пикселизировано видео, тем сложнее запечатлеть кровоток.

Система также не анализирует звук. Таким образом, некоторые видеоролики, которые при прослушивании голоса звучали совершенно явно как настоящие, были помечены как фейковые.

Проблема заключается в том, что если программа скажет, что видео является фальшивым, хотя оно и является подлинным, это может вызвать серьезные проблемы.

Когда мы говорим об этом г-же Демир, она говорит, что «проверка того, что что-то не так, по сравнению с «будьте осторожны, это может быть неправильно», имеет разный вес».

Она говорит, что система слишком осторожна. Лучше поймать все подделки — и поймать несколько настоящих видео — чем пропустить подделки.

Дипфейки могут быть невероятно тонкими: например, двухсекундный клип в рекламе политической кампании. Они также могут быть некачественными. Подделку можно сделать, только изменив голос.

В связи с этим способность FaceCatcher работать «в дикой природе» — в контексте реального мира — была поставлена ​​под сомнение.

Легенда,

Коллекция дипфейков

Мэтт Грох — доцент Северо-Западного университета в Иллинойсе и эксперт по дипфейкам.

«Я не сомневаюсь в статистике, которую они указали в своей первоначальной оценке», — говорит он. «Но в чем я сомневаюсь, так это в том, что статистика имеет отношение к реальному миру».

Именно здесь становится сложно оценить технологию FakeCatcher.

Такие программы, как системы распознавания лиц, часто предоставляют чрезвычайно щедрые статистические данные о своей точности.

Однако при проверке в реальном мире они могут быть менее точными.

По сути, точность полностью зависит от сложности теста.

Intel утверждает, что FakeCatcher прошел тщательное тестирование. Это включает в себя «дикий» тест, в ходе которого компания собрала 140 поддельных видеороликов, и их настоящие аналоги.

По данным Intel, в этом тесте система прошла 91% успешно.

Однако Мэтт Грох и другие исследователи хотят, чтобы система была проанализирована независимо. Они не думают, что Intel достаточно испытать себя на прочность.

«Я хотел бы оценить эти системы, — говорит Грох.

«Я думаю, что это действительно важно, когда мы разрабатываем аудит и пытаемся понять, насколько что-то специфично в реальных условиях», — говорит он.

Удивительно, как сложно бывает отличить фальшивое видео от реального — и у этой технологии, безусловно, есть потенциал.

Но, основываясь на нашем ограниченном тестировании, ему еще предстоит пройти долгий путь.

cristiano mbappe