Управление перспективных исследовательских проектов Министерства обороны США (DARPA) ищет средства для быстрого обнаружения deepfake

Deepfake. Министерство обороны США попытается решить проблему

Министерство обороны США попытается решить проблему deepfake

Управление перспективных исследовательских проектов Министерства обороны США (DARPA) ищет средства для быстрого обнаружения deepfake в условиях «растущей угрозы крупномасштабных дезинформационных атак».

 

На прошлой неделе Управление объявило о том, что 28 августа проведёт день соискателей. Цель мероприятия — дать больше информации о программе Semantic Forensics (SemaFor). Программа, по словам DARPA, будет разрабатывать способы обхода некоторых слабых сторон современных deepfake-инструментов. «Методы обнаружения, которые использовались раньше, часто можно обмануть из-за их ограниченных ресурсов, — говорится в объявлении DARPA. — Однако существующие алгоритмы автоматического генерирования и манипулирования мультимедиа в значительной степени подвержены семантическим ошибкам».

Под «семантическими ошибками» специалисты Управления имеют в виду ситуации, когда в искусственно сгенерированных изображениях допускаются просчёты — например, когда у человека с искусственно сделанным лицом оказываются «несоответствующие серьги» или другие неправильные детали.

«Эти семантические неудачи дают возможность получить преимущество», — говорится в сообщении Управления.

Читайте также: Face ID на iPhone можно обмануть очками и изолентой

Предварительный график дня соискателей включает в себя брифинги ряда должностных лиц DARPA с учётом выделенного времени для вопросов и ответов участников. Для участия в мероприятии нужна предварительная регистрация.

Это объявление — не первая попытка DARPA нанести удар технологии deepfake. С 2016 года в агентстве работает команда Media Forensics (MediFor), занимающаяся разработками в этой области. Цель работы команды заключается в том, чтобы «выровнять ситуацию на игровом поле цифровых изображений, которая в настоящее время благоприятна для манипуляций, путем разработки технологий автоматизированной оценки изображений или видео». Программа стартовала в 2016 году и будет финансироваться до 2020 года. Дэвид Доерманн, руководитель программы MediFor, заявил NBC News, что после 2020 года команда надеется работать с компаниями Кремниевой долины над интеграцией инструмента непосредственно на своих платформах.

Всего же за последние два года Управление потратило $68 миллионов на разработки, призванные обнаруживать deepfake.

Источник
Нравится
Не нравится
17:30
RSS
Нет комментариев. Ваш будет первым!

Авторизация