ИИ-инструменты для борьбы с фейками в интернете и deepfake-технологии. Как они работают сегодня и каковы перспективы их развития?

Рассказывает эксперт Национальной технологической инициативы, участник “Архипелага 2035” Максим Попилин:

“На данный момент ИИ в широком смысле может сканировать трафик и с определённой вероятностью подсветить возможность фейковости контента, но это будет примерно как рандом. А вот срежиссированные фейки (без применения компьютерных технологий) достаточно сложно распознавать с помощью машины. Особенно текст, если, к примеру, в нем 80% правды и 20% лжи. Думаю, это может быть следующим вызовом для индустрии.

Что касается применения технологии дипфейк для распознавания и/или детекции объектов или фактчекинга изменений в фото/видео/аудио контенте, созданном с помощью этой технологии или фильтров, то это можно делать на достаточно высоком уровне (что и продемонстрировала команда VIEN на “Архипелаге”). Если двигаться дальше, то можно даже распознать сам метод, с помощью которого он был сделан. Но это дорого. При этом остаётся для исследований ещё один вопрос: если фейк создается неизвестным алгоритмом, то насколько обученная сетка среагирует на него, если в датасете при обучении не было примеров? Потенциально любая команда разработчиков компьютерного зрения может заниматься такими задачами.

Как видно сейчас, это по большей части исследования по сбору датасетов для разных языков и применения различных методов к этим данным. Для отдельных небольших задач решения есть. А вот комплексное решение, может появиться уже через 2-3 года, причем подходы к его созданию делаются уже сейчас. И всё равно остается вероятность, что это не фейк или наоборот. Значит, контрольный чек будет за человеком”.

На “Архипелаге 2035” в 2020 году команда VIEN представила сервис Fake Video Detection Service (FVDS). Технология Fake Video Detection Service основана на моделях компьютерного зрения для покадровой оценки и классификации объектов. С помощью нейронной сети система оценивает характеристики лиц на видео и определяет признаки синтетической генерации образов. В случае обнаружения таковых, лицо на экране будет выделено красной рамкой как “фальшивое”.

Автор: Марина Найденкова

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *