Роскомнадзор заинтересовался правдой

Роскомнадзор заинтересовался правдой

В ведомстве хотят протестировать систему выявления видеолжи

Роскомнадзор заинтересовался правдой

Роскомнадзор заинтересовался разработкой НИУ ИТМО в области распознавания лжи по видеозаписи с помощью искусственного интеллекта. Прототип решения прошел тестирование в преддверии выборов в Сенат США. В ведомстве допускают, что система может использоваться для выявления «дипфейков». Но участники рынка сомневаются в перспективности разработки, полагая, что вероятность ложных срабатываний будет слишком высока.

Специалисты Национального центра когнитивных разработок (НЦКР) ИТМО разрабатывают для подведомственного Роскомнадзору Главного радиочастотного центра (ГРЧЦ) сервис Expert на основе искусственного интеллекта (ИИ), который позволит проверять видеозаписи выступлений на предмет лжи и манипуляций.

Сервис позволяет анализировать видеозаписи на предмет лжи и представляет интерес для оперативного выявления «дипфейков» (deepfake), уточнил глава Научно-технического центра ФГУП ГРЧЦ Александр Федотов: «Если ИТМО сможет представить устойчиво работающую технологию в виде готового продукта, ГРЧЦ рассмотрит возможность ее применения».

Как пояснили в ИТМО, система Expert анализирует видео или аудио, оценивая уверенность, уровень агрессии внутренней и внешней, конгруэнтность (уровень согласованности информации, передаваемой вербальным и невербальным способом) и противоречивость, сравнивает слова с научными статьями и высказываниями других специалистов.

Сейчас более 90% российских разработок, связанных с ИИ, построены на основе скачанных открытых зарубежных библиотек вместе с дата-сетами для их обучения, объясняет топ-менеджер профильной IT-компании: «Поэтому разработка ИТМО адаптирована для английского языка. Для переобучения под русский потребуется большой массив данных и затраты». Аналогичные разработки велись и на Западе: в 2017 году в США Университет Мэриленда и Дартмутский колледж создали нейросеть, распознающую ложь, которую обучали на видеозаписях судебных процессов. Распознаванием лжи в суде через ИИ также занималась американская Innocence Project, используя для анализа Amazon Mechanical Turk.

У VisionLabs есть экспертиза в разработке детекторов «дипфейков» лиц, и они результативны, говорят в компании: точность работы составляет 94–100% Но сейчас качество работы нейросети оценивается в плоскости теории вероятности, говорит собеседник “Коммерсантъ” на IT-рынке: «Когда такая разработка дойдет даже до пилотной эксплуатации, вероятность ложных срабатываний будет достаточно высока, и потребуются годы, чтобы проект начал приносить пользу». Кирилл Ляхманов из «ЭБР» подчеркивает, что сама идея анализа «правдивости» или «ложности» утверждений по косвенным признакам, связанным с поведением человека, не выдерживает никакой критики: «Любые виды "детекторов лжи" не признаются доказательством в судах большинства стран».


Источник: https://www.kommersant.ru/doc/5646201



Другие новости