Top.Mail.Ru
Роскомнадзор заинтересовался правдой
ENG
03 ноября 2022

Роскомнадзор заинтересовался правдой

В ведомстве хотят протестировать систему выявления видеолжи
Редакция Центра глобальной ИТ-кооперации

Роскомнадзор заинтересовался разработкой НИУ ИТМО в области распознавания лжи по видеозаписи с помощью искусственного интеллекта. Прототип решения прошел тестирование в преддверии выборов в Сенат США. В ведомстве допускают, что система может использоваться для выявления «дипфейков». Но участники рынка сомневаются в перспективности разработки, полагая, что вероятность ложных срабатываний будет слишком высока.

Специалисты Национального центра когнитивных разработок (НЦКР) ИТМО разрабатывают для подведомственного Роскомнадзору Главного радиочастотного центра (ГРЧЦ) сервис Expert на основе искусственного интеллекта (ИИ), который позволит проверять видеозаписи выступлений на предмет лжи и манипуляций.

Сервис позволяет анализировать видеозаписи на предмет лжи и представляет интерес для оперативного выявления «дипфейков» (deepfake), уточнил глава Научно-технического центра ФГУП ГРЧЦ Александр Федотов: «Если ИТМО сможет представить устойчиво работающую технологию в виде готового продукта, ГРЧЦ рассмотрит возможность ее применения».

Как пояснили в ИТМО, система Expert анализирует видео или аудио, оценивая уверенность, уровень агрессии внутренней и внешней, конгруэнтность (уровень согласованности информации, передаваемой вербальным и невербальным способом) и противоречивость, сравнивает слова с научными статьями и высказываниями других специалистов.

Сейчас более 90% российских разработок, связанных с ИИ, построены на основе скачанных открытых зарубежных библиотек вместе с дата-сетами для их обучения, объясняет топ-менеджер профильной IT-компании: «Поэтому разработка ИТМО адаптирована для английского языка. Для переобучения под русский потребуется большой массив данных и затраты». Аналогичные разработки велись и на Западе: в 2017 году в США Университет Мэриленда и Дартмутский колледж создали нейросеть, распознающую ложь, которую обучали на видеозаписях судебных процессов. Распознаванием лжи в суде через ИИ также занималась американская Innocence Project, используя для анализа Amazon Mechanical Turk.

У VisionLabs есть экспертиза в разработке детекторов «дипфейков» лиц, и они результативны, говорят в компании: точность работы составляет 94–100% Но сейчас качество работы нейросети оценивается в плоскости теории вероятности, говорит собеседник “Коммерсантъ” на IT-рынке: «Когда такая разработка дойдет даже до пилотной эксплуатации, вероятность ложных срабатываний будет достаточно высока, и потребуются годы, чтобы проект начал приносить пользу». Кирилл Ляхманов из «ЭБР» подчеркивает, что сама идея анализа «правдивости» или «ложности» утверждений по косвенным признакам, связанным с поведением человека, не выдерживает никакой критики: «Любые виды "детекторов лжи" не признаются доказательством в судах большинства стран».


Источник: https://www.kommersant.ru/doc/5646201



Похожие статьи

Россия и Узбекистан укрепляют сотрудничество в сфере цифровых технологий
6 февраля 2025

Россия и Узбекистан укрепляют сотрудничество в сфере цифровых технологий

В Университете INHA в Ташкенте состоялась форсайт-сессия, организованная Центром глобальной ИТ-кооперации...
«ЦИФРОВОЙ УЗБЕКИСТАН»: ОСОБЕННОСТИ РАЗВИТИЯ И ПЕРСПЕКТИВНЫЕ НАПРАВЛЕНИЯ ПАРТНЕРСТВА
29 января 2025

«ЦИФРОВОЙ УЗБЕКИСТАН»: ОСОБЕННОСТИ РАЗВИТИЯ И ПЕРСПЕКТИВНЫЕ НАПРАВЛЕНИЯ ПАРТНЕРСТВА

Эксперты Центра глобальной ИТ-кооперации подготовили подробный обзор цифровой трансформации Узбекистана, ключе...
Сборник экспертных статей «Интернет сегодня и завтра 2025»  (информация для авторов)
13 января 2025

Сборник экспертных статей «Интернет сегодня и завтра 2025» (информация для авторов)

Центр глобальной ИТ-кооперации приглашает авторов к участию в создании нового сборника экспертных статей, приу...

Напишите нам

Если есть вопросы и предложения о сотрудничестве, будем рады ответить вам!