Роскомнадзор планирует использовать систему распознавания лжи в видео

Ведомство хочет задействовать разработку НИУ ИТМО, в основу которой заложены технологии ИИ по распознанию лжи в видеозаписях. Предполагается, что система будет способна обличать «дипфейки». Однако участники рынка уверены, что процент ложных срабатываний будет слишком велик. 

Как выяснил «Ъ», в Национальном центре когнитивных разработок (НЦКР) ИТМО работают над созданием сервиса Expert. Он будет проверять видеозаписи на наличие в них обмана и манипуляций, а также использования «дипфейков». Разработка ведется специально для Главного радиочастотного центра (ГРЧЦ), который является подведомственным Роскомнадзору органом. Прототип Expert был презентован ведомству еще в июле. 

«Если ИТМО сможет представить устойчиво работающую технологию в виде готового продукта, ГРЧЦ рассмотрит возможность ее применения», — уточняет Александр Федотов, глава Научно-технического центра ФГУП ГРЧЦ.

Сервис будет анализировать аудио- и видеоряд по критериям агрессии, соотношению информации, передаваемой вербальным и невербальным способом, и по уровню соответствия транслируемых мыслей научным статьям и заявлениям других экспертов. Пока система работает с англоязычными роликами, поскольку построена на иностранных разработках, взятых из открытых зарубежных библиотек вместе с дата-сетами для обучения ИИ. При этом заявлено, что показатели анализируемых критериев можно извлечь из любого языка. Чтобы полностью адаптировать систему на русский, понадобятся большие массивы данных и материальные вложения. 

Разработка не является инновационной: в 2017 году нейросеть по распознанию лжи создавалась в штатах Университетом Мэриленда и Дартмутским колледжом. С этой же целью американская Innocence Project использовала Amazon Mechanical Turk.

На российском рынке распознанием «дипфейков» занималась компания VisionLabs. В ней заявляют, что точность работы достигает 94-100%. Однако эксперты IT-отрасли уверены, что на практике ложных срабатываний будет в разы больше, а для доведения системы до совершенных показателей понадобятся годы доработок. 

По словам Кирилла Ляхманова, главного юрисконсульта практики интеллектуальной собственности компании ЭБР и преподавателя образовательной экосистемы Moscow Digital School, идея подобного анализа не выдерживает никакой критики: «Любые виды "детекторов лжи" не признаются доказательством в судах большинства стран».

Развернутую оценку разработке дала Татьяна Красногорская — эксперт образовательной экосистемы Moscow Digital School. 

«Важно понимать две вещи: как будет использоваться результат, выданный такой разработкой, и как будет выстроен процесс работы с этим результатом со стороны Роскомнадзора. Логичным и эффективным на начальных этапах внедрения разработки распознавания лжи является финальный отсмотр решений “человеком-оператором”, аналогичный работе специалиста с полиграфом. Да, это увеличит трудозатраты, но на выходе мы получим более объективный результат и данные для анализа и доработок. Поскольку для выявления лжи используются формально-относительные критерии, мы не можем полностью доверять решениям ИИ об удалении или блокировке контента», — говорит Красногорская. 

Юрист поясняет, что на поведение спикеров влияют физиологические причины, стресс или эмоции в момент выступления. Признак «уверенность/неуверенность» также не говорит об объективной оценке, потому что выступающий может как испытывать реальный страх, так и намеренно демонстрировать уверенность. 

По мнению эксперта, работа ИИ явно ускорит процесс выявления очевидных фейков, но вряд ли это решит проблему их распространения по следующим причинам: 

  1. Уголовная ответственность за фейки есть уже сейчас (например, ст. 207.3 УК), и, несмотря на это, существование публикаций спорного контента говорит о том, что его авторы скорее всего будут и дальше искать способы для выражения своей позиции даже после блокировки искусственным интеллектом;

  2. Размоется объективность, ведь «машине» фактически доверят принятие решений, которые обычно имеют право принимать только специальные органы;

  3. ИИ все же исходит из материалов того содержания, по которому его научили, а значит — любое новое отклонение от «показанной ему нормы» может быть интерпретировано им как «ложь».

«Итоги применения такой разработки для оценки согласованности информации также сложно назвать объективными, потому что информационное поле чересчур переполнено разными материалами. Это создает большую площадку для дискуссии о балансе прав в отношениях человек-государство», — заключила эксперт. 

Подписаться на новости

Каждую неделю присылаем полезные и интересные материалы для вас!