Регулирование ИИ: баланс между инновациями и безопасностью

Лидеры стран «Большой семерки» (G7) опубликовали совместное заявление о руководящих принципах регулирования искусственного интеллекта. В частности, предложено внедрить маркировку создаваемого с применением ИИ контента, для того чтобы пользователи могли его идентифицировать. Разработчики должны сообщать о возможностях и ограничениях систем ИИ, а также о сферах его надлежащего и ненадлежащего применения. Компании должны обмениваться данными об инцидентах, в том числе с правительством, гражданским обществом и научными кругами.

Чтобы не пропустить новые материалы «MDS Media», подписывайтесь на наш Телеграм-канал.

Как пишет «Ъ», был опубликован и указ президента США Джо Байдена о безопасном ИИ. Документ обязывает разработчиков мощных систем ИИ делиться результатами тестирования по безопасности и другой важной информацией с американскими властями. Он касается компаний, разрабатывающих ИИ-модели, которые потенциально могут представлять риск для национальной и экономической безопасности США, для здоровья и безопасности населения.

Своим мнением с изданием поделилась Александра Орехович, директор по правовым инициативам Фонда развития интернет-инициатив и спикер Moscow Digital School. «В целом, как и любое регулирование, регулирование ИИ, скорее всего, затормозит развитие технологий в определенных, наиболее высокорисковых сферах. Но очевидно, что страны, вводящие его, просчитывают этот риск»,— сказала она. Эксперт отмечает, что на протяжении долгого времени в большинстве стран преобладала позиция мягкого регулирования ИИ. В последнее же время эти технологии стали развиваться темпами, при которых степень их влияния выявила угрозы: вмешательство в личную жизнь, дискриминация, дипфейки. В результате ряд стран стал задумываться об ограничениях для ИИ. При этом каждая пошла по своему пути: Китай — в сторону цензурирования контента, ЕС — защиты личности от дискриминации и технологий социального скоринга.

О необходимости законодательного регулирования сферы ИИ говорят и российские юристы: так считают 60,7% опрошенных в рамках исследования, проведенного летом этого года Moscow Digital School. Среди рисков, которые влечет применение ИИ, респонденты выделили возможные споры, связанные с нарушением авторских прав, репутационные риски из-за некачественного предоставления услуг, возможное раскрытие конфиденциальной информации и зависимость от технологии, которая может привести к снижению профессионализма и компетентности специалистов.

Совсем недавнее исследование MDS (результаты опубликованы в октябре) показало, что большинство юристов (80%) выступает за регулирование дипфейков. 89% опрошенных отметили распространение ложной информации как основную проблему при массовом использовании технологии дипфейк в России. Среди других проблем респонденты выделили нарушение неимущественных прав граждан (в том числе права на имя), нарушение авторских и смежных прав, риск, связанный с нарушением закона о защите персональных данных. Кроме того, юристы считают, что использование дипфейков для создания рекламы или продвижения товаров и услуг может привести к нарушению рекламного законодательства и обернуться штрафами и исками для компаний. 

Подписаться на новости

Каждую неделю присылаем полезные и интересные материалы для вас!