Этика искусственного интеллекта: как регулировать ИИ

Искусственный интеллект (ИИ) проникает во все сферы деятельности человека, поэтому требует выработки основных принципов этики. Этика ИИ — это единая система рекомендаций и правил для создания среды развития технологий ИИ. «Известия» подробно разобрались, как выглядит этичный ИИ и как закрепить основные правила его использования.

Чтобы не пропустить новые материалы «MDS Media», подписывайтесь на наш Телеграм-канал.

Основатель и СЕО Mirey Robotics Андрей Наташкин считает, что ответственность за любые действия нейросети всегда должна лежать в плоскости человеческих отношений, у машинного алгоритма нет фактора ответственности. Но при этом в алгоритме можно допустить ошибку. Американский писатель Тед Чан, отмечает Наташкин, полагает, что нейросети провоцируют пользователей на то, что они не могут отличить правду от лжи. Потому что нейросети убивают в нас критическое мышление.

Менеджер Центра регулирования AI «Сбера» Елена Мимоглядова подчеркивает особенности работы с ИИ в России: «Мы можем отпустить ситуацию, не мешать развитию технологий. Есть опыт Израиля, у них так мало законодательной базы по той причине, что они не хотят лишний раз вмешиваться в развитие технологий. Это не наш путь, потому что у нас большая страна, и мы выбираем сбалансированный подход между правовым регулированием и этическим». 

Этическое регулирование — это саморегулирование, а не закон; это рекомендательные нормы, которые принимает на себя бизнес, государственные и некоммерческие организации. Первые шаги к правилам регулирования и правилам взаимодействия с технологиями ИИ были предприняты крупными корпорациями. Например, «Десять законов для искусственного интеллекта» от Microsoft, «Семь принципов ИИ» от Google, поясняет Мимоглядова.

Первой попыткой международного урегулирования деятельности ИИ — «Азиломарские принципы», принятые на конференции в Азиломаре (США). Из них следует, что команды, разрабатывающие системы искусственного интеллекта, должны активно сотрудничать между собой и не пытаться победить за счет игнорирования стандартов безопасности. Российский Кодекс этики в сфере ИИ был принят 26 октября 2021 года на площадке международного форума «Этика искусственного интеллекта: начало доверия». 

Андрей Наташкин рассказывает: в одно время с Россией в Китае приняли Кодекс этических принципов для ИИ, в котором особое внимание уделено контролю над ним. В США же всегда акцент был смещен на использование ИИ в военных целях, поэтому в 2020 году они инициировали создание этических принципов использования ИИ в вооружениях.

Отсутствие регулирования ИИ на уровне этических принципов вызывает «предвзятость» информационных систем. Например, в 2018 году инструмент рекрутинга на основе ИИ дискриминировал женщин. ИИ отобрал кандидатов, среди которых около 60% кандидатов были мужчинами. Это было связано с закономерностями в данных об историческом наборе персонала конкретного разработчика.

Подписаться на новости

Каждую неделю присылаем полезные и интересные материалы для вас!