Риски использования ИИ в юриспруденции: эксперты MDS

Уже известны случаи, когда юридические документы писал ИИ, и они содержали ложную информацию. Поэтому юристам следует быть особенно внимательными при использовании новых программ, чтобы избежать возможного судебного разбирательства по обвинению в фальсификации доказательств. За рубежом начали запрещать использование ChatGPT участникам процессов. В судах стали требовать сертификаты в подтверждение того, что текст адвоката или прокурора был создан без использования ИИ. «Российская газета» поговорила с юристами, чтобы разобраться в этом вопросе.

Член Комиссии по правовому обеспечению юристов России и эксперт Moscow Digital School Ефим Казанцев говорит о необходимости быть осторожными при доверии искусственному интеллекту: «‎Попытки без проверки использовать тексты, сгенерированные ChatGPT, в ситуациях, когда эти тексты имеют юридическое значение, связаны с повышенными рисками. Очень часто сгенерированный текст хотя и выглядит очень правдоподобным по факту оказывается не соответствующим действительности».

В судебных процессах текст нейросети может привести к негативным последствиям и введению участников процесса в заблуждение.  Это подтверждают сообщения в СМИ о фальсификации судебной практики с помощью «‎выдуманных» текстов, а также запреты судей на использование таких сгенерированных нейросетью материалов в суде.

Ефим Казанцев не исключает использование ИИ для подготовки юридически значимых текстов в будущем. «Если со временем на рынке появятся генеративные модели, способные не только сгенерировать складный текст, но и обеспечить его правдивость и актуальность, то их использование со временем станет стандартом», — добавил он. 

Другой эксперт Moscow Digital School Александра Орехович считает закономерным запрет на использование ChatGPT для создания текстов и формирования позиций судей и адвокатов. 

«Широко известны факты "придумывания" нейросетью сведений и их вполне логичное встраивание в текст. Явление даже приобрело название — "галлюцинации нейросети". Но одно дело, когда искусственный интеллект ошибается в вопросе "какое число больше", другое дело — когда по сути фабрикует доказательства», — сказала юрист. 

Также она привела в пример преподавателей из университета Джорджа Вашингтона. Они попросили чат-бот описать скандалы с американскими профессорами права. ChatGPT взял за основу официальные сайты, но создал вымышленные события. В качестве доказательств ИИ сослался на несуществующую статью в Washington Post за 2018 год.

«Подобные случаи чреваты не только репутационными рисками, но и вполне реальными наказаниями, например, за предоставление ложных сведений или фальсификацию доказательств. Кроме того, суды — крайне чувствительная сфера, в которой цена ошибки умножается многократно. При этом тотальный запрет на использование ИИ в администрировании судебного процесса — мера скорее чрезмерная, связанная с отсутствием регулирования пределов применения ИИ в судах. Но, видимо, предполагается, что такая мера по крайней мере повлечет за собой двойной контроль со стороны лиц, применяющий ИИ в формировании своих позиций», — добавила Орехович.

Полностью текст статьи в «Российской газете» доступен по ссылке.

Подписаться на новости

Каждую неделю присылаем полезные и интересные материалы для вас!