Риски использования ИИ в юриспруденции: эксперты MDS
Уже известны случаи, когда юридические документы писал ИИ, и они содержали ложную информацию. Поэтому юристам следует быть особенно внимательными при использовании новых программ, чтобы избежать возможного судебного разбирательства по обвинению в фальсификации доказательств. За рубежом начали запрещать использование ChatGPT участникам процессов. В судах стали требовать сертификаты в подтверждение того, что текст адвоката или прокурора был создан без использования ИИ. «Российская газета» поговорила с юристами, чтобы разобраться в этом вопросе.
Член Комиссии по правовому обеспечению юристов России и эксперт Moscow Digital School Ефим Казанцев говорит о необходимости быть осторожными при доверии искусственному интеллекту: «Попытки без проверки использовать тексты, сгенерированные ChatGPT, в ситуациях, когда эти тексты имеют юридическое значение, связаны с повышенными рисками. Очень часто сгенерированный текст хотя и выглядит очень правдоподобным по факту оказывается не соответствующим действительности».
В судебных процессах текст нейросети может привести к негативным последствиям и введению участников процесса в заблуждение. Это подтверждают сообщения в СМИ о фальсификации судебной практики с помощью «выдуманных» текстов, а также запреты судей на использование таких сгенерированных нейросетью материалов в суде.
Ефим Казанцев не исключает использование ИИ для подготовки юридически значимых текстов в будущем. «Если со временем на рынке появятся генеративные модели, способные не только сгенерировать складный текст, но и обеспечить его правдивость и актуальность, то их использование со временем станет стандартом», — добавил он.
Другой эксперт Moscow Digital School Александра Орехович считает закономерным запрет на использование ChatGPT для создания текстов и формирования позиций судей и адвокатов.
«Широко известны факты "придумывания" нейросетью сведений и их вполне логичное встраивание в текст. Явление даже приобрело название — "галлюцинации нейросети". Но одно дело, когда искусственный интеллект ошибается в вопросе "какое число больше", другое дело — когда по сути фабрикует доказательства», — сказала юрист.
Также она привела в пример преподавателей из университета Джорджа Вашингтона. Они попросили чат-бот описать скандалы с американскими профессорами права. ChatGPT взял за основу официальные сайты, но создал вымышленные события. В качестве доказательств ИИ сослался на несуществующую статью в Washington Post за 2018 год.
«Подобные случаи чреваты не только репутационными рисками, но и вполне реальными наказаниями, например, за предоставление ложных сведений или фальсификацию доказательств. Кроме того, суды — крайне чувствительная сфера, в которой цена ошибки умножается многократно. При этом тотальный запрет на использование ИИ в администрировании судебного процесса — мера скорее чрезмерная, связанная с отсутствием регулирования пределов применения ИИ в судах. Но, видимо, предполагается, что такая мера по крайней мере повлечет за собой двойной контроль со стороны лиц, применяющий ИИ в формировании своих позиций», — добавила Орехович.
Полностью текст статьи в «Российской газете» доступен по ссылке.