Колумбийский судья утверждает, что использовал ChatGPT, чтобы вынести решение по делу

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com

Судья в Колумбии использовал ChatGPT для вынесения судебного решения, что, по-видимому, является первым случаем, когда юридическое решение было принято с помощью текстового генератора ИИ — или, по крайней мере, об этом впервые стало известно.


Согласно судебному документу от 30 января 2023 года, судья Хуан Мануэль Падилья Гарсия, председательствующий в суде первого округа города Картахена, использовал инструмент ИИ для постановки юридических вопросов по делу и включил его ответы в свое решение. 

«Аргументы для этого решения будут определены в соответствии с использованием искусственного интеллекта (ИИ)», — написал Гарсия в решении, которое было переведено с испанского. «Соответственно, мы внесли часть юридических вопросов, поставленных в этом разбирательстве».

«Цель включения этих текстов, созданных ИИ, никоим образом не в том, чтобы заменить решение судьи», — добавил он. «На самом деле мы стремимся оптимизировать время, затрачиваемое на составление решений после подтверждения информации, предоставленной ИИ».

Дело касалось спора со страховой компанией по поводу того, должен ли ребенок, страдающий аутизмом, получать страховое покрытие на лечение. Согласно судебному документу, юридические вопросы, введенные в инструмент ИИ, включали: «Освобождается ли несовершеннолетний аутист от уплаты сборов за лечение?» и «Принимала ли судебная практика Конституционного суда положительные решения по аналогичным делам?»

Гарсия включил полные ответы чат-бота в решение, по-видимому, это первый случай, когда судья признал это. Судья также включил свое собственное понимание применимых юридических прецедентов и сказал, что ИИ использовался для «расширения аргументов принятого решения». После судья принимает во внимание ответы ИИ и свои собственные юридические аргументы в качестве основания для своего решения.


Колумбийское законодательство не запрещает использование ИИ в судебных решениях, но такие системы, как ChatGPT, известны тем, что дают ответы, которые являются предвзятыми, дискриминационными или просто неверными. Это связано с тем, что языковая модель не содержит фактического «понимания» текста — она просто синтезирует предложения на основе вероятности из миллионов примеров, используемых для обучения системы.

Создатели ChatGPT, OpenAI, внедрили фильтры, чтобы исключить некоторые наиболее проблемные ответы. Но разработчики предупреждают, что инструмент по-прежнему имеет существенные ограничения и не должен использоваться для принятия последовательных решений.

Хотя это дело является первым случаем, когда судья признался в использовании текстового генератора ИИ, такого как ChatGPT, некоторые суды — что вызывает споры — уже начали использовать автоматизированные инструменты принятия решений при вынесении приговора или освобождении обвиняемых под залог. Использование этих систем в судах подвергалось резкой критике со стороны специалистов по этике ИИ, которые отмечают, что они регулярно усиливают расистские и сексистские стереотипы и усиливают ранее существовавшие формы неравенства.

Хотя колумбийский судебный иск указывает на то, что ИИ в основном использовался для ускорения составления решения, и что его ответы были проверены фактами, это, вероятно, признак того, что на подходе нечто большее.