Новости "ChatGPT лжет? Впервые слышу!" — адвокаты повторяют одну и ту же отговорку перед судом

NewsMaker

I'm just a script
Премиум
20,980
46
8 Ноя 2022
Адвокаты придумали целое ассорти «отмазок» за липовые ИИ-цитаты в своих документах. Ни одна пока не помогла избежать наказания.


ys5vccs9pwqwdxr41e2ea8t3rslamdxy.jpg

В Калифорнии апелляционный суд вынес показательное решение против юриста, подавшего документы с поддельными цитатами, созданными с помощью ChatGPT, Claude, Gemini и Grok. Суд установил, что почти все ссылки в его обращении были выдуманы, и назначил штраф в 10 тысяч долларов — рекордный для подобных случаев. В обосновании решения подчёркивается, что этот вердикт должен стать предупреждением для адвокатов: ответственность за использование генеративного ИИ несут они сами, и игнорировать возможность «галлюцинаций» систем нельзя.

Адвокат объяснил, что не знал о склонности нейросетей придумывать источники и не сверил материалы вручную. Он признал вину, добавив, что уже прошёл обучение, чтобы исключить подобные ошибки в будущем. Судьи же отметили, что ИИ повсеместно используется в юриспруденции, и при его неосторожном применении поддельные прецеденты и ложные ссылки перегружают судебную систему по всей стране.

Издание 404 Media несколько месяцев изучало судебные архивы и обнаружило десятки аналогичных историй. Для анализа использовалась база исследователя Дамьена Шарлотена, где уже собрано свыше 410 случаев по всему миру, из них 269 в США. Обычно в таких базах фиксируются сами санкции, но журналисты сосредоточились на оправданиях адвокатов. Для этого приходилось поднимать тяжёлые федеральные и региональные архивы, покупать копии документов и искать объяснения в «ответах на запрос суда».

Поводы, которые юристы приводят в качестве оправданий, разнообразны. Одни винят сжатые сроки и перегрузку делами, другие ссылаются на болезни или семейные трагедии. Есть и те, кто перекладывает вину на помощников и внештатных сотрудников. Встречаются и более экзотические доводы — от «эксперимента с ИИ» до ссылок на сбой в системе, отключения интернета или заражение компьютеров вредоносным ПО.

Общее во всех этих историях одно — юристы всё чаще оказываются в положении, когда на них одновременно давит необходимость работать быстрее, брать на себя больше дел и соответствовать ожиданиям клиентов, требующих мгновенных результатов.

Тем не менее, всё это никак их не оправдывает. Любой специалист в сфере юриспруденции априори должен тщательно проверять факты и следить за точностью формулировок. Теперь же множество юристов часто сами оказываются куда небрежнее своих клиентов, доверяя важнейшие документы машине, которую даже не удосуживаются перепроверить.

Более того, генеративные ИИ-сервисы постепенно превращаются не просто во вспомогательный инструмент, а в обыденную часть юридической рутины. Они уже встроены в привычные базы данных и справочные системы, предлагаются как готовые решения стартапами и воспринимаются как нечто само собой разумеющееся. Но чем естественнее выглядит их использование, тем выше риск, что ошибки нейросетей будут незаметно проникать в процесс, подрывая доверие к самой профессии и ставя под вопрос качество юридической работы.

Помимо ChatGPT, Claude и Gemini юристы упоминают Grok, Perplexity и даже встроенные возможности Westlaw и LexisNexis. На рынке десятки стартапов, предлагающих автоматизированные помощники для юристов. Однако статистика Дэмиена Шарлотена показывает : именно использование универсальных систем без проверки чаще всего приводит к катастрофическим последствиям — от санкций до угрозы карьере.

За последнюю неделю исследователь зафиксировал ещё одиннадцать новых случаев. Ситуация меняется так стремительно, что даже опытные юристы не успевают отслеживать новые скандалы. Судебная практика в США теперь формируется в условиях, где применение генеративного ИИ уже нельзя назвать исключением, но каждое неосторожное движение превращается в риск для репутации и лицензии.
 
Источник новости
www.securitylab.ru

Похожие темы