Суд Техаса требует от юристов декларировать документы, сгенерированные ИИ

    0
    1


    После того, как на прошлой неделе нью-йоркский адвокат признался, что ссылался на несуществующие судебные дела, которые были галлюцинированы программным обеспечением OpenAI ChatGPT, судья Техаса поручил адвокатам своего суда подтвердить, что либо они не использовали искусственный интеллект для подготовки своих юридических документов, либо что, если они это сделают, вывод был проверен человеком.

    «Эти платформы в их нынешнем состоянии склонны к галлюцинациям и предвзятости», — говорится в записке судьи Брантли Старра из Северного округа Техаса. «О галлюцинациях они выдумывают всякую ерунду — даже цитаты и цитаты.

    «Еще один вопрос — надежность или предвзятость. В то время как адвокаты клянутся отбросить свои личные предубеждения, предубеждения и убеждения, чтобы добросовестно соблюдать закон и представлять своих клиентов, генеративный искусственный интеллект — это продукт программирования, разработанного людьми, которым не нужно было дать такую ​​клятву.

    «Как таковые, эти системы не подчиняются никакому клиенту, верховенству права, законам и Конституции Соединенных Штатов (или, как указано выше, истине). Не связанные каким-либо чувством долга, чести или справедливости, такие программы действуют в соответствии с компьютерным кодом, а не убеждениями, основанными на программировании, а не на принципах. Любая сторона, считающая, что платформа обладает необходимой точностью и надежностью для юридического брифинга, может ходатайствовать о разрешении и объяснить, почему».

    Далее в записке судьи поясняется, что его суд исключит любую подачу заявления от адвоката, который не представит требуемое свидетельство, подтверждающее, что эти условия были прочитаны и поняты.

    Судья Старр был недоступен для комментариев.

    Не редкая проблема

    Записка была опубликована во вторник, 30 мая. Она последовала за осуждающим приказом судьи из Нью-Йорка от 26 мая представить причину. [PDF] направление адвокатов истца, подающего в суд на колумбийскую авиакомпанию Avianca SA, с целью объяснить, почему они не должны подвергаться санкциям за «ссылку на несуществующие дела».

    Адвокаты истца признали в письменных показаниях, что они представили «суду копии несуществующих судебных решений» и «использовали ложное и мошенническое нотариальное заверение».

    По сути, адвокаты использовали ChatGPT для поиска предыдущих дел, чат-бот изобрел эти дела, а юристы цитировали их в документах, как если бы они были реальными. Затем защита вызвала группу юристов и признала свою ошибку.

    Судья Кевин Кастель, как вы понимаете, не был впечатлен. Он направил свой гнев на адвокатов истца в Мата против Avianca, Inc. (1:22-cv-01461), который выступил против попытки защиты отклонить иск о телесных повреждениях, сославшись на Варгезе против South China Airlines Co Ltd, Шабун против Egyptairи Петерсен против Иран Эйрсреди других придуманных машиной судебных дел.

    Регистр обратился за комментариями в юридическую фирму истца «Левидоу, Левидоу и Оберман», и на наш звонок не ответили.

    Ранее мы писали о том, что ChatGPT изобретает некрологи для живых людей, вплоть до создания URL-адресов несуществующих газетных некрологов, поэтому неудивительно, что бот, генерирующий текст, придумывает судебные дела. OpenAI предупреждает, что его система «может иногда генерировать неверную информацию», что кажется незначительным, учитывая готовность модели уверенно выдавать неверную информацию.

    В этом аффидевите [PDF]адвокат-нарушитель сказал, что он «очень сожалеет о том, что использовал генеративный искусственный интеллект для дополнения правового исследования, проведенного здесь, и никогда не будет делать этого в будущем без абсолютной проверки его подлинности».

    Хотя нью-йоркское дело кажется первой осечкой судебного разбирательства, основанного на ИИ, которое привлекло внимание общественности, есть и другие претензии. фальшивые ссылки на дела произошло.

    Об этом заявил Стивен Ву, акционер юридической группы Силиконовой долины и председатель Национального института искусственного интеллекта и робототехники Американской ассоциации юристов. Регистр что, хотя он не знает о случаях болтовни с ИИ помимо дела в Нью-Йорке, он ожидает, что есть и другие.

    Правила есть правила

    На вопрос, должны ли юристы знать лучше или новинка генеративного ИИ может как-то смягчить ситуацию, Ву был недвусмыслен.

    «В моей книге нет оправдания», — сказал Ву. «Есть правила профессионального поведения, и они говорят, что если вы собираетесь делегировать какую-либо ответственность по юридическому вопросу, вы обязаны контролировать людей, которым вы делегируете этот вопрос».

    Ву сказал, что эти правила предназначены для применения к помощнику юриста или помощнику, но должны применяться к генеративному ИИ.

    В моей книге нет оправдания

    «Я читал, что в эпоху генеративного искусственного интеллекта, если вы делегируете что-то искусственному интеллекту, вам нужно контролировать этот искусственный интеллект и проверять его результаты, чтобы убедиться, что он соответствует стандарту компетентности, который требуется юристам. встретиться», — пояснил он.

    Ву сказал, что в законе есть роль инструментов ИИ, но эта роль должна подчиняться человеку. Он сказал, что ожидает, что генеративный ИИ окажется более полезным для таких задач, как создание контрактов, где есть больше возможностей для различных формулировок и интерпретаций. В судебных документах он сказал: «Ставки несколько выше, потому что вы ставите точку над каждым «i» и ставите крестик над каждым «t».

    Он также считает, что требование о сертификации судей Техаса может быть принято более широко.

    «Постоянный приказ судьи о том, что он не должен полагаться исключительно на генеративный ИИ, может стать местным правилом в конкретных судах», — сказал Ву.

    «И мне кажется, что консультативный комитет по федеральным правилам и эквиваленты штатов могут захотеть изменить правила процедуры. Например, концепция постоянного приказа судьи Техаса о удостоверении неиспользования генеративного ИИ или, по крайней мере, проверки реальных источников может соответствовать Федеральному закону. Правило гражданского процессуального права 11(b)».

    Американская ассоциация юристов на своем полугодичном собрании в феврале приняла резолюцию. [PDF] призывая организации, разрабатывающие, проектирующие и развертывающие системы ИИ, обеспечить, чтобы люди контролировали эти модели, чтобы отдельные лица и организации несли ответственность за вред, причиняемый нейронными сетями и т. п., и чтобы разработчики этих систем реализовывали их прозрачным и подлежат аудиту, а также уважают интеллектуальную собственность. Удачи.

    Ву сказал, что необходимость рассмотреть вопрос о том, как технологические изменения влияют на закон, возникла около десяти лет назад в рамках проекта ABA по этике 20/20. «Среди прочего в нем говорилось о том, что обязанность юриста быть компетентным требует компетентности в понимании технологий, и как это связано с юридической практикой и использованием технологий для юридической практики», — сказал он.

    Ву ожидает дальнейшего обсуждения роли генеративного ИИ в законе. «Я ожидаю, что нам придется немного поработать над этим комитетом, чтобы попытаться внести изменения в модельные правила ABA», — сказал он. ®



    Предыдущая статьяLeap Wireless SSD — самый безопасный и быстрый SSD на данный момент
    Следующая статьяКак использовать диспетчер пакетов Windows (winget) в Windows 11
    Виктор Попанов
    Эксперт тестовой лаборатории. Первый джойстик держал в руках в возрасте 3 лет. Первый компьютер, на котором „работал” был с процессором Intel i386DX-266. Тестирует оборудование для издания ITBusiness. Будь то анализ новейших гаджетов или устранение сложных неполадок, этот автор всегда готов к выполнению поставленной задачи. Его страсть к технологиям и приверженность качеству делают его бесценным помощником в любой команде.