Home » ChatGPT: Юристы говорят, что искусственный интеллект обманом заставил их сослаться на фальшивую судебную практику

ChatGPT: Юристы говорят, что искусственный интеллект обманом заставил их сослаться на фальшивую судебную практику

НЬЮ-ЙОРК –

Два извиняющихся юриста, отвечая на разгневанного судью федерального суда Манхэттена, обвинили ChatGPT в четверг в том, что они обманом заставили их включить фиктивное юридическое исследование в судебный иск.

Адвокаты Стивен А. Шварц и Питер ЛоДука столкнулись с возможным наказанием за подачу иска против авиакомпании, в котором содержались ссылки на прошлые судебные дела, которые, по мнению Шварца, были реальными, но на самом деле были придуманы чат-ботом на основе искусственного интеллекта.

Шварц объяснил, что использовал новаторскую программу, когда искал юридические прецеденты в поддержку дела клиента против колумбийской авиакомпании Avianca в связи с травмой, полученной во время полета в 2019 году.

Чат-бот, который очаровал мир своими ответами на запросы пользователей, похожими на эссе, предложил несколько случаев, связанных с авиационными происшествиями, которые Шварц не смог найти с помощью обычных методов, используемых в его юридической фирме.

Проблема была в том, что некоторые из этих дел не были реальными или касались несуществующих авиакомпаний.

Шварц сказал окружному судье США П. Кевину Кастелю, что он «действовал, исходя из неправильного представления… что этот веб-сайт получает эти дела из какого-то источника, к которому у меня нет доступа».

Он сказал, что ему «с треском не удалось» провести дополнительное исследование, чтобы убедиться, что цитаты верны.

«Я не понимал, что ChatGPT может фабриковать дела», — сказал Шварц.

Microsoft инвестировала около 1 миллиарда долларов в OpenAI, компанию, стоящую за ChatGPT.

Его успех, демонстрирующий, как искусственный интеллект может изменить то, как люди работают и учатся, вызвал у некоторых опасения. В мае сотни лидеров отрасли подписали письмо, в котором содержится предупреждение, что «снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».

Read more:  Серфер австралийского происхождения Коннор О'Лири выбран представителем Японии на Олимпийских играх в Париже.

Судья Кастель казался одновременно сбитым с толку и обеспокоенным необычным происшествием и разочарованным тем, что юристы не действовали быстро, чтобы исправить фиктивные юридические ссылки, когда они впервые были предупреждены о проблеме адвокатами Авианки и судом. Авианка указала на фиктивное прецедентное право в мартовском заявлении.

Судья предъявил Шварцу одно судебное дело, придуманное компьютерной программой. Первоначально это было описано как дело о неправомерной смерти, возбужденное женщиной против авиакомпании, но затем превратилось в судебный иск в отношении мужчины, который пропустил рейс в Нью-Йорк и был вынужден нести дополнительные расходы.

«Можем ли мы согласиться, что это юридическая тарабарщина?» — спросил Кастель.

Шварц сказал, что он ошибочно полагал, что запутанная презентация возникла из-за того, что выдержки взяты из разных частей дела.

Когда Кастель закончил свой допрос, он спросил Шварца, не хочет ли тот еще что-нибудь сказать.

«Я хотел бы искренне извиниться», — сказал Шварц.

Он добавил, что пострадал лично и профессионально в результате этой ошибки и чувствовал себя «смущенным, униженным и крайне раскаявшимся».

Он сказал, что он и фирма, в которой он работал — Levidow, Levidow & Oberman — приняли меры, чтобы ничего подобного больше не повторилось.

ЛоДука, еще один юрист, работавший над этим делом, сказал, что доверяет Шварцу и не проанализировал должным образом то, что он собрал.

После того, как судья зачитал вслух отрывки из одного процитированного дела, чтобы показать, насколько легко было понять, что это «тарабарщина», Ло Дука сказал: «Мне никогда не приходило в голову, что это было фиктивное дело».

Он сказал, что результат «мне бесконечно больно».

Рональд Минкофф, поверенный юридической фирмы, сказал судье, что представление «было результатом небрежности, а не недобросовестности» и не должно привести к санкциям.

Read more:  Устройство учит детей играть безопасно. Мордехай Раджи :: Kicktraq

Он сказал, что юристам исторически было трудно с технологиями, особенно с новыми технологиями, «и это не становится легче».

“Мистер. Шварц, который почти не занимается федеральными исследованиями, решил использовать эту новую технологию. Он думал, что имеет дело со стандартной поисковой системой», — сказал Минкофф. «Он играл с боевыми патронами».

Дэниел Шин, адъюнкт-профессор и помощник директора по исследованиям в Центре юридических и судебных технологий юридической школы Уильяма и Мэри, сказал, что он представил дело Avianca во время конференции на прошлой неделе, которая привлекла десятки участников лично и онлайн из штата и федерального правительства. суды в США, в том числе федеральный суд Манхэттена.

Он сказал, что эта тема вызвала шок и недоумение на конференции.

«Мы говорим о Южном округе Нью-Йорка, федеральном округе, который занимается крупными делами, 11 сентября и всеми крупными финансовыми преступлениями, — сказал Шин. «Это был первый задокументированный случай потенциального профессионального неправомерного поведения адвоката с использованием генеративного ИИ».

Он сказал, что дело продемонстрировало, как юристы могли не понимать, как работает ChatGPT, потому что он склонен к галлюцинациям, рассказывая о вымышленных вещах так, что это звучит реалистично, но это не так.

«Это подчеркивает опасность использования перспективных технологий искусственного интеллекта без знания рисков», — сказал Шин.

Судья сказал, что вынесет решение о санкциях позднее.

2023-06-09 02:47:50


1686283585
#ChatGPT #Юристы #говорят #что #искусственный #интеллект #обманом #заставил #их #сослаться #на #фальшивую #судебную #практику

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.