НЬЮ-ЙОРК –
Два извиняющихся юриста, отвечая на разгневанного судью федерального суда Манхэттена, обвинили ChatGPT в четверг в том, что они обманом заставили их включить фиктивное юридическое исследование в судебный иск.
Адвокаты Стивен А. Шварц и Питер ЛоДука столкнулись с возможным наказанием за подачу иска против авиакомпании, в котором содержались ссылки на прошлые судебные дела, которые, по мнению Шварца, были реальными, но на самом деле были придуманы чат-ботом на основе искусственного интеллекта.
Шварц объяснил, что использовал новаторскую программу, когда искал юридические прецеденты в поддержку дела клиента против колумбийской авиакомпании Avianca в связи с травмой, полученной во время полета в 2019 году.
Чат-бот, который очаровал мир своими ответами на запросы пользователей, похожими на эссе, предложил несколько случаев, связанных с авиационными происшествиями, которые Шварц не смог найти с помощью обычных методов, используемых в его юридической фирме.
Проблема была в том, что некоторые из этих дел не были реальными или касались несуществующих авиакомпаний.
Шварц сказал окружному судье США П. Кевину Кастелю, что он «действовал, исходя из неправильного представления… что этот веб-сайт получает эти дела из какого-то источника, к которому у меня нет доступа».
Он сказал, что ему «с треском не удалось» провести дополнительное исследование, чтобы убедиться, что цитаты верны.
«Я не понимал, что ChatGPT может фабриковать дела», — сказал Шварц.
Microsoft инвестировала около 1 миллиарда долларов в OpenAI, компанию, стоящую за ChatGPT.
Его успех, демонстрирующий, как искусственный интеллект может изменить то, как люди работают и учатся, вызвал у некоторых опасения. В мае сотни лидеров отрасли подписали письмо, в котором содержится предупреждение, что «снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».
Судья Кастель казался одновременно сбитым с толку и обеспокоенным необычным происшествием и разочарованным тем, что юристы не действовали быстро, чтобы исправить фиктивные юридические ссылки, когда они впервые были предупреждены о проблеме адвокатами Авианки и судом. Авианка указала на фиктивное прецедентное право в мартовском заявлении.
Судья предъявил Шварцу одно судебное дело, придуманное компьютерной программой. Первоначально это было описано как дело о неправомерной смерти, возбужденное женщиной против авиакомпании, но затем превратилось в судебный иск в отношении мужчины, который пропустил рейс в Нью-Йорк и был вынужден нести дополнительные расходы.
«Можем ли мы согласиться, что это юридическая тарабарщина?» — спросил Кастель.
Шварц сказал, что он ошибочно полагал, что запутанная презентация возникла из-за того, что выдержки взяты из разных частей дела.
Когда Кастель закончил свой допрос, он спросил Шварца, не хочет ли тот еще что-нибудь сказать.
«Я хотел бы искренне извиниться», — сказал Шварц.
Он добавил, что пострадал лично и профессионально в результате этой ошибки и чувствовал себя «смущенным, униженным и крайне раскаявшимся».
Он сказал, что он и фирма, в которой он работал — Levidow, Levidow & Oberman — приняли меры, чтобы ничего подобного больше не повторилось.
ЛоДука, еще один юрист, работавший над этим делом, сказал, что доверяет Шварцу и не проанализировал должным образом то, что он собрал.
После того, как судья зачитал вслух отрывки из одного процитированного дела, чтобы показать, насколько легко было понять, что это «тарабарщина», Ло Дука сказал: «Мне никогда не приходило в голову, что это было фиктивное дело».
Он сказал, что результат «мне бесконечно больно».
Рональд Минкофф, поверенный юридической фирмы, сказал судье, что представление «было результатом небрежности, а не недобросовестности» и не должно привести к санкциям.
Он сказал, что юристам исторически было трудно с технологиями, особенно с новыми технологиями, «и это не становится легче».
“Мистер. Шварц, который почти не занимается федеральными исследованиями, решил использовать эту новую технологию. Он думал, что имеет дело со стандартной поисковой системой», — сказал Минкофф. «Он играл с боевыми патронами».
Дэниел Шин, адъюнкт-профессор и помощник директора по исследованиям в Центре юридических и судебных технологий юридической школы Уильяма и Мэри, сказал, что он представил дело Avianca во время конференции на прошлой неделе, которая привлекла десятки участников лично и онлайн из штата и федерального правительства. суды в США, в том числе федеральный суд Манхэттена.
Он сказал, что эта тема вызвала шок и недоумение на конференции.
«Мы говорим о Южном округе Нью-Йорка, федеральном округе, который занимается крупными делами, 11 сентября и всеми крупными финансовыми преступлениями, — сказал Шин. «Это был первый задокументированный случай потенциального профессионального неправомерного поведения адвоката с использованием генеративного ИИ».
Он сказал, что дело продемонстрировало, как юристы могли не понимать, как работает ChatGPT, потому что он склонен к галлюцинациям, рассказывая о вымышленных вещах так, что это звучит реалистично, но это не так.
«Это подчеркивает опасность использования перспективных технологий искусственного интеллекта без знания рисков», — сказал Шин.
Судья сказал, что вынесет решение о санкциях позднее.
2023-06-09 02:47:50
1686283585
#ChatGPT #Юристы #говорят #что #искусственный #интеллект #обманом #заставил #их #сослаться #на #фальшивую #судебную #практику