Многие люди верят, что однажды программы ChatGPT лишат их работы. Однако, по крайней мере, некоторым профессиям не стоит опасаться возможного обгона ИИ. Как сообщает New York Times, Стивен Шварц, юрист из Нью-Йорка, недавно использовал чат-бот OpenAI, чтобы помочь в написании юридического заключения, что привело к катастрофическим результатам.

Выводы чат-бота содержали грамматические ошибки и бессмысленные утверждения, которые могли стоить Шварцу дела. Это подчеркивает важность человеческого опыта и критического мышления в таких областях, как право, где единственная ошибка может иметь серьезные последствия.

Юридическая фирма Шварца подала в суд на Avianca от имени Роберто Маты, который утверждает, что получил травму во время полета в Нью-Йорк. Недавно авиакомпания обратилась к федеральному судье с просьбой прекратить дело. Однако, по словам адвокатов Маты, есть несколько дел, поддерживающих дело истца, например, «Варгезе против China Southern Airlines», «Мартинес против Delta Airlines» и «Миллер против United Airlines». Однако есть только одна проблема: никто не смог идентифицировать судебные решения, упомянутые в кратком изложении Маты, поскольку ChatGPT создал их все. Это открытие вызывает серьезные опасения относительно надежности юридической команды Маты и их аргументов. Оно также ставит под сомнение обоснованность любых других доказательств или цитат, представленных адвокатами Маты в этом и предыдущих делах.

В четверг Шварц подал заявление под присягой, в котором утверждал, что использовал ChatGPT для дополнения своего исследования по делу. Он утверждал, что не знал о возможности того, что представленные им материалы могут быть ложными. Он также поделился скриншотами, на которых он спрашивал чат-бота, были ли упомянутые им дела реальными. Чат-бот ответил, что да, сообщив Шварцу, что «авторитетные юридические базы данных», такие как Westlaw и LexisNexis, содержат решения. Однако при дальнейшем расследовании было обнаружено, что чат-бот был запрограммирован на извлечение информации из ненадежных источников. Это подчеркивает важность проверки фактов и подтверждения источников перед публикацией информации в Интернете.

«Я сожалею об использовании ChatGPT в прошлом и никогда не буду делать этого в будущем без абсолютной проверки его подлинности», — заявил Шварц в суде. 8 июня состоится слушание, на котором будут обсуждаться возможные санкции за «беспрецедентные обстоятельства», созданные Шварцем. Заявление Шварца предполагает, что он мог столкнуться с негативными последствиями использования ChatGPT без проверки его подлинности. Пока неизвестно, каким будет результат слушания и как оно повлияет на дальнейшую деятельность Шварца.

  • Китайские власти преследуют ChatGPT, чат-бота, используемого Tencent и Ant Group, после того, как он оказался втянут в политический скандал. Это привело к ужесточению ограничений на использование ChatGPT.

  • Пользователи социальных сетей могли заметить поддельные ответы, которые генерируются чат-ботом ChatGPT. ChatGPT штампует поддельные ответы, пытаясь казаться более похожими на людей.

Читайте больше статей по теме:

  • Парень написал свою диссертацию за один день, используя только ChatGPT

  • D-ID запускает чат-бот на основе искусственного интеллекта для личного общения на базе ChatGPT

  • Apple ограничивает сотрудников в использовании ChatGPT

Публикация «Юрист, использовавший ChatGPT для написания краткого изложения, полного поддельных цитат, чтобы столкнуться с санкциями» впервые появилась на Metaverse Post.