Юрист, который использовал ChatGPT, чтобы написать краткое изложение, изобилующее поддельными цитатами, чтобы столкнуться с санкциями

0 0

Отредактировано и проверено фактами

Коротко

Ажиотаж вокруг ИИ привел к тому, что люди опасаются, что такие программы, как ChatGPT, лишат их работы. Для адвоката Стивена Шварца этот кошмар может случиться раньше, чем он ожидал. Шварц обратился к чат-боту OpenAI за помощью в написании юридического заключения, с вполне предсказуемой информацией. катастрофические результаты.

Чтобы улучшить ваше взаимодействие с местным языком, иногда мы используем плагин автоматического перевода. Обратите внимание, что автоперевод может быть неточным, поэтому читайте оригинал статья для точной информации.

Юрист, который использовал ChatGPT, чтобы написать краткое изложение, изобилующее поддельными цитатами, чтобы столкнуться с санкциями

Многие люди считают, что однажды программы ChatGPT лишат их работы. Однако, по крайней мере, некоторым профессиям не нужно опасаться возможного обгона ИИ. Как сообщает New York Times, Стивен Шварц, нью-йоркский юрист, недавно используемый Чат-бот OpenAI, помогающий написать юридическую записку с катастрофическими результатами.

Юрист, который использовал ChatGPT, чтобы написать краткое изложение, изобилующее поддельными цитатами, чтобы столкнуться с санкциями

Отредактировано и проверено фактами

Юридическая фирма Шварца подает в суд на Avianca от имени Роберто Маты, который утверждает, что получил травму во время полета в Нью-Йорк. Недавно авиакомпания попросила федерального судью закрыть дело. Однако, по словам адвокатов Маты, есть несколько дел, поддерживающих дело истца, например, «Варгезе против China Southern Airlines», «Мартинес против Delta Airlines» и «Миллер против United Airlines». Однако есть только одна проблема: никто не мог идентифицировать судебные решения, упомянутые в брифе Маты, потому что ChatGPT создал их все. Это разоблачение вызывает серьезные опасения по поводу достоверности юридической команды Маты и их аргументов. Это также ставит под сомнение достоверность любых других доказательств или цитат, представленных адвокатами Маты в этом и предыдущих делах.

В четверг Шварц подал показания под присягой, в которых утверждал, что использовал ChatGPT для дополнения своего исследования по делу. Он утверждал, что не знал о возможности того, что поданные им материалы могут быть ложными. Он также поделился скриншотами, на которых спрашивал у чат-бота, реальны ли случаи, о которых он говорил. Чат-бот заявил, что да, сообщив Шварцу, что решения содержатся в «уважаемых юридических базах данных», таких как Westlaw и LexisNexis. Однако в ходе дальнейшего расследования было обнаружено, что чат-бот был запрограммирован на получение информации из ненадежных источников. Это подчеркивает важность проверки фактов и проверки источников, прежде чем делиться информацией в Интернете.

«Я сожалею об использовании ChatGPT в прошлом и никогда не буду делать этого в будущем без абсолютной проверки его подлинности», — заявил Шварц в суде. 8 июня состоятся слушания, на которых будут обсуждаться возможные санкции за «беспрецедентное обстоятельство», созданное Шварцем. Заявление Шварца предполагает, что он мог испытать негативные последствия от использования ChatGPT, не проверив его подлинность. Еще неизвестно, каким будет результат слушания и как оно повлияет на продвижение Шварца.

  • Китайские власти преследуют ChatGPT, чат-бот, используемый Tencent и Ant Group после того, как он оказался втянутым в политический скандал. Это привело к усилению ограничений, размещенный об использовании ChatGPT.
  • Пользователи соцсетей могли заметить не настоящие ответы, которые генерируются чат-ботом ChatGPT. ЧатGPT штампует поддельные ответы в попытке казаться более похожими на людей.
  • Читайте больше статей по теме:

  • Парень пишет диссертацию за один день, используя только ChatGPT
  • D-ID запускает чат-бота с искусственным интеллектом для общения лицом к лицу на базе ChatGPT
  • Apple запрещает сотрудникам использовать ChatGPT
  • Источник

    Оставьте ответ

    Ваш электронный адрес не будет опубликован.