Muitas pessoas acreditam que um dia os programas ChatGPT as deixarão sem trabalho. No entanto, pelo menos algumas profissões não precisam temer qualquer possível ultrapassagem da IA. Conforme relatado pelo New York Times, Steven Schwartz, um advogado de Nova York, recentemente usou o chatbot da OpenAI para ajudar a escrever um resumo legal com resultados desastrosos.
A saída do chatbot continha erros gramaticais e declarações sem sentido que poderiam ter custado o caso de Schwartz. Isso destaca a importância da expertise humana e do pensamento crítico em áreas como o direito, onde um único erro pode ter consequências sérias.
O escritório de advocacia de Schwartz está processando a Avianca em nome de Roberto Mata, que alega ter se ferido em um voo para Nova York. A companhia aérea pediu recentemente a um juiz federal que rejeitasse o caso. No entanto, de acordo com os advogados de Mata, há vários casos que apoiam o caso do autor, como "Varghese v. China Southern Airlines", "Martinez v. Delta Airlines" e "Miller v. United Airlines". No entanto, há apenas um problema: ninguém conseguiu identificar as decisões judiciais citadas no resumo de Mata porque o ChatGPT criou todas elas. Essa revelação levanta sérias preocupações sobre a credibilidade da equipe jurídica de Mata e seus argumentos. Também questiona a validade de quaisquer outras evidências ou citações apresentadas pelos advogados de Mata neste e em casos anteriores.
Na quinta-feira, Schwartz apresentou um depoimento no qual alegou que havia usado o ChatGPT para complementar sua pesquisa para o caso. Ele alegou que não sabia da possibilidade de que o material que ele apresentou pudesse ser falso. Ele também compartilhou capturas de tela onde perguntou ao chatbot se os casos citados eram reais. O chatbot declarou que sim, dizendo a Schwartz que "bancos de dados jurídicos respeitáveis" como Westlaw e LexisNexis continham as decisões. No entanto, após uma investigação mais aprofundada, foi descoberto que o chatbot havia sido programado para extrair informações de fontes não confiáveis. Isso destaca a importância da verificação de fatos e da verificação de fontes antes de compartilhar informações online.
“Lamento ter usado o ChatGPT no passado e nunca mais o farei no futuro sem uma verificação absoluta de sua autenticidade”, disse Schwartz no tribunal. Em 8 de junho, uma audiência será realizada para discutir possíveis sanções pela “circunstância sem precedentes” que Schwartz criou. A declaração de Schwartz sugere que ele pode ter sofrido consequências negativas ao usar o ChatGPT sem verificar sua autenticidade. Resta saber qual será o resultado da audiência e como isso impactará Schwartz no futuro.
As autoridades chinesas têm perseguido o ChatGPT, um chatbot usado pela Tencent e Ant Group depois que ele se envolveu em um escândalo político. Isso levou a maiores restrições sendo colocadas no uso do ChatGPT.
Usuários em mídias sociais podem ter notado respostas falsas, que são respostas geradas pelo chatbot ChatGPT. O ChatGPT produz respostas falsas em uma tentativa de parecer mais humano.
Leia mais artigos relacionados:
Um cara escreve sua tese em um dia usando apenas o ChatGPT
D-ID lança chatbot de IA conversacional face a face com tecnologia ChatGPT
Apple restringe funcionários de usar o ChatGPT
A postagem Advogado que usou o ChatGPT para escrever um resumo repleto de citações falsas e enfrentar sanções apareceu primeiro no Metaverse Post.

