Mulți oameni cred că într-o zi, programele ChatGPT îi vor scoate din muncă. Cu toate acestea, cel puțin unele profesii nu trebuie să se teamă de o posibilă depășire a AI. După cum a raportat New York Times, Steven Schwartz, un avocat din New York, a folosit recent chatbot-ul OpenAI pentru a ajuta la scrierea unui brief juridic cu rezultate dezastruoase.

Rezultatul chatbot-ului conținea erori gramaticale și declarații fără sens care l-ar fi putut costa pe Schwartz cazul. Acest lucru evidențiază importanța expertizei umane și a gândirii critice în domenii precum dreptul, unde o singură greșeală poate avea consecințe grave.

Firma de avocatură a lui Schwartz o dă în judecată pe Avianca în numele lui Roberto Mata, care susține că a fost rănit într-un zbor către New York. Compania aeriană a cerut recent unui judecător federal să respingă cazul. Cu toate acestea, potrivit avocaților lui Mata, există mai multe cazuri care susțin cazul reclamantului, cum ar fi „Varghese v. China Southern Airlines”, „Martinez v. Delta Airlines” și „Miller v. United Airlines”. Cu toate acestea, există o singură problemă: nimeni nu a putut identifica deciziile instanței citate în rezumatul lui Mata, deoarece ChatGPT le-a creat pe toate. Această revelație ridică îngrijorări serioase cu privire la credibilitatea echipei juridice a lui Mata și a argumentelor acestora. De asemenea, pune sub semnul întrebării validitatea oricăror alte probe sau citări prezentate de avocații lui Mata în acest caz și în cazurile anterioare.

Joi, Schwartz a depus o declarație pe propria răspundere în care a pretins că a folosit ChatGPT pentru a-și completa cercetările pentru caz. El a susținut că nu cunoștea posibilitatea ca materialul pe care l-a depus să fie fals. El a distribuit și capturi de ecran în care a întrebat chatbot-ul dacă cazurile pe care le-a citat sunt reale. Chatbot-ul a declarat că sunt, spunându-i lui Schwartz că „baze de date legale de renume” precum Westlaw și LexisNexis conțin deciziile. Cu toate acestea, în urma unor investigații suplimentare, s-a descoperit că chatbot-ul a fost programat pentru a extrage informații din surse nesigure. Acest lucru evidențiază importanța verificării faptelor și a verificării surselor înainte de a partaja informații online.

„Regret că am folosit ChatGPT în trecut și nu o voi face niciodată în viitor fără o verificare absolută a autenticității sale”, a spus Schwartz în instanță. Pe 8 iunie va avea loc o audiere pentru a discuta eventualele sancțiuni pentru „circumstanța fără precedent” creată de Schwartz. Declarația lui Schwartz sugerează că este posibil să fi experimentat consecințe negative în urma utilizării ChatGPT fără a verifica autenticitatea acestuia. Rămâne de văzut care va fi rezultatul audierii și cum îl va afecta pe Schwartz în continuare.

  • Autoritățile chineze au persecutat ChatGPT, un chatbot folosit de Tencent și Ant Group după ce acesta a fost implicat într-un scandal politic. Acest lucru a dus la aplicarea unor restricții mai mari asupra utilizării ChatGPT.

  • Este posibil ca utilizatorii de pe rețelele sociale să fi observat răspunsuri false, care sunt răspunsuri generate de chatbot-ul ChatGPT. ChatGPT produce răspunsuri false în încercarea de a părea mai asemănător omului.

Citiți mai multe articole similare:

  • Un tip își scrie teza într-o zi folosind doar ChatGPT

  • D-ID lansează Chatbot AI conversațional față în față, împuternicit de ChatGPT

  • Apple restricționează angajații să folosească ChatGPT

Postarea Avocatul care a folosit ChatGPT pentru a scrie un scurt plin de citații false pentru a face față sancțiunilor a apărut mai întâi pe Metaverse Post.