Mucha gente cree que algún día los programas ChatGPT los dejarán sin trabajo. Sin embargo, al menos algunas profesiones no tienen que temer una posible superación de la IA. Como informó el New York Times, Steven Schwartz, un abogado de Nueva York, utilizó recientemente el chatbot de OpenAI para ayudar a redactar un escrito legal con resultados desastrosos.

La salida del chatbot contenía errores gramaticales y declaraciones sin sentido que podrían haberle costado a Schwartz su caso. Esto resalta la importancia de la experiencia humana y el pensamiento crítico en campos como el derecho, donde un solo error puede tener graves consecuencias.

El bufete de abogados de Schwartz está demandando a Avianca en nombre de Roberto Mata, quien alega que resultó herido en un vuelo a la ciudad de Nueva York. La aerolínea pidió recientemente a un juez federal que desestimara el caso. Sin embargo, según los abogados de Mata, existen múltiples casos que respaldan el caso del demandante, como “Varghese contra China Southern Airlines”, “Martínez contra Delta Airlines” y “Miller contra United Airlines”. Sin embargo, solo hay un problema: nadie pudo identificar las decisiones judiciales citadas en el escrito de Mata porque ChatGPT las creó todas. Esta revelación plantea serias preocupaciones sobre la credibilidad del equipo legal de Mata y sus argumentos. También pone en duda la validez de cualquier otra evidencia o citación presentada por los abogados de Mata en este y casos anteriores.

El jueves, Schwartz presentó una declaración jurada en la que alegaba que había utilizado ChatGPT para complementar su investigación para el caso. Afirmó que desconocía la posibilidad de que el material que presentó fuera falso. También compartió capturas de pantalla en las que le preguntaba al chatbot si los casos que citaba eran reales. El chatbot declaró que sí y le dijo a Schwartz que “bases de datos legales acreditadas” como Westlaw y LexisNexis contenían las decisiones. Sin embargo, tras una investigación más profunda, se descubrió que el chatbot había sido programado para extraer información de fuentes no confiables. Esto resalta la importancia de verificar los hechos y las fuentes antes de compartir información en línea.

"Lamento haber usado ChatGPT en el pasado y nunca lo haré en el futuro sin una verificación absoluta de su autenticidad", dijo Schwartz en el tribunal. El 8 de junio se llevará a cabo una audiencia para discutir posibles sanciones por la “circunstancia sin precedentes” que ha creado Schwartz. La declaración de Schwartz sugiere que pudo haber experimentado consecuencias negativas al usar ChatGPT sin verificar su autenticidad. Queda por ver cuál será el resultado de la audiencia y cómo afectará a Schwartz en el futuro.

  • Las autoridades chinas han estado persiguiendo a ChatGPT, un chatbot utilizado por Tencent y Ant Group después de que se vio envuelto en un escándalo político. Esto ha llevado a que se impongan mayores restricciones al uso de ChatGPT.

  • Es posible que los usuarios de las redes sociales hayan notado respuestas falsas, que son respuestas generadas por el chatbot ChatGPT. ChatGPT genera respuestas falsas en un intento de parecer más humano.

Lea más artículos relacionados:

  • Un chico escribe su tesis en un día usando únicamente ChatGPT

  • D-ID lanza chatbot de IA conversacional cara a cara potenciado por ChatGPT

  • Apple restringe el uso de ChatGPT por parte de los empleados

La publicación Abogado que usó ChatGPT para escribir un escrito plagado de citas falsas para enfrentar sanciones apareció por primera vez en Metaverse Post.