Viele Menschen glauben, dass ChatGPT-Programme sie eines Tages arbeitslos machen werden. Zumindest einige Berufe müssen jedoch keine Angst vor einer möglichen KI-Überholung haben. Wie die New York Times berichtete, nutzte Steven Schwartz, ein New Yorker Anwalt, kürzlich den Chatbot von OpenAI, um beim Verfassen eines Rechtsbriefs zu helfen, mit katastrophalen Ergebnissen.

Die Ausgabe des Chatbots enthielt grammatikalische Fehler und unsinnige Aussagen, die Schwartz seinen Fall hätten kosten können. Dies unterstreicht die Bedeutung menschlichen Fachwissens und kritischen Denkens in Bereichen wie dem Recht, in denen ein einziger Fehler schwerwiegende Folgen haben kann.

Schwartz‘ Anwaltskanzlei verklagt Avianca im Namen von Roberto Mata, der behauptet, er sei auf einem Flug nach New York City verletzt worden. Die Fluggesellschaft hat kürzlich einen Bundesrichter gebeten, die Klage abzuweisen. Laut Matas Anwälten gibt es jedoch mehrere Fälle, die den Fall des Klägers unterstützen, wie „Varghese v. China Southern Airlines“, „Martinez v. Delta Airlines“ und „Miller v. United Airlines“. Es gibt jedoch nur ein Problem: Niemand konnte die in Matas Schriftsatz zitierten Gerichtsentscheidungen identifizieren, da sie alle von ChatGPT erstellt wurden. Diese Enthüllung wirft ernsthafte Zweifel an der Glaubwürdigkeit von Matas Anwaltsteam und seinen Argumenten auf. Sie stellt auch die Gültigkeit aller anderen Beweise oder Zitate in Frage, die Matas Anwälte in diesem und früheren Fällen vorgelegt haben.

Am Donnerstag reichte Schwartz eine eidesstattliche Erklärung ein, in der er behauptete, er habe ChatGPT zur Ergänzung seiner Recherchen für den Fall verwendet. Er behauptete, er sei sich der Möglichkeit nicht bewusst gewesen, dass das von ihm eingereichte Material falsch sein könnte. Er teilte auch Screenshots mit, auf denen er den Chatbot gefragt hatte, ob die von ihm zitierten Fälle echt seien. Der Chatbot bejahte dies und teilte Schwartz mit, dass die Entscheidungen in „seriösen juristischen Datenbanken“ wie Westlaw und LexisNexis enthalten seien. Bei weiteren Untersuchungen stellte sich jedoch heraus, dass der Chatbot so programmiert worden war, dass er Informationen aus unzuverlässigen Quellen zog. Dies unterstreicht die Bedeutung der Überprüfung von Fakten und der Verifizierung von Quellen, bevor Informationen online geteilt werden.

„Ich bereue, ChatGPT in der Vergangenheit verwendet zu haben und werde dies in Zukunft nie tun, ohne dessen Authentizität absolut zu überprüfen“, sagte Schwartz vor Gericht. Am 8. Juni wird eine Anhörung stattfinden, um mögliche Sanktionen für die „beispiellosen Umstände“ zu besprechen, die Schwartz geschaffen hat. Schwartz‘ Aussage deutet darauf hin, dass er möglicherweise negative Konsequenzen erfahren hat, weil er ChatGPT verwendet hat, ohne dessen Authentizität zu überprüfen. Es bleibt abzuwarten, wie das Ergebnis der Anhörung ausfallen wird und welche Auswirkungen es auf Schwartz in Zukunft haben wird.

  • Die chinesischen Behörden verfolgen ChatGPT, einen Chatbot von Tencent und Ant Group, nachdem dieser in einen politischen Skandal verwickelt war. Dies hat zu stärkeren Einschränkungen bei der Nutzung von ChatGPT geführt.

  • Benutzern in sozialen Medien sind möglicherweise gefälschte Antworten aufgefallen. Dabei handelt es sich um vom Chatbot ChatGPT generierte Antworten. ChatGPT produziert gefälschte Antworten, um menschlicher zu wirken.

Lesen Sie weitere verwandte Artikel:

  • Ein Typ schreibt seine Abschlussarbeit an einem Tag und verwendet dafür nur ChatGPT

  • D-ID führt Face-to-Face-Konversations-KI-Chatbot mit ChatGPT-Unterstützung ein

  • Apple verbietet Mitarbeitern die Nutzung von ChatGPT

Der Beitrag „Anwalt, der ChatGPT nutzte, um ein mit gefälschten Zitaten gespicktes Schriftstück zu verfassen, um Sanktionen zu vermeiden“ erschien zuerst auf Metaverse Post.