„Obwohl wir Sicherheitsvorkehrungen getroffen haben, kann es vorkommen, dass das System falsche oder irreführende Informationen sowie beleidigende oder voreingenommene Inhalte generiert. Es ist nicht dazu gedacht, Ratschläge zu geben.“

– OpenAIs einleitender Haftungsausschluss

Und das bringt uns zum Kern unserer größten Angst: Was passiert, wenn sich die Technologie gegen uns wendet?

Was passiert, wenn Technologie vorzeitig eingesetzt wird, ohne sie ausreichend zu testen und ihre Leistungsfähigkeit zu kennen?

Anfang des Monats wurde OpenAI, das weltweit am meisten diskutierte Unternehmen für künstliche Intelligenz (KI), erstmals eine Verleumdungsklage zugestellt. Diese verdeutlicht noch einmal die Gefahren, die von der ungehinderten Fähigkeit von ChatGPT ausgehen, Ergebnisse zu generieren, für die es weder eine faktische noch eine rechtliche Grundlage gibt.

Mark Walters, ein landesweit ausgestrahlter Radiomoderator aus Georgia, reichte am 5. Juni Klage gegen OpenAI ein, in der er behauptete, dass der KI-gestützte Chatbot ChatGPT Rechtsansprüche gegen ihn erfunden habe.

Die 13-seitige Beschwerde bezieht sich auf den AmmoLand.com-Journalisten Fred Riehl und seine Anfrage vom 4. Mai an ChatGPT, den Rechtsfall „Second Amendment Foundation v. Ferguson“ zusammenzufassen, ein vor einem Bundesgericht in Washington anhängiges Bundesverfahren, in dem der Generalstaatsanwalt des Staates, Bob Ferguson, beschuldigt wird, seine Macht missbraucht zu haben, indem er die Aktivitäten der Stiftung für Waffenrechte unterbunden hat, und in der dem OpenAI-Chatbot ein Link zu der Klage zur Verfügung gestellt wird.

Obwohl Walter in der ursprünglichen Klage nicht namentlich erwähnt wurde, antwortete ChatGPT auf Riehls summarische Anfrage an die Second Amendment Foundation mit der Aussage, dass es sich um Folgendes handele:

„...eine Klage von Alan Gottlieb, dem Gründer und stellvertretenden Vorsitzenden der Second Amendment Foundation (SAF), gegen Mark Walters, der des Betrugs und der Veruntreuung von Geldern der SAF beschuldigt wird.“

Aber hier wird es verzerrt und gefährlich – keine der Aussagen von ChatGPT zu Walters findet sich in der eigentlichen SAF-Beschwerde.

In dieser von der KI generierten „Beschwerde“ wurde Walters, der als Schatzmeister und Finanzvorstand der Organisation fungierte, außerdem vorgeworfen, „Gelder ohne Genehmigung oder Erstattung für persönliche Ausgaben veruntreut, Finanzunterlagen und Kontoauszüge manipuliert zu haben, um seine Aktivitäten zu verschleiern, und es versäumt zu haben, der Führung der SAF genaue und zeitnahe Finanzberichte und Offenlegungen vorzulegen.“

Als Entschädigung forderte der Kläger angeblich „die Herausgabe der veruntreuten Gelder, Schadensersatz wegen Verletzung treuhänderischer Pflichten und Betrug sowie Walters Entlassung aus seinem Amt als Mitglied des Vorstands der SAF.“

Doch genau hierin liegt das Problem – laut Walters ist „jede Sachverhaltsbehauptung in der ihn betreffenden [ChatGPT]-Zusammenfassung falsch“ und der Chatbot von OpenAI ging sogar so weit, „eine fehlerhafte Fallnummer“ zu erstellen.

„ChatGPTs Anschuldigungen gegen Walters waren falsch und böswillig, wurden in gedruckter Form, in Schriftstücken, Bildern oder Schildern geäußert und neigten dazu, Walters Ruf zu schädigen und ihn öffentlichem Hass, Verachtung oder Spott auszusetzen“, heißt es in der Klage. „Indem [OpenAI] die Anschuldigungen an Riehl schickte, veröffentlichte es verleumderisches Material über Walters.“

Wenn Sie ChatGPT bitten würden, eine Zusammenfassung der Klage von SAF bereitzustellen, die in Walters‘ Beschwerde zitiert wurde, würden Sie möglicherweise auch eine ähnliche Antwort erhalten:

„Ich entschuldige mich, aber als KI-Sprachmodell basieren meine Antworten auf bereits vorhandenem Wissen bis September 2021. Daher kann ich nicht auf das Internet zugreifen oder darin surfen oder bestimmte Dokumente oder Links anzeigen, die nach meinem Wissensstand veröffentlicht wurden. Folglich kann ich Ihnen keine Zusammenfassung der Anschuldigungen in der von Ihnen erwähnten Klage geben … [um] Informationen über die Klage und ihre Anschuldigungen zu erhalten, empfehle ich, das Dokument selbst zu überprüfen oder vertrauenswürdige Nachrichtenquellen oder juristische Websites zu konsultieren, die möglicherweise über den Fall berichtet haben. Sie können Ihnen genaue und aktuelle Informationen zu der von Ihnen erwähnten spezifischen Klage geben.“

Zwar hat OpenAI auf keine Kommentare zu Walters‘ laufender Verleumdungsklage reagiert, doch es stellt sich die Frage, warum das KI-Unternehmen nicht stärker auf diese wohl vorhersehbaren Konsequenzen eines Codes drängt, der im Nachhinein fahrlässig und ohne angemessene Tests eingesetzt wurde.

Der Fall ist Mark Walters gegen OpenAI, LLC, cv-23-A-04860-2.

  • Walters Beschwerde vom 5. Juni können Sie hier lesen.

Lesen Sie in anderen Nachrichten über das Treffen von US-Präsident Joe Biden mit acht Technologieführern, um Voreingenommenheit gegenüber KI und Vorteile für den Arbeitsplatz zu diskutieren.

Klicken Sie hier, um die vollständige Galerie bei Hypemoon anzuzeigen.