Nachdem frühere Tools nicht funktionierten, hat OpenAI einen weiteren KI-Detektor auf den Markt gebracht, der sich auf Bilder und das steigende Risiko von Deepfakes konzentriert.

OpenAI, ein Pionier auf dem Gebiet der generativen künstlichen Intelligenz, stellt sich der Herausforderung, Deepfake-Bilder zu erkennen, und das in einer Zeit, in der irreführende Inhalte in sozialen Medien immer häufiger vorkommen. Mira Murati, Chief Technology Officer des Unternehmens, stellte auf der jüngsten WSJ Technology Live-Konferenz in Laguna Beach, Kalifornien, einen neuen Deepfake-Detektor vor.
Laut Murati verfügt das neue Tool von OpenAI über eine „Zuverlässigkeit von 99 Prozent“ bei der Feststellung, ob ein Bild mithilfe von KI erstellt wurde.
KI-generierte Bilder können alles umfassen, von unbeschwerten Kreationen wie Papst Franziskus in einem flauschigen Balenciaga-Mantel bis hin zu irreführenden Bildern, die finanziellen Schaden anrichten können. Das Potenzial und die Fallstricke von KI liegen auf der Hand. Da diese Tools immer ausgefeilter werden, erweist sich die Unterscheidung zwischen echten Inhalten und KI-generierten Inhalten als Herausforderung.
Während das Veröffentlichungsdatum des Tools noch geheim ist, hat seine Veröffentlichung großes Interesse geweckt, insbesondere angesichts der bisherigen Bemühungen von OpenAI.
Im Januar 2022 brachte das Unternehmen einen Textklassifikator auf den Markt, der laut eigenen Angaben menschliches Schreiben von maschinengeneriertem Text von Modellen wie ChatGPT unterscheiden könne. Doch im Juli schaltete OpenAI das Tool stillschweigend ab und gab ein Update heraus, in dem es hieß, die Fehlerquote sei unannehmbar hoch. Ihr Klassifikator bezeichnete echte menschliche Schrift in 9 % der Fälle fälschlicherweise als KI-generiert.
Wenn Muratis Behauptungen wahr sind, wäre dies ein wichtiger Moment für die Branche, da aktuelle Methoden zur Erkennung von KI-generierten Bildern oft nicht automatisiert sind. Typischerweise verlassen sich Bastler auf ihre Intuition und konzentrieren sich auf bekannte Herausforderungen, die generative KI behindern, wie etwa das Nachzeichnen von Händen, Zähnen und Mustern. Die Unterscheidung zwischen KI-generierten Bildern und KI-bearbeiteten Bildern bleibt unklar, insbesondere wenn man versucht, KI zur Erkennung von KI zu nutzen.
OpenAI arbeitet nicht nur daran, schädliche KI-Bilder zu erkennen, sondern setzt auch Maßstäbe für die Zensur seiner eigenen Modelle, sogar über das hinaus, was es in seinen Inhaltsrichtlinien öffentlich angibt.
Wie Decrypt herausgefunden hat, scheint das Dall-E-Tool von OpenAI so konfiguriert zu sein, dass es Eingabeaufforderungen ohne Benachrichtigung ändert und stillschweigend Fehler auslöst, wenn es darum geht, eine bestimmte Ausgabe zu erzeugen, selbst wenn diese den veröffentlichten Richtlinien entspricht, und die Erstellung von Informationen zu bestimmten Namen, Künstlerstilen und Rassen vermeidet .
Teil der Dall-E 3-Eingabeaufforderung in ChatGPT. Quelle: Entschlüsselung
Das Erkennen von Deepfakes ist nicht nur die Aufgabe von OpenAI. DeepMedia ist ein Unternehmen, das diese Fähigkeit entwickelt und ausschließlich mit Regierungskunden zusammenarbeitet.
Auch große Unternehmen wie Microsoft und Adobe krempeln die Ärmel hoch. Sie haben ein sogenanntes „KI-Wasserzeichen“-System eingeführt. Der von der Content Provenance and Authenticity Alliance (C2PA) gesteuerte Mechanismus enthält ein einzigartiges „cr“-Symbol in der Sprechblase, um auf KI-generierte Inhalte hinzuweisen. Das Symbol soll als Zeichen der Transparenz dienen und es Nutzern ermöglichen, die Herkunft von Inhalten zu erkennen.
Allerdings ist sie, wie jede Technologie, nicht narrensicher. Es besteht eine Sicherheitslücke, durch die Metadaten mit diesem Symbol entfernt werden können. Als Lösung hat Adobe jedoch auch einen Cloud-Dienst gestartet, der verlorene Metadaten wiederherstellen und so die Existenz des Symbols sicherstellen kann. Es ist auch nicht schwer, es zu umgehen.
Da Regulierungsbehörden Deepfakes zunehmend kriminalisieren, sind diese Innovationen nicht nur technologische Errungenschaften, sondern auch gesellschaftliche Notwendigkeiten. Jüngste Initiativen von OpenAI und Unternehmen wie Microsoft und Adobe unterstreichen die gemeinsamen Bemühungen, Authentizität im digitalen Zeitalter sicherzustellen. Obwohl diese Tools aktualisiert werden, um ein höheres Maß an Authentizität zu bieten, hängt ihre effektive Implementierung von einer breiten Akzeptanz ab. Daran sind nicht nur die Technologiegiganten beteiligt, sondern auch Content-Ersteller, Social-Media-Plattformen und Endbenutzer.
Angesichts der rasanten Entwicklung der generativen künstlichen Intelligenz haben Detektoren immer noch Schwierigkeiten, die Authentizität von Text, Bildern und Audio zu unterscheiden. Derzeit sind menschliches Urteilsvermögen und Wachsamkeit unsere besten Verteidigungslinien gegen den Missbrauch von KI. Allerdings sind Menschen nicht unfehlbar. Dauerhafte Lösungen erfordern die Zusammenarbeit von Technologieführern, Gesetzgebern und der Öffentlichkeit, um dieses komplexe Neuland zu bewältigen. #OpenAI #AI检测

