Google, OpenAI und Meta haben sich darauf geeinigt, die Entwicklung von KI-Modellen einzustellen, wenn diese die Risiken nicht eindämmen können. Die Unternehmen unterzeichneten am Dienstag auf dem AI Seoul Summit, der von Großbritannien und Südkorea ausgerichtet wurde, die „AI Safety Commitments“.

Lesen Sie auch: Großbritannien und die Republik Korea arbeiten beim KI-Gipfel zusammen

Dass sich so viele führende KI-Unternehmen aus so vielen Teilen der Welt zu denselben Verpflichtungen in Bezug auf die KI-Sicherheit verpflichten, ist weltweit einzigartig.

— Großbritanniens Premierminister Rishi Sunak

16 KI-Unternehmen verpflichten sich zur KI-Sicherheit

Dem Bericht zufolge haben insgesamt 16 KI-Unternehmen aus den USA, China und dem Nahen Osten der Sicherheitsverpflichtung zugestimmt.

Zu den Unternehmen, die den Sicherheitsstandards zustimmen, gehören ebenfalls Microsoft, Amazon, Anthropic, Samsung Electronics und der chinesische Entwickler Zhipu.ai.

Lesen Sie auch: Alibaba und Tencent investieren 342 Millionen Dollar in das KI-Startup Zhipu

Die Verpflichtung zur KI-Sicherheit verpflichtet alle Unternehmen dazu, vor einem weiteren KI-Aktionsgipfel in Frankreich Anfang 2025 ihren jeweiligen Sicherheitsrahmen zu veröffentlichen. Der Rahmen wird erklären, wie die Unternehmen die Risiken ihrer Modelle bestimmen und welche Risiken „als untragbar erachtet werden“.

KI-Unternehmen werden riskanten KI-Modellen den Stecker ziehen

In den extremsten Fällen würden die Unternehmen, wenn die Risiken nicht eingedämmt werden könnten, „überhaupt kein Modell oder System entwickeln oder einsetzen“, heißt es in dem Bericht.

Das wahre Potenzial der KI kann nur dann freigesetzt werden, wenn wir die Risiken in den Griff bekommen. Es liegt an uns allen, dafür zu sorgen, dass KI sicher entwickelt wird.

— Michelle Donelan, britische Technologieministerin

Im Juli 2023 unternahm die US-Regierung ähnliche Anstrengungen, um die Risiken und Vorteile der KI zu thematisieren. Präsident Joe Biden traf sich mit Google, Microsoft, Meta, OpenAI, Amazon, Anthropic und Inflection, um KI-Schutzmaßnahmen zu besprechen, die gewährleisten, dass ihre KI-Produkte vor der Veröffentlichung sicher sind.

Debatte um KI-Sicherheit heizt sich wegen OpenAI auf

Die Diskussion über die Sicherheit von KI hat in den letzten Monaten an Fahrt aufgenommen, insbesondere im Hinblick auf künstliche Intelligenz (KI), deren Ziel es ist, eine menschenähnliche allgemeine Intelligenz nachzuahmen.

Eines der Unternehmen, OpenAI, stand letzte Woche im Mittelpunkt dieser Diskussion, nachdem der Mitbegründer Ilya Sutskever und der Topmanager Jan Leike aus dem Unternehmen ausgetreten waren. Das Duo leitete das OpenAI Superalignment-Team, das eingerichtet wurde, um zu verhindern, dass ihre Modelle außer Kontrolle geraten.

Lesen Sie auch: Ein weiterer OpenAI-Manager, Jan Leike, tritt zurück

In seinem Beitrag sagte Leike, dass „Sicherheitskultur und -prozesse im Unternehmen in den vergangenen Jahren hinter glänzenden Produkten in den Hintergrund gerückt seien“.

Es ist längst überfällig, dass wir uns mit den Auswirkungen der AGI wirklich ernsthaft befassen. Wir müssen uns so gut wie möglich darauf vorbereiten. Nur dann können wir sicherstellen, dass die AGI der gesamten Menschheit zugutekommt.

— Jan Leike (@janleike) 17. Mai 2024

Leike fügte hinzu, dass „OpenAI ein AGI-Unternehmen werden muss, bei dem die Sicherheit an erster Stelle steht“ und dass wir uns bestmöglich darauf vorbereiten müssen, um sicherzustellen, dass AGI der gesamten Menschheit zugutekommt.

Kryptopolitische Berichterstattung von Ibiam Wayas