KI-Experten warnen in offenem Brief vor „Aussterberisiko“
Das Center for AI Safety (CAIS) hat vor kurzem eine von namhaften Persönlichkeiten auf dem Gebiet der künstlichen Intelligenz unterzeichnete Erklärung veröffentlicht, in der auf die potenziellen Gefahren hingewiesen wird, die diese Technologie für die Menschheit darstellt.
In der Erklärung heißt es: „Die Eindämmung des Aussterberisikos durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkriegen eine globale Priorität sein.“
Renommierte Forscher und Turing-Award-Gewinner, darunter Geoffery Hinton und Yoshua Bengio, sowie Führungskräfte von OpenAI und DeepMind, wie Sam Altman, Ilya Sutskever und Demis Hassabis, haben die Erklärung unterzeichnet.
Ziel des CAIS-Briefes ist es, Diskussionen über die dringenden Risiken anzustoßen, die mit KI verbunden sind. Der Brief hat in der gesamten Branche sowohl Unterstützung als auch Kritik hervorgerufen. Er folgt auf einen früheren offenen Brief, der von Elon Musk, Steve Wozniak und über 1.000 anderen Experten unterzeichnet wurde und dazu aufrief, die „außer Kontrolle geratene“ Entwicklung der KI zu stoppen.
Trotz ihrer Kürze enthält die jüngste Erklärung keine spezifischen Details zur Definition von KI und bietet auch keine konkreten Strategien zur Risikominderung. CAIS stellte jedoch in einer Pressemitteilung klar, dass es sein Ziel sei, Schutzmaßnahmen und Institutionen zu schaffen, die KI-Risiken wirksam managen.
OpenAI-CEO Sam Altman hat sich aktiv mit führenden Politikern weltweit ausgetauscht und sich für KI-Regulierungen eingesetzt. Bei einem kürzlichen Auftritt vor dem Senat forderte Altman die Gesetzgeber wiederholt auf, die Branche streng zu regulieren. Die CAIS-Erklärung steht im Einklang mit seinen Bemühungen, das Bewusstsein für die Gefahren der KI zu schärfen.
Obwohl der offene Brief für Aufmerksamkeit sorgte, kritisieren einige Experten für KI-Ethik den Trend, solche Erklärungen abzugeben.
Dr. Sasha Luccioni, ein Wissenschaftler, der sich mit maschinellem Lernen beschäftigt, meint, dass die Erwähnung hypothetischer KI-Risiken neben konkreten Risiken wie Pandemien und Klimawandel die Glaubwürdigkeit der ersteren erhöht und gleichzeitig die Aufmerksamkeit von unmittelbaren Problemen wie Voreingenommenheit, rechtlichen Herausforderungen und Einwilligung ablenkt.
Der Autor und Futurist Daniel Jeffries vertritt die Ansicht, dass die Diskussion der Risiken künstlicher Intelligenz zu einem Statusspiel geworden sei, bei dem Einzelne auf den Zug aufspringen, ohne dass ihnen dadurch wirkliche Kosten entstehen.
Kritiker behaupten, dass die Unterzeichnung offener Briefe über künftige Bedrohungen es den Verantwortlichen für die aktuellen Schäden durch KI ermögliche, ihre Schuld zu lindern, während die ethischen Probleme im Zusammenhang mit bereits im Einsatz befindlichen KI-Technologien vernachlässigt würden.
CAIS, eine gemeinnützige Organisation mit Sitz in San Francisco, konzentriert sich jedoch weiterhin darauf, die gesellschaftlichen Risiken durch KI durch technische Forschung und Interessenvertretung zu reduzieren. Die Organisation wurde von Experten mit Informatik-Hintergrund und einem starken Interesse an der Sicherheit von KI mitbegründet.
Während einige Forscher die Entstehung einer superintelligenten KI befürchten, die die menschlichen Fähigkeiten übertrifft und eine existentielle Bedrohung darstellt, argumentieren andere, dass das Unterzeichnen von offenen Briefen über hypothetische Weltuntergangsszenarien von den bestehenden ethischen Dilemmata rund um die KI ablenkt. Sie betonen die Notwendigkeit, die echten Probleme anzugehen, die die KI heute mit sich bringt, wie Überwachung, voreingenommene Algorithmen und die Verletzung der Menschenrechte.
Für Forscher, politische Entscheidungsträger und Branchenführer bleibt es weiterhin eine entscheidende Aufgabe, die Weiterentwicklung der KI mit einer verantwortungsvollen Umsetzung und Regulierung in Einklang zu bringen.