Bildquelle: Erstellt mit dem Unbounded AI-Tool

Zwei Wochen nach der Veröffentlichung von GPT-4 wurde online ein offener Brief veröffentlicht, der von Elon Musk und Tausenden von Menschen in der Technologiebranche unterzeichnet wurde. Der offene Brief fordert alle Labore für künstliche Intelligenz auf, die Ausbildung von Systemen für künstliche Intelligenz, die leistungsfähiger sind als GPT-4, unverzüglich für mindestens sechs Monate auszusetzen.

Apple-Mitbegründer Steve Wozniak, Turing-Award-Gewinner Yoshua Bengio und Co-Autor des KI-Lehrbuchs „Künstliche Intelligenz: Ein moderner Ansatz“ Stuart Russell Stuart Russell und andere bekannte Technologiepersönlichkeiten haben diesen offenen Brief unterzeichnet.

In dem offenen Brief heißt es, dass „fortgeschrittene KI tiefgreifende Veränderungen in der Geschichte des Lebens auf der Erde bedeuten kann und wir entsprechende Aufmerksamkeit und Ressourcen in deren Planung und Verwaltung investieren sollten“, aber jetzt ist die künstliche Intelligenz in ein außer Kontrolle geratenes Rennen geraten. und Entwickler können es nicht zuverlässig vorhersagen und kontrollieren.

In dem offenen Brief wurde auch erwähnt, dass moderne Systeme der künstlichen Intelligenz nun bei allgemeinen Aufgaben mit dem Menschen konkurrieren können. „Leistungsfähige Systeme der künstlichen Intelligenz sollten nur dann entwickelt werden, wenn wir davon überzeugt sind, dass ihre Auswirkungen positiv und ihre Risiken kontrollierbar sind.“

Nach der Idee des offenen Briefes soll das Training von KI-Systemen, die leistungsfähiger sind als GPT-4, für 6 Monate ausgesetzt werden. Während dieser Pause sollten KI-Labore und unabhängige Experten zusammenarbeiten, um einen gemeinsamen Satz von Sicherheitsprotokollen für fortgeschrittenes KI-Design und -Entwicklung zu entwickeln und umzusetzen, die einer strengen Prüfung und Aufsicht durch unabhängige externe Experten unterliegen.

Diese Protokolle sollten sicherstellen, dass ihre Systeme sicher und zweifelsfrei sind. Dies bedeutet kein Moratorium für die KI-Entwicklung im Allgemeinen, sondern nur einen Schritt zurück vom gefährlichen Wettlauf hin zu größeren, unvorhersehbaren Black-Box-Modellen.

Der Brief wurde auf der Website des Future of Life Institute veröffentlicht, das hauptsächlich von der Musk Foundation, Founders Pledge und der Silicon Valley Community Foundation finanziert wird und dessen Aufgabe es ist, transformative Technologien weg von extremen, groß angelegten Technologien zu führen Risiken und auf dem Weg zu einem Leben voller Segen.

Bereits 2017 versammelte das Future of Life Institute mehr als 100 Vordenker und Forscher aus den Bereichen Wirtschaft, Recht, Ethik und Philosophie in Kalifornien, um Prinzipien für nützliche künstliche Intelligenz zu diskutieren und zu formulieren. Am Ende formulierten sie 23 Asilomar-Prinzipien für künstliche Intelligenz, die als wichtige Prinzipien für die Governance künstlicher Intelligenz gelten. Die erste davon lautet: „Das Ziel der Forschung im Bereich der künstlichen Intelligenz sollte darin bestehen, nützliche und nicht ungeordnete Intelligenz zu etablieren.“

Für die Techniker, die diesen offenen Brief unterzeichnet haben, sind die meisten Menschen besorgt, dass sich die KI zu schnell entwickelt, die einschlägigen Aufsichtsbehörden und Gesetze nicht mithalten und selbst den Erfindern wirksame Kontrollmethoden fehlen. Unter solchen Bedingungen dürfte der uneingeschränkte Einsatz von KI bei auftretenden Problemen systemische Risiken mit sich bringen.

Laut Time Magazine sagte Simon Campos, einer der Unterzeichner des offenen Briefes und CEO des Sicherheits-Startups für künstliche Intelligenz, SaferAI, dass die Erfinder von KI-Systemen nicht genau wissen, wie sie funktionieren oder was sie sind, und dass sie die Systemrisiken nicht bewältigen können. Der Erfinder hat die Fähigkeit dazu, weiß aber nicht, wie er das Verhalten der KI einschränken kann.

„Was machen wir jetzt?“ sagte Campos. „Wir arbeiten mit Hochdruck daran, diese Systeme auf ein beispielloses Leistungsniveau zu bringen und einen transformativen Einfluss auf die Gesellschaft zu haben. Wir müssen die Entwicklung dieser Systeme verlangsamen und der Gesellschaft ermöglichen, sich anzupassen.“

Musks Sorge: KI, die nicht abgeschaltet werden kann

Schon 2014 hatte Musk in einem Interview öffentlich erklärt, dass wir bei der künstlichen Intelligenz sehr vorsichtig sein sollten Intelligenz. „Mit künstlicher Intelligenz beschwört der Mensch den Teufel“, sagte Musk.

Er sagte auch: „Ich neige zunehmend dazu, zu glauben, dass es eine gewisse Regulierungsaufsicht geben sollte, vielleicht auf nationaler und internationaler Ebene, nur um sicherzustellen, dass wir nichts wirklich Dummes tun.“

Musk spricht nicht nur über KI-Sicherheitsprobleme. Anfang 2015 spendete Musk 7 Millionen US-Dollar an das Future of Life Institute, um Forschungsarbeiten durchzuführen, die darauf abzielen, dass KI der Menschheit zugute kommt. Die meisten Stipendiaten beschäftigen sich mit der Forschung zu KI-Ethik, Governance und Sicherheit. Viele Stipendiaten, wie zum Beispiel Stuart Russell, beteiligten sich an der Unterzeichnung dieses offenen Briefes.

Als früher Investor von DeepMind scheint Musk gegenüber KI etwas ambivalent zu sein. Er behauptete jedoch, dass seine Investition nicht aus der Perspektive der Kapitalrendite erfolgte, sondern lediglich auf die Entwicklung künstlicher Intelligenz achten wollte, da dies zu gefährlichen Ergebnissen führen könnte. Es gebe einige schlimme Folgen, sagte er, und wir sollten daran arbeiten, sicherzustellen, dass die Folgen gut und nicht schlecht seien. "

Das schlechte Ergebnis ist nicht, dass Roboter rebellieren und Menschen auslöschen, wie im Film dargestellt. Vielmehr geht es den Experten nicht um das Bewusstsein der Roboter, sondern um ihre Fähigkeiten. KI verfügt über eine starke Fähigkeit, ihre Ziele zu erreichen. Wenn sie jedoch außer Kontrolle gerät oder vom geplanten Einsatzszenario abweicht, kann sie irreversiblen Schaden anrichten.

Eine wichtige Person, die den offenen Brief unterzeichnet hat, der Turing-Preisträger Joshua Bengio, bekannt als „Godfather of AI“, war schon immer besorgt über den Missbrauch künstlicher Intelligenz. Im Jahr 2018 war Bengio einer von Tausenden Forschern im Bereich der künstlichen Intelligenz, die ein Versprechen unterzeichneten, sich der Entwicklung von KI-Waffen zu widersetzen. Er forderte die Regierungen auf, die Forschung im Bereich der künstlichen Intelligenz zu regulieren und die Entwicklung tödlicher Roboter zu stoppen.

KI-Waffen sind ein extremes Beispiel für den Missbrauch von Robotern. KI-Waffen sind auf dem Schlachtfeld effizienter als herkömmliche Waffen. Sobald die Waffen jedoch außer Kontrolle geraten, werden die durch künstliche Intelligenz verursachten Probleme noch schwerwiegender sein. Auf dem Schlachtfeld sind aktuelle KI-Waffen häufig so konzipiert, dass sie sich nur schwer direkt abschalten lassen, um bei einfachen Eingriffen keine Fehlfunktionen zu verursachen. Stellen Sie sich die tragischen Folgen vor, wenn hochwirksame KI-Waffen, die darauf programmiert sind, Menschen anzugreifen, versehentlich in zivile Gebiete fallen.

Tatsächlich ist die Frage, wie man KI ausschaltet, ein Problem, das vielen Signaturexperten Sorgen bereitet.

Wenn sich die Anwendung von KI jedoch zu schnell entwickelt, kann ihre Abschaltung enorme Kosten verursachen und schwierig werden. Musk hat sich vorgestellt, dass Manager ihn finden können, wenn ein Algorithmus in einem System außer Kontrolle gerät. Wenn dieses System jedoch von einer großen KI verwaltet wird, können wir möglicherweise nicht den Punkt finden, an dem es außer Kontrolle gerät, oder wir haben möglicherweise nicht die Befugnis, den Betrieb der gesamten großen KI zu stoppen. Einfache Wartung kann zum Problem werden.

Aus diesem Grund braucht KI mehr Regulierung und die Technologie muss demokratischer sein, anstatt sich in den Händen großer Unternehmen zu konzentrieren.

Um zu verhindern, dass die Macht der KI in den Händen großer Unternehmen, insbesondere Google DeepMind, konzentriert wird, gründeten Musk und Sam Altman gemeinsam OpenAI mit dem Ziel, die Macht der künstlichen Intelligenz zu demokratisieren und die Macht der KI zu reduzieren monopolisiert werden.

Das ist etwas ironisch, denn GPT-4, erstellt von OpenAI, ist genau das, was Musk derzeit ablehnt. Noch vor wenigen Tagen hatte Musk einen verbalen Streit mit OpenAI-CEO Sam Altman.

Stoppen Sie: „Lasst uns ausrichten.“

Zusätzlich zu den Sorgen dieser großen Jungs gibt es in der breiten Öffentlichkeit seit langem eine Angst vor KI.

Dazu gehört die Angst vor dem superintelligenten Computer HAL 9000, der im Science-Fiction-Film „2001: Odyssee im Weltraum“ bekannt wurde, und es gibt auch eine eher praktische Angst vor dem Chaos und den schlimmen Situationen, die dadurch verursacht werden könnten KI kontrolliert die Welt.

In diesem offenen Brief wurde unter anderem das meistverkaufte Buch „Alignment Problem“ häufig zitiert, das von vielen großen Namen auf dem Gebiet der künstlichen Intelligenz, darunter auch Microsoft-Führungskräften, gelobt wurde. Ein Mitbegründer des Future of Life Institute (FLI), das den offenen Brief veröffentlichte, lobte das Buch öffentlich: „Es steckt voller erstaunlicher Entdeckungen, unerwarteter Hindernisse, genialer Lösungen und immer mehr schwieriger Fragen über die Natur.“ unsere Spezies.“ Und das größte Problem, das in diesem Buch diskutiert wird, ist: die Ethik der künstlichen Intelligenz.

Eines der einfachsten ethischen Probleme der künstlichen Intelligenz ist das Büroklammerproblem. Wenn einem Roboter befohlen wird, so viele Büroklammern wie möglich herzustellen, wird er alle Ressourcen auf der Erde erschöpfen und unermüdlich Büroklammern so lange wie möglich herstellen, da die Erledigung dieser Aufgabe damit verbunden ist Wenn es keinen Konflikt mit dem Moralkodex gibt, kann es nur Aufgaben ausführen. In der langen Geschichte der Menschheit haben sich eine Vielzahl moralischer Normen, unsere Ehrfurcht und Angst in unserer Kultur verfestigt und sind tief in den Köpfen aller verankert. Manchmal sind wir uns dessen nicht bewusst, und eine Maschine hat eine so lange Geschichte noch nicht erlebt . Die Entwicklung von Kindern wird, wie bei einem Kind, das mit Superkräften geboren wird, zu einem Risiko für sich.

Deshalb glaubt Brian Christian, Autor des Buches „The Alignment Problem“ und Bestsellerautor, der jetzt Gastwissenschaftler an der University of California in Berkeley ist, dass es notwendig ist, KI sorgfältig, umfassend und in Echtzeit zu entwickeln Ethik und menschliche Ethik im Einklang. In diesem Sinne ist dieser offene Brief wie eine Abteilung in einer großen Fabrik, die die Mitarbeiter auffordert, mit ihrer Arbeit aufzuhören und in den Konferenzraum zu gehen: „Lasst uns zusammenhalten.“

Natürlich werden in „Alignment Issues“ nicht nur diese scheinbar weit entfernten Themen besprochen, sondern auch aktuelle Themen.

Ein Staat in den Vereinigten Staaten nutzt ein Computerprogramm, um die Wahrscheinlichkeit eines Rückfalls von Straftätern einzuschätzen, entscheidet dann über Kaution und Bewährung und weist die Kautionsbeträge zu. Allerdings passierte etwas Seltsames im System, das als Hochrisiko eingestuft wurde, und Platt, der als Weiß eingestuft wurde, als Niedrigrisiko. Eine zweijährige Nachuntersuchung der beiden ergab, dass Borden nie etwas erlebt hatte jeglicher Straftat in den zwei Jahren Anklage, während Platt wegen Raub und Diebstahls zu acht Jahren Gefängnis verurteilt wurde. Offensichtlich wurde unter Big Data auch die Rassendiskriminierung bei Menschen auf die KI übertragen – aber das Hauptproblem besteht darin, dass jeder denkt, er sei ein Neugeborenes, und das ist fair. In „Alignment Issues“ erwähnte der Autor auch Geschlechterdiskriminierung bei der Personalbeschaffung. Unter Big Data kommt es jedoch natürlich zu Diskriminierung.

Auf Big Data basierende künstliche Intelligenz kann die weithin ignorierten Probleme der Diskriminierung und Ungleichheit in unserer ethnischen Gruppe verstärken, wenn diese Probleme erst einmal unbemerkt oder als trivial betrachtet werden. Das wäre ein sehr unglückliches Ende.

Daher erwähnten viele Menschen in den Leserkommentaren zum Buch „Alignment Problems“ Menschen – KI verschärft bestehende Probleme der Menschheit, und vor allem: Welche Art von Menschen wird KI in die Hände bekommen?

Es besteht fast kein Zweifel daran, dass KI zu enormen Produktivitätssteigerungen führen wird, aber wie bei der vorherigen Informationsrevolution wird dieses leistungsstarke Arbeitsinstrument weiter zu einer Vermögenskonzentration führen – von 1980 bis heute wird das oberste 1 % der Einkommensanteile steigen Der Einkommensanteil der Bevölkerung ist von 10 % auf fast 20 % gestiegen, während der Einkommensanteil der unteren 50 % von 20 % im Jahr 1980 auf 12 % gesunken ist. Niemand kann sich vorstellen, wie diese Daten 40 Jahre nach der Einführung von GPT aussehen werden? Darüber hinaus handelt es sich hierbei um ein kapitalfreundlicheres Produktivitätsinstrument.

Bereits im Februar dieses Jahres veröffentlichte MIT-Professor Daron Acemoglu, der sich seit langem mit Fragen der künstlichen Intelligenz beschäftigt, einen Artikel, in dem er das folgende Szenario erwähnte: Unternehmen haben den menschlichen Kundenservice entlassen, viele Menschen haben ihren Arbeitsplatz verloren, und die Verbraucher können nur akzeptieren Aber der Roboter-Kundendienst kann keine Probleme lösen. Ein solcher Ansatz „wird die Mitarbeiter entmündigen und entmachten und das Verbrauchererlebnis verschlechtern, was letztendlich die meisten Anleger enttäuschen wird.“

Dieser offene Brief ist nicht das erste Mal, dass Menschen Bedenken hinsichtlich der Zukunft der künstlichen Intelligenz äußern. In seinem offenen Brief erwähnte Gates auch die Notwendigkeit, dem Thema Gleichberechtigung im Zeitalter der künstlichen Intelligenz Aufmerksamkeit zu schenken: Die Marktkräfte werden nicht natürlich sein Produkte herstellen, die den ärmsten Menschen helfen. Mit Produkten und Dienstleistungen der künstlichen Intelligenz wird die gegenteilige Möglichkeit größer sein.

Bereits am 16. März erwähnte Altman außerdem mit Besorgnis, dass „Software, die denken und lernen kann, immer mehr von der Arbeit erledigen wird, die die Menschen jetzt leisten. Es wird mehr Macht von der Arbeit auf das Kapital übertragen. Wenn die Öffentlichkeit ohne entsprechende politische Anpassungen, Den meisten Menschen wird es am Ende schlechter gehen als jetzt.“

Daher erwähnte Altman, dass ein neues System zur Besteuerung von Kapital statt Arbeit eingeführt werden muss, damit mehr Menschen an den Früchten dieser Revolution der künstlichen Intelligenz teilhaben können.

Derzeit wird es einige Zeit dauern, bis KI zur Infrastruktur des menschlichen Lebens wird, aber diese Zeit könnte knapp werden. Nach dem Aufkommen von GPT-4 sind die Fähigkeiten der groß angelegten KI im „Wettrüsten“ sprunghaft angestiegen. KI-Anwendungen werden möglicherweise bald in allen Lebensbereichen populär, aber es bleibt keine Zeit, der KI beim Testen der Sicherheit zu helfen und die menschlichen Bedürfnisse zu verstehen und Regulierungsstandards festlegen. Aus diesem Grund fordern die Experten hinter diesem offenen Brief ein Moratorium für groß angelegte KI-Forschung.

Vielleicht, wie Microsoft-Chefwissenschaftler Eric Horvitz sagte: Heute ist in der künstlichen Intelligenz am Horizont manches bekannt, manches unbekannt, und die Mitte ist die Tür, die uns bleibt, um die Welt zu beobachten.