Wichtigste Erkenntnisse:

  • Die wachsende Faszination für künstliche Intelligenz (KI) und die Begeisterung für ihre potenzielle Synergie mit Web3 sind schwer zu ignorieren. Dennoch offenbart die aktuelle Realität dieser aufkeimenden Integration eine Diskrepanz zwischen den Infrastrukturanforderungen der KI und den bestehenden Blockchain-Frameworks.

  • In dieser Reihe untersuchen wir die Beziehung zwischen KI und Web3 sowie die Herausforderungen, Chancen und vertikalen Anwendungen in Web3.

  • Dieser erste Teil der Serie befasst sich mit den Entwicklungen der Web3-Infrastruktur für KI, den aktuellen Herausforderungen hinsichtlich der Rechenleistungsanforderungen und den Potenzialbereichen.

Künstliche Intelligenz (KI) und Blockchain-Technologie sind zwei der innovativsten Technologien, die im letzten Jahrzehnt die Fantasie der Öffentlichkeit beflügelt haben. Die Entwicklung der KI im Web2 ist unbestreitbar, wie die steigende Zahl der Investitionen von VCs in diesem Jahr zeigt. Von der Finanzierungsrunde von Inflection AI in Höhe von 1,3 Milliarden US-Dollar im Juni 2023 mit Investitionen von Microsoft und Nvidia bis hin zum Konkurrenten von OpenAI, Anthropic, der im September 2023 1,25 Milliarden US-Dollar von Amazon einsammelte.

Der Anwendungsfall und die Schnittstelle von Web3 sind jedoch noch skeptisch. Spielt Web3 eine Rolle bei der Entwicklung von KI? Wenn ja, wie und warum brauchen wir Blockchain in der KI? Eine Erzählung, die wir sehen, ist, dass Web3 das Potenzial hat, produktive Beziehungen zu revolutionieren, während KI die Macht hat, die Produktivität selbst zu transformieren. Die Zusammenführung dieser Technologien erweist sich jedoch als komplex und offenbart Herausforderungen und Chancen für die Infrastrukturanforderungen.

KI-Infrastruktur und die GPU-Krise

Der größte Engpass, den wir derzeit in der KI sehen, ist die GPU-Krise. Large Language Models (LLMs) wie GPT-3.5 von OpenAI haben die erste Killer-App freigeschaltet, die wir heute sehen: ChatGPT. Es ist die schnellste Anwendung, die in 6 Wochen 100 Millionen MAU erreichte, verglichen mit YouTube und Facebook, die 4 Jahre brauchten. Dies hat die Schleusen für neue Anwendungen geöffnet, die LLM-Modelle nutzen. Einige Beispiele sind Midjourney, das auf StableLM von Stable Diffusion basiert, und PaLM2, das Googles Bard, APIs, MakerSuite und Workspaces antreibt.

Deep Learning ist ein langwieriger und rechenintensiver Prozess in großem Maßstab – je mehr Parameter LLMs haben, desto mehr GPU-Speicher wird für den Betrieb benötigt. Jeder Parameter im Modell wird im GPU-Speicher gespeichert und das Modell muss diese Parameter während der Inferenz in den Speicher laden. Wenn die Modellgröße den verfügbaren GPU-Speicher überschreitet, ist der Punkt erreicht, an dem die Modellgröße den verfügbaren GPU-Speicher übersteigt und das ML-Modell nicht mehr funktioniert. Führende Akteure wie OpenAI haben ebenfalls mit GPU-Engpässen zu kämpfen, was zu Schwierigkeiten bei der Bereitstellung ihrer multimodalen Modelle mit Modellen mit längerer Sequenzlänge (8k vs. 32k) führt. Aufgrund erheblicher Chipknappheit haben groß angelegte Anwendungen die Grenze dessen erreicht, was mit LLMs möglich ist, und KI-Startups konkurrieren um GPU-Leistung, um sich einen First-Mover-Vorteil zu sichern.

GPU-Lösungen: Zentralisierte und dezentrale Ansätze

Kurzfristig dürften zentralisierte Lösungen wie die im August 2023 veröffentlichte Version des tensorRT-LLM von Nvidia, die optimierte Inferenz und höhere Leistung bietet, sowie die erwartete Markteinführung des Nvidia H200 im zweiten Quartal 2024 die GPU-Einschränkungen lösen. Darüber hinaus konzentrieren sich traditionelle Mining-Unternehmen wie CoreWeave und Lambda Labs auf die Bereitstellung von GPU-fokussiertem Cloud-Computing auf der Grundlage von Mietgebühren zwischen 2 und 2,25 USD/Stunde für Nvidia H100s. Mining-Unternehmen nutzen ASIC (Application-Specific Integrated Circuit), da diese durch algorithmusspezifisches Design und spezielle Hardwarearchitekturen für höhere Hash-Leistung erhebliche Vorteile gegenüber Allzweckcomputern oder GPUs hinsichtlich der Mining-Effizienz bieten.

Auf der Web3-Seite ist die Idee eines Airbnb-ähnlichen Marktplatzes für GPUs ein beliebtes Konzept und es gibt einige Projekte, die dies versuchen. Anreize in der Blockchain sind ideal für das Bootstrapping von Netzwerken und es ist ein effektiver Mechanismus, um Teilnehmer oder Einheiten mit ungenutzten GPUs auf dezentrale Weise anzuziehen. Normalerweise ist der Zugriff auf GPUs mit dem Abschluss langfristiger Verträge mit Cloud-Anbietern verbunden und Anwendungen nutzen die GPUs möglicherweise nicht während der gesamten Vertragslaufzeit.

Ein anderer Ansatz namens Petals beinhaltet die Aufteilung eines LLM-Modells in mehrere Schichten, die auf verschiedenen Servern gehostet werden, ähnlich dem Konzept des Sharding. Es wurde im Rahmen der BigScience-Zusammenarbeit von Ingenieuren und Forschern von Hugging Face, der University of Washington und Yandex entwickelt, um nur einige zu nennen. Jeder Benutzer kann sich dezentral als Client mit dem Netzwerk verbinden und das Modell auf seine Daten anwenden.

Möglichkeiten für AI X Web3-Infrastrukturanwendungen

Zwar gibt es noch einige Nachteile, doch die Web3-Infrastruktur hat das Potenzial, die Herausforderungen der KI-Integration zu bewältigen und bietet Möglichkeiten für innovative Lösungen, wie wir weiter unten untersuchen werden.

Dezentrale KI-Computernetzwerke

Dezentrale Computernetzwerke verbinden Personen, die Computerressourcen benötigen, mit Systemen, die über ungenutzte Computerkapazitäten verfügen. Bei diesem Modell, bei dem Personen und Organisationen ihre ungenutzten Ressourcen ohne zusätzliche Kosten in das Netzwerk einbringen können, kann das Netzwerk im Gegensatz zu zentralisierten Anbietern kostengünstigere Preise anbieten.

Es gibt Möglichkeiten für dezentrales GPU-Rendering, das durch Blockchain-basierte Peer-to-Peer-Netzwerke unterstützt wird, um die Erstellung von KI-gestützten 3D-Inhalten im Web3-Gaming zu skalieren. Ein erheblicher Nachteil dezentraler Computernetzwerke liegt jedoch in der potenziellen Verlangsamung während des maschinellen Lerntrainings aufgrund des Kommunikationsaufwands zwischen verschiedenen Computergeräten.

Dezentrale KI-Daten

Trainingsdaten dienen als anfänglicher Datensatz, der verwendet wird, um Machine-Learning-Anwendungen beizubringen, Muster zu erkennen oder bestimmte Kriterien zu erfüllen. Andererseits werden Test- oder Validierungsdaten verwendet, um die Genauigkeit des Modells zu beurteilen. Für die Validierung ist ein separater Datensatz erforderlich, da das Modell bereits mit den Trainingsdaten vertraut ist.

Derzeit laufen Bestrebungen, Marktplätze für KI-Datenquellen und KI-Datenkennzeichnung zu schaffen, bei denen Blockchain als Anreiz für große Unternehmen und Institutionen zur Verbesserung ihrer Effizienz dient. In der derzeitigen frühen Entwicklungsphase stehen diese vertikalen Märkte jedoch vor Hindernissen wie der Notwendigkeit menschlicher Überprüfung und Bedenken im Zusammenhang mit Blockchain-gestützten Daten.

Beispielsweise gibt es SP-Rechnernetzwerke, die speziell für das Training von ML-Modellen entwickelt wurden. SP-Rechnernetzwerke sind auf bestimmte Anwendungsfälle zugeschnitten und verwenden in der Regel eine Architektur, die Rechenressourcen in einem einheitlichen Pool konsolidiert, der einem Supercomputer ähnelt. SP-Rechnernetzwerke ermitteln die Kosten über einen Gasmechanismus oder einen von der Community kontrollierten Parameter.

Dezentrale Eingabeaufforderungen

Während die vollständige Dezentralisierung von LLMs eine Herausforderung darstellt, werden in Projekten Möglichkeiten zur Dezentralisierung von Eingabeaufforderungen erkundet, indem Beiträge selbst erlernter Techniken gefördert werden. Dieser Ansatz motiviert Entwickler, Inhalte zu erstellen, und bietet wirtschaftliche Anreizstrukturen für mehr Teilnehmer in der Landschaft.

Zu den ersten Beispielen zählen KI-gestützte Chatbot-Plattformen, die tokenisierte Anreize für Inhaltsersteller und KI-Modellentwickler zum Trainieren von Chatbots bieten, die anschließend zu handelbaren NFTs werden können und Zugriff auf benutzerbefugte Daten zum Trainieren und Feinabstimmen des Modells gewähren. Auf der anderen Seite zielen dezentrale Prompt-Marktplätze darauf ab, Prompt-Entwickler zu motivieren, indem sie den Handel mit dem Eigentum an ihren Daten und Prompts auf dem Marktplatz ermöglichen.

Maschinelles Lernen ohne Wissen (ZKML)

2023 war wirklich das Jahr, in dem LLMs ihre Leistungsfähigkeit unter Beweis gestellt haben. Damit Blockchain-Projekte das volle Potenzial der KI ausschöpfen können, ist es unerlässlich, dass diese Modelle on-chain ausgeführt werden. Die Herausforderungen der Gasgrenzen und Rechenkosten stellen jedoch weiterhin Komplexitäten für die KI-Integration dar.

Was wäre, wenn LLMs außerhalb der Kette ausgeführt werden könnten und ihre Ausgabeergebnisse zur Steuerung von Entscheidungen und Aktivitäten in der Kette verwendet werden könnten, während gleichzeitig der Beweis erbracht würde, dass diese Entscheidungen vom ML-KI-Modell und nicht von zufälligen Ausgaben getroffen werden? Dies ist im Wesentlichen das, was ZKML ist. Mit der bevorstehenden Einführung von GPT-5 von OpenAI und Llama3 von Meta werden LLMs größer und verfügen über erweiterte Funktionen. Das Hauptziel von ZKML besteht darin, die Größe der Beweise zu minimieren, was es zu einer natürlichen Lösung für die Kombination von ZK-Beweisen mit KI-Technologie macht. Beispielsweise könnten ZK-Beweise angewendet werden, um Modelle in dezentraler ML-Inferenz oder -Training zu komprimieren, bei denen Benutzer zum Training beitragen, indem sie Daten an ein öffentliches Modell in einem On-Chain-Netzwerk übermitteln.

Wir befinden uns derzeit in den Anfangsstadien dessen, was rechnerisch praktikabel mit Zero-Knowledge-Beweisen on-chain verifiziert werden kann. Fortschritte bei Algorithmen erweitern jedoch den Spielraum dessen, was mit untersuchten Anwendungsfällen wie Modellintegrität erreicht werden kann, wobei ZK-Beweise verwendet werden könnten, um zu beweisen, dass derselbe ML-Algorithmus auf die gleiche Weise auf die Daten verschiedener Benutzer angewendet wird, um Verzerrungen zu vermeiden. In ähnlicher Weise könnten ZK-Beweise mit dem Aufkommen algorithmisch generierter Porträts und Deepfakes beim Nachweis der Personhaftigkeit angewendet werden, um eine einzigartige Person zu verifizieren, ohne die privaten Informationen einer Person zu gefährden.

Zusammenfassend lässt sich sagen, dass die Integration der Web3-Infrastruktur und der KI eine spannende Grenze technologischer Innovation darstellt und gleichzeitig den Beitrag durch tokenisierte Anreize steigert. Während es bei Web2 erhebliche Fortschritte im Bereich KI gegeben hat, ist die Schnittstelle zwischen Web3 und KI immer noch Gegenstand der Forschung.

Die Synergie zwischen Web3 und KI birgt in Zukunft großes Potenzial und verspricht, die Technologielandschaft und unseren Umgang mit der KI-Infrastruktur neu zu gestalten. Seien Sie gespannt auf den nächsten Teil der AI X Web3-Reihe, in dem wir uns mit KI-Anwendungsfällen im Web3-Gaming befassen.

Haftungsausschluss: Die Inhalte dieses Artikels dienen ausschließlich zu Informationszwecken und sollten nicht als Grundlage für Anlageentscheidungen dienen oder als Empfehlung zur Durchführung von Anlagetransaktionen oder als Vorschlag für eine Anlagestrategie in Bezug auf Finanzinstrumente oder deren Emittenten verstanden werden.