Von Alex Xu, Forschungspartner bei Mint Ventures
Einführung
Dieser Zyklus des Krypto-Bullenmarktes war in Bezug auf kommerzielle Innovationen der uninspirierendste. Im Gegensatz zum vorherigen Bullenmarkt, der phänomenale Trends wie DeFi, NFTs und GameFi erlebte, fehlen diesem Zyklus bedeutende Branchen-Hotspots. Folglich gab es ein schleppendes Wachstum bei der Nutzerbasis, den Brancheninvestitionen und der Entwickleraktivität.
Dieser Trend zeigt sich auch im Preis von Krypto-Assets. Über den gesamten Zyklus hinweg haben die meisten Altcoins, darunter ETH, im Vergleich zu BTC kontinuierlich an Wert verloren. Die Bewertung von Smart-Contract-Plattformen wird weitgehend vom Erfolg ihrer Anwendungen bestimmt. Wenn die Innovation in der Anwendungsentwicklung stagniert, wird es schwierig, die Bewertung öffentlicher Ketten zu steigern.
Künstliche Intelligenz (KI) als relativ neuer Sektor in der Krypto-Geschäftslandschaft könnte jedoch vom explosiven Wachstum und den anhaltenden Hotspots in der breiteren Geschäftswelt profitieren. Dies gibt KI-Projekten im Krypto-Bereich das Potenzial, erhebliche zusätzliche Aufmerksamkeit zu erregen.
Im im April von Mint Ventures veröffentlichten IO.NET-Bericht wurde die Notwendigkeit der Integration von KI in Krypto ausführlich analysiert. Die Vorteile kryptoökonomischer Lösungen – wie Determinismus, effiziente Ressourcenzuweisung und Vertrauenslosigkeit – könnten möglicherweise die drei größten Herausforderungen der KI angehen: Zufälligkeit, Ressourcenintensität und die Schwierigkeit, zwischen Mensch und Maschine zu unterscheiden.
Im KI-Sektor der Kryptoökonomie möchte ich in diesem Artikel mehrere kritische Probleme diskutieren und untersuchen, darunter:
Im Krypto-KI-Sektor gibt es neue oder potenziell explosive Narrative.
Die katalytischen Pfade und logischen Rahmenbedingungen dieser Erzählungen.
Krypto- und KI-Projekte.
Die mit der Entwicklung des Krypto- und KI-Sektors verbundenen Risiken und Unsicherheiten.
Bitte beachten Sie, dass dieser Artikel meine aktuelle Meinung widerspiegelt und sich weiterentwickeln kann. Die hier dargestellten Meinungen sind subjektiv und es können Fehler in Fakten, Daten und logischen Schlussfolgerungen enthalten sein. Dies ist keine Finanzberatung, aber Feedback und Diskussionen sind willkommen.
Die nächste Welle von Narrativen im Krypto-KI-Sektor
Bevor wir uns mit den neuen Trends im Krypto-KI-Sektor befassen, wollen wir zunächst die aktuellen Top-Narrative untersuchen. Basierend auf der Marktkapitalisierung sind folgende Unternehmen mit einer Bewertung von über 1 Milliarde US-Dollar dabei:
Rechenleistung
Render Network ($RNDR): mit einer Marktkapitalisierung von 3,85 Milliarden US-Dollar.
Akash: mit einer zirkulierenden Marktkapitalisierung von 1,2 Milliarden Dollar
IO.NET: wurde in seiner letzten Finanzierungsrunde mit 1 Milliarde US-Dollar bewertet.
Algorithmen-Netzwerke
Bittensor ($TAO): Verfügt über eine Marktkapitalisierung von 2,97 Milliarden US-Dollar.
KI-Agenten
Fetch.ai ($FET): erreicht eine Marktkapitalisierung vor der Fusion von 2,1 Milliarden Dollar
*Datenaktualisierungszeitpunkt: 24. Mai 2024.
Welcher KI-Sektor wird außer den oben genannten Bereichen das nächste Projekt mit einer Marktkapitalisierung von über 1 Milliarde US-Dollar hervorbringen?
Ich glaube, hierüber kann aus zwei Perspektiven spekuliert werden: aus der Perspektive der „industriellen Angebotsseite“ und aus der Perspektive des „GPT-Moments“.
Betrachtung der Chancen im Energie- und Datenbereich aus der Perspektive der industriellen Angebotsseite
Aus Sicht der industriellen Angebotsseite sind vier wesentliche Triebkräfte hinter der KI-Entwicklung:
Algorithmen: Hochwertige Algorithmen können Trainings- und Inferenzaufgaben effizienter ausführen.
Rechenleistung: Sowohl das Modelltraining als auch die Inferenz erfordern erhebliche Rechenleistung, die von GPU-Hardware bereitgestellt wird. Diese Anforderung stellt einen großen industriellen Engpass dar, wobei der derzeitige Chipmangel die Preise für Chips der mittleren bis oberen Preisklasse in die Höhe treibt.
Energie: KI-Rechenzentren verbrauchen viel Energie. Neben dem Strom, den die GPUs für ihre Rechenaufgaben benötigen, wird auch viel Energie für deren Kühlung benötigt. In großen Rechenzentren machen allein die Kühlsysteme etwa 40 % des gesamten Energieverbrauchs aus.
Daten: Um die Leistung großer Modelle zu verbessern, ist eine Erweiterung der Trainingsparameter erforderlich, was zu einem enormen Bedarf an qualitativ hochwertigen Daten führt.
Was die vier oben genannten industriellen Antriebskräfte betrifft, gibt es in den Bereichen Algorithmen und Rechenleistung bereits Kryptoprojekte mit einer Marktkapitalisierung von über einer Milliarde Dollar. In den Bereichen Energie und Daten gibt es jedoch noch keine Projekte mit ähnlichen Marktkapitalisierungen.
Tatsächlich könnte es schon bald zu Engpässen bei der Energie- und Datenversorgung kommen, die möglicherweise zu den nächsten Brennpunkten der Branche werden und zu einer Zunahme entsprechender Projekte im Krypto-Bereich führen.
Beginnen wir mit dem Energieteil.
Am 29. Februar 2024 bemerkte Elon Musk auf der Bosch ConnectedWorld 2024-Konferenz: „Ich habe den Chipmangel schon vor über einem Jahr vorhergesagt, und der nächste Mangel wird Strom sein. Ich denke, nächstes Jahr werden Sie sehen, dass sie einfach nicht genug Strom finden, um alle Chips zu betreiben.“
Laut konkreten Daten veröffentlicht das von Fei-Fei Li geleitete Institut für menschenzentrierte künstliche Intelligenz der Stanford University jährlich den „AI Index Report“. In ihrem Bericht über die KI-Branche für 2021 schätzte die Forschungsgruppe, dass der Energieverbrauch der KI in diesem Jahr nur 0,9 % des weltweiten Strombedarfs ausmachte, was nur eine begrenzte Belastung für Energie und Umwelt darstellte. Im Jahr 2023 fasste die Internationale Energieagentur (IEA) das Jahr 2022 jedoch mit der Feststellung zusammen, dass globale Rechenzentren etwa 460 Terawattstunden (TWh) Strom verbrauchten, was 2 % des weltweiten Strombedarfs entspricht. Sie prognostizierten außerdem, dass der weltweite Energieverbrauch von Rechenzentren bis 2026 mindestens 620 TWh betragen und möglicherweise bis zu 1050 TWh erreichen wird.
Tatsächlich bleiben die Schätzungen der Internationalen Energieagentur konservativ, da zahlreiche kurz vor dem Start stehende KI-Projekte im Jahr 2023 deutlich mehr Energie benötigen werden als erwartet.
Beispielsweise planen Microsoft und OpenAI das Stargate-Projekt. Diese ehrgeizige Initiative soll 2028 beginnen und etwa 2030 abgeschlossen sein. Ziel des Projekts ist der Bau eines Supercomputers mit Millionen dedizierter KI-Chips, der OpenAI eine beispiellose Rechenleistung bietet, um seine Forschung im Bereich der künstlichen Intelligenz, insbesondere großer Sprachmodelle, voranzutreiben. Die geschätzten Kosten dieses Projekts übersteigen 100 Milliarden US-Dollar, was dem 100-fachen der Kosten aktueller großer Rechenzentren entspricht.
Allein der Energieverbrauch des Stargate-Projekts dürfte 50 TWh erreichen.
Deshalb erklärte Sam Altman, Gründer von OpenAI, im Januar dieses Jahres auf dem Davos Forum: „Künstliche Intelligenz der Zukunft wird Durchbrüche im Energiebereich erfordern, da der Stromverbrauch der KI die Erwartungen bei weitem übertreffen wird.“
Nach Rechenleistung und Energie dürfte der nächste große Mangel in der schnell wachsenden KI-Branche Daten sein.
Tatsächlich ist der Mangel an qualitativ hochwertigen Daten, die für die KI erforderlich sind, bereits Realität.
Durch die fortlaufende Entwicklung von GPT haben wir das Muster der Leistungssteigerung großer Sprachmodelle weitgehend verstanden – durch die Erweiterung von Modellparametern und Trainingsdaten können die Leistungsfähigkeiten dieser Modelle exponentiell gesteigert werden. Dieser Prozess zeigt keine unmittelbaren technischen Engpässe.
Qualitativ hochwertige und öffentlich zugängliche Daten dürften in Zukunft jedoch immer seltener werden. Bei KI-Produkten könnten Angebots-Nachfrage-Konflikte auftreten, wie sie bei Chips und Energie bereits zu beobachten sind.
Erstens kommt es zu einer Zunahme von Streitigkeiten über das Eigentum an Daten.
Am 27. Dezember 2023 reichte die New York Times beim US-Bezirksgericht Klage gegen OpenAI und Microsoft ein und behauptete, sie hätten Millionen ihrer Artikel ohne Erlaubnis verwendet, um das GPT-Modell zu trainieren. Die New York Times fordert Milliarden von Dollar an gesetzlichen und tatsächlichen Schadensersatz für das „illegale Kopieren und Verwenden von einzigartig wertvollen Werken“ und verlangt die Vernichtung aller Modelle und Trainingsdaten, die ihre urheberrechtlich geschützten Materialien enthalten.
Ende März 2024 veröffentlichte die New York Times eine neue Erklärung, in der sie ihre Vorwürfe über OpenAI hinaus auf Google und Meta ausweitete. In der Erklärung wurde behauptet, OpenAI habe ein Spracherkennungstool namens Whisper verwendet, um eine große Anzahl von YouTube-Videos in Text zu transkribieren, der dann zum Trainieren von GPT-4 verwendet wurde. Die New York Times argumentierte, dass es für große Unternehmen zur gängigen Praxis geworden sei, beim Trainieren ihrer KI-Modelle hinterhältige Taktiken anzuwenden. Sie wies auch darauf hin, dass Google ähnliche Praktiken anwendet und YouTube-Videoinhalte für das Training seines Modells in Text umwandelt und damit im Wesentlichen die Rechte der Ersteller von Videoinhalten verletzt.
Der Rechtsstreit zwischen der New York Times und OpenAI, der als erster „KI-Urheberrechtsfall“ bezeichnet wird, wird aufgrund seiner Komplexität und der tiefgreifenden Auswirkungen, die er auf die Zukunft von Inhalten und der KI-Branche haben könnte, wahrscheinlich nicht schnell beigelegt werden. Ein möglicher Ausgang ist eine außergerichtliche Einigung, bei der das finanzkräftige Microsoft und OpenAI eine beträchtliche Entschädigung zahlen. Zukünftige Streitigkeiten über Datenurheberrechte werden jedoch unweigerlich die Gesamtkosten für qualitativ hochwertige Daten in die Höhe treiben.
Darüber hinaus erwägt Google, die größte Suchmaschine der Welt, Berichten zufolge, für seine Suchdienste Gebühren zu erheben – allerdings nicht für die breite Öffentlichkeit, sondern für KI-Unternehmen.

Quelle: Reuters
Die Suchmaschinenserver von Google speichern riesige Mengen an Inhalten – im Wesentlichen alle Inhalte, die seit dem 21. Jahrhundert auf Webseiten erschienen sind. KI-gesteuerte Suchprodukte wie Perplexity und Kimi und Meta Sota, die von chinesischen Unternehmen entwickelt wurden, verarbeiten die aus diesen Suchvorgängen gewonnenen Daten mithilfe von KI und stellen sie dann den Benutzern zur Verfügung. Die Einführung von Gebühren für KI-Unternehmen, um auf Suchmaschinendaten zuzugreifen, wird die Kosten für die Datenbeschaffung zweifellos erhöhen.
Darüber hinaus konzentrieren sich die KI-Giganten nicht nur auf öffentliche Daten; sie haben auch nicht-öffentliche interne Daten im Visier.

Photobucket, eine alteingesessene Website zum Hosten von Bildern und Videos, hatte Anfang der 2000er Jahre einst 70 Millionen Nutzer und fast die Hälfte des US-amerikanischen Online-Fotomarktanteils. Mit dem Aufstieg der sozialen Medien ist die Nutzerbasis von Photobucket jedoch erheblich geschrumpft. Jetzt sind es nur noch 2 Millionen aktive Nutzer, die jeweils eine stolze Jahresgebühr von 399 Dollar zahlen. Gemäß der Benutzervereinbarung und Datenschutzrichtlinie werden Konten, die länger als ein Jahr inaktiv sind, wiederhergestellt, wodurch Photobucket das Recht erhält, die hochgeladenen Bilder und Videos zu verwenden. Der CEO von Photobucket, Ted Leonard, gab bekannt, dass die 1,3 Milliarden Fotos und Videos der Website äußerst wertvoll für das Training generativer KI-Modelle sind. Derzeit verhandelt er mit mehreren Technologieunternehmen über den Verkauf dieser Daten. Die Preise reichen von 5 Cent bis 1 Dollar pro Foto und über 1 Dollar pro Video. Leonard schätzt, dass die Daten von Photobucket über 1 Milliarde Dollar wert sein könnten.
Das auf KI-Entwicklungstrends spezialisierte Forschungsteam EPOCH veröffentlichte einen Bericht mit dem Titel „Werden uns die Daten ausgehen? Eine Analyse der Grenzen der Skalierung von Datensätzen beim maschinellen Lernen“. Dieser Bericht, der auf der Datennutzung beim maschinellen Lernen im Jahr 2022 und der Generierung neuer Daten basiert und gleichzeitig das Wachstum der Rechenressourcen berücksichtigt, kam zu dem Schluss, dass qualitativ hochwertige Textdaten zwischen Februar 2023 und 2026 erschöpft sein könnten und Bilddaten zwischen 2030 und 2060 ausgehen könnten. Ohne erhebliche Verbesserungen der Datennutzungseffizienz oder das Aufkommen neuer Datenquellen könnte sich der aktuelle Trend großer maschineller Lernmodelle, die auf riesigen Datensätzen basieren, verlangsamen.
Angesichts des aktuellen Trends, dass KI-Giganten Daten zu hohen Preisen kaufen, scheint es, als seien die kostenlosen, qualitativ hochwertigen Textdaten tatsächlich versiegt, was die Vorhersage von EPOCH von vor zwei Jahren bestätigt.
Gleichzeitig entstehen Lösungen für den „KI-Datenmangel“, insbesondere KI-Daten als Service.
Defined.ai ist ein solches Unternehmen, das maßgeschneiderte, qualitativ hochwertige Echtdaten für KI-Unternehmen anbietet.

Beispiele für Datentypen auf Defined.ai
Das Geschäftsmodell von Defined.ai funktioniert folgendermaßen: KI-Unternehmen geben ihre Datenanforderungen an, beispielsweise Bilder mit einer bestimmten Auflösungsqualität, frei von Unschärfe und Überbelichtung und mit authentischem Inhalt. Unternehmen können auch bestimmte Themen basierend auf ihren Trainingsaufgaben anfordern, beispielsweise Nachtaufnahmen von Verkehrskegeln, Parkplätzen und Wegweisern, um die Nachtszenenerkennung der KI zu verbessern. Die Öffentlichkeit kann diese Aufgaben annehmen und ihre Fotos hochladen, die dann von Defined.ai überprüft werden. Für genehmigte Bilder wird bezahlt, normalerweise 1-2 USD pro qualitativ hochwertigem Bild, 5-7 USD pro kurzem Videoclip und 100-300 USD für ein qualitativ hochwertiges Video über 10 Minuten. Text wird mit 1 USD pro tausend Wörter vergütet, wobei die Aufgabenerlediger etwa 20 % der Gebühren verdienen. Dieser Ansatz zur Datenbereitstellung könnte zu einem neuen Crowdsourcing-Geschäft werden, das der „Datenkennzeichnung“ ähnelt.
Eine globale Aufgabenverteilung, wirtschaftliche Anreize, die Preisgestaltung und Verbreitung von Datenvermögen sowie der Schutz der Privatsphäre, an der jeder teilhaben kann, klingen sehr nach einem Geschäftsmodell, das zum Web3-Paradigma passt.
Analyse der Krypto- und KI-Projekte aus der Perspektive der industriellen Versorgung
Die durch den Chipmangel erzeugte Aufmerksamkeit hat sich auf die Kryptoindustrie ausgeweitet und die dezentrale Rechenleistung zum bislang beliebtesten und am höchsten bewerteten KI-Sektor gemacht.
Wenn sich die Konflikte zwischen Angebot und Nachfrage in der KI-Branche um Energie und Daten in den nächsten 1–2 Jahren verschärfen, welche narrativen Projekte gibt es derzeit in der Kryptobranche?
Beginnen wir mit Energiekonzeptprojekten.
Derzeit sind Energieprojekte, die an den großen zentralisierten Börsen (CEX) notiert sind, sehr selten; Power Ledger und sein nativer Token $POWR sind das einzige Beispiel.
Power Ledger wurde 2017 als umfassende Energieplattform auf Blockchain-Basis mit dem Ziel der Dezentralisierung des Energiehandels gegründet. Sie fördert den direkten Stromhandel zwischen Einzelpersonen und Gemeinden, unterstützt die weitverbreitete Nutzung erneuerbarer Energien und sorgt durch Smart Contracts für Transparenz und Effizienz bei Transaktionen. Ursprünglich operierte Power Ledger auf einer von Ethereum adaptierten Konsortialkette. In der zweiten Hälfte des Jahres 2023 aktualisierte Power Ledger sein Whitepaper und startete seine eigene umfassende öffentliche Kette, die auf dem technischen Rahmen von Solana basiert, um hochfrequente Mikrotransaktionen auf dem verteilten Energiemarkt abzuwickeln. Zu den Hauptgeschäftsbereichen von Power Ledger gehören derzeit:
Energiehandel: Ermöglicht Benutzern, Strom, insbesondere aus erneuerbaren Quellen, direkt im Peer-to-Peer-Verfahren zu kaufen und zu verkaufen.
Handel mit Umweltprodukten: Erleichterung des Handels mit Emissionsgutschriften und Zertifikaten für erneuerbare Energien sowie der Finanzierung auf der Grundlage von Umweltprodukten.
Öffentliche Kettenoperationen: Anlocken von Anwendungsentwicklern zum Aufbau auf der Power Ledger-Blockchain, wobei die Transaktionsgebühren in $POWR-Tokens bezahlt werden.
Die derzeit im Umlauf befindliche Marktkapitalisierung von Power Ledger beträgt 170 Millionen US-Dollar, mit einer vollständig verwässerten Marktkapitalisierung von 320 Millionen US-Dollar.
Im Vergleich zu Kryptoprojekten mit Energiekonzept gibt es im Datensektor eine größere Vielfalt an Zielen.
Nachfolgend sind die Datensektorprojekte aufgeführt, die ich derzeit verfolge und die an mindestens einer großen CEX wie Binance, OKX oder Coinbase notiert sind, sortiert nach der vollständig verwässerten Bewertung (FDV) von niedrig nach hoch:
1. Streamr ($DATA)
Das Wertversprechen von Streamr besteht darin, ein dezentrales Echtzeit-Datennetzwerk aufzubauen, in dem Benutzer frei Daten handeln und teilen können und dabei die volle Kontrolle über ihre eigenen Informationen behalten. Über seinen Datenmarktplatz möchte Streamr Datenproduzenten ermöglichen, Datenströme direkt an interessierte Verbraucher zu verkaufen, wodurch die Notwendigkeit von Zwischenhändlern entfällt, was die Kosten senkt und die Effizienz steigert.

Quelle: https://streamr.network/hub/projects
In realen Anwendungen hat Streamr mit einem anderen Web3-Fahrzeughardwareprojekt, DIMO, zusammengearbeitet, um Daten wie Temperatur und Luftdruck durch in Fahrzeugen installierte DIMO-Hardwaresensoren zu sammeln. Diese Daten werden dann als Wetterdatenströme an Organisationen übermittelt, die sie benötigen.
Im Gegensatz zu anderen Datenprojekten konzentriert sich Streamr mehr auf IoT- und Hardware-Sensordaten. Neben den DIMO-Fahrzeugdaten umfassen andere bemerkenswerte Projekte Echtzeit-Verkehrsdatenströme in Helsinki. Infolgedessen erlebte Streamrs Token $DATA einen deutlichen Anstieg und verdoppelte seinen Wert während des Höhepunkts des Depin-Konzepts im vergangenen Dezember an einem einzigen Tag.
Derzeit beträgt die zirkulierende Marktkapitalisierung von Streamr 44 Millionen US-Dollar, mit einer vollständig verwässerten Marktkapitalisierung von 58 Millionen US-Dollar.
2. Kovalent ($CQT)
Im Gegensatz zu anderen Datenprojekten konzentriert sich Covalent auf die Bereitstellung von Blockchain-Daten. Das Covalent-Netzwerk liest Daten von Blockchain-Knoten über RPC, verarbeitet und organisiert sie und erstellt eine effiziente Abfragedatenbank. Auf diese Weise können Covalent-Benutzer schnell die benötigten Informationen abrufen, ohne komplexe Abfragen direkt auf Blockchain-Knoten durchführen zu müssen. Solche Dienste werden als „Blockchain-Datenindizierung“ bezeichnet.
Covalent bedient in erster Linie Unternehmenskunden, darunter verschiedene DeFi-Protokolle und viele zentralisierte Kryptounternehmen wie Consensys (die Muttergesellschaft von MetaMask), CoinGecko (eine bekannte Website zur Verfolgung von Krypto-Assets), Rotki (ein Steuertool) und Rainbow (eine Krypto-Wallet). Darüber hinaus zählen auch traditionelle Giganten der Finanzbranche wie Fidelity und Ernst & Young zu den Kunden von Covalent. Laut offiziellen Angaben von Covalent hat der Umsatz des Projekts aus Datendiensten bereits den des führenden Projekts im selben Bereich, The Graph, übertroffen.
Die Web3-Branche mit ihren integrierten, transparenten, authentischen und in Echtzeit verfügbaren On-Chain-Daten ist bereit, eine hochwertige Datenquelle für spezialisierte KI-Szenarien und spezifische „kleine KI-Modelle“ zu werden. Covalent hat als Datenanbieter bereits begonnen, Daten für verschiedene KI-Szenarien anzubieten und hat überprüfbare strukturierte Daten eingeführt, die auf KI-Anwendungen zugeschnitten sind.

Quelle: Lösungen zur kovalenten
So stellt Covalent beispielsweise Daten für die On-Chain-Smart-Trading-Plattform SmartWhales bereit, die KI nutzt, um profitable Handelsmuster und -adressen zu identifizieren. Entendre Finance nutzt die strukturierten Daten von Covalent, die durch KI-Technologie verarbeitet werden, um Echtzeiteinblicke, Anomalieerkennung und prädiktive Analysen zu ermöglichen.
Derzeit liegen die Hauptanwendungsszenarien für die On-Chain-Datendienste von Covalent vor allem im Finanzbereich. Da sich Web3-Produkte und Datentypen jedoch weiter diversifizieren, ist zu erwarten, dass sich die Anwendungsfälle für On-Chain-Daten weiter ausweiten werden.
Die zirkulierende Marktkapitalisierung von Covalent beträgt 150 Millionen US-Dollar, mit einer vollständig verwässerten Marktkapitalisierung von 235 Millionen US-Dollar, was einen deutlichen Bewertungsvorteil gegenüber The Graph bietet, einem führenden Projekt im Sektor der Blockchain-Datenindizierung.
3. Hivemapper ($Honey)
Von allen Datentypen erzielen Videodaten normalerweise den höchsten Preis. Hivemapper kann KI-Unternehmen sowohl Video- als auch Karteninformationen liefern. Hivemapper ist ein dezentrales globales Kartierungsprojekt, das darauf abzielt, durch Blockchain-Technologie und Community-Beiträge ein detailliertes, dynamisches und zugängliches Kartensystem zu erstellen. Die Teilnehmer erfassen Kartendaten mithilfe von Dashcams und fügen sie dem Open-Source-Datennetzwerk Hivemapper hinzu, wobei sie als Belohnung für ihre Beiträge $HONEY-Token erhalten. Um Netzwerkeffekte zu verbessern und Interaktionskosten zu senken, basiert Hivemapper auf Solana.
Hivemapper wurde 2015 mit der ursprünglichen Vision gegründet, Karten mithilfe von Drohnen zu erstellen. Dieser Ansatz erwies sich jedoch als schwierig zu skalieren, sodass das Unternehmen dazu überging, zur Erfassung geografischer Daten Dashcams und Smartphones zu verwenden, um so die Kosten für die Erstellung globaler Karten zu senken.
Im Vergleich zu Street View- und Kartensoftware wie Google Maps nutzt Hivemapper ein Anreiznetzwerk und ein Crowdsourcing-Modell, um die Kartenabdeckung effizienter zu erweitern, die Aktualität realer Kartendaten zu wahren und die Videoqualität zu verbessern.
Vor dem sprunghaft ansteigenden Bedarf der KI an Daten zählten zu den Hauptkunden von Hivemapper die Abteilungen für autonomes Fahren von Automobilunternehmen, Anbieter von Navigationsdiensten, Regierungen, Versicherungsunternehmen und Immobilienfirmen. Heute kann Hivemapper KI und großen Modellen über APIs umfangreiche Straßen- und Umweltdaten bereitstellen. Durch die kontinuierliche Aktualisierung von Bild- und Straßenmerkmalsdatenströmen sind KI- und ML-Modelle besser in der Lage, diese Daten in erweiterte Funktionen umzusetzen, sodass sie Aufgaben im Zusammenhang mit geografischer Ortung und visueller Beurteilung effektiver ausführen können.

Quelle: Hivemapper-Blog
Derzeit beträgt die im Umlauf befindliche Marktkapitalisierung von $Honey, dem nativen Token von Hivemapper, 120 Millionen US-Dollar, mit einer vollständig verwässerten Marktkapitalisierung von 496 Millionen US-Dollar.
Neben den oben genannten Projekten gibt es im Datensektor noch weitere bemerkenswerte Projekte:
1. The Graph ($GRT): Mit einer zirkulierenden Marktkapitalisierung von 3,2 Milliarden US-Dollar und einer vollständig verwässerten Bewertung (FDV) von 3,7 Milliarden US-Dollar bietet The Graph Blockchain-Datenindizierungsdienste ähnlich wie Covalent.
2. Ocean Protocol ($OCEAN): Ocean Protocol hat eine zirkulierende Marktkapitalisierung von 670 Millionen US-Dollar und einen FDV von 1,45 Milliarden US-Dollar. Das Projekt zielt darauf ab, den Austausch und die Monetarisierung von Daten und datenbezogenen Diensten durch sein Open-Source-Protokoll zu erleichtern. Ocean Protocol verbindet Datenkonsumenten mit Datenanbietern und gewährleistet so Vertrauen, Transparenz und Nachvollziehbarkeit beim Datenaustausch. Das Projekt soll mit Fetch.ai und SingularityNET fusionieren, wobei der Token in $ASI umgewandelt wird.
Die Rückkehr des GPT-Moments und der Aufkommen der allgemeinen künstlichen Intelligenz
Meiner Meinung nach begann der „KI-Sektor“ in der Kryptoindustrie wirklich im Jahr 2023, dem richtigen Jahr, in dem ChatGPT die Welt schockierte. Der rasante Anstieg der Krypto-KI-Projekte wurde größtenteils durch die „Welle der Begeisterung“ nach dem explosiven Wachstum der KI-Industrie vorangetrieben.
Trotz der kontinuierlichen Leistungsverbesserungen mit Modellen wie GPT-4 und GPT-Turbo und der beeindruckenden Videoerstellungsfähigkeiten von Sora sowie der rasanten Entwicklung großer Sprachmodelle über OpenAI hinaus lässt sich nicht leugnen, dass die technologischen Fortschritte in der KI bei der Öffentlichkeit einen abnehmenden kognitiven Schock auslösen. Die Menschen übernehmen nach und nach KI-Tools, und großflächige Arbeitsplatzersetzungen sind noch nicht erfolgt.
Werden wir in Zukunft einen weiteren „GPT-Moment“ erleben, einen Entwicklungssprung, der die Öffentlichkeit schockiert und ihr klar macht, dass sich ihr Leben und ihre Arbeit grundlegend verändern werden?
Dieser Moment könnte die Ankunft der allgemeinen künstlichen Intelligenz (AGI) sein.
AGI oder künstliche allgemeine Intelligenz bezieht sich auf Maschinen, die über menschenähnliche allgemeine kognitive Fähigkeiten verfügen und eine große Bandbreite komplexer Probleme lösen können, anstatt auf bestimmte Aufgaben beschränkt zu sein. AGI-Systeme verfügen über ein hohes Maß an abstraktem Denken, umfangreiches Hintergrundwissen, umfassendes gesundes Denken, kausales Verständnis und fachübergreifende Transferlernfähigkeiten. AGI erreicht in verschiedenen Bereichen die Leistung der besten Menschen und übertrifft, was die Gesamtfähigkeit angeht, selbst die herausragendsten menschlichen Gruppen bei weitem.
Ob in Science-Fiction-Romanen, Spielen, Filmen oder durch die Erwartungen der Öffentlichkeit nach dem rasanten Aufstieg von GPT – die Gesellschaft hat schon lange auf die Entstehung von AGI gewartet, die das menschliche kognitive Niveau übertrifft. Mit anderen Worten: GPT selbst ist ein Vorläufer von AGI, ein Vorbote allgemeiner künstlicher Intelligenz.
Der Grund, warum GPT solch tiefgreifende Auswirkungen auf die Industrie und einen so psychologischen Schock hat, liegt darin, dass sein Einsatz und seine Leistung die Erwartungen der Öffentlichkeit weit übertroffen haben. Die Menschen hatten nicht damit gerechnet, dass ein KI-System, das den Turing-Test besteht, so schnell und mit solch beeindruckenden Fähigkeiten auf den Markt kommen würde.
Tatsächlich könnte künstliche Intelligenz (AGI) in den nächsten ein bis zwei Jahren erneut einen „GPT-Moment“ auslösen: Während sich die Menschen daran gewöhnen, GPT als Assistent zu verwenden, könnten sie bald feststellen, dass KI mehr ist als nur ein Assistent. Sie könnte eigenständig hochkreative und anspruchsvolle Aufgaben bewältigen, darunter auch Probleme lösen, die menschliche Spitzenwissenschaftler jahrzehntelang vor Rätsel gestellt haben.
Am 8. April dieses Jahres wurde Elon Musk von Nicolai Tangen, dem Chief Investment Officer des norwegischen Staatsfonds, interviewt und diskutierte den Zeitplan für die Entstehung von AGI.
Musk erklärte: „Wenn wir AGI als intelligenter als die intelligentesten Menschen definieren, denke ich, dass es sehr wahrscheinlich ist, dass es bis 2025 so weit ist.“
Laut Elon Musks Vorhersage werde es höchstens noch anderthalb Jahre dauern, bis AGI Realität werde. Allerdings fügte er eine Bedingung hinzu: „Vorausgesetzt, Elektrizität und Hardware können mithalten.“
Die Vorteile der Einführung von AGI liegen auf der Hand.
Das bedeutet, dass die menschliche Produktivität einen großen Sprung nach vorne machen wird und viele wissenschaftliche Probleme gelöst werden, die uns seit Jahrzehnten beschäftigen. Wenn wir „die intelligentesten Menschen“ als Nobelpreisträger definieren, bedeutet das, dass wir – vorausgesetzt wir verfügen über genügend Energie, Rechenleistung und Daten – zahllose unermüdliche „Nobelpreisträger“ haben könnten, die rund um die Uhr an der Lösung der schwierigsten wissenschaftlichen Probleme arbeiten.
Nobelpreisträger sind jedoch nicht so selten wie einer unter Hunderten von Millionen. Ihre Fähigkeiten und ihr Intellekt sind oft auf dem Niveau von Spitzenuniversitätsprofessoren. Durch Zufall und Glück wählten sie jedoch die richtige Richtung, blieben hartnäckig und erzielten Ergebnisse. Viele ihrer ebenso fähigen Kollegen hätten in einem Paralleluniversum der wissenschaftlichen Forschung möglicherweise Nobelpreise gewonnen. Leider gibt es immer noch nicht genügend Spitzenuniversitätsprofessoren, die an wissenschaftlichen Durchbrüchen beteiligt sind, sodass die Geschwindigkeit der „Erforschung aller richtigen Richtungen in der wissenschaftlichen Forschung“ sehr langsam bleibt.
Mit AGI und ausreichend Energie und Rechenleistung könnten wir eine unbegrenzte Anzahl von AGIs auf „Nobelpreisniveau“ haben, die jede mögliche Richtung für wissenschaftliche Durchbrüche eingehend erforschen. Die Geschwindigkeit des technologischen Fortschritts würde exponentiell zunehmen. Diese Beschleunigung würde in den nächsten 10 bis 20 Jahren zu einer Verhundertfachung der Ressourcen führen, die wir derzeit als teuer und knapp betrachten, wie etwa Nahrungsmittelproduktion, neue Materialien, Medikamente und hochwertige Bildung. Die Kosten für den Erwerb dieser Ressourcen würden dramatisch sinken. Wir könnten eine größere Bevölkerung mit weniger Ressourcen ernähren, und der Wohlstand pro Kopf würde schnell steigen.

Globaler BIP-Trend laut Weltbank
Das mag etwas sensationell klingen, also betrachten wir zwei Beispiele. Diese Beispiele wurden auch in meinem vorherigen Forschungsbericht zu IO.NET verwendet:
Im Jahr 2018 sagte die Chemie-Nobelpreisträgerin Frances Arnold bei ihrer Preisverleihung: „Heute können wir praktisch jede DNA-Sequenz lesen, schreiben und bearbeiten, aber wir können sie nicht zusammensetzen.“ Fünf Jahre später, im Jahr 2023, veröffentlichte ein Forscherteam der Stanford University und Salesforce Research, einem KI-orientierten Startup, eine Veröffentlichung in „Nature Biotechnology“. Mithilfe eines großen, aus GPT-3 verfeinerten Sprachmodells erstellten sie einen völlig neuen Katalog mit 1 Million Proteinen. Darunter entdeckten sie zwei Proteine mit unterschiedlichen Strukturen, die beide mit antibakterieller Funktion ausgestattet sind und möglicherweise den Weg für neue bakterielle Resistenzstrategien jenseits traditioneller Antibiotika ebnen. Dies bedeutet einen enormen Sprung bei der Überwindung der Hürden der Proteinherstellung mit Hilfe der KI.
Zuvor hatte der künstliche Intelligenz-Algorithmus AlphaFold innerhalb von 18 Monaten die Strukturen von fast allen 2,14 Milliarden Proteinarten auf der Erde vorhergesagt – ein Meilenstein, der die Leistungen der Strukturbiologen im Laufe der Geschichte um ein Vielfaches übertrifft.
Der Wandel ist im Gange und die Einführung künstlicher Intelligenz (AGI) wird diesen Prozess noch weiter beschleunigen.
Allerdings bringt die Einführung künstlicher Intelligenz auch enorme Herausforderungen mit sich.
AGI wird nicht nur eine große Zahl von Wissensarbeitern ersetzen, sondern auch diejenigen in physischen Dienstleistungsbranchen, die derzeit als „weniger von KI betroffen“ gelten. Mit der Weiterentwicklung der Robotertechnologie und der Senkung der Produktionskosten durch neue Materialien wird der Anteil der durch Maschinen und Software ersetzten Arbeitsplätze schnell zunehmen.
Wenn dies geschieht, werden zwei Probleme, die einst weit entfernt schienen, schnell an die Oberfläche kommen:
Die Beschäftigungs- und Einkommensprobleme einer großen Arbeitslosenbevölkerung
Wie man in einer Welt, in der KI allgegenwärtig ist, zwischen KI und Menschen unterscheidet
Worldcoin und Worldchain versuchen, Lösungen bereitzustellen, indem sie ein System des universellen Grundeinkommens (UBI) implementieren, um der Öffentlichkeit ein Grundeinkommen zu sichern, und indem sie irisbasierte Biometrie verwenden, um zwischen Menschen und KI zu unterscheiden.
Tatsächlich ist das BGE nicht nur ein theoretisches Konzept, sondern wurde bereits in der Praxis erprobt. Länder wie Finnland und England haben BGE-Experimente durchgeführt, während politische Parteien in Kanada, Spanien und Indien ähnliche Initiativen aktiv vorschlagen und fördern.
Der Vorteil der Verwendung eines biometrischen Identifikations- und Blockchain-Modells für die UBI-Verteilung liegt in seiner globalen Reichweite, die eine breitere Abdeckung der Bevölkerung ermöglicht. Darüber hinaus kann das durch die Einkommensverteilung erweiterte Benutzernetzwerk andere Geschäftsmodelle unterstützen, wie etwa Finanzdienstleistungen (DeFi), soziale Netzwerke und Task-Crowdsourcing, wodurch Synergien innerhalb des kommerziellen Ökosystems des Netzwerks entstehen.
Eines der bemerkenswerten Projekte, das sich mit den Auswirkungen der Einführung von AGI befasst, ist Worldcoin ($WLD) mit einer zirkulierenden Marktkapitalisierung von 1,03 Milliarden US-Dollar und einer vollständig verwässerten Marktkapitalisierung von 47,2 Milliarden US-Dollar.
Risiken und Unsicherheiten bei Krypto-KI-Erzählungen
Im Gegensatz zu vielen zuvor von Mint Ventures veröffentlichten Forschungsberichten enthält dieser Artikel ein erhebliches Maß an Subjektivität in seinen narrativen Prognosen und Vorhersagen. Die Leser sollten den Inhalt dieses Artikels eher als spekulative Diskussion denn als Prognose der Zukunft betrachten. Die oben genannten narrativen Prognosen unterliegen zahlreichen Unsicherheiten, die zu falschen Annahmen führen könnten. Zu diesen Risiken oder Einflussfaktoren gehören unter anderem:
Energierisiko: Rascher Rückgang des Energieverbrauchs durch GPU-Upgrades
Trotz des steigenden Energiebedarfs für KI rüsten Chiphersteller wie NVIDIA ihre Hardware kontinuierlich auf, um höhere Rechenleistung bei geringerem Energieverbrauch zu liefern. So brachte NVIDIA im März 2024 die KI-Rechenkarte GB200 der neuen Generation auf den Markt, die zwei B200-GPUs und eine Grace-CPU integriert. Ihre Trainingsleistung ist viermal so hoch wie die der bisherigen Mainstream-KI-GPU H100 und ihre Inferenzleistung siebenmal so hoch wie die der H100, während sie nur ein Viertel des Energieverbrauchs der H100 benötigt. Dennoch wächst der Bedarf an KI-gesteuerter Leistung weiter. Mit dem Rückgang des Energieverbrauchs pro Einheit und der weiteren Ausweitung der KI-Anwendungsszenarien und -Nachfrage könnte der Gesamtenergieverbrauch tatsächlich steigen.
Datenrisiko: Projekt Q* und „selbstgenerierte Daten“
Gerüchteweise soll es innerhalb von OpenAI ein Projekt namens „Q*“ geben, das in internen Mitteilungen an die Mitarbeiter erwähnt wird. Laut Reuters, das sich auf Insider bei OpenAI beruft, könnte dies einen bedeutenden Durchbruch auf OpenAIs Weg zur Erlangung von Superintelligenz oder künstlicher allgemeiner Intelligenz (AGI) darstellen. Gerüchten zufolge soll Q* bisher unbekannte mathematische Probleme durch Abstraktion lösen und seine eigenen Daten für das Training großer Modelle generieren, ohne dass Daten aus der realen Welt als Eingabe erforderlich sind. Wenn dieses Gerücht stimmt, wäre der Engpass beim Training großer KI-Modelle, der durch den Mangel an qualitativ hochwertigen Daten behindert wird, beseitigt.
Ankunft der AGI: Die Bedenken von OpenAI
Ob AGI tatsächlich bis 2025 ankommen wird, wie Musk vorhersagt, bleibt ungewiss, aber es ist nur eine Frage der Zeit. Worldcoin, ein direkter Nutznießer der AGI-Geschichte, hat seine größte Sorge mit OpenAI, da es allgemein als „Schatten-Token von OpenAI“ angesehen wird.
In den frühen Morgenstunden des 14. Mai präsentierte OpenAI bei seinem Spring New Product Launch die neueste Leistung von GPT-4o und 19 weiteren Versionen großer Sprachmodelle in umfassenden Aufgabenergebnissen. Laut der Tabelle erreichte GPT-4o 1310 Punkte, was optisch deutlich höher erscheint als die anderen. In Bezug auf die Gesamtpunktzahl ist es jedoch nur 4,5 % höher als der zweitplatzierte GPT-4 Turbo, 4,9 % höher als Googles Gemini 1.5 Pro auf dem vierten Platz und 5,1 % höher als Anthropics Claude3 Opus auf dem fünften Platz.

Seit GPT-3.5 die Welt zum ersten Mal in Erstaunen versetzt hat, ist erst etwas mehr als ein Jahr vergangen, und die Konkurrenten von OpenAI haben die Lücke bereits deutlich geschlossen (obwohl GPT-5 noch nicht veröffentlicht wurde, was in diesem Jahr erwartet wird). Die Frage, ob OpenAI seine branchenführende Position in Zukunft beibehalten kann, wird zunehmend ungewiss. Wenn der führende Vorsprung und die Dominanz von OpenAI verwässert oder sogar übertroffen werden, wird auch der narrative Wert von Worldcoin als Schatten-Token von OpenAI abnehmen.
Neben Worldcoins Iris-Authentifizierungslösung drängen immer mehr Wettbewerber auf den Markt. So hat beispielsweise das Handflächenscan-ID-Projekt Humanity Protocol kürzlich eine neue Finanzierungsrunde abgeschlossen und 30 Millionen US-Dollar bei einer Bewertung von 1 Milliarde US-Dollar eingesammelt. LayerZero Labs hat außerdem angekündigt, dass es auf Humanity tätig sein und sich dessen Validator-Knotennetzwerk anschließen wird, wobei ZK-Beweise zur Authentifizierung von Anmeldeinformationen verwendet werden.
Abschluss
Abschließend möchte ich sagen, dass ich zwar mögliche Zukunftsszenarien für den Krypto-KI-Sektor extrapoliert habe, es aber wichtig ist, zu erkennen, dass er sich von nativen Krypto-Sektoren wie DeFi unterscheidet. Er ist größtenteils ein Produkt des KI-Hypes, der auf die Krypto-Welt übergeschwappt ist. Viele der aktuellen Projekte haben ihre Geschäftsmodelle noch nicht unter Beweis gestellt, und viele Projekte ähneln eher KI-Memes (z. B. ähnelt $RNDR einem NVIDIA-Meme, Worldcoin ähnelt einem OpenAI-Meme). Leser sollten dies mit Vorsicht angehen.
