SemiAnalysis has revised its forecast regarding Micron $MU, adjusting its projected share of Nvidia Rubin HBM down to zero. At present, there are no visible signs that Nvidia is placing orders for HBM from Micron. Instead, the supply landscape for Nvidia HBM4 is expected to consolidate around SK Hynix and Samsung, with an estimated split of 70% and 30% respectively.
According to Matt Garman, the Chief Executive at AWS, the market appetite for GPUs is unprecedented. He revealed that the cloud giant has kept every A100 unit in operation without retiring a single one, while the hunger for previous-generation processors stays remarkably intense. AMZN 的 Matt Garman 透露,GPU 市场的需求之火爆前所未见。正因如此,AWS 至今保留了每一块 A100 GPU,没有进行任何报废处理。此外,对于那些非最新款的 GPU,客户的需求量也依旧非常惊人。从我的角度来看,人工智能算力领域正面临结构性的供应不足,而不仅仅是产品的迭代更替。旧型号显卡并不会因此快速退出历史舞台,新显卡的引入更多是作为增量补充,而非单纯的替代品。如果你还在担心 AI 行业是否存在泡沫,那大可不必过虑,现在的局面就好比互联网革命大爆发前的 1995 年,距离 2000 年的高潮尚早。
Der Markt für Neocloud-Domänen zeigt eine signifikante Erholung der Marktstimmung, die hauptsächlich auf den Anstieg der Mietkosten für die erste Generation von H100-Grafikkarten zurückzuführen ist. Tatsächlich ist es angesichts des allgemeinen Mangels an Lichtmodulen, Stromversorgung und Speichereinheiten unvermeidlich, dass Cloud-Computing-Anbieter die Preise erhöhen, was ich bereits vorhergesagt habe. Rückblickend auf den November hat crwv auf der UBS-Technologiekonferenz deutlich gemacht, dass alle derzeit abgeschlossenen Verträge eine Laufzeit von 5 bis 6 Jahren haben. Dies hätte die ernsthafte Ungleichheit zwischen Angebot und Nachfrage widerspiegeln sollen, aber bedauerlicherweise war die Marktstimmung zu diesem Zeitpunkt pessimistisch, und die Investoren haben crwv sogar mit extremen Erwartungen an eine bevorstehende Insolvenz bewertet. Persönlich habe ich, als der Aktienkurs im Bereich von 95 bis 100 lag, tatsächlich eine drastische Reduzierung meiner Positionen vorgenommen, aber hinsichtlich meiner Position in iren habe ich bislang keine Reduzierung vorgenommen.
【Über die tiefgehende Analyse des heutigen Sndk-Anstiegs】
SNDK ist heute um 9,5 % gestiegen, was allgemein als Folge der zunehmenden Erkenntnis der Investoren angesehen wird, dass die strategische Position von NAND in der Infrastruktur von Rechenzentren im Zeitalter von ACCel (d.h. im „After Claude Code“-Zeitalter) erheblich ansteigt.
Dieser Trend wird hauptsächlich durch die Veränderungen in der Architektur von NVDA's BlueField und DeepSeek's Engram vorangetrieben – die Rolle von NAND verändert sich qualitativ und wird mehr wie eine „langsame RAM“, was effektiv die traditionellen Nachteile in Bezug auf Latenz verbessert. In Bezug auf die Marktentwicklung hat sich die Haltung von Citigroup (Citi) in eine positivere Richtung gewandelt und ihre entsprechenden Prognosen und Zielpreise angehoben; gleichzeitig gibt es auch positive Nachrichten von der Angebotsseite, da asiatische Medien berichten, dass Samsung und SK Hynix in diesem Jahr planen, die NAND-Produktion zu reduzieren und nicht zu erhöhen.
In Bezug auf institutionelle Meinungen hält SemiAnalysis zwar ebenfalls eine positive Sicht auf NAND, ist jedoch relativ konservativ und glaubt, dass NVDA's ICMSP erst bis 2027 einen begrenzten Anstieg (LSD) für NAND bringen wird. Wir glauben, dass diese Annahme zu konservativ ist, da sie die rückwärtskompatible, direkt zugängliche Nachfrage nach der Blackwell-Plattform nicht berücksichtigt; unseren Berechnungen zufolge könnte die dadurch entstehende zusätzliche Nachfrage nahezu einen zweistelligen Prozentsatz der Gesamtnachfrage nach NAND ausmachen. -TMTB-Nachricht
**【Persönliche Bewertung】** Um ehrlich zu sein, ist diese Nachricht von TMTB tatsächlich um 2 Monate verzögert, ich habe diese Entwicklung bereits im November vorhergesehen.
Noch bemerkenswerter ist, dass auf der UBS-Technologiekonferenz im Dezember das Management von SNDK deutlich erklärte: NAND ist das einzige Produkt im CSP-Bereich, das nicht durch GPU eingeschränkt werden kann und gleichzeitig die Leistung der KI-Inferenz steigern kann. Diese Aussage des Managements hat mein Vertrauen, weiterhin zu halten, weiter gestärkt.
【Analyse über den heutigen starken Anstieg von SNDK】
SNDK verzeichnete heute einen Anstieg von 9,5 %, was darauf hindeutet, dass Investoren allmählich erkennen, dass die strategische Position von NAND in der Infrastruktur von Rechenzentren im Zeitalter von ACCel (d.h. „After Claude Code“) erheblich verbessert wird. Dieser Trend ist hauptsächlich auf die BlueField von NVDA und die Engram-Architektur von DeepSeek zurückzuführen – unter diesen neuen Architekturen nähert sich die Funktionalität von NAND schrittweise dem Konzept von „langsamen RAM“, wodurch seine früheren Nachteile in Bezug auf die Verzögerung effektiv verbessert werden.
Auf Marktebene hat die Citigroup ihre Haltung dazu bereits in eine positivere Richtung geändert und die entsprechenden Prognosen und Zielpreise angehoben; gleichzeitig berichten asiatische Medien, dass Samsung und SK Hynix in diesem Jahr eine Strategie der Produktionskürzung und nicht der Produktionssteigerung für NAND verfolgen werden. Obwohl das Forschungsinstitut SemiAnalysis ebenfalls eine positive Sicht auf NAND hat, glauben sie, dass NVDA's ICMSP erst 2027 einen begrenzten Anstieg der NAND-Nachfrage bewirken wird (LSD). In dieser Hinsicht hält TMTB diese Annahme für zu konservativ, da sie die rückwärtskompatible Nachfrage, die direkt auf die Blackwell-Plattform zugreifen kann, nicht berücksichtigt; TMTB schätzt, dass die zusätzliche Nachfrage möglicherweise nahe an einem zweistelligen Prozentsatz der Gesamtnachfrage von NAND liegen könnte. ——Quelle: TMTB
**【Persönliche Anmerkung】** Ich muss darauf hinweisen, dass diese Nachricht von TMTB tatsächlich um 2 Monate hinterherhinkt; bereits im November letzten Jahres habe ich eine ähnliche Vorhersage getroffen. Darüber hinaus hat das Management von SNDK auf der UBS Technologiekonferenz im Dezember auch klar erklärt: NAND ist das einzige Produkt, das derzeit von CSPs (Cloud-Service-Anbietern) ohne Einschränkung durch GPUs erweitert werden kann und gleichzeitig die AI-Inferenzleistung steigern kann.
OpenAI veröffentlichte am 18. Januar einen äußerst gewichtigen Artikel, dessen Kernbotschaft sehr klar ist: ChatGPT befindet sich in einer entscheidenden Phase des Wandels von einem einfachen "Werkzeug" hin zu einer "Infrastruktur" und sein Geschäftsmodell hat sich entsprechend tiefgreifend weiterentwickelt.
Der Artikel hebt einen entscheidenden Punkt hervor: In der aktuellen AI-Ära ist Rechenleistung sowohl die am meisten gefragte Ressource als auch das zentrale strategische Gut. Daten zeigen eine erstaunliche Übereinstimmung zwischen dem Einkommenswachstum von OpenAI und der Expansion der Rechenleistung - eine Verdreifachung der Rechenleistung führt zu einer Verdreifachung des Einkommens. Dieses Phänomen sendet ein klares Signal: Die Nachfrage des Marktes ist nicht das Problem, der wahre Engpass liegt auf der Angebotsseite. Angesichts dessen arbeitet OpenAI daran, seine Rechenleistungsstrategie zu ändern, von einer früheren "einseitigen Abhängigkeit und passiven Begrenzung" hin zu einem "Multi-Anbieter, verwaltbaren Vermögensmix". Diese Strategie zielt darauf ab, durch den Einsatz von High-End-Hardware die Leistungsgrenzen zu durchbrechen, während gleichzeitig kostengünstige Plattformen die Effizienz steigern. Das endgültige Ziel ist es, die Grenzkosten von AI auf ein Niveau zu senken, das für "alltägliche Arbeiten akzeptabel" ist.
Ein weiterer wichtiger Punkt, der im Artikel betont wird, ist: Die nächste Phase der AI wird von Agenten (Intelligent Agents) und kontinuierlichen Workflows dominiert, anstatt sich auf einmalige Dialoginteraktionen zu beschränken. Die zukünftige Ausrichtung wird sich auf diejenigen konzentrieren, die "kontinuierlich laufen, über kontextuelle Gedächtnisfähigkeiten verfügen und in der Lage sind, Aufgaben über Werkzeuge hinweg auszuführen". Für Einzelbenutzer bedeutet dies einen effizienten Projektmanagement- und Planungshilfsdienst; für Organisationen entspricht dies einem Betriebssystem, das für Wissensarbeit dient. Diese Veränderung bedeutet, dass die Nutzungshäufigkeit der Nutzer höher und die Bindung stärker wird, was das Geschäftsmodell vorhersehbarer macht.
Am Ende des Artikels gibt OpenAI einen Ausblick auf die zukünftige Entwicklung der AI: Die Monetarisierungsmodelle der AI werden keinesfalls nur auf das aktuelle Abonnementmodell oder API-Dienste beschränkt bleiben. Mit dem tiefen Eindringen der künstlichen Intelligenz in hochpreisige Bereiche wie Forschung, Gesundheitswesen, Energie und Finanzmodellierung werden vielfältige Geschäftsformen wie Lizenzmodelle, IP-Umsatzbeteiligungen und ergebnisbasierte Preisgestaltung allmählich entstehen.