Fonte della ristampa dell'articolo: Il trend dell'AI
Autore: Lin Zhijia
Fonte: TMTpost Media
Poiché Nvidia è in prima linea nell'occupazione del mercato dei chip di potenza di calcolo per modelli di grandi dimensioni dell'intelligenza artificiale, il suo valore di mercato supera i mille miliardi. Allo stesso tempo, anche Intel, AMD e le società cinesi di chip GPU sono segretamente in competizione, sperando di ottenere una quota del mercato dei chip di potenza per elaborazione AI.
Il 19 settembre, alla conferenza sull'innovazione tecnologica Intel On tenutasi a San Jose, negli Stati Uniti, il 62enne CEO di Intel Pat Gelsinger era "pieno di energia" e ha iniziato il suo discorso con delle flessioni.
In questo incontro, Gelsinger ha rilasciato una serie di nuovi prodotti tecnologici d'un fiato: il processore Intel Core Ultra basato sul processo Intel 4 (5 nm), nome in codice "Meteor Lake", ha presentato in anteprima il chip server Xeon di quinta generazione e la successiva Roadmap dei prodotti Xeon; ; ha rivelato il chip AI da 5 nm Gaudi 3, ecc.
Il CEO di Intel Pat Gelsinger fa flessioni sul posto
Rispetto agli anni precedenti, questa volta Kissinger si è trasformato in un uomo con la giacca di pelle e ha parlato per quasi due ore dell'impatto della potenza di calcolo dell'intelligenza artificiale sull'economia. Secondo le statistiche di Titanium Media App, Kissinger ha menzionato termini correlati a "intelligenza artificiale" e "apprendimento profondo" circa 200 volte in questo discorso.
Quasi contemporaneamente, AMD, un concorrente di Intel e Nvidia, ha rilasciato l'ultimo chip CPU (unità di elaborazione centrale) EPYC 8004 e si prevede che consegnerà i chip AI della serie MI300 prima della fine dell'anno per competere con Nvidia. Inoltre, in Cina, i produttori di chip per l'intelligenza artificiale, tra cui Huawei e Tianshu Zhixin, stanno attivamente implementando prodotti di addestramento, ragionamento e potenza di calcolo dell'intelligenza artificiale su larga scala.
"Siamo in forte competizione con Nvidia, leader di mercato nei chip di elaborazione AI. Ma sia Gaudi2 che Gaudi3 rappresentano un grande passo avanti rispetto a loro. Stiamo guadagnando slancio e il mercato sta iniziando a rendersi conto che c'è un'altra opportunità tra i leader nel settore dei chip AI", ha detto Kissinger alla CNBC il 20 settembre.
Con l'intensificarsi della concorrenza sul mercato, è difficile per Huang monopolizzare trilioni di potenza di calcolo dell'intelligenza artificiale
Dal 2023 a oggi, la "mania" dei grandi modelli di intelligenza artificiale rappresentata da ChatGPT ha travolto il mondo e i grandi modelli stanno spingendo l'intelligenza artificiale a svilupparsi in una direzione più generale.
Allo stesso tempo, la scarsità e l'elevato costo della potenza di calcolo sono diventati fattori chiave che limitano lo sviluppo dell'intelligenza artificiale. La potenza di calcolo è diventata inoltre un elemento fondamentale per la trasformazione digitale e intelligente dell'intera società, determinando così un aumento della domanda di potenza di calcolo intelligente.
Secondo i dati forniti dal CEO di AMD Lisa Su, il mercato potenziale totale per gli acceleratori AI per data center globali raggiungerà circa 30 miliardi di dollari USA nel 2023. Si prevede che entro il 2027 questa cifra supererà i 150 miliardi di dollari USA (circa 1.095 trilioni di RMB), con un tasso di crescita annuale composto di oltre il 50%.
Manuvir Das, vicepresidente dell'enterprise computing di Nvidia, ha fornito un'altra serie di dati che dimostrano che si prevede che il mercato totale indirizzabile (TAM) per l'intelligenza artificiale crescerà fino a 600 miliardi di dollari. Di questa cifra, 300 miliardi di dollari saranno destinati ai chip e ai sistemi, 150 miliardi al software di intelligenza artificiale generativa e i restanti 150 miliardi di dollari saranno forniti dal software aziendale di Nvidia.
È ovvio che il mercato dei chip per l'intelligenza artificiale è una grande "torta".
Ma attualmente, NVIDIA detiene l'82% del mercato globale dell'accelerazione AI nei data center e monopolizza il mercato globale della formazione AI con una quota di mercato del 95%, diventando il principale vincitore in questa tornata di bagarre tra AI. Huang Renxun e la sua azienda Nvidia stanno facendo fortuna, con un valore di mercato che supera i mille miliardi di dollari.
Allo stesso tempo, l'aumento della domanda di potenza di calcolo ha portato direttamente a una carenza di GPU (unità di elaborazione grafica) Nvidia. Il numero di schede grafiche NVIDIA A100 è diventato lo standard per misurare la potenza di calcolo di un'azienda.
Infatti, se un'azienda vuole sviluppare un modello di grandi dimensioni di uso generale, deve innanzitutto concentrarsi su due punti in termini di potenza di calcolo: il numero e il prezzo delle schede grafiche.
Per quanto riguarda il numero di schede grafiche, OpenAI ha utilizzato da 10.000 a 30.000 GPU NVIDIA per addestrare il modello GPT-3.5. Secondo l'ultimo rapporto di TrendForce, se calcolato in base alla potenza di elaborazione delle schede grafiche NVIDIA A100, l'esecuzione di ChatGPT potrebbe richiedere l'uso di 30.000 schede grafiche GPU NVIDIA. In termini di modelli open source, il modello Llama è addestrato su 2048 A100 da 80 GB e l'intera potenza di calcolo di addestramento è vicina a 2000 PTOPS.
In termini di prezzo, il prezzo attuale dell'H800 disponibile in Cina è di circa 200.000 yuan al pezzo, mentre il prezzo dell'A100/A800 è salito a circa 150.000 yuan e 100.000 yuan al pezzo. Prendendo come esempio il requisito di potenza di calcolo di 2000P, la scheda singola GPU H800 ha una potenza di calcolo di 2P e sono necessarie 1.000 schede. Il prezzo previsto dell'intera scheda è di 200 milioni di yuan; la potenza di calcolo di una scheda singola A800 è di circa 0,625P e la quantità richiesta è di 3.200 schede. Il prezzo stimato dell'intera scheda grafica è di ben 320 milioni di yuan.
Oltre all'acquisto di schede grafiche GPU, il server deve anche tenere conto della configurazione complessiva della macchina e dell'elaborazione, tra cui CPU, storage, connessione di comunicazione NV-Link, nonché fattori quali consumo energetico, affitto del sito e costi di gestione e manutenzione.
Attualmente, i server A800 e H800 sono principalmente modelli a 8 schede. Per soddisfare la potenza di calcolo di 2000 P, è necessario configurare 125 server H800 a 8 schede o 400 server A800 a 8 schede, con prezzi rispettivamente di 300 milioni di yuan e 560 milioni di yuan. Inoltre, poiché H800 supporta anche PCIe 5.0, una nuova generazione di CPU e memoria, ecc., è necessario aumentare il prezzo per raggiungere prestazioni di elaborazione ottimali.
Pertanto, dal punto di vista dell'addestramento di modelli di grandi dimensioni, il costo totale di acquisto dell'H800 è inferiore a quello dell'A800, che è più conveniente e inferiore al costo di costruzione di una CPU: questo è ciò che il CEO di NVIDIA Huang Renxun ha spesso affermato di recente: "Più compri, più risparmi".
Certo, va bene anche se non puoi permettertelo. NVIDIA ha anche lanciato con attenzione un servizio di noleggio online per il sistema di elaborazione DGX super AI, che è aperto alle aziende su base di leasing. È dotato di 8 GPU H100 o A100, ogni nodo ha 640 GB di memoria e il prezzo di noleggio mensile è di 37.000 $ USA, eliminando la necessità di costruire un proprio data center e di acquistare un gran numero di schede grafiche GPU. Questo tipo di leasing ha un margine di profitto lordo molto alto. Secondo un rapporto sul servizio "cloud computing power leasing" di Microsoft, il margine di profitto lordo di questa attività è pari al 42%, rendendola la nuova "mucca da mungere" di Microsoft.
Nel mercato interno, InnoBet, SenseTime AIDC e più di altri 11 centri di calcolo intelligenti/fornitori di cloud offrono servizi simili. Per i modelli di grandi dimensioni, il prezzo complessivo è inferiore di oltre il 20% rispetto al prezzo autocostruito.
Inoltre, è necessario molto tempo per l'addestramento del modello. La GPU NVIDIA L40S di recente uscita di NVIDIA è più efficiente nell'addestramento dei modelli rispetto a A800/H800. Un modello con 7 miliardi di parametri impiega 17 ore per funzionare su HGX A800, ma L40S è 1,3 volte più veloce e può essere completato in appena mezza giornata. Per non parlare di un modello con 175 miliardi di parametri, che può essere addestrato in un weekend su L40S.
In generale, se un'azienda vuole realizzare un modello di grandi dimensioni, deve spendere centinaia di milioni di yuan in costi di potenza di calcolo, e questo è solo il "biglietto d'ingresso".
Secondo quanto riportato in precedenza, Baidu, ByteDance, Tencent e Alibaba hanno ordinato a Nvidia chip per un valore di 5 miliardi di dollari. Sommando il numero di schede grafiche precedentemente immagazzinate, il numero totale di schede grafiche GPU Nvidia possedute in Cina supera i 100 miliardi di yuan. La società di ricerche di mercato Counterpoint ha pubblicato un rapporto in cui si afferma che, nonostante la flessione ciclica nel settore dei semiconduttori non si sia arrestata, aziende cinesi come Tencent e Baidu continuano ad acquistare chip Nvidia A800 in grandi quantità.
Pertanto, in un mercato così importante, con dimensioni pari a un trilione di dollari, né le aziende produttrici di chip né i clienti a valle vogliono che Nvidia domini il mercato da sola. Per questo motivo, AMD, Intel e le aziende cinesi produttrici di chip GPU hanno cercato di sfidare il predominio di Nvidia nel mercato dei chip AI.
AMD ha colpito per prima.
In termini di chip AI, al Consumer Electronics Show (CES) del 2023 a gennaio di quest'anno, il presidente e CEO di AMD Lisa Su ha rilasciato ufficialmente il prodotto APU (unità di elaborazione accelerata) di nuova generazione Instinct MI300 per i data center. Adotta il design dell'architettura Chiplet combinata 5nm+6nm di TSMC, integra CPU e GPU, ha 13 piccoli chip e ha un conteggio di transistor fino a 146 miliardi. Le prestazioni AI e le prestazioni per watt sono 8 volte e 5 volte quelle della precedente generazione MI250 (utilizzando il benchmark sparse FP8) e saranno prodotte in serie e fornite nella seconda metà del 2023.
Più avanti a giugno, AMD ha anche annunciato i nuovi chip di accelerazione AI Instinct MI300X e Instinct MI300A, appositamente progettati per l'AI generativa e dotati di 153 miliardi di transistor. Presentano miglioramenti nella capacità di archiviazione e nella larghezza di banda di interconnessione. Il numero di transistor in MI300X è il doppio di quello di H100 e la memoria ad alta larghezza di banda HBM3 è 2,4 volte quella di H100. Un modello di grandi dimensioni con 80 miliardi di parametri può essere eseguito su un singolo chip e si prevede che verrà spedito prima della fine dell'anno.
Ciò non solo dimostra appieno le capacità della tecnologia AI del data center dopo l'acquisizione di Xilinx, ma sfida anche il predominio di Nvidia nei chip di elaborazione AI.
Naturalmente, non si tratta solo di GPU e chip AI. AMD è la migliore nel realizzare chip CPU (unità di elaborazione centrale). Dopotutto, i data center hanno bisogno della potenza di elaborazione generale della CPU. Lo scorso novembre, AMD ha rilasciato la quarta generazione di data center EPYC 9004 series utilizzando l'architettura Zen 4, nome in codice "Genoa". Non solo l'architettura è stata aggiornata, ma Su Zifeng ha anche portato i chip all'estremo: processo a 5 nm di TSMC, 96 core, 192 thread, cache L3 da 384 M e supporto per PCle5.0.
Rispetto al processore a otto core di Intel, le serie di CPU per data center ed edge computing di AMD hanno registrato notevoli miglioramenti in termini di consumo energetico e prestazioni, tra cui una riduzione del 40% dell'area del chip Genoa e un aumento del 48% dell'efficienza energetica.
A settembre di quest'anno, AMD ha lanciato l'ultima serie EPYC 8004 di quarta generazione, introducendo il core "Zen 4c" in CPU dedicate, offrendo servizi che vanno dall'edge intelligente (come vendita al dettaglio, produzione e telecomunicazioni) ai data center, al cloud computing e ad altri settori.
Infatti, Amazon Cloud AWS ha rilasciato un'istanza di elaborazione generica basata su Genoa M7A. I risultati finali hanno mostrato che le prestazioni sono state migliorate del 50% rispetto alla generazione precedente. Rispetto alla versione Xeon Platinum 8490H di quarta generazione di Intel, le prestazioni di Genoa in più scenari applicativi sono state migliorate di 1,7-1,9 volte e l'efficienza energetica complessiva è stata migliorata di 1,8 volte. È pienamente utilizzato in campi di elaborazione ad alte prestazioni come la modellazione finanziaria, la simulazione meteorologica e lo sviluppo di farmaci. Inoltre, nel carico di lavoro del gateway IoT Edge, i più recenti server basati su EPYC 8024P a otto core forniscono anche circa 1,8 volte le prestazioni di throughput totale per rack da 8 kW.
Nel complesso, che si tratti di CPU, GPU, FPGA, processore per data center DPU o strumento di stack software del sistema AMD ROCm, AMD è pronta e sta "affilando i coltelli" per sfidare i prodotti Nvidia.
Intel, un colosso dei chip con oltre 60 anni di storia alle spalle, non vuole "cedere" il mercato ad altri.
L'11 luglio di quest'anno, il gigante dei chip Intel ha rilasciato il chip AI da 7nm Habana Gaudi2 per il mercato cinese a Pechino. Può eseguire grandi modelli linguistici, accelerare l'addestramento e il ragionamento AI e le sue prestazioni per watt per l'esecuzione di ResNet-50 sono circa il doppio di quelle di NVIDIA A100. Il suo rapporto prezzo-prestazioni è superiore del 40% rispetto a quello delle soluzioni basate su NVIDIA nel cloud AWS e si prevede che supererà l'ultimo H100 di NVIDIA nel rapporto prezzo-prestazioni a settembre di quest'anno.
A luglio di quest'anno, Sandra Rivera, vicepresidente esecutivo di Intel, ha dichiarato a Titanium Media App che è impossibile per una singola azienda dominare il mercato dei chip per l'intelligenza artificiale. Perché il mercato ha bisogno di diversità e i clienti vogliono vedere sempre più aziende produttrici di chip assumere un ruolo guida nel campo dell'intelligenza artificiale.
Il CEO di Intel, Pat Gelsinger
A settembre, alla Intel On Technology Innovation Conference tenutasi a San Jose, negli Stati Uniti, Kissinger ha annunciato che il chip AI Gaudi 3 che utilizza un processo a 5 nm verrà lanciato l'anno prossimo. Entro quella data, la sua potenza di calcolo sarà il doppio di quella di Gaudi 2 e la larghezza di banda di rete e la capacità HBM saranno 1,5 volte.
Contemporaneamente, Kissinger ha anche presentato in anteprima il processore Intel Xeon Scalable Server di quinta generazione, affermando che lo Xeon di prossima generazione avrà 288 core, il che dovrebbe aumentare la densità dei rack di 2,5 volte e le prestazioni per watt di 2,4 volte. Intel ha inoltre lanciato Sierra Forest e Granite Rapids e si prevede che le prestazioni AI aumenteranno da 2 a 3 volte rispetto allo Xeon di quarta generazione.
Zhou Jingren, Chief Technology Officer di Alibaba Cloud, ha affermato che Alibaba utilizza il processore Intel Xeon di quarta generazione per la sua intelligenza artificiale generativa e il modello linguistico di grandi dimensioni, ovvero "Alibaba Cloud Tongyi Thousand Questions Large Model", e la tecnologia Intel ha ridotto significativamente il tempo di risposta del modello, con un'accelerazione media fino a 3 volte.
Inoltre, per l'addestramento di modelli di intelligenza artificiale di grandi dimensioni, l'ecosistema software è più importante. Intel ha annunciato una partnership con Arm per distribuire i suoi prodotti Xeon su CPU Arm e ha lanciato la suite di strumenti di ragionamento e distribuzione AI OpenVINO, che non solo supporta modelli pre-addestrati, ma consente anche la distribuzione di qualsiasi supporto multipiattaforma chiave disponibile con una sola scrittura e supporta già il modello Llama 2 di Meta.
Contemporaneamente, questa settimana la Linux Foundation ha annunciato anche la creazione della Unified Accelerator (UXL) Foundation, che fornisce un modello di programmazione dell'acceleratore basato su standard aperti per semplificare lo sviluppo di applicazioni multipiattaforma ad alte prestazioni. L'obiettivo principale è accelerare l'evoluzione del programma oneAPI di Intel. Tra i membri fondatori figurano Arm, Google Cloud, Intel, Qualcomm, Samsung e altre aziende, ma Nvidia non è tra queste.
Wang Rui, vicepresidente senior di Intel Corporation e presidente di Intel China, ha dichiarato a Titanium Media App e ad altri che in futuro Intel rilascerà un processore con 288 core. Ci saranno sempre più data center in futuro. Intel lancerà prodotti come Gaudi3 e Falcon Shores. La matrice di prodotto costituirà una roadmap per lo sviluppo futuro di acceleratori e AI computing.
"Abbiamo integrato le capacità di intelligenza artificiale nel chip. A seconda delle diverse esigenze, le capacità di intelligenza artificiale integrate utilizzeranno diverse potenze di elaborazione e diverse architetture per fornire supporto". Wang Rui ha affermato che nel data center, dal client all'edge e poi al cloud, l'intelligenza artificiale è penetrata in vari scenari applicativi; dall'addestramento di modelli linguistici su larga scala all'addestramento di modelli linguistici inclusivi su piccola scala, l'influenza dell'intelligenza artificiale è ovunque.
Alla fine di agosto di quest'anno, Kissinger ha affermato di ritenere che Intel fosse sulla buona strada per raggiungere i suoi ambiziosi obiettivi di ristrutturazione e procedere verso la riconquista della sua posizione di leader nel settore. Parlando di Nvidia, Gelsinger ha riconosciuto che Nvidia è ben posizionata per soddisfare la domanda di sistemi necessari a supportare l'espansione del software di intelligenza artificiale, ma ha affermato che Intel inizierà presto ad aggiudicarsi ordini sul mercato per questi chip acceleratori.
"Hanno fatto un ottimo lavoro e noi tutti li elogiamo. Ma stiamo per mostrare forza", ha detto Kissinger.
Il valore di mercato di Nvidia è evaporato di 100 miliardi di dollari. I chip nazionali possono cogliere l'opportunità?
Le brillanti prestazioni di Nvidia nel 2023 sembrano essersi indebolite negli ultimi due mesi.
Secondo i dati di Refinitiv, nonostante il prezzo delle azioni Nvidia sia aumentato di circa il 190% quest'anno, il che rappresenta una performance impressionante, a settembre ha avuto un andamento deludente: dal 31 agosto, il prezzo delle azioni Nvidia è sceso di oltre il 10% e il suo valore di mercato totale è sceso di oltre 176 miliardi di dollari.
In realtà sono molti i fattori che hanno portato al calo del prezzo delle azioni Nvidia.
In primo luogo, si sono intensificate le preoccupazioni del mercato sul fatto che la Federal Reserve manterrà i tassi di interesse a un livello più alto per un periodo più lungo al fine di frenare l'inflazione, e l'intero mercato azionario è stato messo sotto pressione. L'indice S&P 500 è sceso in media dello 0,7% a settembre e finora è sceso di quasi il 4%.
In secondo luogo, i modelli open source rappresentati da LIama 2 sono stati rilasciati uno dopo l'altro e sempre più aziende hanno iniziato a utilizzare direttamente questi modelli, che richiedono solo chip di inferenza AI per l'applicazione, il che ha portato a una riduzione della domanda di chip di addestramento della potenza di calcolo.
Infine, secondo The Information, Nvidia ha prestato molta attenzione alla fornitura di schede grafiche ad alcune piccole e medie aziende di cloud computing negli Stati Uniti. Nella situazione attuale in cui "le schede sono difficili da trovare", i servizi di follow-up di Nvidia e la fornitura di schede grafiche a grandi aziende come Google, Meta e aziende cinesi non sembrano più essere la priorità principale, il che porta direttamente ai dubbi del mercato sulle capacità di fornitura dei prodotti di Nvidia.
Naturalmente, i vantaggi superano gli svantaggi. Nvidia ha un enorme vantaggio di primo arrivato nel mercato della potenza di calcolo dell'AI. Oltre alle prestazioni leader del suo chip GPU, il suo enorme ecosistema di software di intelligenza artificiale CUDA è fuori dalla portata di molte persone. Inoltre, la tecnologia di interconnessione GPU ad alta velocità NVLink di NVIDIA è diventata anche una "arma magica fondamentale" per migliorare la tecnologia dei modelli di grandi dimensioni e il suo ruolo è di gran lunga più importante della scheda GPU stessa.
Wang Xiaochuan, fondatore e CEO di Baichuan Intelligence, ha affermato una volta che nel settore il costo della potenza di calcolo della GPU rappresenta circa il 40%-70% e che il rapporto tra il costo della connessione di rete e il costo della scheda grafica GPU è di circa 3:1.
"Se vogliamo sviluppare modelli più avanzati in futuro, le riserve di potenza di calcolo sono molto critiche. Dal punto di vista dell'addestramento e del ragionamento, il ragionamento richiede chip AI nazionali, non solo NVIDIA, ma attualmente solo NVIDIA offre la migliore formazione. In questa "battaglia di potenza di calcolo", i chip AI nazionali della Cina devono essere in grado di affrontare la sfida", ha affermato Wang Xiaochuan.
Infatti, oltre ai due giganti dei chip, con la "guerra dei cento modelli" nazionale, la domanda di potenza di calcolo AI è aumentata, ma l'esportazione in Cina di Nvidia AI00/H100 e di altri chip AI è limitata e sta diventando sempre più difficile per le aziende nazionali ottenere chip di fascia alta dagli Stati Uniti.
Nell'ottobre 2022, il Bureau of Industry and Security (BIS) del Dipartimento del Commercio degli Stati Uniti ha emanato nuove normative sul controllo delle esportazioni, quantificando vari indicatori di potenza di calcolo dei chip, larghezza di banda, processo e altri indicatori e limitando le esportazioni delle aziende statunitensi verso la Cina. Tra queste, le restrizioni sui chip ad alta potenza di calcolo hanno avuto un impatto diretto sullo sviluppo dell'intelligenza artificiale, del supercomputing, dei data center e di altri settori correlati della Cina. Nvidia, produttore di GPU (unità di elaborazione grafica) che soddisfa principalmente le esigenze dell'intelligenza artificiale e di altri settori, ha ricevuto ad agosto un avviso dal governo degli Stati Uniti che limitava l'esportazione di chip avanzati.
Nvidia ha reagito rapidamente e ha messo in produzione il chip A800 nel terzo trimestre del 2022 per sostituire l'A100, che non poteva più essere spedito in Cina. Si tratta anche del primo prodotto "fornito appositamente" lanciato da un'azienda americana per questo scopo. Nvidia non ha annunciato i parametri dettagliati dell'A800. Tuttavia, il manuale del prodotto fornito dai suoi distributori mostra che la potenza di elaborazione di picco dell'A800 è coerente con l'A100, che è limitato all'esportazione, ma la velocità di trasmissione è limitata a due terzi dell'A100 per rispettare i requisiti pertinenti del governo degli Stati Uniti. L'ultimo "China Special Edition" H800 ha una potenza di calcolo di training che è circa il 40% inferiore a quella dell'H100. Senza i moduli di interconnessione forniti da NVIDIA, il divario di potenza di calcolo può raggiungere oltre il 60%.
Intel lancerà la versione cinese del suo prodotto Gaudi 2 nel luglio 2023. Gaudi 2 è un chip ASIC (circuito integrato specifico per l'applicazione) progettato principalmente per l'addestramento di intelligenza artificiale ad alte prestazioni basato su apprendimento profondo. Rispetto alla versione internazionale annunciata a maggio 2022, il numero di porte Ethernet integrate nella versione cinese di Gaudi 2 è stato ridotto da 24 a 21. Intel affermò all'epoca che si trattava di una modifica relativamente piccola, con un impatto limitato sulle prestazioni effettive. Kissinger ha dichiarato di recente che l'azienda sta attualmente vendendo la versione cinese di Gaudi 2 in Cina e che spera di continuare a farlo anche in futuro.
Pertanto, sotto l'influenza delle restrizioni sui chip esteri, le aziende nazionali di elaborazione dell'intelligenza artificiale come Huawei, Tianshu Zhixin, Cambrian e Denglin Technology hanno attivamente elaborato piani per colmare il divario nella potenza di elaborazione dell'intelligenza artificiale nazionale.
Attualmente, il mercato nazionale della potenza di calcolo dell'intelligenza artificiale è diviso principalmente in tre fazioni: la prima è rappresentata dalle soluzioni di potenza di calcolo dell'ecosistema Huawei Kunpeng e Ascend AI, che non coinvolgono le GPU NVIDIA; la seconda è il supporto della potenza di calcolo ibrida, che utilizza un gran numero di chip NVIDIA A100 e aggiunge AMD, Intel, Tianshu Zhixin, Cambrian, Haiguang e altri chip in alcuni ambienti per supportare la formazione di modelli di grandi dimensioni; la terza è quella di noleggiare una potenza di calcolo cloud per server più conveniente per supplire alla carenza di potenza di calcolo.
Al 19° Summer Summit del Yabuli China Entrepreneurs Forum 2023 tenutosi ad agosto di quest'anno, Liu Qingfeng, fondatore e presidente di iFLYTEK, ha affermato che le capacità della tecnologia GPU di Huawei sono ora paragonabili a quelle della NVIDIA A100.
Il 20 settembre, Meng Wanzhou, vicepresidente, presidente di turno e direttore finanziario di Huawei, ha affermato che Huawei ha lanciato il cluster di elaborazione Ascend AI con una nuova architettura in grado di supportare la formazione di modelli di grandi dimensioni con oltre un trilione di parametri. Huawei continuerà a costruire solide fondamenta per la potenza di calcolo.
Gai Lujiang, presidente e CEO di Tianshu Zhixin, ha rivelato che attualmente molte grandi aziende nazionali di modelli hanno iniziato a utilizzare schede grafiche GPU nazionali e l'azienda ha supportato il completamento della formazione su grandi modelli con 7 miliardi di parametri. Inoltre, la maggior parte delle altre aziende nazionali di GPU sono nella fase di addestramento all'inferenza dell'intelligenza artificiale.
Gai Lujiang ritiene che in Cina la quota di mercato di NVIDIA nel campo della formazione sia superiore al 95% e in alcuni casi addirittura al 99%, raggiungendo sostanzialmente un monopolio. Ciò è dovuto principalmente alla sua architettura hardware e all'ecosistema CUDA ampiamente utilizzato: ha oltre 3 milioni di utenti globali. Attualmente, le aziende GPU nazionali stanno affrontando il problema della migrazione ecologica. A causa del gran numero di codici basati su CUDA, il passaggio a una nuova ecologia richiederà molto tempo e denaro.
In una recente tavola rotonda, Wang Ping, co-fondatore e architetto capo di Denglin Technology, ha affermato che i clienti di AIGC non hanno solo bisogno di soluzioni come la generazione di testo in immagini, ma, cosa ancora più importante, di prodotti pratici. Per questo motivo, sono necessari prodotti informatici dotati di elevata potenza di calcolo e grande versatilità, che possano essere impiegati concretamente e creare valore per i clienti. Si dice che la nuova generazione di chip AI di Denglin Technology abbia un risparmio energetico di oltre 3 volte rispetto ai prodotti GPU multiuso più diffusi a livello internazionale.
Gai Lujiang ha affermato che per Tianshu Zhixin il passo successivo sarà ottimizzare le iterazioni del prodotto, il che richiede di fare affidamento sui dati, sul feedback dei clienti e sull'innovazione tecnologica, nonché di apportare modifiche in base alle specifiche esigenze nazionali. Allo stesso tempo, l'azienda migliorerà attivamente l'ecosistema e lo stack software per garantire agli utenti la migliore esperienza in termini di efficienza, costi, prestazioni e redditività, in modo da promuovere l'ulteriore commercializzazione dei prodotti.
Wang Ping ritiene che, a causa della crescente difficoltà di reperire chip di fascia alta dagli Stati Uniti, sebbene non vi sia alcuna azienda nazionale in grado di produrre chip realmente alternativi, la potenza di calcolo nazionale continuerà a crescere. I chip devono essere continuamente iterati. Più utenti ci sono e più feedback sui problemi ci sono, più le aziende nazionali di chip AI possono migliorare nelle iterazioni successive e migliorare l'esperienza utente.
"Si tratta di un'importante opportunità per le aziende nazionali produttrici di GPU per uso generico", ha affermato Gai Lujiang alla Titanium Media App.
