Źródło przedruku artykułu: Trend AI

Autor: Lin Zhijia

Źródło: TMTpost Media

Ponieważ Nvidia przejmuje wiodącą rolę w zajmowaniu rynku dużych modeli układów obliczeniowych AI, jej wartość rynkowa przekracza bilion. Jednocześnie Intel, AMD i chińscy producenci chipów GPU również potajemnie konkurują, mając nadzieję na zdobycie udziału w rynku chipów obliczeniowych AI.

19 września na konferencji poświęconej innowacjom technologicznym Intel On, która odbyła się w San Jose w Stanach Zjednoczonych, 62-letni dyrektor generalny firmy Intel Pat Gelsinger był „pełen energii” i rozpoczął swoje przemówienie pompkami.

Podczas tego spotkania Gelsinger za jednym zamachem zaprezentował serię produktów z nową technologią: procesor Intel Core Ultra oparty na procesie Intel 4 (5 nm), o nazwie kodowej „Meteor Lake”, zaprezentowano zapowiedź chipa serwerowego Xeon piątej generacji i mapę drogową kolejnych produktów Xeon; ; ujawniono chip AI 5 nm Gaudi 3 itp.

Dyrektor generalny Intela, Pat Gelsinger, robi pompki na miejscu

W porównaniu z poprzednimi sesjami, tym razem Kissinger „przemienił się w odzianego w skórę starca” i przez prawie 2 godziny mówił o roli mocy obliczeniowej AI w gospodarce. Według statystyk aplikacji TMTpost, Kissinger w swoim przemówieniu około 200 razy wspomniał terminy związane ze „sztuczną inteligencją” i „głębokim uczeniem”.

Niemal w tym samym czasie Intel i konkurent Nvidii, AMD, wypuściły najnowszy chip EPYC 8004 CPU (jednostka centralna) i spodziewano się, że przed końcem roku dostarczy chipy AI serii MI300, aby konkurować z Nvidią. Ponadto w Chinach producenci chipów AI, w tym Huawei i Tianshu Zhixin, również aktywnie wdrażają produkty do wnioskowania szkoleniowego na temat dużych modeli i produkty mocy obliczeniowej AI.

„Bardzo zaciekle konkurujemy z firmą NVIDIA, liderem rynku chipów mocy obliczeniowej AI. Jednak zarówno Gaudi2, jak i Gaudi3 są od nich dużym krokiem naprzód. Nabieramy tempa, a rynek zaczyna zdawać sobie sprawę, że wśród liderów AI ​przemysł chipowy Jest jeszcze jedna szansa” – powiedział Kissinger 20 września CNBC.

Zaostrza się konkurencja na rynku, a „Staremu Huangowi” trudno jest zmonopolizować biliony mocy obliczeniowej AI

Od 2023 r. do chwili obecnej świat ogarnął „szaleństwo” na duże modele sztucznej inteligencji reprezentowane przez ChatGPT, a duże modele promują rozwój sztucznej inteligencji w bardziej ogólnym kierunku.

Jednocześnie niedobór i koszt mocy obliczeniowej stały się głównymi czynnikami ograniczającymi rozwój sztucznej inteligencji. Moc obliczeniowa stała się również ważnym kamieniem węgielnym cyfrowej i inteligentnej transformacji całego społeczeństwa, powodując gwałtowny wzrost zapotrzebowania na inteligentną moc obliczeniową.

Według danych dostarczonych przez dyrektor generalną AMD, Lisę Su, całkowity potencjalny rynek globalnych akceleratorów sztucznej inteligencji dla centrów danych osiągnie w 2023 r. około 30 miliardów dolarów, a do 2027 roku liczba ta ma przekroczyć 150 miliardów dolarów (około 1,095 biliona RMB), przy czym złożoną roczną stopę wzrostu przekraczającą 50%.

Manuvir Das, wiceprezes ds. obliczeń dla przedsiębiorstw w Nvidii, podał kolejny zestaw danych pokazujących, że wielkość rynku adresowalnego (TAM) dla sztucznej inteligencji ma wzrosnąć do 600 miliardów dolarów. Wśród nich chipy i systemy mogą otrzymać 300 miliardów dolarów, generatywne oprogramowanie AI może otrzymać 150 miliardów dolarów, a pozostałe 150 miliardów dolarów zostanie wniesione przez oprogramowanie Nvidia dla przedsiębiorstw.

Oczywiście rynek chipów mocy obliczeniowej AI to duży „tort”.

Jednak obecnie NVIDIA zajmuje 82% światowego rynku akceleracji sztucznej inteligencji w centrach danych i monopolizuje światowy rynek szkoleń w zakresie sztucznej inteligencji z 95% udziałem w rynku, stając się największym zwycięzcą w tej rundzie walki wręcz ze sztuczną inteligencją. Huang Renxun i jego firma Nvidia zarabiają mnóstwo pieniędzy, a ich wartość rynkowa przekracza 1 bilion dolarów amerykańskich.

Jednocześnie gwałtowny wzrost zapotrzebowania na moc obliczeniową bezpośrednio spowodował, że procesor graficzny NVIDIA (procesor graficzny) stał się „trudny do znalezienia”. Liczba kart graficznych Nvidia A100 stała się standardem pomiaru mocy obliczeniowej firmy.

Tak naprawdę, jeśli firma chce opracować duży model ogólnego przeznaczenia, musi najpierw zwrócić uwagę na dwa punkty pod względem mocy obliczeniowej: liczbę i cenę kart graficznych.

Wśród nich, pod względem liczby kart graficznych, OpenAI wykorzystuje 10 000–30 000 procesorów graficznych NVIDIA do trenowania modelu GPT-3.5. Według najnowszego raportu TrendForce, jeśli obliczymy to na podstawie mocy obliczeniowej kart graficznych NVIDIA A100, uruchomienie ChatGPT może wymagać użycia 30 000 kart graficznych NVIDIA. Dodatkowo jeśli chodzi o modele open source, model Llama trenowany jest na 2048 80GB A100, a cała trenowana moc obliczeniowa jest bliska 2000 PTOPS.

Pod względem ceny cena H800 dostępnego obecnie w Chinach osiągnęła aż 200 000/sztukę, podczas gdy cena A100/A800 wzrosła do około 150 000 i 100 000/sztukę. Biorąc za przykład zapotrzebowanie na moc obliczeniową 2000 P, procesor graficzny H800 ma moc obliczeniową pojedynczej karty wynoszącą 2 P i wymaga 1000 kart. Szacunkowa cena całej karty wynosi 200 milionów juanów; pojedyncza karta A800 ma moc obliczeniową około 0,625 P i wymaga 3200 kart. Szacunkowa cena całej karty graficznej wynosi do 320 milionów juanów.

Oprócz zakupu karty graficznej GPU serwer musi również wziąć pod uwagę konfigurację i obliczenia całej maszyny, w tym procesora, pamięci masowej, połączeń komunikacyjnych NV-Link itp., a także czynniki takie jak zużycie energii, wynajem witryny, oraz koszty eksploatacji i konserwacji.

Obecnie serwery A800 i H800 to głównie modele 8-kartowe. Aby sprostać mocy obliczeniowej 2000 P, należy skonfigurować 125 8-kartowych serwerów H800 lub 400 8-kartowych serwerów A800. Ceny wynoszą 300 milionów juanów i 560 milionów juanów. Co więcej, ponieważ H800 obsługuje również PCIe 5.0, nową generację procesorów i pamięci, należy podnieść cenę, aby osiągnąć optymalną wydajność obliczeniową.

Dlatego z punktu widzenia szkolenia dużych modeli całkowity koszt zakupu H800 jest niższy niż A800, czyli bardziej opłacalny i niższy niż koszt budowy procesora. Tak często powtarzał dyrektor generalny Nvidii Jen-Hsun Huang ostatnio: „Im więcej kupujesz, tym jest to bardziej opłacalne”, tym więcej oszczędzasz.

Oczywiście nie ma to znaczenia, jeśli naprawdę Cię na to nie stać. NVIDIA przemyślanie uruchomiła także usługę leasingu online, system obliczeniowy DGX super AI, który jest dostępny dla przedsiębiorstw w ramach leasingu. Jest wyposażony w 8 procesorów graficznych H100 lub A100, każdy węzeł ma 640 GB pamięci, a miesięczny czynsz wynosi 37 000 USD, więc nie ma potrzeby budowania własnych danych. Centrum kupuje dużą liczbę kart graficznych GPU. Ten rodzaj leasingu charakteryzuje się wysoką marżą zysku brutto. Jak wynika z raportu dotyczącego usługi Microsoft „Cloud Computing Power Leasing”, marża zysku brutto w tym biznesie wynosi aż 42%, co czyni go nową „dojną krową” dla Microsoft. .

Na rynku krajowym firmy InBev Digital, SenseTime AIDC i ponad 11 innych dostawców inteligentnych centrów obliczeniowych/chmury również świadczą podobne usługi. W przypadku dużych modeli łączna cena jest o ponad 20% niższa niż cena samodzielnego zbudowania.

Istnieje również duży czas szkolenia modelu. Nowo wydany procesor graficzny NVIDIA L40S firmy NVIDIA jest bardziej wydajny w treningu niż model A800/H800. Uruchomienie modelu z 7 miliardami parametrów na HGX A800 zajmuje 17 godzin, podczas gdy L40S jest 1,3 razy szybszy i można go uruchomić w zaledwie pół dnia, nie wspominając o tym, że model ze 175 miliardami parametrów można wytrenować w weekend z L40S.

Ogólnie rzecz biorąc, jeśli firma chce zbudować duży model, będzie musiała wydać setki milionów juanów na koszty mocy obliczeniowej i to jest właśnie „bilet”.

Wcześniej informowano, że Baidu, ByteDance, Tencent i Alibaba złożyły zamówienia na chipy o wartości 5 miliardów dolarów od Nvidii. Dodając liczbę zgromadzonych wcześniej kart graficznych, łączna liczba kart graficznych Nvidia w Chinach przekracza 100 miliardów juanów. Organizacja badająca rynek Counterpoint opublikowała raport, z którego wynika, że ​​pomimo cyklicznego spowolnienia w branży półprzewodników, chińskie firmy, takie jak Tencent i Baidu, w dalszym ciągu kupują w dużych ilościach chipy Nvidia A800.

Zatem na tak ważnym rynku, wartym bilion dolarów, ani producenci chipów, ani klienci niższego szczebla nie chcą, aby „Nvidia” dominowała. Dlatego AMD, Intel i chińscy producenci chipów GPU próbowali rzucić wyzwanie dominacji Nvidii na rynku chipów AI.

AMD uderzyło pierwsze.

Jeśli chodzi o chipy AI, podczas targów Consumer Electronics Show (CES) 2023 w styczniu tego roku prezes i dyrektor generalna AMD Lisa Su oficjalnie zaprezentowała produkt APU (przyspieszony procesor) nowej generacji Instinct MI300 dla centrów danych, wykorzystujący łącznie TSMC 5 nm + 6 nm Konstrukcja architektury chipletów, zintegrowany procesor i procesor graficzny, z 13 małymi chipami, z liczbą tranzystorów do 146 miliardów, wydajność AI i wydajność na wat są 8 razy i 5 razy większa niż w przypadku MI250 poprzedniej generacji (przy użyciu testu porównawczego sparsity FP8), będą produkowane masowo i dostarczane w drugiej połowie 2023 roku.

Następnie w czerwcu AMD ogłosiło także nowe układy przyspieszające sztuczną inteligencję Instinct MI300X, Instinct MI300A i inne produkty stworzone specjalnie dla generatywnej sztucznej inteligencji ze 153 miliardami tranzystorów, które poprawiły się pod względem pojemności pamięci i przepustowości połączeń. MI300X ma więcej tranzystorów niż H100 Twice i HBM3 pamięć o dużej przepustowości jest 2,4 razy większa niż H100. Duży model z 80 miliardami parametrów można uruchomić na jednym chipie i oczekuje się, że zostanie dostarczony przed końcem tego roku.

To nie tylko w pełni demonstruje możliwości technologii AI w centrach danych po przejęciu Xilinx, ale także stanowi wyzwanie dla dominacji Nvidii w dziedzinie chipów obliczeniowych AI.

Oczywiście nie chodzi tylko o procesory graficzne i chipy AI. AMD jest najlepsze w tworzeniu procesorów (jednostek centralnych). W końcu centra danych potrzebują ogólnej mocy obliczeniowej procesorów. W listopadzie ubiegłego roku AMD wypuściło czwartą generację serii EPYC 9004 do centrów danych wykorzystujących architekturę Zen 4, o nazwie kodowej „Genoa”. Su Zifeng nie tylko zaktualizował architekturę, ale także maksymalnie wykorzystał materiały na tym chipie: proces TSMC 5 nm. , 96 rdzeni, 192 wątków, 384 MB pamięci podręcznej L3 i obsługuje PCle 5.0.

W porównaniu z ośmiordzeniowymi procesorami Intela, serie procesorów AMD do centrów danych i obliczeń brzegowych znacznie poprawiły się pod względem zużycia energii i wydajności, w tym 40% zmniejszenia powierzchni chipów Genoa i 48% poprawy efektywności energetycznej.

We wrześniu tego roku firma AMD wprowadziła na rynek najnowszą serię EPYC 8004 czwartej generacji, wprowadzając rdzeń „Zen 4c” do dedykowanych procesorów, dostarczając usługi od inteligentnych urządzeń brzegowych (takich jak handel detaliczny, produkcja i telekomunikacja) po centra danych, przetwarzanie w chmurze i inne pola.

W rzeczywistości Amazon Cloud AWS wypuściło ogólną instancję obliczeniową opartą na Genoa M7A. Ostateczne wyniki wykazały, że wydajność wzrosła o 50% w porównaniu z poprzednią generacją w porównaniu z wersją Intel Xeon Platinum Edition 8490H czwartej generacji w scenariuszach wielu zastosowań Poprawa jest 1,7-1,9 razy, a ogólna efektywność energetyczna poprawia się 1,8 razy. Jest w pełni stosowany w dziedzinach obliczeń o wysokiej wydajności, takich jak modelowanie finansowe, symulacja pogody oraz badania i rozwój leków. Ponadto w przypadku obciążenia bramy IoT Edge najnowszy ośmiordzeniowy serwer wyposażony w procesor EPYC 8024P zapewnia również około 1,8 razy większą całkowitą przepustowość na szafę o mocy 8 kW.

Ogólnie rzecz biorąc, niezależnie od tego, czy jest to procesor, procesor graficzny, FPGA, procesor DPU dla centrum danych, czy też system AMD ROCm z narzędziem do stosu oprogramowania, AMD jest gotowe i „ostrzy swój miecz”, aby rzucić wyzwanie produktom Nvidii.

Jako chipowy gigant działający od ponad 60 lat, Intel nie chce „oddawać rynku innym”.

11 lipca tego roku gigant chipów Intel Corporation (Intel) wypuścił na rynek chiński w Pekinie chip AI Habana Gaudi2, wykorzystujący proces 7 nm. Może on uruchamiać duże modele językowe, przyspieszać szkolenie i wnioskowanie AI oraz ma wydajność na wat około 100% przy uruchomieniu ResNet-50. Jest to 2 razy więcej niż w przypadku NVIDIA A100, a jego stosunek ceny do wydajności jest o 40% wyższy niż rozwiązań opartych na NVIDIA w chmurze AWS. Oczekuje się, że przewyższy najnowszy H100 firmy NVIDIA cena/wydajność we wrześniu tego roku.

Sandra Rivera, wiceprezes wykonawczy Intela, powiedziała TMTpost w lipcu tego roku, że jedna firma nie jest w stanie zdominować rynku chipów AI. Ponieważ rynek potrzebuje różnorodności, a klienci chcą także, aby więcej firm zajmujących się chipami przejęło wiodącą rolę w dziedzinie sztucznej inteligencji.

Dyrektor generalny Intela, Pat Gelsinger

We wrześniu na konferencji poświęconej innowacjom technologicznym Intel On, która odbyła się w San Jose w USA, Kissinger ogłosił, że chip AI Gaudi 3 wykorzystujący proces 5 nm zostanie wprowadzony na rynek w przyszłym roku, a jego moc obliczeniowa będzie dwukrotnie większa niż Gaudi 2 i przepustowość sieci, HBM. Pojemność będzie 1,5 razy większa.

W tym samym czasie Gelsinger zaprezentował także skalowalny procesor serwerowy Intel Xeon piątej generacji, mówiąc, że Xeon nowej generacji będzie miał 288 rdzeni, co ma zwiększyć gęstość szafy serwerowej 2,5 razy i wydajność na wat 2,4 razy. Ponadto Intel wypuścił także Sierra Forest i Granite Rapids, które mają zwiększyć wydajność AI od 2 do 3 razy w porównaniu z Xeonami czwartej generacji.

Dyrektor ds. technologii Alibaba Cloud, Zhou Jingren, powiedział, że Alibaba wykorzystuje procesory Intel Xeon czwartej generacji do swoich generatywnych modeli sztucznej inteligencji i dużych modeli językowych, a mianowicie „Alibaba Cloud Tongyi Qianwen Large Model”, a technologia Intel znacznie skróciła czas reakcji modelu, średni przyspieszenie może osiągnąć 3 razy.

Ponadto w przypadku szkolenia dużych modeli sztucznej inteligencji ważniejszy jest ekosystem oprogramowania. Intel ogłosił współpracę z firmą Arm w celu wdrożenia swoich produktów Xeon na procesorze Arm, a także uruchomił OpenVINO, pakiet narzędzi wykonawczych do wnioskowania i wdrażania AI, który nie tylko obsługuje wstępnie wytrenowane modele, ale także wymaga jednorazowego napisania, aby wdrożyć dowolne dostępne kluczowa obsługa wielu platform, obsługiwany był model Meta Llama 2.

Jednocześnie Linux Foundation ogłosiła w tym tygodniu utworzenie fundacji Unified Acceleration (UXL), która ma zapewnić model programowania akceleratorów w otwartym standardzie, upraszczający tworzenie wysokowydajnych aplikacji wieloplatformowych ewolucja programu Intel oneAPI Członkowie-założyciele to Arm, Google Cloud, Intel, Qualcomm, Samsung i inni – Nvidia nie jest wśród nich.

Wang Rui, starszy wiceprezes Intel Corporation i prezes Intel China, powiedział TMTpost App i innym, że Intel w przyszłości wypuści na rynek procesor z 288 rdzeniami. W przyszłości będzie coraz więcej centrów danych. Intel będzie wprowadzał na rynek produkty takie jak Gaudi3 i Falcon Shores. Matryca produktów stworzy plan działania dla przyszłego rozwoju akceleratorów i obliczeń AI.

„Wbudowaliśmy funkcje sztucznej inteligencji w chip. W zależności od różnych potrzeb wbudowane funkcje sztucznej inteligencji będą wykorzystywać różną moc obliczeniową i różne architektury, aby zapewnić wsparcie”. Wang Rui powiedział, że chodzi o centra danych, od klienta po brzeg aż do chmury, sztuczna inteligencja przeniknęła do różnych scenariuszy zastosowań; od szkoleń z modeli językowych na dużą skalę po inkluzywne szkolenia z modeli językowych na małą skalę – wpływ sztucznej inteligencji jest wszędzie.

Pod koniec sierpnia br. Kissinger wyraził przekonanie, że Intel zmierza w kierunku osiągnięcia swoich ambitnych celów restrukturyzacyjnych i przywrócenia wiodącej pozycji w branży. Mówiąc o Nvidii, Gelsinger przyznał, że Nvidia ma dobry układ i potrafi przechwycić popyt na systemy potrzebne do obsługi rozwoju oprogramowania AI, powiedział jednak, że Intel wkrótce zacznie zdobywać zamówienia na tych rynkach chipów akceleratorów.

„Wykonali świetną robotę i wszyscy ich chwalimy. Ale zaraz pokażemy naszą siłę” – powiedział Kissinger.

Wartość rynkowa NVIDII wyparowała o setki miliardów dolarów. Czy krajowe chipy mogą wykorzystać szansę?

Wydaje się, że świetne wyniki Nvidii w 2023 roku osłabły w ciągu ostatnich dwóch miesięcy.

Według danych Refinitiv, chociaż cena akcji Nvidii wzrosła w tym roku o około 190%, a jej wyniki są bardzo imponujące, we wrześniu ceny akcji Nvidii radziły sobie słabo: od 31 sierpnia cena akcji Nvidii spadła o ponad 10%, a jej całkowita wartość rynkowa wyparowała. Ponad 176 miliardów dolarów.

Tak naprawdę na spadek ceny akcji Nvidii złożyło się wiele czynników.

Po pierwsze, nasiliły się obawy rynku dotyczące utrzymywania przez Rezerwę Federalną stóp procentowych na wyższym poziomie przez dłuższy czas w celu ograniczenia inflacji, co wywarło presję na całą giełdę. Indeks S&P 500 spadł we wrześniu średnio o 0,7%, a spadł o prawie 4%. dotychczas.

Po drugie, modele open source reprezentowane przez LIama 2 były wypuszczane jeden po drugim i coraz więcej firm zaczęło używać tych modeli bezpośrednio, wymagając do stosowania jedynie chipów wnioskowujących AI, co doprowadziło do zmniejszenia zapotrzebowania na chipy do treningu mocy obliczeniowej.

Wreszcie, według The Information, Nvidia zwraca szczególną uwagę na dostawy kart graficznych dla niektórych małych i średnich firm zajmujących się przetwarzaniem w chmurze w Stanach Zjednoczonych. W obecnej sytuacji „trudno znaleźć jedną kartę”, Nvidia podąża za tym -up usługi i usługi dla dużych firm, takich jak Google, Meta i chińskie przedsiębiorstwa Dostawy kart graficznych nie wydają się już najważniejszym priorytetem, a to bezpośrednio prowadzi do wątpliwości rynku co do możliwości dostaw produktów Nvidii.

Oczywiście, pomimo swoich wad, NVIDIA ma ogromną przewagę jako pierwszy na rynku mocy obliczeniowej AI. Oprócz wiodącej wydajności układów GPU, ogromny ekosystem oprogramowania AI CUDA jest poza zasięgiem wielu ludzi. Ponadto technologia szybkich połączeń wzajemnych procesorów graficznych NVLink firmy NVIDIA stała się również „kluczową magiczną bronią” służącą udoskonaleniu technologii dużych modeli, a jej rola jest znacznie większa niż samej karty graficznej.

Założyciel i dyrektor generalny Baichuan Intelligence, Wang Xiaochuan, wspomniał kiedyś, że w tej branży koszty mocy obliczeniowej GPU stanowią około 40% -70%, a stosunek kosztów połączenia sieciowego do kosztów karty graficznej GPU wynosi około 3:1.

„Jeśli w przyszłości będziemy rozwijać się w kierunku wyższych modeli, rezerwa mocy obliczeniowej będzie bardzo krytyczna. Z punktu widzenia szkolenia i rozumowania rozumowanie wymaga krajowych chipów AI, nie tylko firmy NVIDIA, ale obecnie szkolenia najlepiej przeprowadza tylko firma NVIDIA. To „obliczenie Aby Walczcie dzielnie, krajowe chipy AI w Chinach muszą być w stanie konkurować” – powiedział Wang Xiaochuan.

W rzeczywistości, oprócz dwóch głównych gigantów chipów, w wyniku krajowej „wojny 100 trybów” zapotrzebowanie na moc obliczeniową AI wzrosło. Jednak eksport wielu chipów AI, takich jak Nvidia AI00/H100, został ograniczony. co coraz bardziej utrudnia krajowym firmom pozyskiwanie wysokiej klasy chipów z USA.

W październiku 2022 r. Biuro Przemysłu i Bezpieczeństwa (BIS) podlegające Departamentowi Handlu Stanów Zjednoczonych wydało nowe przepisy dotyczące kontroli eksportu, mające na celu ilościowe określenie mocy obliczeniowej różnych chipów, przepustowości, procesów produkcyjnych i innych wskaźników oraz ograniczenie eksportu amerykańskich firm do Chin, w tym ograniczenia dotyczące chipów o dużej mocy obliczeniowej, bezpośrednio wpływające na rozwój chińskiej sztucznej inteligencji, superkomputerów, centrów danych i innych powiązanych branż. NVIDIA, producent procesorów graficznych, który zaspokaja głównie potrzeby sztucznej inteligencji i innych aplikacji, otrzymał w sierpniu zawiadomienie od rządu USA nakazujące ograniczenie eksportu zaawansowanych chipów.

Nvidia zareagowała szybko i w trzecim kwartale 2022 roku wprowadziła do produkcji chip A800, aby zastąpić A100, którego nie można już wysyłać do Chin. Jest to jednocześnie pierwszy produkt w „ofercie specjalnej” wprowadzony na rynek w tym celu przez amerykańską firmę. NVIDIA nie opublikowała szczegółowych parametrów dotyczących A800, jednak instrukcja produktu dostarczona przez jej dealerów pokazuje, że szczytowa moc obliczeniowa A800 jest zgodna z A100, która jest ograniczona do eksportu, ale szybkość transmisji jest ograniczona do dwóch trzecich wartości. aby A100 spełniał odpowiednie wymagania rządu USA. Treningowa moc obliczeniowa najnowszego H800 „China Special Edition” jest o około 40% gorsza niż H100. Bez modułu połączeniowego dostarczonego przez firmę NVIDIA różnica w mocy obliczeniowej może sięgać ponad 60%.

Intel wprowadzi chińską wersję swojego produktu Gaudi 2 w lipcu 2023 r. Gaudi 2 to układ ASIC (ApplicationSpec Integrated Circuit) przeznaczony głównie do wysokowydajnego szkolenia AI w zakresie głębokiego uczenia się. W porównaniu z ogłoszoną w maju 2022 roku wersją międzynarodową, liczba zintegrowanych portów Ethernet w chińskiej wersji Gaudi 2 została zmniejszona z 24 do 21. Intel twierdził wówczas, że jest to stosunkowo niewielka zmiana, mająca ograniczony wpływ na rzeczywistą wydajność. Kissinger oświadczył niedawno, że firma sprzedaje obecnie chińską wersję Gaudiego 2 w Chinach i ma nadzieję, że będzie to kontynuować w przyszłości.

Dlatego też pod wpływem ograniczeń dotyczących zagranicznych chipów krajowe firmy dostarczające moc obliczeniową sztucznej inteligencji, takie jak Huawei, Tianshu Zhixin, Cambrian i Denglin Technology, aktywnie wdrożyły rozwiązania, aby wypełnić lukę w krajowej mocy obliczeniowej sztucznej inteligencji.

Obecnie krajowy rynek mocy obliczeniowej AI dzieli się głównie na trzy główne frakcje: jedna to rozwiązanie mocy obliczeniowej ekosystemu Huawei Kunpeng i Ascend AI, które nie wymaga udziału procesora graficznego NVIDIA; druga to hybrydowa obsługa mocy obliczeniowej, która wykorzystuje dużą liczbę chipów NVIDIA A100, a w niektórych środowiskach dodawane są procesory AMD, Intel, Tianshu Intelligent Core, Cambrian, Haiguang i inne w celu wsparcia szkolenia dużych modeli Trzecia, bardziej opłacalna moc obliczeniowa serwera w chmurze; uzupełnić braki mocy obliczeniowej.

Podczas 19. letniego szczytu Forum Przedsiębiorców Yabuli China 2023, który odbył się w sierpniu tego roku, założyciel i prezes iFlytek Liu Qingfeng powiedział, że możliwości techniczne procesorów graficznych Huawei są obecnie porównywalne z procesorem NVIDIA A100 i przeprowadzono obecnie testy porównawcze z procesorem NVIDIA A100.

20 września wiceprezes Huawei, prezes rotacyjny i dyrektor finansowy Meng Wanzhou powiedziała, że ​​Huawei uruchomił klaster obliczeniowy Ascend AI z nową architekturą, która może obsługiwać szkolenie dużych modeli z ponad bilionem parametrów. Huawei będzie nadal budować solidną bazę mocy obliczeniowej.

Gai Lujiang, prezes i dyrektor generalny Tianshu Zhixin, ujawnił, że obecnie wiele krajowych firm zajmujących się dużymi modelami zaczęło używać krajowych kart graficznych GPU, a firma wspierała ukończenie szkolenia dużych modeli z 7 miliardami parametrów. Ponadto większość innych krajowych producentów procesorów graficznych jest na etapie szkolenia w zakresie wnioskowania AI.

Galujiang uważa, że ​​w Chinach udział Nvidii w rynku w dziedzinie szkoleń wynosi aż ponad 95%, a niektóre sięgają 99%, a w zasadzie osiągnęła ona monopol dzięki swojej architekturze sprzętowej i szeroko stosowanemu ekosystemowi CUDA. ma ponad 300 milionów użytkowników na całym świecie. Obecnie krajowe firmy produkujące procesory graficzne borykają się z problemami migracji ekologicznej. Ze względu na dużą liczbę kodów opartych na CUDA, przejście na nowy ekosystem będzie wymagało dużo czasu i kosztów.

Podczas niedawnego wydarzenia okrągłego stołu Wang Ping, współzałożyciel i główny architekt Denglin Technology wspomniał, że klienci AIGC potrzebują nie tylko rozwiązań, takich jak generowanie tekstu i generowania obrazów, ale, co ważniejsze, praktycznych produktów. Dlatego konieczne jest wdrożenie produktów mocy obliczeniowej o dużej mocy obliczeniowej i dużej wszechstronności, aby stworzyć wartość dla klientów. Według doniesień, produkty z chipami AI nowej generacji firmy Denglin Technology charakteryzują się ponad trzykrotnie większym zużyciem energii w porównaniu z międzynarodowymi, głównymi produktami GPU ogólnego przeznaczenia.

Galujiang powiedział, że dla Tianshu Zhixin kolejnym krokiem jest optymalizacja iteracji produktu, co wymaga polegania na danych, opiniach klientów i innowacjach technologicznych oraz wprowadzania dostosowań w celu zaspokojenia specjalnych potrzeb krajowych. Jednocześnie firma będzie aktywnie ulepszać ekosystem i stos oprogramowania, aby zapewnić użytkownikom najlepsze doświadczenia pod względem wydajności, kosztów, wydajności i stosunku ceny do wydajności, co będzie sprzyjać dalszej komercjalizacji produktów.

Wang Ping uważa, że ​​w związku ze zwiększonymi trudnościami w pozyskaniu wysokiej klasy chipów ze Stanów Zjednoczonych, choć żadna krajowa firma nie jest w stanie wyprodukować chipów, które naprawdę je zastąpią, wierzy, że krajowa moc obliczeniowa będzie nadal rosła. Chipy wymagają ciągłej iteracji. Im więcej użytkowników i więcej informacji zwrotnych na temat problemów, tym więcej krajowych producentów chipów AI będzie w stanie ulepszyć i poprawić komfort użytkowania w kolejnych iteracjach.

„To wielka szansa dla krajowych producentów procesorów graficznych ogólnego przeznaczenia” – Galujiang powiedział TMTpost Media App.