Fuente de la reimpresión del artículo: La tendencia de la IA

Autor: Lin Zhijia

Fuente: TMTpost Media

A medida que Nvidia toma la delantera en la ocupación del mercado de chips de potencia informática de modelos grandes de IA, su valor de mercado supera el billón. Al mismo tiempo, Intel, AMD y las empresas chinas de chips GPU también compiten en secreto con la esperanza de obtener una parte del mercado de chips de potencia de computación de IA.

El 19 de septiembre, en la conferencia de innovación tecnológica Intel On celebrada en San José, Estados Unidos, el director ejecutivo de Intel, Pat Gelsinger, de 62 años, estaba "lleno de energía" y comenzó su discurso con flexiones.

En esta reunión, Gelsinger lanzó una serie de nuevos productos tecnológicos de una vez: el procesador Intel Core Ultra basado en el proceso Intel 4 (5 nm), cuyo nombre en código es "Meteor Lake", presentó una vista previa del chip de servidor Xeon de quinta generación y la hoja de ruta de los productos Xeon posteriores; ; reveló el chip AI de 5 nm Gaudí 3, etc.

El director ejecutivo de Intel, Pat Gelsinger, hace flexiones en el lugar

En comparación con años anteriores, esta vez Kissinger se transformó en un hombre con chaqueta de cuero y habló sobre el impacto del poder computacional de la IA en la economía durante casi dos horas. Según las estadísticas de Titanium Media App, Kissinger mencionó términos relacionados con "inteligencia artificial" y "aprendizaje profundo" unas 200 veces en su discurso.

Casi al mismo tiempo, AMD, un competidor de Intel y Nvidia, lanzó el último chip de CPU (unidad central de procesamiento) EPYC 8004 y se espera que envíe los chips AI de la serie MI300 antes de fin de año para competir con Nvidia. Además, en China, los fabricantes de chips de IA, incluidos Huawei y Tianshu Zhixin, también están implementando activamente productos de entrenamiento de modelos a gran escala, inferencia y potencia informática de IA.

“Estamos en una competencia muy feroz con Nvidia, el líder del mercado en chips informáticos de IA. Pero tanto Gaudi2 como Gaudi3 son un gran paso adelante. Estamos ganando impulso y el mercado está empezando a darse cuenta de que existe un líder en chips de IA. "Hay otra oportunidad", dijo Kissinger a CNBC el 20 de septiembre.

A medida que se intensifica la competencia en el mercado, es difícil para Huang monopolizar billones de potencia informática de IA.

Desde 2023 hasta el presente, la "locura" de los grandes modelos de IA representada por ChatGPT ha arrasado el mundo, y los grandes modelos están impulsando a la IA a desarrollarse en una dirección más general.

Al mismo tiempo, la escasez y el alto costo del poder computacional se han convertido en factores centrales que restringen el desarrollo de la IA. La potencia informática también se ha convertido en una piedra angular importante para la transformación digital e inteligente de toda la sociedad, impulsando así un aumento de la demanda de potencia informática inteligente.

Según los datos proporcionados por la directora ejecutiva de AMD, Lisa Su, el mercado potencial total de aceleradores de IA en los centros de datos globales alcanzará unos 30 mil millones de dólares en 2023, y se espera que supere los 150 mil millones de dólares en 2027. Aproximadamente 1,095 billones de RMB), con un crecimiento compuesto anual. tasa de más del 50%.

Manuvir Das, vicepresidente de informática empresarial de Nvidia, presentó otro conjunto de datos que muestran que se espera que el mercado total direccionable (TAM) para IA crezca a 600 mil millones de dólares. De esta cantidad, los chips y sistemas pueden obtener 300 mil millones de dólares, el software de inteligencia artificial generativa puede obtener 150 mil millones de dólares y los 150 mil millones restantes serán aportados por el software empresarial de Nvidia.

Es evidente que el mercado de chips informáticos para IA es un gran "pastel".

Pero en la actualidad, NVIDIA ocupa el 82% del mercado global de aceleración de IA en centros de datos y monopoliza el mercado global de entrenamiento de IA con una participación de mercado del 95%, convirtiéndose en el mayor ganador en esta ronda de combate cuerpo a cuerpo de IA. Huang Renxun y su empresa Nvidia están haciendo una fortuna, con un valor de mercado que supera el billón de dólares.

Al mismo tiempo, el aumento de la demanda de potencia informática ha provocado directamente una escasez de GPU (unidades de procesamiento gráfico) de Nvidia. El número de tarjetas gráficas NVIDIA A100 se ha convertido en el estándar para medir la potencia informática de una empresa.

De hecho, si una empresa quiere desarrollar un modelo de gran tamaño y uso general, primero debe centrarse en dos puntos en términos de potencia de cálculo: la cantidad y el precio de las tarjetas gráficas.

En términos de la cantidad de tarjetas gráficas, OpenAI utilizó entre 10.000 y 30.000 GPU NVIDIA para entrenar el modelo GPT-3.5. Según el último informe de TrendForce, si se calcula en función de la potencia de procesamiento de las tarjetas gráficas NVIDIA A100, ejecutar ChatGPT puede requerir el uso de 30 000 tarjetas gráficas GPU NVIDIA. En términos de modelos de código abierto, el modelo Llama está entrenado en 2048 A100 de 80 GB, y toda la potencia informática de entrenamiento es cercana a 2000 PTOPS.

En términos de precio, el precio actual del H800 disponible en China es de hasta 200.000 yuanes por pieza, mientras que el precio del A100/A800 ha aumentado a alrededor de 150.000 yuanes y 100.000 yuanes por pieza. Si tomamos como ejemplo la demanda de potencia de cálculo de 2000P, la potencia de cálculo de una sola tarjeta GPU H800 es de 2P y se necesitan 1000 tarjetas. El precio estimado de toda la tarjeta es de 200 millones de yuanes; la potencia de cálculo de una sola tarjeta A800 es de 20 ... Aproximadamente 0,625 P y la cantidad requerida es 3200. El precio estimado de toda la tarjeta gráfica es de 320 millones de yuanes.

Además de comprar tarjetas gráficas GPU, el servidor también debe considerar la configuración general de la máquina y el procesamiento, incluyendo CPU, almacenamiento, conexión de comunicación NV-Link, así como factores como el consumo de energía, alquiler del sitio y costos de operación y mantenimiento.

En la actualidad, los servidores A800 y H800 son principalmente modelos de 8 tarjetas. Para alcanzar la potencia de cálculo de 2000 P, es necesario configurar 125 servidores H800 de 8 tarjetas o 400 servidores A800 de 8 tarjetas, con precios de 300 millones de yuanes. y 560 millones de yuanes respectivamente. Yuan. Además, dado que el H800 también es compatible con PCIe 5.0, una nueva generación de CPU y memoria, etc., es necesario aumentar el precio para lograr su rendimiento informático óptimo.

Por lo tanto, desde la perspectiva del entrenamiento de modelos a gran escala, el costo total de comprar H800 es menor que el de A800, que es más rentable y menor que el costo de construir una CPU; esto es lo que el CEO de Nvidia, Huang Renxun, solía decir recientemente: "El "cuanto más compres, más obtendrás". cuanto más ahorras".

Por supuesto, está bien si realmente no puedes permitírtelo. NVIDIA también lanzó un servicio de alquiler en línea del sistema informático DGX super AI, que está abierto a las empresas a través del arrendamiento. Está equipado con 8 GPU H100 o A100, cada nodo tiene 640 GB de memoria y la tarifa de alquiler mensual es de US$37.000, por lo que hay No es necesario generar datos por cuenta propia. El centro compró una gran cantidad de tarjetas gráficas GPU. Este tipo de leasing tiene un margen de beneficio bruto muy elevado. Según un informe sobre el servicio de "leasing de potencia informática en la nube" de Microsoft, el margen de beneficio bruto de este negocio llega al 42%, lo que lo convierte en la nueva "gallina de los huevos de oro" de Microsoft.

En el mercado nacional, InnoBet, SenseTime AIDC y más de 11 proveedores de centros de computación inteligente y de nube también ofrecen servicios similares. Para los modelos grandes, el precio total es más de un 20 % inferior al precio de fabricación propia.

Además, hay un gran tiempo de entrenamiento del modelo. La última GPU NVIDIA L40S de NVIDIA es más eficiente en el entrenamiento de modelos que la A800/H800. Un modelo con 7 mil millones de parámetros tarda 17 horas en ejecutarse en HGX A800, mientras que L40S es 1,3 veces más rápido y se puede completar en solo medio día. Sin mencionar un modelo con 175 mil millones de parámetros, que se puede entrenar en un fin de semana en L40S. . encima.

En general, si una empresa quiere construir un modelo grande, necesita gastar cientos de millones de yuanes en costos de potencia informática, y esto es sólo el "boleto de entrada".

Según noticias anteriores, Baidu, ByteDance, Tencent y Alibaba han realizado pedidos de chips a Nvidia por valor de 5.000 millones de dólares. Si sumamos la cantidad de tarjetas gráficas que ya tenía en stock, la cantidad total de tarjetas gráficas GPU de Nvidia en China supera los 100.000 millones de yuanes. La firma de investigación de mercado Counterpoint publicó un informe que dice que, aunque la desaceleración cíclica en la industria de los semiconductores no se ha detenido, empresas chinas como Tencent y Baidu todavía están comprando chips Nvidia A800 en grandes cantidades.

Por lo tanto, en un mercado tan importante con una escala de un billón de dólares, ni las compañías de chips ni los clientes finales quieren ver a Nvidia dominar el mercado en solitario. Por lo tanto, AMD, Intel y las empresas chinas de chips GPU han intentado desafiar el dominio de Nvidia en el mercado de chips de IA.

AMD atacó primero.

En términos de chips de IA, en el Consumer Electronics Show (CES) de 2023 en enero de este año, la presidenta y directora ejecutiva de AMD, Lisa Su, lanzó oficialmente el producto APU (unidad de procesamiento acelerado) de próxima generación Instinct MI300 para centros de datos, utilizando 5 nm + 6 nm de TSMC. Diseño de arquitectura Chiplet combinada, CPU y GPU integradas, con 13 chips pequeños, la cantidad de transistores es tan alta como 146 mil millones, el rendimiento de IA y el rendimiento por vatio son 8 veces y 5 veces mayores que los de la generación anterior MI250 (usando el punto de referencia FP8 escaso) Se pondrá en producción en masa y se suministrará en la segunda mitad de 2023.

En junio, AMD también anunció nuevos chips de aceleración de IA, Instinct MI300X e Instinct MI300A, diseñados específicamente para IA generativa y que cuentan con 153 mil millones de transistores. Tienen una capacidad de almacenamiento y un ancho de banda de interconexión mejorados. La cantidad de transistores en MI300X es mayor que en H100. La memoria de alto ancho de banda del HBM3 es 2,4 veces mayor que la del H100. Se espera que un modelo grande con 80 mil millones de parámetros se pueda ejecutar en un solo chip y esté listo para su envío antes de fin de año.

Esto no solo demuestra plenamente las capacidades de la tecnología de IA del centro de datos después de la adquisición de Xilinx, sino que también desafía el dominio de Nvidia en los chips de computación de IA.

Por supuesto, no se trata solo de chips de GPU y de IA. AMD se destaca en la fabricación de chips de CPU (unidad central de procesamiento). Después de todo, los centros de datos necesitan la potencia informática general de la CPU. El pasado mes de noviembre, AMD lanzó la serie EPYC 9004 de centros de datos de cuarta generación con arquitectura Zen 4, cuyo nombre en código es "Genoa". No solo se actualizó la arquitectura, sino que Su Zifeng también acumuló materiales en este chip hasta el extremo: TSMC Proceso de 5 nm, 96 núcleos, 192 subprocesos, 384 M de caché L3 y compatible con PCle5.0.

En comparación con el procesador de ocho núcleos de Intel, las series de CPU para computación de borde y centro de datos de AMD han mejorado enormemente en consumo de energía y rendimiento, incluida una reducción del 40% en el área del chip Genoa y un aumento del 48% en la eficiencia energética.

En septiembre de este año, AMD lanzó la última serie EPYC 8004 de cuarta generación, introduciendo el núcleo "Zen 4c" en CPU dedicadas, brindando servicios desde el borde inteligente (como venta minorista, fabricación y telecomunicaciones) hasta centros de datos, computación en la nube y Otros campos.

De hecho, Amazon Cloud AWS ha lanzado una instancia de computación de propósito general basada en Genoa M7A. Los resultados finales muestran que el rendimiento es un 50% superior al de la generación anterior. En comparación con la versión Xeon Platinum 8490H de cuarta generación de Intel, el rendimiento de Genoa en múltiples La eficiencia energética general es 1,8 veces mayor que la de la generación anterior, con una mejora de hasta 1,7-1,9 veces. Se utiliza plenamente en campos de computación de alto rendimiento, como el modelado financiero, la meteorología, etc. simulación y desarrollo de fármacos. Además, en la carga de trabajo del gateway IoT Edge, los últimos servidores con tecnología EPYC 8024P de ocho núcleos también proporcionan aproximadamente 1,8 veces el rendimiento total por rack de 8 kW.

En general, ya sea CPU, GPU, FPGA, procesador de centro de datos DPU o herramienta de pila de software del sistema AMD ROCm, AMD está listo y está "afilando sus cuchillos" para desafiar los productos de Nvidia.

Como gigante de los chips que lleva más de 60 años en el mercado, Intel no quiere "cederlo" a otros.

El 11 de julio de este año, el gigante de los chips Intel lanzó el chip de inteligencia artificial de 7 nm Habana Gaudi2 para el mercado chino en Pekín. Puede ejecutar modelos de lenguaje de gran tamaño, acelerar el entrenamiento y el razonamiento de la IA y ejecutar ResNet-50 con un rendimiento por vatio de aproximadamente 1,5 veces El chip original es el doble de potente que el NVIDIA A100 y su relación precio/rendimiento es un 40% superior a la de las soluciones basadas en NVIDIA en la nube de AWS. Se espera que supere al último H100 de NVIDIA en relación precio/rendimiento. en septiembre de este año.

La vicepresidenta ejecutiva de Intel, Sandra Rivera, dijo a Titanium Media App en julio de este año que es imposible que una sola empresa domine el mercado de chips de inteligencia artificial. Porque el mercado necesita diversidad y los clientes también quieren ver más empresas de chips liderar el campo de la IA.

Pat Gelsinger, director ejecutivo de Intel

En septiembre, en la Intel On Technology Innovation Conference celebrada en San José (Estados Unidos), Kissinger anunció que el chip de IA Gaudi 3, que utiliza el proceso de 5 nm, se lanzará al mercado el próximo año. Para entonces, su potencia de cálculo será el doble de la del Gaudi 2. , y su ancho de banda de red y HBM serán La capacidad será 1,5 veces.

Al mismo tiempo, Kissinger también presentó una vista previa del procesador de servidor escalable Intel Xeon de quinta generación y dijo que el Xeon de próxima generación tendrá 288 núcleos, lo que se espera que aumente la densidad del rack en 2,5 veces y el rendimiento por vatio en 2,4 veces. Además, Intel también lanzó Sierra Forest y Granite Rapids, y se espera que el rendimiento de la IA aumente de 2 a 3 veces en comparación con el Xeon de cuarta generación.

El director de tecnología de Alibaba Cloud, Zhou Jingren, dijo que Alibaba utiliza el procesador Intel Xeon de cuarta generación para su modelo de lenguaje grande e inteligencia artificial generativa, el Alibaba Cloud Tongyi Thousand Questions Large Model, y la tecnología Intel ha reducido significativamente el tiempo de respuesta del modelo. La aceleración promedio puede alcanzar 3 veces.

Además, para el entrenamiento de modelos de IA de gran tamaño, el ecosistema de software es más importante. Intel anunció una colaboración con Arm para implementar sus productos Xeon en CPU Arm y lanzó OpenVINO, un kit de herramientas de inferencia e implementación de IA que no solo admite modelos entrenados previamente, sino que también permite la implementación de cualquier soporte multiplataforma clave disponible con solo una escritura. . , Ahora es compatible el modelo Llama 2 de Meta.

Al mismo tiempo, la Fundación Linux también anunció esta semana la creación de la Fundación Unified Accelerator (UXL), que proporciona un modelo de programación de acelerador estándar abierto para simplificar el desarrollo de aplicaciones multiplataforma de alto rendimiento. El objetivo es acelerar La evolución del programa oneAPI de Intel. Entre los miembros fundadores se encuentran Arm, Google Cloud, Intel, Qualcomm, Samsung y otras empresas (Nvidia no está entre ellas).

Wang Rui, vicepresidente senior de Intel Corporation y presidente de Intel China, dijo a Titanium Media App y otros que Intel lanzará un procesador con 288 núcleos en el futuro. En el futuro habrá cada vez más centros de datos. Intel lanzará productos como Gaudi3 y Falcon Shores. La matriz de productos constituirá una hoja de ruta para el desarrollo futuro de aceleradores y computación de IA.

"Hemos incorporado capacidades de IA en el chip. Dependiendo de las diferentes necesidades, las capacidades de IA incorporadas utilizarán diferentes potencias informáticas y diferentes arquitecturas para brindar soporte". Wang Rui dijo que en el centro de datos, desde el cliente hasta el borde, y luego a la nube, la IA ha penetrado en varios escenarios de aplicación; desde el entrenamiento de modelos de lenguaje a gran escala hasta el entrenamiento de modelos de lenguaje inclusivos a pequeña escala, la influencia de la IA está en todas partes.

A finales de agosto de este año, Kissinger dijo que creía que Intel estaba en camino de alcanzar sus ambiciosos objetivos de reestructuración y avanzar hacia la recuperación de su posición de liderazgo en la industria. Al hablar de Nvidia, Gelsinger reconoció que Nvidia está bien posicionada para capturar la demanda de sistemas necesarios para respaldar la expansión del software de IA, pero dijo que Intel pronto comenzará a ganar pedidos en el mercado de estos chips aceleradores.

"Han hecho un gran trabajo y todos los elogiamos, pero estamos a punto de demostrar nuestra fuerza", dijo Kissinger.

El valor de mercado de Nvidia se ha evaporado en 100.000 millones de dólares. ¿Pueden los chips nacionales aprovechar la oportunidad?

El brillante desempeño de Nvidia en 2023 parece haberse debilitado en los últimos dos meses.

Según datos de Refinitiv, aunque el precio de las acciones de Nvidia ha aumentado aproximadamente un 190% este año, su precio de las acciones ha tenido un mal desempeño en septiembre: desde el 31 de agosto, el precio de las acciones de Nvidia ha caído más del 10% y su valor de mercado total se ha evaporado. Más de 176 mil millones de dólares.

De hecho, hay muchos factores que llevaron a la caída del precio de las acciones de Nvidia.

En primer lugar, se han intensificado las preocupaciones del mercado de que la Reserva Federal mantendrá los tipos de interés en un nivel más alto durante más tiempo para frenar la inflación, y todo el mercado de valores se ha visto sometido a presiones. El índice S&P 500 ha caído una media del 0,7% en septiembre y Ha caído casi un 4% hasta ahora.

En segundo lugar, los modelos de código abierto representados por LIama 2 se han lanzado uno tras otro, y más empresas han comenzado a usar estos modelos directamente, lo que solo requiere chips de inferencia de IA para aplicarlos, lo que ha llevado a una reducción en la demanda de chips de entrenamiento de potencia informática. .

Por último, según The Information, Nvidia ha estado prestando mucha atención a la situación del suministro de tarjetas gráficas de algunas pequeñas y medianas empresas de computación en la nube en los Estados Unidos. En la situación actual en la que "es difícil conseguir una tarjeta", la Los servicios de seguimiento y soporte de grandes empresas como Google y Meta, así como las empresas chinas, siguen en estado de pánico. El suministro de tarjetas gráficas ya no parece ser la máxima prioridad, lo que conduce directamente a las dudas del mercado. sobre las capacidades de suministro de productos de Nvidia.

Por supuesto, los méritos superan a los defectos, y Nvidia tiene una enorme ventaja de ser pionero en el mercado de potencia informática de IA. Además del rendimiento líder de su chip GPU, su enorme ecosistema de software de inteligencia artificial CUDA está fuera del alcance de muchas personas. Además, la tecnología de interconexión de GPU de alta velocidad NVLink de NVIDIA también se ha convertido en un "arma mágica clave" para mejorar la tecnología de modelos grandes, y su función es mucho mayor que la de la propia tarjeta GPU.

Wang Xiaochuan, fundador y director ejecutivo de Baichuan Intelligence, mencionó una vez que en la industria, el costo de potencia informática de la GPU representa aproximadamente el 40% - 70%, y la relación entre el costo de la conexión de red y el costo de la tarjeta gráfica GPU es de aproximadamente 3:1.

"Si queremos desarrollar modelos superiores en el futuro, las reservas de potencia de cálculo son muy importantes. Desde la perspectiva del entrenamiento y el razonamiento, el razonamiento requiere chips de IA nacionales, no solo NVIDIA, pero el entrenamiento lo realiza actualmente NVIDIA mejor. La IA de producción nacional de China "Los chips deben poder tomar la delantera", dijo Wang Xiaochuan.

De hecho, además de los dos grandes gigantes de los chips, con la "guerra de los cien modelos" doméstica, la demanda de potencia informática de IA ha aumentado, pero Nvidia AI00/H100 y otros chips de IA tienen restringida su exportación a China, lo que hace que sea cada vez más difícil Es difícil para las empresas nacionales obtener chips estadounidenses de alta gama.

En octubre de 2022, la Oficina de Industria y Seguridad (BIS) del Departamento de Comercio de EE. UU. emitió nuevas regulaciones de control de exportaciones, cuantificando varios indicadores de potencia de procesamiento de chips, ancho de banda, proceso y otros para restringir las exportaciones de las empresas estadounidenses a China, incluidas las restricciones a los altos -chips informáticos, lo que impacta directamente en el desarrollo de la inteligencia artificial, la supercomputación, los centros de datos y otras industrias relacionadas de China. Nvidia, fabricante de GPU (unidad de procesamiento gráfico) que atiende principalmente las necesidades de IA y otras industrias, recibió en agosto un aviso del gobierno estadounidense restringiendo la exportación de chips avanzados.

Nvidia respondió rápidamente y puso en producción el chip A800 en el tercer trimestre de 2022 para reemplazar al A100, que ya no podía enviarse a China. Se trata también del primer producto "especialmente suministrado" lanzado por una empresa americana para este fin. Nvidia no ha publicado los parámetros detallados del A800, pero el manual del producto proporcionado por sus distribuidores muestra que la potencia de cálculo máxima del A800 es la misma que la del A100, que está restringida para la exportación, pero la velocidad de transmisión está limitada a dos -tercios del A100 para cumplir con los requisitos gubernamentales pertinentes de EE. UU. La última edición especial china del H800 tiene una capacidad de procesamiento de entrenamiento que es aproximadamente un 40 % inferior a la del H100. Sin los módulos de interconexión proporcionados por NVIDIA, la brecha de capacidad de procesamiento puede alcanzar más del 60 %.

Intel lanzará la versión china de su producto Gaudi 2 en julio de 2023. Gaudi 2 es un chip ASIC (circuito integrado de aplicación específica) que está diseñado principalmente para el entrenamiento de IA de aprendizaje profundo de alto rendimiento. En comparación con la versión internacional anunciada en mayo de 2022, el número de puertos Ethernet integrados en la versión china de Gaudi 2 se ha reducido de 24 a 21. Intel dijo en ese momento que se trataba de un cambio relativamente pequeño con un impacto limitado en el rendimiento real. Kissinger dijo recientemente que la compañía actualmente está vendiendo la versión china de Gaudí 2 en China y que espera continuar haciéndolo en el futuro.

Por lo tanto, bajo la influencia de las restricciones a los chips extranjeros, las empresas nacionales de computación de IA como Huawei, Tianshu Zhixin, Cambrian y Denglin Technology han elaborado planes activos para llenar el vacío en el poder de computación de IA nacional.

En la actualidad, el mercado nacional de potencia informática de IA se divide principalmente en tres facciones: la primera es la solución de potencia informática del ecosistema de IA de Huawei Kunpeng y Shengteng, que no involucra la GPU NVIDIA; la segunda es el soporte de potencia informática híbrida, que utiliza una gran Se agregan varios chips NVIDIA A100 y chips como AMD, Intel, Tianshu Zhixin, Cambrian y Haiguang a algunos entornos para respaldar el entrenamiento de modelos grandes; en tercer lugar, se alquila potencia de computación en la nube de servidor más rentable para complementar la computación insuficiente. fuerza.

En la 19.ª Cumbre de verano del Foro de empresarios de Yabuli China 2023, celebrada en agosto de este año, Liu Qingfeng, fundador y presidente de iFlytek, dijo que las capacidades de la tecnología GPU de Huawei ahora son comparables a las de NVIDIA A100, y ahora ha logrado una evaluación comparativa con NVIDIA. A100 .

El 20 de septiembre, el vicepresidente, presidente rotatorio y director financiero de Huawei, Meng Wanzhou, dijo que Huawei lanzó el clúster informático Ascend AI con una nueva arquitectura que puede soportar el entrenamiento de modelos grandes con más de un billón de parámetros. Huawei continuará construyendo una base sólida de poder computacional.

Gai Lujiang, presidente y director ejecutivo de Tianshu Zhixin, reveló que actualmente, muchas empresas nacionales de modelos grandes han comenzado a utilizar tarjetas gráficas GPU nacionales y la empresa ha apoyado la finalización del entrenamiento de modelos grandes con 7 mil millones de parámetros. Además, la mayoría de las demás empresas nacionales de GPU se encuentran en la etapa de entrenamiento de inferencia de IA.

Gai Lujiang cree que en China, la participación de mercado de NVIDIA en el campo de la capacitación es tan alta como más del 95%, y en algunos casos tan alta como el 99%, logrando básicamente un monopolio, lo que se debe principalmente a su arquitectura de hardware y al ecosistema CUDA ampliamente utilizado. - más de 300 millones de usuarios en todo el mundo. En la actualidad, las empresas de GPU nacionales se enfrentan al problema de la migración ecológica. Debido a la gran cantidad de códigos basados ​​en CUDA, el cambio a una nueva ecología requerirá mucho tiempo y dinero.

En una mesa redonda reciente, Wang Ping, cofundador y arquitecto jefe de Denglin Technology, mencionó que los clientes de AIGC no solo necesitan soluciones como generación de texto para imágenes, sino más importante aún, productos prácticos. Por lo tanto, se necesitan productos informáticos con gran potencia de cálculo y gran versatilidad para ponerlos en uso práctico y crear valor para los clientes. Se informa que la nueva generación de productos de chips de inteligencia artificial de Denglin Technology tiene una ventaja de consumo de energía de más de 3 veces la de los productos GPU de propósito general convencionales internacionales.

Gai Lujiang dijo que para Tianshu Zhixin, el siguiente paso es optimizar las iteraciones de productos, lo que requiere confiar en los datos, los comentarios de los clientes y la innovación tecnológica, y realizar ajustes en función de las necesidades nacionales especiales. Al mismo tiempo, la empresa mejorará activamente el ecosistema y la pila de software para garantizar que los usuarios obtengan la mejor experiencia en términos de eficiencia, costo, rendimiento y rentabilidad, a fin de promover una mayor comercialización de productos.

Wang Ping cree que debido a la creciente dificultad de obtener chips de alta gama de Estados Unidos, aunque no existe ninguna empresa nacional que pueda producir chips verdaderamente alternativos, cree que la potencia informática nacional seguirá creciendo. Los chips necesitan ser iterados continuamente. Cuantos más usuarios haya y más feedback sobre los problemas haya, más podrán mejorar las empresas nacionales de chips de IA en iteraciones posteriores y mejorar la experiencia del usuario.

"Esta es una oportunidad importante para las empresas nacionales de GPU de uso general", dijo Gai Lujiang a Titanium Media App.