Jen-Hsun Huang, director ejecutivo de Nvidia, en el Consumer Electronics Show (CES) en Las Vegas, EE. UU., 04 de enero de 2017. Huang anunció que su empresa trabajará con el gigante automovilístico alemán Audi en el futuro.
Andrej Sokolow | Alianza de imágenes | Buenas fotos
Nvidia está destrozada y no tiene fecha de caducidad.
Nvidia fabrica los procesadores gráficos, o GPU, necesarios para crear aplicaciones de inteligencia artificial como ChatGPT. En particular, su chip de IA más avanzado, el H100, tiene una gran demanda entre las empresas de tecnología.
Las ventas generales de Nvidia aumentaron un 171% año tras año a 13,51 mil millones de dólares en el segundo trimestre fiscal que finalizó el 30 de julio, anunció la compañía el miércoles. No sólo vende un conjunto de chips de IA, sino que también son muy rentables: el margen bruto de la empresa creció más de 25 puntos porcentuales hasta el 71,2% en el mismo trimestre del año pasado, algo increíble para un producto físico.
Además, Nvidia dijo que prevé una fuerte demanda hasta el próximo año y aumentará la oferta, lo que ayudará a aumentar la cantidad de chips que podrá vender en los próximos meses.
Las acciones de la compañía subieron más del 6% horas después de la noticia, sumándose a su ganancia de más del 200% en lo que va del año.
Del informe del miércoles se desprende claramente que Nvidia se beneficiará más del auge de la IA que cualquier otra empresa.
Nvidia registró unos increíbles ingresos netos de 6.700 millones de dólares durante el trimestre, un 422% más que en el mismo período del año pasado.
«Creo que estaré en la calle para este informe el año que viene, pero mis cifras deberían ser más altas», escribió Chaim Siegel, analista de Elazar Advisors, en una nota después del informe. Elevó su precio objetivo a 1.600 dólares, calificándolo de «un movimiento triple desde aquí», y añadió: «Sigo pensando que mis cifras son muy conservadoras».
El precio sugiere un múltiplo para 2024 de 13 veces las ganancias por acción, dijo.
El enorme flujo de caja de Nvidia contrasta con sus clientes de alto nivel, que están gastando mucho en hardware de inteligencia artificial y construyendo modelos de inteligencia artificial multimillonarios, pero aún no han comenzado a ver retornos de la tecnología.
Aproximadamente la mitad de los ingresos del centro de datos de Nvidia provienen de proveedores de nube, seguidos por las grandes empresas de Internet. El crecimiento en el negocio de centros de datos de Nvidia se produjo en «computación» o chips de IA, que crecieron un 195% en el trimestre, superando el crecimiento del 171% del negocio general.
Microsoft, un gran cliente de las GPU H100 de Nvidia, está aumentando su gasto de capital para construir sus servidores de IA, tanto para su nube Azure como para su asociación con OpenAI, y no espera una «señal de ingresos» positiva hasta el próximo año. año.
En la Internet de consumo, se espera que los centros de datos gasten 30.000 millones de dólares este año, y el próximo año se gastará aún más para trabajar en IA, según Meta. Nvidia dijo el miércoles que ve retornos de Meta en forma de mayor compromiso.
Algunas nuevas empresas se han endeudado para comprar GPU de Nvidia, con la esperanza de alquilarlas para obtener ganancias en los próximos meses.
En una conferencia telefónica sobre resultados con analistas, los funcionarios de Nvidia ofrecieron una perspectiva sobre por qué los chips de sus centros de datos son tan rentables.
Nvidia dijo que su software contribuye a su margen y que vende productos más complejos que sólo el silicio. Los analistas citan el software de inteligencia artificial de Nvidia, llamado Cuda, como la razón principal por la que los clientes no pueden cambiar fácilmente a competidores como AMD.
«Nuestros productos de centro de datos incluyen una cantidad significativa de software y complejidad, lo que también ayuda a los márgenes brutos», dijo la directora financiera de Nvidia, Colette Kress, en una llamada con analistas.
Nvidia integra su tecnología en sistemas costosos y complejos como su caja HGX, que agrupa ocho GPU H100 en una sola computadora. Nvidia se jactó el miércoles de que para construir una de estas cajas se utiliza una cadena de suministro de 35.000 piezas. Las cajas HGX cuestan alrededor de $299,999, Según informesSegún una estimación reciente de Raymond James, el precio oscila entre 25.000 y 30.000 dólares por H100.
Dado que Nvidia envía su GPU H100 nativa a los proveedores de servicios en la nube, estos suelen optar por un sistema completo.
«Lo llamamos H100, como si fuera un chip salido de una fábrica, pero los H100 salen, en realidad, como HGX para los hiperescaladores del mundo, y en realidad son componentes informáticos muy grandes», dijo el CEO de Nvidia, Jensen Huang, en una llamada. con los investigadores.
«Estudiante amistoso. Jugador certificado. Evangelista de las redes sociales. Fanático de Internet. Se cae mucho. Futuro ídolo adolescente».