Nvidia – Conference Call Fiscal 2Q2025

Nvidia – Conference Call Fiscal 2Q2025

Operador

Buenas tardes. Mi nombre es Abby y hoy seré su operadora de conferencia. En este momento, me gustaría darles la bienvenida a todos a la convocatoria de resultados del segundo trimestre de NVIDIA. Todas las líneas se han silenciado para evitar ruidos de fondo.

Tras las intervenciones de los ponentes, habrá un turno de preguntas y respuestas. [Instrucciones para el operador] Gracias. Y Sr. Stewart Stecker, puede comenzar su conferencia.

Stewart Stecker – Director sénior de Relaciones con Inversores

Gracias. Buenas tardes a todos y bienvenidos a la conferencia telefónica de NVIDIA para el segundo trimestre del año fiscal 2025. Hoy conmigo de NVIDIA están Jensen Huang, presidente y director ejecutivo; y Colette Kress, vicepresidenta ejecutiva y directora financiera. Me gustaría recordarles que nuestra llamada se transmite en vivo en el sitio web de Relaciones con inversores de NVIDIA.

El webcast estará disponible para reproducirse hasta la conferencia telefónica para analizar nuestros resultados financieros para el tercer trimestre del año fiscal 2025. El contenido de la conferencia telefónica de hoy es propiedad de NVIDIA. No se puede reproducir ni transcribir sin el consentimiento previo por escrito. Durante esta llamada, podemos hacer declaraciones a futuro basadas en las expectativas actuales.

Estos están sujetos a una serie de riesgos, riesgos significativos e incertidumbres, y nuestros resultados reales pueden diferir materialmente. Para una discusión de los factores que podrían afectar nuestros resultados financieros y negocios futuros, consulte la divulgación en el comunicado de resultados de hoy, nuestros formularios 10-K y 10-Q más recientes y los informes que podemos presentar en el formulario 8-K con la Comisión de Bolsa y Valores. Todas nuestras declaraciones se realizan a partir de hoy, 28 de agosto de 2024, con base en la información actualmente disponible para nosotros. Salvo que lo exija la ley, no asumimos ninguna obligación de actualizar dichas declaraciones.

Durante esta llamada, discutiremos medidas financieras no GAAP. Puede encontrar una conciliación de estas medidas financieras no GAAP con las medidas financieras GAAP en nuestro comentario del CFO, que está publicado en nuestro sitio web. Permítanme destacar un próximo evento para la comunidad financiera. Asistiremos a la Conferencia sobre Comunicacopia y Tecnología de Goldman Sachs el 11 de septiembre en San Francisco, donde Jensen participará en una charla informal de apertura.

Nuestra llamada de resultados para analizar los resultados de nuestro tercer trimestre del año fiscal 2025 está programada para el miércoles 20 de noviembre de 2024. Dicho esto, permítanme pasarle la llamada a Colette.

Colette M. Kress – Directora financiera, Vicepresidenta ejecutiva

Gracias, Stewart. El segundo trimestre fue otro trimestre récord. Los ingresos de 30 mil millones de dólares aumentaron un 15 % de forma secuencial y un 122 % interanual y muy por encima de nuestra perspectiva de 28 mil millones de dólares. Empezando por el centro de datos.

Los ingresos del centro de datos de 26.300 millones de dólares fueron un récord, un aumento del 16 % de forma secuencial y un aumento del 154 % año tras año, impulsado por la fuerte demanda de NVIDIA Hopper, la informática GPU y nuestras plataformas de red. Los ingresos por computación crecieron más de 2,5 veces. Los ingresos por redes crecieron más del doble que el año pasado. Los proveedores de servicios en la nube representaron aproximadamente el 45 % de los ingresos de nuestro centro de datos, y más del 50 % provino de empresas empresariales y de Internet para el consumidor.

Los clientes siguen acelerando sus compras de arquitectura Hopper mientras se preparan para adoptar Blackwell. Las cargas de trabajo clave que impulsan el crecimiento de nuestro centro de datos incluyen el entrenamiento y la inferencia de modelos de IA generativos; el preprocesamiento y posprocesamiento de datos de video, imágenes y texto con cargas de trabajo CUDA e IA; la generación de datos sintéticos; los sistemas de recomendación impulsados ​​por IA; y el procesamiento de bases de datos SQL y Vector. Los modelos de próxima generación requerirán entre 10 y 20 veces más computación para entrenarse con una cantidad significativamente mayor de datos. Se espera que la tendencia continúe.

Estimamos que, durante los últimos cuatro trimestres, la inferencia impulsó más del 40 % de los ingresos de nuestros centros de datos. Los CSP, las empresas de Internet para consumidores y las grandes empresas se benefician del increíble rendimiento y la eficiencia de la plataforma de inferencia de NVIDIA. La demanda de NVIDIA proviene de los creadores de modelos de vanguardia, los servicios de Internet para consumidores y decenas de miles de empresas y empresas emergentes que crean aplicaciones de IA generativa para consumidores, publicidad, educación, empresas y atención médica, y robótica. Los desarrolladores desean el rico ecosistema y la disponibilidad de NVIDIA en todas las nubes.

Los CSP aprecian la amplia adopción de NVIDIA y están aumentando su capacidad NVIDIA dada la alta demanda. La plataforma NVIDIA H200 comenzó a funcionar en el segundo trimestre, y se envió a grandes CSP, Internet para consumidores y empresas. NVIDIA H200 se basa en la solidez de nuestra arquitectura Hopper y ofrece un 40 % más de ancho de banda de memoria en comparación con H100. Nuestros ingresos del centro de datos en China crecieron secuencialmente en el segundo trimestre y contribuyeron significativamente a nuestros ingresos del centro de datos.

Como porcentaje de los ingresos totales del centro de datos, se mantiene por debajo de los niveles observados antes de la imposición de controles de exportación. Seguimos esperando que el mercado chino sea muy competitivo en el futuro. La última ronda de pruebas de inferencia de MLPerf destacó el liderazgo de NVIDIA en inferencia, con NVIDIA Hopper y la plataforma Blackwell combinándose para ganar medallas de oro en todas las tareas. En Computex, NVIDIA, junto con los principales fabricantes de computadoras, presentó una variedad de sistemas impulsados ​​por la arquitectura Blackwell y redes NVIDIA para construir fábricas de IA y centros de datos.

Con la arquitectura de referencia modular NVIDIA MGX, nuestros socios OEM y ODM están construyendo más de 100 sistemas basados ​​en Blackwell diseñados de manera rápida y rentable. La plataforma NVIDIA Blackwell reúne múltiples GPU, CPU, DPU, NVLink y Link Switch y los chips de red, sistemas y software NVIDIA CUDA para impulsar la próxima generación de IA en todos los casos, industrias y países. El sistema NVIDIA GB200 NVL72 con NVLink de quinta generación permite que las 72 GPU actúen como una sola GPU y brinden una inferencia hasta 30 veces más rápida para las cargas de trabajo de LLM y desbloqueen la capacidad de ejecutar modelos de billones de parámetros en tiempo real. La demanda de tolvas es fuerte y Blackwell está realizando un muestreo amplio.

Ejecutamos un cambio en la masa de GPU Blackwell para mejorar los rendimientos de producción. La rampa de producción de Blackwell está programada para comenzar en el cuarto trimestre y continuar hasta el año fiscal 2026. En el cuarto trimestre, esperamos obtener varios miles de millones de dólares en ingresos de Blackwell. Se espera que los envíos de tolvas aumenten en la segunda mitad del año fiscal 2025.

La oferta y la disponibilidad de tolvas han mejorado. La demanda de plataformas Blackwell está muy por encima de la oferta y esperamos que esto continúe durante el próximo año. Los ingresos por redes aumentaron un 16 % de manera secuencial. Nuestros ingresos por Ethernet para IA, que incluyen nuestra plataforma Ethernet de extremo a extremo Spectrum-X, se duplicaron de manera secuencial con cientos de clientes que adoptaron nuestras ofertas de Ethernet.

Spectrum-X cuenta con un amplio respaldo de mercado de socios OEM y ODM y está siendo adoptado por CSP, proveedores de nube de GPU y empresas, incluida xAI, para conectar el clúster de cómputo de GPU más grande del mundo. Spectrum-X potencia Ethernet para el procesamiento de IA y ofrece 1,6 veces el rendimiento de Ethernet tradicional. Planeamos lanzar nuevos productos Spectrum-X cada año para satisfacer la demanda de escalar clústeres de cómputo de decenas de miles de GPU en la actualidad a millones de DPU en el futuro cercano. Spectrum-X está bien encaminado para comenzar una línea de productos multimillonaria en el plazo de un año.

Nuestras oportunidades soberanas de IA continúan expandiéndose a medida que los países reconocen la experiencia y la infraestructura de IA como imperativos nacionales para su sociedad e industrias. El Instituto Nacional de Ciencia y Tecnología Industrial Avanzada de Japón está construyendo su supercomputadora AI Bridging Cloud Infrastructure 3.0 con NVIDIA. Creemos que los ingresos soberanos de IA alcanzarán los miles de millones de dos dígitos este año. La ola de IA empresarial ha comenzado.

Las empresas también impulsaron el crecimiento secuencial de los ingresos en el trimestre. Estamos trabajando con la mayoría de las empresas de Fortune 100 en iniciativas de IA en diferentes industrias y geografías. Una variedad de aplicaciones están impulsando nuestro crecimiento, incluidos chatbots impulsados ​​por IA, copilotos de IA generativa y agentes para crear nuevas aplicaciones comerciales monetizables y mejorar la productividad de los empleados. Amdocs está utilizando la IA generativa de NVIDIA para su agente inteligente, transformando la experiencia del cliente y reduciendo los costos de servicio al cliente en un 30%.

ServiceNow está utilizando NVIDIA para su oferta Now Assist, el nuevo producto de más rápido crecimiento en la historia de la empresa. SAP está utilizando NVIDIA para crear copilotos duales. Cohesity está utilizando NVIDIA para crear su agente de IA generativa y reducir los costos de desarrollo de IA generativa. Snowflake, que atiende más de 3 mil millones de consultas por día para más de 10,000 clientes empresariales, está trabajando con NVIDIA para crear copilotos.

Por último, está utilizando NVIDIA AI Omniverse para reducir los tiempos de ciclo de extremo a extremo de sus fábricas en un 50%. El sector automotriz fue un impulsor clave del crecimiento durante el trimestre, ya que todos los fabricantes de automóviles que desarrollan tecnología de vehículos autónomos están utilizando NVIDIA en sus centros de datos. El sector automotriz generará miles de millones de dólares en ingresos en el consumo local y en la nube y crecerá a medida que los modelos de vehículos autónomos de próxima generación requieran significativamente más computación. El cuidado de la salud también está en camino de convertirse en un negocio multimillonario a medida que la IA revoluciona las imágenes médicas, los robots quirúrgicos, la atención al paciente, el procesamiento de registros médicos electrónicos y el descubrimiento de fármacos.

Durante el trimestre, anunciamos un nuevo servicio NVIDIA AI Foundry para potenciar la IA generativa para las empresas del mundo con la colección de modelos Llama 3.1 de Meta. Esto marca un momento decisivo para la IA empresarial. Por primera vez, las empresas pueden aprovechar las capacidades de un modelo de nivel de frontera de código abierto para desarrollar aplicaciones de IA personalizadas para codificar su conocimiento institucional en un volante de inercia de IA para automatizar y acelerar su negocio. Accenture es el primero en adoptar el nuevo servicio para crear modelos Llama 3.1 personalizados tanto para su propio uso como para ayudar a los clientes que buscan implementar aplicaciones de IA generativa.

Los NIM de NVIDIA aceleran y simplifican la implementación de modelos. Empresas de los sectores de la salud, la energía, los servicios financieros, el comercio minorista, el transporte y las telecomunicaciones están adoptando los NIM, entre ellas Aramco, Lowes y Uber. AT&T logró un ahorro de costos del 70 % y una reducción de latencia de ocho veces después de pasarse a los NIM para la IA generativa, la transcripción de llamadas y la clasificación. Más de 150 socios están incorporando NIM en todas las capas del ecosistema de IA.

Anunciamos NIM Agent Blueprint, un catálogo de aplicaciones de referencia personalizables que incluyen un paquete completo de software para crear e implementar aplicaciones de IA generativas empresariales. Con NIM Agent Blueprint, las empresas pueden refinar sus aplicaciones de IA con el tiempo, creando un volante de inercia de IA impulsado por datos. Los primeros NIM Agent Blueprints incluyen cargas de trabajo para servicio al cliente, descubrimiento de fármacos asistido por computadora y generación aumentada de recuperación empresarial. Nuestros integradores de sistemas, proveedores de soluciones tecnológicas y desarrolladores de sistemas están llevando NVIDIA NIM Agent Blueprints a las empresas.

NVIDIA NIM y NIM Agent Blueprints están disponibles a través de la plataforma de software NVIDIA AI Enterprise, que tiene un gran impulso. Esperamos que nuestros ingresos por software, SaaS y soporte se acerquen a una tasa de ejecución anual de $2 mil millones al finalizar este año, con NVIDIA AI Enterprise contribuyendo notablemente al crecimiento. Pasando a los juegos y la IA para PC. Los ingresos por juegos de $2.88 mil millones aumentaron un 9 % secuencialmente y un 16 % interanual.

Vimos un crecimiento secuencial en los ingresos por consolas, portátiles y computadoras de escritorio, y la demanda es sólida y está creciendo y el inventario del canal se mantiene saludable. Cada PC con RTX es una PC con IA. Las PC con RTX pueden ofrecer hasta 1300 máximos de IA y ahora hay más de 200 portátiles con IA RTX diseñados por los principales fabricantes de PC. Con 600 aplicaciones y juegos con IA y una base instalada de 100 millones de dispositivos, RTX está preparada para revolucionar las experiencias de los consumidores con IA generativa.

NVIDIA ACE, un conjunto de tecnologías de IA generativa, está disponible para PC con IA RTX. Megabreak es el primer juego que utiliza NVIDIA ACE, incluido nuestro modelo de lenguaje pequeño, Nemotron 4B optimizado en la inferencia del dispositivo. El ecosistema de juegos de NVIDIA sigue creciendo. Los títulos RTX y DLSS recientemente agregados incluyen Indiana Jones and The Great Circle, Awakening y Dragon Age: The Vanguard.

La biblioteca GeForce NOW sigue expandiéndose con un tamaño de catálogo total de más de 2000 títulos, la mayor cantidad de contenido de cualquier servicio de juegos en la nube. Pasando a la visualización profesional. Los ingresos de $454 millones aumentaron un 6 % secuencialmente y un 20 % interanual. La demanda está siendo impulsada por casos de uso de IA y gráficos, incluido el ajuste fino de modelos y las cargas de trabajo relacionadas con Omniverse.

El sector automotriz y de fabricación estuvieron entre los sectores verticales clave que impulsaron el crecimiento este trimestre. Las empresas se apresuran a digitalizar los flujos de trabajo para impulsar la eficiencia en sus operaciones. El mayor fabricante de productos electrónicos del mundo, Foxconn, está utilizando NVIDIA Omniverse para impulsar gemelos digitales de las plantas físicas que producen los sistemas NVIDIA Blackwell. Y varias grandes empresas globales, incluida Mercedes-Benz, firmaron contratos plurianuales para NVIDIA Omniverse Cloud para construir gemelos digitales industriales de fábricas.

Anunciamos nuevos conectores y NIM de NVIDIA USD para abrir Omniverse a nuevas industrias y permitir que los desarrolladores incorporen copilotos y agentes de IA generativa en las cargas de trabajo de USD, acelerando nuestra capacidad de construir mundos virtuales de alta precisión. WPP está implementando los microservicios NIM de USD en su canal de creación de contenido habilitado con IA generativa para clientes como The Coca-Cola Company. Pasando a la industria automotriz y la robótica. Los ingresos fueron de $346 millones, un 5 % más secuencialmente y un 37 % más año tras año.

El crecimiento año tras año fue impulsado por la nueva rampa de clientes en plataformas de conducción autónoma y una mayor demanda de soluciones de cabina de IA. En el ámbito del consumidor, en la Computer Vision and Pattern Recognition Conference, NVIDIA ganó el Autonomous Brand Challenge en la categoría de conducción de extremo a extremo de gama alta, superando a más de 400 participantes en todo el mundo. Boston Dynamics, BYD Electronics, Figure, Intrinsyc, Siemens y Teradyne Robotics están utilizando la plataforma robótica NVIDIA Isaac para brazos robóticos autónomos, humanoides y robots móviles. Ahora, se pasa al resto de la cuenta de resultados.

Los márgenes brutos GAAP fueron del 75,1 % y los márgenes brutos no GAAP fueron del 75,7 %, lo que se redujo secuencialmente debido a una mayor combinación de nuevos productos en el centro de datos y a las provisiones de inventario para material Blackwell de bajo rendimiento. Secuencialmente, los gastos operativos GAAP y no GAAP aumentaron un 12 %, lo que refleja principalmente mayores costos relacionados con la compensación. El flujo de efectivo de las operaciones fue de 14 500 millones de dólares. En el segundo trimestre, utilizamos $7.4 mil millones en efectivo para devoluciones a los accionistas en forma de recompras de acciones y dividendos en efectivo, lo que refleja el aumento del dividendo por accionista.

Nuestro directorio aprobó recientemente una autorización de recompra de acciones por $50 mil millones para agregar a los $7.5 mil millones restantes de autorización al final del segundo trimestre. Permítanme dar un giro a las perspectivas para el tercer trimestre. Se espera que los ingresos totales sean de $32.5 mil millones, más o menos el 2%. Nuestra perspectiva de ingresos para el tercer trimestre incorpora el crecimiento continuo de nuestra arquitectura Hopper y la muestra de nuestros productos Blackwell.

Esperamos que la producción de Blackwell aumente en el cuarto trimestre. Se espera que los márgenes brutos GAAP y no GAAP sean del 74,4% y 75%, respectivamente, más o menos 50 puntos básicos. A medida que nuestra combinación de centros de datos continúa cambiando a nuevos productos, esperamos que esta tendencia continúe en el cuarto trimestre del año fiscal 2025. Para todo el año, esperamos que los márgenes brutos estén en el rango medio del 70%.

Se espera que los gastos operativos GAAP y no GAAP sean de aproximadamente $4.3 mil millones y $3.0 mil millones, respectivamente. Se espera que los gastos operativos de todo el año crezcan en el rango de 40% a 45% mientras trabajamos en el desarrollo de nuestra próxima generación de productos. Se espera que los ingresos y gastos GAAP y no GAAP sean de aproximadamente $350 millones, incluidas las ganancias y pérdidas de inversiones no afiliadas y valores de renta variable de capital público. Se espera que las tasas impositivas GAAP y no GAAP sean del 17%, más o menos 1%, excluyendo cualquier partida discreta.

Preguntas y respuestas:

Operador

Gracias. [Instrucciones del operador] Haremos una pausa por un momento para compilar la lista de preguntas y respuestas. Y como recordatorio, le pedimos que se limite a una pregunta. Y su primera pregunta viene de la línea de Vivek Arya de Bank of America Securities.

Su línea está abierta.

Vivek Arya — Analista

Gracias por responder mi pregunta. Jensen, usted mencionó en los comentarios preparados que hay un cambio en la máscara de GPU de Blackwell. Tengo curiosidad, ¿hay otros cambios incrementales en el empaquetado de back-end o algo más? Y creo que relacionado con esto, usted sugirió que podría enviar varios miles de millones de dólares de Blackwell en el cuarto trimestre a pesar del cambio en el diseño. ¿Es porque todos estos problemas se resolverán para entonces? Simplemente ayúdenos a evaluar cuál es el impacto general de cualquier cambio en el cronograma de Blackwell, qué significa eso para su tipo de perfil de ingresos y cómo están reaccionando los clientes.

Jensen Huang — Presidente y Director Ejecutivo

Sí. Gracias, Vivek. El cambio de la máscara está completo. No fue necesario realizar cambios funcionales.

Por eso, estamos probando muestras funcionales de Blackwell, Grace Blackwell y una variedad de configuraciones de sistemas en este momento. Hay alrededor de 100 tipos diferentes de sistemas basados ​​en Blackwell que se construyeron y se mostraron en Computex, y estamos habilitando nuestro ecosistema para comenzar a probarlos. La funcionalidad de Blackwell es la misma y esperamos comenzar la producción en el cuarto trimestre.

Operador

Y tu próxima pregunta viene de Toshiya Hari de Goldman Sachs. Tu línea está abierta.

Toshiya Hari — Analista

Hola. Muchas gracias por responder la pregunta. Jensen, tenía una pregunta relativamente a largo plazo. Como sabrás, hay un debate bastante acalorado en el mercado sobre el retorno de la inversión de tus clientes y de los clientes de tus clientes y lo que eso significa para la sostenibilidad del gasto de capital en el futuro.

Internamente en NVIDIA, ¿qué están observando? ¿Qué hay en su tablero mientras intentan medir el retorno de la inversión de los clientes y cómo eso afecta el gasto de capital? Y luego, una breve pregunta de seguimiento para Colette. Creo que tu número de IA soberana para todo el año aumentó quizás un par de miles de millones. ¿Qué impulsa la mejora de las perspectivas y cómo deberíamos pensar en el año fiscal 2026? Gracias.

Jensen Huang — Presidente y Director Ejecutivo

Gracias, Toshiya. En primer lugar, cuando dije que se producirán buques en el cuarto trimestre, me refiero a los envíos, no a empezar a enviarlos, sino a empezar a producirlos, pero no me refiero a empezar a producirlos, sino a aumentar los envíos. En cuanto a la cuestión a largo plazo, retrocedamos un paso. Me han oído decir que estamos atravesando dos transiciones de plataforma simultáneas al mismo tiempo.

La primera es la transición de la computación acelerada a la computación de propósito general. Y la razón es que se sabe que el escalado de la CPU se está ralentizando desde hace algún tiempo y se ha ralentizado hasta casi detenerse. Y, sin embargo, la cantidad de demanda informática sigue creciendo de forma bastante significativa. Tal vez se podría incluso estimar que se duplica cada año.

Y, por tanto, si no tenemos un nuevo enfoque, la inflación informática aumentaría el coste para todas las empresas y el consumo de energía de los centros de datos de todo el mundo. De hecho, lo estamos viendo. Así que la respuesta es la computación acelerada. Sabemos que la computación acelerada, por supuesto, acelera las aplicaciones.

También permite realizar cálculos a una escala mucho mayor, por ejemplo, simulaciones científicas o procesamiento de bases de datos, pero lo que esto se traduce directamente en un menor costo y un menor consumo de energía. Y, de hecho, esta semana, salió un blog que hablaba sobre un montón de nuevas bibliotecas que ofrecemos. Y ese es realmente el núcleo de la primera transición de plataforma, pasar de la computación de propósito general a la computación acelerada. Y no es inusual ver a alguien ahorrar el 90% de su costo de computación.

Y la razón de eso es, por supuesto, que acabas de acelerar una aplicación 50 veces. Se esperaría que el costo de computación disminuyera significativamente. El segundo fue posible gracias a la computación acelerada, porque redujimos el costo de entrenar modelos de lenguaje grandes o de entrenar aprendizaje profundo de manera tan increíble que ahora es posible tener modelos a escala gigantesca, modelos de varios billones de parámetros y entrenarlos en casi todo el corpus de conocimiento del mundo y dejar que el modelo descubra cómo entender la representación del lenguaje humano y cómo codificar el conocimiento en sus redes neuronales y cómo aprender a razonar, y eso provocó la revolución de la IA generativa. Ahora bien, si damos un paso atrás y analizamos por qué profundizamos tanto en la IA generativa, es porque no es solo una característica, no es solo la capacidad.

Es una nueva forma fundamental de hacer software. En lugar de algoritmos diseñados por humanos, ahora tenemos datos. Le decimos a la IA, al modelo, a la computadora cuáles son las respuestas esperadas. ¿Cuáles son nuestras observaciones previas? Y luego, para que descubra cuál es el algoritmo, cuál es la función.

Aprende un universal… La IA es un aproximador de funciones universales y aprende la función. Y así, se puede aprender la función de casi cualquier cosa. Y cualquier cosa que sea predecible, cualquier cosa que tenga estructura, cualquier cosa de la que tengamos ejemplos previos. Y ahora estamos con la IA generativa.

Es una nueva forma fundamental de ciencia informática. Está afectando la forma en que se realiza cada capa de computación desde la CPU hasta la GPU, desde los algoritmos diseñados por humanos hasta los algoritmos aprendidos por máquinas, y el tipo de aplicaciones que ahora se pueden desarrollar y producir es fundamentalmente notable. Y hay varias cosas que están sucediendo en la IA generativa. Entonces, lo primero que está sucediendo es que los modelos de frontera están creciendo a una escala bastante sustancial.

Y todavía estamos viendo, todos seguimos viendo los beneficios de la escalabilidad. Y cada vez que duplicas el tamaño de un modelo, también tienes que duplicar el tamaño del conjunto de datos para entrenarlo. Y entonces, la cantidad de fracasos necesarios para crear ese modelo aumenta cuadráticamente. Y entonces, no es inesperado ver que los modelos de próxima generación podrían requerir 10, 20, 40 veces más computación que la última generación.

Por lo tanto, tenemos que seguir impulsando el rendimiento generacional de manera bastante significativa para poder reducir la energía consumida y reducir el costo necesario para hacerlo. Y entonces, el primero es que hay modelos de frontera más grandes entrenados en más modalidades. Y sorprendentemente, hay más creadores de modelos de frontera que el año pasado. Y entonces, tienes cada vez más y más.

Esa es una de las dinámicas que se están dando en la IA generativa. La segunda es que, aunque está debajo de la punta del iceberg, lo que vemos son generadores de imágenes ChatGPT. Vemos codificación. En NVIDIA, utilizamos la IA generativa para codificar de forma bastante extensa.

Por supuesto, contamos con muchos diseñadores digitales y cosas así, pero eso es solo la punta del iceberg. Lo que hay debajo del iceberg son los sistemas más grandes, los sistemas informáticos más grandes del mundo en la actualidad, que son, y ya me han oído hablar de esto en el pasado, sistemas de recomendación que están pasando de las CPU a la IA generativa.

Por lo tanto, los sistemas de recomendación, la generación de anuncios, la generación de anuncios personalizados dirigidos a anuncios a gran escala y una hipersegmentación, la búsqueda y el contenido generado por el usuario, son todas aplicaciones a gran escala que ahora han evolucionado hacia la IA generativa. Por supuesto, la cantidad de empresas emergentes de IA generativa está generando decenas de miles de millones de dólares en oportunidades de alquiler de la nube para nuestros socios de la nube. Y la IA soberana, los países que ahora se están dando cuenta de que sus datos son su recurso natural y nacional y que tienen que usar la IA, construir su propia infraestructura de IA para poder tener su propia inteligencia digital. La inteligencia artificial empresarial, como mencionó Colette anteriormente, está comenzando, y es posible que haya visto nuestro anuncio de que las principales empresas de TI del mundo se unen a nosotros para llevar la plataforma NVIDIA AI Enterprise a las empresas del mundo.

Las empresas con las que estamos hablando, muchas de ellas están increíblemente entusiasmadas por impulsar una mayor productividad de la empresa. Y luego la robótica en general. La gran transformación del año pasado, cuando ahora podemos aprender IA física al ver videos y demostraciones humanas y la generación de datos sintéticos a partir del aprendizaje de refuerzo de sistemas como Omniverse, ahora podemos trabajar con casi todas las empresas de robótica para comenzar a pensar en comenzar a desarrollar robótica general. Y, por lo tanto, puede ver que hay muchas direcciones diferentes en las que se está moviendo la IA generativa.

Y, por lo tanto, estamos viendo que el impulso de la IA generativa se está acelerando.

Colette M. Kress, directora financiera, vicepresidenta ejecutiva

Y Toshiya, para responder a su pregunta sobre la IA soberana y nuestros objetivos en términos de crecimiento, en términos de ingresos, ciertamente es una oportunidad única y en crecimiento, algo que surgió con la IA generativa y los deseos de los países de todo el mundo de tener su propia IA generativa que pueda incorporar su propio idioma, incorporar su propia cultura, incorporar sus propios datos en ese país. Entonces, cada vez hay más entusiasmo en torno a estos modelos y lo que pueden ser específicos para esos países. Así que, sí, estamos viendo algunas oportunidades de crecimiento frente a nosotros.

Operador

Y su próxima pregunta viene de la línea de Joe Moore de Morgan Stanley. Su línea está abierta.

Joe Moore — Analista

Genial. Gracias. Jensen, en el comunicado de prensa, usted habló de que la anticipación de Blackwell es increíble. Pero parece que la demanda de Hopper también es realmente fuerte.

Quiero decir, usted está guiando hacia un trimestre muy fuerte sin Blackwell en octubre. Entonces, ¿cuánto tiempo ve una especie de coexistencia de una fuerte demanda para ambos? ¿Y puede hablar sobre la transición a Blackwell? ¿Ve a la gente mezclando clústeres? ¿Cree que la mayoría de las actividades de Blackwell son clústeres nuevos? Solo una idea de cómo se ve esa transición.

Jensen Huang — Presidente y Director Ejecutivo

Sí. Gracias, Joe. La demanda de Hopper es realmente fuerte. Y es verdad, la demanda de Blackwell es increíble.

Hay un par de razones para eso. La primera razón es que, si nos fijamos en los proveedores de servicios en la nube del mundo, la cantidad de capacidad de GPU que tienen disponible es básicamente nula. Y la razón es que se están implementando internamente para acelerar sus propias cargas de trabajo, por ejemplo, el procesamiento de datos. Casi nunca hablamos del procesamiento de datos porque es algo mundano.

No es muy interesante porque no genera una imagen ni palabras. Pero casi todas las empresas del mundo procesan datos en segundo plano. Y las GPU de NVIDIA son los únicos aceleradores del planeta que procesan y aceleran datos. Los datos de SQL, los datos de Panda, los kits de herramientas de ciencia de datos como el de Panda y el nuevo, el de Polar.

Estas son las plataformas de procesamiento de datos más populares del mundo. Y, aparte de las CPU, que, como he mencionado antes, se están quedando sin fuerza, la computación acelerada de NVIDIA es realmente la única forma de obtener un mayor rendimiento a partir de eso. Y entonces, el número uno es el caso de uso principal, mucho antes de que apareciera la IA generativa, que es la migración de aplicaciones una tras otra a la computación acelerada.

El segundo es, por supuesto, el alquiler. Están alquilando capacidad a los creadores de modelos. Se la están alquilando a empresas emergentes. Y una empresa de IA generativa gasta la gran mayoría de su capital invertido en infraestructura para poder usar una IA que les ayude a crear productos.

Y entonces, estas empresas la necesitan ahora. Simplemente no pueden permitírselo; simplemente recaudan dinero. Quieren que la utilicen ahora. Tienen un procesamiento que deben realizar.

No pueden hacerlo el año que viene, deben hacerlo hoy. Y entonces, hay una razón justa… esa es una razón. La segunda razón para la demanda de Hopper en este momento es debido a la carrera hacia la siguiente meseta. La primera persona que llegue a la siguiente meseta podrá introducir un nivel revolucionario de IA.

La segunda persona que llegue allí será cada vez mejor o más o menos igual. Por lo tanto, la capacidad de competir sistemática y consistentemente para alcanzar el siguiente nivel y ser el primero en llegar es la manera de establecer el liderazgo. NVIDIA lo hace constantemente y se lo demostramos al mundo con las GPU que fabricamos, las fábricas de inteligencia artificial que fabricamos, los sistemas de redes que fabricamos y los SoC que creamos. Quiero decir, queremos marcar el ritmo.

Queremos ser los mejores del mundo de forma constante y esa es la razón por la que nos esforzamos tanto. Por supuesto, también queremos ver nuestros sueños hechos realidad y todas las capacidades que imaginamos en el futuro y los beneficios que podemos aportar a la sociedad, queremos ver que todo eso se haga realidad. Y por eso, estos creadores de modelos son iguales.

Por supuesto, quieren ser los mejores del mundo. Quieren ser los primeros del mundo. Y aunque Blackwell comenzará a enviar miles de millones de dólares a finales de este año, la capacidad de puesta en marcha probablemente todavía esté a semanas o un mes de distancia. Y por eso, entre ahora y entonces hay mucha dinámica en el mercado de la IA generativa.

Y por eso, todo el mundo tiene mucha prisa. O bien lo necesitan por razones operativas, o necesitan computación acelerada, o no quieren construir más infraestructura informática de propósito general o incluso Hopper.

Por supuesto, H200 es de última generación. Hopper, si tiene la opción de construir una infraestructura de CPU ahora mismo para su negocio o una infraestructura Hopper para su negocio ahora mismo, esa decisión es relativamente clara. Y por eso, creo que la gente está clamando por la transición de un billón de dólares de infraestructura instalada establecida a una infraestructura moderna y de última generación de Hopper.

Operador

Y su próxima pregunta viene de la línea de Matt Ramsay de TD Cowen. Su línea está abierta.

Matt Ramsay, analista

Muchas gracias. Buenas tardes a todos. Jensen, quería volver a una pregunta anterior sobre el debate que están teniendo los inversores sobre el retorno de la inversión en todo este gasto de capital. Y espero que esta pregunta y la distinción tengan algún sentido.

Pero lo que estoy discutiendo es el porcentaje de personas que están gastando todo ese dinero y buscando ampliar la frontera hacia la convergencia de la AGI y, como acabas de decir, una nueva meseta en capacidad, y que van a gastar de todas formas para llegar a ese nivel de capacidad porque abre muchas puertas para la industria y para su empresa frente a los clientes que hoy están muy, muy centrados en el gasto de capital frente al retorno de la inversión. No sé si esa distinción tiene sentido. Sólo estoy tratando de hacerme una idea de cómo ves las prioridades de las personas que están invirtiendo dinero en esta nueva tecnología y cuáles son sus prioridades y sus plazos para esa inversión. Gracias.

Jensen Huang — Presidente y Director Ejecutivo

Gracias, Matt. Las personas que están invirtiendo en la infraestructura de NVIDIA están obteniendo retornos de inmediato. Es la mejor inversión en infraestructura de computación y en infraestructura con retorno de la inversión que se puede hacer hoy en día. Y entonces, una forma de pensarlo, probablemente la más fácil, es simplemente volver a los principios básicos.

Tienes un billón de dólares en infraestructura informática de uso general. Y la pregunta es, ¿quieres construir más de eso o no? Y por cada mil millones de dólares de infraestructura basada en CPU Juniper que construyas, probablemente la alquiles por menos de mil millones. Y entonces, como está mercantilizada, ya hay un billón de dólares en el terreno. ¿Qué sentido tiene conseguir más? Y entonces, las personas que claman por conseguir esta infraestructura, primero, cuando construyen infraestructura basada en Hopper y pronto, infraestructura basada en Blackwell, comienzan a ahorrar dinero.

Eso es un tremendo retorno de la inversión. Y la razón por la que comienzan a ahorrar dinero es porque el procesamiento de datos ahorra dinero, y el procesamiento de datos probablemente ya sea solo una parte gigante de eso. Y entonces, los sistemas de recomendación ahorran dinero, y así sucesivamente, ¿de acuerdo? Y entonces, comienzas a ahorrar dinero. La segunda cosa es que todo lo que construyas se va a alquilar porque muchas empresas se están fundando para crear IA generativa.

Y entonces, su capacidad se alquila de inmediato y el retorno de la inversión es realmente bueno. Y luego, la tercera razón es su propio negocio. ¿Quiere crear la próxima frontera usted mismo o que sus propios servicios de Internet se beneficien de un sistema de publicidad de próxima generación o un sistema de recomendación de próxima generación o un sistema de búsqueda de próxima generación? Entonces, para sus propios servicios, para sus propias tiendas, para su propio contenido generado por el usuario, plataformas de redes sociales, para sus propios servicios, la IA generativa también es un retorno de la inversión rápido. Y entonces, hay muchas formas en que podría pensarlo.

Pero en esencia, es porque es la mejor infraestructura informática que podría instalarse en la actualidad. El mundo de la computación de propósito general está cambiando a la computación acelerada. El mundo del software diseñado por humanos está cambiando al software de IA generativa. Si tuviera que construir infraestructura para modernizar su nube y sus centros de datos, hágalo con la computación acelerada de NVIDIA.

Esa es la mejor manera de hacerlo.

Operador

Y su próxima pregunta viene de la línea de Timothy Arcuri de UBS. Su línea está abierta.

Timothy Arcuri — Analista

Muchas gracias. Tenía una pregunta sobre la forma del crecimiento de los ingresos, tanto a corto como a largo plazo. Sé que Colette, usted aumentó los gastos operativos para el año. Y si miro el aumento en sus compromisos de compra y sus obligaciones de suministro, eso también es bastante optimista.

Por otro lado, hay una corriente de pensamiento que sostiene que no muchos clientes parecen realmente estar listos para la refrigeración líquida, y reconozco que algunos de estos bastidores pueden refrigerarse por aire. Pero Jensen, ¿es eso algo que se debe considerar en la forma en que Blackwell va a aumentar? Y luego supongo que cuando mira más allá del próximo año, que obviamente va a ser un gran año y mira hacia 2026, ¿se preocupa por otros factores de control como, por ejemplo, la cadena de suministro de energía o, en algún momento, los modelos comienzan a hacerse más pequeños? Me pregunto si puede hablar sobre eso. Gracias.

Jensen Huang, presidente y director ejecutivo

Voy a empezar a trabajar al revés. Realmente aprecio la pregunta, Tim. Recuerden, el mundo está pasando de la computación de propósito general a la computación acelerada. Y el mundo construye centros de datos por un valor de aproximadamente 1 billón de dólares.

En unos pocos años, 1 billón de dólares de centros de datos serán todos computación acelerada. En el pasado, no había GPU en los centros de datos, solo CPU. En el futuro, todos los centros de datos tendrán GPU. Y la razón para eso es muy clara: porque necesitamos acelerar las cargas de trabajo para que podamos seguir siendo sustentables, continuar reduciendo el costo de la computación para que cuando hagamos más computación, no experimentemos inflación computacional.

En segundo lugar, necesitamos GPU para un nuevo modelo de computación llamado IA generativa que todos podríamos reconocer que será bastante transformador para el futuro de la computación. Y entonces, creo que, trabajando al revés, la forma de pensar en eso es que el próximo billón de dólares de la infraestructura del mundo será claramente diferente al último billón de dólares, y será enormemente acelerado. Con respecto a la forma de nuestra rampa, ofrecemos múltiples configuraciones de Blackwell. Blackwell viene en un Blackwell clásico, por así decirlo, que utiliza el formato HGX en el que fuimos pioneros con Volta.

Y creo que era Volta. Y, por lo tanto, hemos estado enviando el formato HGX durante algún tiempo. Está refrigerado por aire. Grace Blackwell está refrigerado por líquido.

Sin embargo, la cantidad de centros de datos que desean pasar a la refrigeración líquida es bastante significativa. Y la razón de eso es que podemos, en un centro de datos refrigerado por líquido, en cualquier centro de datos (centro de datos con limitación de energía, cualquier centro de datos del tamaño que elija), instalar e implementar entre tres y cinco veces el rendimiento de IA en comparación con el pasado. Y, por lo tanto, la refrigeración líquida es más barata. Nuestro costo total de propiedad de la refrigeración líquida es mejor, y la refrigeración líquida le permite tener el beneficio de esta capacidad que llamamos NVLink, que nos permite expandirla a 72 paquetes Grace Blackwell, que esencialmente tiene 144 GPU.

Entonces, imagine 144 GPU conectadas en NVLink. Y cada vez le mostramos más los beneficios de eso. Y el siguiente paso es, obviamente, una latencia muy baja, una inferencia de modelos de lenguajes grandes de muy alto rendimiento, y el gran dominio NVLink va a ser un cambio radical para eso. Y por eso, creo que la gente se siente muy cómoda implementando ambos.

Y por eso, casi todos los CSP con los que trabajamos están implementando algo de ambos. Y por eso, estoy bastante seguro de que lo aumentaremos sin problemas. Su segunda pregunta de la tercera es que, mirando hacia el futuro, sí, el año que viene va a ser un gran año. Esperamos hacer crecer nuestro negocio de centros de datos de manera significativa el próximo año.

Blackwell va a ser un cambio radical total para la industria. Y Blackwell se mantendrá al año siguiente. Y como mencioné antes, trabajando hacia atrás desde los primeros principios, recuerde que la informática está pasando por dos transiciones de plataforma al mismo tiempo. Y es muy, muy importante mantener la cabeza en alto, la mente enfocada en que la computación de propósito general está cambiando hacia la computación acelerada, y que el software diseñado por humanos va a pasar a ser un software de inteligencia artificial generativa o un software aprendido mediante inteligencia artificial.

De acuerdo.

Operador

Y su próxima pregunta viene de la línea de Stacy Rasgon de Bernstein Research. Su línea está abierta.

Stacy Rasgon — Analista

Hola, chicos. Gracias por responder a mi pregunta. Tengo dos preguntas breves para Colette. ¿Los primeros miles de millones de dólares de ingresos de Blackwell en el cuarto trimestre son aditivos? Dijiste que esperabas que la demanda de Hopper se fortaleciera en la segunda mitad.

¿Eso significa que Hopper también se fortalece del tercer al cuarto trimestre además de que Blackwell suma varios miles de millones de dólares? Y la segunda pregunta sobre los márgenes brutos. Si tengo alrededor de 75 para el año, digamos, donde quiero dibujar eso, si tengo 75 para el año, estaría algo así como 71 a 72 para el cuarto trimestre, en algún lugar de ese rango. ¿Es ese el tipo de tasa de salida para los márgenes brutos que estás esperando? ¿Y cómo deberíamos pensar en los impulsores de la evolución del margen bruto el próximo año a medida que Blackwell aumenta? Y quiero decir, con suerte, supongo que los rendimientos y las reservas de inventario y todo lo demás aumentarán.

Colette M. Kress — Directora financiera, vicepresidenta ejecutiva

Entonces, Stacy, primero respondamos a la pregunta que tenías sobre Hopper y Blackwell. Creemos que Hopper seguirá creciendo en el segundo semestre. Tenemos muchos productos nuevos para Hopper, nuestros productos existentes para Hopper que creemos que seguirán creciendo en los próximos trimestres, incluido nuestro tercer trimestre y esos nuevos productos que se trasladarán al cuarto trimestre. Entonces, digamos que Hopper, en comparación con el primer semestre, es una oportunidad de crecimiento para eso.

Además, tenemos Blackwell encima de eso, y Blackwell comenzará a crecer en el cuarto trimestre. Espero que eso te ayude con esos dos puntos. Tu segundo punto es en términos de nuestro margen bruto. Proporcionamos un margen bruto para nuestro tercer trimestre.

Proporcionamos nuestro margen bruto sobre una base no GAAP de aproximadamente 75. Trabajaremos con todas las diferentes transiciones que estamos atravesando, pero creemos que podemos lograr ese 75 en el tercer trimestre. Hemos previsto que sigamos en camino para el año completo, también en torno a los 75 o aproximadamente 75. Por lo tanto, es posible que veamos una ligera diferencia en el cuarto trimestre, de nuevo con nuestras transiciones y las diferentes estructuras de costes que tenemos en nuestras presentaciones de nuevos productos.

Sin embargo, no estoy en el mismo número que tú. No tenemos una orientación exacta, pero creo que estás por debajo de donde estamos nosotros.

Operador

Y su próxima pregunta viene de la línea de Ben Reitzes de Melius. Su línea está abierta.

Ben Reitzes — Melius Research — Analista

Sí. Hola, muchas gracias por la pregunta. Quería preguntar sobre las geografías. Se publicó el 10-Q y Estados Unidos bajó secuencialmente, mientras que varias geografías asiáticas subieron mucho secuencialmente.

Me pregunto cuál es la dinámica allí. Y, obviamente, China lo hizo muy bien. Lo mencionó en sus comentarios. ¿Cuáles son los puts y take? Y luego, solo quería aclarar a partir de la pregunta de Stacy si eso significa que las tasas de crecimiento secuencial de los ingresos generales de la empresa se aceleran en el cuarto trimestre, dadas todas esas dinámicas de ingresos favorables.

Gracias.

Colette M. Kress — Directora financiera, vicepresidenta ejecutiva

Permítanme hablar un poco sobre nuestra divulgación en términos del 10-Q, una divulgación obligatoria en una selección de geografías. A veces es muy difícil crear esa divulgación correcta, ya que tenemos que encontrar una pieza clave. Las piezas en términos de a quién vendemos y/o específicamente a quién facturamos, y lo que están viendo en términos de a quién facturamos. No es necesariamente donde finalmente estará el producto ni a dónde puede llegar hasta el cliente final.

Estos solo se están moviendo hacia nuestros OEM u ODM y nuestros integradores de sistemas en su mayor parte en toda nuestra cartera de productos. Entonces, lo que estamos viendo es a veces un cambio rápido en términos de a quién están utilizando para completar su configuración completa antes de que esas cosas vayan al centro de datos, a las computadoras portátiles y esas piezas. Y ese cambio ocurre de vez en cuando. Pero sí, nuestro número de China está facturando a China.

Tenga en cuenta que está incorporando juegos, también centros de datos, también automoción en esos números que tenemos. Volviendo a su declaración y con respecto al margen bruto y también lo que estamos viendo en términos de lo que estamos viendo para Hopper y Blackwell en términos de ingresos. Hopper seguirá creciendo en el segundo semestre. Seguiremos creciendo a partir de lo que estamos viendo actualmente.

Determinar esa combinación exacta en cada trimestre 3 y 4, no lo tenemos aquí. No estamos aquí para guiar todavía en términos del cuarto trimestre. Pero vemos ahora mismo las expectativas de demanda. Vemos la visibilidad de que será una oportunidad de crecimiento en el cuarto trimestre.

Además de eso, tendremos nuestra arquitectura Blackwell.

Operador

Y su próxima pregunta viene de la línea de C.J. Muse con Cantor Fitzgerald. Su línea está abierta.

C.J. Muse — Analista

Sí. Buenas tardes. Gracias por responder la pregunta. Se ha embarcado en una notable cadencia anual de productos con desafíos que probablemente se vuelvan cada vez mayores, dada la creciente complejidad en un mundo de paquetes avanzados y bastante limitados.

Entonces, curioso, si da un paso atrás, ¿cómo altera este contexto su pensamiento sobre una posible mayor integración vertical, asociaciones de la cadena de suministro y luego un impacto consecuente en su perfil de margen? Gracias.

Jensen Huang — Presidente y Director Ejecutivo

Sí. Gracias. Veamos. Creo que la primera respuesta a su… la respuesta a su primera pregunta es que la razón por la que nuestra velocidad es tan alta se debe simultáneamente a que la complejidad del modelo está creciendo y queremos seguir reduciendo su costo.

Está creciendo, por lo que queremos seguir aumentando su escala. Y creemos que, si seguimos ampliando los modelos de IA, alcanzaremos un nivel de utilidad extraordinario que nos permitirá hacer realidad la próxima revolución industrial. Lo creemos. Por eso, vamos a esforzarnos mucho para seguir aumentando esa escala.

Tenemos la capacidad, de manera bastante única, de integrar y diseñar una fábrica de IA porque tenemos todas las piezas. No es posible crear una nueva fábrica de IA cada año a menos que tengas todas las piezas. Por eso, el año que viene vamos a enviar muchas más CPU que nunca en la historia de nuestra empresa, más GPU, por supuesto, pero también conmutadores NVLink, DPU CX, ConnectX para el este y el oeste, DPU BlueField para el norte y el sur, y procesamiento de datos y almacenamiento a InfiniBand para centros de supercomputación, a Ethernet, que es un producto completamente nuevo para nosotros, que va camino de convertirse en un negocio multimillonario para llevar la IA a Ethernet. Y entonces, el hecho de que pudiéramos construir… tenemos acceso a todo esto, tenemos una pila arquitectónica, como saben, nos permite introducir nuevas capacidades en el mercado a medida que lo completamos.

De lo contrario, lo que sucede es que envías estas piezas, buscas clientes a quienes vendérselas y luego tienes que construir… alguien tiene que construir una fábrica de IA, y la fábrica de IA tiene una montaña de software. Y entonces, no se trata de quién lo integra. Nos encanta el hecho de que nuestra cadena de suministro esté desintegrada en el sentido de que podríamos dar servicio a Quanta, Foxconn, HP, Dell, Lenovo, Super Micro. Solíamos poder dar servicio a ZTE.

Los compraron recientemente, etc. Y entonces, la cantidad de socios del ecosistema que tenemos, Gigabyte, la cantidad de socios del ecosistema que tenemos que les permite tomar nuestra arquitectura, que funciona, pero integrada de manera personalizada en todos los proveedores de servicios en la nube del mundo, centros de datos empresariales, la escala y el alcance necesarios de nuestros ODM y nuestros integradores, cadena de suministro integrada, es vasta y gigantesca porque el mundo es enorme. Y entonces, esa parte, no queremos hacerla y no somos buenos en hacerla. Y, pero sabemos cómo diseñar la infraestructura de IA, proporcionada de la manera que a los clientes les gustaría y permite que el ecosistema la integre.

Bueno, sí. De todos modos, esa es la razón.

Operador

Y su última pregunta viene de la línea de Aaron Rakers de Wells Fargo. Su línea está abierta.

Aaron Rakers – Analista

Sí. Gracias por responder la pregunta. Quería volver al ciclo de productos de Blackwell. Una de las preguntas que nos suelen hacer es cómo ve la dinámica de la combinación de sistemas a escala de rack cuando piensa en aprovechar NVLink, piensa en GB NVL72 y cómo se ve esa dinámica de salida al mercado en lo que respecta al ciclo de productos Blackwell.

Creo que, para decirlo de forma sencilla, ¿cómo ve esa combinación de sistemas a escala de rack cuando empezamos a pensar en el desarrollo del ciclo Blackwell?

Jensen Huang, presidente y director ejecutivo

Sí. Aaron, gracias. El sistema de rack Blackwell está diseñado y diseñado como un rack, pero se vende en componentes de sistema desagregados. No vendemos el rack completo.

Y la razón de eso es que, sorprendentemente, el rack de cada persona es un poco diferente. Algunos de ellos son estándares OCP, otros no. Algunos son empresariales. Y los límites de energía para cada persona podrían ser un poco diferentes.

La elección de CDU, la elección de barras colectoras de energía, la configuración e integración en los centros de datos de las personas, todo es diferente. Y así, la forma en que lo diseñamos, diseñamos todo el rack. El software funcionará perfectamente en todo el rack. Y luego proporcionamos los componentes del sistema.

Por ejemplo, la placa de cómputo de CPU y GPU se integra en un MGX. Es una arquitectura de sistema modular. MGX es completamente ingenioso. Y tenemos ODM, integradores y OEM de MGX en toda la planta.

Por lo tanto, prácticamente cualquier configuración que desee, donde le gustaría que se entregue ese rack de 3000 libras, tiene que estar cerca. Tiene que estar integrado y ensamblado cerca del lugar de fabricación.

Ariel y para la estación base inalámbrica 5G, todo un conjunto de centros de datos a los que podemos acceder ahora. Parabricks para la secuenciación de genes y AlphaFold2 para la predicción de la estructura de proteínas ahora están acelerados por CUDA. Estamos al comienzo de nuestro viaje para modernizar centros de datos valorados en 1 billón de dólares, pasando de la informática de propósito general a la informática acelerada. Ese es el número uno.

El número dos, Blackwall es un salto de función escalonada con respecto a Hopper. Blackwell es una plataforma de infraestructura de IA, no solo la GPU. También resulta ser el nombre de nuestra GPU, pero es una plataforma de infraestructura de IA. A medida que revelamos más sobre Blackwell y los sistemas de muestra a nuestros socios y clientes, el alcance del liderazgo de Blackwell se vuelve claro.

La visión de Blackwell llevó casi cinco años y siete chips únicos en su tipo para hacerse realidad: la CPU Gray, la GPU dual Blackwell y un paquete de componentes, la DPU ConnectX para el tráfico Este-Oeste, la DPU BlueField para el tráfico Norte-Sur y de almacenamiento, el conmutador NVLink para comunicaciones GPU de todos a todos, y Quantum y Spectrum-X para InfiniBand y Ethernet que pueden soportar el tráfico masivo de IA. Las fábricas de IA de Blackwell son computadoras del tamaño de un edificio. NVIDIA diseñó y optimizó la plataforma Blackwell, de extremo a extremo, desde chips, sistemas, redes, incluso cables estructurados, energía y refrigeración, y montañas de software para que los clientes puedan construir rápidamente fábricas de IA. Se trata de infraestructuras que requieren mucho capital.

Los clientes quieren implementarla tan pronto como tengan en sus manos el equipo y ofrecer el mejor rendimiento y costo total de propiedad. Blackwell proporciona entre tres y cinco veces más rendimiento de IA en un centro de datos con energía limitada que Hopper. El tercero es NVLink. Este es un gran avance, ya que su cambio de GPU a GPU es revolucionario.

El sistema Blackwell nos permite conectar 144 GPU en 72 paquetes GB200 en un dominio NVLink, con un ancho de banda NVLink agregado de 259 terabytes por segundo en un rack. Solo para ponerlo en perspectiva, eso es aproximadamente 10 veces más alto que Hopper. 259 terabytes por segundo tiene sentido porque es necesario impulsar el entrenamiento de modelos de varios billones de parámetros en billones de tokens. Y, por lo tanto, esa cantidad natural de datos debe trasladarse de GPU a GPU.

Para la inferencia, NVLink es vital para la generación de tokens de modelos de lenguaje grandes de baja latencia y alto rendimiento. Ahora tenemos tres plataformas de red: NVLink para la ampliación de GPU, Quantum InfiniBand para supercomputación y fábricas de IA dedicadas, y Spectrum-X para IA en Ethernet. La huella de red de NVIDIA es mucho mayor que antes. El impulso de la IA generativa se está acelerando.

Los creadores de modelos de IA generativa de vanguardia están compitiendo para alcanzar la siguiente etapa de IA y aumentar la seguridad y el coeficiente intelectual de los modelos. También estamos escalando para comprender más modalidades, desde texto, imágenes y video hasta física, química y biología en 3D. Los chatbots, las IA de codificación y los generadores de imágenes están creciendo rápidamente, pero esto es solo la punta del iceberg. Los servicios de Internet están implementando IA generativa para sistemas de búsqueda, segmentación de anuncios y recomendadores a gran escala.

Las empresas emergentes de IA están consumiendo decenas de miles de millones de dólares anuales de la capacidad de la nube de los CSP, y los países están reconociendo la importancia de la IA e invirtiendo en infraestructura de IA soberana. Y NVIDIA AI, NVIDIA Omniverse, está abriendo la próxima era de la IA, la robótica general. Y ahora ha comenzado la ola de la IA empresarial y estamos preparados para ayudar a las empresas a transformar sus negocios. La plataforma NVIDIA AI Enterprise consta de Nemo, NIMs, NIM Agent Blueprints y AI Foundry, que nuestros socios del ecosistema, las empresas de TI líderes a nivel mundial, utilizaron para ayudar a las empresas a personalizar los modelos de IA y crear aplicaciones de IA a medida.

Las empresas pueden implementar en el tiempo de ejecución de NVIDIA AI Enterprise y, a $4500 por GPU por año, NVIDIA AI Enterprise es un valor excepcional para implementar IA en cualquier lugar. Y para el software de NVIDIA, el tiempo de ejecución puede ser significativo a medida que la base instalada de GPU compatibles con CUDA crece de millones a decenas de millones. Y como mencionó Colette, el software de NVIDIA terminará el año con una tasa de ejecución de $2 mil millones. Gracias a todos por acompañarnos hoy.

Participantes de la llamada:

Stewart Stecker – Director sénior de Relaciones con Inversores

Colette M. Kress – Directora financiera, Vicepresidenta ejecutiva

Vivek Arya – Analista

Jensen Huang – Presidente y Director Ejecutivo

Toshiya Hari – Analista

Colette Kress – Directora financiera, Vicepresidenta ejecutiva

Joe Moore – Analista

Matt Ramsay – Analista

Timothy Arcuri – Analista

Stacy Rasgon – Analista

Ben Reitzes – Melius Research – Analista

CJ Muse – Analista

Aaron Rakers – Analista