Cinco años después, el evento de tecnología informática de inteligencia artificial de renombre mundial, la conferencia anual NVIDIA GTC, hizo un regreso significativo al formato presencial. Hoy, el fundador y director ejecutivo de NVIDIA, Jensen Huang, pronunció un discurso de apertura de dos horas en el que presentó el último e innovador chip de IA: la GPU Blackwell.
Durante esta conferencia, NVIDIA mostró una impresionante influencia en la industria al reunir a los principales expertos en inteligencia artificial y líderes de la industria. El evento fue testigo de una participación sin precedentes con más de diez mil asistentes presenciales.
El 18 de marzo a las 1:00 hora local (4:00 hora del 19 de marzo en Pekín), comenzó oficialmente el discurso inaugural más esperado de GTC. Después de un cortometraje con temática de IA, Jensen Huang hizo su entrada en el escenario principal con su icónica chaqueta de cuero negra, interactuando con el público.
Comenzó reflexionando sobre el recorrido de 30 años de NVIDIA en la aceleración de la informática, destacando hitos como el desarrollo del revolucionario modelo informático CUDA, la entrega de la primera supercomputadora de IA DGX a OpenAI y, luego, naturalmente, cambiando el enfoque a la IA generativa.
Después de anunciar importantes asociaciones con empresas líderes de EDA, analizó la rápida evolución de los modelos de IA que impulsan un aumento en la demanda de potencia computacional de entrenamiento, enfatizando la necesidad de GPU más grandes. Afirmó que “la computación acelerada ha alcanzado un punto crítico y la computación de propósito general ha perdido su impulso”, destacando avances significativos en la computación acelerada en varias industrias. Posteriormente, una serie de componentes clave, desde GPU y superchips hasta supercomputadoras y sistemas de clúster, aparecieron rápidamente en la pantalla grande antes de que Jensen Huang hiciera el anuncio importante: ¡el nuevo chip insignia de IA: la GPU Blackwell ha llegado!
Esta última innovación en el campo de las GPU supera a su predecesora Hopper GPU tanto en configuración como en rendimiento. Jensen Huang comparó las GPU Blackwell y Hopper, mostrando el tamaño significativamente mayor de Blackwell. Después de esta comparación, tranquilizó con humor a Hopper diciendo: “Está bien, Hopper. Eres muy bueno, buen chico. Buena niña." ¡La actuación de Blackwell es realmente excepcional! Ya sea el FP8 o los nuevos FP6 y FP4 de precisión, junto con la escala del modelo y el ancho de banda de HBM que puede acomodar, todo ello superando a la generación anterior de Hopper.
¡Durante 8 años desde la arquitectura Pascal hasta la arquitectura Blackwell, NVIDIA ha aumentado el rendimiento informático de IA 1000 veces!
Esto es solo el comienzo, ya que la verdadera ambición de Jensen Huang radica en crear la infraestructura de inteligencia artificial más poderosa capaz de optimizar cálculos de GPU a nivel de billones de parámetros. En general, NVIDIA presentó seis anuncios importantes en la conferencia GTC de este año:
- Introducción de Blackwell GPU: el rendimiento del entrenamiento aumentó 2.5 veces, el rendimiento de inferencia de precisión del FP4 mejoró 5 veces en comparación con el FP8 anterior; NVLink de quinta generación actualizado con una velocidad de interconexión que duplica la velocidad de Hopper; escalable hasta 576 GPU para abordar los cuellos de botella de comunicación en modelos de expertos mixtos de billones de parámetros.
- Introducción de la arquitectura Blackwell: optimizada para cálculos de GPU a nivel de billones de parámetros; lanzó nuevos conmutadores de red de la serie X800 con un rendimiento de hasta 800Gb / s; presentó el superchip GB200, el sistema GB200 NVL72, el sistema DGX B200 y la supercomputadora DGX SuperPOD AI de próxima generación.
- Lanzamiento de docenas de microservicios de IA generativa empresarial que brindan una nueva forma de empaquetar y entregar software para una fácil implementación de modelos de IA personalizados utilizando GPU.
- Anuncio de la innovadora plataforma de cálculo de litografía cuLitho por parte de TSMC y Synopsys: cuLitho acelera el cálculo de litografía entre 40 y 60 veces utilizando algoritmos de IA generativa mejorados para brindar un soporte significativo para el desarrollo de procesos de 2 nm y más avanzados.
- Lanzamiento del modelo base de robot humanoide Proyecto GR00T y la nueva computadora robot humanoide Jetson Thor; actualizaciones significativas a la plataforma robótica Isaac que impulsan avances de inteligencia incorporada. Jensen Huang también interactuó con un par de pequeños robots NVIDIA de Disney Research.
- Colaboración con Apple para integrar la plataforma Omniverse en Apple Vision Pro y proporcionar la API Omniverse Cloud para herramientas de software de gemelos digitales industriales.
Surge un nuevo chip de IA: 20.8 mil millones de transistores, rendimiento de entrenamiento 2.5 veces mayor, rendimiento de inferencia 5 veces mayor
Al entrar en una nueva era de IA generativa, el crecimiento explosivo de las demandas de computación de IA ha llevado al surgimiento de la GPU Blackwell, superando a su predecesora, la GPU Hopper, como punto focal de la competencia de IA. Cada generación de arquitectura de GPU NVIDIA lleva el nombre de un científico, y la nueva arquitectura, Blackwell, rinde homenaje a David Blackwell, el primer miembro afroamericano de la Academia Nacional de Ciencias y un distinguido estadístico y matemático. Blackwell era conocido por simplificar problemas complejos y sus inventos independientes como la "programación dinámica" y el "teorema de renovación" han tenido amplias aplicaciones en diversos campos científicos y de ingeniería.
Huang afirmó que la IA generativa es la tecnología que define esta era, siendo Blackwell el motor que impulsa esta nueva revolución industrial. La GPU Blackwell cuenta con seis tecnologías principales:
- Apodado el "chip más potente del mundo": integra 20.8 mil millones de transistores utilizando un proceso TSMC 4NP personalizado, siguiendo el concepto de diseño de “chiplet” con arquitectura de memoria unificada + configuración de doble núcleo, conectando dos matrices de GPU limitadas por plantillas de litografía a través de una interfaz NVHyperfuse entre chips de 10 TB/s para formar una GPU unificada con memoria HBM192e de 3 GB, ancho de banda de memoria de 8 TB/s y potencia de entrenamiento de IA con una sola tarjeta de hasta 20 PFLOPS.
En comparación con la generación Hopper anterior, la integración de dos matrices de Blackwell da como resultado un tamaño mayor con 12.8 mil millones de transistores adicionales en comparación con la GPU Hopper. Por el contrario, el H100 anterior tenía sólo 80 GB de memoria HBM3 y 3.35 TB/s de ancho de banda, mientras que el H200 presentaba 141 GB de memoria HBM3e y 4.8 TB/s de ancho de banda.
- Motor transformador de segunda generación: combinando nuevo soporte de escalado de microtensores y algoritmos avanzados de gestión de rango dinámico con marcos TensorRT-LLM y NeMo Megatron para equipar a Blackwell con capacidades de inferencia de IA con precisión FP4, admitiendo doble computación y escala de modelo mientras mantiene una alta precisión para modelos de expertos mixtos.
Con la nueva precisión FP4, el rendimiento de IA de la GPU Blackwell alcanza cinco veces el de Hopper. NVIDIA no ha revelado el rendimiento de sus núcleos CUDA; Aún no se han revelado más detalles sobre la arquitectura.
- NVLink de quinta generación: Para acelerar el rendimiento de los modelos de billones de parámetros y de expertos mixtos, el nuevo NVLink proporciona a cada GPU un ancho de banda bidireccional de 1.8 TB/s, lo que admite una comunicación fluida de alta velocidad entre hasta 576 GPU adecuadas para modelos de lenguajes grandes y complejos.
Un único chip NVLink Switch consta de 50 mil millones de transistores que utilizan el proceso TSMC 4NP y conectan cuatro NVLink a 1.8 TB/s.
- Motor RAS: Blackwell GPU incluye un motor dedicado que garantiza confiabilidad, disponibilidad y mantenibilidad al tiempo que incorpora funciones a nivel de chip que utilizan mantenimiento predictivo basado en IA para diagnosticar y predecir problemas de confiabilidad para maximizar el tiempo de actividad del sistema y mejorar la escalabilidad para implementaciones de IA a gran escala que se ejecutan continuamente durante semanas o incluso meses sin interrupción, reduciendo los costos operativos.
- IA segura: Las capacidades informáticas confidenciales avanzadas protegen los modelos de IA y los datos de los clientes sin comprometer el rendimiento y admiten nuevos protocolos de cifrado de interfaz local.
- Motor de descompresión: Admite los formatos más recientes para acelerar las consultas de bases de datos y proporciona el máximo rendimiento para tareas de análisis y ciencia de datos. AWS, Dell, Google, Meta, Microsoft, OpenAI, Oracle, Tesla y xAI están listos para adoptar los productos de Blackwell. Musk, CEO de Tesla y xAI, declaró sin rodeos: "Actualmente, en el campo de la IA, no hay nada mejor que el hardware de NVIDIA".
Notablemente diferente de enfatizar el rendimiento de un solo chip en versiones anteriores, la serie Blackwell se centra más en el rendimiento general del sistema con una distinción borrosa en los nombres de código de GPU, donde la mayoría se denominan colectivamente "GPU Blackwell". Según los rumores del mercado antes de este lanzamiento, el B100 podría tener un precio de alrededor de $30,000 mientras que el B200 podría rondar los $35,000; considerando esta estrategia de precios donde los precios han aumentado menos del 50% en comparación con las generaciones anteriores pero el rendimiento de la capacitación ha mejorado 2.5 veces, lo que indica una rentabilidad significativamente mayor. Si los precios se mantienen relativamente estables con aumentos tan modestos pero mejoras sustanciales en el rendimiento de la capacitación; La competitividad en el mercado de las GPU de la serie Blackwell será formidable.
Introducción de nuevos conmutadores de red y supercomputadoras con inteligencia artificial optimizadas para computación GPU a nivel de billones de parámetros
La plataforma Blackwell, además del HGX B100 fundamental, incluye el conmutador NVLink, nodos de computación con superchip GB200 y conmutadores de red de la serie X800.
Entre ellos, la serie X800 es un conmutador de red de nuevo diseño diseñado para operaciones de IA a gran escala, destinado a soportar tareas de IA generativa a nivel de billones de parámetros. La red Quantum-X800 InfiniBand y Spectrum-X800 Ethernet de NVIDIA se encuentran entre las primeras plataformas de extremo a extremo del mundo con capacidades de rendimiento de hasta 800 Gb/s, con un aumento 5 veces mayor en la capacidad de ancho de banda de intercambio en comparación con los productos de la generación anterior. La potencia computacional de la red se ha multiplicado por 9 gracias a la tecnología SHARP de cuarta generación de NVIDIA, lo que da como resultado un rendimiento computacional de la red de 14.4 TFLOPS. Los primeros en adoptarlo incluyen Microsoft Azure, Oracle Cloud Infrastructure y Coreweave, entre otros.
La plataforma Spectrum-X800 está diseñada específicamente para múltiples inquilinos, lo que permite el aislamiento del rendimiento para las cargas de trabajo de IA de cada inquilino, optimizando así el rendimiento de la red para los servicios de nube de IA generativa y los usuarios de grandes empresas. NVIDIA ofrece una solución de software integral que incluye bibliotecas de comunicación de aceleración de red, kits de desarrollo de software y software de gestión. El superchip GB200 Grace Blackwell está diseñado como un procesador para tareas de IA generativa a escala de billones de parámetros. Este chip conecta dos GPU Blackwell a una CPU NVIDIA Grace mediante la tecnología de interconexión NVLink-C900C de quinta generación de 2 GB/s. Sin embargo, NVIDIA no ha especificado el modelo exacto de la GPU Blackwell.
Huang presentó el superchip GB200, destacándolo como el primero de su tipo en acomodar una densidad computacional tan alta en un espacio compacto, enfatizando su memoria interconectada y el desarrollo colaborativo de aplicaciones similar a una "familia feliz".
Cada nodo de cálculo del superchip GB200 puede albergar dos superchips GB200. Un único nodo de conmutador NVLink puede admitir dos conmutadores NVLink, logrando un ancho de banda total de 14.4 TB/s.
Un nodo informático Blackwell consta de dos CPU Grace y cuatro GPU Blackwell, lo que ofrece un rendimiento de IA de 80 PFLOPS.
Con capacidades de red y GPU mejoradas, Huang anunció el lanzamiento de una nueva unidad informática, la NVIDIA GB200 NVL72, con arquitectura de múltiples nodos, refrigeración líquida y sistemas a nivel de bastidor.
El GB200 NVL72 funciona como una “GPU gigante”, funcionando de manera similar a una GPU de una sola tarjeta, pero con un rendimiento de entrenamiento de IA que alcanza los 720 PFLOPS y un rendimiento de inferencia de IA que alcanza un máximo de 1.44 EFLOPS. Cuenta con 30 TB de memoria rápida y puede manejar modelos de idiomas grandes con hasta 27 billones de parámetros, lo que sirve como componente clave en el último DGX SuperPOD.
El GB200 NVL72 se puede configurar con 36 superchips GB200 (que incluyen 72 GPU B200 y 36 CPU Grace), interconectados a través de la tecnología NVLink de quinta generación e incluye DPU BlueField-3.
Jensen Huang señaló que a nivel mundial sólo hay unas pocas máquinas de nivel EFLOPS disponibles actualmente; Esta máquina consta de 600,000 piezas que pesan 3000 libras y representa un "sistema de IA EFLOPS dentro de un solo bastidor". Compartió que el entrenamiento previo de modelos GPT-MoE-1.8T con H100 requería 90 días y aproximadamente 8000 GPU que consumían 15 MW de potencia; mientras que ahora usar GB200 NVL72 solo requiere 2000 GPU y 4 MW de potencia.
Para ejecuciones de modelos de billones de parámetros, el GB200 se ha sometido a optimizaciones multidimensionales que dieron como resultado tasas de rendimiento de tokens de GPU individuales hasta 30 veces mayores que la precisión del H200 FP8.
En términos de tareas de inferencia de modelos de lenguaje grandes, el GB200 NVL72 ofrece un aumento de rendimiento 30 veces mayor en comparación con la misma cantidad de H100, a 1/25 del costo y consumo de energía de su predecesor.
Los principales proveedores de la nube, como AWS, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure, entre otros, admiten el acceso al GB200 NVL72. Además, NVIDIA ha presentado el sistema DGX B200, una plataforma de supercomputación de IA unificada para tareas de inferencia, ajuste y entrenamiento de modelos de IA. El sistema DGX B200 representa la sexta generación de la serie DGX y presenta un diseño tradicional montado en bastidor con refrigeración por aire; Incluye ocho GPU B200 y dos procesadores Intel Xeon de quinta generación que ofrecen un rendimiento de IA de 144 PFLOPS con precisión FP4 junto con una enorme capacidad de memoria de GPU de 1.4 TB y un ancho de banda de memoria de 64 TB/s que permite velocidades de inferencia en tiempo real para modelos de billones de parámetros hasta quince veces más. más rápido que su predecesor. El sistema incorpora redes avanzadas con ocho NIC ConnectX-7 y dos DPU BlueField-3 que brindan a cada conexión un ancho de banda de hasta 400Gb / s NVIDIA también ha presentado la supercomputadora de IA de última generación para centros de datos, DGX SuperPOD, que utiliza sistemas DGX GB2 capaces de manejar modelos de billones de parámetros, lo que garantiza un funcionamiento continuo para cargas de trabajo de inferencia y entrenamiento de IA generativo a gran escala. Construida a partir de ocho o más sistemas DGX GB200, esta nueva generación de DGX SuperPOD cuenta con una eficiente arquitectura de expansión a nivel de rack refrigerada por líquido que ofrece una potencia computacional de IA de 200 EFLOPS con precisión FP11.5 junto con un almacenamiento de memoria rápida de 4 TB que se puede ampliar aún más mediante mejoras a nivel de rack. Cada sistema DGX GB240 alberga treinta y seis superchips GB200. En comparación con las unidades H200 que ejecutan tareas de inferencia de modelos de lenguaje de gran tamaño, el superchip GB100 ofrece un aumento de rendimiento de hasta cuarenta y cinco veces.
Huang visualiza los centros de datos como futuras “fábricas de IA”, con toda la industria preparándose para los avances de Blackwell.
Lanzamiento de docenas de microservicios de IA generativa a nivel empresarial para la personalización y el despliegue de copilotos
NVIDIA continúa ampliando sus ventajas basadas en CUDA y el ecosistema de IA generativa mediante la introducción de docenas de microservicios de IA generativa a nivel empresarial. Estos servicios permiten a los desarrolladores crear e implementar copilotos de IA generativos en instalaciones de GPU NVIDIA CUDA.
Huang afirmó que la IA generativa está transformando la forma en que se programan las aplicaciones, pasando de escribir software a ensamblar modelos de IA, especificar tareas, proporcionar ejemplos de productos de trabajo, revisar planes y resultados intermedios. NVIDIA NIM sirve como referencia para los microservicios de inferencia de NVIDIA, construidos a partir de las bibliotecas de computación acelerada y los modelos de IA generativa de NVIDIA. Estos microservicios admiten API estándar de la industria, operan en instalaciones CUDA a gran escala de NVIDIA y están optimizados para nuevas GPU.
Las empresas pueden utilizar estos microservicios para crear e implementar aplicaciones personalizadas en sus plataformas y, al mismo tiempo, conservar la propiedad y el control totales de su propiedad intelectual. Los microservicios NIM ofrecen contenedores de IA de producción prediseñados compatibles con el software de inferencia de NVIDIA, lo que permite a los desarrolladores reducir los tiempos de implementación de semanas a minutos. Los microservicios NIM pueden implementar modelos de NVIDIA, AI21, Adept, Cohere, Getty Images y Shutterstock, así como modelos abiertos de Google, Hugging Face, Meta, Microsoft, Mistral AI y Stability AI.
Los usuarios tendrán acceso a microservicios NIM de Amazon SageMaker, Google Kubernetes Engine y Microsoft Azure AI, integrados con marcos de IA populares como Deepset, LangChain y LlamaIndex. Para acelerar las aplicaciones de IA, las empresas pueden aprovechar los microservicios CUDA-X, incluidos NVIDIA Riva para IA personalizada de voz y traducción, NVIDIA cuOpt para optimización de rutas y NVIDIA Earth-2 para simulaciones climáticas y meteorológicas de alta resolución. Próximamente se lanzará una serie de microservicios NVIDIA NeMo para el desarrollo de modelos personalizados.
Los desarrolladores pueden probar gratuitamente los microservicios de NVIDIA en ai.nvidia.com. Las empresas pueden implementar microservicios NIM de nivel de producción utilizando la plataforma AI Enterprise 5.0 de NVIDIA.
Avance de los algoritmos de IA generativa: colaboración con los principales actores de la industria de los semiconductores para provocar una nueva revolución en la informática fotolitográfica
En la conferencia GTC del año pasado, NVIDIA presentó un desarrollo innovador después de cuatro años de investigación secreta dirigida a la industria de fabricación de semiconductores: aprovechar la revolucionaria biblioteca informática de fotolitografía cuLitho para acelerar los cálculos de fotolitografía entre 40 y 60 veces, superando los límites físicos de producir 2 nm y más. chips avanzados. Los colaboradores de este proyecto son actores clave en la industria de los semiconductores: el gigante mundial de chips de IA NVIDIA, la fundición líder de semiconductores TSMC y el gigante de EDA Synopsys.
La litografía computacional es fundamental para la fabricación de chips. Hoy en día, basándose en los procesos acelerados de cuLitho, la velocidad del flujo de trabajo se ha duplicado aún más mediante algoritmos de IA generativa. Específicamente, muchos cambios en los procesos de fabricación de obleas requieren la corrección de proximidad óptica (OPC), lo que aumenta la complejidad computacional y provoca cuellos de botella en el desarrollo. La computación acelerada y la IA generativa de cuLitho pueden aliviar estos problemas. La aplicación de IA generativa puede crear soluciones o enfoques de máscara casi perfectos para abordar los problemas de difracción de la luz antes de obtener la máscara final mediante métodos tradicionales físicamente rigurosos, acelerando así todo el proceso OPC al doble. En los procesos de fabricación de chips, la litografía computacional es la carga de trabajo más intensiva y consume miles de millones de horas al año en las CPU. En comparación con los métodos basados en CPU, el cálculo de fotolitografía acelerada por GPU de cuLitho mejora significativamente los procesos de fabricación de chips. Al acelerar los cálculos, 2 sistemas NVIDIA H350 pueden reemplazar 100 sistemas de CPU, lo que aumenta significativamente las tasas de rendimiento y acelera la producción al tiempo que reduce los costos, los requisitos de espacio y el consumo de energía. "Estamos implementando NVIDIA cuLitho en TSMC", afirmó el presidente de TSMC, Wei Zhejia, destacando el importante salto de rendimiento logrado mediante la integración de la computación acelerada por GPU en el flujo de trabajo de TSMC. Al probar cuLitho en flujos de trabajo compartidos entre las dos empresas, lograron una aceleración de 40,000 veces en los procesos curvos y una mejora de casi 45 veces en los procesos tradicionales de Manhattan.
Introducción del nuevo modelo base de robot humanoide y computadora: Actualización importante de la plataforma de robot Isaac
Además de la IA generativa, NVIDIA también es optimista sobre la inteligencia incorporada y ha presentado el modelo base universal de robot humanoide Project GR00T y la nueva computadora robot humanoide Jetson Thor basada en Thor SoC. Jensen Huang afirmó: "El desarrollo de un modelo base de robot humanoide universal es uno de los temas más interesantes en el campo de la IA en la actualidad". Los robots impulsados por GR00T pueden comprender el lenguaje natural, imitar el aprendizaje rápido, la coordinación, la flexibilidad y otras habilidades observando el comportamiento humano para adaptarse e interactuar con el mundo real. Huang Renxun demostró cómo varios robots de este tipo pueden completar diversas tareas.
Jetson Thor presenta una arquitectura modular optimizada para rendimiento, consumo de energía y tamaño. Este SoC incluye una GPU Blackwell de próxima generación con un motor Transformer para ejecutar modelos de IA generativa multimodal como GR00T. NVIDIA está desarrollando una plataforma integral de IA para empresas líderes en robots humanoides como 1X, Agility Robotics, Apptronik, Boston Dynamics, Figure AI, Fourier Intelligence, Sanctuary AI, Unitree Robotics y XPENG Robotics.
Además, NVIDIA ha realizado importantes mejoras en la plataforma de robots Isaac, incluidos modelos básicos de IA generativa, herramientas de simulación e infraestructura de flujo de trabajo de IA. Estas nuevas funciones se implementarán en el próximo trimestre. NVIDIA también ha lanzado una gama de modelos de robots previamente entrenados, bibliotecas y hardware de referencia, como Isaac Manipulator para brazos robóticos con flexibilidad y capacidades de IA modulares, junto con una serie de modelos básicos y bibliotecas aceleradas por GPU como Isaac Perceptor que ofrecen funciones avanzadas como configuraciones de múltiples cámaras, reconstrucción 3D y percepción de profundidad.
Último desarrollo de la plataforma Omniverse: avance hacia Apple Vision Pro y presentación de la API en la nube
NVIDIA ha anunciado la integración de la plataforma Omniverse con Apple Vision Pro.
Con el objetivo de desarrollar aplicaciones de gemelos digitales industriales, NVIDIA ofrecerá Omniverse Cloud en forma de API. Los desarrolladores pueden utilizar esta API para transmitir contenido interactivo de gemelos digitales industriales a cascos de realidad virtual.
Al aprovechar la API, los desarrolladores pueden integrar fácilmente la tecnología central de Omniverse directamente en aplicaciones de software de automatización y diseño de gemelos digitales existentes o en flujos de trabajo de simulación para probar y validar máquinas autónomas, como robots o automóviles autónomos. Jensen Huang cree que todos los productos fabricados tendrán gemelos digitales y que Omniverse es un sistema operativo que puede construir y operar gemelos digitales físicamente realistas. Él cree que “la IA omniversa y generativa son tecnologías fundamentales necesarias para digitalizar un mercado industrial pesado con un valor de hasta 50 billones de dólares”.
Las cinco nuevas API de Omniverse Cloud se pueden usar individualmente o en combinación: USD Render (genera una representación RTX completa con trazado de rayos de datos de OpenUSD), USD Write (permite a los usuarios modificar e interactuar con datos de OpenUSD), USD Query (admite consultas de escena y escenas interactivas), USD Notify (seguimiento de cambios en USD y provisión de actualizaciones) y Omniverse Channel (conectando usuarios, herramientas y el mundo para la colaboración entre escenas).
La API Omniverse Cloud estará disponible en Microsoft Azure a finales de este año como una API autohospedada en las GPU NVIDIA A10 o como un servicio alojado implementado en NVIDIA OVX.
Conclusión: el evento principal concluye pero el espectáculo debe continuar
Además de los importantes anuncios mencionados anteriormente, Huang compartió otros avances durante su discurso: NVIDIA lanzó una plataforma de investigación en la nube 6G impulsada por IA generativa y Omniverse para avanzar en el desarrollo de la tecnología de comunicación inalámbrica en el sector de las telecomunicaciones. La plataforma de nube digital climática Earth-2 de NVIDIA ahora está disponible para simulaciones interactivas de alta resolución para acelerar el pronóstico del clima y el tiempo. Él cree que el mayor impacto de la IA se producirá en la atención sanitaria. NVIDIA ya está colaborando con empresas de sistemas de imágenes, fabricantes de secuenciadores genéticos y empresas líderes en robótica quirúrgica mientras presenta un nuevo tipo de software biológico.
En la industria automotriz, BYD, la empresa de conducción autónoma más grande del mundo, equipará sus futuros vehículos eléctricos con el procesador de vehículos autónomos (AV) de próxima generación DRIVE Thor de NVIDIA basado en la arquitectura Blackwell. Se espera que DRIVE Thor comience la producción en masa el próximo año con un rendimiento que alcance los 1000 TFLOPS.
Huang afirmó: "La esencia de NVIDIA radica en la intersección de los gráficos por computadora, la física y la inteligencia artificial". Al concluir su discurso, destacó cinco puntos clave: Nueva Industria, Plataforma Blackwell, NIM, NEMO y NVIDIA AI Foundry, Omniverse e Isaac Robotics.
Hoy marca otro hito en el que NVIDIA traspasa los límites del hardware y software de IA al tiempo que presenta un festín en torno a tecnologías de vanguardia como IA, modelos grandes, metaverso, robots, conducción autónoma, atención médica y computación cuántica.
El discurso de apertura de Jensen Huang fue sin duda el momento más destacado de la conferencia GTC, ¡pero la emoción recién comenzaba tanto para los asistentes presenciales como para los remotos!
Se desarrollarán más de 1000 sesiones que cubrirán los últimos avances de NVIDIA y los temas candentes en tecnologías de vanguardia a través de discursos, sesiones de capacitación y mesas redondas. Muchos asistentes expresaron su frustración por no poder asistir a todas las sesiones debido a limitaciones de tiempo, pero reconocieron que la plataforma GTC 2024 proporciona para el intercambio técnico en la industria de la IA. Se espera que el lanzamiento de nuevos productos durante este período y el intercambio de tecnología tengan un impacto positivo en la investigación académica y las cadenas industriales relacionadas. Aguarda una mayor exploración de detalles más técnicos de la nueva arquitectura de Blackwell.
Productos relacionados:
- OSFP-800G-FR4 800G OSFP FR4 (200G por línea) PAM4 CWDM Duplex LC 2km SMF Módulo transceptor óptico $5000.00
- OSFP-800G-2FR2L 800G OSFP 2FR2 (200G por línea) PAM4 1291/1311nm 2km DOM Duplex LC SMF Módulo transceptor óptico $4500.00
- OSFP-800G-2FR2 800G OSFP 2FR2 (200G por línea) PAM4 1291/1311nm 2km DOM Dual CS SMF Módulo transceptor óptico $4500.00
- OSFP-800G-DR4 800G OSFP DR4 (200G por línea) PAM4 1311nm MPO-12 500m SMF DDM Módulo transceptor óptico $3500.00
- NVIDIA MMS4X00-NM-FLT Compatible 800G Twin-port OSFP 2x400G Flat Top PAM4 1310nm 500m DOM Dual MTP/MPO-12 SMF Módulo transceptor óptico $1200.00
- NVIDIA MMA4Z00-NS-FLT Compatible 800 Gb/s Twin-port OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 MMF Módulo transceptor óptico $850.00
- NVIDIA MMS4X00-NM Compatible 800 Gb/s Puerto doble OSFP 2x400G PAM4 1310nm 500m DOM Dual MTP/MPO-12 Módulo transceptor óptico SMF $1100.00
- NVIDIA MMA4Z00-NS Compatible 800 Gb/s Twin-port OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 MMF Módulo transceptor óptico $750.00
- NVIDIA MMS1Z00-NS400 Compatible 400G NDR QSFP112 DR4 PAM4 1310nm 500m MPO-12 con módulo transceptor óptico FEC $800.00
- NVIDIA MMS4X00-NS400 Compatible 400G OSFP DR4 Flat Top PAM4 1310nm MTP/MPO-12 500m SMF FEC Módulo transceptor óptico $800.00
- Módulo transceptor óptico OSFP 4x50G FR2 PAM400 4nm 4km DOM Dual Duplex LC SMF compatible con NVIDIA MMS1310X2-NM $1350.00
- OSFP-XD-1.6T-4FR2 1.6T OSFP-XD 4xFR2 PAM4 1291/1311nm los 2km SN SMF Módulo transceptor óptico $17000.00
- Módulo transceptor óptico LC SMF dúplex dual de 1.6 km OSFP-XD-2T-4FR1.6 2T OSFP-XD 4xFR4 PAM2 4x CWDM2 $22400.00
- OSFP-XD-1.6T-DR8 1.6T OSFP-XD DR8 PAM4 1311nm 2km MPO-16 Módulo transceptor óptico SMF $12600.00