Nvidia ha arrancado la conferencia de desarrolladores, GTC 2024, por la puerta grande. Su CEO y fundador, Jensen Huang, ha sido el encargado de presentar las novedades de la compañía: Nvidia Blackwell, los microservicios NIM, las API de Omniverse Cloud y mucho más.
La IA generativa promete revolucionar todas las industrias que toca, todo lo que se necesita es la tecnología para enfrentarse a ese desafío. Y la empresa de microprocesadores parece haber tomado la delantera en lo que a IA se refiere, lo que le ha llevado a aumentar su cotización en bolsa más de un 240% en el último año.
«Creamos un procesador para la era de la IA generativa», afirmó Huang cuando presentó este lunes la plataforma Blackwell y describió los principales avances que una mayor capacidad informática puede ofrecer en todos los campos, desde el software hasta los servicios, pasando por la robótica o la tecnología médica.
«La computación acelerada ha llegado a un punto de inflexión: la computación de propósito general se ha quedado sin fuerza», dijo Huang ante más de 11.000 asistentes al GTC 2024 que se dieron cita en el estadio SAP Center de Silicon Valley (con cientos de miles siguiendo en evento en streaming).
“Necesitamos otra forma de hacer informática, para que podamos seguir escalando, para que podamos seguir reduciendo el coste de la informática, para que podamos seguir consumiendo más y más informática y al mismo tiempo ser sostenibles. La computación acelerada es una aceleración espectacular respecto de la computación de propósito general, en todas las industrias”.
Su presentación de 20 minutos, con una pantalla de más de 12 metros de alto, entusiasmó a los asistentes al Centro de Convenciones de San José, entre los que se encontraban desde directores ejecutivos de las principales empresas tecnológicas a desarrolladores, empresarios y entusiastas de la inteligencia artificial.
Entre lo más destacado de su presentación, la nueva plataforma Nvidia Blackwell que liberará. la IA generativa en tiempo real en modelos de lenguaje de gran tamaño con billones de parámetros.
También Nvidia NIM, los microservicios que ofrecen una nueva forma de empaquetar y entregar software que conecta a los desarrolladores con cientos de millones de GPU para implementar IA personalizada de todo tipo. Y para llevar la IA al mundo físico, Huang presentó las API de Omniverse Cloud para ofrecer capacidades de simulación avanzadas.
GTC se ha convertido ya en una referencia en el mundo de la tecnología, la conferencia de Nvidia ha pasado de un pequeño salón de un hotel hace 15 años, a lo que hemos visto hoy, la mayor conferencia sobre inteligencia artificial del mundo, regresando a un evento presencial tras 5 años.
Al inicio de su charla, Huang explicó que el auge de la IA multimodal (capaz de procesar diversos tipos de datos manejados por diferentes modelos) le da a la IA una mayor adaptabilidad y poder, aumentando sus parámetros, estos modelos pueden manejar análisis más complejos.
Pero esto conlleva un significativo aumento de la necesidad de potencia de cómputo. Y a medida que estos sistemas colaborativos y multimodales se vuelven más complejos, con millones de parámetros, la demanda de infraestructura avanzada se intensifica.
«Necesitamos modelos aún más grandes», dijo Huang. «Vamos a entrenarlo con datos multimodales, no solo texto en Internet, lo vamos a entrenar con textos e imágenes, gráficos y tablas”.
La próxima generación de computación acelerada
Si hubiese que resumir la presentación en pocas palabras: «necesitamos GPU más grandes», afirmó Huang mientras sacada un chip Blackwell de su bolsillo. La plataforma Blackwell parece estar diseñada para afrontar ese desafío.
Esta nueva arquitectura de microprocesadores lleva el nombre de David Harold Blackwell, matemático de la Universidad de California en Berkeley, especializado en teoría de juegos y estadística, y el primer académico negro incorporado a la Academia Nacional de Ciencias, que sucede a la arquitectura NVIDIA Hopper, lanzada hace dos años.
Blackwell ofrece un rendimiento 2,5 veces mayor que su predecesor en FP8 para entrenamiento, por chip, y 5x con FP4 para inferencia. Cuenta con una interconexión NVLink de quinta generación que es dos veces más rápida que Hopper y escala hasta 576 GPU.
Y el superchip NVIDIA GB200 Grace Blackwell conecta dos GPU Blackwell NVIDIA B200 Tensor Core a la CPU NVIDIA Grace a través de una interconexión de chip a chip NVLink de consumo ultrabajo de 900 GB/s.
«Esta es la primera de su tipo en la que cabe tanta computación en un espacio tan pequeño», dijo Huang. «Dado que esto es coherente con la memoria, se siente como si fuera una gran familia feliz trabajando juntos en una aplicación».
Para obtener el mayor rendimiento de IA, los sistemas con tecnología GB200 se pueden conectar con las plataformas NVIDIA Quantum-X800 InfiniBand y Spectrum-X800 Ethernet, también anunciadas hoy, que ofrecen redes avanzadas a velocidades de hasta 800 Gb/s.