Nvidia presentó una serie de productos empresariales centrados en la inteligencia artificial (IA) en su conferencia anual GTC.
La compañía anunció la llegada de su nueva arquitectura de silicio Hooper, la primera GPU para centros de datos construida con Hooper llamada H100 y un nuevo superchip de CPU Grace.
Los productos estarán acompañados de los primeros planes para construir la supercomputadora de inteligencia artificial más rápida del mundo y que se llamará Eos.
Nvidia y su camino por la IA
La compañía aseguró que que su nueva arquitectura ayudará sobre todo a la aceleración del entrenamiento de los modelos transformer en las GPU H100 hasta seis veces más que los chips de generaciones anteriores.
Los transformer son un tipo de sistema de aprendizaje automático, impulsado desde modelos lingüísticos como el GPT-3 de OpenAl y hasta sistemas médicos como el AlphaFold.
«Entrenar estos modelos gigantescos todavía lleva meses, Así que se dispara un trabajo y se espera un mes y medio para ver qué pasa. Un reto clave para reducir este tiempo de entrenamiento es que las ganancias de rendimiento comienzan a disminuir a medida que se aumenta el número de GPUs en un centro de datos” mencionó Paresh Kharya, director senior de gestión de productos.
Nvidia enseñó la GPU H100 que contiene 80,000 millones de transistores y es la primera GPU que soporta PCLe Gen 5 y utiliza HBM3, lo que permite un ancho de banda de memoria de 3 TB por segundo.
La compañía aseguró que es tres veces más rápida que su generación anterior A100 y aportará un rendimiento hasta nueve veces mejor para los usuarios.
El futuro de la marca estará enfocado en la nueva supercomputadora de IA llamada Eos, que se construirá desde la arquitectura Hooper con 4,600 GPU H100 para ofrecer 18,4 exaflops.