Del Data Center a las fábricas de IA
Del Data Center a las fábricas de IA
Nvidia

Las fábricas de IA procesan y refinan montañas de datos para producir inteligencia a partir de una amplia gama de cargas de trabajo que abarcan digital twins, IA, computación de alto rendimiento, gráficos en la nube y juegos.

En los primero meses de 2023 operará una nueva gama de Sistemas de Data Centers para Digital Twins, IA, Computación de Alto Rendimiento, Gráficos en la Nube y Juegos.

Este tipo de plataformas se habilitará con tecnología de ASUS, Foxconn Industrial Internet, GIGABYTE, QCT, Supermicro y Wiwynn, entre otros proveedores.

Es en ese periodo cuando los principales fabricantes de computadoras de Taiwán lanzarán la primera ola de sistemas impulsados por el superchip de CPU NVIDIA Grace y el superchip Grace Hopper.

Se espera que docenas de modelos de servidores de ASUS, Foxconn Industrial Internet, GIGABYTE, QCT, Supermicro y Wiwynn estén disponibles.

Los sistemas impulsados por Grace se unirán a x86 y otros servidores basados en Arm para ofrecer a los clientes una amplia gama de opciones para lograr un alto rendimiento y eficiencia en sus data centers.

Te interesa leer: NVIDIA te capacita en sus novedades

Potencian las cargas de trabajo

Las dos tecnologías de superchips NVIDIA Grace permiten una amplia gama de cargas de trabajo de computación intensiva en una multitud de arquitecturas de sistemas.

El superchip de CPU Grace cuenta con dos chips de CPU, conectados de forma coherente a través de una interconexión NVLink-C2C, con hasta 144 núcleos Arm V9 de alto rendimiento con extensiones vectoriales escalables y un subsistema de memoria de 1 terabyte por segundo.

El diseño proporciona el mayor rendimiento y el doble de ancho de banda de memoria y eficiencia energética de los principales procesadores de servidores de la actualidad para abordar las aplicaciones más exigentes de HPC, análisis de datos, digital twins, juegos en la nube y computación de hiperescala.

El superchip Grace Hopper combina una GPU NVIDIA Hopper con una CPU NVIDIA Grace mediante NVLink-C2C en un módulo integrado que se diseñó para abordar las aplicaciones de HPC y de IA de gran escala.

Mediante la interconexión NVLink-C2C, la CPU Grace transfiere los datos a la GPU Hopper 15 veces más rápido que las CPU tradicionales.

¿Qué productos tecnológicos ofertarás en Hot Sale?

En esta nota se habla de: data center, inteligencia artificial, Nvidia