Grace el CPU para cargas de trabajo gigantes
abril 13, 2021Grace el CPU para cargas de trabajo gigantes. Nvidia presentó su primera CPU de data center; un procesador basado en Arm que ofrecerá 10 veces el rendimiento de los servidores más rápidos de la actualidad en las cargas de trabajo de computación de alto rendimiento y de IA más complejas.
Grace
La CPU “Grace” es el resultado de más de 10,000 años de trabajo de ingeniería. Se diseñó para abordar los requisitos de computación de las aplicaciones más avanzadas del mundo; incluido el procesamiento de idiomas naturales, los sistemas de recomendación y supercomputación de IA, que analizan enormes conjuntos de datos que requieren una gran cantidad de memoria y un rendimiento de computación ultrarrápido.
Combina cores de CPUs Arm de bajo consumo energético con un innovador subsistema de memoria de bajo consumo para ofrecer un alto rendimiento con más eficiencia.
¿Qué es?
Grace es un procesador altamente especializado que se orienta a cargas de trabajo como el entrenamiento de los modelos NLP de próxima generación que tienen más de 1 billón de parámetros.
Cuando se combina con las GPUs de NVIDIA un sistema basado en Grace; proporcionará un rendimiento 10 veces más rápido que los sistemas actuales Nvidia DGX de vanguardia, que se ejecutan en CPU x86.
Si bien se espera que la gran mayoría de data centers utilizarán CPU existentes; Grace (cuyo nombre es un homenaje a la pionera en programación de computación en EE. UU.), se utilizará en un segmento específico de computación.
El Centro Nacional de Super computación de Suiza (CSCS) y el Laboratorio Nacional de Los Alamos del Departamento de Energía de EE. UU. serán los primeros en anunciar planes para construir super computadoras con la tecnología de Grace para apoyar los esfuerzos nacionales de investigación científica.
Nvidia presenta Grace, a medida que el volumen de datos y el tamaño de los modelos de IA crecen exponencialmente. Los modelos de IA más grandes de la actualidad incluyen miles de millones de parámetros y se duplican cada dos meses y medio. Entrenarlos requiere una nueva CPU que se puede acoplar estrechamente con una GPU para eliminar los cuellos de botella del sistema.
Nvidia desarrolló Grace aprovechando la increíble flexibilidad de la arquitectura de data centers de Arm. Al presentar una nueva CPU de clase de servidor, NVIDIA está avanzando en el objetivo de lograr diversidad tecnológica en las comunidades de IA y HPC; donde la elección es clave para ofrecer la innovación que necesitamos para resolver nuestros problemas más urgentes.
Los Primeros Adoptantes de Grace Superan los límites de la Ciencia y la Inteligencia Artificial.
El CSCS y el Laboratorio Nacional de Los Alamos planean poner en línea super computadoras con la tecnología de Grace; construidas en cooperación con Hewlett Packard Enterprise, en 2023.
Ofrecer un Rendimiento Revolucionario.
La clave para lograr el rendimiento de Grace es la tecnología de interconexión Nvidia NVLink de cuarta generación; que proporciona una conexión récord de 900 GB/s entre Grace y las GPUs de NVIDIA para permitir un ancho de banda agregado 30 veces mayor en comparación con los servidores líderes de la actualidad.
Grace también utilizará un innovador subsistema de memoria LPDDR5x que ofrecerá el doble de ancho de banda y una eficiencia energética 10 veces mayor en comparación con la memoria DDR4. Además, la nueva arquitectura proporciona coherencia de caché unificada con un único espacio de direcciones de memoria; que combina el sistema y la memoria de la GPU de HBM para simplificar la programación.
Grace será compatible con el conjunto de desarrollo de software para HPC de NVIDIA y todo el conjunto de bibliotecas CUDA y CUDA-X, que aceleran más de 2,000 aplicaciones de GPU, para potenciar los descubrimientos de científicos e investigadores que trabajan en los desafíos más importantes del mundo.
Para conocer información relevante sobre IA checa este link
Síguenos en redes sociales https://www.facebook.com/tecnoempresa