Seleccionar página

Los supuestos números de rendimiento y los detalles del acelerador Radeon Instinct MI100 basado en GPU CDNA de próxima generación de AMD se han filtrado por AdoredTV. En una publicación exclusiva, AdoredTV cubre los puntos de referencia de rendimiento de la próxima GPU HPC contra las GPU Volta y Ampere de NVIDIA.

Las pruebas de rendimiento de la GPU AMD Radeon Instinct MI100 ‘CDNA’ se filtran, supuestamente más rápido que el Ampere A100 de NVIDIA en el FP32 Compute con mejor rendimiento / valor

AdoredTV afirma que las diapositivas que recibieron son de la presentación oficial AMD Radeon Instinct MI100. Los publicados en la fuente parecen ser versiones modificadas de los originales, pero los detalles se mantienen intactos. En nuestra publicación anterior, confirmamos que la GPU Radeon Instinct MI100 estaba en camino al mercado en el 2S 2020. Las diapositivas de AdoredTV arrojan algo más de luz sobre los planes de lanzamiento y las configuraciones de servidor que podríamos esperar de AMD y sus socios en 2020 y más allá.

CPU de escritorio AMD Zen 3 ‘Ryzen 4000’ y GPU RDNA 2 ‘Radeon RX Navi 2X’ en camino para el lanzamiento de 2020 – EPYC Milan se enviará más adelante este año, Zen 4 de 5 nm en 2022

Especificaciones del servidor AMD Radeon Instinct MI100 1U

En primer lugar, AMD está planeando presentar un servidor específico de HPC que contará con un diseño 2P con CPU AMY EPYC duales que podrían basarse en la generación de Roma o Milán. Cada CPU EPYC se conectará a dos aceleradores Radeon Instinct MI100 a través de la interconexión Fabric Infinity de segunda generación. Las cuatro GPU podrán entregar un rendimiento sostenido de 136 TFLOP de FP32 (SGEMM) que señala alrededor de 34 TFLOP de cómputo FP32 por GPU. Cada GPU Radeon Instinct MI100 tendrá un TDP de 300W.

Las especificaciones adicionales incluyen un ancho de banda PCIe GPU total de 256 GB / s que es posible en el protocolo Gen 4. El ancho de banda de memoria combinado de las cuatro GPU es de 4.9 TB / s, lo que significa que AMD está utilizando matrices de DRAM HBM2e (cada GPU bombea un ancho de banda de 1.225 TB / s). La agrupación de memoria combinada es de 128 GB o 32 GB por GPU. Esto sugiere que AMD todavía está utilizando 4 tecnologías de pila DRAM HBM2 y cada pila que contiene troqueles DRAM de 8 hi. Parece que XGMI no se ofrecerá en configuraciones estándar y se limitará a bastidores especializados de 1U.

En cuanto a la disponibilidad, se dice que el servidor 1U con CPU HPC AMD EPYC (Roma / Milán) se lanzará en diciembre de 2020, mientras que también se espera que se lance una variante Intel Xeon en febrero de 2021.

AMD supera las estimaciones de Wall Street, ya que registra el segundo ingreso más alto de todos los tiempos

Especificaciones del servidor AMD Radeon Instinct MI100 3U

Se espera que el segundo servidor 3U se lance en marzo de 2021 y ofrecerá especificaciones aún más complejas, como 8 GPU Radeon Instinct MI100 conectadas a dos CPU EPYC. Cada grupo de cuatro Instinct MI 100 se conectará a través de un XGMI (100 GB / s bidireccional) y un ancho de banda cuádruple de 1.2 TB / s. Los cuatro aceleradores Instinct equivaldrían a un total de 272 TFLOP de cómputo FP32, 512 GB por segundo de ancho de banda PCIe, 9.8 TB / s de ancho de banda HBM y 256 GB de capacidad de memoria DRAM. El bastidor tendrá un consumo de potencia nominal de 3kW.

Aceleradores Instinct AMD Radeon 2020

Nombre del acelerador AMD Radeon Instinct MI6 AMD Radeon Instinct MI8 AMD Radeon Instinct MI25 AMD Radeon Instinct MI50 AMD Radeon Instinct MI60 AMD Radeon Instinct MI100
Arquitectura de GPU Polaris 10 Fiji XT Vega 10 Vega 20 Vega 20 Arcturus
Nodo de proceso de GPU FinFET de 14nm 28nm FinFET de 14nm FinFET de 7 nm FinFET de 7 nm FinFET de 7 nm
Núcleos de GPU 2304 4096 4096 3840 4096 8192?
GPU Velocidad de reloj 1237 MHz 1000 megaciclos 1500 MHz 1725 MHz 1800 MHz 1334 MHz?
FP16 Compute 5.7 TFLOPs 8.2 TFLOPs 24.6 TFLOPs 26.5 TFLOPs 29.5 TFLOPs ~ 50 TFLOPs
FP32 Compute 5.7 TFLOPs 8.2 TFLOPs 12.3 TFLOPs 13.3 TFLOPs 14.7 TFLOP ~ 25 TFLOPs
FP64 Compute 384 GFLOPs 512 GFLOPs 768 GFLOPs 6.6 TFLOPs 7.4 TFLOPs ~ 12.5 TFLOPs
VRAM 16 GB de GDDR5 HBM1 de 4 GB 16 GB de HBM2 16 GB de HBM2 32 GB de HBM2 32 GB de HBM2
Reloj de la memoria 1750 MHz 500 megaciclos 472 MHz 500 megaciclos 500 megaciclos TBD
Bus de memoria Bus de 256 bits Bus de 4096 bits Bus de 2048 bits Bus de 4096 bits Bus de 4096 bits Bus de 4096 bits
ancho de banda de memoria 224 GB / s 512 GB / s 484 GB / s 1 TB / s 1 TB / s TBD
Factor de forma Ranura única, longitud completa Doble ranura, media longitud Doble ranura, longitud completa Doble ranura, longitud completa Doble ranura, longitud completa Doble ranura, longitud completa
Enfriamiento Enfriamiento pasivo Enfriamiento pasivo Enfriamiento pasivo Enfriamiento pasivo Enfriamiento pasivo Enfriamiento pasivo?
TDP 150W 175W 300W 300W 300W 300W?
~ 200W (tablero de prueba)

Radeon Instinct MI100 de AMD Números de rendimiento ‘CDNA GPU’, ¿una potencia FP32 en ciernes?

En términos de rendimiento, el AMD Radeon Instinct MI100 se comparó con los aceleradores de GPU NVIDIA Volta V100 y NVIDIA Ampere A100. Curiosamente, las diapositivas mencionan un acelerador Ampere A100 de 300 W, aunque no existe tal configuración, lo que significa que estas diapositivas se basan en una configuración hipotética A100 en lugar de una variante real que viene en dos versiones, la configuración de 400 W en el factor de forma SXM y la configuración de 250 W que viene en el factor de forma PCIe.

Según los puntos de referencia, el Radeon Instinct MI100 ofrece un rendimiento de FP32 alrededor de un 13% mejor en comparación con el Ampere A100 y más del doble de aumento de rendimiento en comparación con las GPU Volta V100. La relación rendimiento / valor también se compara con el MI100 que ofrece alrededor de 2,4 veces mejor valor en comparación con el V100S y un valor 50% mejor que el Ampere A100. También se muestra que la escala de rendimiento es casi lineal incluso con hasta 32 configuraciones de GPU en Resenet, lo cual es bastante impresionante.

AMD Radeon Instinct MI100 contra el acelerador HPC Ampere A100 de NVIDIA (Créditos de imagen: AdoredTV):

Dicho esto, las diapositivas también mencionan que AMD ofrecerá un rendimiento y un valor mucho mejores en tres segmentos específicos que incluyen Oil & Gas, Academia y HPC & Machine Learning. En el resto de las cargas de trabajo de HPC, como la computación FP64, la inteligencia artificial y el análisis de datos, NVIDIA ofrecerá un rendimiento muy superior con su acelerador A100. NVIDIA también tiene el beneficio de la arquitectura de GPU de varias instancias sobre AMD. Las métricas de rendimiento muestran un rendimiento FP64 2.5 veces mejor, un rendimiento FP16 2 veces mejor y el doble del rendimiento del tensor gracias a los núcleos Tensor de última generación en la GPU Ampere A100.

Una cosa que debe destacarse es que AMD no ha mencionado los números de escasez de NVIDIA en ninguna parte de los puntos de referencia. Con poca amplitud, el Ampere A100 de NVIDIA cuenta con hasta 156 TFLOP de potencia, aunque parece que AMD solo quería hacer una comparación de referencia específica en comparación con el Ampere A100. Por lo que parece, el Radeon Instinct MI100 parece ser una oferta de HPC decente si los números de rendimiento y valor se mantienen en el lanzamiento.