Seleccionar página

Los supuestos números de rendimiento y los detalles del acelerador Radeon Instinct MI100 basado en GPU CDNA de próxima generación de AMD se han filtrado por AdoredTV. En una publicación exclusiva, AdoredTV cubre los puntos de referencia de rendimiento de la próxima GPU HPC contra las GPU Volta y Ampere de NVIDIA.

Las pruebas de rendimiento de la GPU AMD Radeon Instinct MI100 ‘CDNA’ se filtran, supuestamente más rápido que el Ampere A100 de NVIDIA en el FP32 Compute con mejor rendimiento / valor

AdoredTV afirma que las diapositivas que recibieron son de la presentación oficial AMD Radeon Instinct MI100. Los publicados en la fuente parecen ser versiones modificadas de los originales, pero los detalles se mantienen intactos. En nuestra publicación anterior, confirmamos que la GPU Radeon Instinct MI100 estaba en camino al mercado en el 2S 2020. Las diapositivas de AdoredTV arrojan algo más de luz sobre los planes de lanzamiento y las configuraciones de servidor que podríamos esperar de AMD y sus socios en 2020 y más allá.

CPU de escritorio AMD Zen 3 ‘Ryzen 4000’ y GPU RDNA 2 ‘Radeon RX Navi 2X’ en camino para el lanzamiento de 2020 – EPYC Milan se enviará más adelante este año, Zen 4 de 5 nm en 2022

Especificaciones del servidor AMD Radeon Instinct MI100 1U

En primer lugar, AMD está planeando presentar un servidor específico de HPC que contará con un diseño 2P con CPU AMY EPYC duales que podrían basarse en la generación de Roma o Milán. Cada CPU EPYC se conectará a dos aceleradores Radeon Instinct MI100 a través de la interconexión Fabric Infinity de segunda generación. Las cuatro GPU podrán entregar un rendimiento sostenido de 136 TFLOP de FP32 (SGEMM) que señala alrededor de 34 TFLOP de cómputo FP32 por GPU. Cada GPU Radeon Instinct MI100 tendrá un TDP de 300W.

Las especificaciones adicionales incluyen un ancho de banda PCIe GPU total de 256 GB / s que es posible en el protocolo Gen 4. El ancho de banda de memoria combinado de las cuatro GPU es de 4.9 TB / s, lo que significa que AMD está utilizando matrices de DRAM HBM2e (cada GPU bombea un ancho de banda de 1.225 TB / s). La agrupación de memoria combinada es de 128 GB o 32 GB por GPU. Esto sugiere que AMD todavía está utilizando 4 tecnologías de pila DRAM HBM2 y cada pila que contiene troqueles DRAM de 8 hi. Parece que XGMI no se ofrecerá en configuraciones estándar y se limitará a bastidores especializados de 1U.

En cuanto a la disponibilidad, se dice que el servidor 1U con CPU HPC AMD EPYC (Roma / Milán) se lanzará en diciembre de 2020, mientras que también se espera que se lance una variante Intel Xeon en febrero de 2021.

AMD supera las estimaciones de Wall Street, ya que registra el segundo ingreso más alto de todos los tiempos

Especificaciones del servidor AMD Radeon Instinct MI100 3U

Se espera que el segundo servidor 3U se lance en marzo de 2021 y ofrecerá especificaciones aún más complejas, como 8 GPU Radeon Instinct MI100 conectadas a dos CPU EPYC. Cada grupo de cuatro Instinct MI 100 se conectará a través de un XGMI (100 GB / s bidireccional) y un ancho de banda cuádruple de 1.2 TB / s. Los cuatro aceleradores Instinct equivaldrían a un total de 272 TFLOP de cómputo FP32, 512 GB por segundo de ancho de banda PCIe, 9.8 TB / s de ancho de banda HBM y 256 GB de capacidad de memoria DRAM. El bastidor tendrá un consumo de potencia nominal de 3kW.

Aceleradores Instinct AMD Radeon 2020

Nombre del aceleradorAMD Radeon Instinct MI6AMD Radeon Instinct MI8AMD Radeon Instinct MI25AMD Radeon Instinct MI50AMD Radeon Instinct MI60AMD Radeon Instinct MI100
Arquitectura de GPUPolaris 10Fiji XTVega 10Vega 20Vega 20Arcturus
Nodo de proceso de GPUFinFET de 14nm28nmFinFET de 14nmFinFET de 7 nmFinFET de 7 nmFinFET de 7 nm
Núcleos de GPU230440964096384040968192?
GPU Velocidad de reloj1237 MHz1000 megaciclos1500 MHz1725 MHz1800 MHz1334 MHz?
FP16 Compute5.7 TFLOPs8.2 TFLOPs24.6 TFLOPs26.5 TFLOPs29.5 TFLOPs~ 50 TFLOPs
FP32 Compute5.7 TFLOPs8.2 TFLOPs12.3 TFLOPs13.3 TFLOPs14.7 TFLOP~ 25 TFLOPs
FP64 Compute384 GFLOPs512 GFLOPs768 GFLOPs6.6 TFLOPs7.4 TFLOPs~ 12.5 TFLOPs
VRAM16 GB de GDDR5HBM1 de 4 GB16 GB de HBM216 GB de HBM232 GB de HBM232 GB de HBM2
Reloj de la memoria1750 MHz500 megaciclos472 MHz500 megaciclos500 megaciclosTBD
Bus de memoriaBus de 256 bitsBus de 4096 bitsBus de 2048 bitsBus de 4096 bitsBus de 4096 bitsBus de 4096 bits
ancho de banda de memoria224 GB / s512 GB / s484 GB / s1 TB / s1 TB / sTBD
Factor de formaRanura única, longitud completaDoble ranura, media longitudDoble ranura, longitud completaDoble ranura, longitud completaDoble ranura, longitud completaDoble ranura, longitud completa
EnfriamientoEnfriamiento pasivoEnfriamiento pasivoEnfriamiento pasivoEnfriamiento pasivoEnfriamiento pasivoEnfriamiento pasivo?
TDP150W175W300W300W300W300W?
~ 200W (tablero de prueba)

Radeon Instinct MI100 de AMD Números de rendimiento ‘CDNA GPU’, ¿una potencia FP32 en ciernes?

En términos de rendimiento, el AMD Radeon Instinct MI100 se comparó con los aceleradores de GPU NVIDIA Volta V100 y NVIDIA Ampere A100. Curiosamente, las diapositivas mencionan un acelerador Ampere A100 de 300 W, aunque no existe tal configuración, lo que significa que estas diapositivas se basan en una configuración hipotética A100 en lugar de una variante real que viene en dos versiones, la configuración de 400 W en el factor de forma SXM y la configuración de 250 W que viene en el factor de forma PCIe.

Según los puntos de referencia, el Radeon Instinct MI100 ofrece un rendimiento de FP32 alrededor de un 13% mejor en comparación con el Ampere A100 y más del doble de aumento de rendimiento en comparación con las GPU Volta V100. La relación rendimiento / valor también se compara con el MI100 que ofrece alrededor de 2,4 veces mejor valor en comparación con el V100S y un valor 50% mejor que el Ampere A100. También se muestra que la escala de rendimiento es casi lineal incluso con hasta 32 configuraciones de GPU en Resenet, lo cual es bastante impresionante.

AMD Radeon Instinct MI100 contra el acelerador HPC Ampere A100 de NVIDIA (Créditos de imagen: AdoredTV):

Dicho esto, las diapositivas también mencionan que AMD ofrecerá un rendimiento y un valor mucho mejores en tres segmentos específicos que incluyen Oil & Gas, Academia y HPC & Machine Learning. En el resto de las cargas de trabajo de HPC, como la computación FP64, la inteligencia artificial y el análisis de datos, NVIDIA ofrecerá un rendimiento muy superior con su acelerador A100. NVIDIA también tiene el beneficio de la arquitectura de GPU de varias instancias sobre AMD. Las métricas de rendimiento muestran un rendimiento FP64 2.5 veces mejor, un rendimiento FP16 2 veces mejor y el doble del rendimiento del tensor gracias a los núcleos Tensor de última generación en la GPU Ampere A100.

Una cosa que debe destacarse es que AMD no ha mencionado los números de escasez de NVIDIA en ninguna parte de los puntos de referencia. Con poca amplitud, el Ampere A100 de NVIDIA cuenta con hasta 156 TFLOP de potencia, aunque parece que AMD solo quería hacer una comparación de referencia específica en comparación con el Ampere A100. Por lo que parece, el Radeon Instinct MI100 parece ser una oferta de HPC decente si los números de rendimiento y valor se mantienen en el lanzamiento.