AMD kondigt nieuwe "Instinct MI100" GPU aan, doorbreekt de 10 TFLOPS-barrière in FP64

Inhoudsopgave:

AMD kondigt nieuwe "Instinct MI100" GPU aan, doorbreekt de 10 TFLOPS-barrière in FP64
AMD kondigt nieuwe "Instinct MI100" GPU aan, doorbreekt de 10 TFLOPS-barrière in FP64
Anonim

Met de stijgende vraag naar HPC- en AI-aangedreven cloudapplicaties ontstaat er behoefte aan zeer krachtige datacenter-GPU's. Meestal is NVIDIA de koning van dit veld, maar AMD's nieuwste MI100 GPU biedt serieuze concurrentie.

Een kaart voor de HPC-markt

De kaart is snel, serieus snel. NVIDIA's high-end A100 GPU piekt op 9,7 TFLOPS in FP64-workloads. De nieuwe "AMD Instinct MI100" springt daar voorbij met 11,5 TFLOPS.

Afbeelding
Afbeelding

Natuurlijk ondersteunen de kaarten van NVIDIA andere versnellingstechnieken voor AI-specifieke workloads in verschillende getalformaten, zoals het TensorFloat-32-precisieformaat en fijnkorrelige gestructureerde sparsity. Voor AI- en Machine Learning-workloads is NVIDIA nog steeds de koning, omdat hun kaarten speciaal zijn gebouwd voor op tensor gebaseerde bewerkingen.

Maar voor High Performance Computing voor algemeen gebruik neemt de MI100 de kroon op het gebied van pure rekenkracht. Bovendien kost het bijna de helft van de prijs en is het veel efficiënter per watt.

Naast de andere verbeteringen, brengt de nieuwe architectuur ook verbeteringen met gemengde precisie, waarbij hun "Matrix Core"-technologie 7x betere FP16-prestaties levert in vergelijking met hun vorige generatie kaarten.

Afbeelding
Afbeelding

AMD CPU's en Instinct GPU's voeden beide twee exascale supercomputers van het Amerikaanse ministerie van Energie. Het is de bedoeling dat de "Frontier"-supercomputer volgend jaar wordt gebouwd met de huidige Epyc-CPU's en MI100's, en zal meer dan 1,5 exaflops aan piekcomputerkracht leveren. Het is de bedoeling dat de supercomputer "El Capitan" in 2023 wordt gebouwd op hardware van de volgende generatie en meer dan 2 exaflops met dubbele precisie zal leveren.

Kan ROCm CUDA waarmaken?

Natuurlijk is al deze kracht nutteloos als de software het niet ondersteunt. Het is geen geheim dat NVIDIA erin is geslaagd om van machine learning een beetje een ommuurde tuin te maken.

NVIDIA's compute-framework heet CUDA, of Compute Unified Device Architecture. Het is eigen en werkt alleen met hun kaarten. Maar aangezien hun kaarten historisch gezien de snelste waren, worden veel applicaties in de eerste plaats alleen gebouwd met CUDA-ondersteuning.

Er zijn platformonafhankelijke programmeermodellen, met name OpenCL, die AMD heel goed ondersteunt met hun ROCm-platform. Zowel NVIDIA-kaarten als AMD-kaarten ondersteunen OpenCL, maar omdat NVIDIA het alleen ondersteunt door naar CUDA te transpileren, is het eigenlijk langzamer om OpenCL te gebruiken met een NVIDIA-kaart. Hierdoor zullen niet alle applicaties dit ondersteunen.

Uiteindelijk moet je je eigen onderzoek doen en kijken of de applicatie die je van plan bent te draaien op AMD-kaarten kan worden uitgevoerd, en misschien moet je voorbereid zijn op wat knutselen en het oplossen van bugs. NVIDIA GPU's zijn daarentegen meestal plug-and-play, dus zelfs als AMD sneller is, kan NVIDIA ze blijven hinderen met closed-source software.

Deze situatie wordt echter beter: AMD zet zich in om alles open source te maken en een open omgeving te creëren. Tensorflow en PyTorch, twee zeer populaire ML-frameworks, ondersteunen beide het ROCm-ecosysteem.

Afbeelding
Afbeelding

Hopelijk kunnen de onbewerkte specificaties van AMD's nieuwste aanbod de industrie naar een meer concurrerende omgeving duwen. Ze worden tenslotte gebruikt in supercomputers

Populair onderwerp