NVIDIA A100 80GB

A100, baserad på arkitekturen Ampere, har ett brett stöd för många olika arbetsuppgifter och ger tjugo gånger mer prestanda jämfört med förra generationen Volta. A100 skalar effektivt och kan delas upp i sju isolerade GPU-instanser (MIG). Den stödjer även NVIDIA NVLink, vilket gör det möjligt att länka ihop flera A100-enheter.

  • GPU memory: 80GB
  • GPU memory bandwith: 1,935GB/s
  • TDP: 300W
  • FP64: 9.7 teraFLOPS
  • FP64 Tensor Core: 19.5 teraFLOPS
  • Form Factor: PCIe

Datablad

Pris: SEK
Lager:
Lägg i varukorgen

Med NVIDIAs A100 GPU med Tensorkärnor får du oslagbar acceleration för att kunna köra dagens största och mest avancerade datacenter för AI, dataanalys och avancerade beräkningar. Med NVIDIAs Ampere-arkitektur i botten är A100 redo att klara av mer krävande uppgifter än i princip alla andra GPU:er. NVIDIA A100 80GB har dessutom världens högsta  minnesbandbredd – över 2 TB per sekund – så att du ska kunna hantera riktigt stora modeller, visualiseringar och datamängder.

 

Redo för alla dagens utmaningar

Något annat som kräver extrem prestanda är förstås språkmodeller och artificiell intelligens. Även  här kommer  NVIDIA A100 80GB till sin rätt. I tester med språkmodellen BERT, som blivit något av ett standardmått, har A100 visat sig prestera 249 gånger snabbare än jämförbara processorer.

 

NVIDIA A100 – skalbar uppåt och neråt

Multi-Instance GPU (MIG) tillåter en enskild A100 arbeta i upp till sju isolerade instanser samtidigt, vilket i praktiken innebär att den arbetar som sju GPU:er på en gång. Och om du kombinerar med till exempel NVLink, NVSwitch, PCI Gen4, InfiniBand eller annan lämplig nätverkshårdvara kan du länka ihop så många A100 du behöver – om det så är tusentals.

 

Kontakta oss!

Om du vill veta mer om NVIDIA A100 80GB och hur du kan använda den? Eller undrar du något annat om de serverlösningar vi levererat under mer än tjugo år? Vi berättar gärna mer! Bygg din egen server i vår konfigurator eller prata med oss om vad du vill göra, så konstruerar och bygger vi servern eller beräkningsklustret du behöver.