NVIDIA H100 – kraftfull och skalbar
På universitet och i laboratorier runt om i världen använder forskare och utvecklare redan GPU:er från NVIDIA för att kunna få ut så mycket som möjligt av kombinationen HPC och AI – High Performance Computing och artificiell intelligens.
Redo för både forskning och näringsliv
I takt med att artificiell intelligens börjar ta plats på riktigt i näringslivet, kommer allt fler företag och andra organisationer behöva infrastruktur som kan hantera tekniken, och NVIDIA H100 är redo att axla den rollen. NVIDIA H100 har fjärde generationens Tensor-kärnor och en Transformer Engine med FP8-precision som ger upp till nio gånger snabbare AI-träning jämfört med tidigare generationer.
Många fördelar med NVIDIA H100
När NVIDIA lanserade sin H100 flyttade de fram sin position som marknadsledare än längre. Med upp till trettio gånger snabbare inferens och marknadens lägsta latency får den det mesta att blekna vid jämförelse.
- Utgör ena halvan av NVIDIA H100 CNX
- Kan hantera många användare samtidigt – perfekt för molntjänster.
- Gör FP64, TF32, FP32, FP16 och INT8 snabbare än någonsin.
Skala upp den för storverk
Med NVIDIA H100 i ditt datacenter kan du räkna med enastående prestanda och fantastisk skalbarhet även för väldigt krävande High Performance Computing (HPC). Och apropå skalbarhet: Med NVIDIA switchsystem NVLink kan du koppla ihop upp till 256 H100, men långt innan dess har du prestanda nog för att skapa, träna och använda riktigt avancerade språkmodeller för chattbotar och andra artificiella intelligenser som det faktiskt går att prata med. Att skala upp din server i takt med att datamängderna eller kraven ökar är alltså inga problem.
Läs gärna om våra andra GPU:er från NVIDIA eller bygg ditt eget system i vår konfigurator.