Deel dit artikel
-

AI-infrastructuur in de cloud: NVIDIA’s Grace Hopper (CPU en GPU)

Computers die denken als mensen en daarnaar laten handelen. Dat lijkt een werkelijkheid uit de verre toekomst, maar deze komt sneller dichterbij dan menigeen denkt.

Dat komt door de nieuwste generatie computerchips. Die werken als neuronen in het menselijke brein en vormen tezamen neurale netwerken; ‘begrijpende’ systemen. Eind 2022 komt de nieuwe generatie GPU van NVIDIA op de markt (H100 of: Hopper). Deze zal de komende jaren als dé benchmark gelden voor concurrenten, gespecialiseerde start-ups, uitvinders en wetenschappers.

Als mensheid bewegen we naar een wereld waarin computers de fysieke werkelijkheid observeren en daarop reageren met instructies. Dat klinkt misschien eng, maar legitimeert tegelijkertijd het werk van ethici en privacy-experts. Zij, en de wet, bepalen de grenzen.

Een concreet voorbeeld van denkende computers: Tesla’s. Camera’s in de auto kijken naar wegen en verkeer en leren, via een achterliggend computercluster, verkeer, intenties en veilig vervoer snappen. Niet geheel toevallig werkt Tesla dan ook met de voorganger van NVIDIA’s H100. Alleen is deze nieuwe chip drie tot zes keer sneller.

Ter illustratie: een trainingset met taaldata (GPT-3 175B) die vijf dagen computertijd nodig had, ploegt dezelfde set nu in negentien uur door. En waar worden deze clusters of pods voor gebruikt? Vooral voor hele grote simulaties en hypothetische scenario’s. En, echt waar, om nieuwe chips te ontwerpen.

Specificaties
Vorm: SXM en PCIe
Configurable floating point formats: FP8 en FP16
Stroomverbruik: 700W (TDP)
Chipbakker: TSMC
Beschikbaar: GPU (Hopper) Tensor Core Q3 2022, Hopper CPU (Grace) H1 2023

Dit artikel verscheen eerder in het juninummer van Emerce Magazine #190.

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond