Så gik Nvidia ellers lige amok

Vi er sikkert flere der har prøvet at få vores GPU’er til at arbejde lidt hurtigere.

Både på den ene og den anden måde.

I den forbindelse er vi helt sikkert flere der er stødt på Nvidia, der – i perioder – producerer de “hurtigste grafik kort” i verden.

Andre gange er det som bekendt konkurrenten.

Der har dog været pænt stille omkring både Nvidia og konkurrenterne, her på det sidste.

Heldigvis viser det sig at det handler om at de har udviklet på nye ting, der – ikke særligt overraskende – nu er meget hurtigere end tidligere.

Det er med andre ord blevet tid til den kommende “Hopper” AI chip, der også bliver kendt som the Nvidia H100 Hopper GPU, der – i første omgang – ikke er målrettet konsum markedet.

Det er nok ikke helt billigt at købe fysisk adgang til de her TeraFlops

Omvendt plejer det at være sådan at når ultra high end miljøet kan få fingre i nyt, kan vi andre også snart.

Og det er pænt heldigt, nu hvor den her H100 Tensor Core GPU, er netop så hurtig at alle er begyndt at glæde sig.

Partnere på dette område, der – blandt andet – er Dell, Lenovo, Cisco, Atos, Fujitsu, GIGABYTE, Hewlett-Packard Enterprise, og Supermicro, glæder sig alle til at de også kan begynde at opdatere deres hardware, med H100, der for en god ordens skyld er i omegnen af 4.5x gange hurtigere end den tidligere model, og væsentligt mere “energi venlig”.

Læs også  Canon og Grass Valley IP Solutions er også med

Lidt en joke i den verden.

Omvendt skulle H100 være op imod 3.5 gange så god til at spare på energien “samtidig med at den performer som en A100 Core GPU”. ( jamen, den performer jo 4,5 gange så hurtigt, hvilket kunne betyde at den bruger 4,5 gange så meget strøm ?)

Nvidia forklarer at H100, er deres – til dags dato – kraftigste AI-focused GPU, nu udstyret med mere end 80 milliarder transistorer og en ny “Transformer Engine”, der giver helt ny mening til AI machine learning.

Som du sikkert har gættet det, er H100 ikke udviklet til almindelige computere, men derimod til “industrial”, “health care”, “supercomputer” og endelig cloud applications.

Forventningerne hos både fremtidige brugere og producenten er at H100 kommer til at betyde en masse for udviklingen af AI og andre ekstremt regne tunge områder.

Nvidia har i samme omgang løftet sløret for at deres nye GPU kommer i over 50 versioner, fordi forskellige selskaber ( samarbejdspartnere ) hver især udvikler deres egne servere, nu baseret på H100 GPUer.

Nvidia selv er på vej med “The Nvidia DGX H100 enterprise system”, der er en lille nyhed der “pakker” 8 styks H100 chips, hvilket giver 32 petaflops i performance.

Nyheden er så vild at hverken Kina eller Rusland kan forvente at få adgang til regnekraften.

Læs også  Godt GPU nyt til 8K folket

Noget Nvidia er blevet pålagt af den amerikanske regering.

I forhold til performance – her specs for Nvidia DGX H100 enterprise systemet i grund configuration

8x NVIDIA H100 GPUs med 640 Gigabytes af dedikeret GPU hukommelse
18x NVIDIA NVLink connections per GPU, 900 Gigabytes i sekundet bidirektionelt GPU-to-GPU båndbredde

4x NVIDIA NVSwitches
7.2 terabytes i sekndet bidirektionelt GPU-to-GPU båndbredde, hvilket er 1.5X hvad den forrige generation kunne præstere

10x NVIDIA ConnectX-7 400 Gigabits-Per-Second Network Interfaces
1 TeraByte i sekundet af peak bidirektionelt network båndbredde

Dual x86 CPUer og 2 Terabytes System hkommelse
Powerful CPUer til de helt tunge AI jobs

30 Terabytes NVMe SSD High speed storage

Læs videre her.