Sie zeigen eine alte Version dieser Seite an. Zeigen Sie die aktuelle Version an.

Unterschiede anzeigen Seitenhistorie anzeigen

« Vorherige Version anzeigen Version 2 Nächste Version anzeigen »

Im Herbst 2020 wurden die ersten Nvidia DGX A100 kurz nach der Veröffentlichung von Nvidia in Hilbert integriert. Die Systeme eignen sich besonders für extreme KI-Anwendungen durch ihren hohen Speicher pro Karte und die sehr hohe Anzahl an CUDA-Cores pro System. Zudem sind die Systeme mit 4x100Gbit/s Infiniband an den restlichen Cluster und an den Storage angeschlossen.

Die Systeme verfügen über einen lokalen Cache für Daten die über mehrere Jobs inweg mehrfach gelesen werden müssen um die Latenzen beim Laden von Daten zu minimieren.


PyTorch

Es wird mindestens Version 1.8.0 benötigt um auf den Karten zu rechnen

pip install --user --pre -i http://pypi.repo.test.hhu.de/simple/ --trusted-host pypi.repo.test.hhu.de /software/pytorch/torch-1.8.0.dev20201102+cu110-cp36-cp36m-linux_x86_64.whl /software/pytorch/torchvision-0.9.0.dev20201102+cu110-cp36-cp36m-linux_x86_64.whl
Hardware

Nvidia DGX A100

Jahr2020
CPU-Architektur

AMD EPYC 7742, 2.25GHz

Cores2x64
RAM2 TB DDR4
Netzwerk

1Gbit/s Ethernet

4x100Gbit/s Infiniband EDR

Beschleuniger8x Nvidia A100 SMX4 40GB
Peak Performance (CUDA)19.5 TFLOPS (FP64, double precision)
PBSaccelerator_model=a100
Nodes4Nodes, hilbert[400-403]
  • Keine Stichwörter