Versionen im Vergleich

Schlüssel

  • Diese Zeile wurde hinzugefügt.
  • Diese Zeile wurde entfernt.
  • Formatierung wurde geändert.

Ein riesiges und hoch-performantes Shared-Memory-System

...

Image RemovedCPUs: 64 x Intel Xeon SandyBridge E5-4640 (2,40 GHz), ingesamt 512 Cores

Memory: 512 x 32 GByte DDR3 / PC1333, ingesamt 15 TByte Speicher

 

InfiniBand: 4 x 40 GBit/s (QDR) InfiniBand (Anbindung an GPFS, /scratch_gs)

 

Netzwerk: 4 x 10 GBit/s Ethernet (2 x 20GBit/s Trunks)

 

OS: RHEL 6.3 (Kernel 2.6.32-279)

 

Zurzeit geteilt in zwei gleichgroße Partionen (hilbert1 und hilbert2). Pro Partition sind für Jobs über das PBS maximal 256 Cores und 7,6 TByte (ca. 7782 GByte, ca. 7969177 MByte oder ca. 8160437862 kByte) nutzbar.

, welches aus normalen Intel-Mainboards besteht und über den sogenannten NUMA-Link zusammen geschaltet werden.

Der NUMA-Link hängt sich in den QPI-Link zwischen den CPUs ein und bringt diesen auf eine Fabric mit Kabeln zwischen den Mainboards.

Das System eignet sich für Anwendungen mit extremen Anforderungen an den Verfügbaren Arbeitsspeicher.

Es ist damit möglich mit einem Prozess bis zu 8 TB RAM transparent zu verwalten und zu nutzen. Dies ist auch in Script-Sprachen wie Perl und Python möglich.

 


Panel
titleHardware


Jahr2012
CPU-Architektur

E5-4640 (Sandybridge), 2.40GHz

Cores32x8
RAM8 GB DDR3
Netzwerk

2x 10Gbit/s Ethernet

2x 40Gbit/s Infiniband QDR

Beschleuniger
PBSarch=uv2000
Nodes2 Nodes, hilbert[1-2]


Image Added

...