Versionen im Vergleich

Schlüssel

  • Diese Zeile wurde hinzugefügt.
  • Diese Zeile wurde entfernt.
  • Formatierung wurde geändert.

...

ENDLICH sind die Komponenten da! Die Teile sind per Flugzeug aus Los Angeles zum Flughafen Düsseldorf gekommen. Dort hat es nochmal drei Tage im Zoll gedauert, aber nun ist alles da. 6 Paletten, zwei davon über 900kg schwer, insgesamt 2400kg Material!

Image Modified


26.01.2018, 10:52

Die neuen Server für NFS und CIFS werden mit 40GigE, als Ethernet mit 40GBit/s, angebunden. Dafür brauchen wir neue Lichtwellenleiter-Kabel. Bei der Gelegenheit räumen wir direkt die ganze LWL-Verkabelung des Clusters auf!

Image Modified


29.01.2018, 14:08

Herr Matthias Wolf von DDN ist gekommen für den Aufbau und Installation. Aber wir bauen lieber alles selber ein - natürlich lassen wir uns vom DDN-Profi instruieren! Hier werden die SAS-Lichtleiterkabel in die Führungsschienen eingebaut.

Image Added


29.01.2018, 15:56

Die Führungsschienen hängen an den Rackmounts für die Platten-Enclosures. So können diese im Rack, rein- und rausgeschoben werden - im laufenden Betrieb, z.B. um eine defekte Platte zu tauschen.

Image Added Image Added


29.01.2018, 16:32

Insgesamt 1032 Festplatten werden am Ende in diesem System gleichzeitig Ihren Dienst tun. Durch die schiere Anzahl erreichen wir so extrem hohe Geschwindigkeit für Lesen und Schreiben, obwohl wir "nur" normale 8TB SATA-Platten einsetzen.

Jeweils 21 Platten sind in einem Karton. Die müssen jetzt alle in die (noch) leeren Enclosures.

Image Added Image Added Image Added


29.01.2018, 17:57

Alle Enclosures sind mit mehreren redundanten optischen SAS-Kabeln mit den RAID-Controllern verbunden. Natürlich haben wir auch hier alle Kabel so verlegt, dass die Enclosures im laufenden Betrieb rein- und rausgeschoben werden können.

Image Added


Leider hat sich gerade heraus gestellt, dass DDN uns den falschen Controller geliefert hat - das HERZSTÜCK des Systems! Panik und Bestürzung bei DDN-Techniker. Sowas darf bei einem solchen Auftrag einfach nicht passieren. Hektisches Telefonieren und wir sind ziemlich sauer!

Es hilft alles nichts, es muss ein neuer Controller aus den USA eingeflogen werden. Leider wird das dauern! ARGH!!!!!


31.01.2018, 10:59

Wir warten auf den neuen Controller. Aber um nicht untätig zu sein, bauen wir schon mal die neuen "AFM-Nodes" ein. Darüber werden die Daten zischen dem ersten und zweiten Standort synchronisiert und außerdem die Daten über die "Cluster Export Services" als NFS oder CIFS rausgegeben. Beide AFM-Nodes sind mit 2x40GigE ans Uni-Netz angebunden!

Image Added


31.01.2018, 13:46

Beim Aufbau hat sich schon ziemlich Verpackungsmüll angesammelt! Das können wir natürlich nicht alles in die Tonnen auf dem Campus verteilen. Der Lieferant hat die Pflicht, den Müll abzuholen und fachgerecht zu entsorgen!

Image Added Image Added


02.02.2018, 08:40

Neue Racks sind eingetroffen. Da wird die zweite Instanz drin eingebaut werden. Dadurch soll nicht immer direkt das ganze HPC System lahm liegen, nur weil eine GPFS-Komponente kaputt ist. Es geht dann einfach auf dem zweiten System weiter!

Image Added

Die Racks sind zu hoch für unsere Türen. Also müssen wir die längst reintragen...


06.02.2018, 09:08

JUHUUU! Der neue Controller ist da!!!

Image Added


06.02.2018, 09:25

Im Controller sind auch Slots für 2,5'' Platten. Wir bauen hier 2TB-SSDs ein, auf denen die Metadaten gecacht werden!

Image Added


06.02.2018, 14:11

ES LEBT! Der neue Controller läuft und hat alle 480 Platten erkannt.

Image Added


21.02.2018, 09:35

Die Migration der Daten auf dem "alten" GPFS (/scratch_gs) läuft immer noch. Wir haben ein Multithread-fähiges Migrationstool geschrieben um die 495 TByte Daten effizient "rüber" zu kopieren. Die meisten Verzeichnisse sind jetzt schon auf dem neuen System. Nur einige "Monster-Verzeichnisse" von unseren Power-Users brauchen etwas mehr - einige User haben über 100 TByte auf dem System. Das soll ja auch so sein, dafür ist es ja da. Aber es braucht eben beim migrieren etwas - trotz Multithreading.

In der Spitze konnte wir ca. 35 GByte/s erreichen. Das ist schon ziemlich gut!

Image Added