Es ist möglich auf die Filesysteme des Clusters auch von außerhalb zuzugreifen. Alle Filesysteme werden dabei über storage.hpc.rz.uni-duesseldorf.de per CIFS freigegeben. Dieser Server kann auch für Transfers mit rsync oder SCP/SFTP verwendet werden.
Hinweis für UKD und Medizin
Wenn Sie das Gefühl haben, dass ihre Datenverbindungen langsam sind, wenden Sie sich bitte an das HPC-Team. Möglicherweise muss eine Bandbreiten-Einschränkung der UKD-IT für Sie deaktiviert werden.
Externe Datentransfers
Wenn Sie Daten mit externen Nutzer*Innen teilen wollen, oder auf den Cluster herunterladen wollen, empfehlen wir die Nutzung von Globus Connect. Diese ist im Wiki unter Datenübertragung mit Globus Connect beschrieben.
Zugriff per CIFS / Samba
Es ist möglich, die Filesysteme /gpfs/project und /gpfs/scratch per CIFS unter Windows, Linux und macOS lokal ins Dateisystem einzubinden. Dazu wird folgende Konfiguration empfohlen:
Bezeichnung
Wert
Servername
storage.hpc.rz.uni-duesseldorf.de
Domäne:
AD
Benutzername:
<IDM-Kennung>
Passwort:
<IDM-Passwort>
Freigabe-Name:
project oder scratch
Einrichtung unter Windows
Unter Windows lassen sich die Filesysteme als Netzwerklaufwerk hinzufügen:
Einrichtung unter Linux
Einrichtung über fstab
Folgende Zeilen anpassen und in die /etc/fstab eintragen:
Die Zielverzeichnisse auf dem lokalen System sollten erstellt und dem lokalen Nutzer übergeben werden:
Danach sollte sich das Filesystem mit folgenden Befehlen mounten lassen:
mount /mnt/hpc-project
mount /mnt/hpc-scratch
Synchronisation per Rsync oder SFTP
Auch für den Datentransfer mit anderen Protokollen empfiehlt sich der Server storage.hpc.rz.uni-duesseldorf.de, da dort ein redundanter Zugang gewährleistet ist und die Übertragungsraten deutlich höher sein können.