Der Cluster ist aus dem gesamten Netz der HHU Login-Knoten des Clusters ist innerhalb des Uni-Netzes oder aus dem VPN per ssh-Login (Port 22) erreichbar unter der Adresse hpc.rz.uni-duesseldorf.de
(oder 134.99.128.39) erreichbar.
Info |
---|
SSH ist auf der Kommandozeile bei Linux standardmäßig schon dabei und Windows-Nutzer können sich dazu PuTTY oder MobaXterm installieren.
Für Dateioperationen Auf diesem Wege kann auch per SFTP oder SCP auf die Verzeichnisse auf dem Cluster zugegriffen werden, z.B. /home oder /gpfs . |
Der Cluster besitzt ein eigenes internes Ethernet (10.28.0.0/16). Sowohl von den Login-Knoten als auch von den Rechenknoten ist es aus Sicherheitsgründen nicht möglich auf Rechner außerhalb des Clusters zuzugreifen (auch nicht Rechner im HHU-Netz). Es gibt wenige Ausnahmen, wie z.B. der HHU-eigene NTP-Server für die Zeitsynchronisation.
Auf dem Login-Server und den normalen Compute-Servern ist kein X-Server vorhanden, sodass nur Kommandozeilen-Tools ausgeführt werden können.
per SFTP oder SCP, ist der Storage-Knoten storage.hpc.rz.uni-duesseldorf.de vorgesehen, der auf dieselbe Weise verwendet werden kann. Beim allerersten Login-Versuch kennt ssh bzw. PuTTY den Login-Knoten noch nicht und kann deswegen eine Warnung ausgeben. Diese ist zu bestätigen. |
Info | ||
---|---|---|
| ||
In letzter Zeit haben viele große HPC-Systeme in Europa Sicherheitsvorfälle gemeldet. Noch ist nicht bekannt, wer oder was diese Sicherheitsprobleme verursachte. Soweit wir derzeit feststellen können, sind wir (d. h. das HPC-System Hilbert @ HHU) bisher nicht betroffen. Um jedoch zu verhindern, dass wir ggf. als Nächstes dran sein könnten, haben wir alle Verbindungen zwischen unserem HPC-System vom und zum Internet blockiert. Sie können den Cluster verwenden, müssen dafür aber innerhalb des Uni-Netzes sein oder alternativ VPN verwenden. |
Warnung | ||
---|---|---|
| ||
Der einzelne Login-Knoten ist der Eingang für alle HPC Nutzer. Um diesen Eingang nicht zu "verstopfen", ist es nicht erlaubt, auf diesem | ||
Hinweis | ||
Es ist nicht erlaubt auf dem Login-Knoten zu rechnen oder größere Kopiervorgänge Dateivorgänge auszuführen. Für solche interaktiven Aktionen kann sind die Development-Queue mit einem interaktiven Job verwendet werden. |
Zugriff auf die Verzeichnisse
Der Zugriff auf die Verzeichnisse /home und /scratch_gs ist ausschließlich über SCP und SFTP möglich. Für SFTP gibt es verschiedene Clients wie FileZilla, welche auf allen Platformen verfügbar sein.
Einstellungen für Filezilla
Zugang per SSHFS
Linux
Unter Linux gibt es das Paket sshfs, welches ein Remote-File-System per Fuse mountbar macht. Wenn man dieses Programm installiert hat, kann man folgenden Befehl verwenden:
Codeblock | ||
---|---|---|
| ||
mkdir -p ~/mounts/cluster/home
mkdir -p ~/mounts/cluster/scratch_gs
sshfs kennung@hpc.rz.uni-duesseldorf.de:/home/kennung ~/mounts/cluster/home
sshfs kennung@hpc.rz.uni-duesseldorf.de:/scratch_gs/kennung ~/mounts/cluster/scratch_gs |
Windows
Unter Windows gibt es das Programm Programm ExpanDrive und SFTP Net-Drive, welche SFTP-Ordner als Netzlaufwerk im Explorer zur Verfügung stellen.
Mac OSX
Unter OSX benötigt man die Programme OSXFuse und SSHFS von https://osxfuse.github.io.
Rechen-Knoten vorgesehen und dementsprechend auch zu verwenden. Diese müssen vom Batchsystem angefordert werden und können sowohl im Batchbetrieb als auch im interaktiven Modus verwendet werden. Für Dateitransfers ist der Storage-Knoten zu verwenden. |
Der Cluster besitzt ein eigenes internes Ethernet (10.28.0.0/16). Auf dem Login-Knoten und den normalen Rechen-Knoten ist kein X-Server vorhanden, sodass dort nur Kommandozeilen-Tools ausgeführt werden können. Es gibt mehrere Möglichkeiten um Dateien zwischen dem Cluster und Ihrem Rechner auszutauschen. Diese sind im Artikel Dateisysteme einhängen beschrieben.
Info | ||
---|---|---|
| ||
Wer unter Linux nicht andauernd eine lange ssh-Zeile eingeben mag, der kann den Login-Knoten als "HostName" und sein Nutzerkürzel als "User" in ~/.ssh/config hinterlegen und dafür einen kurzen Namen - wie beispielsweise "hilbert" - als "Host" vergeben. Dann reicht in Zukunft ein kurzes "ssh hilbert" aus. (Details siehe "man ssh_config") |
...