Hauptabteilung Informationstechnik
High-Performance-Computing-Cluster Dirac
Dirac (benannt nach Paul Dirac) ist ein Linux-Rechnercluster und kann von allen HZB-Mitarbeitenden für rechenintensive Aufgaben wie Simulationen genutzt werden.
Für zusätzliche Unterstützung bei der Nutzung des HPC-Systems können Sie ein Ticket an den Helpdesk (help@helmholtz-berlin.de) schicken.
Der Cluster besteht derzeit aus 30 Knoten, die über ein Batch-Processing-System angesprochen werden können, um Programme parallel auszuführen. Das bedeutet, dass Jobs in eine Warteschlange gestellt werden und ausgeführt werden, wenn Ressourcen verfügbar sind (siehe Details hier).
Einige ehemalige Clusterknoten wurden umgebaut und werden nun als interaktive Workstations genutzt, d.h. sie sind nicht mehr Teil des Computerclusters Dirac. Wenn Sie interaktiv rechnen wollen, nutzen Sie die verfügbaren Arbeitsplätze im Netzwerk. Details finden Sie hier.
Der Cluster stammt aus dem Jahr 2007 und wurde mehrfach um neue Knoten erweitert, was zu einer Koexistenz von Knoten mit unterschiedlichen Eigenschaften führte.
Hardware
Der Cluster besteht aus 27 Rechenknoten in fünf Varianten.
Cluster Rechenknoten
Knotenvariante | Anzahl Knoten im Cluster | Kerne pro CPU | Kerne pro Knoten | RAM | Taktfrequenz | Knotennamen | enthalten in Queues |
2 x AMD EPYC 7551 | 1 |
32 (Hyperthreading: 64) |
64 (Hyperthreading: 128) |
256 GB |
2.0 GHz |
node1 | epyc |
4 x AMD Opteron 6276 | 3 | 16 | 64 | 128 GB | 2.3 GHz | node2-3, node31 | inter, internode |
4 x AMD Opteron 6376 | 4 | 16 | 64 | 128 GB | 2.3 GHz | node11, node33-35 | inter, internode |
4 x AMD Opteron 6376, Higher Memory | 12 | 16 | 64 | 256 GB | 2.3 Ghz | node10, node12-14, node16-22 | inter, internode |
4 x AMD Opteron 6172 | 7 | 12 | 48 | 64 GB | 2.1 GHz | node23-node29 | magny |
Andere nodes
- dirac-meister: Login-Knoten (4 x AMD Opteron 63441)
- dirac-mester: Fileserver (2 x Intel Xeon E5530)
Andere Hardware-Komponenten
- 4*10 GBit/s InfiniBand Verbindungen
- Speicher:
- 4 Festplatten organisiert als RAID in dirac-meister (12TB)
- 12 Festplatten in DotHILL RAID 3003, erreichbar via FhGFS. (144 TB)
Software
Die Software kann zentral installiert werden und steht allen Nutzer*innen über Environment Modules zur Verfügung. Details dazu finden Sie unter Software. Auf diese Weise werden alle relevanten Umgebungsvariablen automatisch und mit minimaler Benutzerinteraktion gesetzt, und Kompatibilitätskonflikte können vermieden werden. Die installierte Software umfasst u.a.:
- Applikationen: Elektronische Strukturberechnungen, Beschleunigersimulationen ...
- Verschiedene Bibliotheken, z.B. Lineare-Algebra-Pakete BLAS/LAPACK
- openMPI als Message Passing Interface
- Compiler: gcc, icc
Nutzende dürfen ihre eigene Software kompilieren und in persönlichen Verzeichnissen installieren.
Anleitung
- Erste Schritte
- Software (Modulsystem)
- Batch-Verarbeitung und Queues
- Dateisystem und Speicher
- Nutzungshinweise und -regeln
- Statusmonitor