Öffnet in neuem Fenster Opens in a new window Öffnet externe Seite Opens an external site Öffnet externe Seite in neuem Fenster Opens an external site in a new window

Hauptabteilung Informationstechnik

High-Performance-Computing-Cluster Dirac

Dirac (benannt nach Paul Dirac) ist ein Linux-Rechnercluster und kann von allen HZB-Mitarbeitenden für rechenintensive Aufgaben wie Simulationen genutzt werden.

Für zusätzliche Unterstützung bei der Nutzung des HPC-Systems können Sie ein Ticket an den Helpdesk  (help@helmholtz-berlin.de) schicken.

Direkt zu "Erste Schritte"!

Der Cluster besteht derzeit aus 30 Knoten, die über ein Batch-Processing-System angesprochen werden können, um Programme parallel auszuführen. Das bedeutet, dass Jobs in eine Warteschlange gestellt werden und ausgeführt werden, wenn Ressourcen verfügbar sind (siehe Details hier).

Einige ehemalige Clusterknoten wurden umgebaut und werden nun als interaktive Workstations genutzt, d.h. sie sind nicht mehr Teil des Computerclusters Dirac. Wenn Sie interaktiv rechnen wollen, nutzen Sie die verfügbaren Arbeitsplätze im Netzwerk. Details finden Sie hier.

Der Cluster stammt aus dem Jahr 2007 und wurde mehrfach um neue Knoten erweitert, was zu einer Koexistenz von Knoten mit unterschiedlichen Eigenschaften führte.

 

Hardware

Der Cluster besteht aus 27 Rechenknoten in fünf Varianten.

Cluster Rechenknoten

Knotenvariante Anzahl Knoten im Cluster Kerne pro CPU Kerne pro Knoten RAM Taktfrequenz Knotennamen enthalten in Queues
2 x AMD EPYC 7551 1

32 (Hyperthreading: 64)

64 (Hyperthreading: 128)

256 GB

2.0 GHz

node1 epyc
4 x AMD Opteron 6276 3 16 64 128 GB 2.3 GHz node2-3, node31 inter, internode
4 x AMD Opteron 6376 4 16 64 128 GB 2.3 GHz node11, node33-35 inter, internode
4 x AMD Opteron 6376, Higher Memory 12 16 64 256 GB 2.3 Ghz node10, node12-14, node16-22 inter, internode
4 x AMD Opteron 6172 7 12 48 64 GB 2.1 GHz node23-node29 magny

Andere nodes

  • dirac-meister: Login-Knoten (4 x AMD Opteron 63441)
  • dirac-mester: Fileserver (2 x Intel Xeon E5530)

Andere Hardware-Komponenten

  • 4*10 GBit/s InfiniBand Verbindungen
  • Speicher:
    • 4 Festplatten organisiert als RAID in dirac-meister (12TB)
    • 12 Festplatten in DotHILL RAID 3003, erreichbar via FhGFS. (144 TB)

Software

Die Software kann zentral installiert werden und steht allen Nutzer*innen über Environment Modules zur Verfügung. Details dazu finden Sie unter Software. Auf diese Weise werden alle relevanten Umgebungsvariablen automatisch und mit minimaler Benutzerinteraktion gesetzt, und Kompatibilitätskonflikte können vermieden werden. Die installierte Software umfasst u.a.:

  • Applikationen: Elektronische Strukturberechnungen, Beschleunigersimulationen ...
  • Verschiedene Bibliotheken, z.B. Lineare-Algebra-Pakete BLAS/LAPACK
  • openMPI als Message Passing Interface
  • Compiler: gcc, icc

Nutzende dürfen ihre eigene Software kompilieren und in persönlichen Verzeichnissen installieren.


Anleitung