High-Performance-Computing-Cluster dirac

Zweck

Der HPC-Cluster dirac (nach  Paul Dirac) dient Simulationen und Modellrechnungen.

Aufbau

Er besteht aus dem Zugangs- und Steuerrechner dirac-meister, dem Dateiserver dirac-mester und 32 aktiven Rechen-Knoten mit insgesamt 1832 CPU-Kernen und 4,5 TB Speicher. Als Massenspeicher gibt es im Steuerrechner vier interne Platten (12 TB) sowie ein RAID-Array mit 12 Platten (48 TB). Die Rechner sind mit GBit-Ethernet und 10 GBit/s-Infiniband über Switches miteinander verbunden.

Vier Rechen-Knoten werden mit den Namen  dinux7, dinux6dinux5 und dinux4 als universelle Linux-Server für interaktives Arbeiten verwendet. Die restlichen Rechen-Knoten werden mit dem Batch-System Open Grid Scheduler angesprochen.

Hardware und Nutzerumgebung sind für parallele Rechnungen optimiert.

Zustand

Der Cluster wurde seit 2007 zwölfmal erweitert.

Software

Zur Softwareausstattung auf den Betriebssystemen OpenSUSE Linux 13.1 64 Bit gehören optimierende Compiler, mathematische Bibliotheken, Parallelisierungs-Umgebungen und einige populäre Anwendungen für Physik und Chemie.

Verfügbarkeit

Der Cluster steht allen Personen mit  HZB-Kennung ohne weitere Formalitäten zur Verfügung.

Eine ssh-Verbindung mit ssh (Linux/Unix/Apple OS X) oder PuTTY (Windows) zum Rechner dirac-meister ist der Zugang zum Cluster. Die Rechenknoten sind interaktiv nicht direkt erreichbar, da sie im Stapel-Betrieb arbeiten.

Hilfe bei der Benutzung

Wir beraten Sie gern. Für technische Fragen und Fragen zum Betrieb lesen Sie bitte die Benutzungshinweise  oder wenden Sie sich mit einer E-Mail an help@helmholtz-berlin.de.