bwGRiD
Die Rechner-Cluster im bwGRiD bestanden aus insgesamt 101 IBM Blade Center, die an sieben der neun Universitäten untergebracht waren, davon 10 in Karlsruhe. Auch die anderen Standorte Freiburg, Mannheim/Heidelberg, Stuttgart, Tübingen, Ulm/Konstanz liessen sich in gleicher Weise nutzen. In jedem Blade Center waren 14 HS21 XM Blades eingesteckt, von denen jedes mit
-
2 Quad-Core Intel Xeons mit 2,8GHz,
-
16GB Hauptspeicher
-
Gigabit Ethernet
-
Infiniband-Adapter
bestückt war. Der Standort Esslingen verfügte über weitere 180 Rechenknoten mit je 8 Cores. Die Infiniband-Vernetzung an den einzelnen Standorten erfolgte mit Switchfabrics von Voltaire vom Typ Grid Director ISR 2012. Beim Infiniband handelte es sich um 4-fach DDR.
Folgende Verzeichnisse standen zur Datenspeicherung zur Verfügung:
-
Das Home-Verzeichnis waren auf allen Knoten sichtbar und dienten zur permanenten Datenhaltung. Die Daten wurden mittels Tivoli Storage Manager (TSM) auf Band gesichert.
-
Scratch-Verzeichnisse konnten wie an den anderen Standorten mit dem ws_allocate-Mechanismus angelegt werden und waren auf allen Knoten sichtbar.
-
Jeder Rechenknoten besaß auf der internen Festplatte sein eigenes /tmp-Verzeichnis mit 120 GB Speicherplatz, der für temporäre Daten während der Job-Laufzeit verwendet werden konnte.
Die Home- und Scratch-Verzeichnisse lagen in einem von HP gelieferten Lustre-Filesystem. Die Speicherplatzgröße betrug 32 Tbyte bei einem maximalen Durchsatz von 1,5 GB/s.
Als Betriebssystem wurde Scientific Linux 5.5 eingesetzt. Neben der Basis-Linuxdistribution waren eine Vielzahl von weiteren Softwarepaketen auf den Systemen vorinstalliert.
Der Zugriff auf den Karlsruher Cluster war mit den folgenden Middleware-Systemen möglich:
-
Globus Toolkit 4.0.x: bwgrid-cluster.scc.kit.edu
-
Unicore 5: bwgrid-unicore.scc.kit.edu (VSite: KIT-bwGRiD-Cluster)
-
GSISSH Interactive Node: bwgrid-cluster.scc.kit.edu (Port 2222)
Um mit Grid-Middleware auf die Ressourcen zugreifen zu können, war ein Grid-Zertifikat und eine Mitgliedschaft in der Virtuellen Organisation (VO) bwGRiD oder einer anderen D-Grid-VO erforderlich.
Neben den Computing Resourcen verfügte das bwGRiD über ein zentrales Storage System. Als Software wurde ebenfalls Lustre eingesetzt. Die Hardware bestand aus folgenden Komponenten:
-
Festplatten: 768 1TB SATA und 48 146 GB SAS
-
Speichersysteme: 18 HP MSA2212fc und 50 MSA2000 JBODs
-
Speichernetzwerke: 8 16-Port FibreChannel Switche
-
Serversysteme: 12 HP DL380G5 mit FibreChannel und InfiniBand Adaptern
-
Kommunikationsnetzwerk: 1 24-Port Infiniband DDR Switch
-
Middleware- oder Client-Systeme: 6 HP DL380G5 mit InfiniBand und 10 GE Adaptern
Diese Ressource stand ausschließlich Benutzern der VO bwgrid zur Verfügung. Der Speicher verteilte sich auf zwei Dateisysteme:
-
Backup (/bwfs/backup), 128 TByte (mit Backup)
-
Work (/bwfs/work), 256 TByte (kein Backup)
Der Zugriff war mit den folgenden Middleware-Systemen möglich:
-
GridFTP: bwgrid-se.scc.kit.edu
-
GSI-SSH: bwgrid-se.scc.kit.edu