Am 25. und 26. September 2024 fand das 10. bwHPC-Symposium an der Albert-Ludwigs-Universität Freiburg statt. Über 80 Teilnehmende zählte die diesjährige Jubiläumsveranstaltung, die aktuelle Entwicklungen im Bereich des High Performance Computing (HPC) präsentierten. Das bwHPC-Symposium bot über zwei Tage hinweg eine Plattform für den Austausch von Wissen und Ideen, um die Rolle von HPC in der Forschung zu stärken. Zahlreiche Wissenschaftlerinnen und Wissenschaftler aus ganz Baden-Württemberg trugen ihre Arbeiten bei. Auch das KIT war mit 23 Forschenden vertreten und beteiligte sich mit Beiträgen in Form eines Tutorials, einer Posterpräsentation und mit zwei Vorträgen.
Beiträge des KIT
Am ersten Tag des Symposiums leitete Dr. Robert Barthel unter Mithilfe von Martje Armbrecht und Peter Weisbrod ein Tutorial zu Introduction to HPC, welches den Teilnehmenden einen umfassenden Einstieg in die Nutzung der bwHPC-Infrastruktur bot. Das Tutorial begann mit einer Einführung zu der Infrastruktur und den Zielen des Projekts bwHPC-S5 und gab Hinweise über die Zugangswege zu den Ressourcen. Außerdem wurden Dienstleistungen von bwHPC wie beispielsweise der proaktive User Support erörtert. Anschließend wurden die ersten Schritte zur Nutzung der bwForCluster sowie der File Transfer unter Linux und Windows erklärt und ein Überblick zu den verschiedenen Data Storage Services gegeben. Im Folgenden wurde das Einrichten und Ausführen von Jobs auf einem Cluster erklärt. Ein weiterer wichtiger Aspekt war die Nutzung von verschiedenen File Systemen auf den Clustern. Dieses praxisorientierte Tutorial ermöglichte den Teilnehmenden direkt in das Arbeiten mit den HPC-Clustern einzusteigen und wertvolle Erfahrungen für ihre Forschung zu sammeln.
Auch bei der Postersession war das KIT vertreten. Ludmilla Obholz und Uwe Falke präsentierten mithilfe von Co-Autoren Andreas Petzold und Serge Sushkov Evdoshenko ein Poster zu Large Scale Data Facility at KIT (LSDF2), das jenes zentrale online Datenspeichersystem darstellt, welches allen Wissenschaftlerinnen und Wissenschaftlern zur Verfügung steht und eine Schlüsselrolle in der Speicherung und Verarbeitung großer wissenschaftlicher Datensätze darstellt.
Besonders spannend war der Vortrag von Sebastian Brommer, der über High Performance Computing Infrastructure for Particle Physics: The Experience of the Karlsruhe Groups referierte. Brommer erläuterte die essenzielle Rolle flexibler und skalierbarer Rechenressourcen für die Teilchenphysik. Am Institut für Experimentelle Teilchenphysik (ETP) in Karlsruhe wird das Overlay Batch System (OBS) als einheitlicher Zugangspunkt eingesetzt, das mit dem Meta-Scheduling-Tool COBalD/TARDIS zusätzliche Rechenressourcen von externen Standorten dynamisch einbindet. Der bwForCluster NEMO ist dabei eine zentrale Ressource, die für Simulationen und Datenanalysen im Rahmen großer Kollaborationen wie ATLAS, CMS und Belle II verwendet wird.
Einen weiteren wichtigen Beitrag leistete Matthias Schnepf, der in seinem Vortrag Belle II on NEMO: Flavour and Dark Matter Physics die Rolle des NEMO-Clusters in der Erforschung der Teilchenphysik und der Dunklen Materie hervorhob. Er betonte, wie HPC-Systeme die Analyse der enormen Datenmengen, die in diesen Physik-Experimenten anfallen, mitunter durch Simulationen effizient unterstützen.
Über bwHPC
Das bwHPC-Programm ist eine Initiative des Landes Baden-Württemberg, die Forschenden Zugang zu Hochleistungsrechenressourcen für datenintensive Forschungsprojekte bietet. Das jährlich stattfindende bwHPC-Symposium fördert den Austausch und die interdisziplinäre Zusammenarbeit im Bereich des Hochleistungsrechnens.
Das Symposium findet jedes Jahr statt, und wir freuen uns bereits jetzt auf die Beteiligung und Teilnahme am bwHPC-Symposium 2025!
Weitere Informationen zum Symposium finden auf der bwHPC-Seite.