Beschaffung und Inbetriebnahme von experiment-spezifischem Tier-2-Speicher für ATLAS und CMS am GridKa des KIT/SCC.
Zusammen mit den gewonnenen Erkenntnissen, Bewertungen und Empfehlungen sollen die aktuellen Herausforderungen und definierten Handlungsfelder des Rahmenkonzepts der Universitäten des Landes Baden-Württemberg für das HPC und DIC im Zeitraum 2025 bis 2032 durch folgende Maßnahmen im Projekt konkretisiert werden: • Weiterentwicklung der Wissenschaftsunterstützung bzgl. Kompetenzen zur Unterstützung neuartiger System- und Methodekonzepte (KI, ML oder Quantencomputing), Vernetzung mit Methodenfor- schung, ganzheitliche Bedarfsanalysen und Unterstützungsstrategien (z.B. Onboarding) • Steigerung der Energieeffizienz durch Sensibilisierung sowie Untersuchung und Einsatz neuer Be- triebsmodelle und Workflows inkl. optimierter Software • Erprobung und flexible Integration neuer Systemkomponenten und -architekturen, Ressourcen (z.B. Cloud) sowie Virtualisierung- und Containerisierungslösungen • Umsetzung neue Software-Strategien (z.B. Nachhaltigkeit und Entwicklungsprozesse) • Ausbau der Funktionalitäten der baden-württembergischen Datenföderation (z.B. Daten-Transfer- Service) • Umsetzung von Konzepten beim Umgang mit sensiblen Daten und zur Ausprägung einer digitalen Souveränität • Vernetzung und Kooperation mit anderen Forschungsinfrastrukturen
In der Nanooptik beschäftigen wir uns, unter anderem, mit den optischen Eigenschaften von Strukturen mit einer räumlichen Ausdehnung vergleichbar oder kleiner als der Wellenlänge. Diese Streuer haben viele Anwendungen z.B. in der Bildgebung, in Sensoren oder auch in Quantentechnologien. Alle optischen Eigenschaften eines Streuers werden hierbei durch dessen T-Matrix erfasst. Diese T-Matrix beschreibt, wie ein Beleuchtungsfeld in ein Streufeld konvertiert wird. T-Matrizen sind die Basis zur Beschreibung komplexer nanooptischer Systeme. Aktuell werden diesen T-Matrizen immer wieder neu berechnet und nicht systematisch genutzt. Das verschwendet Rechenressourcen und erlaubt auch nicht, Fragestellungen zu adressieren, die auf der Basis dieser Daten beantwortbar wären. DAPHONA will diesen Mangel beheben. Wir werden Technologien bereitstellen, mit denen die geometrischen und Materialeigenschaften eines Objektes und dessen optische Eigenschaften, ausgedrückt durch die T-Matrix, in einer einheitlichen Datenstruktur zusammengeführt werden. Diese Daten werden systematisch genutzt, um die T-Matrix aus dem Datensatz für ein gegebenes Objekt zu extrahieren. Auch wollen wir Objekte identifizieren, die vordefiniert optische Eigenschaften ausgedrückt durch eine T-Matrix besitzen. Entlang dieser Ansätze werden wir viele neuartige Fragestellungen beantworten, die erst durch den hier formulierten datengetriebenen Ansatz adressiert werden können. Wir planen im Rahmen von DAPHONA wissenschaftlichen Nachwuchs auf verschiedenen Qualifikationsstufen auszubilden und werden unseren Ansatz in der Lehre verankern. Wir haben die Community eingeladen, uns in diesem Projekt zu begleiten. Wir planen, die Datenstruktur mit der Community abzustimmen und im Rahmen von Workshops die vorhandenen Daten zu diskutieren und zur Verfügung stehende Methoden zu deren Nutzung zu verbreiten. Unser Konzept ist offen, basiert auf den FAIR Prinzipien und wird nachhaltig einen Nutzen der gesamten Community bringen.
Das Hauptziel des vorliegenden Projekts ist die Weiterentwicklung und Validierung einer neuen CFD-Methode (Computational Fluid Dynamics), die eine Kombination aus gitterfreien (Partikel) und gitterbasierten Techniken verwendet. Eine grundlegende Annahme dieses neuen Ansatzes ist die Zerlegung jeder physikalischen Größe in einen gitterbasierten (großskaligen) und einen feinskaligen Teil, wobei die großskaligen Teile auf dem Gitter aufgelöst und die feinskaligen Teile durch Partikel dargestellt werden. Die Dynamik der großen und feinen Skalen wird aus zwei gekoppelten Transportgleichungen berechnet, von denen eine auf dem Gitter gelöst wird, während die zweite die Lagrangesche gitterfreie Vortex-Partikel-Methode (VPM) verwendet.
InterTwin entwirft und implementiert den Prototypen einer interdisziplinären Digital Twin Engine (DTE). Dies ist eine Open-Source-Plattform, die generische Softwarekomponenten für die Modellierung und Simulation zur Integration anwendungsspezifischer Digitalen Zwillingen bereitstellt. Die Spezifikationen basieren auf einem im Projekt zu entwerfenden konzeptionellen Modell - der DTE Blueprint-Architektur. Diese orientiert sich an den Grundsätzen von offenen Standards und Interoperabilität. Das Ziel ist die Entwicklung eines gemeinsamen Ansatzes für die Implementierung von Digital Twins zu entwickeln, der über das gesamte Spektrum der wissenschaftlichen Disziplinen und darüber hinaus anwendbar ist.
PUNCH4NFDI ist das NFDI-Konsortium für Teilchen-, Astro-, Astroteilchen-, Hadronen- und Kernphysik, das rund 9.000 promovierte Wissenschaftlerinnen und Wissenschaftler aus Universitäten, der Max-Planck-Gesellschaft, der Leibniz-Gemeinschaft und der Helmholtz-Gemeinschaft in Deutschland vertritt. Die PUNCH-Physik befasst sich mit den grundlegenden Bestandteilen der Materie und ihren Wechselwirkungen sowie mit ihrer Rolle bei der Entstehung der größten Strukturen im Universum – Sterne und Galaxien. Die Errungenschaften der PUNCH-Wissenschaft reichen von der Entdeckung des Higgs-Bosons über die Installation eines 1-Kubikkilometer-Teilchendetektors zum Neutrinonachweis im antarktischen Eis bis hin zum Nachweis des Quark-Gluon-Plasmas bei Schwerionenkollisionen und dem ersten Bild des schwarzen Lochs im Herzen der Milchstraße überhaupt. Das Hauptziel von PUNCH4NFDI ist der Aufbau einer föderierten und „FAIR"en-Wissenschaftsdatenplattform, die die notwendigen Infrastrukturen und Schnittstellen für den Zugang zu und die Nutzung von Daten und Rechenressourcen der beteiligten Gemeinschaften und darüber hinaus bietet. Das SCC übernimmt dabei eine führende Rolle bei der Entwicklung der verteilten Compute4PUNCH-Infrastruktur ein und ist an den Aktivitäten rund um Storage4PUNCH beteiligt, einer verteilten Speicherinfrastruktur für die PUNCH-Communities.
Mit der Helmholtz Metadata Collaboration Plattform startete Ende 2019 ein wichtiges Themenfeld des Helmholtz Inkubators "Information & Data Science", der die Expertise der Helmholtz-Zentren zusammenführt und das Thema „Information & Data Science“ über die Grenzen von Zentren und Forschungsbereichen hinweg gestaltet. Übergeordnetes Ziel der Plattform ist, die qualitative Anreicherung von Forschungsdaten durch Metadaten langfristig voranzutreiben, die Forschenden zu unterstützen – und dies in der Helmholtz-Gemeinschaft und darüber hinaus umzusetzen. Mit dem Arbeitspaket FAIR Data Commons Technologien entwickelt SCC Technologien und Prozesse, um Forschungsdaten aus den Forschungsbereichen der Helmholtz Gemeinschaft und darüber hinaus den Forschenden entsprechend der FAIR Prinzipien zur Verfügung zu stellen. Dies wird auf technischer Ebene durch einen einheitlichen Zugriff auf Metadaten mit Hilfe von standardisierten Schnittstellen erreicht, welche sich an Empfehlungen und Standards orientieren, die innerhalb weltweit vernetzten Forschungsdateninitiativen, z.B. der Research Data Alliance (RDA, https://www.rd-alliance.org/), durch Konsensbildung verabschiedet werden. Für den Forschenden werden diese Schnittstellen durch einfach nutzbare Werkzeuge, allgemein anwendbare Prozesse und Empfehlungen für den Umgang mit Forschungsdaten im wissenschaftlichen Alltag nutzbar gemacht.
Herz-Kreislauf-Erkrankungen zählen zu den weltweit häufigsten Todesursachen: Jedes Jahr sterben in Deutschland über 300 000 Menschen an den Folgen. Rund die Hälfte dieser Todesfälle werden durch Herzrhythmusstörungen verursacht. Im europäischen Projekt MICROCARD, an dem das Karlsruher Institut für Technologie (KIT) beteiligt ist, entwickeln Forschende nun eine Simulationsplattform, die die elektrophysikalischen Signalübertragungen im Herzen digital abbilden kann. Die Computersimulationen sollen insbesondere zu einer verbesserten Diagnose und Therapie beitragen. Das KIT erhält für seine Beiträge im Rahmen des „European High-Performance Computing Joint Undertaking“ etwa 1,3 Millionen Euro.
Das primäre Ziel des Projektes ist die Etablierung einer integrierten landesweiten Rechen- und Dateninfrastruktur sowie die Steigerung der Effizienz und der Effektivität durch erstklassige Unterstützung der Wissenschaftler und Nutzer.
EGI-ACE empowers researchers from all disciplines to collaborate in data- and compute-intensive research across borders through free at point of use services. Building on the distributed computing integration in EOSChub, it delivers the EOSC Compute Platform and contributes to the EOSC Data Commons through a federation of Cloud compute and storage facilities, PaaS services and data spaces with analytics tools and federated access services. The Platform is built on the EGI Federation, the largest distributed computing infrastructure for research. The EGI Federation delivers over 1 Exabyte of research data and 1 Million CPU cores which supported the discovery of the Higgs Boson and the first observation of gravitational waves, while remaining open to new members. The Platform pools the capacity of some of Europe’s largest research data centres, leveraging ISO compliant federated service management. Over 30 months, it will provide more than 82 M CPU hours and 250 K GPU hours for data processing and analytics, and 45 PB/month to host and exploit research data. Its services address the needs of major research infrastructures and communities of practice engaged through the EOSC-hub project. The Platform advances beyond the state of the art through a data-centric approach, where data, tools and compute and storage facilities form a fully integrated environment accessible across borders thanks to Virtual Access. The Platform offers heterogeneous systems to meet different needs, including state of the art GPGPUs and accelerators supporting AI and ML, making the Platform an ideal innovation space for AI applications. The data spaces and analytics tools are delivered in collaboration with tens of research infrastructures and projects, to support use cases for Health, the Green Deal, and fundamental sciences. The consortium builds on the expertise and assets of the EGI federation members, key research communities and data providers, and collaborating initiatives.
The Data Infrastructure Capacities for EOSC (DICE) consortium brings together a network of computing and data centres, research infrastructures, and data repositories for the purpose to enable a European storage and data management infrastructure for EOSC, providing generic services and building blocks to store, find, access and process data in a consistent and persistent way. Specifically, DICE partners will offer 14 state-of-the-art data management services together with more than 50 PB of storage capacity. The service and resource provisioning will be accompanied by enhancing the current service offering in order to fill the gaps still present to the support of the entire research data lifecycle; solutions will be provided for increasing the quality of data and their re-usability, supporting long term preservation, managing sensitive data, and bridging between data and computing resources. All services provided via DICE will be offered through the EOSC Portal and interoperable with EOSC Core via a lean interoperability layer to allow efficient resource provisioning from the very beginning of the project. The partners will closely monitor the evolution of the EOSC interoperability framework and guidelines to comply with a) the rules of participation to onboard services into EOSC, and b) the interoperability guidelines to integrate with the EOSC Core functions. The data services offered via DICE through EOSC are designed to be agnostic to the scientific domains in order to be multidisciplinary and to fulfil the needs of different communities. The consortium aims to demonstrate their effectiveness of the service offering by integrating services with community platforms as part of the project and by engaging with new communities coming through EOSC.
Das Pilotlab Exascale Earth System Modelling (PL-ExaESM) erforscht spezifische Konzepte um Erdsystemmodelle und ihre Workflows, auf zukünftigen Exascale-Supercomputern zur Anwendung zu bringen. Das Projekt ist in fünf Arbeitspakete gegliedert, welche mittels Co-Design zwischen Domänen-Wissenschaftlern und Informatikern die programmier- und datenwissenschaftlichen Herausforderungen dieser zukünftigen Höchstleistungsrechner adressieren. PL-ExaESM bietet eine neue Plattform für Forscher der Helmholtz-Gemeinschaft, um wissenschaftliche und technologische Konzepte für zukünftige Erdsystemmodelle und Datenanalysen zu entwickeln. Die Komplexität und Heterogenität der Exascale-Systeme, neue Software-Paradigmen für die nächste Generation von Erdsystemmodellen sowie grundlegend neue Konzepte für die Integration von Modellen und Daten sind erforderlich. Konkret werden in PL-ExaESM neue Lösungen für die Parallelisierung und das Scheduling von Modellkomponenten, die Handhabung und Bereitstellung großer Datenmengen und die nahtlose Integration von Informationsmanagementstrategien entlang der gesamten Prozesswertschöpfungskette von globalen Erdsystemsimulationen bis hin zu lokalen Wirkungsmodellen entwickelt. Zudem wird das Potenzial des maschinellen Lernens zur Optimierung dieser Aufgaben untersucht. PL-ExaESM wird als Inkubator für das Joint Lab EESM in der POF IV fungieren. Es wird die Zusammenarbeit zwischen den Forschungsbereichen und -zentren der Helmholtz-Gemeinschaft verbessern und dazu beitragen, die Helmholtz-Gemeinschaft als einen wichtigen Akteur in europäischen Flagship-Initiativen, wie ExtremeEarth, und anderen zu positionieren.
Die Helmholtz-Data Federation (HDF) ist eine strategische Initiative der Helmholtz-Gemeinschaft, die sich einer der großen Herausforderungen des nächsten Jahrzehnts annimmt: Die Bewältigung der Datenflut in der Wissenschaft, insbesondere aus den großen Forschungsinfrastrukturen der Helmholtz-Zentren.