Helmholtz-Projekte

Laufende Projekte

Rekonstruktion räumlicher Klimavariabilitätsmuster mittels Bayesianischem Hierarchischem Lernen

Laufzeit: 01.02.2025 - 31.01.2029

Ziel des Projekts ist es, räumliche Muster von zeitskalenabhängiger Klimavariabilität zu rekonstruieren. Zu diesem Zweck wird ein Bayesianisches hierarchisches Modell entwickelt, das eine Vielzahl von Proxy-Daten unter Berücksichtigung von Proxy-Prozessen und Rauschen einbezieht. Es zielt darauf ab, Grenzen und Unsicherheiten abgeleiteter Klimavariabilitätsrekonstruktionen zu quantifizieren, die mit der verwendeten Kovarianzstruktur und der Sparsamkeit, der räumlichen Heterogenität und dem Rauschen der Beobachtungsdaten durch Posterior-Verteilungen zusammenhängen. Wir nutzen Klimakarten, um regionale Muster der niederfrequenten Variabilität und die entsprechenden Implikationen z. B. für die Bandbreite möglicher zukünftiger Klimatrends in der natürlichen Variabilität und der Häufigkeit von Extremereignissen zu untersuchen. Das Projekt wird von der Helmholtz Einstein International Berlin Research School in Data Science (HEIBRiDS) gefördert und von Prof. Dr. Thomas Laepple vom Alfred-Wegener-Institut (AWI) und Prof. Dr. Tobias Krüger von der Humboldt-Universität zu Berlin mitbetreut.

Joint Lab HiRSE: Helmholtz Information - Research Software Engineering

Laufzeit: 01.01.2025 - 31.12.2027
Projektseite: www.helmholtz-hirse.de/

The Joint Lab HiRSE and HiRSE concept see the establishment of central activities in RSE and the targeted sustainable funding of strategically important codes by so-called Community Software Infrastructure (CSI) groups as mutually supportive aspects of a single entity. In a first “preparatory study”, HiRSE_PS evaluated the core elements of the HiRSE concept and their interactions in practice over the funding period of three years (2022 to 2024). The two work packages in HiRSE_PS for one dealt with the operation of CSI groups, in particular also for young codes, and with consulting and networking. The goal of the preparatory study was the further refinement of the concept, which can then be rolled out to the entire Helmholtz Information, or, if desired, to the entire Helmholtz Association with high prospects of success and high efficiency. The Joint Lab HiRSE follows on the preparatory study, continuing the incorporation of successful elements and extending it with the evaluation of the integration of additional CSI groups.

AI-enhanced differentiable Ray Tracer for Irradiation-prediction in Solar Tower Digital Twins - ARTIST

Laufzeit: 01.04.2024 - 31.03.2026
Projektseite: www.helmholtz.ai/you-helmholtz-ai/project-funding

Solarturmkraftwerke spielen eine Schlüsselrolle bei der Erleichterung der laufenden Energiewende, da sie regelbaren klimaneutralen Strom und direkte Wärme für chemische Prozesse liefern. In dieser Arbeit entwickeln wir einen heliostatspezifischen differenzierbaren Raytracer, der den Energietransport am Solarturm datengesteuert modellieren kann. Dies ermöglicht eine Rekonstruktion der Heliostatoberfläche und verbessert so die Vorhersage der Bestrahlungsstärke drastisch. Darüber hinaus reduziert ein solcher Raytracer auch die erforderliche Datenmenge für die Ausrichtungskalibrierung drastisch. Damit ist das Lernen für einen vollständig KI-betriebenen Solarturm prinzipiell machbar. Das angestrebte Ziel ist die Entwicklung eines ganzheitlichen KI-gestützten digitalen Zwillings des Solarkraftwerks für Design, Steuerung, Vorhersage und Diagnose auf Basis des physikalisch differenzierbaren Raytracers. Alle Betriebsparameter im Solarfeld, die den Energietransport beeinflussen, können damit optimiert werden. Erstmals ist eine Gradienten-basierte Feldgestaltung, Zielpunktsteuerung und Ist-Zustandsdiagnose möglich. Durch die Erweiterung um KI-basierte Optimierungstechniken und Reinforcement-Learning-Algorithmen soll es möglich sein, reale, dynamische Umgebungsbedingungen mit geringer Latenz auf den Zwilling abzubilden. Schließlich sind aufgrund der vollständigen Differenzierbarkeit auch visuelle Erklärungen für die operativen Handlungsvorhersagen möglich. Die vorgeschlagene KI-gestützte digitale Zwillingsumgebung wird in einem realen Kraftwerk in Jülich verifiziert. Seine Gründung markiert einen bedeutenden Schritt in Richtung eines vollautomatischen Solarturmkraftwerks.

Bayesianisches maschinelles Lernen mit Quantifizierung von Unsicherheiten für die Erkennung von Unkraut in Ackerland aus Fernerkundung in geringer Höhe

Laufzeit: seit 01.01.2022
Projektseite: www.heibrids.berlin/people/doctoral-students/

Unkraut ist eine der Hauptursachen für Ernteverluste. Daher setzen Landwirte verschiedene Methoden ein, um den Unkrautwuchs auf ihren Feldern zu kontrollieren, am häufigsten chemische Herbizide. Die Herbizide werden jedoch oft gleichmäßig auf dem gesamten Feld ausgebracht, was sich negativ auf Umwelt und Kosten auswirkt. Die standortspezifische Unkrautbekämpfung (site-specific weed management; SSWM) berücksichtigt die Variabilität auf dem Feld und lokalisiert die Behandlung. Die genaue Lokalisierung von Unkräutern ist daher der erste Schritt zum SSWM. Darüber hinaus sind Informationen über die Zuverlässigkeit der Vorhersage entscheidend für den Einsatz der Methoden in der Praxis. Dieses Projekt zielt darauf ab, Methoden für die Unkrautidentifizierung in Ackerflächen auf der Grundlage von UAV-Fernerkundungsbildern aus geringer Höhe und die Quantifizierung von Unsicherheiten mithilfe von Bayesianischem maschinellem Lernen zu entwickeln, um einen ganzheitlichen Ansatz für SSWM zu entwickeln. Das Projekt wird von der Helmholtz Einstein International Berlin Research School in Data Science (HEIBRiDS) unterstützt und von Prof. Dr. Martin Herold vom GFZ German Research Centre for Geosciences mitbetreut.

Helmholtz Metadata Collaboration Platform - HMC

Laufzeit: 01.10.2019 - 30.09.2029
Projektseite: helmholtz-metadaten.de

Übergeordnetes Ziel der Helmholtz Metadata Collaboration Plattform ist die qualitative Anreicherung von Forschungsdaten durch Metadaten langfristig voranzutreiben, die Forschenden zu unterstützen – und dies in der Helmholtz-Gemeinschaft und darüber hinaus umzusetzen. Mit dem Arbeitspaket FAIR Data Commons Technologien entwickelt das SCC Technologien und Prozesse, um Forschungsdaten aus allen Forschungsbereichen der Helmholtz Gemeinschaft zur Verfügung zu stellen und den Forschenden einen einfachen Zugriff entsprechend der FAIR Prinzipien zu ermöglichen. Dies wird auf technischer Ebene durch standardisierte Schnittstellen erreicht, welche sich an Empfehlungen und Standards orientieren, die innerhalb weltweit vernetzten Forschungsdateninitiativen, z.B. der Research Data Alliance (RDA, https://www.rd-alliance.org/), erarbeitet werden. Für den Forschenden werden diese Schnittstellen durch einfach nutzbare Werkzeuge, allgemein anwendbare Prozesse und Empfehlungen für den Umgang mit Forschungsdaten im wissenschaftlichen Alltag nutzbar gemacht.

Helmholtz AI

Laufzeit: seit 01.04.2019
Projektseite: www.helmholtz.ai

Die Helmholtz AI Plattform ist ein Forschungsprojekt des Helmholtz Inkubators “Information & Data Science”. Die übergeordnete Mission der Plattform ist dabei die “Demokratisierung von KI für eine datengetriebene Zukunft” und ziehlt darauf ab einer möglich breiten Nutzendengruppe KI-Algorithmen und -Ansätze einfach handhabbar und ressourcenschonend zur Verfügung zu stellen. Die Helmholtz AI Plattform ist nach einem Rad-Speichen-Modell strukturiert, dass die sechs Forschungsfelder der Helmholtz-Gemeinschaft abdeckt. Das KIT ist dabei mit seiner Local Unit für den Themenkreis Energieforschung verantwortlich. In diesem Rahmen unterstützt das SCC Forschende mit einer Beratungseinheit bei der Umsetzung von KI-Forschungsvorhaben in der Erkundung neuer Ansätze zur Energieerzeugung, -verteilung und -speicherung.

Mehr

Helmholtz Federated IT Services - HIFIS

Laufzeit: seit 01.01.2019
Projektseite: www.hifis.net

Mit den Helmholtz Federated IT Services (HIFIS) wird eine sichere und einfach zu bedienende Kooperationsumgebung mit effizient und von überall zugänglichen IKT-Diensten aufgebaut. HIFIS unterstützt auch die Entwicklung von Forschungssoftware mit einem hohen Maß an Qualität, Sichtbarkeit und Nachhaltigkeit.

Abgeschlossene Projekte

Helmholtz Platform for Research Software Engineering - Preparatory Study (HiRSE_PS)

Laufzeit: 01.01.2022 - 31.12.2024
Projektseite: www.helmholtz-hirse.de

The HiRSE concept sees the establishment of central activities in RSE and the targeted sustainable funding of strategically important codes by so-called Community Software Infrastructure (CSI) groups as mutually supportive aspects of a single entity.

i2Batman - i2batman

Laufzeit: 01.08.2020 - 31.07.2023

Gemeinsam mit Partnern des Forschungszentrums Jülich und des Fritz-Haber-Instituts Berlin wollen wir ein neuartiges intelligentes Managementsystem für Elektrobatterien entwickeln, das auf Basis eines detaillierten Surrogatmodells ("digitaler Zwilling") der Batterie und künstlicher Intelligenz bessere Entscheidungen über die Ladezyklen treffen kann.

HAICORE

Laufzeit: 01.02.2020 - 01.01.2025
Projektseite: www.helmholtz.ai/themenmenue/you-helmholtz-ai/computing-resources

Das Helmholtz AI COmpute REssources Infrastrukturprojekt ist Teil des Helmholtz Inkubators “Information & Data Science” und dient der Bereitstellung von leistungsstarken Rechenressourcen für die Forschenden im Bereich künstlicher Intelligenz (KI) in der Helmholtz-Gemeinschaft. Technisch wird die KI-Hardware als Teil der Hochleistungsrechnersysteme JUWELS (Julich Supercomputing Centre) und HoreKa (KIT) an den beiden Zentren betrieben. Das SCC deckt dabei vornehmlich den prototypischen Entwicklungsbetrieb ab in dem neue Ansätze, Modelle und Verfahren entwickelt und erprobt werden können. HAICORE steht allen Mitgliedern der Helmholtz-Gemeinschaft im Bereich KI-Forschung offen.

Exascale Earth System Modeling - ExaESM

Laufzeit: 01.10.2019 - 01.09.2021

Das Pilotlab Exascale Earth System Modelling (PL-ExaESM) erforscht spezifische Konzepte um Erdsystemmodelle und ihre Workflows, auf zukünftigen Exascale-Supercomputern zur Anwendung zu bringen. Das Projekt ist in fünf Arbeitspakete gegliedert, welche mittels Co-Design zwischen Domänen-Wissenschaftlern und Informatikern die programmier- und datenwissenschaftlichen Herausforderungen dieser zukünftigen Höchstleistungsrechner adressieren. PL-ExaESM bietet eine neue Plattform für Forscher der Helmholtz-Gemeinschaft, um wissenschaftliche und technologische Konzepte für zukünftige Erdsystemmodelle und Datenanalysen zu entwickeln. Die Komplexität und Heterogenität der Exascale-Systeme, neue Software-Paradigmen für die nächste Generation von Erdsystemmodellen sowie grundlegend neue Konzepte für die Integration von Modellen und Daten sind erforderlich. Konkret werden in PL-ExaESM neue Lösungen für die Parallelisierung und das Scheduling von Modellkomponenten, die Handhabung und Bereitstellung großer Datenmengen und die nahtlose Integration von Informationsmanagementstrategien entlang der gesamten Prozesswertschöpfungskette von globalen Erdsystemsimulationen bis hin zu lokalen Wirkungsmodellen entwickelt. Zudem wird das Potenzial des maschinellen Lernens zur Optimierung dieser Aufgaben untersucht. PL-ExaESM wird als Inkubator für das Joint Lab EESM in der POF IV fungieren. Es wird die Zusammenarbeit zwischen den Forschungsbereichen und -zentren der Helmholtz-Gemeinschaft verbessern und dazu beitragen, die Helmholtz-Gemeinschaft als einen wichtigen Akteur in europäischen Flagship-Initiativen, wie ExtremeEarth, und anderen zu positionieren.

Mehr

Helmholtz Analytics Framework (HAF)

Laufzeit: 01.10.2017 - 31.03.2021
Projektseite: www.helmholtz-analytics.de/

Das Pilotprojekt Helmholtz Analytics Framework (HAF) wird die Entwicklung der Datenwissenschaften in der Helmholtz-Gemeinschaft stärken. Gemeinsam mit vier weiteren Helmholtz-Zentren werden in einem Co-Design Ansatz zwischen Domänenwissenschaftler und Datenanalyseexperten herausfordernde Anwendungsprobleme aus den jeweiligen Helmholtz-Zentren untersucht. Konkret handelt es sich dabei um Fragen zur Erdsystemmodellierung, Strukturbiologie, Luft- und Raumfahrt, Neurowissenschaften und der Medizinische Bildgebung.

Mehr

Helmholtz Data Federation - HDF

Laufzeit: 01.01.2017 - 31.12.2021
Projektseite: www.helmholtz.de/hdf/

Die Helmholtz-Data Federation (HDF) ist eine strategische Initiative der Helmholtz-Gemeinschaft, die sich einer der großen Herausforderungen des nächsten Jahrzehnts annimmt: Die Bewältigung der Datenflut in der Wissenschaft, insbesondere aus den großen Forschungsinfrastrukturen der Helmholtz-Zentren.