Laufende Projekte
Verbundprojekt CausalNet - Ein Framework für Integration von Kausalität für flexible, robuste, und effiziente Machine-Learning-Modelle
Bestehende Machine-Learning-Modelle basieren typischerweise auf Korrelationen, aber nicht auf Kausalität. Dies kann zu Fehlern und letztendlich schlechter Performance führen. Um dies zu adressieren, zielen wir darauf ab, neuartige Methoden zur Integration von Kausalität in Machine-Learning-Modelle zu entwickeln. Innerhalb vom Verbundprojekt CausalNet entwickeln wir kausales Machine Learning (ML) in Richtung Flexibilität, Effizienz und Robustheit: (1) Flexibilität: Wir entwickeln ein allgemeines kausales MLModell, einschließlich hochdimensionaler, zeitlicher und multimodaler Daten. (2) Effizienz: Wir entwickeln Techniken für effiziente Lernalgorithmen (z. B. synthetisches Vor-Training, Transferlernen und Few-Shot-Learning), die speziell auf kausales ML zugeschnitten sind. (3) Robustheit: Wir erstellen neue Benchmark- Umgebungen/Datensätze. Wir entwickeln auch neue Techniken zur Überprüfung und Verbesserung der Robustheit von kausalem ML. (4) Open-Source: Wir füllen Lücken in den Tools für kausales ML, um die Verbreitung in der Industrie zu stärken. (5) Anwendungen in der realen Welt: Wir demonstrieren Leistungssteigerungen durch kausales ML in Wirtschaft, öffentlichem Sektor und Bioinformatik für wissenschaftliche Entdeckungen.
Tier-2 Online Speicher für ATLAS und CMS bei GridKa
Laufzeit: 01.10.2024 - 31.12.2025
Beschaffung und Inbetriebnahme von experiment-spezifischem Tier-2-Speicher für ATLAS und CMS am GridKa des KIT/SCC.
Copula-basierte Verteilungsregression für Raum-Zeit Daten
Copula-basierte Verteilungsregression für Raum-Zeit Daten entwickelt neue Modelle für multivariate raum-zeitliche Daten unter Verwendung von Verteilungsregression mittels Copulas. Von besonderem Interesse sind statistische Tests und die automatische Variablenauswahl mit Bayesianischen Variablenselektionsmethoden. Langfristig wird sich das Projekt mit der effizienten Modellierung nicht-stationärer Abhängigkeiten unter Verwendung stochastischer partieller Differentialgleichungen befassen.
DFG-priority program 2298 Theoretical Foundations of Deep Learning
The goal of this project is to use deep neural networks as building blocks in a numerical method to solve the Boltzmann equation. This is a particularly challenging problem since the equation is a high-dimensional integro-differential equation, which at the same time possesses an intricate structure that a numerical method needs to preserve. Thus, artificial neural networks might be beneficial, but cannot be used out-of-the-box.
We follow two main strategies to develop structure-preserving neural network-enhanced numerical methods for the Boltzmann equation. First, we target the moment approach, where a structure-preserving neural network will be employed to model the minimal entropy closure of the moment system. By enforcing convexity of the neural network, one can show, that the intrinsic structure of the moment system, such as hyperbolicity, entropy dissipation and positivity is preserved. Second, we develop a neural network approach to solve the Boltzmann equation directly at discrete particle velocity level. Here, a neural network is employed to model the difference between the full non-linear collision operator of the Boltzmann equation and the BGK model, which preserves the entropy dissipation principle. Furthermore, we will develop strategies to generate training data which fully sample the input space of the respective neural networks to ensure proper functioning models.
bwGitLab
Laufzeit: 01.07.2024 - 30.06.2029
Auf Basis der Software GitLab wird ein Landesdienst für die Verwaltung, Versionierung und Publikation von Software-Repositories für die Hochschulen in Baden-Württemberg im Rahmen der IT-Allianz geschaffen. GitLab bietet zudem zahlreiche Möglichkeiten für kollaboratives Arbeiten und verfügt über umfangreiche Funktionalitäten für die Software-Entwicklung und Automatisierung. Der Dienst ermöglicht oder vereinfacht standortübergreifende Entwicklungsprojekte zwischen Hochschulen und mit externen Partnern, neue Möglichkeiten im Bereich des Forschungsdatenmanagements und kann gewinnbringend in der Lehre eingesetzt werden. Außerdem wird eine Alternative zu Cloud-Angeboten wie GitHub geschaffen und der Verbleib der Daten aus Forschung und Lehre in Baden-Württemberg vereinfacht.
Intelligente Wettervorhersagen für das 21. Jahrhundert durch probabilistische KI-Modelle, die mit stromauflösenden Klimaprojektionen initialisiert werden - SmartWeather21
Laufzeit: 01.05.2024 - 30.04.2027
Die anhaltende Erwärmung des Erdklimas durch den vom Menschen verursachten Klimawandel verändert unser Wetter grundlegend. Traditionell werden Wettervorhersagen basierend auf numerischen Modellen getroffen, sogenannte Numerical Weather Predictions (NWP). Datengetriebene Modelle des maschinellen Lernens und insbesondere tiefe neuronale Netze bieten als Surrogatmodelle das Potential zur schnellen und (energie) effizienten Emulation von NWP Modellen. Im Rahmen des Projektes SmartWeather21 wollen wir untersuchen, welche DL-Architektur für NWP sich am besten für die Wettervorhersage in einem wärmeren Klima eignet, basierend auf den hochaufgelösten Klimaprojektionen, die im Rahmen von WarmWorld mit ICON erstellt werden. Um die hohen Auflösungen des WarmWorld Klimaprojektionen mit einzubeziehen, werden wir daten- und modellparallelen Ansätzen und Architekturen für die Wettervorhersage in einem wärmeren Klima entwickeln. Darüber hinaus werden wir untersuchen welche (lernbaren Kombinationen von) Variablen aus den ICON Klimaprojektionen die beste, physikalisch plausible Vorhersagegenauigkeit für die Wettervorhersage in einem wärmeren Klima bieten. Unter diesem Aspekt entwickeln wir Dimensionsreduktionstechniken für die verschiedenen Eingangsvariablen, die als Upstream- Task eine latente, niedrig-dimensionalere Darstellung basierend auf der Genauigkeit der Downstream Wettervorhersage lernen.
Die erhöhte räumliche Auflösung der ICON Simulationen erlauben außerdem Rückschlüsse auf die Unsicherheiten einzelner Eingangs- und Ausgangsvariablen bei niedrigeren Auflösungen zu ziehen. Im Rahmen von SmartWeather21 werden wir Methoden entwickeln, die diese Unsicherheiten durch Wahrscheinlichkeitsverteilungen parametrisieren und als Eingangsvariablen mit niedrigerer räumlicher Auflösung in DL-basierten Wettermodellen verwenden. Diese können im Rahmen probabilistischer Vorhersagen durch das Modell propagiert werden.
EOSC Beyond
Laufzeit: 01.04.2024 - 31.03.2027
Das übergeordnete Ziel von EOSC Beyond ist die Förderung von Open Science und Innovation in der Forschung im Rahmen der European Open Science Cloud (EOSC) durch die Bereitstellung neuer EOSC Core-Funktionen, die es wissenschaftlichen Anwendungen ermöglichen, mehrere Open-Science-Ressourcen zu finden, zusammenzustellen und darauf zuzugreifen und sie Forschern als integrierte Funktionen anzubieten.
bwNET 2.0
Ein resilienter, leistungsfähiger und flexibler Netzbetrieb sowie eine Bereitstellung individualisierter und sicherer Netzdienste stehen im Kern von bwNET2.0. Ziel ist es, auf der einen Seite Beiträge zur grundlegenden Forschung im Bereich der autonomen Netze zu liefern und auf der anderen Seite konkrete Bausteine und Mechanismen zu konzipieren und implementieren, die zur Weiterentwicklung von BelWü und Campusnetzen eingesetzt werden können.
bwJupyter für die Lehre
Ziel dieses Projekts ist die Stärkung forschungsorientierter Lehre, vor allem in den Bereichen KI, maschinelles Lernen, Simulation und Modellierung, durch die Bereitstellung eines landesweiten Dienstes bwJupyter.
AI-enhanced differentiable Ray Tracer for Irradiation-prediction in Solar Tower Digital Twins - ARTIST
Solarturmkraftwerke spielen eine Schlüsselrolle bei der Erleichterung der laufenden Energiewende, da sie regelbaren klimaneutralen Strom und direkte Wärme für chemische Prozesse liefern. In dieser Arbeit entwickeln wir einen heliostatspezifischen differenzierbaren Raytracer, der den Energietransport am Solarturm datengesteuert modellieren kann. Dies ermöglicht eine Rekonstruktion der Heliostatoberfläche und verbessert so die Vorhersage der Bestrahlungsstärke drastisch. Darüber hinaus reduziert ein solcher Raytracer auch die erforderliche Datenmenge für die Ausrichtungskalibrierung drastisch. Damit ist das Lernen für einen vollständig KI-betriebenen Solarturm prinzipiell machbar. Das angestrebte Ziel ist die Entwicklung eines ganzheitlichen KI-gestützten digitalen Zwillings des Solarkraftwerks für Design, Steuerung, Vorhersage und Diagnose auf Basis des physikalisch differenzierbaren Raytracers. Alle Betriebsparameter im Solarfeld, die den Energietransport beeinflussen, können damit optimiert werden. Erstmals ist eine Gradienten-basierte Feldgestaltung, Zielpunktsteuerung und Ist-Zustandsdiagnose möglich. Durch die Erweiterung um KI-basierte Optimierungstechniken und Reinforcement-Learning-Algorithmen soll es möglich sein, reale, dynamische Umgebungsbedingungen mit geringer Latenz auf den Zwilling abzubilden. Schließlich sind aufgrund der vollständigen Differenzierbarkeit auch visuelle Erklärungen für die operativen Handlungsvorhersagen möglich. Die vorgeschlagene KI-gestützte digitale Zwillingsumgebung wird in einem realen Kraftwerk in Jülich verifiziert. Seine Gründung markiert einen bedeutenden Schritt in Richtung eines vollautomatischen Solarturmkraftwerks.
Authentication and Authorisation for Research Collaboration Technical Revision to Enhance Effectiveness - AARC TREE
Die Zusammenarbeit und gemeinsame Nutzung von Ressourcen ist für die Forschung von entscheidender Bedeutung. Authentifizierungs- und Autorisierungsinfrastrukturen (AAI) spielen eine Schlüsselrolle bei der Ermöglichung eines föderierten interoperablen Zugangs zu Ressourcen.
Das Projekt "AARC Technical Revision to Enhance Effectiveness" (AARC TREE) nimmt das erfolgreiche und weltweit anerkannte Modell "Authentication and Authorisation for Research Collaboration" (AARC) und sein Vorzeigeergebnis, die AARC Blueprint Architecture (BPA), als Grundlage, um die nächste Phase der Integration von Forschungsinfrastrukturen voranzutreiben: Ausweitung des föderierten Zugangsmanagements zur Integration nutzerzentrierter Technologien, Ausweitung des Zugangs zu föderierten Daten und Diensten (Autorisierung), Konsolidierung bestehender Kapazitäten und Vermeidung von Fragmentierung und unnötiger Doppelarbeit.
Am SCC sind wir bei AARC-TREE direkt an der Weiterentwicklung der Blueprint Architectures beteiligt. Dies geschieht vor allem durch die Erstellung von technischen und organisatorischen Richtlinien (Policies). Die zusätzliche Beteiligung des SCC am IAM Projekt für die NFDI erlaubt es hierbei, Anforderungen aus der NFDI in AARC einzubringen, als auch die Neuerungen aus AARC frühzeitig in die NFDI-AAI zu tragen.
Holistic Imaging and Molecular Analysis in life-threatening Ailments - HIMALAYA
Laufzeit: 01.02.2024 - 31.01.2027
Das Gesamtziel dieses Projektes ist die Verbesserung der radiologischen Diagnostik des humanen Prostatakarzinoms in der klinischen MRT durch die KI-basierte Ausnutzung von Informationen aus höher auflösenden Modalitäten. Dabei werden wir die Brillanz der HiP-CT Bildgebung an der Beamline 18 und eine erweiterte Histopathologie der gesamten Prostata nutzen, um die Interpretation von MRT-Bildern im Rahmen eines Forschungsprototypen zu optimieren. Parallel dazu ist die Korrelation der Bilddaten mit den molekularen Eigenschaften der Tumore zum besseren Verständnis invasiver Tumorstrukturen geplant. Eine interaktive Multiskalenvisualisierung über alle Modalitäten hinweg bildet die Grundlage, die immensen Datenmengen anschaulich zu vermitteln. Als Ergebnis soll am Ende der dreijährigen Projektphase unter Berücksichtigung neuartiger KI-Algorithmen die konventionelle radiologische Anwendung der Magnetresonanztomographie (MRT) in einen diagnostischen Standard transferiert werden, der auch bisher häufig fehlerhaft diagnostizierte Patienten mit invasiven Prostatatumoren zuverlässig erkennt. Mittelfristig wäre demzufolge von einer substantiellen Verbesserung der Versorgung von Patienten mit einem fortgeschrittenen Prostatakarzinom auszugehen. Darüber hinaus werden wir den im Projekt erstellten, einzigartigen multimodalen Datensatz inklusive Visualisierungswerkzeugen als Open Data zur Verfügung stellen, um so weitere Studien zum besseren Verständnis des Prostatakarzinoms zu ermöglichen, die potentiell zu neuartigen Diagnostik- und Therapieansätzen führen könnten.
bwHPC-S5: Scientific Simulation and Storage Support Services Phase 3 - bwHPC-S5 Phase 3
Zusammen mit den gewonnenen Erkenntnissen, Bewertungen und Empfehlungen sollen die aktuellen Herausforderungen und definierten Handlungsfelder des Rahmenkonzepts der Universitäten des Landes Baden-Württemberg für das HPC und DIC im Zeitraum
2025 bis 2032 durch folgende Maßnahmen im Projekt konkretisiert werden:
• Weiterentwicklung der Wissenschaftsunterstützung bzgl. Kompetenzen zur Unterstützung neuartiger
System- und Methodekonzepte (KI, ML oder Quantencomputing), Vernetzung mit Methodenfor-
schung, ganzheitliche Bedarfsanalysen und Unterstützungsstrategien (z.B. Onboarding)
• Steigerung der Energieeffizienz durch Sensibilisierung sowie Untersuchung und Einsatz neuer Be-
triebsmodelle und Workflows inkl. optimierter Software
• Erprobung und flexible Integration neuer Systemkomponenten und -architekturen, Ressourcen (z.B.
Cloud) sowie Virtualisierung- und Containerisierungslösungen
• Umsetzung neue Software-Strategien (z.B. Nachhaltigkeit und Entwicklungsprozesse)
• Ausbau der Funktionalitäten der baden-württembergischen Datenföderation (z.B. Daten-Transfer-
Service)
• Umsetzung von Konzepten beim Umgang mit sensiblen Daten und zur Ausprägung einer digitalen
Souveränität
• Vernetzung und Kooperation mit anderen Forschungsinfrastrukturen
bwCloud 3
Weiterentwicklung und Erweiterung der bwCoud-Infrastruktur (Standorte FR, KA, MA, UL) für darauf aufsetzende bwDienste. (Vorgängerprojekt bwCloud SCOPE)
ICON-SmART
Kontakt: Dr. Jörg Meyer Förderung: Hans-Ertel-Zentrum für Wetterforschung
Das Projekt "ICON-SmART" befasst sich mit der Rolle von Aerosolen und atmosphärischer Chemie für die Simulation von saisonalen bis dekadischen Klimaschwankungen und -änderungen. Zu diesem Zweck wird das Projekt die Fähigkeiten des gekoppelten Kompositions-, Wetter- und Klimamodellierungssystems ICON-ART (ICON, ikosaedrisches nicht-hydrostatisches Modell - entwickelt von DWD, MPI-M und DKRZ mit dem
Atmosphärenzusammensetzungsmodul ART, Aerosole und reaktive Spurengase - entwickelt vom KIT) für sonale bis dekadische Vorhersagen und Klimaprojektionen in nahtlosen globalen bis regionalen Modellkonfigurationen mit ICON-Seamless-ART (ICON-SmART) untersuchen.
Auf der Grundlage früherer Arbeit ist die Chemie ein vielversprechender Kandidat für eine Beschleunigung durch maschinelles Lernen. Darüber hinaus wird das Projekt Ansätze des maschinellen Lernens für andere Prozesse untersuchen. Das ICON-SmART-Modellsystem wird Wissenschaftlern, Prognostikern und politischen Entscheidungsträgern ein neuartiges Instrument zur Untersuchung der atmosphärischen Zusammensetzung in einem Klima zu untersuchen, und ermöglicht es uns, Fragen zu beantworten, die bisher unerreichbar waren.
Photonische Materialien mit bedarfsgerechten Eigenschaften, entwickelt mit KI-Technologie
In diesem Projekt werden künstliche neuronale Netze bei einem inversen Designproblem eingesetzt, bei dem es darum geht, nanostrukturierte Materialien mit bedarfsgerechten optischen Eigenschaften zu finden. Um dieses Ziel zu erreichen, müssen große Datenmengen aus 3D-Simulationen der Maxwell-Gleichungen generiert werden, was dies zu einem datenintensiven Rechenproblem macht. Es werden maßgeschneiderte Algorithmen entwickelt, die sowohl den Lernprozess als auch die effiziente Inversion berücksichtigen. Das Projekt ergänzt die Forschungsarbeiten des SDL Materials Science zu KI-Methoden, großen durch Simulationen erzeugten Datensätzen und Arbeitsabläufen.
Artificial intelligence for the Simulation of Severe AccidentS - ASSAS
The ASSAS project aims at developing a proof-of-concept SA (severe accident) simulator based on ASTEC (Accident Source Term Evaluation Code). The prototype basic-principle simulator will model a simplified generic Western-type pressurized light water reactor (PWR). It will have a graphical user interface to control the simulation and visualize the results. It will run in real-time and even much faster for some phases of the accident. The prototype will be able to show the main phenomena occurring during a SA, including in-vessel and ex-vessel phases. It is meant to train students, nuclear energy professionals and non-specialists.
In addition to its direct use, the prototype will demonstrate the feasibility of developing different types of fast-running SA simulators, while keeping the accuracy of the underlying physical models. Thus, different computational solutions will be explored in parallel. Code optimisation and parallelisation will be implemented. Beside these reliable techniques, different machine-learning methods will be tested to develop fast surrogate models. This alternate path is riskier, but it could drastically enhance the performances of the code. A comprehensive review of ASTEC's structure and available algorithms will be performed to define the most relevant modelling strategies, which may include the replacement of specific calculations steps, entire modules of ASTEC or more global surrogate models. Solutions will be explored to extend the models developed for the PWR simulator to other reactor types and SA codes. The training data-base of SA sequences used for machine-learning will be made openly available. Developing an enhanced version of ASTEC and interfacing it with a commercial simulation environment will make it possible for the industry to develop engineering and full-scale simulators in the future. These can be used to design SA management guidelines, to develop new safety systems and to train operators to use them.
Daten und Dienste zur Unterstützung von Meeres- und Süßwasserwissenschaftlern sowie Interessensgruppen - AquaINFRA
Das AquaINFRA-Projekt zielt darauf ab, eine virtuelle Umgebung zu entwickeln, die mit multidisziplinären FAIR-Daten und -Diensten ausgestattet ist, um Meeres- und Süßwasserwissenschaftler und Interessengruppen bei der Wiederherstellung gesunder Ozeane, Meere, Küsten- und Binnengewässer zu unterstützen. Die virtuelle AquaINFRA-Umgebung wird es den Zielakteuren ermöglichen, Forschungsdaten und andere digitale Forschungsobjekte aus ihrer eigenen Disziplin zu speichern, gemeinsam zu nutzen, darauf zuzugreifen, sie zu analysieren und zu verarbeiten, und zwar über Forschungsinfrastrukturen, Disziplinen und Landesgrenzen hinweg, indem sie EOSC und die anderen bestehenden operativen Datenräume nutzt. AquaINFRA unterstützt nicht nur die laufende Entwicklung der EOSC als übergreifende Forschungsinfrastruktur, sondern befasst sich auch mit der spezifischen Notwendigkeit, Forschern aus dem Meeres- und Süßwasserbereich die Möglichkeit zu geben, über diese beiden Bereiche hinweg zu arbeiten und zusammenzuarbeiten.
(Übersetzt mit DeepL.com)
Entwicklung einer InfraStruktur zum dAtenBasiErten Lernen in den Umweltwissenschaften - ISABEL
Laufzeit: 01.12.2022 - 30.11.2025
Digital verfügbare Datensätze in der terrestrischen Wasser- und Umweltforschung werden immer zahlreicher und umfangreicher, sind allerdings oft nicht ohne Weiteres zugänglich und wissenschaftlich verwendbar. Häufig sind sie unzureichend mit Metadaten beschrieben und in unterschiedlichsten Datenformaten abgelegt, dazu oftmals nicht in Datenportalen/-repositorien, sondern auf lokalen Speichermedien vorgehalten. Basierend auf der in einem Vorgängerprojekt entwickelten virtuellen Forschungsumgebung VFOR-WaTer ist es das Ziel von ISABEL, dieses Datenangebot in einem Webportal verfügbar zu machen. Hier sollen Umweltwissenschaftler auf Daten aus unterschiedlichen Quellen wie z.B. Landesämtern oder Hochschulprojekten einfach und schnell zugreifen, aber auch eigene Daten teilen können. Zusätzlich sind Schnittstellen zu bestehenden Datenportalen geplant, damit bereits veröffentlichte Datensätze mit einbezogen werden können. Mithilfe integrierter Werkzeuge sollen diese Daten leicht skaliert werden und in einem einheitlichen Format verfügbar sein. Außerdem stehen Analysewerkzeuge für weitere Auswertungen zur Verfügung. Diese werden vom Entwicklerteam beständig für den Bedarf der Community erweitert, können aber auch direkt von Nutzern beigetragen werden. Ein leichtes Abspeichern der Analyseschritte und verwendeten Werkzeuge macht die Berechnungen reproduzierbar, zudem wird durch die Anbindung an vorhandene Datenrepositorien die Publikation eigener Daten vereinfacht. Damit adressiert ISABEL den Bedarf von Forschenden aus den Wasser- und Umweltwissenschaften, Daten nicht nur aufzufinden und darauf zugreifen zu können, sondern mit standardisierten Werkzeugen für reproduzierbare Datenanalyseschritte effizient datengetrieben zu lernen.
Mehr
DAPHONA
In der Nanooptik beschäftigen wir uns, unter anderem, mit den optischen Eigenschaften von Strukturen mit einer räumlichen Ausdehnung vergleichbar oder kleiner als der Wellenlänge. Diese Streuer haben viele Anwendungen z.B. in der Bildgebung, in Sensoren oder auch in Quantentechnologien. Alle optischen
Eigenschaften eines Streuers werden hierbei durch dessen T-Matrix erfasst. Diese T-Matrix beschreibt, wie ein Beleuchtungsfeld in ein Streufeld konvertiert wird. T-Matrizen sind die Basis zur Beschreibung komplexer nanooptischer Systeme. Aktuell werden diesen T-Matrizen immer wieder neu berechnet und nicht systematisch genutzt. Das verschwendet Rechenressourcen und erlaubt auch nicht, Fragestellungen zu adressieren, die auf der Basis dieser Daten beantwortbar wären. DAPHONA will diesen Mangel beheben. Wir werden Technologien bereitstellen, mit denen die geometrischen und Materialeigenschaften eines Objektes und dessen optische Eigenschaften, ausgedrückt durch die T-Matrix, in einer einheitlichen Datenstruktur zusammengeführt werden. Diese Daten werden
systematisch genutzt, um die T-Matrix aus dem Datensatz für ein gegebenes Objekt zu extrahieren. Auch wollen wir Objekte identifizieren, die vordefiniert optische Eigenschaften ausgedrückt durch eine T-Matrix besitzen. Entlang dieser Ansätze werden wir viele neuartige Fragestellungen beantworten, die erst durch den hier formulierten datengetriebenen Ansatz adressiert werden können. Wir planen im Rahmen von DAPHONA wissenschaftlichen Nachwuchs auf verschiedenen Qualifikationsstufen auszubilden und werden unseren Ansatz in der Lehre verankern. Wir haben die Community eingeladen, uns in diesem Projekt zu begleiten. Wir planen, die Datenstruktur mit der Community abzustimmen und im Rahmen von Workshops die vorhandenen Daten zu diskutieren und zur Verfügung stehende Methoden zu deren Nutzung zu verbreiten. Unser Konzept ist offen, basiert auf den FAIR Prinzipien und wird nachhaltig einen Nutzen der gesamten Community bringen.
Skills for the European Open Science Commons: Creating a Training Ecosystem for Open and FAIR Science - Skills4EOSC
Skills4EOSC bringt führende Experten zusammen aus nationalen, regionalen, institutionellen und thematischen Open Science und Datenkompetenzzentren aus 18 europäischen Ländern mit dem Ziel, die derzeitige Trainings- und Ausbildungslandschaft zu vereinheitlichen in ein gemeinsames Europa-übergreifendes Ökosystem, um Forschende und Datenspezialisten aus Europa beschleunigt auf den Gebieten FAIR Open Data, datenintensive Wissenschaft und wissenschaftliches Datenmanagement auszubilden.
Skalierbare, effiziente Methoden zur Quantifizierung von Unsicherheiten in der KI-basierten Zeitreihenvorhersage - EQUIPE
Laufzeit: 01.09.2022 - 31.08.2025
Das Projekt EQUIPE beschäftigt sich mit der Quantifizierung von Unsicherheiten in großen Transformer-Modellen für die Zeitreihen-Vorhersage. Die Transformer-Architektur ist zwar in der Lage eine erstaunlich hohe Vorhersagegenauigkeit zu erzielen, benötigen jedoch immense Mengen an Rechenressourcen. Gängige Ansätze der Fehlerabschätzung in neuronalen Netzen sind in gleichem Maße rechenintensiv, was ihren Einsatz in Transformern derzeit noch erheblich erschwert.
Die Forschungsarbeiten im Rahmen von EQUIPE zielen darauf ab, diese Probleme zu beheben, und skalierbare Algorithmen zur Quantifizierung von Unsicherheiten in großen neuronalen Netzen zu entwickeln .Dadurch wird perspektivisch der Einsatz der Methoden in Echtzeit-Systemen ermöglicht.
iMagine
iMagine ist ein von der EU gefördertes Projekt, das ein Portfolio von frei nutzbaren Bilddatensätzen, leistungsstarken Bildanalysewerkzeugen, die mit mit künstlicher Intelligenz (KI) und Best-Practice-Dokumente für die wissenschaftliche Bildanalyse. Diese Dienste und Materialien ermöglichen eine bessere und effizientere Verarbeitung und Analyse von Bilddaten in der Meeres- und Süßwasserforschung, die für das übergreifende Thema 'Gesunde Ozeane, Meere, Küsten- und Binnengewässer' relevant sind.
Artificial Intelligence for the European Open Science Cloud - AI4EOSC
Laufzeit: 01.09.2022 - 31.08.2025
Projektseite: ai4eosc.eu Das Projekt AI4EOSC (Artificial Intelligence for the European Open Science Cloud) ist ein von der EU finanziertes Projekt, das eine Reihe von erweiterten und fortschrittliche Dienste für die Entwicklung von AI/ML/DL-Modellen und Anwendungen in der European Open Science Cloud (EOSC) zur Verfügung stellt. Diese Dienste sind in einer umfassenden Plattform gebündelt, die moderne Funktionen wie verteiltes, föderiertes und geteiltes Lernen, neuartige Provenance-Metadaten für KI/ML/DL-Modelle sowie ereignisgesteuerte Datenverarbeitungsdienste. Das Projekt baut auf den Ergebnissen der DEEP-Hybrid-DataCloud und der EOSC-Rechnerplattform auf.
Entwicklung und Validierung eines hybriden Gitter-/Partikelverfahrens für turbulente Strömungen unterstützt durch Hochleistungsberechnungen mit OpenFOAM - hGVtSOF
Das Hauptziel des vorliegenden Projekts ist die Weiterentwicklung und Validierung einer neuen CFD-Methode (Computational Fluid Dynamics), die eine Kombination aus gitterfreien (Partikel) und gitterbasierten Techniken verwendet. Eine grundlegende Annahme dieses neuen Ansatzes ist die Zerlegung jeder physikalischen Größe in einen gitterbasierten (großskaligen) und einen feinskaligen Teil, wobei die großskaligen Teile auf dem Gitter aufgelöst und die feinskaligen Teile durch Partikel dargestellt werden. Die Dynamik der großen und feinen Skalen wird aus zwei gekoppelten Transportgleichungen berechnet, von denen eine auf dem Gitter gelöst wird, während die zweite die Lagrangesche gitterfreie Vortex-Partikel-Methode (VPM) verwendet.
InterTwin
InterTwin entwirft und implementiert den Prototypen einer interdisziplinären Digital Twin Engine (DTE). Dies ist eine Open-Source-Plattform, die generische Softwarekomponenten für die Modellierung und Simulation zur Integration anwendungsspezifischer Digitalen Zwillingen bereitstellt. Die Spezifikationen basieren auf einem im Projekt zu entwerfenden konzeptionellen Modell - der DTE Blueprint-Architektur. Diese orientiert sich an den Grundsätzen von offenen Standards und Interoperabilität. Das Ziel ist die Entwicklung eines gemeinsamen Ansatzes für die Implementierung von Digital Twins zu entwickeln, der über das gesamte Spektrum der wissenschaftlichen Disziplinen und darüber hinaus anwendbar ist.
Gaia-X für den Innovationscampus Mobilität der Zukunft - Gaia-X4ICM
Gaia-X ist eine europäische Initiative, die eine sichere und vertrauenswürdige Plattform für den Datenaustausch und die Zusammenarbeit zwischen verschiedenen Branchen und Sektoren in Europa schaffen will. Ein Hauptziel der Gaia-X4ICM-Forschungsinitiative für den Innovationscampus Future Mobility (ICM) ist die Schaffung einer grundlegenden Dateninfrastruktur mit allen erforderlichen Hardware- und Softwarekomponenten. Diese spielt eine wichtige Rolle bei der Verbindung und Zusammenarbeit verschiedener am industriellen Produktionsprozess beteiligter Sektoren. Das SCC implementiert und betreibt diese Cloud-Infrastruktur auf eigener Hardware im eigenen Rechenzentrum. Alle Partner erhalten so die volle Kontrolle über die digitale Infrastruktur sowie genutzte Daten, um eine weitreichende Datenhoheit, Datenschutz und Sicherheit zu gewährleisten.
Materialisierte Heiligkeit - toRoll
Im Projekt "Materialisierte Heiligkeit" werden Torarollen als ein außerordentliches kodikologisches, theologisches und soziales Phänomen untersucht. Anders als bei beispielsweise Bibelkopien ist die Abschrift der heiligen Schriftrollen bereits seit der Antike durch strenge Regulierungen bestimmt und wird durch eine reiche Kommentarliteratur ergänzt.
Gemeinsam mit Expertinnen und Experten der Judaistik, der Materialforschung und der Sozialwissenschaften möchten wir einen digitalen Wissensspeicher aufbauen, der der Vielschichtigkeit dieses Forschungsgegenstandes gerecht wird. Die jüdische Schreiberliteratur mit englischer Übersetzung, Materialanalysen, paläographische Untersuchungen an mittelalterlichen Torarollen sowie Interview- und Filmmaterial über Schreiber / Schreiberinnen der heutigen Zeit sollen in einer einmaligen Sammlung zusammenkommen und erstmals interdisziplinär untersucht werden. Zusätzlich soll eine zu entwickelnde 'virtuelle Torarolle' kleinste paläographische Details der Schrift und ihre Bedeutung im kulturellen Gedächtnis aufdecken.
Metaphern der Religion - SFB1475
Der an der Ruhr-Universität Bochum (RUB) angesiedelte SFB 1475 möchte den religiösen Gebrauch von Metaphern über Zeiten und Kulturen hinweg verstehen und methodisch erfassen. Dazu untersuchen die Teilprojekte eine Vielzahl von Schriften aus Christentum, Islam, Judentum, Zoroastrismus, Jainismus, Buddhismus und Daoismus, die aus Europa, dem Nahen und Mittleren Osten sowie Süd-, Zentral- und Ostasien stammen und die Zeitspanne von 3000 v. Chr. bis heute umfassen. Erstmals werden in durch diesen Verbund vergleichende Studien in einzigartigem Umfang ermöglicht.
Das SCC leitet im Sonderforschungsbereich gemeinsam mit den Kolleginnen und Kollegen des Centrum für Religionswissenschaftliche Studien (CERES) und der RUB das Informationsinfrastrukturprojekt „Metapher-Basislager“, in dem die digitale Dateninfrastruktur für alle Teilprojekte entwickelt wird. Zentrale Komponente wird ein Forschungsdatenrepositorium mit modernsten Annotations-, Analyse- und Visualisierungswerkzeugen für die geisteswissenschaftlichen Daten.
Helmholtz Platform for Research Software Engineering - Preparatory Study (HiRSE_PS)
The HiRSE concept sees the establishment of central activities in RSE and the targeted sustainable funding of strategically important codes by so-called Community Software Infrastructure (CSI) groups as mutually supportive aspects of a single entity.
Bayesianisches maschinelles Lernen mit Quantifizierung von Unsicherheiten für die Erkennung von Unkraut in Ackerland aus Fernerkundung in geringer Höhe
Unkraut ist eine der Hauptursachen für Ernteverluste. Daher setzen Landwirte verschiedene Methoden ein, um den Unkrautwuchs auf ihren Feldern zu kontrollieren, am häufigsten chemische Herbizide. Die Herbizide werden jedoch oft gleichmäßig auf dem gesamten Feld ausgebracht, was sich negativ auf Umwelt und Kosten auswirkt. Die standortspezifische Unkrautbekämpfung (site-specific weed management; SSWM) berücksichtigt die Variabilität auf dem Feld und lokalisiert die Behandlung. Die genaue Lokalisierung von Unkräutern ist daher der erste Schritt zum SSWM. Darüber hinaus sind Informationen über die Zuverlässigkeit der Vorhersage entscheidend für den Einsatz der Methoden in der Praxis. Dieses Projekt zielt darauf ab, Methoden für die Unkrautidentifizierung in Ackerflächen auf der Grundlage von UAV-Fernerkundungsbildern aus geringer Höhe und die Quantifizierung von Unsicherheiten mithilfe von Bayesianischem maschinellem Lernen zu entwickeln, um einen ganzheitlichen Ansatz für SSWM zu entwickeln. Das Projekt wird von der Helmholtz Einstein International Berlin Research School in Data Science (HEIBRiDS) unterstützt und von Prof. Dr. Martin Herold vom GFZ German Research Centre for Geosciences mitbetreut.
Zukunftsfähige Konzepte für die Campusnetze der Hochschulen in Baden-Württemberg - bwCampusnetz
Im Projekt bwCampusnetz arbeiten mehrere Universitäten zusammen, um die Campusnetze zu beleuchten. Es sollen zukunftsfähige Konzepte gefunden und deren praktische Umsetzbarkeit durch prototypische Implementierungen untersucht und demonstriert werden.
PUNCH4NFDI
PUNCH4NFDI ist das NFDI-Konsortium für Teilchen-, Astro-, Astroteilchen-, Hadronen- und Kernphysik, das rund 9.000 promovierte Wissenschaftlerinnen und Wissenschaftler aus Universitäten, der Max-Planck-Gesellschaft, der Leibniz-Gemeinschaft und der Helmholtz-Gemeinschaft in Deutschland vertritt. Die PUNCH-Physik befasst sich mit den grundlegenden Bestandteilen der Materie und ihren Wechselwirkungen sowie mit ihrer Rolle bei der Entstehung der größten Strukturen im Universum – Sterne und Galaxien. Die Errungenschaften der PUNCH-Wissenschaft reichen von der Entdeckung des Higgs-Bosons über die Installation eines 1-Kubikkilometer-Teilchendetektors zum Neutrinonachweis im antarktischen Eis bis hin zum Nachweis des Quark-Gluon-Plasmas bei Schwerionenkollisionen und dem ersten Bild des schwarzen Lochs im Herzen der Milchstraße überhaupt.
Das Hauptziel von PUNCH4NFDI ist der Aufbau einer föderierten und „FAIR"en-Wissenschaftsdatenplattform, die die notwendigen Infrastrukturen und Schnittstellen für den Zugang zu und die Nutzung von Daten und Rechenressourcen der beteiligten Gemeinschaften und darüber hinaus bietet. Das SCC übernimmt dabei eine führende Rolle bei der Entwicklung der verteilten Compute4PUNCH-Infrastruktur ein und ist an den Aktivitäten rund um Storage4PUNCH beteiligt, einer verteilten Speicherinfrastruktur für die PUNCH-Communities.
NFDI-MatWerk
Das Konsortium NFDI-MatWerk erhält eine fünfjährige Förderung im Rahmen der Nationalen Forschungsdateninfrastruktur (NFDI) für die Entwicklung eines gemeinsamen Material-Forschungsdatenraums. NFDI-MatWerk steht für die Materialwissenschaft und Werkstofftechnik, um die physikalischen Mechanismen in Materialien zu charakterisieren und ressourcenschonende Hochleistungswerkstoffe mit möglichst idealen Eigenschaften für die jeweilige Anwendung zu entwickeln.
Über Deutschland verteilte Daten aus den wissenschaftlichen Gruppen sollen über eine wissensgraphbasierte Infrastruktur so angesprochen werden können, dass schnelle und komplexe Suchanfragen und Auswertungen möglich werden.
Am KIT sind das Scientific Computing Center (SCC) und das Institut für Angewandte Materialien (IAM) beteiligt. Im SCC werden wir mit den Partnern das Digital Materials Environment mit den Infrastrukturdiensten für die Forschungsdaten und ihre Metadaten aufbauen.
Simulierte Welten (Phase IV)
Das Projekt Simulierte Welten hat sich zum Ziel gesetzt, Schülerinnen und Schülern in Baden-Württemberg ein vertieftes kritisches Verständnis der Möglichkeiten und Grenzen von Computersimulationen zu vermitteln. Das Vorhaben wird gemeinsam vom Scientific Computing Center (SCC), dem Höchstleistungsrechenzentrum Stuttgart (HLRS) sowie der Universität Ulm getragen und arbeitet bereits mit mehreren Schulen in Baden-Württemberg zusammen.
Shallow priors und Deep Learning: Das Potenzial der Bayesianischen Statistik als Mittel für deep Gaussian mixture models
Trotz erheblicher Überschneidungen und Synergien haben sich das maschinelle Lernen und die statistische Wissenschaft weitgehend parallel entwickelt. Deep Gaussian mixture models, eine kürzlich eingeführte Modellklasse des maschinellen Lernens, befassen sich mit den unüberwachten Aufgaben der Dichteschätzung und hochdimensionalen Clusterbildung, die in vielen Anwendungsbereichen zur Mustererkennung verwendet werden. Um überparametrisierte Lösungen zu vermeiden, kann auf jeder Ebene der Architektur eine Dimensionsreduktion durch Faktormodelle vorgenommen werden. Die Wahl der Architekturen kann jedoch als Bayesianisches Modellwahlproblem interpretiert werden, was bedeutet, dass jedes mögliche Modell, das die Bedingungen erfüllt, angepasst wird. Die Autoren schlagen einen viel einfacheren Ansatz vor: Es muss nur ein einziges großes Modell trainiert werden, und überflüssige Komponenten werden weggelassen. Die Idee, dass Parametern a-priori-Verteilungen zugewiesen werden können, ist höchst unorthodox, aber extrem einfach und bringt zwei Wissenschaften zusammen, nämlich maschinelles Lernen und Bayesianische Statistik.
bwIDM - Security and Community
Das skizzierte Projekt bwIDM2 widmet sich den gestiegenen Anforderungen an IT-Sicherheit und berücksichtigt
aktuelle technische Entwicklungen. Es schafft die Voraussetzungen zur hochschulartenübergreifenden
Einbindung von Diensten und etabliert eine Gruppen-/Rollenverwaltung für überregionale
und nationale Communities mit Delegationsmechanismen. Darüber hinaus werden Fachkonzepte
zur Integration eines langfristigen Personen-Identifikators in bwIDM, wie er zur Verwendung
beim Forschungsdatenmanagement notwendig ist, erarbeitet.
NFFA-Europe-Pilot - NEP
NEP stellt wichtige Ressourcen für die Nano-Forschung bereit und entwickelt neue kooperative Arbeitsweisen. Darin wird der Einsatz innovativer Technologien des Forschungsdaten- und Metadatenmangements immer wichtiger.
Das SCC trägt zum Aufbau einer gemeinsamen Forschungsdateninfrastruktur mit neuen Methoden zur Metadaten-Anreicherung, Erschließung von großen Datensammlungen und der Bereitstellung virtueller Dienste bei.
Joint Lab VMD - JL-VMD
Im Rahmen des JointLab VMD entwickelt das SDL Materials Science Methoden, Werkzeuge und architektonische Konzepte für Supercomputing- und Big-Data-Infrastrukturen, die auf die spezifischen Anwendungsherausforderungen zugeschnitten sind und die Digitalisierung in der Materialforschung und die Erstellung von digitalen Zwillingen erleichtern. Insbesondere entwickelt das Joint Lab eine virtuelle Forschungsumgebung (VRE), die Rechen- und Datenspeicherressourcen in bestehende Workflow-Managementsysteme und interaktive Umgebungen für Simulationen und Datenanalysen integriert.
Joint Lab MDMC - JL-MDMC
Im Rahmen des Joint Lab "Integrated Model and Data Driven Materials Characterization" (MDMC) entwickelt das SDL Materialwissenschaft ein Konzept für eine Daten- und Informationsplattform, um Daten über Materialien als experimentelle Basis für digitale Zwillinge und für die Entwicklung simulationsbasierter Methoden zur Vorhersage von Materialstruktur und -eigenschaften wissensorientiert verfügbar zu machen. Es definiert ein Metadatenmodell zur Beschreibung von Proben und Datensätzen aus experimentellen Messungen und harmonisiert Datenmodelle für die Materialsimulation und korrelative Charakterisierung unter Verwendung von materialwissenschaftlichen Vokabularen und Ontologien.
NFDI4Ing
Laufzeit: 01.10.2020 - 30.09.2025
Projektseite: nfdi4ing.de NFDI4Ing ist ein Konsortium der Ingenieurwissenschaften und fördert das Management technischer Forschungsdaten. NFDI4Ing wurde schon 2017 gegründet und steht in engem Austausch mit Forschenden aller ingenieurwissenschaftlichen Fachgebiete. Das Konsortium bietet einen einzigartigen methodenorientierten und nutzerzentrierten Ansatz, um technische Forschungsdaten FAIR - auffindbar, zugänglich, interoperabel und wiederverwendbar - zu machen. Eine wichtige Herausforderung ist dabei die große Anzahl von Teildisziplinen der Ingenieurwissenschaften und ihre fachspezifischen Eigenheiten. Das KIT ist mit einer Co-Sprecherin, Britta Nestler aus dem Institut für Angewandte Materialien (IAM) und einem Co-Sprecher, Achim Streit aus dem Scientific Computing Center (SCC), beteiligt.
Im Rahmen von NFDI4Ing entwickelt und implementiert das SCC in enger Kooperation mit den Partnern die Konzepte für föderierte Forschungsdateninfrastrukturen, Datenmanagement-Prozesse, Repositorien und Metadatenmanagement. Der NFDI4Ing-Antrag https://doi.org/10.5281/zenodo.4015200 beschreibt die geplante Forschungsdateninfrastruktur im Detail.
NFDI4Chem - Chemiekonsortium in der Nationalen Forschungsdateninfrastruktur (NFDI
Die Vision von NFDI4Chem ist die Digitalisierung aller Arbeitsprozesse in der chemischen Forschung. Hierzu soll Infrastruktur auf- und ausgebaut werden, die Forschende dabei unterstützt, Forschungsdaten zu sammeln, zu speichern und zu archivieren, zu verarbeiten und zu analysieren sowie die Daten in Repositorien zusammen mit beschreibenden Metadaten und DOIs zu publizieren und somit referenzierbar und wiederverwendbar zu machen. NFDI4Chem vertritt als Fachkonsortium alle Disziplinen der Chemie und arbeitet dazu eng mit den großen Fachgesellschaften zusammen.
Boosting Copulas - Multivariate Verteilungsregression in der Digitalen Medizin
Für moderne biomedizinische Fragestellungen liefern klassische Regressionsmodelle häufig eine zu sehr vereinfachte Sicht auf komplexe Zusammenhänge. Insbesondere sind mögliche Assoziationen zwischen multiplen klinischen Endpunkten, wie sie heutzutage meist erfasst werden, bei der Modellierung adäquat zu berücksichtigen. Die klassische separate Modellierung verschiedener Zielgrößen kann in vielen Fällen zu verzerrten Ergebnissen und falschen bzw. unvollständigen Schlussfolgerungen führen. Dieser Herausforderung möchten sich die beiden Projektpartner stellen und ihre komplementären Vorarbeiten nutzen, um neuartige Copula-Regressionsmodelle für hoch-dimensionale biomedizinische Fragestellungen zu etablieren. Die zu entwickelnden Methoden erlauben es, mehrere Studien-Endpunkte simultan zu modellieren und dabei die dafür nötigen Einflussgrößen und Risikofaktoren aus potentiell hoch-dimensionalen Daten über Algorithmen des statistischen Lernens zu selektieren. Die daraus resultierenden Modelle können sowohl für die Interpretation und Analyse komplexer Assoziationsstrukturen als auch für die Prognose-Inferenz (simultane Prognoseintervalle für mehrere Zielgrößen) verwendet werden. Zusätzliche Implementierung in frei verfügbarer Software und deren Anwendungen in verschiedenen Studien unterstreichen das Potential und den Beitrag dieses Projektes für die methodischen Herausforderungen des Zukunftsfeldes Digitale Medizin.
HAICORE
Das Helmholtz AI COmpute REssources Infrastrukturprojekt ist Teil des Helmholtz Inkubators “Information & Data Science” und dient der Bereitstellung von leistungsstarken Rechenressourcen für die Forschenden im Bereich künstlicher Intelligenz (KI) in der Helmholtz-Gemeinschaft. Technisch wird die KI-Hardware als Teil der Hochleistungsrechnersysteme JUWELS (Julich Supercomputing Centre) und HoreKa (KIT) an den beiden Zentren betrieben. Das SCC deckt dabei vornehmlich den prototypischen Entwicklungsbetrieb ab in dem neue Ansätze, Modelle und Verfahren entwickelt und erprobt werden können. HAICORE steht allen Mitgliedern der Helmholtz-Gemeinschaft im Bereich KI-Forschung offen.
Jenseits der Mittelwertsregression - Eine Bayesianische Perspektive auf das Maschinelle Lernen
Im Zeitalter der Digitalisierung liegen vielen wissenschaftlichen Studien immer größere und komplexere Datenmengen zugrunde. Diese „Big Data“-Anwendungen bieten viele Ansatzpunkte für die Weiterentwicklung von statistischen Methoden, die insbesondere genauere und an deren Komplexität angepasste Modelle sowie die Entwicklung verbesserter Inferenzmethoden erfordern, um potentiellen Modellfehlspezifikationen, verzerrten Schätzern und fehlerhaften Folgerungen und Prognosen entgegenzuwirken. Das hier vorgeschlagene Projekt wird statistische Methoden für flexible univariate und multivariate Regressionsmodelle und deren genaue und effiziente Schätzung entwickeln. Genauer sollen durch einen probabilistischen Ansatz zu klassischen Verfahren des maschinellen Lernens effizientere und statistische Lernalgorithmen zur Schätzung von Modellen mit großen Datensätzen erarbeitet werden. Um die Modellierung der gesamten bedingten Verteilung der Zielgrößen zu ermöglichen, sollen darüber hinaus neuartige Verteilungsregressionsmodelle entwickelt werden, welche sowohl die Analyse univariater als auch multivariater Zielgrößen erlauben und gleichzeitig interpretiere Ergebnisse liefern. In all diesen Modellen sollen außerdem die wichtigen Fragen der Regularisierung und Variablenselektion betrachtet werden, um deren Anwendbarkeit auf Problemstellungen mit einer großen Anzahl an potentiellen Prädiktoren zu gewährleisten. Auch die Entwicklung frei verfügbarer Software sowie Anwendungen in den Natur- und Sozialwissenschaften (wie zum Beispiel zu Marketing, Wettervorhersagen, chronischen Krankheiten und anderen) stellen einen wichtigen Bestandteil des Projekts dar und unterstreichen dessen Potential, entscheidend zu wichtigen Aspekten der modernen Statistik und Datenwissenschaft beizutragen.
Helmholtz Metadata Collaboration Platform - HMC
Mit der Helmholtz Metadata Collaboration Plattform startete Ende 2019 ein wichtiges Themenfeld des Helmholtz Inkubators "Information & Data Science", der die Expertise der Helmholtz-Zentren zusammenführt und das Thema „Information & Data Science“ über die Grenzen von Zentren und Forschungsbereichen hinweg gestaltet. Übergeordnetes Ziel der Plattform ist, die qualitative Anreicherung von Forschungsdaten durch Metadaten langfristig voranzutreiben, die Forschenden zu unterstützen – und dies in der Helmholtz-Gemeinschaft und darüber hinaus umzusetzen.
Mit dem Arbeitspaket FAIR Data Commons Technologien entwickelt SCC Technologien und Prozesse, um Forschungsdaten aus den Forschungsbereichen der Helmholtz Gemeinschaft und darüber hinaus den Forschenden entsprechend der FAIR Prinzipien zur Verfügung zu stellen. Dies wird auf technischer Ebene durch einen einheitlichen Zugriff auf Metadaten mit Hilfe von standardisierten Schnittstellen erreicht, welche sich an Empfehlungen und Standards orientieren, die innerhalb weltweit vernetzten Forschungsdateninitiativen, z.B. der Research Data Alliance (RDA, https://www.rd-alliance.org/), durch Konsensbildung verabschiedet werden. Für den Forschenden werden diese Schnittstellen durch einfach nutzbare Werkzeuge, allgemein anwendbare Prozesse und Empfehlungen für den Umgang mit Forschungsdaten im wissenschaftlichen Alltag nutzbar gemacht.
Helmholtz AI
Die Helmholtz AI Plattform ist ein Forschungsprojekt des Helmholtz Inkubators “Information & Data Science”. Die übergeordnete Mission der Plattform ist dabei die “Demokratisierung von KI für eine datengetriebene Zukunft” und ziehlt darauf ab einer möglich breiten Nutzendengruppe KI-Algorithmen und -Ansätze einfach handhabbar und ressourcenschonend zur Verfügung zu stellen.
Die Helmholtz AI Plattform ist nach einem Rad-Speichen-Modell strukturiert, dass die sechs Forschungsfelder der Helmholtz-Gemeinschaft abdeckt. Das KIT ist dabei mit seiner Local Unit für den Themenkreis Energieforschung verantwortlich. In diesem Rahmen unterstützt das SCC Forschende mit einer Beratungseinheit bei der Umsetzung von KI-Forschungsvorhaben in der Erkundung neuer Ansätze zur Energieerzeugung, -verteilung und -speicherung.
Mehr
GRK 2450 - GRK 2450 (DFG)
Im Graduiertenkolleg "Maßgeschneiderte Multiskalenmethoden für Computersimulationen von nanoskaligen Materialien" untersuchen wir Probleme, die mit einzelnen Standardwerkzeugen der Computational Chemistry nicht zu bewältigen sind. Die Forschung ist in sieben Projekte gegliedert. Fünf Projekte adressieren wissenschaftliche Herausforderungen wie Reibung, Materialalterung, Materialdesign und biologische Funktion. In zwei weiteren Projekten werden neue Methoden und Werkzeugen der Mathematik und der Informatik für die speziellen Anforderungen dieser Anwendungen entwickelt und bereitgestellt. Das SCC ist an den Projekten P4, P5 und P6 beteiligt.
Helmholtz Federated IT Services - HIFIS
Mit den Helmholtz Federated IT Services (HIFIS) wird eine sichere und einfach zu bedienende Kooperationsumgebung mit effizient und von überall zugänglichen IKT-Diensten aufgebaut. HIFIS unterstützt auch die Entwicklung von Forschungssoftware mit einem hohen Maß an Qualität, Sichtbarkeit und Nachhaltigkeit.
Computational and Mathematical Modeling Program (CAMMP)
CAMMP steht für Computational And Mathematical Modeling Program (Computergestütztes Mathematisches Modellierungsprogramm). Es ist ein außerschulisches Angebot des KIT für Schülerinnen und Schüler verschiedenen Alters. CAMMP will die gesellschaftliche Bedeutung von Mathematik und Simulationswissenschaften der Öffentlichkeit bewusst machen. Dazu steigen Schülerinnen und Schüler in verschiedenen Veranstaltungsformaten gemeinsam mit Lehrkräften aktiv in das Problemlösen mit Hilfe von mathematischer Modellierung und dem Einsatz von Computern ein und erforschen dabei reale Probleme aus Alltag, Industrie oder Forschung.