Direkt zum Seiteninhalt springen

Helmholtz investiert in innovative Information & Data Science Forschungsprojekte

Big Data und Künstliche Intelligenz bieten enormes Potenzial für alle gesellschaftlich wichtigen Bereiche, wie die Erforschung des Klimawandels, des Erdsystems und der Gesundheit. Als wichtiger Player im Bereich Information & Data Science finanziert Helmholtz nun in einer zweiten Runde zukunftsweisende Forschungsprojekte mit knapp 20 Millionen Euro.

Nach einer erfolgreichen ersten Ausschreibungsrunde im Jahr 2017, in der bereits 17 Millionen Euro an Fördergeldern vergeben wurden, werden nun weitere Projekte des Helmholtz-Inkubators Information & Data Science gefördert. Sie erhalten insgesamt eine Finanzierung von knapp 20 Millionen Euro für einen Zeitraum von drei Jahren. Vier strategisch relevante und wissenschaftlich exzellente Forschungsprojekte wurden direkt ausgewählt, ein weiterer vielversprechender Forschungsansatz ist noch in Revision, drei weitere Vorhaben erhalten eine Anschubfinanzierung. Ein internationales Panel von renommierten Expertinnen und Experten unterstützte die Durchführung eines Peer-Review-Verfahrens zur Auswahl dieser zukunftsweisenden Forschungsprojekte.

„Wir machen in der Gemeinschaft große Anstrengungen, um aus den enormen Datensätzen in allen Forschungsbereichen neues Wissen zu schaffen. Die Auswahl dieser von hochkarätigen Forscherinnen und Forschern geleiteten Vorhaben demonstriert die enorme Leistungsfähigkeit der Helmholtz-Gemeinschaft. Unsere Digitalisierungsstrategie wird hier zügig mit Leben gefüllt“, sagt Otmar D. Wiestler, der Präsident der Helmholtz-Gemeinschaft. „Mit Informations- und Datenwissenschaften können wir beispielsweise extreme Klimaereignisse simulieren, die Erdbeobachtung optimieren oder Mikroskopie-Techniken grundlegend verbessern“, so Wiestler weiter.

Die vier direkt ausgewählten Forschungsprojekte sind:

Artificial Intelligence for Cold Regions (AI-CORE)

Der Klimawandel beeinflusst in besonderem Maße die polaren und Permafrost-Regionen durch steigende Temperaturen. Schmelzen von Eisschilden und Auftauen von Permafrost sind unmittelbare Folgen, die unter anderem zu einem Anstieg des Meeresspiegels führen. Diese Entwicklungen stellen gesellschaftliche Herausforderungen dar, die es zu quantifizieren und zu verstehen gilt. Mit dem Projekt „Künstliche Intelligenz für kalte Regionen“ (AI-CORE) wird ein gemeinschaftlicher Ansatz verfolgt, um Methoden der Künstlichen Intelligenz (KI) für die Kryosphärenforschung zu erschließen. Das Deutsche Zentrum für Luft- und Raumfahrt (DLR) wird diese gemeinsam mit dem Alfred Wegener Institut (AWI) und der TU Dresden entwickeln und im Rahmen einer Plattform für die Helmholtz-Gemeinschaft zur Verfügung stellen.

Weitere Informationen und Kontakt: Dr. Andreas Dietz (DLR), Andreas.Dietz@dlr.de

Uncertainty Quantification – From Data to Reliable Knowledge (UQ)

Wie wird sich das Klima entwickeln, wie sicher ist unsere Energieversorgung, und welche Chancen bietet die molekulare Medizin? Schnell wachsende Datenmengen eröffnen grundlegend neue Möglichkeiten, aktuelle Fragen aus Gesellschaft, Wissenschaft und Wirtschaft zu beantworten; Daten, Erkenntnisse und Vorhersagen sind jedoch unausweichlich mit Unsicherheit verbunden. Ziel des Projekts Uncertainty Quantification ist es, diese durch Methoden der Wahrscheinlichkeitstheorie zu begreifen und in Forschung und Kommunikation einzubeziehen. Das Projekt vernetzt angewandte Forschende aus den vier Forschungsbereichen Erde & Umwelt, Energie, Gesundheit und Information untereinander sowie mit Helmholtz-Datenwissenschaftlern und externen Hochschulpartnern aus Mathematik und Ökonometrie.

Weitere Informationen und Kontakt: Prof. Dr. Martin Frank (KIT), martin.frank@kit.edu &

Prof. Dr. Christiane Fuchs (HMGU), christiane.fuchs@helmholtz-muenchen.de

Pilot Lab Exascale Earth System Modelling (PL-EESM)

Das Pilotlab Exascale Earth System Modelling erforscht spezifische Konzepte für Erdsystemmodelle auf Exascale-Supercomputern. Sogenannte Extremereignisse – etwa durch den Klimawandel ausgelöste Orkane, Dürreperioden oder Starkregen – können zu drastischen Veränderungen in Gesellschaft und Umwelt führen. Aktuelle Klimamodelle sind jedoch gerade bei der Simulation solcher Ereignisse noch nicht präzise genug und müssen viel feiner aufgelöst werden. Die Rechenleistung aktueller Supercomputer lässt sich jedoch nicht einfach steigern – unter anderem würde dies viel zu viel Energie erfordern. Daher sind grundlegend neue Konzepte der Modellierung nötig. Im PL-EESM erarbeiten Wissenschaftlerinnen und Wissenschaftler sowie Informatikerinnen und Informatiker gemeinsam die benötigte Software und neue Hardware-Konzepte.

Weitere Informationen und Kontakt: PD Dr. Martin Schultz (Forschungszentrum Jülich), m.schultz@fz-juelich.de

Ptychography 4.0

Ptychographie ist eine rechnerische Methode, die korrelierte Messungen ausnutzt, um ein Objekt auf Basis von Beugungsbildern zu rekonstruieren. Die Nutzung dieser ‚virtuellen Linse‘ erlaubt es, mikroskopische Bildgebung über die Grenzen klassischer Optik hinaus zu treiben. Die Methode hat jüngst enorm an Interesse hinzugewonnen. Dies beruht auf der Verfügbarkeit eines iterativen Algorithmus‘ zur Lösung des Rekonstruktionsproblems und ausreichend Rechenkapazität, um mit großen Datenmengen und hohem Rechenaufwand umgehen zu können. Das Projekt greift die Herausforderung auf, Ptychographie zum Routineeinsatz mit verschiedenen Strahlungsquellen (Röntgenstrahlung, Elektronen, XUV Licht) zu bringen. Dazu wird optische Expertise mit Datenwissenschaften kombiniert. Ptychography 4.0 trennt die Datenerhebung und -prozessierung, so dass Ressourcen dort genutzt werden, wo sie in geeignetster Weise vorhanden sind.

Weitere Informationen und Kontakt: PD Dr. Wolfgang zu Castell (HMGU), castell@helmholtz-muenchen.de & Prof. Dr. Christian Schroer (DESY), christian.schroer@desy.de

Helmholtz-Inkubator Information & Data Science

Die Förderung dieser Projekte ist eine Aktivität des Helmholtz-Inkubators Information & Data Science. In Kombination mit fünf neu gegründeten gemeinschaftsweiten Hochtechnologie-Plattformen bildet sich daraus das Helmholtz Information & Data Science Framework, in das Helmholtz derzeit pro Jahr mehr als 50 Millionen Euro investiert.

Zu den neuen Plattformen zählen die Helmholtz Artifical Intelligence Cooperation Unit (HAICU) und die Helmholtz Information & Data Science Academy (HIDA) mit den Helmholtz Information & Data Science Schools (HIDSS). Weitere Plattformen sind die Helmholtz Federated IT Services (HIFIS), die Helmholtz Imaging Platform (HIP) und die Helmholtz Metadata Collaboration Platform (HMC).

Dieser langfristige, gemeinschaftsweite Bottom-up-Prozess wurde im Jahr 2016 gestartet und bündelt seitdem die vielfältige Expertise der Helmholtz-Gemeinschaft im Bereich Information & Data Science. Der Inkubator konkretisiert die Helmholtz-Digitalisierungsstrategie, bringt kreative Köpfe aus der gesamten Gemeinschaft regelmäßig in Interaktion, schafft Grundlagen für innovative, interdisziplinäre Netzwerke und identifiziert die Themenfelder und Technologien der Zukunft.

Weitere Informationen: Information & Data Science

Helmholtz leistet Beiträge zur Lösung großer und drängender Fragen von Gesellschaft, Wissenschaft und Wirtschaft durch wissenschaftliche Spitzenleistungen in sechs Forschungsbereichen: Energie, Erde und Umwelt, Gesundheit, Schlüsseltechnologien, Materie sowie Luftfahrt, Raumfahrt und Verkehr. Helmholtz ist mit mehr als 42.000 Mitarbeiterinnen und Mitarbeitern in 19 Forschungszentren und einem Jahresbudget von rund 5 Milliarden Euro die größte Wissenschaftsorganisation Deutschlands. Ihre Arbeit steht in der Tradition des großen Naturforschers Hermann von Helmholtz (1821-1894).

Leser:innenkommentare