Information & Data Science Pilot-Projekte
Die Helmholtz-Gemeinschaft verstärkt deshalb gezielt ihre Kompetenz im Bereich Information & Data Science.
Pilotprojekte 1
Die Helmholtz-Gemeinschaft hat deshalb gezielt ihre Kompetenz im Bereich Information & Data Science verstärkt. Fünf hoch innovative Forschungsprojekte erhielten in 2017 eine Förderung von insgesamt 17 Millionen Euro für drei Jahre.
-
Das Pilotprojekt "Helmholtz Analytics Framework" wird die Entwicklung der Datenwissenschaften in der Helmholtz-Gemeinschaft stärken. Das Projekt verfolgt eine systematische Entwicklung domänenspezifischer Datenanalysetechniken in einem Co-Design-Ansatz zwischen Domänenwissenschaftlern und Informationsexperten. Vor allem der Austausch von Methoden zwischen einzelnen wissenschaftlichen Bereichen soll zu einer Verallgemeinerung und Standardisierung führen. In anspruchsvollen Anwendungsfällen wie der Erdsystemmodellierung, der Strukturbiologie, der Luft- und Raumfahrt, der medizinischen Bildgebung oder den Neurowissenschaften entsteht damit das Potenzial zu wissenschaftlichen Durchbrüchen und neuem Wissen. Das Helmholtz Analytics Framework kooperiert eng mit der bereits etablierten Helmholtz Data Federation (HDF).
Weitere Informationen und Kontakt: Prof. Dr. Dr. Thomas Lippert (FZ-Jülich), th.lippert(at)fz-juelich.de, Prof. Dr. Achim Streit (KIT), achim.streit(at)kit.edu, Björn Hagemeier (FZ-Jülich), b.hagemeier(at)fz-juelich.de, Daniel Mallmann (FZ-Jülich), d.mallmann(at)fz-juelich.de
-
Das Pilotprojekt "Sparse2Big" stellt methodische und technische Grundlagen für den Umgang mit Big Data bereit. Das Ziel ist, aus nur spärlich beobachteten, großen Datensätzen durch Imputation (Vervollständigung) und robuste Modellierung der Beobachtungsprozesse wirklich nutzbare "Big Data" zu schaffen. Das Projekt konzentriert sich zunächst auf Datensätze in der Einzelzellgenomik, wobei moderne Techniken der Genom-Sequenzierung zur Analyse von einzelnen Zellen genutzt werden: So erhalten Forscher ein "molekulares Mikroskop" mit vielfältigen Einsatzgebieten, etwa in der Entwicklungsbiologie, der Krebsdiagnostik oder der Stammzellentherapie. Die innovativen Techniken von Sparse2Big werden zu einer erheblichen Verbesserung der Beobachtungen in der Einzelzellgenomik und damit der bio-medizinischen Forschung beitragen. Darauf aufbauend wird schon heute ein Transfer dieser Methoden in andere Forschungsbereiche vorbereitet.
Weitere Informationen und Kontakt: Prof. Dr. Dr. Fabian Theis (HMGU), fabian.theis(at)helmholtz-muenchen.de, Prof. Dr. med. Joachim L. Schultze (DZNE), joachim.schultze(at)dzne.de
-
Im Bereich der Klima- und Umweltforschung, der Gesundheitsforschung, der Energieforschung und bei der Entwicklung von Robotern kommen komplexe mathematische Computermodelle zum Einsatz. Die Datenflut aus diesen Modellen stellt Forscher und Rechenzentren vor enorme Herausforderungen, zu deren Bewältigung neue intelligente Methoden entwickelt werden müssen. Hier hilft das Pilotprojekt "Reduced Complexity Models" mit der Entwicklung von Modellen reduzierter Komplexität, die von intelligenten, neuen Methoden aus den Informationswissenschaften stammen. Das Projekt konzentriert sich auf die Quantifizierung der Unsicherheiten von Simulationen, die Entwicklung von vereinfachten Modellen und die Identifikation von Schlüsselabhängigkeiten. Ziel sind stabilere Modelle und belastbarere Simulationen für unzählige Anwendungen. Anhand von konkreten, anspruchsvollen Beispielen werden diese neuen Konzepte sowie Methoden entwickelt und überprüft. Das Projekt wird die Entwicklung von interoperablen und wiederverwendbaren Technologien vorantreiben und damit zur schnelleren Lösung zukünftiger Probleme beitragen. So kann es auch beachtliches gesellschaftliches Potenzial entfalten.
Weitere Informationen und Kontakt: Prof. Dr. Corinna Schrum (HZG), corinna.schrum(at)hzg.de
-
Das Pilotprojekt "Automated Scientific Discovery" wird völlig neue Technologien hervorbringen, um Beziehungen in großen Mengen von komplexen wissenschaftlichen Daten automatisiert zu entdecken. Die Helmholtz-Forscher nutzen dazu hoch innovative und zuverlässige Methoden der Künstlichen Intelligenz. Zunächst werden die Projektpartner diese Methoden zur Weiterentwicklung des Wissens über Kernfusionsprozesse und die Erdbeobachtung einsetzen. In weiteren Schritten werden die Wissenschaftlerinnen und Wissenschaftler Grundlagenforschung, angewandte Forschung und die Entwicklung generischer Methoden kombinieren. Die Entwicklung der generischen Methoden wird durch eine enge Kooperation mit dem Pilotprojekt "Helmholtz Analytics Framework" gestärkt.
Weitere Informationen und Kontakt: Dr. Jakob Svensson (IPP), jakob.svensson(at)ipp.mpg.de
-
Bildgebungsverfahren stellen eine essentielle Informationsquelle in nahezu jedem Forschungsgebiet dar. Das Pilotprojekt "Imaging at the Limit", das zunächst eine Anschubfinanzierung erhält, fokussiert diejenigen Aspekte der Bildrekonstruktion, die Messungen in tatsächliche Bilder überführt. Die geschickte Ausnutzung des Informationsgehalts in den Messdatensätzen ermöglicht es unter anderem, die Effizienz bei der Rekonstruktion und damit die Nutzbarmachung visualisierter Daten zu verbessern. Das Projekt will bestehende Bildgebungsverfahren und die damit verbundenen Forschungsfelder zukunftsweisend verbessern.
Weitere Informationen und Kontakt: PD Dr. Wolfgang zu Castell (HMGU), castell(at)helmholtz-muenchen.de, Prof. Dr. Christian Schroer (DESY), christian.schroer(at)desy.de
Pilotprojekte 2
Der Inkubator setzt weiterhin Impulse zur Stärkung der informations- und datenbasierten Forschung der Gemeinschaft. So katalysiert der Inkubator die Entwicklung von zukunftsweisenden Projekten, welche die üblichen Disziplin- und Forschungsbereichsgrenzen überwinden. Mit einer zweiten Ausschreibung für Pilotprojekte im Jahr 2019 investiert Helmholtz in Summe zusätzlich über 40 Millionen Euro in die Zukunft der Forschung.
-
Der Klimawandel beeinflusst in besonderem Maße die polaren und Permafrost-Regionen durch steigende Temperaturen. Schmelzen von Eisschilden und Auftauen von Permafrost sind unmittelbare Folgen, die unter anderem zu einem Anstieg des Meeresspiegels führen. Diese Entwicklungen stellen gesellschaftliche Herausforderungen dar, die es zu quantifizieren und zu verstehen gilt. Mit dem Projekt „Künstliche Intelligenz für kalte Regionen“ (AI-CORE) wird ein gemeinschaftlicher Ansatz verfolgt, um Methoden der Künstlichen Intelligenz (KI) für die Kryosphärenforschung zu erschließen. Das Deutsche Zentrum für Luft- und Raumfahrt (DLR) wird diese gemeinsam mit dem Alfred Wegener Institut (AWI) und der TU Dresden entwickeln und im Rahmen einer Plattform für die Helmholtz-Gemeinschaft zur Verfügung stellen.
Weitere Informationen und Kontakt: Dr. Andreas Dietz (DLR), Andreas.Dietz(at)dlr.de
-
Wie wird sich das Klima entwickeln, wie sicher ist unsere Energieversorgung, und welche Chancen bietet die molekulare Medizin? Schnell wachsende Datenmengen eröffnen grundlegend neue Möglichkeiten, aktuelle Fragen aus Gesellschaft, Wissenschaft und Wirtschaft zu beantworten; Daten, Erkenntnisse und Vorhersagen sind jedoch unausweichlich mit Unsicherheit verbunden. Ziel des Projekts Uncertainty Quantification ist es, diese durch Methoden der Wahrscheinlichkeitstheorie zu begreifen und in Forschung und Kommunikation einzubeziehen. Das Projekt vernetzt angewandte Forschende aus den vier Forschungsbereichen Erde & Umwelt, Energie, Gesundheit und Information untereinander sowie mit Helmholtz-Datenwissenschaftlern und externen Hochschulpartnern aus Mathematik und Ökonometrie.
Weitere Informationen und Kontakt: Prof. Dr. Martin Frank (KIT), martin.frank(at)kit.edu &, Prof. Dr. Christiane Fuchs (HMGU), christiane.fuchs(at)helmholtz-muenchen.de
-
Das Pilotlab Exascale Earth System Modelling erforscht spezifische Konzepte für Erdsystemmodelle auf Exascale-Supercomputern. Sogenannte Extremereignisse – etwa durch den Klimawandel ausgelöste Orkane, Dürreperioden oder Starkregen – können zu drastischen Veränderungen in Gesellschaft und Umwelt führen. Aktuelle Klimamodelle sind jedoch gerade bei der Simulation solcher Ereignisse noch nicht präzise genug und müssen viel feiner aufgelöst werden. Die Rechenleistung aktueller Supercomputer lässt sich jedoch nicht einfach steigern – unter anderem würde dies viel zu viel Energie erfordern. Daher sind grundlegend neue Konzepte der Modellierung nötig. Im PL-EESM erarbeiten Wissenschaftlerinnen und Wissenschaftler sowie Informatikerinnen und Informatiker gemeinsam die benötigte Software und neue Hardware-Konzepte.
Weitere Informationen und Kontakt: PD Dr. Martin Schultz (Forschungszentrum Jülich), m.schultz(at)fz-juelich.de
-
Ptychographie ist eine rechnerische Methode, die korrelierte Messungen ausnutzt, um ein Objekt auf Basis von Beugungsbildern zu rekonstruieren. Die Nutzung dieser ‚virtuellen Linse‘ erlaubt es, mikroskopische Bildgebung über die Grenzen klassischer Optik hinaus zu treiben. Die Methode hat jüngst enorm an Interesse hinzugewonnen. Dies beruht auf der Verfügbarkeit eines iterativen Algorithmus‘ zur Lösung des Rekonstruktionsproblems und ausreichend Rechenkapazität, um mit großen Datenmengen und hohem Rechenaufwand umgehen zu können. Das Projekt greift die Herausforderung auf, Ptychographie zum Routineeinsatz mit verschiedenen Strahlungsquellen (Röntgenstrahlung, Elektronen, XUV Licht) zu bringen. Dazu wird optische Expertise mit Datenwissenschaften kombiniert. Ptychography 4.0 trennt die Datenerhebung und -prozessierung, so dass Ressourcen dort genutzt werden, wo sie in geeignetster Weise vorhanden sind.
Weitere Informationen und Kontakt: PD Dr. Wolfgang zu Castell (HMGU), castell(at)helmholtz-muenchen.de & Prof. Dr. Christian Schroer (DESY), christian.schroer(at)desy.de
-
Die Satellitentechnik und insbesondere GPS- oder GNSS-Technologien werden für unsere Gesellschaft immer wichtiger. Plasmadichtestrukturen im erdnahen Weltraum können jedoch die Ausbreitung von GPS-Signalen und damit die Genauigkeit der GPS-Navigation erheblich beeinflussen. Darüber hinaus können Weltraumplasmen auch Satelliten beschädigen. Um diese Auswirkungen der Weltraumumgebung zu untersuchen, ist es wichtig, ein genaues Modell der Plasmadichte zu entwickeln, das auf einer Vielzahl von direkten und indirekten Messungen basiert.
In diesem Pilotprojekt werden wir zeigen, wie mit Methoden maschinellen Lernens ein globales empirisches Echtzeitmodell der erdnahen Plasmadichte basierend auf einer Vielzahl von Messungen erstellt werden kann. Das Modell, das wir im Anschluss an dieses Projekt entwickeln werden, wird dann alle verfügbaren Daten nutzen und von einem breiten Spektrum von Interessengruppen für die GPS-Navigation und den Satellitenbetrieb genutzt werden.Weitere Informationen und Kontakt: Prof. Dr. Yuri Shprits (GFZ), yshprits(at)gfz-potsdam.de, Dr. Dominika Sörgel (GFZ), dominika.soergel(at)gfz-potsdam.de
-
In allen Gebieten von Wissenschaft und Gesellschaft sind große, komplexe und hochdimensionale Daten heutzutage allgegenwärtig. Machine Learning- und KI-Methoden sind bereits sehr effektiv darin, solche Daten für Prognosen zu nutzen.
Das Projekt SIMCARD wird neuartige Machine Learning-Verfahren entwickeln, die robust und zuverlässig sind und über einfache Vorhersagen hinausgehen. Der Fokus liegt dabei auf neuen Methoden für die Modellierung sehr großer Netzwerke und die Zuverlässigkeit von Vorhersagen. Ziel ist es, mit passgenauen skalierbaren, fundierten und interpretierbaren Data Science Methoden Antworten auf drängende Probleme in vielfältigen Anwendungsbereichen zu liefern. Das Projekt adressiert insbesondere die Felder datenintensive Biomedizin und Wettervorhersage.
Weitere Informationen und Kontakt: Melanie Schienle, Melanie.Schienle (at) kit.edu und Sach Mukherjee, sach.mukherjee (at) dzne.de
-
Um zukünftige Herausforderungen zu bewältigen, müssen Daten, Rechenleistung und analytische Kompetenz in beispiellosem Ausmaß zusammengebracht werden. Konventionelle Analysesysteme sind oftmals zentralisiert und haben dadurch erhebliche Nachteile aus technischer, rechtlicher, politischer und ethischer Sicht, insb. Aufgrund komplexer Sicherheits- oder Vertrauensanforderungen. Als Alternative dazu erleichtert das interdisziplinäre Projekt die Etablierung von dezentralen, kooperativen Datenanalysearchitekturen, indem Algorithmen auf vertrauenswürdige und gesetzeskonforme Weise zu den Daten gebracht werden. TFDA wird sich mit den notwendigen technischen, methodischen und rechtlichen Aspekten befassen, um die Vertrauenswürdigkeit der Analyse und die Transparenz der Analyseeingaben und -ausgaben zu gewährleistet. Diese Entwicklungen werden im Anwendungsfall einer föderierten Strahlentherapiestudie validiert; dann werden die Ergebnisse verbreitet.
Weitere Informationen: https://tfda.hmsp.center
Kontakt: Mario Fritz, fritz(at)cispa.saarland und Ralf Floca, r.floca(at)dkfz.de
Kontakt

Andreas Kosmider
Bereichsleiter Strategische Initiativen
Helmholtz-Gemeinschaft

Jacqueline Bender
Projekt- und Prozessmanagerin im Bereich Strategische Initiativen
Helmholtz-Gemeinschaft

Florian Grötsch
Senior Referent Helmholtz AI und Helmholtz Imaging/Bereich Strategische Initiativen
Helmholtz-Gemeinschaft

Nadja Danilenko
Senior Referentin Helmholtz Metadata und HIFIS/Bereich Strategische Initiativen
Helmholtz-Gemeinschaft