
Jenia Jitsev
Jenia Jitsev will das Training von grundlegenden Bausteinen von KI - sogenannten Foundation Models - entscheidend durch Untersuchung der Skalierungsgesetze verbessern.
Open Foundation Models und offene Datensätze
Skalierungsgesetze für die Modellfunktion, Evaluierung und Zuverlässigkeit von KI-Methoden
Open-Source im maschinellen Lernen
Nutzung und Optimierung von Supercomputern für das großskalige Training
Jenia Jitsev arbeitet am Forschungszentrum Jülich und leitet dort das Scalable Learning & Multi-Purpose AI Lab am Jülich Supercomputing Centre.
Jitsev forscht an KI-Systemen mit starker Generalisierung und Übertragbarkeit, so genannten Foundation Models. Ihn interessiert, mit welchen Datensätzen sich diese Modelle trainieren lassen und wie ihr korrektes Arbeiten überprüft werden kann, damit sie sich für ganz unterschiedliche Aufgaben und Einsatzgebiete eignen. Ziel seiner Forschung sind offene Foundation Models, die sich leichter skalieren lassen, reproduzierbar sind und dabei offenlegen, welche Datensätze sie nutzen und wie sie trainiert und getestet wurden.
Für seine Arbeiten wurde Jitsev bereits mehrfach ausgezeichnet. Open-KI-Modelle von ihm und seinem Team bei LAION wurden mehr als einhundert Millionen Mal heruntergeladen und dienen heute als Grundlage für bekannte Text-zu-Bild-Generatoren.
Jitsev studierte Informatik und Psychologie an der Universität Bonn mit Schwerpunkt Neurowissenschaften und maschinelles Lernen und promovierte an der Goethe Universität Frankfurt. 2013 kam Jitsev an das Forschungszentrum Jülich, wo er zunächst im Bereich Neurowissenschaft und Medizin forschte und 2017 zum Jülich Supercomputing Centre wechselte. Jitsev ist außerdem Mitgründer und wissenschaftlicher Leiter der gemeinnützigen Forschungsorganisation LAION, die sich für eine Demokratisierung von KI einsetzt. LAION stellt offene KI-Datensätze und -Modelle zur Verfügung und entwickelt selbst KI-Systeme nach dem Open Source-Prinzip. 2023 erhielt LAION den Falling Walls Scientific Breakthrough Award .