Deepfakes erkennen

Bild: Freepik/AI-Generiert

Die Herausforderung

Täuschend echt aussehende Avatare, die hohe Geldsummen abheben wollen oder politisch brisante Botschaften verkünden: Leistungsstarke KI-Modelle können heute Fotos, Videos und Audioaufnahmen erstellen, die jenen von tatsächlich lebenden Menschen zum Verwechseln ähneln. Derartige Deepfakes fordern unsere Gesellschaft heraus. Politik und Medien etwa müssen sich auf die Echtheit von Aussagen und Bilddokumentationen verlassen können, Unternehmen wollen sichergehen, dass sie mit realen Kunden telefonieren. Deepfakes erschweren aber auch die Strafverfolgung: Versicherungen zum Beispiel sehen sich zunehmend mit gefälschten Fotos von vermeintlichen Schäden konfrontiert. Und bei polizeilichen Vernehmungen können Verdächtige heute leichter behaupten, belastendes Bildmaterial sei gefälscht, denn gelungene Deepfakes sind heute nur mit immensem Aufwand oder gar nicht zu enttarnen.

Unsere Lösung

Am CISPA Helmholtz-Zentrum für Informationssicherheit arbeiten Forscher:innen an Methoden, mit denen sich KI-Fälschungen zweifelsfrei erkennen lassen. Dafür nutzen sie selbst KI: Sie trainieren verschiedene Modelle mit besonders großen Datensätzen von echten und gefälschten Medien. Jedes dieser Systeme ist dabei auf bestimmte Strategien in der Fälschung spezialisiert und erkennt zum Beispiel Fehler im Schattenwurf von Objekten, Unstimmigkeiten in der Mimik oder unpassende Lippenbewegungen beim Sprechen von Personen. Gebündelt sind diese Modelle besonders leistungsstark. Gleichzeitig stoßen die Programme automatisiert eine Rückwärtssuche an: Sie überprüfen so, ob ähnliche Motive bereits im Netz kursieren. Derartige Bilder könnten als Vorlage für ein Deepfake gedient haben. Auch die Metadaten und das Wasserzeichen von Medien prüft das System. In Versuchen mit Test-Datensätzen erkennt es so 98 Prozent aller Fälschungen – weit mehr als bislang übliche Programme. Im Unterschied zu ihnen zeigt das Modell von CISPA zudem genau an, warum es eine Datei für gefälscht hält: Auf Bildern markiert es zum Beispiel die verdächtigen Areale und begründet seine Zweifel. So können sich die Nutzer:innen des Tools ein eigenes Bild von der Glaubwürdigkeit einer Aufnahme machen – und das in Echtzeit.

Wie wir schon heute davon profitieren

Um diese Anwendung möglichst schnell in die Praxis zu bringen, haben Philipp Dewald, Tim Walita und Peter Stolz am CISPA das Start-up Detesia gegründet. Es richtet sich vor allem an Nutzer:innen, die sich stark auf die Echtheit digitaler Medien verlassen müssen, also etwa Finanzinstitute, Strafverfolgungsbehörden und Medienhäuser. Verdächtige Dateien können sie entweder auf der Webplattform von Detesia hochladen und untersuchen lassen oder sie integrieren die Deepfake-Erkennung direkt in das eigene IT-System, was sich bei besonders sensiblen Inhalten empfiehlt. Derartige Daten sind bei Detesia im Vergleich zu anderen Anbietern besonders gut geschützt, denn die Programme laufen ausschließlich auf Rechenzentren in Deutschland, unterliegen also sehr strengen Datenschutzrichtlinien. Zusätzlich sind sie durch modernste Verschlüsselungsmethoden gesichert, so dass nur autorisierte Personen auf sie zugreifen können. Detesia entwickelt sein Programm fortlaufend weiter, um mit den immer besser werdenden Fälschungsmethoden Schritt zu halten. Finanziert wird das Start-up durch das Bundesforschungsministerium. Derzeit setzt es Pilotprojekte mit ersten Anwender:innen um, darunter Strafverfolgungsbehörden, Versicherungen und Journalist:innen. Das renommierte Recherchenetzwerk Bellingcat etwa nutzt das Analysetool, um brisante Inhalte, die es im Netz entdeckt oder die ihm zugespielt werden, auf ihre Echtheit zu überprüfen.

Alle Solutions

So neugierig wie wir? Entdecken Sie mehr.