Direkt zum Seiteninhalt springen

Challenge #56

Deepfakes entlarven – Vertrauen sichern.

Deepfakes – das sind täuschend echt wirkende, aber in Wahrheit gefälschte Bilder, Videos, Texte oder Audiodateien.  Schon in naher Zukunft können sie unsere Demokratie bedrohen. Unser Ziel: Wir wollen, dass die Menschen ihren Augen und Ohren trauen können.

Beteiligte Zentren

Ein Großteil unserer Kommunikation hat sich in den digitalen Raum verlagert. Doch was, wenn das, was wir dort sehen, hören und lesen gar nicht echt ist? Mithilfe von künstlicher Intelligenz ist es heute schon möglich, Fotos und Videos geschickt zu manipulieren. Auch die Stimmen von realen Personen lassen sich imitieren und Texte können rein maschinell generiert werden. Diese Technik birgt Potenziale, aber auch allerhand Risiken: Wichtig ist, dass wir auch in Zukunft eine Fälschung von der Wirklichkeit unterscheiden können.

Deshalb arbeiten wir an Algorithmen, die Deepfakes erkennen können. Da sich die Technologie dahinter stetig weiterentwickelt, erarbeiten wir außerdem Methoden, mit denen Deepfakes gekennzeichnet werden – so bleiben sie von echten Inhalten dauerhaft unterscheidbar. Maschinengenerierte Texte zum Beispiel versehen wir mit einem digitalen Wasserzeichen, in falschen Fotos verstecken wir spezielle Fingerprints. So werden sie als Deepfakes erkennbar. Und unser Vertrauen in zuverlässige Daten wird nachhaltig gestärkt.

(Headerbild: Pixabay)

Preview: Adversarial Watermarking Transformer - Towards Tracing Text Provenance with Data Hiding

Neueste Ergebnisse aus der Forschung

Mit dem Helmholtz Newsletter Update erhalten Sie wichtige Nachrichten, Reportagen und Hintergrundinformationen aus Wissenschaft und Politik.

Zur Registrierung

Beteiligte Zentren

So neugierig wie wir? Entdecken Sie mehr.