
Impact Story #02
Deepfakes entlarven
Täuschend echte KI-Fälschungen bedrohen Vertrauen in digitale Informationen. Forschende am CISPA entwickeln Methoden, um manipulierte Bilder, Videos und Audiodateien zuverlässig zu erkennen.
Künstliche Intelligenz kann heute realistische Bilder, Stimmen und Videos erzeugen – sogenannte Deepfakes. Sie lassen sich immer schwerer von echten Inhalten unterscheiden und können Desinformation verbreiten oder Betrug ermöglichen.
Forschende am CISPA Helmholtz-Zentrum für Informationssicherheit entwickeln deshalb neue Verfahren, um solche Manipulationen aufzudecken. Dafür nutzen sie ebenfalls künstliche Intelligenz: Spezielle Modelle werden mit großen Datensätzen aus echten und künstlich erzeugten Medien trainiert, um typische Spuren von Manipulation zu erkennen.
Um diese Technologie schnell in die Praxis zu bringen, gründeten CISPA-Forschende das Start-up Detesia. Das Unternehmen entwickelt Werkzeuge, mit denen Organisationen digitale Inhalte automatisiert auf ihre Echtheit prüfen können.
Die Anwendungen richten sich vor allem an Bereiche, in denen verlässliche Informationen entscheidend sind – etwa Finanzinstitute, Strafverfolgungsbehörden oder Medienhäuser. Erste Pilotprojekte laufen bereits, unter anderem mit Ermittlungsbehörden, Versicherungen und Journalistinnen und Journalisten. Auch das internationale Recherchenetzwerk Bellingcat nutzt die Analysewerkzeuge, um verdächtige Online-Inhalte zu überprüfen.
Die Technologie hilft, Vertrauen in digitale Informationen zu sichern – in einer Zeit, in der KI-Fälschungen immer überzeugender werden.