SecMedID – Secure Medial Identities
Deepfakes und gefälschte Identitäten erkennen
Mit Deepfake-Verfahren können in Videos die Gesichter oder die Stimmen von abgebildeten Personen automatisiert und oftmals täuschend echt ausgetauscht werden. Auf diese Weise gefälschte Identitäten bedeuten eine Reihe von Risiken:
- Neue Arten von Betrug und Erpressung von Personen und Organisationen
- Vertrauensverlust in Presse und Rundfunk
- Beeinflussung politischer Prozesse durch Fakenews und Desinformation
- Diskreditierung von Personen durch verleumderische Videos
- Fälschung von Beweisen in Straf- und Zivilprozessen
- Bedrohung der inneren und äußeren Sicherheit durch gefälschte Mitteilungen an die Polizei, die allgemeine Bevölkerung oder Streitkräfte.
Dies macht es notwendig, die Echtheit von Personen in digitalen Medien (ihre „mediale Identität“), zuverlässig prüfen zu können. Hierzu soll das Projekt „SecMedID“ sowohl KI-gestützte Deepfake-Angriffstools zur Fälschung medialer Identitäten als auch Verteidigungsmaßnahmen dagegen behandeln.
Das Projekt „SecMedID“ wurde beauftragt durch das Bundesamt für Sicherheit in der Informationstechnik (BSI). Laufzeit: 06/2023 bis 02/2025.
Im Projekt SecMEdID wird untersucht
- Der Stand der Technik zu Deepfake-Methoden für Video und Audio
- Die Weiterentwicklung der Deepfake-Methoden Face Swapping, Facial Reenactment, Voice Conversion und Text-to-Speech zur Abschätzung künftiger Gefährdungspotenziale
- Forensische Erkennungsverfahren für Deepfakes in digitalen Bild- und Tondaten, auch bei Verschleierung durch Adversarial Attacks