KI-gestützte Bildanalyse gegen digitale Manipulation Kampfansage an Deepfakes

Von Berk Kutsal 2 min Lesedauer

Anbieter zum Thema

Deepfakes stellen zunehmend eine Bedrohung für die digitale Integrität dar. Eine IT-Forensik-Gruppe an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) und die Secunet Security Networks AG arbeiten an einem Prototyp, der KI-generierte Bildfälschungen automatisch erkennen soll – auch von bislang unbekannten Generatoren. Ziel sei es, Manipulationen frühzeitig zu entlarven und Missbrauch einzudämmen.

KI-generierte Bilder werden immer realistischer, dennoch hinterlassen Bildgeneratoren charakteristische Spuren. Solche Spuren lassen sich mit Hilfe von statistischen Untersuchungen finden.(Grafik: Sandra Bergmann | Foto: Vincent Haupert | KI-Bild: Midjourney)
KI-generierte Bilder werden immer realistischer, dennoch hinterlassen Bildgeneratoren charakteristische Spuren. Solche Spuren lassen sich mit Hilfe von statistischen Untersuchungen finden.
(Grafik: Sandra Bergmann | Foto: Vincent Haupert | KI-Bild: Midjourney)

Deepfakes – realistisch aussehende Bild- und Videomanipulationen – breiten sich mit rasanter Geschwindigkeit aus. Ihre Erstellung wird durch frei verfügbare KI-Tools immer einfacher, während ihre Erkennung immer schwieriger wird. Prominente Beispiele wie Angela Merkel im Dialog mit Wladimir Putin oder der Papst als DJ illustrierten die potenzielle Bandbreite dieser Technologien. Während manche Deepfakes rein unterhaltsam sind, bergen andere erhebliches Konfliktpotenzial. Manipulierte Inhalte können gezielt zur Desinformation, politischen Einflussnahme oder Rufschädigung eingesetzt werden.

PD Dr. Christian Riess, Leiter der Forschungsgruppe Multimedia Security an der FAU, betont: „Deepfake-Generatoren werden immer leistungsfähiger und sind zugleich frei zugänglich. Dadurch verbreiten sich Fotos und Videos mit manipulierten Inhalten rasant, und sie wirken immer echter.“

Technologien für die Deepfake-Erkennung

Im Rahmen eines mit 350.000 Euro von der Bundesagentur für Sprunginnovationen SPRIN-D geförderten Projekts arbeitet die FAU gemeinsam mit der Secunet an einem Tool zur Erkennung von Deepfakes. Dieses unterscheide sich von herkömmlichen Lösungen: Während bisherige Methoden auf umfangreiche Trainingsdatensätze angewiesen sind, setze der neue Ansatz auf vortrainierte neuronale Netze, um Bildmerkmale zu extrahieren.

Sandra Bergmann, Doktorandin in der Arbeitsgruppe Riess, erklärt: „Unser Ansatz kombiniert Bildklassifikation mit der Analyse von Merkmalen, die von KI-Generatoren extrahiert werden. Dadurch kann das Tool auch Bilder analysieren, die von bisher unbekannten Generatoren erstellt wurden, ohne eine zeitintensive Trainingsphase zu benötigen.“

Deepfakes: Herausforderung für Gesellschaft und Technologie

Ein zentraler Aspekt des Projekts ist die Integration des Tools in bestehende digitale Infrastrukturen. Secunet sorge dafür, dass die Software für verschiedene Einsatzszenarien geeignet ist, darunter die automatische Erkennung und Kennzeichnung von Deepfakes auf Social-Media-Plattformen. „Die hohe Zuverlässigkeit bei der Erkennung von Deepfakes ist nur eine Anforderung an die Lösung. Sie muss darüber hinaus schnell zu einer Entscheidung kommen – auch bei mehreren parallelen Anfragen, die eine Anwendung an ein Erkennungssystem stellt“, erklärt Dr. Benjamin Tams, Projektleiter des Vorhabens bei Secunet.

Das Projekt unterstreicht den Anspruch von SPRIN-D, über reine Forschungsansätze hinauszugehen und marktfähige Produkte zu entwickeln. Mit dem neuen Tool könnten Manipulationen nicht nur erkannt, sondern auch ihre Verbreitung eingedämmt werden. Langfristig sollen Erkenntnisse aus diesem Projekt dazu beitragen, robuste Standards in der Deepfake-Detektion zu etablieren.

(ID:50332408)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung