Forschung des Fraunhofer AISEC Wo Deep Fakes schon jetzt eine Gefahr darstellen
Anbieter zum Thema
Per KI manipulierte Medieninhalte („Deep Fakes“) haben sich von einer Spielerei zu einer realen Bedrohung für Unternehmen und Politik entwickelt. Die Abteilung Cognitive Security Technologies des Fraunhofer AISEC hat vier Bereiche identifiziert, in denen Deep Fakes schon jetzt eine Herausforderung sind.

Während die Manipulation von Bildmaterial mittlerweile praktisch zum Alltag gehört, ist die Bearbeitung von Audio- und Videoinhalten ungleich komplizierter. Durch KI-Verfahren wie Machine Learning sind nun auch hier automatisiert hergestellte hochwertige Fälschungen möglich – und dank Open Source Software für Jedermann zugänglich. Das Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) forscht in diesem Bereich und warnt, dass die fortschrittliche Technik schon jetzt zur Sicherheitsherausforderung wird. Ist genügend Audio- und Videomaterial einer Person vorhanden, lässt sich die KI so trainieren, dass überzeugende Deep Fakes entstehen. Derartig professionell manipulierte Inhalte zu erkennen, ist Laien kaum noch möglich.
„Der Name Deep Fake ist eine Komposition aus ‚Fake’ für Fälschung und ‚Deep’, was auf die zugrunde liegenden tiefen neuronalen Netze hinweist. Diese Netze ähneln entfernt der Struktur des menschlichen Gehirns und bestehen aus mehreren Millionen künstlichen Neuronen, die in der Lage sind, komplizierte Aufgaben zu lernen“, erklärt Nicolas Müller, wissenschaftlicher Mitarbeiter und Experte für Machine Learning am Fraunhofer AISEC, die Hintergründe des Verfahrens.
:quality(80)/images.vogel.de/vogelonline/bdb/1768500/1768530/original.jpg)
Security-Insider Podcast – Folge 26
Forensiker schildert telefonische Deepfakes
Bedrohung für Wirtschaft und Gesellschaft
Laut dem Fraunhofer AISEC werden Deep Fakes in vier Bereichen schon jetzt zu einer Gefahr. Ein solches Segment sind VoiceID-Systeme, wie sie etwa zur telefonischen Legitimierung bei Banken, Versicherungen oder Mobilfunkanbietern zum Einsatz kommen. Nutzer werden dabei anhand ihrer Stimme identifiziert – diese lässt sich mit Deep-Fake-Verfahren imitieren. Die Forscher sehen hier etwa die Gefahr unerwünschter Überweisungen oder abgeräumter Konten.
Ähnlich sieht es bei Anbietern digitaler Identitäten („ID-Providern“) aus. Sie bestätigen über das Internet rein digital die Identität ihrer Kunden. Anschließend wird die Bestätigung genutzt, um damit Bankkonten zu eröffnen oder Verträge abzuschließen. Deep Fakes ermöglichen hier laut den Forschern nicht nur Identitätsdiebstahl, sondern auch Straftaten wie etwa Geldwäsche.
Auch in der Kriminalistik sind Deep Fakes gefährlich, da sie beispielsweise zur Fälschung von Beweismitteln oder für die Verschleierung von Straftaten genutzt werden könnten. Speziell die Manipulation von Stimm- und Geräuschaufnahmen stellt die Justiz vor große Herausforderungen.
Zuletzt warnen die Forscher vor dem Einsatz von Deep Fakes im Kontext von Social-Engineering-Attacken. Hierbei eröffnen sie Trickbetrügern ganz neue Möglichkeiten, an sensible Informationen zu gelangen und Zugriff auf IT-Systeme zu erlangen.
KI mit KI abwehren
Eine mögliche Antwort auf diese Bedrohungen ist die KI-gestützte Erkennung von Deep Fakes. Neuronale Netze können nicht nur auf die Erstellung von Fakes trainiert werden, sondern lassen sich auf die Erkennung von gefälschtem Material anlernen. Durch den Vergleich echter und manipulierter Aufnahmen ist die KI in der Lage, selbst kleinste Unstimmigkeiten zu erkennen.
(ID:47320719)