KI verändert die Identitätsprüfung Deepfakes bedrohen die digitale Identität

Ein Gastbeitrag von Krik Gunning 4 min Lesedauer

Anbieter zum Thema

Generative KI revolutioniert die digitale Identitätsprüfung und öffnet zu­gleich neue Einfallstore für Betrug. Deepfakes, synthetische Ausweise und automatisiertes Social Engineering stellen klassische KYC-Prozesse infrage. CISOs und Compliance-Verantwortliche müssen Identitätsprüfung als dynamischen Sicherheitsprozess neu denken, um Vertrauen und Regulierung in Einklang zu bringen.

KI-basierte Deepfakes gefährden die digitale Identität. Neue KYC-Systeme müssen Täuschungen in Echtzeit erkennen und kontinuierlich bewerten.(Bild: ©  Ahmad - stock.adobe.com)
KI-basierte Deepfakes gefährden die digitale Identität. Neue KYC-Systeme müssen Täuschungen in Echtzeit erkennen und kontinuierlich bewerten.
(Bild: © Ahmad - stock.adobe.com)

KI ist 2025 längst zum strategischen Faktor für Sicherheit und Täuschung geworden. Während generative KI in der Produktivität neue Maßstäbe setzt, nutzen auch Cyberkriminelle die Technologie gezielt, um Sicherheitsmechanismen zu unterwandern. Bei der digitalen Identitätsprüfung setzen Deepfakes, KI-generierte Ausweisdokumente und automatisierte Social-Engineering-Muster die bisherigen Standards außer Kraft.

Deepfakes, hybride Identitäten und automatisierter Betrug

Die Bedrohung entsteht dabei nicht durch ein einzelnes Tool oder eine neue Angriffsmethode, sondern durch die Skalierbarkeit und Vielfalt der Techniken. Deepfake-Videos simulieren mittlerweile in Echtzeit glaubhafte Gesichter, Mimik und Lippenbewegungen – und das bei gleichzeitiger Anpassung an Lichtverhältnisse oder Kameraperspektiven. Angreifer können mit wenig Aufwand Identitäten konstruieren, die für menschliche Prüfer und viele automatisierte Systeme kaum noch als Fälschung zu erkennen sind. In Kombination mit gestohlenen personenbezogenen Daten entstehen hybride Identitäten, die auf betrügerische Konto­er­öff­nung­en, Geldwäsche oder den Aufbau langfristiger Täuschungsnetzwerke ausgelegt sind.

Besonders brisant ist die Tatsache, dass biometrischer Betrug mittlerweile nicht mehr punktuell, sondern hochgradig automatisiert stattfinden kann. Mithilfe generativer KI können Gesichtsmerkmale sehr realistisch synthetisch erzeugt und dann systematisch auf KYC-Verfahren (Know Your Customer) angewendet werden. Während synthetische Ausweisdokumente und manipulierte Bewegungsmuster zusätzliche Betrugsvektoren sind, stellt die Deepfake-Gesichtsgenerierung die unmittelbarste und raffinierteste Bedrohung für biometrische Verifizierungssysteme dar. Das erfordert spezielle Erkennungsfunktionen, um Injektionsangriffe und synthetische biometrische Darstellungen zu identifizieren.

Neue Verteidigungslinien: KI-gestützte KYC-Systeme

Vor diesem Hintergrund sehen sich IT-Sicherheitsteams mit einem Paradigmenwechsel konfrontiert: Der Einsatz von KI auf Seiten der Angreifer erzwingt KI-basierte Schutzmechanismen auf Seiten der Verteidiger. Doch der technologische Wandel allein reicht nicht aus. Es braucht neue architektonische Ansätze in der Sicherheitsinfrastruktur, und zwar von der Identitätsverifikation über Verhaltensanalyse bis hin zur Integration in bestehende SIEM-, IAM- oder Fraud-Detection-Systeme. Die zentrale Herausforderung besteht darin, Identitätsprüfung nicht mehr als einmaligen Onboarding-Prozess, sondern als dynamischen Sicherheitskontext zu verstehen. Nur wer Risikoindikatoren kontinuierlich neu bewertet und gleichzeitig lernfähige Modelle einsetzt, kann sich gegen diese neue Form von Betrug behaupten.

Moderne KYC-Systeme greifen deshalb auf multimodale Analyseansätze zurück. Neben biometrischen Merkmalen werden auch Bewegungsmuster, Device-Fingerprinting oder Netzwerkkontexte. In Kombination ergibt sich ein Gesamtbild, das die Wahrscheinlichkeit eines legitimen Nutzers im situativen Kontext bewertet und nicht nur auf starre Vergleichswerte setzt. Dabei gewinnen auch Systeme mit integriertem Feedback-Mechanismus an Bedeutung: Durch das Lernen aus erkannten Betrugsfällen lässt sich das Modell iterativ optimieren. Gerade im Bereich der biometrischen Betrugsabwehr sind solche adaptiven Systeme essenziell, um Deepfake-basierte Angriffe frühzeitig zu erkennen.

Allerdings erfordert diese Entwicklung auch ein Umdenken in Bezug auf Transparenz und Auditierbarkeit. In sicherheitskritischen Umfeldern wie der Finanzbranche oder bei kritischen Infrastrukturen sind „Black Boxes“ nicht akzeptabel. Entscheidungen müssen nicht nur korrekt, sondern auch nachvollziehbar und regulatorisch prüfbar sein.

Transparenz, Erklärbarkeit und regulatorischer Druck

Das bringt neue Anforderungen technischer und organisatorischer Art mit sich. Sicherheitsverantwortliche müssen künftig nicht nur Angriffsflächen analysieren, sondern auch Risikomodelle und Datenflüsse kontinuierlich evaluieren. Die enge Verzahnung zwischen IT-Sicherheit, Fraud-Teams und Compliance wird damit zur strategischen Notwendigkeit. Gleichzeitig rücken prozessuale Aspekte stärker in den Fokus: Wo kann ein automatisiertes KI-Modell Entscheidungen allein treffen? An welcher Stelle braucht es menschliche Prüfung? Gerade in Graubereichen bleibt der „Human in the Loop“ eine unverzichtbare Instanz, nicht zuletzt zur Qualitätssicherung und regulatorischen Absicherung.

Auch gesetzliche Rahmenbedingungen wie NIS-2, DORA oder die eIDAS-2-Verordnung erhöhen den Druck auf Unternehmen, den Einsatz KI-gestützter Sicherheitsverfahren, insbesondere in KYC-Workflows, zu dokumentieren, zu auditieren und in bestehende GRC-Frameworks zu integrieren. Technische Normen wie ISO 30107-3 zur Deepfake-Erkennung oder ETSI-Standards zur digitalen Identität dienen als Orientierung, sind aber nur dann wirksam, wenn sie auch operativ umgesetzt werden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Resiliente Identitätsprüfung braucht mehr als Technologie

Die Verteidigung gegen KI-gestützten Identitätsbetrug ist kein statischer Zustand mehr, sondern ein kontinuierlicher, strategischer Anpassungsprozess. Es reicht nicht aus, punktuelle technische Upgrades zu implementieren. Eine ganzheitliche, crossfunktionale Sicherheitsstrategie ist notwendig, bei der technische Exzellenz, regulatorische Absicherung und organisatorische Resilienz Hand in Hand gehen. Wer heute in adaptive KYC-Systeme, erklärbare KI-Modelle und robuste Sicherheitsprozesse investiert, schützt nicht nur Kundendaten, sondern stärkt die digitale Vertrauenswürdigkeit seines Unternehmens in einer Welt, in der Täuschung zur industriellen Disziplin geworden ist.

Über den Autor: Krik Gunning ist Mitgründer und Geschäftsführer beim RegTech-Spezialisten Fourthline. Das FinTech aus Amsterdam unterstützt Unternehmen aus ganz Europa bei der Lösung ihrer KYC- und Compliance-Anforderungen.

(ID:50603699)