Generative KI revolutioniert die digitale Identitätsprüfung und öffnet zugleich neue Einfallstore für Betrug. Deepfakes, synthetische Ausweise und automatisiertes Social Engineering stellen klassische KYC-Prozesse infrage. CISOs und Compliance-Verantwortliche müssen Identitätsprüfung als dynamischen Sicherheitsprozess neu denken, um Vertrauen und Regulierung in Einklang zu bringen.
KI-basierte Deepfakes gefährden die digitale Identität. Neue KYC-Systeme müssen Täuschungen in Echtzeit erkennen und kontinuierlich bewerten.
KI ist 2025 längst zum strategischen Faktor für Sicherheit und Täuschung geworden. Während generative KI in der Produktivität neue Maßstäbe setzt, nutzen auch Cyberkriminelle die Technologie gezielt, um Sicherheitsmechanismen zu unterwandern. Bei der digitalen Identitätsprüfung setzen Deepfakes, KI-generierte Ausweisdokumente und automatisierte Social-Engineering-Muster die bisherigen Standards außer Kraft.
Deepfakes, hybride Identitäten und automatisierter Betrug
Die Bedrohung entsteht dabei nicht durch ein einzelnes Tool oder eine neue Angriffsmethode, sondern durch die Skalierbarkeit und Vielfalt der Techniken. Deepfake-Videos simulieren mittlerweile in Echtzeit glaubhafte Gesichter, Mimik und Lippenbewegungen – und das bei gleichzeitiger Anpassung an Lichtverhältnisse oder Kameraperspektiven. Angreifer können mit wenig Aufwand Identitäten konstruieren, die für menschliche Prüfer und viele automatisierte Systeme kaum noch als Fälschung zu erkennen sind. In Kombination mit gestohlenen personenbezogenen Daten entstehen hybride Identitäten, die auf betrügerische Kontoeröffnungen, Geldwäsche oder den Aufbau langfristiger Täuschungsnetzwerke ausgelegt sind.
Besonders brisant ist die Tatsache, dass biometrischer Betrug mittlerweile nicht mehr punktuell, sondern hochgradig automatisiert stattfinden kann. Mithilfe generativer KI können Gesichtsmerkmale sehr realistisch synthetisch erzeugt und dann systematisch auf KYC-Verfahren (Know Your Customer) angewendet werden. Während synthetische Ausweisdokumente und manipulierte Bewegungsmuster zusätzliche Betrugsvektoren sind, stellt die Deepfake-Gesichtsgenerierung die unmittelbarste und raffinierteste Bedrohung für biometrische Verifizierungssysteme dar. Das erfordert spezielle Erkennungsfunktionen, um Injektionsangriffe und synthetische biometrische Darstellungen zu identifizieren.
Neue Verteidigungslinien: KI-gestützte KYC-Systeme
Vor diesem Hintergrund sehen sich IT-Sicherheitsteams mit einem Paradigmenwechsel konfrontiert: Der Einsatz von KI auf Seiten der Angreifer erzwingt KI-basierte Schutzmechanismen auf Seiten der Verteidiger. Doch der technologische Wandel allein reicht nicht aus. Es braucht neue architektonische Ansätze in der Sicherheitsinfrastruktur, und zwar von der Identitätsverifikation über Verhaltensanalyse bis hin zur Integration in bestehende SIEM-, IAM- oder Fraud-Detection-Systeme. Die zentrale Herausforderung besteht darin, Identitätsprüfung nicht mehr als einmaligen Onboarding-Prozess, sondern als dynamischen Sicherheitskontext zu verstehen. Nur wer Risikoindikatoren kontinuierlich neu bewertet und gleichzeitig lernfähige Modelle einsetzt, kann sich gegen diese neue Form von Betrug behaupten.
Moderne KYC-Systeme greifen deshalb auf multimodale Analyseansätze zurück. Neben biometrischen Merkmalen werden auch Bewegungsmuster, Device-Fingerprinting oder Netzwerkkontexte. In Kombination ergibt sich ein Gesamtbild, das die Wahrscheinlichkeit eines legitimen Nutzers im situativen Kontext bewertet und nicht nur auf starre Vergleichswerte setzt. Dabei gewinnen auch Systeme mit integriertem Feedback-Mechanismus an Bedeutung: Durch das Lernen aus erkannten Betrugsfällen lässt sich das Modell iterativ optimieren. Gerade im Bereich der biometrischen Betrugsabwehr sind solche adaptiven Systeme essenziell, um Deepfake-basierte Angriffe frühzeitig zu erkennen.
Allerdings erfordert diese Entwicklung auch ein Umdenken in Bezug auf Transparenz und Auditierbarkeit. In sicherheitskritischen Umfeldern wie der Finanzbranche oder bei kritischen Infrastrukturen sind „Black Boxes“ nicht akzeptabel. Entscheidungen müssen nicht nur korrekt, sondern auch nachvollziehbar und regulatorisch prüfbar sein.
Transparenz, Erklärbarkeit und regulatorischer Druck
Das bringt neue Anforderungen technischer und organisatorischer Art mit sich. Sicherheitsverantwortliche müssen künftig nicht nur Angriffsflächen analysieren, sondern auch Risikomodelle und Datenflüsse kontinuierlich evaluieren. Die enge Verzahnung zwischen IT-Sicherheit, Fraud-Teams und Compliance wird damit zur strategischen Notwendigkeit. Gleichzeitig rücken prozessuale Aspekte stärker in den Fokus: Wo kann ein automatisiertes KI-Modell Entscheidungen allein treffen? An welcher Stelle braucht es menschliche Prüfung? Gerade in Graubereichen bleibt der „Human in the Loop“ eine unverzichtbare Instanz, nicht zuletzt zur Qualitätssicherung und regulatorischen Absicherung.
Auch gesetzliche Rahmenbedingungen wie NIS-2, DORA oder die eIDAS-2-Verordnung erhöhen den Druck auf Unternehmen, den Einsatz KI-gestützter Sicherheitsverfahren, insbesondere in KYC-Workflows, zu dokumentieren, zu auditieren und in bestehende GRC-Frameworks zu integrieren. Technische Normen wie ISO 30107-3 zur Deepfake-Erkennung oder ETSI-Standards zur digitalen Identität dienen als Orientierung, sind aber nur dann wirksam, wenn sie auch operativ umgesetzt werden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Resiliente Identitätsprüfung braucht mehr als Technologie
Die Verteidigung gegen KI-gestützten Identitätsbetrug ist kein statischer Zustand mehr, sondern ein kontinuierlicher, strategischer Anpassungsprozess. Es reicht nicht aus, punktuelle technische Upgrades zu implementieren. Eine ganzheitliche, crossfunktionale Sicherheitsstrategie ist notwendig, bei der technische Exzellenz, regulatorische Absicherung und organisatorische Resilienz Hand in Hand gehen. Wer heute in adaptive KYC-Systeme, erklärbare KI-Modelle und robuste Sicherheitsprozesse investiert, schützt nicht nur Kundendaten, sondern stärkt die digitale Vertrauenswürdigkeit seines Unternehmens in einer Welt, in der Täuschung zur industriellen Disziplin geworden ist.
Über den Autor: Krik Gunning ist Mitgründer und Geschäftsführer beim RegTech-Spezialisten Fourthline. Das FinTech aus Amsterdam unterstützt Unternehmen aus ganz Europa bei der Lösung ihrer KYC- und Compliance-Anforderungen.