Sumsub Identity Fraud Report 2025-2026 Deepfake-Angriffe steigen in Deutschland um über 50 Prozent

Quelle: Pressemitteilung 2 min Lesedauer

Anbieter zum Thema

KI macht Betrugsangriffe deutlich gefährlicher. Deepfakes steigen in Deutschland um mehr als 50 Prozent und viele Unternehmen erwarten zunehmend komplexe Identitätsmanipulationen die traditionelle Sicher­heitsverfahren unter Druck setzen.

KI macht Betrug effektiver und teurer für Unternehmen, da Deepfakes zunehmen und veraltete Kontrollen finanzielle Schäden nicht mehr verhindern.(Bild:  monsitj - stock.adobe.com)
KI macht Betrug effektiver und teurer für Unternehmen, da Deepfakes zunehmen und veraltete Kontrollen finanzielle Schäden nicht mehr verhindern.
(Bild: monsitj - stock.adobe.com)

Komplexe Betrugsaktivitäten, also also mehrstufige, koordinierte Angriffe, bei denen mehrere fortgeschrittene Techniken innerhalb eines einzigen Verifikationsversuchs kombiniert werden, haben in diesem Jahr weltweit um 180 Prozent zugenommen. Dies ist das Kernergebnis aus dem „Identity Fraud Report 2025-2026“, den Sumsub, ein Unternehmen, das sich auf Betrugs­prä­ven­tion spezialisiert hat, jüngst veröffentlicht hat. Dafür hat der Hersteller interne Ver­ifi­ka­tions- und Nutzungsdaten der Sumsub-Plattform aus den Jahren 2023, 2024 und 2025 sowie vier Millionen Betrugsversuche analysiert. Die Ergebnisse wurden ergänzt mit den Antworten von 300 Risikofachleuten und mehr als 1.200 Endnutzern, die für die „Fraud Exposure Survey 2025“ befragt wurden. Außerdem zeigt sich den Studienautoren zufolge eine Entwicklung hin zu raffinierteren Methoden. Betrugsoperationen würden zunehmend so gestaltet, dass sie höhere Erfolgsquoten, größeren finanziellen Schaden und stärkere Resistenz gegenüber traditionellen Kontrollen erzielen. Betrüger benötigten weniger Versuche, um einen erfolgreichen Angriff durchzuführen.

KI treibt Betrugsmaschen voran

Künstliche Intelligenz verstärkt den Trend zu komplexeren Betrugsoperationen deutlich. Deep­fake-Verifikationsversuche nahmen 2025 in Deutschland um 53 Prozent zu, im euro­päischen Vergleich stiegen sie jedoch noch rasanter an. In Frankreich mit 96 Prozent, im Vereinigten Kö­nig­reich mit fast 94 Prozent und in Spanien mit 84 Prozent. 72 Prozent der EU-Unternehmen rechnen damit, dass KI künftig noch raffiniertere Angriffe ermöglichen wird, etwa durch hoch­qualitative Deepfakes oder KI-generierte Ausweisdokumente. Bereits heute beinhaltet jeder fünfte betrügerische Verifikationsversuch in Europa ein manipuliertes oder gefälschtes Dokument.

Betrüger profitieren vom technologischen Wettlauf um realistischere KI. Bekannte Modelle wie ChatGPT und Gemini sind laut Report inzwischen an zwei Prozent aller weltweit verarbeiteten Fake-Dokumente beteiligt, mit deutlichen Wachstumsraten für 2026. Gleichzeitig fehlt vielen Europäern (87 Prozent) grundlegendes Wissen über kriminelle Methoden wie Money Muling was sie anfälliger für KI-gestützte Betrugsmaschen macht, die das Weiterleiten illegaler Gelder ausnutzen.

Fazit und Schutzmaßnahmen

Unternehmen geraten dadurch stärker unter Druck. Trotz sinkender Gesamtbetrugsrate steigt die Schadenswahrscheinlichkeit, da KI-basierte Angriffe mit weniger Versuchen auskommen und veraltete Prozesse seltener anschlagen. 64 Prozent der europäischen Unternehmen melden bereits finanzielle Verluste durch Betrug, 36 Prozent zusätzlich Reputationsschäden.

Effektive Gegenmaßnahmen setzen laut Sumsub auf kontinuierliche Verhaltensanalytik, schnel­le­re Anomalieerkennung und selbstlernende Systeme die Abwehrmechanismen in Echt­zeit anpassen können. „Die traditionellen Erfolgsmaßstäbe in der Betrugsprävention verlieren schnell an Bedeutung“, sagte Pavel Goldman-Kalaydin, Head of AI/ML bei Sumsub. „Die Be­droh­ung hat sich von Quantität zu Qualität verschoben. Resilienz hängt nun davon ab, wie schnell Organisationen Anomalien erkennen, Verhaltensdaten analysieren und ihre Abwehr­mechanismen in Echtzeit an neue Bedrohungen anpassen können.“

Konkret empfehlen die Studienautoren:

  • Compliance-Teams sollten sich zu integrierten Risikointelligenzeinheiten entwickeln, die Compliance, Betrugserkennung, Reporting und Fallmanagement bündeln.
  • Verifikationen sollten sich von isolierten Prüfungen hin zu einer kontinuierlichen Bewertung entwickeln und dabei auch Aspekte wie Geräteleistung, Verhaltensanalytik und kontextueller Intelligenz einbeziehen.
  • Da Nutzer zunehmend über KI-Agenten interagieren, sollten auch diese Agenten sicher und nachvollziehbar verifiziert werden, möglicherweise durch andere KI-Agenten.

(ID:50648596)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung