Deepfakes sind schnell, billig und überzeugend. Doch welche Möglichkeiten gibt es für Unternehmen, Institutionen und die Gesellschaft sich zu schützen?
Deepfakes und KI-gestützter Betrug stellen Unternehmen, Behörden und Gesellschaft vor neue Herausforderungen. Technische Erkennung, organisatorische Maßnahmen und Forschungspartnerschaften gelten als zentrale Gegenpole.
Die Bedrohungslandschaft hat sich fundamental gewandelt. Deepfakes sind nicht nur ein Problem der sozialen Medien, sie wirken sich auf die gesamte Gesellschaft aus. Deepfakes untergraben das Vertrauen in Institutionen, gefährden die Integrität von Demokratien, manipulieren öffentliche Debatten und ermöglichen Finanzkriminalität in einer Größenordnung, die politische Entscheidungsträger zunehmend beunruhigt. Wenn Bürger etwa nicht mehr unterscheiden können, ob ein Video ihres Kanzlers authentisch ist, entsteht ein strukturelles Vertrauensproblem, das jeden trifft.
Aktuelle Branchendaten von Sumsub zeigen das ganze Ausmaß. In Deutschland stieg die Deepfake-Betrugsrate um 1100 Prozent im ersten Quartal 2025 gegenüber dem Vorjahr. Der Betrug mit synthetischen Ausweisdokumenten liegt in Deutschland bei 567 Prozent. Hinter diesen Zahlen verbergen sich Hinweise auf eine koordinierte Adaption von KI-Tools mit dem Ziel Cyberbetrug zu begehen. So setzen Kriminelle Live-Deepfakes in Video-Calls ein, um CEOs zu imitieren und Mitarbeitende zur Überweisung zu bewegen. Was vor wenigen Jahren noch Science-Fiction war, ist heute Realität.
Der Deutsche Digitalverband Bitkom beziffert die jährlichen Verluste deutscher Unternehmen durch Cyberangriffe auf über 220 Milliarden Euro. Ein wachsender Anteil entfällt auf CEO-Fraud und KI-gestützte Imitationen. Aber die Verluste sind nicht nur finanziell. Sie sind reputativ, politisch, gesellschaftlich.
Der Rückstand in der Abwehr
Das eigentliche Problem besteht darin, dass die Innovationsgeschwindigkeit der Angreifer schneller wächst als die Abwehrkapazitäten. Traditionelle Sicherheitsmaßnahmen hinken hinterher und Unternehmen berichten, dass die altbewährten Systeme kaum Schritt halten.
Die gute Nachricht: Es gibt bereits wirksame Werkzeuge. Spezielle KI-Systeme können typische Deepfake-Artefakte zuverlässig erkennen, biometrische Liveness-Prüfungen stellen sicher, dass eine echte Person anwesend ist und Verhaltensanalytik entdeckt verdächtige Muster. Wenn diese Tools richtig integriert werden, funktionieren sie. Während sich Unternehmen daher bereits heute gut gegen Deepfakes-Betrug schützen können, fehlen vielen Institutionen und besonders Privatpersonen diese Möglichkeiten.
Warum akademisch-industrielle Partnerschaften jetzt wichtig sind
Um dieser Bedrohung wirksam zu begegnen, braucht es mehr als punktuelle technische Innovationen. Es braucht eine systematische Zusammenarbeit zwischen Wissenschaft und Praxis. Zwischen denjenigen, die an KI forschen, und denjenigen, die sie in der Realität einsetzen.
Forschungskooperationen können die Lücke zwischen Labor und operativer Linie schließen. Sie verbinden akademische Sorgfalt und Methodik mit praktischer Dringlichkeit. Wenn Universitäten eng mit Unternehmen zusammenarbeiten, entstehen nicht nur bessere Lösungen, sondern auch neue Erkenntnisse.
Im September 2025 wurde eine solche Partnerschaft zwischen Sumsub und der Constructor University in Bremen angekündigt. Ein Modell, das zeigen kann, wie Wissenschaft und Wirtschaft ineinandergreifen sollten. Experten wie Professor Dmitry Vetrov, der zu Bayes'schen Methoden, generativen Modellen und Deep Learning forscht, und Professorin Hilke Brockmann, die sich mit Vertrauen und Governance im KI-Kontext befasst, arbeiten am Projekt mit und profitieren von den finanziellen Mitteln für ihre Forschung und der Expertise zu Deepfakes. Studierende werden in Produkt- und Technikteams eingebunden.
Diese Praxiserfahrungen ermöglichen es aufstrebenden KI-Experten, an hoch entwickelten Anti-Betrugs-Tools zu arbeiten, praktische Fähigkeiten zu erwerben und Einblicke in reale Herausforderungen bei Identitätsprüfung und digitaler Sicherheit zu gewinnen. In Zukunft sollen daher noch weitere solche Kooperationen folgen.
Der Weg nach vorne: Langfristige Resilienz durch Zusammenarbeit
Die Bedrohung ist real. Aber sie ist nicht unbeherrschbar, vorausgesetzt es wird auf drei Ebenen gleichzeitig gehandelt:
Unternehmen müssen ihre Prozesse modernisieren und mehrschichtige Abwehrmaßnahmen kombinieren. Diese beinhalten KI-gestützte Erkennung, biometrische Verifikation und Verhaltensanalytik. Sie müssen ihre Mitarbeitenden schulen und mit Sicherheitsexperten zusammenarbeiten. Und vor allem müssen sie verstehen, dass Deepfake-Abwehr kein einmaliges Projekt ist, sondern kontinuierliche Anpassung an neue Bedrohungen erfordert.
Auf der individuellen Ebene braucht es eine bessere Wachsamkeit von jedem Einzelnen. Menschen müssen trainiert werden, kritisch zu denken, verdächtige Signale zu erkennen und im Zweifelsfall nachzufragen. Bewusstsein ist ein starker Schutzschild – wenn es systematisch aufgebaut wird.
Auf der akademischen Ebene liegt der Schlüssel zur langfristigen Resilienz. Durch öffentlich zugängliche Forschungsergebnisse aus solchen Kooperationen profitieren alle, die sich mit Deepfakebekämpfung beschäftigen. Und nur durch eine praxisnahe Ausbildung entsteht eine neue Generation von Experten, die Bedrohungen nicht nur bekämpft, sondern auch versteht und antizipiert. Universitäten müssen ihre akademische Expertise direkt in den Kampf gegen digitalen Betrug einbringen und Studierende mit realen Herausforderungen konfrontieren.
Diese drei Ebenen aus robusten Corporate-Systemen, menschlicher Wachsamkeit und systematische akademische Ausbildung schaffen zusammen echte Resilienz. Nicht gegen diese eine Bedrohung, sondern gegen die nächste und die übernächste.
Über den Autor: Pavel Goldman-Kalaydin ist Head of Artificial Intelligence and Machine Learning bei Sumsub, einer globaren Full-Cycle-Verifizierungsplattform. Mit einem umfassenden Hintergrund in der Softwareentwicklung ist Pavel seit über zehn Jahren im Bereich Künstliche Intelligenz und Machine Learning tätig. Bei Sumsub leitet er die Entwicklung von Technologien zur Prävention digitaler Betrugsversuche.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.