Ein Bankmanager überwies 22 Millionen Euro nach einem Deepfake-Videoanruf mit einem vermeintlichen Vorstand. Solche KI-generierten Täuschungen sind inzwischen eine reale Bedrohung. Traditionelle Sicherheitskonzepte reichen nicht mehr: Zero Trust muss künftig auch die Echtheit von Inhalten prüfen, nicht nur die Identität von Nutzern.
Deepfakes sind zur realen Bedrohung für Unternehmen geworden. Zero Trust muss künftig auch die Echtheit von Inhalten verifizieren, nicht nur die Identität von Nutzern.
Durch künstliche Intelligenz (KI) gestützte Deepfake-Technologie hat sich in den Händen von Cyberkriminellen zu einem zunehmend destruktiven Werkzeug entwickelt. Waren erste Täuschungsversuche durch Deepfakes vor allem auf die Verbreitung politischer Desinformationen und die Imitation von Prominenten beschränkt, sind sie heute eine ernstzunehmende und überzeugende Bedrohung für Unternehmen weltweit.
Denn Deepfakes haben das Potenzial, den Geschäftsbetrieb zu untergraben, Sicherheitsstrategien lahmzulegen und wichtige Kommunikationsprozesse zu gefährden. Damit stellen sie ein akutes Risiko für Unternehmen dar – und sind ein deutliches Warnzeichen für den wachsenden Einfluss von KI auf die Cybersicherheit. Um gegen diese neue Bedrohung gewappnet zu sein, müssen Unternehmen über ihre bestehenden Notfallpläne hinaus denken und den eigentlichen Kern ihrer digitalen Infrastruktur absichern.
Deepfakes sind heute nicht nur ein Teil der Popkultur. Die Technologie ist längst auch zu böswilligen Zwecken eingesetzt worden, etwa zur Imitation von Politikern und zur Ermöglichung groß angelegter Finanzbetrugsfälle. Eines der alarmierendsten Beispiele aus der Praxis betraf einen Bankmanager, der dazu gebracht wurde, mehr als 22 Millionen Euro zu überweisen. Er hatte einen Videoanruf von einer Person erhalten, die er für einen Unternehmensvorstand hielt. Der Betrüger nutzte einen KI-generierten Anrufer sowie begleitende betrügerische E-Mails und Dokumente – ein Hinweis auf die zunehmende Raffinesse der Kriminellen, die sich die verfügbaren Deepfake-Technologien zunutze machen.
Die Werkzeuge zur Erstellung manipulierter Medien sind inzwischen so weit verbreitet, dass Unternehmen Deepfakes nicht länger als hypothetische Bedrohung betrachten dürfen. Die rechtlichen Folgen sowie Compliance-Probleme, die entstehen können, wenn Unternehmen das wachsende Risiko ignorieren, sind gravierend. Regelwerke wie der Digital Operational Resilience Act (DORA) verlangen, dass Unternehmen ihre betriebliche Resilienz aufrechterhalten und sensible Daten adäquat schützen. Und die gesetzlichen Vorgaben entwickelt sich ständig weiter. So hat die dänische Regierung kürzlich das Urheberrecht verschärft, um Aussehen, Gesichtszüge und die Stimme von Personen vor KI-generierten Deepfakes zu schützen.
Unterbleibt der Schutz vor Deepfake-gestütztem Betrug, dann drohen Bußgelder, rechtliche Konsequenzen und dauerhafte Rufschäden. Für Unternehmen ist es deshalb entscheidend, Deepfakes in ihre übergreifende Cybersicherheits- und Risikomanagement-Strategie zu integrieren. Entsprechende Notfallpläne und Prozesse können das Haftungsrisiko mindern und sicherstellen, dass Unternehmen gut auf eine Angriff vorbereitet sind.
Der Aufstieg von Deepfakes hat das Vertrauen der Nutzer in visuelle und Audio-Inhalte erschüttert. Denn diese lassen sich inzwischen leicht manipulieren. Traditionelle Vertrauensmodelle, bei denen es um die Authentizität von Benutzern, Geräten und Anwendungen geht, reichen heute nicht mehr aus; zusätzlich müssen Unternehmen auch die Authentizität von Inhalten verifizieren.
Das Zero-Trust-Sicherheitsmodell, das nach dem Prinzip „niemals vertrauen, stets verifizieren“ funktioniert, spielt weiter eine kritische Rolle bei der Verteidigung gegen immer neue Bedrohungen. Ein immer wiederkehrendes Problem bei traditionellen, softwarebasierten Sicherheitsansätzen ist jedoch die Abhängigkeit von manuellen Updates und menschlichem Zutun: Mitarbeiter sind mit in der Pflicht, Bedrohungen zu erkennen und darauf zu reagieren. Wenn KI-Angriffe gezielt darauf ausgelegt sind, das menschliche Auge zu täuschen, ist diese Strategie anfällig für den Fehlerfaktor Mensch – der weiterhin die Hauptursache für viele Sicherheitsverletzungen ist.
Unternehmen sollten deshalb ihre Zero-Trust-Prinzipien weiter ausweiten und Verfahren implementieren, um die Echtheit von video-, audio- oder bildbasierten Inhalten zu verifizieren und sich so vor verdächtiger Kommunikation zu schützen. Bei Vorgängen wie Banküberweisungen oder Zugriffen auf sensible Informationen sollte außerdem ein zweiter Freigabeschritt erfolgen. Jede Anfrage, die vertrauliche Informationen wie Finanz- oder Anmeldedaten betrifft, muss doppelt geprüft werden, etwa durch telefonische Rückrufe oder zusätzliche Genehmigungen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Um die Gefahr von Deepfake-Betrugsversuchen weiter zu mindern, müssen Führungskräfte klare Richtlinien für die Vorfallserkennung und Eskalation umsetzen. Diese sollten beinhalten, dass alle Mitarbeiter verfügbare Tools zur Inhaltsverifizierung nutzen. Daneben sind regelmäßige Schulungen wichtig, damit Mitarbeiter die Warnsignale von Deepfake-Angriffen auch erkennen. Ein gesundes Maß an Skepsis – insbesondere, wenn etwas dringend oder ungewöhnlich erscheint – kann im Ernstfall entscheidend sein.
Für einen wirklich proaktiven Ansatz sollten Unternehmen aber ein mehrschichtiges Sicherheitsmodell einführen, das Authentizitätsprüfungen fest in jeder Ebene ihrer Sicherheitsinfrastruktur verankert.
Durch Integration von Sicherheitsmechanismen auf Hardware-Ebene, die nahtlos mit den Software-Abwehrmaßnahmen zusammenarbeiten, schaffen Unternehmen eine robuste Grundlage, um die Authentizität von Inhalten zu verifizieren. So verringern sie das Risiko, dass Deepfake-Manipulationen unbemerkt bleiben.
KI spielt im Deepfake-Dilemma eine doppelte Rolle. Fortschritte im maschinellen Lernen, insbesondere bei multimodalen KI-Systemen, haben die Entwicklung leistungsfähiger Werkzeuge erlaubt, die subtile Anomalien wie unnatürliches Blinzeln oder nicht übereinstimmende Elemente in audiovisuellen Inhalten erkennen können. Sie finden auch Abweichungen, die dem bloßen Auge verborgen bleiben. Diese Werkzeuge nutzen Techniken wie Convolutional Neural Networks (CNNs), um kleinste Details in Bildern zu identifizieren, sowie Long Short-Term Memory (LSTM)-Netze und Gated Recurrent Units (GRUs), um die audiovisuelle Synchronität zu verfolgen. Durch die Integration dieser KI-gestützten Fähigkeiten mit hardwareverifizierten Überprüfungen stellen Unternehmen sicher, dass die digitale Kommunikation vertrauenswürdig ist.
Bei der Auswahl der richtigen Lösung sollten Unternehmen drei zentrale Aspekte priorisieren. Erstens muss sie im echten Zero-Trust-Sinn anwendungsagnostisch sein. Das bedeutet, die Lösung muss Deepfakes in Echtzeit erkennen können und mit Anwendungen wie Zoom, Teams, Webex, Chrome, Meta und YouTube kompatibel sein. Zweitens sollte der Fokus auf einer einfachen Einführung und nahtlosen Bereitstellung liegen – mit flexiblen Optionen, die sich vielfältigen Enterprise-Anforderungen anpassen. Drittens muss die Lösung Schutz an jedem Endpunkt bieten. Etwa durch schlanke Software-Agenten auf PCs und Laptops oder in Kombination mit sicheren SSDs, um eine einheitliche Verteidigungsschicht zu bilden.
Ob es um die Abwehr von Deepfakes, Datenklau oder Ransomware geht: Um sich vor böswilligen Aktivitäten zu schützen, müssen Unternehmen heute einen Secure-by-Design-Ansatz verfolgen. Dabei gilt es, KI-gestützte Sicherheitsfunktionen nicht nur in Softwarelösungen zu nutzen, sondern auch auf der Hardware- und Geräteebene zu integrieren. Nur so schaffen Unternehmen eine mehrschichtige Abwehr, die Systeme auch außerhalb des Netzwerkperimeters rund um die Uhr überwacht und schützt.
KI-gestützte Bedrohungen werden weiter zunehmen. Vorausschauende Sicherheitsstrategien erfordern ebenso ausgeklügelte Verteidigungsmechanismen: KI wird zum Eckpfeiler für die Cyberabwehr der Zukunft.
Über die Autorin: Camellia Chan ist CEO und Mitbegründerin von X-PHY Inc., einem Pionier im Bereich der hardwarebasierten Cybersicherheit. Sie leitet die Mission des Unternehmens, KI-gestützte Schutzmaßnahmen in die physische Ebene einzubetten und so proaktive, autonome Sicherheit zu ermöglichen. Mit über 40 Patenten setzt sie sich für Innovation und Inklusion in der Cyberabwehr ein.