Künstliche Intelligenz wird als Cyberbedrohung oft überschätzt. Die wahre Gefahr liegt nicht in autonomen Zero-Day-Attacken, sondern im Versagen der internen KI-Governance: Hausgemachte Governance-Lücken wie unsichere API-Zugänge und fehlende Regelwerke öffnen Angreifern Tür und Tor.
KI-Cyberbedrohungen werden oft überschätzt. Die wahre Gefahr liegt im Versagen der internen KI-Governance, wo unsichere API-Zugänge und fehlende Regelwerke Angreifern Tür und Tor öffnen.
Beim Blick auf die Cybersicherheit der Zukunft denken viele zuerst an Künstliche Intelligenz. Eine wichtige Perspektive, die aber nicht ganz zu einem richtigen Urteil führt. Hype-Diskussionen und apokalyptische Visionen rund um autonome KI und maschinell generierte Zero-Day-Attacken verstellen den Blick auf die tatsächliche Qualität der kommenden Cyberrisiken.
Wer den Risiken durch KI begegnen will, sollte deren Gefahrenpotenzial und Einsatz durch Cyberkriminelle realistisch abschätzen. Zweifelsohne beschleunigt künstliche Intelligenz Angriffsfrequenzen und steigert das kriminelle Leistungsvermögen. Einige Probleme sind jedoch hausgemacht, manche Gefahren einfacherer Natur als oft angenommen.
2026 entstehen Risiken weniger aus dem Geschehen an der Angriffsoberfläche heraus, sondern aus dem Versagen der KI-Governance: Wenn Unternehmen beschleunigt KI-Technologien einführen, leiden oft die Regelungsmechanismen. Deren Notwendigkeit steigt aber mit der steigenden Zahl von KI-Nutzern vom technisch versierten IT-Anwender oder Entwickler bis hin zum durchschnittlichen Mitarbeiter mit entsprechend geringerer digitaler Kompetenz. 88 Prozent nutzen mittlerweile KI, aber nur rund fünf Prozent gehen diese Technologie strategisch und grundlegend an. Sicherheitsregeln sind oft zu vage und ihr Erfolg hängt stark davon ab, ob Einzelpersonen sie einhalten.
Ebenso problematisch sind agentische KI-Systeme, die auf dem Model Context Protocol (MCP) basieren. Große Unternehmen implementieren diese Technologie mit der notwendigen Systematik und beziehen Rechtsabteilungen sowie die Teams für Sicherheit und für Application Programming Interfaces (APIs) mit ein. Kleinere Firmen folgen aber oft überstürzt dem Innovationsdruck und vernachlässigen die absichernde Grundlage: Laut den Experten für die Sicherheit von KI-Agenten bei Astrix gelten für mehr als die Hälfte (53 Prozent) der untersuchten implementierten Open-Source-MCP-Server unsichere, statische Zugangsdaten für API-Schlüssel, während lediglich 8,5 Prozent den empfohlenen OAuth-Standard verwenden.
Künstliche Intelligenz befördert nicht so sehr die Qualität, als vielmehr die Quantität und Effizienz von Cyberangriffen. Wer KI vor allem als Motor zukunftsweisender, mit KI genuin entwickelter Malware sieht, unterliegt einer verzerrten Wahrnehmung. Hochgeredete Durchbrüche wie polymorphe Malware-Payloads, die ihre Signatur verändern können, sind keine KI-Innovation, sondern vielmehr oft seit Jahrzehnten bekannte Funktionalitäten fortschrittlicher Schadsoftware.
Die wirkliche Gefahr der KI liegt in grundlegenderen Technologien. Etwa darin, dass Large Language Models (LLM) hervorragend Verschlüsselungscode in der Programmiersprache der Wahl umverpacken und weiterentwickeln. Dadurch steigt der Aufwand, kostenfreie Dekryptoren zu entwickeln, erheblich.
Die Möglichkeit von LLMs, Code flüssig zu übersetzen und umzuschreiben, beschleunigt den Einsatz komplexerer speichersicherer Sprachen wie Rust und Golang. Zugleich lässt sich ein KI-verfasster Code nur schwer einem Täter attribuieren, da verräterische Indizien wie individuelle Variablen-Namen, formale Eigenheiten des Codes oder Library-Vorlieben nicht mehr vorkommen und sich Codes immer mehr angleichen.
Gezielte orchestrierte Angriffe auf Infrastrukturen als KI-Kompetenz?
Sicherheitsexperten sollten Berichten über vollständig autonome, KI-gesteuerte Malware skeptisch gegenüberstehen, insbesondere wenn die Quellen keine Beweise für ihre Wirksamkeit liefern. Zwar wird es innovative, experimentelle Proofs-of-Concept geben, doch sind sie in realen IT-Umgebungen meist kaum praktikabel.
Auch die verbreitete Annahme, KI verschaffe Hackern allein durch ein hohes Operationsvolumen Vorteile, greift zu kurz: Ein Übermaß an Aktivität ist für eine Extended Detection and Response (XDR) auf dem aktuellen Stand der Technik eine erkennbare Signatur für Gefahr. Erfolgreiche Hacker minimieren daher die Anzahl ihrer beobachtbaren Schritte. Zudem erhöhen sie ihre Erfolgschancen durch subtile Tarnung ihrer Manöver im Gewande legitimer Living-of-the-Land-Tools und dateiloser Angriffe. Gerade aber die für dieses Mimikry notwendige Kenntnis des angegriffenen IT-Kontextes kann eine KI nicht zuverlässig abbilden.
Im Gegensatz dazu werden KI-Angriffe in der Praxis eher einfach gestaltet sein. Sie werden in Abläufen und Zielen eher bekannte Angriffsstile früherer Jahre imitieren und beruhen auf grundlegenden Malware-Payloads oder Frameworks. Der Einsatz von KI für gezielte Angriffe dürfte eher zurückgehen.
KI verändert die Ökonomie von Ransomware nachhaltig. Social-Engineering-Kampagnen werden präziser, sprachlich fehlerfrei und leichter skalierbar. Auch Voice Cloning für Deepfake-Videos für betrügerische Geschäftskommunikation gestaltet sich einfacher und besser. Mit simplen Technologien gestaltete Deepfakes wie ClickFix unterlaufen Abwehrtechnologien, weil der Nutzer selbst die verborgene Malware durch den Klick auf das Video freiwillig startet.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Doch nicht alle Trends in diesem Wirtschaftssektor sind KI-getrieben. So beschleunigen sich Remote-Code-Execution-Angriffe auf die Netzwerkränder, wofür etwa staatlich unterstützte APT-Gruppen mit chinesischem Hintergrund teils nur noch wenige Stunden ab dem Proof of Concept bis zum produktiven Angriff benötigen. Ebenso wirksam ist das Umgehen einer herkömmlichen Endpoint Detection and Response (EDR) durch das gezielte Vorgehen auf Systemebene oder mit Kernel-Level-Zugang. Endpunkte geraten zudem zusätzlich unter Druck, wenn Hacker auf verbreitete Windows-Funktionalitäten wie das Antimalware Scan Interface (AMSI) oder den Volume Shadow Copy Service (VSS) abzielen oder Hypervisoren ins Visier nehmen, die einen effizienten Ansatz für Angriffe darstellen. Die Chancen auf eine kriminelle Karriere für hochqualifizierte Affiliates mit eingehenden Kenntnissen der Anlage einer IT-Infrastruktur bleiben weiter hoch – gerade wenn es um Präzisionsattacken geht.
Fernab von Hype und nicht zu leugnender Gefahr: Ein mehrschichtiger Ansatz für die Defensive bleibt die Grundlage jeder IT-Sicherheit. Das bedeutet: Wenn ein Unternehmen grundlegende Sicherheitsrichtlinien vernachlässigt, sollte es vor allem hier die Prioritäten setzen. Fortschrittliche KI-Tools für die Abwehr können strukturelle Defizite nicht kompensieren.
Zudem bleibt menschliche Expertise für die Abwehr unverzichtbar, um das Angriffsgeschehen richtig zu beurteilen. Externe Sicherheitsanalysten im Security Operation Center einer Managed Detection and Response können am besten die tatsächliche Gefahr beurteilen.
Gleichzeitig kann KI einen entscheidenden Beitrag zur Abwehr leisten: Während Hacker mit bösartige künstlicher Intelligenz Angriffe vor allem durch übertragbare Playbooks skalieren, unterstützt gutartige KI durch die dynamische Reduktion von Angriffsoberflächen eine wirksame Abwehr – indem sie Nutzerverhalten analysiert und Regeln für Individuen und die Identitäten von Maschinen oder Applikationen effizient, wirksam und sicher festlegt sowie dynamisch verwaltet. Diese nur mit KI mögliche granulare Verhaltensanalyse bildet die Grundlage, um etwa Insiderangriffe oder den Missbrauch kompromittierter Administratorkonten frühzeitig zu erkennen. Erst die KI ermöglicht das Umschalten von einer reaktiven Abwehr zur proaktiven Erkennung.
Über den Autor: Martin Zugec ist Technical Solutions Director bei Bitdefender.