Künstliche Intelligenz ist längst mehr als ein Trend und prägt bereits nachhaltig die Arbeitswelt. Aber welche Herausforderungen für die Sicherheit ergeben sich aus dieser Entwicklung? Unternehmen müssen in diesem Jahr sechs Punkte beachten, die hier geschäftsentscheidend sind.
Um in den kommenden Jahren KI sicher nutzen zu können, brauchen Unternehmen eine klare KI-Governance sowie eindeutige KI-Nutzungsrichtlinien.
(Bild: VideoFlow - stock.adobe.com)
Der KI-Einsatz in deutschen Unternehmen hat sich von 2023 bis 2024 laut Statistischem Bundesamt von 12 auf 20 Prozent nahezu verdoppelt. Gleichzeitig stieg gemäß BITKOM der Schaden durch analoge und digitale Angriffe auf deutsche Unternehmen von 205,9 Milliarden auf 266,6 Milliarden Euro. Natürlich liegen die zunehmenden Schäden nicht ausschließlich an KI. Dennoch müssen sich Unternehmen auf neuartige Angriffsmethoden einstellen, wie personalisiertes Phishing, Deepfakes, neue Schadsoftware und hochskalierte Attacken.
Mit der schnellen Entwicklung und großen Masse an verschiedenen Angriffen können menschliche Sicherheitsteams auf Dauer nicht mehr Schritt halten. Daher müssen Unternehmen KI-basierte Security-Lösungen nutzen. Deren Einsatz ist aber ganzheitlich zu betrachten, denn die dadurch verbesserte IT-Sicherheit darf nicht auf Kosten neuer Schwachstellen gehen oder zu einer unverantwortlichen Nutzung führen. Daher sind folgende Punkte zu berücksichtigen.
Jede Technik ist nur so gut oder schlecht, wie sie von Menschen eingesetzt wird. Auch bei KI sind die Teams, die damit arbeiten, entscheidend für den Erfolg. Daher gilt es, sie nicht nur zu informieren und auszubilden, sondern auch aktiv in den Veränderungsprozess einzubinden. So erhalten sie einerseits hohen praktischen Mehrwert für tägliche Arbeitsprozesse und akzeptieren dadurch die neuen Tools. Andererseits besitzen sie dann die Fähigkeiten, KI-Lösungen gezielt einzusetzen und deren Ergebnisse kritisch zu bewerten. Dabei müssen Mitarbeitende als aktive Gestalter:innen wahrgenommen werden, damit KI kontinuierlich weiterentwickelt wird und nicht nach der Einführung im Status quo verharrt.
Dies ist gerade aus Sicherheitssicht relevant. Denn einmal vermittelte Praktiken können schon ein halbes Jahr später überholt sein. Einerseits entwickeln sich KI-basierte Attacken immer weiter, so dass Mitarbeitende auf neue Muster bei Phishing-Mails sowie Security-Teams auf neue Angriffstechniken achten sollten. Andererseits verändern sich auch die Tools, wodurch neue Funktionen zur Verfügung stehen, andere Ergebnisse angezeigt werden oder neue Prompting-Techniken nötig sind. Nur mit einem hohen Verständnis der KI-Technologien und ihrer Weiterentwicklung können Mitarbeitende und Security-Teams sie kontinuierlich auf optimale Weise und mit geringen Risiken nutzen.
Bei KI ist auch wichtig, dass sie keine Falschinformationen oder verzerrte Ergebnisse ausgibt. Hierfür müssen Unternehmen die Datenbasis beachten, mit der KI-Lösungen trainiert werden. Insbesondere der Umgang mit persönlichen oder sensiblen Daten ist dabei oft eine Herausforderung. Diese sollten keinesfalls in öffentlich verfügbare Tools eingegeben werden. Das können Klassifizierungen der Daten sowie entsprechende Zugriffs- und Nutzungsrechte verhindern. Eine Zero-Trust-Strategie sollte dabei für hohe Datensicherheit und strenge Governance sorgen. Hier kann KI wiederum bei der Datenklassifizierung und dem Informationsschutz helfen.
KI-Systeme müssen aber auch selbst sicher sein, da sie potenzielle Ziele für Cyberangriffe darstellen. Eine gute Security-Hygiene schützt Identitäten, Geräte und Anwendungen durch aktuelle Technologien. Die Konfigurationen sind aber regelmäßig zu prüfen und an neue Situationen anzupassen. Zum Beispiel können Mitarbeitende weiterhin auf Daten Zugriff haben, für die sie aktuell keine Rechte mehr besitzen sollten. Zudem ist zu klären, welche KI-Plattformen im Unternehmen erlaubt sind. Für diese Richtlinien und Risiken sollten Unternehmen eine Awareness bei den Mitarbeitenden schaffen, damit sie KI verantwortungsvoll nutzen.
Cyberkriminelle setzen zunehmend KI-Tools für massivere, häufigere und immer schnellere Angriffe ein. Dadurch sinken die Reaktionszeiten für Sicherheitsverantwortliche dramatisch. Gleichzeitig werden Social Engineering-Angriffe immer raffinierter, da Phishing-Mails mit Hilfe von KI individuell auf ihre Opfer abgestimmt werden. So steigt die Wahrscheinlichkeit, dass Mitarbeitende den Betrugsversuch nicht mehr erkennen und im Alltagsstress darauf hereinfallen.
In beiden Fällen kann KI auch für Schutzmaßnahmen eingesetzt werden – und muss sogar, um die Menge und Varianz der Angriffe zu bewältigen. KI-Lösungen lernen dabei die normalen Verhaltensweisen von Mitarbeitenden und Unternehmensprozessen. Bei Abweichungen schlagen sie Alarm und helfen somit, auch neuartige Angriffe aufzudecken. Zudem können sie die Masse an bestehenden Warnmeldungen bewerten und priorisieren, damit sich Security-Teams auf die wichtigsten Vorgänge konzentrieren. Bestenfalls wehren sie dann schon Angriffe ab, bevor Schäden entstehen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
4. KI verändert statischen zu proaktiven Security-Ansatz
Traditionelle statische Sicherheitslösungen basieren darauf, dass sie Malware und Angriffe mit Hilfe von Signaturen und Mustern erkennen. Bislang unbekannte Angriffe lassen sie jedoch meist durch. Dagegen können KI-Algorithmen und maschinelles Lernen proaktiv Anomalien und Bedrohungen in Echtzeit entdecken. Dies ermöglicht dynamische Ansätze und Tools, die wirksam schützen und dauerhaft auf dem neuesten Stand bleiben.
Die Integration von KI in die Cybersecurity-Strategie kann nur mit einem Gesamtansatz erfolgreich sein. Dieser schließt nicht nur Datenschutz und Sicherheit im Unternehmen selbst ein, sondern auch die Partner. So hat die Politik bereits erkannt, dass mangelnde IT-Security in einzelnen Unternehmen die gesamte Sicherheit globaler Lieferketten gefährden kann. Mit der NIS2-Richtlinie soll daher das Cybersicherheitsniveau in der gesamten EU erhöht werden. Das betrifft nicht nur Konzerne und kritische Infrastrukturen, sondern auch kleine und mittelständische Unternehmen. Denn jede erfolgreiche Attacke auf die Lieferkette kann sich auf hunderte Kunden und Partner auswirken.
Für den richtigen Einsatz von KI bleiben Menschen unverzichtbar. Diese benötigen jedoch klare Richtlinien, die schnell umsetzbar sind. Dazu dienen etwa Prompt-Books – eine Sammlung von Eingabeaufforderungen, die zum Beispiel speziell für sicherheitsbezogene Aufgaben entwickelt wurden. Diese funktionieren ähnlich wie Sicherheits-Playbooks und ermöglichen sofort einsatzbereite Workflows, um wiederkehrende Schritte, wie die Reaktion auf Vorfälle oder Ermittlungen, zu beschleunigen.
Darüber hinaus trägt der Mensch weiterhin die Verantwortung und muss kritische Entscheidungen selbst treffen. KI kann lediglich als Assistentin unterstützen, indem sie Informationen bereitstellt oder Routineaufgaben automatisiert. Die Kontrolle liegt stets beim Menschen, der sicherstellen muss, dass die Technologie im Einklang mit rechtlichen Standards eingesetzt wird und korrekte Ergebnisse liefert. Oder anders: KI ist immer nur ein Werkzeug, das menschliches Wissen und Urteilsvermögen ergänzt, aber nicht ersetzt.
Die Weiterentwicklung von KI wird sich auch 2025 fortsetzen. Daher müssen Unternehmen eine klare KI-Governance sowie eindeutige KI-Nutzungsrichtlinien besitzen. Dabei sind insbesondere folgende Fragen zu beantworten: Gibt es Vorgaben, welche KI-Tools eingesetzt werden dürfen? Wird die Nutzung von KI-Werkzeugen im Unternehmen aktiv gesteuert und überwacht? Gibt es verpflichtende Schulungen zum Umgang mit KI? Wurden mögliche rechtliche Risiken und Vorgaben gemäß dem EU AI Act überprüft? Nur wer diese Fragen geklärt hat und die oben genannten Punkte beachtet, kann in den kommenden Jahren KI sicher nutzen.
Über den Autor: Stefan Haffner ist Associate Partner & Head of Cyber Security bei Campana & Schott.