Security-Experten kämpfen gegen wachsende Bedrohungen bei zeitgleichem Fachkräftemangel an. Abhilfe schaffen soll KI, doch bei der Entwicklung und Implementierung von Lösungen sind die betroffenen Teams kaum einbezogen.
Fast die Hälfte der Unternehmen schließt Security-Teams von Entwicklung und Implementierung von KI-Lösungen aus, was zu Risiken führen kann.
(Bild: Dall-E / KI-generiert)
61 Prozent der europäischen Cybersecurity-Experten sind der Meinung, dass das Cybersecurity-Team ihres Unternehmens unterbesetzt ist. Mehr als die Hälfte (52 Prozent) glaubt zudem, dass das Cybersecurity-Budget ihres Unternehmens unterfinanziert ist. Dies geht aus dem neuen Report „State of Cybersecurity 2024“ von Isaca hervor, einem Berufsverband, der sich auf IT-Governance, Informationssicherheit, Risikomanagement und IT-Audits spezialisiert hat. Die Ergebnisse zeigen deutlich: Cybersecurity-Teams stehen unter Druck. Für die Studie nahmen 39.000 Isaca-Mitglieder und Nicht-Mitglieder an einer weltweiten Online-Umfrage teil. Teilgenommen haben Personen, die eine CISM-Zertifizierung besitzen oder „Sicherheit“ in ihrer Berufsbezeichnung führen.
Zu wenig Personal und zu wenig Finanzierung – das wirkt sich auf das Wohlbefinden in den Teams aus. 68 Prozent der Befragten sind der Meinung, dass ihre Aufgaben heute stressiger sind als vor fünf Jahren, und 79 Prozent führen dies auf die zunehmend komplexe Bedrohungslandschaft zurück. Zwei von fünf (41 Prozent) der Befragten gaben an, dass sie im Vergleich zu vor einem Jahr mehr Cyberangriffe erleben, und 29 Prozent denken, dass die Zahl gleichgeblieben ist.
Die Befragten glauben jedoch nicht, dass die Zahl der Angriffe in absehbarer Zeit abnehmen wird. Mehr als die Hälfte (58 Prozent) hält es für wahrscheinlich, dass ihr Unternehmen im nächsten Jahr von einem Cyberangriff betroffen sein wird. Dieser Anteil ist im Vergleich zu 2023 um sechs Prozentpunkte (52 Prozent) gestiegen. Deshalb müsse Isaca zufolge mehr in die richtigen Mitarbeitenden und Fähigkeiten investiert werden, um sich auf die Angriffe vorzubereiten und auf sie zu reagieren, um einen langfristigen Schaden zu begrenzen.
Trotz des Bedarfs an qualifizierten Teams für den Schutz von Unternehmen gaben 19 Prozent der Befragten an, dass in ihrem Unternehmen offene Stellen für Berufseinsteiger unbesetzt sind. 48 Prozent haben offene Stellen, die Erfahrung, einen Hochschulabschluss oder andere Qualifikationen erfordern. Diese Zahlen sind laut Isaca seit 2023 jeweils nur um wenige Prozentpunkte gesunken – von 22 auf 19 Prozent und 53 auf 48 Prozent.
52 Prozent der Befragten gaben an, dass es den heutigen Cybersecurity-Fachleuten am meisten an Soft Skills mangelt. Dabei sind 54 Prozent der Meinung, dass Kommunikationsfähigkeiten am wichtigsten sind, gefolgt von Problemlösung (53 Prozent) und kritischem Denken (48 Prozent). „Die Cybersicherheitsbranche wird massiv von einer Vielfalt von Menschen profitieren – jeder mit unterschiedlichen Fähigkeiten, Erfahrungen und Perspektiven“, sagt Chris Dimitriadis, Chief Global Strategy Officer bei Isaca. „Dies ist der Schlüssel zur Schließung der Qualifikationslücke. Sobald neue Talente in die Branche eintreten, können Unternehmen neue Mitarbeitende mit Cyber-Zertifizierungen und -Qualifikationen ausbilden und weiterqualifizieren.“
„Angesichts des Personalmangels im Bereich der Cyber-Sicherheit und der zunehmenden Belastung der Fachkräfte durch eine komplexe Gefahrenlandschaft lohnt es sich, das Potenzial von KI zur Automatisierung und Rationalisierung bestimmter Aufgaben sowie zur Verringerung der Arbeitsbelastung auszuloten“, sagt Jon Brandt, Isaca Director, Professional Practices and Innovation. Bisher setzen Sicherheitsteams KI hauptsächlich für die automatisierte Gefahrenerkennung/-reaktion (28 Prozent), Endgerätesicherheit (27 Prozent), Automatisierung routinemäßiger Sicherheitsaufgaben (24 Prozent) und Betrugserkennung (13 Prozent) ein. „Verantwortliche für Cyber-Sicherheit dürfen sich nicht nur auf die Rolle von KI bei Sicherheitsoperationen konzentrieren. Es ist unerlässlich, dass die Sicherheitsfunktion in die Entwicklung, das Onboarding und die Implementierung jeder KI-Lösung in ihrem Unternehmen einbezogen wird – auch bei bestehenden Produkten, die später mit KI-Funktionen ausgestattet werden.“
Doch genau hier drückt in vielen Security-Teams der Schuh: Nur 35 Prozent der Experten oder Teams für Cyber-Sicherheit sind an der Entwicklung von Richtlinien für den Einsatz von KI-Technologie in ihrem Unternehmen beteiligt. Fast die Hälfte (45 Prozent) gab an, nicht bei der Entwicklung, Einführung oder Implementierung von KI-Lösungen mitzuwirken. Unzureichend gesicherte KI-Anwendungen könnten jedoch gegen Datenschutzgesetze oder Sicherheitsstandards verstoßen und rechtliche Konsequenzen nach sich ziehen. Zudem können KI-Systeme, die vorher nicht durch die Hände von Security-Fachleuten und entsprechenden Audits gehen, Sicherheitslücken aufweisen, die zu Risiken für das gesamte Unternehmen werden können. All dies kann sich zudem negativ auf die Außenwahrnehmung durch Kunden und Partner auswirken.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Um diese Lücke zu schließen, hat Isaca Ressourcen zum Thema KI entwickelt, um Fachleute für Cyber-Sicherheit und andere Experten im Bereich Digital Trust beim Umgang mit dieser transformativen Technologie zu unterstützen:
White Paper zum KI-Gesetz der EU: Unternehmen sollten den Zeitplan und die Maßnahmen in Zusammenhang mit dem KI-Gesetz der EU kennen, das Anforderungen an bestimmte in der Europäischen Union eingesetzte KI-Systeme festlegt und bestimmte Verwendungen von KI verbietet – die meisten davon ab dem 2. August 2026. In dem White Paper „Understanding the EU AI Act: Requirements and Next Steps“ erläutert Isaca wichtige Schritte, darunter die Einführung von Audits und Rückverfolgbarkeit, die Anpassung bestehender Cyber-Sicherheits- und Datenschutzrichtlinien und -programme. Ebenso angeraten wird die Ernennung eines KI-Beauftragten, der für die Überwachung der eingesetzten KI-Tools und des breiteren KI-Ansatzes des Unternehmens verantwortlich ist.
Authentifizierung in der Deepfake-Ära: In einem weiteren White Paper, „Examining Authentication in the Deepfake Era“, geht Isaca auf die Authentifizierung ein. Unternehmen sollten sich den Risiken KI-gesteuerter adaptiver Authentifizierung bewusst sein. Denn während KI die Sicherheit zwar erhöhen kann, können KI-Systeme auch durch feindliche Angriffe manipuliert werden. Zudem sind sie anfällig für Verzerrungen in KI-Algorithmen und können ethische und datenschutzrechtliche Bedenken aufwerfen. Andere Entwicklungen, einschließlich der Forschung zur Integration von KI mit Quantencomputern, die sich auf die Authentifizierung im Bereich der Cybersicherheit auswirken könnten, sollten laut dem White Paper beobachtet werden.
Überlegungen zur KI-Richtlinie: Des Weiteren veröffentlichte Isaca mit dem eBook „Considerations for Implementing a Gernative Artificial Intelligence Policy“ einen Leitfaden für Unternehmen, die eine Richtlinie für generative KI einführen möchten. Isaca erörtert in dieser Veröffentlichung, welche Fragen sich Unternehmen vorab stellen sollten, um alle wichtigen Aspekte abzudecken. Dazu gehören: „Wer ist vom Geltungsbereich der Richtlinie betroffen?“, „Wie verhält man sich richtig und was sind akzeptable Nutzungsbedingungen?“ und „Wie stellt Ihre Organisation sicher, dass die rechtlichen Vorgaben und Compliance-Anforderungen erfüllt werden?“.
Über ISACA: ISACA steht für „Information Systems Audit and Control Association“. Mit über 180.000 Mitgliedern in 188 Ländern bietet ISACA eine Plattform für IT-Security-Fachleute. Der Verband unterstützt seine Mitglieder durch Schulungen, Zertifizierungen und den Austausch von Best Practices.