Trend Micro State of AI Security Report 2025 KI-Risiken wachsen, die Sicherheit muss mitwachsen

Quelle: Pressemitteilung 3 min Lesedauer

Anbieter zum Thema

KI beschleunigt Angriffe und vergrößert die Angriffsfläche von Unternehmen. Ein neuer Report von Trend Micro verbindet Erkenntnisse von Security-Forschern mit Erkenntnissen zu LLM Manipulationen, offenen KI-Instanzen und Risiken privater 5G Netze und zeigt, wie Härtung und saubere Konfigurationen Kompromittierungen verhindern.

KI verändert die Bedrohungslandschaft in Umfang, Geschwindigkeit und Raffinesse grundlegend. Unternehmen stehen vor der Herausforderung, nicht nur technologische Potenziale, sondern auch die damit verbundenen Risiken zu beherrschen.(Bild: ©  ImageFlow - stock.adobe.com)
KI verändert die Bedrohungslandschaft in Umfang, Geschwindigkeit und Raffinesse grundlegend. Unternehmen stehen vor der Herausforderung, nicht nur technologische Potenziale, sondern auch die damit verbundenen Risiken zu beherrschen.
(Bild: © ImageFlow - stock.adobe.com)

Da 93 Prozent der Sicherheitsverantwortlichen sich auf tägliche KI-Angriffe im Jahr 2025 einstellen, sind Entscheidungsträger aller Branchen gezwungen, ihre Arbeitsabläufe und Sicherheitsstrategien zu überdenken: Laut dem Global Cybersecurity Outlook Report des Weltwirtschaftsforums gehen 66 Prozent der befragten Unternehmen davon aus, dass KI in diesem Jahr den größten Einfluss auf die Cybersicherheit haben wird. Der Trend Micro State of AI Security Report 1HJ 2025 bietet eine umfassende Analyse der Versprechen und Gefahren beim Einsatz von Künstlicher Intelligenz – basierend auf den ersten KI-spezifischen Erkenntnissen aus dem Hacking-Wettbewerb Pwn2Own und aktueller Forschung zu Bedrohungen, Angreifermethoden und Schutzmaßnahmen.

Agentenbasierte KI: Potenzial und Risiko zugleich

Agentenbasierte KI-Systeme gelten als nächste Evolutionsstufe autonomer Technologie. Echte KI-Agenten sind zielorientiert, kontextbewusst und lernfähig. Doch viele aktuelle Angebote am Markt bleiben hinter diesen Erwartungen zurück. Gleichzeitig wächst durch ihren Einsatz die Komplexität und Angriffsfläche. Angreifer nutzen Fehlkonfigurationen, offene APIs oder ungesicherte Datenbanken, um Systeme zu kompromittieren oder Zugriff auf sensible Daten zu erhalten. Trend Micro identifizierte zehntausende öffentlich erreichbare Instanzen, darunter offene Redis- und ChromaDB-Systeme mit bekannten Schwachstellen. Gleichzeitig zeigte sich im Rahmen des Pwn2Own Berlin, dass viele KI-Systeme typische Schwachstellen aufweisen, wie sie auch in anderer Software zu finden sind.

Unsichtbare Manipulation: Angriffe auf LLMs

Auch LLMs (Large Language Models) geraten zunehmend ins Visier. Neben simplen Techniken wie „Do Anything Now“ oder „Ignore previous instructions“ setzen Angreifer verstärkt auf raffinierte Methoden wie „Prompt Leakage“, bei denen Sicherheitsbarrieren gezielt unterwandert werden. Besonders tückisch sind unsichtbare Prompt-Injections, bei denen bösartige Eingaben als Unicode-Zeichen verschleiert werden. Diese sind für Nutzer nicht sichtbar, können jedoch das Verhalten eines Modells nachhaltig beeinflussen – oft in Kombination mit anderen Angriffstechniken.

Fehlkonfigurierte Infrastruktur als Einfallstor

Ein zentrales Problem bleibt die unsachgemäß geschützte KI-Infrastruktur. Viele Unternehmen verlassen sich auf Open-Source-Komponenten, die nicht regelmäßig gewartet oder abgesichert werden. Diese Nachlässigkeit erhöht das Risiko, dass Angreifer Schwachstellen systematisch ausnutzen. Auch bei privaten 5G-Netzen bestehen Risiken: Nur ein kleiner Teil der Unternehmen verfügt über ein dediziertes OT/CT-Sicherheitsteam oder angemessene Budgets für deren Schutz, obwohl 86 Prozent den Einsatz solcher Netze planen oder evaluieren.

KI-Einsatz durch Cyberkriminelle

Auch die „böse Seite“ setzt zunehmen auf KI: Besonders Deepfakes und sogenannte bösartige digitale Zwillinge („malicious digital twins“) entwickeln sich zu ernstzunehmenden Bedrohungen. 36 Prozent der Verbraucher berichten bereits von Betrugsversuchen mit Deepfake-Inhalten. Cyberkriminelle kombinieren KI-generierte Avatare mit gestohlenen biometrischen und persönlichen Daten, um täuschend echte Identitäten zu erstellen. Diese dienen als Grundlage für Social-Engineering-Angriffe, Business E-Mail Compromise (BEC), Romance Scams oder gefälschte Inhalte in sozialen Netzwerken. Statt spezialisierter Underground-Dienste nutzen Täter zunehmend frei verfügbare Tools zur Erstellung und Verbreitung solcher Inhalte.

Globalisierung durch KI: Neue Sprachräume im Visier

Russischsprachige Cybergruppen setzen KI zur automatisierten Übersetzung und kulturellen Anpassung ein. Das ermöglicht glaubhaftere Köder und die Erschließung neuer Zielgruppen. In Kombination mit Techniken wie doppelter Erpressung bei Ransomware können sie digitale Identitäten erzeugen, um etwa Kryptowährungsbetrug und Datenerpressung auszuweiten.

Fazit: Sicherheit muss mit KI mitwachsen

KI verändert die Bedrohungslandschaft in Umfang, Geschwindigkeit und Raffinesse grundlegend. Unternehmen stehen vor der Herausforderung, nicht nur technologische Potenziale, sondern auch die damit verbundenen Risiken zu beherrschen. Wer KI nicht nur als Risiko, sondern auch als Verteidigungsressource begreift, kann seine Sicherheitsstrategie zukunftssicher gestalten und der Geschwindigkeit der Angreifer etwas entgegensetzen.

(ID:50514608)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung