KI als doppelschneidiges Schwert in der Cybersicherheit Wie KI Cyberangriffe beschleunigt und Unternehmen sich schützen können

Ein Gastbeitrag von Julian Iavarone 4 min Lesedauer

Anbieter zum Thema

Künstliche Intelligenz verändert die Spielregeln der Cybersicherheit. Sie beschleunigt Angriffe, senkt Einstiegshürden und ermöglicht Betrugs­maschen in nie gekannter Präzision. Unternehmen müssen ihre Schutz­strategien neu denken, denn KI ist längst Werkzeug und Waffe zugleich.

Cyberkriminelle setzen zunehmend KI-gestützte Bots und Sprachmodelle ein. Unternehmen müssen mit intelligenter Bedrohungserkennung und adaptiven Schutzmechanismen reagieren.(Bild: ©  rufous - stock.adobe.com)
Cyberkriminelle setzen zunehmend KI-gestützte Bots und Sprachmodelle ein. Unternehmen müssen mit intelligenter Bedrohungserkennung und adaptiven Schutzmechanismen reagieren.
(Bild: © rufous - stock.adobe.com)

Künstliche Intelligenz kann wie jedes Werkzeug für positive oder böswillige Zwecke genutzt werden. Cyberkriminelle nutzen sie, um die Geschwindigkeit und das Ausmaß ihrer Angriffe zu erhöhen. Von der Automatisierung überzeugender Phishing-Betrügereien bis hin zum Einsatz von Bots, um Systeme zu überlasten, Lagerbestände aufzukaufen oder sensible Daten zu sammeln – diese KI-gesteuerten Bedrohungen sind nicht nur immer schwieriger zu erkennen, sondern auch immer einfacher auszuführen. Unternehmen jeder Größe sollten daher aufmerksam sein und Abwehrmaßnahmen ergreifen.

Für Unternehmen, die bereits mit komplexen Cyberbedrohungen zu kämpfen haben, bedeutet dieser neue Einsatz von KI: Sie hilft nicht nur Unternehmen, sondern erleichtert auch Cyberkriminalität in großem Stil.

Der Aufstieg maschinengesteuerter Cyberkriminalität

Dank KI und insbesondere großen Sprachmodellen müssen Angreifer nicht einmal mehr programmieren können, um ihre Pläne umzusetzen. Solange sie wissen, wie sie ein LLM richtig manipulieren, können sie damit überzeugende Betrugsmaschen entwickeln, Bot-Angriffe automatisieren und ihre Vorgehensweise viel schneller als bisher weiterentwickeln. Was früher Tage oder Wochen gedauert hat, kann jetzt in wenigen Minuten erledigt werden.

Fortschrittliche Tools wie ChatGPT, ByteSpider Bot, WormGPT, ClaudeBot und andere verändern die Art und Weise, wie Angriffe durchgeführt werden. Laut dem Thales Bad Bot Report ist ByteSpider Bot allein für 54 Prozent aller KI-gestützten Angriffe verantwortlich. Weitere bedeutende Faktoren sind AppleBot mit 26 Prozent, ClaudeBot mit 13 Prozent und ChatGPT User Bot mit 6 Prozent. Angreifer werden immer geschickter im Umgang mit KI und können so eine Vielzahl von Cyber-Bedrohungen ausführen, die von DDoS-Angriffen über die Ausnutzung benutzerdefinierter Regeln bis hin zu API-Verstößen reichen.

Selbst Tools, die ursprünglich für harmlose Aufgaben entwickelt wurden, wie beispielsweise das Web-Crawling von ByteSpider, werden gekapert und missbraucht. Angreifer können damit Websites nach sensiblen Informationen wie Preisen, Benutzerdaten und proprietären Inhalten durchsuchen. Diese Informationen können im Anschluss zum Trainieren von KI-Modellen und zur Anpassung zukünftiger Angriffe verwendet werden. In einigen Fällen helfen diese Tools Angreifern auch dabei, Abwehrmaßnahmen zurückzuentwickeln und Schwachstellen in der IT-Infrastruktur eines Unternehmens zu finden.

Bösartige Bots

Was diese KI-gestützten Angriffe besonders gefährlich macht, ist ihre Tarnung. Da viele der Bots von bekannten Entitäten stammen oder das Verhalten legitimer menschlicher Benutzer imitieren können, bleiben sie oft von herkömmlichen Sicherheitssystemen unentdeckt. Der aktuelle Bad Bot Report hat ergeben, dass der automatisierte Bot-Traffic zum ersten Mal den von Menschen generierten Traffic übertroffen hat und im Jahr 2024 51 Prozent des gesamten Web-Traffics ausmacht. Unternehmen, die sich auf veraltete Bedrohungsinformationen verlassen, lassen möglicherweise unwissentlich bösartige Bots zu, da diese wie vertrauenswürdige Webcrawler aussehen.

Viele Bots erfüllen nützliche Zwecke, wie das Crawlen des Internets, um sicherzustellen, dass Suchmaschinenergebnisse stets aktuell sind, sowie das Sammeln von Daten zum Trainieren von KI-Modellen oder eine Vielzahl anderer Testanwendungen. Hacker haben jedoch begonnen, sich als diese harmlosen Bots auszugeben, um grundlegende Sicherheitsvorkehrungen zu umgehen. Die eigentliche Herausforderung besteht darin, herauszufinden, was ein Bot wirklich tut. Sammelt er nur Daten für legitime KI-Zwecke oder spioniert er heimlich zur Vorbereitung eines Phishing-Angriffs. Selbst wenn Bots nur Daten einsammeln, belasten sie dennoch die Bandbreite und die IT-Ressourcen, was ein Unternehmen verhindern möchte. Letztendlich können Unternehmen ohne detaillierte Analysen und aktuelle Informationen zu Bedrohungen oft keine Gewissheit haben.

Was Unternehmen zum Schutz tun können

Organisationen müssen veraltete Sicherheitstools, die echte KI-Bots nicht von gefälschten unterscheiden können, in Rente schicken. In der sich schnell verändernden Bedrohungslandschaft ist es unerlässlich, einen proaktiven und anpassungsfähigen Ansatz zu verfolgen und fortschrittliche Bot-Erkennung und Verhaltensanalyse als Teil einer umfassenden Suite von Cybersicherheitstools einzusetzen, um geschützt und widerstandsfähig zu bleiben. Zu den Maßnahmen, die Sicherheitsteams ergreifen können, gehören:

  • 1. Hotspots finden und priorisieren: Unternehmen müssen die Bereiche ihrer Website identifizieren, die Bot-Traffic anziehen. Seiten für Produkteinführungen, Anmeldeportale, Checkout-Formulare und Seiten mit Geschenkkarten oder exklusiven Angeboten sind gute Ausgangspunkte für die Bewertung risikoreicher Hotspots.
  • 2. MFA einführen und die Sicherheit von Anmeldedaten verbessern: Unternehmen sollten bei Anmelde- und Verwaltungsportalen eine phishing-resistente MFA einsetzen. Sicherheitsteams müssen Credential Stuffing und Carding verhindern, indem sie Credential Intelligence integrieren und kompromittierte Anmeldedaten ablehnen.
  • 3. Intelligente Bot-Abwehrmaßnahmen und Traffic-Kontrollen implementieren: Sicherheitsteams sollten KI-gesteuerte Systeme nutzen, um Bots mit auffälligem Verhalten zu finden. Sie sollten flexible Ratenbegrenzungen, verhaltensorientierte CAPTCHAs und anomaliebasierte Traffic-Analysen anwenden, um ungewöhnliche Aktivitäten zu verwalten und gleichzeitig nahtlose Benutzerinteraktionen zu gewährleisten.
  • 4. Adaptive Bot-Erkennung und Ratenbegrenzungen einsetzen: KI-gestützte Tools sollten eingesetzt werden, um auffällige Bots in Echtzeit zu erkennen. Sicherheitsteams sollten dynamische Ratenbegrenzungen, adaptive CAPTCHAs und die Erkennung von Traffic-Anomalien einsetzen, sodass verdächtiges Verhalten eingedämmt werden kann, ohne die Benutzererfahrung einzuschränken.
  • 5. Regelmäßige Bedrohungsüberwachung und proaktive Tests durchführen:Sicherheitsteams müssen eine Basislinie für normale fehlgeschlagene Anmeldeaktivitäten festlegen und auf Unregelmäßigkeiten oder plötzliche Spitzen achten. Darüber hinaus sollten sie Lösungen zur Echtzeit-Bot-Überwachung und eigene Systeme regelmäßig mit simulierten Angriffen überprüfen.

Fazit

KI ist nicht nur ein potenzielles Zukunftsproblem für die Cybersicherheit, sondern eine reale und aktive Bedrohung. Angreifer werden immer raffinierter und die Tools sind immer leichter zugänglich. Unternehmen müssen davon ausgehen, dass KI-gestützte Angriffe nicht eine Frage des Ob, sondern des Wann sind. Cybersicherheit ist heute ein Wettlauf zwischen KI für die Offensive und KI für die Defensive. Nur durch die Förderung von Innovationen, die Stärkung der Transparenz und eine Mentalität der ständigen Wachsamkeit sind Unternehmen in der Lage, dieser wachsenden Bedrohung einen Schritt voraus zu sein.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Über den Autor: Julian Iavarone ist Senior Sales Engineer für die DACH-Region bei Thales.

(ID:50595707)