Gut informiert für mehr IT-Sicherheit ChatGPT als Mittäter bei Cyberangriffen?

Ein Gastbeitrag von Thorben Jändling Lesedauer: 5 min |

Anbieter zum Thema

Wie können böswillige Akteure Künstliche Intelligenz (KI), auch bekannt als Artificial Intelligence (AI), für Angriffe nutzen? Inwiefern müssen Verteidigungsstrategien angepasst werden? IT-Sicherheitsexperten testen die Möglichkeiten generativer KI-Modelle wie ChatGPT in einem Golden-Ticket-Angriff einzusetzen. Dabei handelt es sich um ein Szenario, bei dem die Angreifer sich weitgehend unbegrenzten Zugriff auf die Domäne des Zielunternehmens verschaffen.

Superintelligenzen oder starke KIs mögen unsere Zukunft sein – bis es aber so weit ist, liegt die Verantwortung bei uns: Wir müssen entscheiden, wie wir mit diesen Technologien umgehen.
Superintelligenzen oder starke KIs mögen unsere Zukunft sein – bis es aber so weit ist, liegt die Verantwortung bei uns: Wir müssen entscheiden, wie wir mit diesen Technologien umgehen.
(Bild: SVasco - stock.adobe.com)

Generative KI-Modelle werden seit den 1950er Jahren entwickelt. Mit Durchbrüchen im Deep Learning hat sich die Technologie jedoch erheblich weiterentwickelt, allein in den letzten fünf Jahren von Modellen mit mehreren Millionen auf mehr als 100 Billionen Parameter im neuesten Modell GPT-4. Die Größe dieser Large-Language-Modelle (LLM) wird durch KI-Beschleuniger erreicht, die enorme Mengen an Textdaten aus dem Internet verarbeiten können. Die zunehmende Ähnlichkeit mit menschlichen Fähigkeiten beunruhigt Sicherheitsexperten: Sie untersuchen, welche Auswirkungen diese Fortschritte in der KI auf die Cybersicherheit haben können.

Dabei sind folgende Fragen von Bedeutung:

  • Können böswillige Akteure KI-Technologien für erfolgreiche Angriffe nutzen?
  • Wie müssen Verteidigungsstrategien an KI-gesteuerte Angreifer angepasst werden?
  • Was sind die wahrscheinlichsten Szenarien?

Theorie und Praxis: KI für Cyberangriffe

Im Zeitalter generativer KI-Modelle ist die Besorgnis groß, was böswillige Akteure mit KI anrichten können. Angreifer nutzen KI-Modelle für Cyberangriffe, indem sie gefälschte Audio-, Video- und Bilddateien erstellen, um falsche Identitäten für Phishing, soziale Manipulation und Desinformation zu verwenden. Zahlreiche Dienste sind bereits in der Lage, Bild- und Tonaufnahmen von fiktiven Personen realistisch abzubilden. So setzen einige Unternehmen generative KI ein, um spezifische Personas herzustellen, die Merkmale ihrer Zielgruppen hinsichtlich Demografie oder Werteorientierung abbilden.

Phishing-E-Mails zu erstellen und Phishing-Köder zu versenden, sind unterschiedliche Vorgänge. KI-Modelle wie ChatGPT können komplexe Cyberangriffe zwar unterstützen, aber sie bisher noch nicht selbst durchführen. IT-Sicherheitsexperten haben getestet, wie weit Cyberkriminelle mit generativen KI-Modellen wie ChatGPT bei einem komplexen Manöver wie dem Golden-Ticket-Angriff kommen. Dafür nutzt das System Schwachstellen im Kerberos-Identitätsauthentifizierungsprotokoll aus, das für die Active-Directory-(AD)-Zugangsberechtigung verwendet wird.

Ein erfolgreicher Golden-Ticket-Angriff verläuft in fünf Phasen:

  • Erstzugriff: Wird in der Regel durch Phishing erreicht
  • Erkundung: Untersuchung und Sammlung von Informationen über die Domäne, zum Beispiel Domänenname, Domänensicherheitskennung und nützliche privilegierte Konten.
  • Zugriff auf Anmeldeinformationen: Nachdem ein Angreifer Zugriff auf den Domänencontroller erhalten hat, stiehlt er einen NTLM-Hash des Active Directory Key Distribution Service Accounts (KRBTGT), um ihn zu entschlüsseln.
  • Privilege Escalation: Mit dem Passwort für KRBTGT kann der Angreifer ein Kerberos Ticket Granting Ticket (TGT) erhalten.
  • Dauerhafter Zugriff: Das TGT verschafft dem Angreifer praktisch unendlichen Zugriff auf Ressourcen im Netzwerk, da er als legitimer Benutzer mit einem gültigen Ticket auftritt.

Für das Experiment nutzten die IT-Sicherheitsexperten von Elastic ChatGPT (basierend auf GPT-4). Die KI wurde gebeten, eine Phishing-E-Mail zu verfassen. Jedoch antwortete sie nur, dass sie als ethische und verantwortungsbewusste Technologie nicht dazu programmiert wurde, bösartige Inhalte wie Phishing-E-Mails zu erstellen.

Für das Experiment nutzten die IT-Sicherheitsexperten von Elastic ChatGPT (basierend auf GPT-4). Die KI wurde gebeten, eine Phishing-E-Mail zu verfassen.
Für das Experiment nutzten die IT-Sicherheitsexperten von Elastic ChatGPT (basierend auf GPT-4). Die KI wurde gebeten, eine Phishing-E-Mail zu verfassen.
(Bild: Elastic)

Trotz der Schutzmaßnahmen versuchten die Experten weiter, ChatGPT zu täuschen: Sie baten die KI, aus Schulungsgründen für die Mitarbeiter eine Phishing-E-Mail zu verfassen. Die KI generierte eine Antwort, allerdings ohne Inhalt, der für böswillige Zwecke verwendet werden konnte. Hier zeigte sich jedoch, dass eine geänderte Absicht oder harmlose Begründungen das Modell doch dazu brachten, schließlich eine Phishing-E-Mail zu schreiben.

Trotz der Schutzmaßnahmen versuchten die Experten weiter, ChatGPT zu täuschen: Sie baten die KI, aus Schulungsgründen für die Mitarbeiter eine Phishing-E-Mail zu verfassen.
Trotz der Schutzmaßnahmen versuchten die Experten weiter, ChatGPT zu täuschen: Sie baten die KI, aus Schulungsgründen für die Mitarbeiter eine Phishing-E-Mail zu verfassen.
(Bild: Elastic)

Die Experten überprüften auch, ob ChatGPT in der Lage ist, zu erklären, wie bestimmte Schritte der Erkundungsphase durchgeführt werden, zum Beispiel die Suche nach der Computer-Domain als einer der Schritte bei einem Golden-Ticket-Angriff.

Die Experten überprüften auch, ob ChatGPT in der Lage ist, zu erklären, wie bestimmte Schritte der Erkundungsphase durchgeführt werden...
Die Experten überprüften auch, ob ChatGPT in der Lage ist, zu erklären, wie bestimmte Schritte der Erkundungsphase durchgeführt werden...
(Bild: Elastic)

...zum Beispiel die Suche nach der Computer-Domain als einer der Schritte bei einem Golden-Ticket-Angriff.
...zum Beispiel die Suche nach der Computer-Domain als einer der Schritte bei einem Golden-Ticket-Angriff.
(Bild: Elastic)

Das Ergebnis: Generative Modelle wie ChatGPT sind sehr gut darin, Inhalte auf der Grundlage von Mustern zu erstellen, die sie aus den Daten gelernt haben, auf denen sie trainiert wurden. Während sie in einigen Fällen in der Lage sind zu erkennen, dass bestimmte Informationen in einem böswilligen Kontext verwendet werden könnten, versagen sie bei anderen.

Im nächsten Schritt fragten die Experten die KI, ob sie helfen könne, ein für den Angriff benötigtes Werkzeug zu verschleiern. ChatGPT betonte daraufhin nochmals, dass die KI nicht für böswillige Zwecke programmiert wurde:

Im nächsten Schritt fragten die Experten die KI, ob sie helfen könne, ein für den Angriff benötigtes Werkzeug zu verschleiern.
Im nächsten Schritt fragten die Experten die KI, ob sie helfen könne, ein für den Angriff benötigtes Werkzeug zu verschleiern.
(Bild: Elastic)

Beim Schreiben von Malware, der Entwicklung von Exploits oder der Erstellung von Skripten und Web-Shells war die KI kein erfolgreiches Instrument. Selbst nachdem der Schutz deaktiviert war, produzierte das Modell unbrauchbare Codes. Dennoch könnte sich dies in Zukunft aufgrund des raschen technologischen Fortschritts ändern.

KI: nützliches Instrument in den Händen der Verteidiger

Generative KI-Modelle wie GPT-4 haben großes Potenzial, das Verständnis für Sicherheitsereignisse zu verbessern und sie zu erklären. Durch den Zugriff auf institutionelles Wissen können sie bei verschiedenen wichtigen Aufgaben helfen, zum Beispiel bei der Schulung neuer Analysten, der Weiterentwicklung von Reaktionsprozessen, der Anleitung zur Host-Triage und der Interpretation von Ereignisabfolgen, um die zugrunde liegenden Ursachen zu erklären.

Es ist jedoch wichtig zu betonen, dass generative KI den menschlichen Teil unserer Sicherheitsgleichung nicht vollständig ersetzen kann. Dennoch wird diese Technologie wahrscheinlich dazu beitragen, dass jeder Einzelne in einem Sicherheitsteam besser informiert ist und selbstbewusster agiert.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Fazit

Dieses Experiment zeigt, dass aktuelle generative Modelle Angreifer durchaus unterstützen können. Es gibt jedoch mehrere Gründe, warum diese Modelle vermutlich nicht in der Lage sein werden, ausgefeilte Angriffe von Anfang bis Ende durchzuführen:

  • Begrenzte Autonomie: Die Modelle können im Gegensatz zu einem menschlichen Angreifer nicht selbstständig planen und Strategien entwickeln. Wie die generierten Ergebnisse verwendet werden, liegt jedoch in der Verantwortung der Anwender.
  • Fehlende Absicht: KI-Modelle haben keine eigene Absicht oder Motivation. Sie handeln auf der Grundlage menschlicher Präferenzen und spezifischer Aufgaben, für die sie trainiert wurden.
  • Begrenzter Fokus: Generative Modelle lernen komplexe interne Darstellungen ausschließlich aus Daten, auf denen sie trainiert wurden. Sie verfügen nicht über die vielfältigen Fähigkeiten, die für anspruchsvolle Cyberangriffe erforderlich sind.

Letztlich ist die KI eine Technologie, die den Menschen unterstützt. Wie bei jeder Erfindung liegt es am Menschen, ob er sie zum Guten oder zum Bösen einsetzt. Es gibt bereits Präzedenzfälle für Dual-Use-Werkzeuge, die zwei oder mehr mögliche Anwendungsbereiche haben, in der Sicherheitswelt selbst:

  • Mimikatz wurde ursprünglich entwickelt, um Schwachstellen im Windows-Authentifizierungsprozess aufzudecken. Angreifer können es verwenden, um Klartextpasswörter, Hashes und Kerberos-Tickets aus dem Speicher zu extrahieren.
  • Metasploit ist ein Penetration Test Framework, mit dem Netzwerke und Systeme auf Schwachstellen getestet werden. Angreifer können damit Schwachstellen ausnutzen und Payloads platzieren.

Superintelligenzen oder starke KIs mögen unsere Zukunft sein – bis es aber so weit ist, liegt die Verantwortung bei uns: Wir müssen entscheiden, wie wir mit diesen Technologien umgehen.

Über den Autor: Thorben Jändling ist Principal Solutions Architect in der Global Security Specialist Group bei Elastic.

(ID:49777174)