Die Entwicklungen in der künstlichen Intelligenz (KI) sind sehr spannend. Viele Nutzer testen Apps wie ChatGPT oder Bard. Manche zum Spaß, andere, um ihre Arbeit langfristig effizienter zu machen. Immer mehr Unternehmen integrieren KI-basierte Chatbots und Assistenten in ihre Produkte und Prozesse. Dabei zeigt sich, dass man KI dazu verleiten kann, sensible Informationen weiterzugeben und so ernsthafte Sicherheitslücken zu schaffen.
Künstliche Intelligenz verspricht viele Verbesserungen bei Arbeitsprozessen, die damit einhergehenden Risiken darf man aber nicht aus den Augen verlieren.
(Bild: sdecoret - stock.adobe.com)
Die Notwendigkeit, den Einsatz von KI zu regeln, ist daher nicht nur mit ethischen und rechtlichen Aspekten verbunden, sondern zunehmend auch eine Frage der Cybersicherheit. Dass KI-Sicherheitsrisiken ernst genommen werden müssen, haben einige der weltweit größten Wirtschafts-, Finanz- und Rechtsunternehmen bereits erkannt und die interne Nutzung von ChatGPT eingeschränkt oder sogar verboten.
Chatbots lassen sich dazu verleiten, sensible Daten offenzulegen
KI-basierte Chatbots wie ChatGPT und Chat-Assistenten auf Webseiten sammeln nicht nur automatisch die persönlichen Daten, die die Nutzer ihnen mitteilen, sondern auch Informationen über ihre Zugangsgeräte, ihre Standorte und sogar die Aktivitäten in sozialen Medien. Gemäß der Datenschutzerklärung, der die Nutzer bei der Anwendung von ChatGPT zustimmen, verpflichtet sich der Eigentümer, die Daten zu schützen, ohne sie an Dritte weiterzugeben. Trotzdem dürfen die Informationen zum Beispiel für individualisierte Werbung verwendet werden.
Was viele Nutzer nicht wissen ist, dass Chatbots keine Datenschutzmechanismen wie Verschlüsselung, Data Loss Prevention, Zugangsbeschränkungen und -logs bieten und damit Cyberverletzungen Tür und Tor öffnen können. Und genau das ist die große Schwachstelle, die Hacker in letzter Zeit verstärkt ausnutzen. Das derzeitige Niveau der Datensicherheit von Chatbots ist sowohl für die Endnutzer als auch für Unternehmen, die sie in ihre Services integrieren, höchst unzureichend. Niemand sollte daher vertrauliche Informationen in KI-Assistenten oder Chats eingeben.
Wenn Chatbots direkt nach persönlichen Daten oder vertraulichen Geschäftsinformationen gefragt werden, werden sie natürlich keine Antwort geben. Aber durch geschickte Manipulation der Suchanfrage und eine ausgeklügelte Formulierung können Hacker alle Arten von sensiblen Informationen extrahieren. Dazu gehören Kontakt- und Standortdaten, Präferenzen, Geschäftsverbindungen und -partner und sogar Benutzerdaten sowie Passwörter.
Bewaffnet mit diesen Einblicken können Kriminelle eine Unmenge von hochgradig personalisierten und gezielten Angriffen auf Einzelpersonen und Unternehmen durchführen. Bei diesen Attacken kann es sich um Phishing-Kampagnen handeln, die auf Fake-Websites locken, um Ransomware und maßgeschneiderten bösartigen Code; sowie um Account-Impersonation oder -Übernahme, die oft zu Business E-Mail Compromise führt.
Wie kann KI für die Erstellung äußerst wirksamer Cyberangriffe genutzt werden?
1. Ransomware, Malware und Spam
ChatGPT wird von vielen Entwicklern zum Schreiben von Code verwendet. Selbst Hacker haben einen Weg gefunden, die Guardrails, also die Kontrollmechanismen, so zu manipulieren, dass ihre Schadcodeanfragen nicht als solche erkannt werden. Experten schätzen, dass ChatGPT das Potenzial hat, unerkennbaren Schadcode zu schreiben, der Code Injections und Mutationen ermöglichen kann.
Der KI-generierte Schadcode spart Zeit und reduziert den Aufwand. Damit verschafft er auch unerfahrenen Hackern einen schnellen Zugang zu einem leistungsfähigen Malware-Code. Spezialisten zufolge ist ChatGPT in der Lage, einen Ransomware-Code zu erstellen, der nicht nur einen Teil, sondern das gesamte System eines Unternehmens verschlüsseln kann. Außerdem lassen sich Spam-Kampagnen mit Hilfe von KI zur Verbesserung des Arbeitsablaufs und zur Optimierung der Texterstellung effizienter als je zuvor durchführen.Auch KI-basierte virtuelle Assistenten sind nicht von Missbrauch verschont. Sie werden durch indirekte Prompt-Injektion manipuliert, bei der das Verhalten der KI mit Hilfe eines von Hackern auf der Website versteckten Textes geändert wird. Auf diese Weise kann die Datenschutzrichtlinie des Assistenten umgangen werden, sodass er die Weitergabe sensibler Daten zulässt.
2. Phishing-Angriffe
Einer der wichtigsten Erfolgsfaktoren eines Phishing-Angriffs ist seine Personalisierung und Glaubwürdigkeit. Gegenwärtig erkennt man eine Phishing-E-Mail am besten an der schlechten Grammatik und Zeichensetzung, der seltsamen Wortwahl, den fehlenden Haftungsausschlüssen und Fußzeilen sowie der oft komischen Absenderadresse. Mit Hilfe von KI generieren Kriminelle saubere E-Mails, die schlüssig und fehlerfrei geschrieben sind und die Sprachwahl eines Profis – z. B. eines Bankangestellten oder Kundenbetreuers – perfekt imitieren. Um das Phishing weiter zu verfeinern und zu personalisieren, bringen die Hacker das Social Engineering auf ein neues Level, indem sie von der KI ermittelte private Details hinzufügen, um die Glaubwürdigkeit zu erhöhen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Inzwischen gibt es bereits eine Art von Phishing-Angriffen, die so genannten ChatGPT-Angriffe, deren Ziel es ist, die Opfer zur Preisgabe ihrer Zugangs- oder persönlichen Daten zu verleiten. So erstellen Hacker beispielsweise ein falsches Kundensupport-Konto auf einer beliebten Chat-Plattform und nehmen über dieses Kontakt zu den Opfern auf, um ihnen Hilfe bei einem Problem anzubieten. Dann leiten sie das Opfer auf eine bösartige Website weiter, die wiederum die Anmeldedaten erfasst. Auf diese Weise verschaffen sich die Hacker leichten Zugang.
3. Identitätsmissbrauch und Kontokaperung
Je mehr Informationen die KI über Webseiten, Social-Media-Profile und -Posts, Chats sowie Online-Verhalten sammelt, desto authentischer kann eine böswillig imitierte E-Mail aussehen. So kann ein Mitarbeiter eine E-Mail von der üblichen Kontaktperson eines Partnerunternehmens erhalten, in der eine Geldüberweisung für ein Ereignis angefordert wird, das tatsächlich stattgefunden hat.
Mit der gleichen Leichtigkeit, mit der ChatGPT Text erzeugen kann, kann es auch die Stimme und den Ausdruck einer Person imitieren. So wird es zum Kinderspiel, einen hochrangigen Manager zu imitieren. Dies geschieht dann zum Beispiel, um eine E-Mail oder eine Chat-/Sprachnachricht an die Finanzabteilung zu senden, in der eine Zahlung gefordert oder um vertrauliche Daten gebeten wird. Im Gegensatz zur Imitation ist das Account-Hijacking eine echte Übernahme des E-Mail-Kontos, die wiederum von Hackern genutzt wird, um an Insider-Informationen zu gelangen oder bösartige Aktionen auszulösen.
4. Business E-Mail Compromise
Die oben beschriebenen Angriffe sind häufig Teil einer Business E-Mail Compromise (BEC), deren Zielpersonen meist Führungskräfte sind. Sie werden daher auch Whaling-Angriffe genannt. Aufgrund der Muster, die normale BECs aufweisen, können sie von Anti-Malware leicht erkannt werden. Die Raffinesse und der Grad der Personalisierung eines KI-basierten BECs machen ihre Erkennung jedoch deutlich schwieriger.
So schützen Sie das Unternehmen vor KI-basierten Cyberangriffen
Eine hundertprozentige Prävention von KI-basierten Cyberangriffen ist kaum möglich, aber das Zusammenspiel starker Sicherheitsmaßnahmen sowie Awareness Trainings gewährleistet für die meisten Unternehmen einen optimalen Schutz. Für die eingehende Kommunikation sind Firewalls und moderne Virenschutzprogramme eine absolut unverzichtbare Grundausstattung, ergänzt durch starke Passwörter, Multi-Faktor-Authentifizierung und Zugangskontrolle.
Um ausgehende E-Mails vor Spionage und Missbrauch zu schützen, sollte Verschlüsselung zum Standard gehören, ebenso wie die Data Loss Prevention-Technologie. Unverzichtbarer Bestandteile der Sicherheitsstrategie sollte zudem die regelmäßige Modernisierung der Software und die Aktualisierung von Sicherheits-Patches sowie – für die besonders Anfälligen – Pen-Tests sein. Durch die Überwachung des E-Mail-Verkehrs und der E-Mail-Konten können Unternehmen Schwachstellen erkennen und datengestützte Entscheidungen zur Optimierung der Sicherheitsmaßnahmen treffen.
Über den Autor: Uwe Dingerkus ist Security Service Owner bei GBS Europa, einer Tochterfirma von DIGITALL.