Wie Hacker KI austricksen, um an Daten zu kommen Verraten vom Chatbot
Anbieter zum Thema
Die Entwicklungen in der künstlichen Intelligenz (KI) sind sehr spannend. Viele Nutzer testen Apps wie ChatGPT oder Bard. Manche zum Spaß, andere, um ihre Arbeit langfristig effizienter zu machen. Immer mehr Unternehmen integrieren KI-basierte Chatbots und Assistenten in ihre Produkte und Prozesse. Dabei zeigt sich, dass man KI dazu verleiten kann, sensible Informationen weiterzugeben und so ernsthafte Sicherheitslücken zu schaffen.

Die Notwendigkeit, den Einsatz von KI zu regeln, ist daher nicht nur mit ethischen und rechtlichen Aspekten verbunden, sondern zunehmend auch eine Frage der Cybersicherheit. Dass KI-Sicherheitsrisiken ernst genommen werden müssen, haben einige der weltweit größten Wirtschafts-, Finanz- und Rechtsunternehmen bereits erkannt und die interne Nutzung von ChatGPT eingeschränkt oder sogar verboten.
Chatbots lassen sich dazu verleiten, sensible Daten offenzulegen
KI-basierte Chatbots wie ChatGPT und Chat-Assistenten auf Webseiten sammeln nicht nur automatisch die persönlichen Daten, die die Nutzer ihnen mitteilen, sondern auch Informationen über ihre Zugangsgeräte, ihre Standorte und sogar die Aktivitäten in sozialen Medien. Gemäß der Datenschutzerklärung, der die Nutzer bei der Anwendung von ChatGPT zustimmen, verpflichtet sich der Eigentümer, die Daten zu schützen, ohne sie an Dritte weiterzugeben. Trotzdem dürfen die Informationen zum Beispiel für individualisierte Werbung verwendet werden.
Was viele Nutzer nicht wissen ist, dass Chatbots keine Datenschutzmechanismen wie Verschlüsselung, Data Loss Prevention, Zugangsbeschränkungen und -logs bieten und damit Cyberverletzungen Tür und Tor öffnen können. Und genau das ist die große Schwachstelle, die Hacker in letzter Zeit verstärkt ausnutzen. Das derzeitige Niveau der Datensicherheit von Chatbots ist sowohl für die Endnutzer als auch für Unternehmen, die sie in ihre Services integrieren, höchst unzureichend. Niemand sollte daher vertrauliche Informationen in KI-Assistenten oder Chats eingeben.
Wenn Chatbots direkt nach persönlichen Daten oder vertraulichen Geschäftsinformationen gefragt werden, werden sie natürlich keine Antwort geben. Aber durch geschickte Manipulation der Suchanfrage und eine ausgeklügelte Formulierung können Hacker alle Arten von sensiblen Informationen extrahieren. Dazu gehören Kontakt- und Standortdaten, Präferenzen, Geschäftsverbindungen und -partner und sogar Benutzerdaten sowie Passwörter.
Bewaffnet mit diesen Einblicken können Kriminelle eine Unmenge von hochgradig personalisierten und gezielten Angriffen auf Einzelpersonen und Unternehmen durchführen. Bei diesen Attacken kann es sich um Phishing-Kampagnen handeln, die auf Fake-Websites locken, um Ransomware und maßgeschneiderten bösartigen Code; sowie um Account-Impersonation oder -Übernahme, die oft zu Business E-Mail Compromise führt.
Wie kann KI für die Erstellung äußerst wirksamer Cyberangriffe genutzt werden?
1. Ransomware, Malware und Spam
ChatGPT wird von vielen Entwicklern zum Schreiben von Code verwendet. Selbst Hacker haben einen Weg gefunden, die Guardrails, also die Kontrollmechanismen, so zu manipulieren, dass ihre Schadcodeanfragen nicht als solche erkannt werden. Experten schätzen, dass ChatGPT das Potenzial hat, unerkennbaren Schadcode zu schreiben, der Code Injections und Mutationen ermöglichen kann.
Der KI-generierte Schadcode spart Zeit und reduziert den Aufwand. Damit verschafft er auch unerfahrenen Hackern einen schnellen Zugang zu einem leistungsfähigen Malware-Code. Spezialisten zufolge ist ChatGPT in der Lage, einen Ransomware-Code zu erstellen, der nicht nur einen Teil, sondern das gesamte System eines Unternehmens verschlüsseln kann. Außerdem lassen sich Spam-Kampagnen mit Hilfe von KI zur Verbesserung des Arbeitsablaufs und zur Optimierung der Texterstellung effizienter als je zuvor durchführen.Auch KI-basierte virtuelle Assistenten sind nicht von Missbrauch verschont. Sie werden durch indirekte Prompt-Injektion manipuliert, bei der das Verhalten der KI mit Hilfe eines von Hackern auf der Website versteckten Textes geändert wird. Auf diese Weise kann die Datenschutzrichtlinie des Assistenten umgangen werden, sodass er die Weitergabe sensibler Daten zulässt.
2. Phishing-Angriffe
Einer der wichtigsten Erfolgsfaktoren eines Phishing-Angriffs ist seine Personalisierung und Glaubwürdigkeit. Gegenwärtig erkennt man eine Phishing-E-Mail am besten an der schlechten Grammatik und Zeichensetzung, der seltsamen Wortwahl, den fehlenden Haftungsausschlüssen und Fußzeilen sowie der oft komischen Absenderadresse. Mit Hilfe von KI generieren Kriminelle saubere E-Mails, die schlüssig und fehlerfrei geschrieben sind und die Sprachwahl eines Profis – z. B. eines Bankangestellten oder Kundenbetreuers – perfekt imitieren. Um das Phishing weiter zu verfeinern und zu personalisieren, bringen die Hacker das Social Engineering auf ein neues Level, indem sie von der KI ermittelte private Details hinzufügen, um die Glaubwürdigkeit zu erhöhen.
Inzwischen gibt es bereits eine Art von Phishing-Angriffen, die so genannten ChatGPT-Angriffe, deren Ziel es ist, die Opfer zur Preisgabe ihrer Zugangs- oder persönlichen Daten zu verleiten. So erstellen Hacker beispielsweise ein falsches Kundensupport-Konto auf einer beliebten Chat-Plattform und nehmen über dieses Kontakt zu den Opfern auf, um ihnen Hilfe bei einem Problem anzubieten. Dann leiten sie das Opfer auf eine bösartige Website weiter, die wiederum die Anmeldedaten erfasst. Auf diese Weise verschaffen sich die Hacker leichten Zugang.
3. Identitätsmissbrauch und Kontokaperung
Je mehr Informationen die KI über Webseiten, Social-Media-Profile und -Posts, Chats sowie Online-Verhalten sammelt, desto authentischer kann eine böswillig imitierte E-Mail aussehen. So kann ein Mitarbeiter eine E-Mail von der üblichen Kontaktperson eines Partnerunternehmens erhalten, in der eine Geldüberweisung für ein Ereignis angefordert wird, das tatsächlich stattgefunden hat.
Mit der gleichen Leichtigkeit, mit der ChatGPT Text erzeugen kann, kann es auch die Stimme und den Ausdruck einer Person imitieren. So wird es zum Kinderspiel, einen hochrangigen Manager zu imitieren. Dies geschieht dann zum Beispiel, um eine E-Mail oder eine Chat-/Sprachnachricht an die Finanzabteilung zu senden, in der eine Zahlung gefordert oder um vertrauliche Daten gebeten wird. Im Gegensatz zur Imitation ist das Account-Hijacking eine echte Übernahme des E-Mail-Kontos, die wiederum von Hackern genutzt wird, um an Insider-Informationen zu gelangen oder bösartige Aktionen auszulösen.
4. Business E-Mail Compromise
Die oben beschriebenen Angriffe sind häufig Teil einer Business E-Mail Compromise (BEC), deren Zielpersonen meist Führungskräfte sind. Sie werden daher auch Whaling-Angriffe genannt. Aufgrund der Muster, die normale BECs aufweisen, können sie von Anti-Malware leicht erkannt werden. Die Raffinesse und der Grad der Personalisierung eines KI-basierten BECs machen ihre Erkennung jedoch deutlich schwieriger.
So schützen Sie das Unternehmen vor KI-basierten Cyberangriffen
Eine hundertprozentige Prävention von KI-basierten Cyberangriffen ist kaum möglich, aber das Zusammenspiel starker Sicherheitsmaßnahmen sowie Awareness Trainings gewährleistet für die meisten Unternehmen einen optimalen Schutz. Für die eingehende Kommunikation sind Firewalls und moderne Virenschutzprogramme eine absolut unverzichtbare Grundausstattung, ergänzt durch starke Passwörter, Multi-Faktor-Authentifizierung und Zugangskontrolle.
Um ausgehende E-Mails vor Spionage und Missbrauch zu schützen, sollte Verschlüsselung zum Standard gehören, ebenso wie die Data Loss Prevention-Technologie. Unverzichtbarer Bestandteile der Sicherheitsstrategie sollte zudem die regelmäßige Modernisierung der Software und die Aktualisierung von Sicherheits-Patches sowie – für die besonders Anfälligen – Pen-Tests sein. Durch die Überwachung des E-Mail-Verkehrs und der E-Mail-Konten können Unternehmen Schwachstellen erkennen und datengestützte Entscheidungen zur Optimierung der Sicherheitsmaßnahmen treffen.
Über den Autor: Uwe Dingerkus ist Security Service Owner bei GBS Europa, einer Tochterfirma von DIGITALL.
(ID:49725832)