Definition WormGPT Was ist WormGPT?

Von Dipl.-Ing. (FH) Stefan Luber 3 min Lesedauer

Anbieter zum Thema

WormGPT ist ein KI-Chatbot. Er basiert auf dem quelloffenen, im Jahr 2021 von EleutherAI veröffentlichten Sprachmodell GPT-J. Es wurde für WormGPT für cyberkriminelle Zwecke trainiert. Der Chatbot wird im Darknet und in kriminellen Foren angeboten. Seine Nutzung ist kostenpflichtig und in Kryptowährung zu bezahlen. Im Vergleich zu öffentlich zugänglichen oder kommerziell angebotenen Chatbots sind in WormGPT keine sicherheitstechnischen Einschränkungen oder ethische Mindeststandards vorgesehen.

WormGPT ist ein für kriminelle Zwecke trainiertes Sprachmodell.(Bild:  gemeinfrei /  Pixabay)
WormGPT ist ein für kriminelle Zwecke trainiertes Sprachmodell.
(Bild: gemeinfrei / Pixabay)

WormGPT ist der Name eines Chatbots für Cyberkriminelle. Er wird seit circa Mitte 2023 im Darknet und in einschlägigen Foren für Kriminelle angeboten. Sicherheitsexperten bezeichnen den Chatbot teilweise auch als krimineller kleiner Bruder oder krimineller Zwilling von ChatGPT. Das dem Chatbot zugrundeliegende quelloffene große Sprachmodell GPT-J wurde speziell für bösartige und kriminelle Zwecke trainiert. Der Chatbot lässt sich beispielsweise für das Erstellen und Durchführen von Phishing-Kampagnen, für Social-Engineering-Angriffe oder zum Generieren von bösartigem Programmcode verwenden.

Ein hinsichtlich der Funktionsweise und der Einsatzmöglichkeiten vergleichbarer Chatbot ist FraudGPT. Er kursiert ebenfalls seit circa Mitte 2023 im Darknet und in kriminellen Kreisen. Im Vergleich zu öffentlich zugänglichen oder kommerziell angebotenen Chatbots wie ChatGPT oder Gemini sind in WormGPT keine sicherheitstechnischen Einschränkungen oder ethischen Mindeststandards vorgesehen. Er verfügt über keine entsprechenden Richtlinien zur Moderation des Inhalts. Die Nutzung des Chatbots für Cyberkriminelle ist kostenpflichtig. Die in einschlägigen Foren genannten Preise liegen zwischen 60 Euro im Monat und 550 Euro im Jahr. Die Zahlungen sind, wie in cyberkriminellen Kreisen üblich, in Kryptowährungen zu entrichten.

Die Fähigkeiten und kriminellen Einsatzmöglichkeiten von WormGPT

WormGPT ist für zahlreiche kriminelle Zwecke einsetzbar. Was seine grundsätzlichen sprachlichen Fähigkeiten angeht, unterscheidet er sich kaum von nicht kriminellen Chatbots. Er versteht Texte in natürlicher Sprache in verschiedenen Sprachen wie Englisch, Französisch, Chinesisch, Russisch, Italienisch und Spanisch, kann sprachlich, grammatikalisch und orthografisch einwandfreie Texte generieren, Fragen beantworten und erinnert sich an den Chatverlauf. Der Chatbot versteht auch Code in verschiedenen Programmiersprachen und kann selbst Programmcode schreiben. Da von den Machern des Chatbots keine sicherheitstechnische Einschränkungen oder ethische Standards vorgesehen sind, liefert er nahezu beliebigen Output und ist zum Beispiel für folgende kriminelle Zwecke einsetzbar:

  • für Business E-Mail Compromise (BEC)
  • zum Erstellen von überzeugend klingenden und strategisch formulierten Phishing-Mails
  • für Social-Engineering-Kampagnen
  • zum Schreiben von bösartigem Programmcode

Prinzipielle Funktionsweise und Training des Chatbots für Cyberkriminelle

Da es sich bei WormGPT um einen Chatbot handelt, der in kriminellen Kreisen entwickelt wurde, sind nur wenige Details zur grundsätzlichen Funktionsweise, zum Training und zur Feinabstimmung des zugrundeliegenden Sprachmodells bekannt. Der Chatbot basiert auf dem quelloffenen Large Language Model (LLM) GPT-J. GPT-J wurde im Jahr 2021 von EleutherAI veröffentlicht. Die Macher von WormGPT haben das große Sprachmodell vermutlich mit Texten mit kriminellen Inhalten und bösartigem Programmcode, zum Beispiel aus dem Darknet oder aus einschlägigen Foren, trainiert und feinabgestimmt. Genaueres ist über das verwendete Trainings- und Abstimmungsmaterial nicht bekannt. Im Vergleich zu öffentlich zugänglichen und kommerziellen Chatbots sind keine Mechanismen oder Filter vorgesehen, die sicherstellen, dass kein bösartiger Output generiert wird. WormGPT liefert daher beliebige Texte oder Programmcodes für kriminelle Zwecke. Genutzt wird Chatbot über eine Chatoberfläche und Textanweisungen (Prompts). Der Chatbot hat kein Zeichenlimit und kann sich an Chatverläufe erinnern.

Gefahren und Risiken durch bösartige KI-Chatbots wie WormGPT

Bösartige, kriminelle KI-Modelle und Chatbots wie WormGPT oder FraudGPT bringen zahlreiche Gefahren und Risiken mit sich. Zu diesen Gefahren und Risiken zählen zum Beispiel:

  • Auch technisch wenig versierte, bisher unerfahrene Akteure können cyberkriminell aktiv werden.
  • Betrügerische E-Mails oder bösartige Programmcodes lassen sich ohne Programmierkenntnisse oder spezielles Fachwissen in großem Umfang und in kurzer Zeit erstellen.
  • Die Einstiegsschwelle für cyberkriminelle Aktivitäten sinkt.
  • Durch die überzeugend klingenden, glaubwürdigen und grammatikalisch einwandfreien Texte in korrekter Rechtschreibung haben Betrugskampagnen bessere Aussichten auf Erfolg.
  • Die vom Chatbot erstellten Texte sind schwerer von nicht kriminellen Texten zu unterscheiden.
  • Der Chatbot kann strategisch ausgefeilt vorgehen und kriminelle Kampagnen personalisieren und in verschiedenen Sprachen internationalisieren.
  • Der Chatbot kennt keine ethischen Grenzen.
  • Die Zahl und Professionalität von BEC-Angriffen oder Phishing-Kampagnen und anderen bösartigen Angriffsmethoden könnte steigen.

(ID:49996919)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung