Schwerwiegende Sicherheitsanfälligkeiten Wie sicher ist OpenClaw?

Von Melanie Staudacher 9 min Lesedauer

Anbieter zum Thema

Der KI-Assistent „OpenClaw“ geht derzeit viral. Er verfügt über viele prak­ti­sche Funktionen und modulare Plugins. Doch dafür benötigt er weit­reich­en­de Systemrechte und ist damit ein interessantes Ziel für Cyberkriminelle. Es stellt sich also die Frage, wie sicher ist der neue Trend-KI-Agent?

OpenClaw ging Ende 2025 an den Start und schon mehrere Tausend Nutzer. Doch Malware-verseuchte Skills und Sicherheitslücken riskieren die Sicherheit der User.(Bild:  Dall-E / Vogel IT-Medien GmbH / KI-generiert)
OpenClaw ging Ende 2025 an den Start und schon mehrere Tausend Nutzer. Doch Malware-verseuchte Skills und Sicherheitslücken riskieren die Sicherheit der User.
(Bild: Dall-E / Vogel IT-Medien GmbH / KI-generiert)

Berichte und News über „OpenClaw“ fluten derzeit das Internet. Die Begeisterung war groß: Gründer Peter Steinberger, der zuvor das Dokumentensoftware-Unternehmen „PSPDFKit“ ge­gründet hatte hat OpenClaw im November 2025 ins Leben gerufen. Seitdem hat das Open-Source-Projekt mehr als 184.000 Endorsements auf GitHub erhalten. GitHub-Nutzer können Endorsements in Form von Sternen vergeben, die damit die Popularität und Qualität des Projekts zeigen. Schon Mitte Januar 2026 erreichte die Nutzung von OpenClaw einen Höhepunkt, als die Anzahl der täglichen Forks auf GitHub von über 50 auf über 3.000 anstieg. Mittlerweile sind es über 30.000 Forks, also Kopien des Projektes, über die Nutzer Änderungen und Verbesserungen vornehmen können. Dies könnte sogar das schnellste Wachstum in der Geschichte von GitHub sein. Doch neben dem Hype kam auch schnell die Sorge um die Cybersicherheit. Denn Sicherheitslücken sowie potenziell schädlichen Plugins treiben derzeit ihr Unwesen.

Was ist OpenClaw?

OpenClaw, früher zeitweise erst „Clawdbot“ und bis vor Kurzem noch „Moltbot“ genannt, ist ein Open-Source-Projekt, das die Entwicklung von autonomen KI-Agenten zum Ziel hat. Der KI-Assistent kann Aufgaben wie das Verwalten von E-Mails, Kalendern und Reisen automatisiert. Die Interaktion erfolgt über verschiedene Messaging-Plattformen wie WhatsApp, Telegram, Discord, Slack, iMessage und Signal. Teil von OpenClaw ist „ClawHub“, eine öffentliche Plattform, auf der Nutzer Fähigkeiten für OpenClaw-Agenten teilen und suchen können. Diese Agenten­fähigkeiten sind einfache Programmkomponenten oder Funktionen, die die Möglichkeiten von OpenClaw erweitern, sodass die Agenten verschiedene Aufgaben effizienter erledigen können. ClawHub ermöglicht es den Nutzern, diese Fähigkeiten leicht zu finden und zu verwenden, um ihre individuellen Anforderungen zu erfüllen.

Mithilfe dieser Integrationen kann OpenClaw zum Beispiel:

  • E-Mails sortieren und beantworten
  • Pull Requests prüfen
  • Tagesbesprechungen zusammenfassen
  • Aktivitäten planen und buchen
  • Wochenmenüs für die Familie planen und Lebensmittel online bestellen
  • Code schreiben und Anwendungen in Ihrem Namen bereitstellen

Je nach Skill und Berechtigung kann OpenClaw sogar vollen Zugriff auf einen Passwortmanager erhalten, um Aktionen über Webseiten auszuführen, die einen Login erfordern, oder Auswertung von persönlichen Aktien- oder Bitcoin-Entwicklungen erstellen.

Genau aus diesem Grund, erfreut sich OpenClaw derzeit großer Beliebtheit: Im Gegensatz zu den statischen Funktionen vieler anderer KI-Assistenten sind die Agentenfähigkeiten von Open­Claw als modulare Komponenten konzipiert, die leicht hinzugefügt, entfernt oder ver­än­dert werden können. Dies ermöglicht den Nutzern eine individuelle Anpassung ihrer KI-Agen­ten an spezifische Bedürfnisse und Anwendungsfälle. Doch mit den vielen Fähigkeiten von OpenClaw gehen auch einige Sicherheitsrisiken einher.

Secrets über OpenClaw geleakt

Das Analystenteam von Gitguardian, einem französischen Unternehmen, das sich auf den Schutz nicht-menschlicher Identitäten spezialisiert hat, hat OpenClaw – zum Zeitpunkt der Untersuchung noch Moltbot – genauer unter die Lupe genommen. Ihren Ergebnissen zufolge, konnten sie über 200 geleakte Secrets entdecken, die mit der Nutzung von OpenClaw zu­sam­men­hängen. Die Secrets hätten kritische Daten wie Integrations-Token und Zugangs­daten zu Kubernetes-Clustern von Unternehmen aus dem Gesundheitswesen und der Finanz­tech­no­lo­gie enthalten.

Der Hersteller habe festgestellt, dass viele Benutzer ihre OpenClaw-Arbeitsbereiche, die sen­sible Informationen enthielten, versehentlich in öffentliche GitHub-Repositories hoch­ge­laden hätten. Diese Repository-Namen hätten häufig die Schlüsselwörter „clawdbot“ oder „moltbot“ enthalten. Aus diesen Repositories seien 181 eindeutige Geheimnisse identifiziert worden, da­runter kritische Daten wie API-Tokens. Zudem seien auf DockerHub öffentliche Images ge­speichert gewesen, die geheime Informationen im Zusammenhang mit OpenClaw enthalten hätten. Das erste Datenleck habe Gitguardian am 15. Januar 2026 entdeckt, darunter sensible Daten wie GitHub-Tokens, AWS IAM-Schlüssel und Cloudflare-Tokens.

Gitguardian habe insgesamt 38 Entwickler identifiziert, die für die Datenlecks verantwortlich gewesen seien und diese unverzüglich kontaktiert. Leider seien bis zum jetzigen Zeitpunkt die meisten der geleakten Zugangsdaten nach wie vor gültig.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Malware-verseuchte Skills bei ClawHub

Doch nicht nur OpenClaw hat mit Sicherheitsanfälligkeiten zu kämpfen. Auch die Plattform ClawHub birgt Risiken für die Informationssicherheit. So berichten die Forscher von Koi Security, 341 schädliche ClawHub-Skills entdeckt zu haben, die darauf abzielen würden, Daten von OpenClaw-Nutzern zu stehlen. Bei einem Sicherheitsaudit von 2.857 Skills auf ClawHub hätten die Forscher entdeckt, dass 335 der Skills gefälschte Voraussetzungen verwenden würden, um einen Apple-macOS-Stealer namens Atomic Stealer zu installieren. Koi verfolgt dieses Angriffsszenario unter dem Namen „ClawHavoc“. Der Angriff beginne mit der Installation eines schädlichen ClawHub-Skills, der gefälschte Voraussetzungen angebe. Der Nutzer werde aufgefordert, eine Datei namens „openclaw-agent.zip“ herunterzuladen oder ein Skript in das Terminal einzugeben. Diese Datei enthalte einen Trojaner, der sensible Daten wie API-Schlüssel und Anmeldedaten anfange. Sobald der Trojaner aktiv sei, könne er weitere Schadsoftware ausführen und auf persönliche Informationen des Nutzers zugreifen. Interessant ist, dass Koi diese Sicherheitsanfälligkeit mit dem hauseigenen KI-System „Alex“ entdeckt haben will.

Laut Koi tarnen sich die bösartigen Skills unter anderem als:

  • ClawHub-Typosquats, wie clawhub, clawhub1, clawhubb oder clawhubcli
  • Kryptowährungs-Tools wie Solana-Wallets und Wallet-Tracker
  • Polymarket-Bots, wie polymarket-trader oder polymarket-pro
  • YouTube-Utilities
  • Auto-Updater, zum Beispiel auto-updater-agent oder updater
  • Finanz- und Social-Media-Tools, yahoo-finance-pro und x-trends-tracker
  • Google Workspace-Tools

Nach diesen Entdeckungen nahm Peter Steinberger bei der Community-Konferenz ClawCon am 4. Februar 2026 Stellung dazu. Das Unternehmen wolle neue Schutzmaßnahmen einrichten. So wurde eine Meldefunktion eingeführt, mit der angemeldete Benutzer Skills melden können. Jeder Benutzer kann bis zu 20 aktive Meldungen gleichzeitig haben. Skills, die mehr als drei ein­deutige Meldungen erhalten, werden standardmäßig auf ClawHub ausgeblendet.

Die nächste große Angriffsfläche

Die Schwachstellen in OpenClaw sowie die Anfälligkeit für eingeschleuste Malware-Skills zeigen erneut, dass KI-Systeme, Large Language Models sowie KI-Agenten gerade wegen ihrer Viel­fältigen Anwendbarkeit und den sensiblen Daten, die User hochladen, zum gefundenen Fressen für Cyberkriminelle werden können. Palo Alto Networks warnte in einem Blogbeitrag, dass OpenClaw das darstelle, was der britische Softwareentwickler Simon Willison, der den Begriff „Prompt Injection“ prägte, als „tödliche Dreifaltigkeit“ („lethal trifecta“) bezeichnete. Damit sei die Tatsache gemeint, dass KI-Agenten aufgrund ihres Zugriffs auf private Daten, ihrer Ex­po­si­tion gegenüber nicht vertrauenswürdigen Inhalten und ihrer Fähigkeit zur externen Kom­mu­ni­ka­tion von Grund auf angreifbar sind. Das Zusammenspiel dieser drei Eigenschaften, kom­bi­niert mit dem persistenten Speicher von OpenClaw, wirke Palo Alto zufolge wie ein Be­schleu­ni­ger und verstärke die Risiken der KI-Agenten.

Eric Fourrier, CEO bei Gitguardian, erläutert: „KI-Agenten sind hochprivilegierte Systeme, die wie eigenständige Identitäten agieren, aber oft nicht so behandelt werden. Sie benötigen Zugriff auf sensible Daten, APIs und Infrastruktur, um autonom arbeiten zu können. Das Problem: Im Gegensatz zu menschlichen Nutzern arbeiten diese Agenten rund um die Uhr, erstellen auto­matisch Dateien, Logs und Outputs. Genau dort landen häufig auch vertrauliche Zu­gangs­daten. Die Angriffsfläche wächst exponentiell, weil jeder Agent eigene Credentials benötigt und tra­di­tionelle Sicherheitskonzepte für diese neue Realität nicht ausgelegt sind.“

Aus diesen Gründen beschreibt Fourrier Maschinenidentitäten und KI-Agen­ten als die nächste große Angriffsfläche. Während klassische IAM-Lösungen für menschliche Identitäten und statische Service-Accounts konzipiert seien, würden sich KI-Agen­ten jedoch grundlegend anders verhalten. „Sie erstellen eigenständig Dateien, führen Tools aus, loggen Sessions und generieren Outputs. Zum Beispiel auch in lokalen Workspaces, die zur Syn­chro­ni­sa­ti­on in Repositories geladen werden. Dabei entstehen Zugangsdaten an un­er­war­te­ten Stellen: in Session-Logs, generierten Scripts oder Tool-Outputs. IAM-Systeme können nicht kontrollieren, was der Agent während seiner Arbeit produziert und wohin diese Artefakte wan­dern.“

Hier kann dem CEO zufolge nur ein mehrschichtiger Ansatz Abhilfe schaffen:

  • 1. Kontinuierliches Scanning der Agent-Workspaces hinsichtlich Zugangsinformationen.Nicht nur im Git-Repository, sondern auch in lokalen Konfigurationsdateien.
  • 2. Pre-Commit-Hooks installieren, die Commits mit Zugangsdaten automatisch blockieren, bevor sie in die Versionskontrolle gelangen
  • 3. Integration der Zugangsdaten-Erkennung direkt in den Agent selbst.

OpenClaw kooperiert mit VirusTotal

OpenClaw hat zuletzt eine Partnerschaft mit dem kostenlosen Online-Dienst VirusTotal an­ge­kündigt, um seine Sicherheit zu erhöhen . Die Zusammenarbeit mit dem seit 2012 zu Google ge­hörenden Online-Scanner soll helfen, das Hochladen von Malware-verseuchten Skills ein­zu­dämmen. Dafür scannen die Engines von VirusTotal die Uploads bei ClawHub und spüren Schad­code auf. Verdächtige Skills werden gesperrt und können nicht heruntergeladen werden. Bereits hochgeladene Skills werden jeden Tag erneut gescannt werden, um auch nachträglich hinzugefügte Malware entdecken zu können.

Security-Learning

Die Antwort auf die Frage „Wie sicher ist OpenClaw“ lässt sich nur schwer eindeutig be­ant­wor­ten. Aktuell ist die Sicherheitslage des KI-Assistenten besorgniserregend, da er weitreichende Systemrechte benötigt, damit ein attraktives Ziel für Cyberkriminelle darstellt und bereits aktiv für die Verteilung von Malware missbraucht wird. Die Verantwortung für die architektonische Sicherheit der KI-Systeme liegt bei den Hersteller, die die Sicherheit als Kernelement von Anfang an in die Entwicklung mit einfließen lassen sollten. Dies beinhaltet die Imple­men­tierung robuster Sicherheitsprotokolle, die kontinuierliche Überprüfung von Software und das regelmäßige Patchen von Schwachstellen. Nur so kann die grundlegende Sicherheit von KI-Assistenten langfristig verbessert werden.

Auf der anderen Seite sind die Unternehmen, die die Systeme einsetzen, dazu aufgerufen, klare Richtlinien für die sichere Verwendung zu implementieren und ihre Mitarbeiter zu sen­si­bi­li­sier­en. Sie sollten darin geschult werden, potenzielle Risiken zu erkennen und verant­wor­tungs­voll mit den ihnen anvertrauten Daten umzugehen. Eine Kombination dieser Maßnahmen kann dazu beitragen, die Sicherheit von OpenClaw und ähnlichen KI-Systemen erheblich zu ver­bes­sern.

Tipps für den sicheren Umgang mit KI-Agenten

  • Verwendung von Sicherheits-Tools: Der kostenlose AI Skill Checker von Bitdefender kann helfen, bösartigen Payload in OpenClaw Skills zu identifizieren. Dies ist besonders wichtig, da laut Bitdefender 17 Prozent der in der ersten Februarwoche bereitgestellten Skills von Open­Claw ein verdächtiges Verhalten zeigten. Nutzer sollen mit diesem Tool potenzielle Ri­siken vor der Installation oder dem Betrieb eines Skills analysieren können und werden bei verdächtigem Verhalten gewarnt.
  • Private Speicher nutzen: Gitguardian empfiehlt Nutzern von OpenClaw, den bereitgestellten Arbeitsbereich als privaten Speicher zu behandeln und rät, ihn in privaten GitHub-Repo­si­tories zu speichern. Der Hersteller hat das ClawHub-Skill „ggshield“ entwickelt, welches OpenClaw-User nutzen können, um nach der Installation der KI-Agenten ihren Arbeits­be­reich auf hartcodierte Geheimnisse zu scannen, Sicherheitslücken zu identifizieren und sicherzustellen, dass keine sensiblen Daten in öffentliche Repositories eingecheckt werden. Damit sollen Nutzer nur noch Fragen wie „Sind diese Daten sicher?“ stellen müssen und sofortige Rückmeldungen erhalten, um die Sicherheit ihrer Projekte zu gewährleisten.
  • Klare Richtlinien und Vorsicht bei der Eingabe von Inhalten: OpenClaw-Nutzer sollten besonders vorsichtig sein, welche KI-Skills sie verwenden. Grundsätzlich gilt, das Un­ter­nehmen klare Richtlinien für die Nutzung von KI-Tools und -Skills entwickeln sollten und ihren Mitarbeitenden eine Whitelist der erlaubten KI-Systeme sowie Leitfäden zur sicheren Nutzung bereitstellen sollten. Generell gilt, dass Nutzer keine sensiblen und personen­be­zo­genen Daten in die Systeme einspeisen sollten. Zudem sollten Unternehmen den Zugriff auf KI-Anwendungen und -Daten auf autorisierte Benutzer beschränken und die Multifaktor-Authentifizierung zwingend etablieren.
  • Regelmäßige Sicherheitsupdates und Awareness-Schulungen: Unternehmen, die KI-Tools nutzen, sollten diese stets auf dem aktuellen Stand halten, um Sicherheitslücken zu schlie­ßen. Dabei hilft auch ein regelmäßiges Monitoring und Reporting. Zudem sollten Mitarbeiter regelmäßig zum Umgang mit Künstlicher Intelligenz geschult werden.

(ID:50708355)