Schwachstelle im KI-Browser von OpenAI Sicherheitslücke in ChatGPT Atlas erlaubt Übernahme von Nutzerkonten

Von Melanie Staudacher 2 min Lesedauer

Anbieter zum Thema

Seit dem 21. Oktober ist ChatGPT Atlas von OpenAI verfügbar. Sicher­heits­forscher von LayerxSecurity warnen jedoch vor einer Sicherheitslücke im persistenten Speicher des KI-Browsers, die Angreifern Codeausführung ermöglichen kann.

Nicht nur warnen die Sicherheitsforscher von LayerxSecurity vor einer CSRF-Schwachstelle im persistenten Speicher von ChatGPT Atlas. Sie warnen auch davor, dass der Browser von OpenAI kaum Schutz vor Phishing bietet.(Bild:  Dall-E / KI-generiert)
Nicht nur warnen die Sicherheitsforscher von LayerxSecurity vor einer CSRF-Schwachstelle im persistenten Speicher von ChatGPT Atlas. Sie warnen auch davor, dass der Browser von OpenAI kaum Schutz vor Phishing bietet.
(Bild: Dall-E / KI-generiert)

Seit dem 21. Oktober 2025 gibt es ChatGPT Atlas, den Webbrowser von OpenAI, der den KI-Assistenten direkt in die Browseroberfläche integriert hat. Bisher gibt es den Browser nur für macOS, Windows, iOS und Android sollen aber bald folgen. Wer den neuen OpenAI-Browser ausprobieren will, sollte jedoch aufpassen. Denn Cybersicherheitsforscher von LayerxSecurity behaupten, darin eine Sicherheitslücke gefunden zu haben, die es Angreifern ermöglichen könnte, sich Zugriffsrechte zu verschaffen und Schadcode auszuführen.

Manipulation des Chat-Speichers

Konkret betroffen von der Cross-Site-Request-Forgery-Schwachstelle (CSRF) sei der persistente Speicher von ChatGPT Atlas. Dieser ermöglicht es dem KI-Chatbot, sich Details zwischen den Chats zu merken und so Antworten zu personalisieren. Doch in diesen Speicher könnten Cyber­kriminelle durch Ausnutzung der Schwachstelle schädliche Anweisungen schleusen. Der mani­pulierte Speicher, der geräte- und sitzungsübergreifend bestehen bleibt, ermögliche es den Angreifern, die Kontrolle über das Benutzerkonto, den Browser oder verbundene Systeme zu übernehmen, wenn ein angemeldeter Benutzer versucht, ChatGPT für legitime Zwecke zu verwenden.

Entdeckt hat die Sicherheitslücke der US-Hersteller LayerxSecurity. In einem Blogbeitrag beschreiben die Sicherheitsforschenden, wie die Schwachstelle theoretisch ausgenutzt werden kann. Details, die es Cyberkriminellen ermöglichen, Angriffe auszuführen sind nicht enthalten. Im Kern laufe ein Angriff wie folgt ab:

  • 1. Ein Benutzer meldet sich bei ChatGPT an. Durch Social Engineering wird der Benutzer dazu verleitet, einen schädlichen Link anzuklicken.
  • 2. Die schädliche Webseite löst eine CSRF-Anfrage aus, indem sie die Authentifizierung des Benutzers ausnutzt, um unbemerkt versteckte Anweisungen in den Speicher von ChatGPT einzuschleusen.
  • 3. Wenn der Benutzer ChatGPT aus legitimen Gründen anspricht, werden die manipulierten Speicherbereiche aufgerufen, was zur Codeausführung führt.

LayerxSecurity haben die Sicherheitslücke im Rahmen eines Responsible-Disclosure-Verfahrens bereits an OpenAI gemeldet.

ChatGPT Atlas versagt in Phishing-Test

Laut LayerxSecurity sei die Sicherheitslücke für alle Nutzer von ChatGPT mit allen Browsern gefährlich. Doch da es ChatGPT Atlas an wirksamen Phishing-Schutzmechanismen fehle, sei hier die Gefahr besonders groß. Nutzer des neuen Browsers von OpenAI seien bis zu 90 Prozent anfälliger für Phishing-Angriffe als Nutzer anderer Browser wie Chrome oder Edge.

Der Hersteller gibt an, Tests mit über 100 bekannten Web-Schwachstellen und Phishing-Ex­ploits durchgeführt zu haben. Edge habe 53 Prozent der Angriffe abwehren können, gefolgt von Google mit 47 Prozent und Dia mit 46 Prozent. Dia ist ebenfalls ein KI-gestützter Web­brow­ser, der mittlerweile Atlassian gehört. Auch der Browser Comet von Perplexity ist ein im KI-Browser, habe jedoch nur sieben Prozent der Angriffe abwehren können. ChatGPT Atlas habe sogar nur 5,8 Prozent der Angriffe verhindern können. Von 103 getesteten realen Angriffen habe Atlas 97 nicht blockiert. Diese Fehlerquote eröffne ein breites Spektrum an Angriffsszenarien, heißt es in dem Bericht. So könne beispielsweise die Anfrage eines Entwicklers an ChatGPT, Code zu schrei­ben, dazu führen, dass der KI-Agent im Rahmen des Vibe Codings versteckte Anweisungen einfüge.

(ID:50608239)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung