CVSS 10: Lücke in KI-Framework PyTorch gefährdet Netzwerke ML-Framework PyTorch ermöglicht Cyberattacken

Von Thomas Joos 1 min Lesedauer

Anbieter zum Thema

PyTorch ist ein beliebtes Framework, das im KI/ML-Bereich eingesetzt wird. Durch eine Lücke besteht die Gefahr, dass Angreifer beim Training Code auf dem Master-Knoten ausführen können. Die Lücke hat einen CVSS von 10.

Im ML-Framework PyTorch gibt es aktuell eine gefährliche Schwachstelle (CVSS 10), die bereits exploited wird.(Bild:  Aghavni - stock.adobe.com)
Im ML-Framework PyTorch gibt es aktuell eine gefährliche Schwachstelle (CVSS 10), die bereits exploited wird.
(Bild: Aghavni - stock.adobe.com)

Das BSI warnt aktuell vor einer kritischen Lücke im KI/ML-Framework PyTorch. Angreifer können dadurch Code auf den Master-Nodes ausführen. Die Schwachstelle CVE-2024-5480 hat einen CVSS von 10. Derzeit ist noch nicht eindeutig geklärt in welchen Versionen die Lücke enthalten ist. Betroffen scheinen die Versionen 2.22 und 2.23 zu sein. Es gibt bereits ein Konzept für Exploits.

Wer PyTorch einsetzt, sollte daher schnellstmöglich zur neusten Version aktualisieren. Darüber hinaus sollten Sicherheitsmaßnahmen wie die Einschränkung der Netzwerkzugriffe auf die betreffenden Knoten, die Implementierung von strengen Authentifizierungs- und Autorisierungsmechanismen sowie die regelmäßige Überprüfung und Validierung von Benutzerdefinierten Funktionen (UDFs) angewendet werden.

Das sind die Hintergründe der Lücke CVE-2024-5480

Die Sicherheitslücke betrifft das Remote Procedure Call (RPC)-System, das in verteilten Trainingsszenarien verwendet wird. Konkret liegt das Problem darin, dass das Framework die aufgerufenen Funktionen während der RPC-Operationen nicht ordnungsgemäß überprüft. Angreifer können dies ausnutzen, um beliebige Befehle auszuführen, indem sie eingebettete Python-Funktionen wie eval während der Kommunikation zwischen mehreren CPUs verwenden.

Die Schwachstelle entsteht, weil bei der Serialisierung und dem Versand einer PythonUDF (User Defined Function) von einem Worker-Knoten an den Master-Knoten keine Beschränkungen für die Funktionsaufrufe vorhanden sind. Der Master-Knoten deserialisiert und führt die Funktion ohne Überprüfung aus. Dies ermöglicht es Angreifern, schädliche Befehle einzuschleusen und auszuführen, was zu einer Kompromittierung des Master-Knotens führen kann. Besonders kritisch ist dies in verteilten Trainingsumgebungen, da hierbei häufig sensible AI-bezogene Daten verarbeitet werden. Angreifer könnten nicht nur Kontrolle über das System erlangen, sondern auch vertrauliche Informationen stehlen oder die Trainingsumgebung manipulieren, was die Qualität der entwickelten KI-Modelle beeinträchtigen kann.

(ID:50063056)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung