Angst vor Cyberangriffen und ihren Konsequenzen USA planen Sicherheitsprüfung für KI-Modelle vor Veröffentlichung

Von Melanie Staudacher 3 min Lesedauer

Kommt die Pflichtprüfung für KI-Modelle? Während die Trump-Regierung eine Executive Order dazu erwägt, laufen bereits Vorab-Tests mit einigen großen Anbietern. Dies markiert einen scharfen Kurswechsel in der KI-Politik der USA.

Google DeepMind, Microsoft und xAI haben mit dem National Institute of Standards and Technology bereits eine Vorab-Prüfung ihrer KI-Modelle vereinbart. Per Executive Order könnte dies verpflichtend für alle Anbieter werden.(Bild:  Limitless Visions - stock.adobe.com)
Google DeepMind, Microsoft und xAI haben mit dem National Institute of Standards and Technology bereits eine Vorab-Prüfung ihrer KI-Modelle vereinbart. Per Executive Order könnte dies verpflichtend für alle Anbieter werden.
(Bild: Limitless Visions - stock.adobe.com)

Am 5. Mai 2026 hat das Center for AI Standards and Innovation (CAISI), welches dem ameri­kanischen National Institute of Standards and Technology (NIST) angehört, bekannt­ge­geben, dass es neue Vereinbarungen mit Google DeepMind, Microsoft und xAI geschlossen hat, die der CAISI Vorab‑Evaluierungen von Frontier‑KI‑Modellen sowie nachgelagerte Bewertungen und zielgerichtete Forschung zu nationalen Sicherheitsrisiken ermöglichen.

Berichten der New York Times nach prüfe die Trump-Administration derzeit eine neue Exe­cu­tive Order, die eine verpflichtende staatliche Sicherheitsprüfung für KI-Modelle vorsieht, bevor diese veröffentlicht werden. Dies würde eine grundlegende Wende in der KI-Politik der USA bedeuten.

KI-Sicherheitsüberprüfung nach britischem Vorbild

Vergangene Woche habe das Weiße Haus Vertreter von Anthropic, Google und OpenAI über seine Pläne informiert, heißt es in dem Artikel der New York Times, die sich auf eingeweihte Personen bezieht. Demnach solle per Executive Order eine Arbeitsgruppe aus Tech-Führ­ungs­kräf­ten und Regierungsvertretern eingesetzt werden, die mögliche Aufsichtsverfahren prüfen solle. Dazu gehöre auch ein formales staatliches Review neuer KI-Modelle bevor diese für die Öffentlichkeit verfügbar gemacht werden. Als Vorbild diene ein britisches Modell. Die dortige Regierung hat bereits im November 2023 das „AI Safety Institute“ vorgestellt, dem Expert­innen und Experten angehören, die KI-Modelle vor und nach ihrer Veröffentlichung auf mög­licherweise schädliche Funktionen testen. Die USA sowie Google kooperieren bereits mit dem Institut.

Auch Microsoft kooperiere neben dem CAISI nun mit dem AI Safety Institute, um seine Fron­tier‑Modelle zu testen, Schutzmaßnahmen zu prüfen und mögliche Risiken für nationale und öffentliche Sicherheit zu mindern. Gemeinsam sollen zudem Frameworks, Datensätze und Arbeitsabläufe zur Einschätzung von Sicherheits-, Schutz- und Robustheitsrisiken bei fort­schrittlichen KI-Systemen entwickelt werden, schreibt Microsoft in seiner Mitteilung.

Wende in der KI-Politik

Als Auslöser für die Pläne der USA nennt die New York Times die Vorstellung des KI-Modell Claude Mythos. Dieses sei so leistungsfähig, dass der Hersteller Anthropic darauf verzichtete, es für die Öffentlichkeit freizugeben, da er befürchtete, dass es für gefährliche Zwecke missbraucht werden könnte, etwa zur Entwicklung von Biowaffen oder zur Durchführung hochgradig auto­matisierter Cyberangriffe. Nur 40 führende Unternehmen erhielten Zugriff auf Mythos, um damit Schwachstellen aufzudecken und zu analysieren. Neben Google, Apple, Microsoft, Nvidia und Palo Alto Networks sollen auch die NSA sowie der britische Geheimdienst bereits damit arbeiten.

Die US-Regierung habe wachsende Sorgen vor politischen Konsequenzen, sollte ein mithilfe von Künstlicher Intelligenz durchgeführter Cyberangriff erhebliche Schäden nach sich ziehen. Deshalb hätten einige Regierungsangehörige auf das Prüfsystem gedrängt, welches der US-Regierung den Erstzugriff ermögliche, jedoch die Veröffentlichung der Modelle nicht blockiere. Die nun zu prüfende Executive Order würde einen Kurswechsel in der KI-Politik markieren. Denn Trump hatte zu Beginn seiner zweiten Amtszeit im Januar 2025 einige Vorgaben der Bi­den-Regierung rückgängig gemacht, darunter auch die verpflichtende Sicherheitsbewertung von KI-Modellen vom 30. Oktober 2023. Im Juli 2025 hatte Trump KI noch als „schönes Baby“ bezeichnet, das man „nicht mit dummeln Regeln“ stoppen dürfe. Daraufhin fielen fast alle Restriktionen für KI-Modelle.

„Eine unabhängige, fundierte Messwissenschaft ist unerlässlich, um die neuesten Ent­wick­lun­gen im Bereich der KI und deren Auswirkungen auf die nationale Sicherheit zu verstehen“, sagte CAISI-Direktor Chris Fall.. „Diese erweiterten Kooperationen mit der Industrie helfen uns, un­sere Arbeit im öffentlichen Interesse in einer entscheidenden Phase auszuweiten.“

Laut Reuters habe das Pentagon vergangene Woche mit SpaceX, OpenAI, Google, Nvidia, Reflection AI, Microsoft und Amazon Web Services Vereinbarungen getroffen, ihre KI-Fähig­keiten in die streng geheimen Netzwerke des Verteidigungsministeriums zu integrieren, damit das US-Militär direkten Zugriff auf diese erhalte. Obwohl Anthropic ebenfalls zu einem der führ­en­den KI-Unternehmen zählt, sei es von dieser Vereinbarung ausgeschlossen worden, da Antrophics Technologie als Liferkettenrisiko eingestuft wurde.

(ID:50836797)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung