KI-Governance bei Hyperscalern Microsofts Transparenzbericht legt Kontrollarchitektur offen

Von Berk Kutsal 2 min Lesedauer

Anbieter zum Thema

Microsoft veröffentlicht seinen zweiten Responsible-AI-Report. Der Bericht zeigt, wie der Konzern KI-Risiken bewertet, Governance verankert und regulatorischen Druck antizipiert. Die Dimension: 30 Tools, 540 Mit­arbei­tende, Red-Teaming für jedes größere Modell – und klare Ambitionen für globale Standards.

Microsofts Responsible-AI-Report 2025 offenbart Tools, Prozesse und Governance für KI-Modelle – inklusive Red-Teaming und Compliance-Ansatz.(Bild:  KI-generiert)
Microsofts Responsible-AI-Report 2025 offenbart Tools, Prozesse und Governance für KI-Modelle – inklusive Red-Teaming und Compliance-Ansatz.
(Bild: KI-generiert)

Microsoft hat seinen zweiten Transparenzbericht zur Entwicklung und Anwendung ver­ant­wortungsvoller KI vorgelegt – und liefert damit einen Einblick in die internen Kontroll­strukturen eines der weltweit führenden KI-Anbieter. Im Mittelpunkt steht ein mehrschichtiger Risikomanagement-Ansatz, der auf dem NIST AI Risk Management Framework basiert. Die Konzernarchitektur greift auf über 30 Tools mit mehr als 155 Funktionen zurück, um Risiken entlang des gesamten Lebenszyklus von KI-Modellen zu identifizieren und zu steuern.

Die Tools decken Text-, Bild-, Audio- und Videomodelle ab und wurden erstmals auf agenten­basierte Systeme ausgeweitet. Auch der Pre-Deployment-Prozess ist ausgebaut: Jedes größere Modell durchläuft ein verpflichtendes Red-Teaming und eine interne Dokumentation via Responsible-AI-Workflow. Ein eigens etabliertes „Sensitive Uses“-Programm bewertet zusätzlich Anwendungsfälle in kritischen Sektoren wie Medizin, Energie oder Bildung.

Microsoft nennt konkrete Beispiele wie das KI-Modul „Smart Impression“, das Radiologen bei der Bildanalyse unterstützen soll. Die Prüfteams analysierten unter anderem Verzerrungen und Fehlinterpretationen bei unterschiedlichen Bevölkerungsgruppen – ein Fall, der typische re­gu­latorische Fragestellungen vorwegnimmt.

Compliance-by-Design trifft Massenmaßstab

Mit Blick auf regulatorische Entwicklungen wie den EU AI Act verfolgt Microsoft einen Ansatz, der regulatorische Anforderungen nicht nur abbildet, sondern vorgreifend integriert. Unter­nehmen erhalten Dokumentationen, Sicherheitshinweise und ein „Secure AI Framework“ für eigene Implementierungen. Die hauseigenen AI-Modelle – darunter auch Azure OpenAI, Phi oder Copilot-Dienste – folgen denselben Prozessen.

Dabei bleibt es nicht bei internen Standards: Microsoft veröffentlicht sogenannte „Transparency Notes“ für externe Stakeholder und bindet Content-Credentials (C2PA) zur Nachvollziehbarkeit generierter Inhalte ein – zuletzt bei LinkedIn für KI-generierte Bilder.

Governance und Kontrolle skaliert Microsoft massiv: Mehr als 540 Mitarbeitende arbeiten an verantwortungsvoller KI, davon über die Hälfte in Vollzeit. Im Vergleich zum Vorjahr entspricht das einem Wachstum von 37 Prozent. Auch intern sind die Prozesse verankert: 99 Prozent der Mitarbeitenden haben bis Anfang 2025 verpflichtende Trust-Code-Trainings absolviert.

Forschungsoffensive im Wettlauf um Standards

Ein zentrales Element der Strategie ist das neue „AI Frontiers Lab“, das Forschung zu Sicherheit, Effizienz und Modellverhalten bündelt. Parallel dazu engagiert sich Microsoft in internationalen Gremien – etwa im OECD-Bericht zu AI Accountability oder über eigene Publikationen zu glo­balen AI-Governance-Modellen.

Im Rahmen der „Accelerating Foundation Models Research Community“ kooperierte das Unternehmen mit über 120 Forschungseinrichtungen weltweit. Ergebnis: mehr als 300 wissenschaftliche Veröffentlichungen zu den Grundlagen großer Sprach- und Bildmodelle.

(ID:50464178)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung