KI trifft Paragraphen KI übernimmt – doch wer trägt die Verantwortung?

Von Berk Kutsal 3 min Lesedauer

Anbieter zum Thema

Künstliche Intelligenz verändert nicht nur Prozesse, sondern auch das Machtgefüge in Unternehmen. Ein neues Toolkit soll Inhouse-Juristen helfen, zwischen Fortschritt und Haftung zu navigieren.

Das neue ACC-Toolkit zeigt, wie Unternehmen KI rechtssicher einführen – mit Fokus auf Compliance, Datenschutz und Governance.(Bild:  KI-generiert)
Das neue ACC-Toolkit zeigt, wie Unternehmen KI rechtssicher einführen – mit Fokus auf Compliance, Datenschutz und Governance.
(Bild: KI-generiert)

Während Unternehmen ihre IT-Abteilungen in KI-Projekte schicken, schieben sich nun auch Rechtsabteilungen in die erste Reihe. Ein neues Toolkit der Association of Corporate Counsel (ACC) zeigt, wie Corporate Counsel den Einsatz von Künstlicher Intelligenz (KI) nicht nur begleiten, sondern strategisch gestalten können. Entwickelt wurde das „Artificial Intelligence Toolkit for In-house Lawyers“ gemeinsam mit der US-Kanzlei Kilpatrick Townsend & Stockton LLP. Es soll Juristen helfen, KI unter Einhaltung von Recht und Ethik in Unternehmensprozesse zu integrieren.

Der kommende EU AI Act zwingt Unternehmen europaweit, ihre Governance-Strukturen zu überdenken. Die Risiken reichen von datenschutzrechtlichen Verstößen über unklare Haftung bei KI-Fehlentscheidungen bis hin zu Reputationsverlust bei diskriminierenden Modellen. Besonders betroffen: Organisationen, die KI-Systeme im sensiblen Bereich – etwa zur Personalbewertung oder bei Kreditentscheidungen – einsetzen.

Checklisten statt Schlagworte

Das Toolkit verzichtet auf abstrakte Leitbilder und bietet stattdessen praktische Vorlagen, Checklisten und Policy-Entwürfe. Auf den ersten Seiten geht es um grundlegende Fragen: Wer trägt Verantwortung, wenn KI falsch entscheidet? Wie kann Bias erkannt werden? Und wie lassen sich technische Blackboxes juristisch kontrollieren?

Auch konkrete Szenarien werden durchgespielt: etwa, wenn ein KI-Modell Bewerber anhand von Sprache bewertet – und dabei ungewollt diskriminiert. Oder wenn ein Sprachmodell in der Kundenkommunikation Falschaussagen generiert. In beiden Fällen steht nicht der Entwickler, sondern oft das Unternehmen in der Pflicht.

Corporate Counsel als Risikonavigator

Da KI die Geschäftsabläufe weiterhin verändert, müssten Unternehmen nicht nur ihre Fähigkeiten nutzen, sondern auch die damit verbundenen rechtlichen und Compliance-Risiken mindern. Laut ACC-Präsidentin Veta T. Richardson seien Unternehmensjuristen in einer „einzigartigen Position“, um Innovation mit Vorschriften in Einklang zu bringen.

Für deutsche Rechtsabteilungen ist das kein Neuland – aber der Ton ändert sich. Während in vielen Unternehmen Compliance lange als Bremse galt, wird sie im KI-Zeitalter zur Schlüsselstelle für strategische Weichenstellungen. Wer frühzeitig die juristischen Rahmenbedingungen kläre, könne Risiken begrenzen und Innovation beschleunigen.

Brücke zum europäischen Rechtsraum

Obwohl das Toolkit aus dem US-amerikanischen ACC-Netzwerk stammt, sind viele Inhalte unmittelbar auf den deutschen Markt übertragbar. Die behandelten Themen – Datenschutz, Haftung, Bias, Transparenz – stehen auch im Zentrum des EU AI Acts. Dieser sieht unter anderem vor, KI-Systeme nach Risikoklassen einzuteilen und strenge Dokumentationspflichten für „High-Risk“-Anwendungen durchzusetzen.

Vor allem der Fokus auf interdisziplinäre Zusammenarbeit zwischen Juristen, IT und Management dürfte deutschen Unternehmen helfen. Der AI Act fordert genau das – viele Governance-Modelle sind dafür aber noch nicht gerüstet. Das Toolkit könnte als temporärer Kompass dienen, bis verbindliche Standards verfügbar sind.

Governance wird operativ

Neben dem Toolkit hat die ACC auch die globale Initiative „AI Center of Excellence for In-House Counsel“ angekündigt. Es soll juristische Fachkräfte mit Schulungen, Ressourcen und Best Practices versorgen – und ihnen helfen, sich in einem rechtlich wie ethisch schnell verändernden KI-Umfeld zurechtzufinden.

Auch in Deutschland dürfte das auf Interesse stoßen. Denn der Bedarf ist real: Während KI in vielen IT-Abteilungen längst produktiv läuft, fehlt es auf juristischer Seite oft noch an strukturiertem Know-how. Gerade mittelständische Unternehmen tun sich schwer, Compliance-Strukturen jenseits von DSGVO und IT-Sicherheitsgesetz aufzubauen.

Kein Handbuch, aber ein Anfang

Das Toolkit ist kein juristisches Allheilmittel – aber ein brauchbares Hilfsmittel. Es bündelt Wissen, strukturiert Risiken und zeigt, wie juristische Begleitung im KI-Kontext nicht zum Showstopper, sondern zur operativen Ressource wird.

Für Unternehmen mit internationalen Märkten oder KI-Projekten mit hohem Risiko ist das Toolkit mehr als eine gute Idee. Es könnte die Grundlage bilden für eine neue Rolle des Unternehmensjuristen: als Navigator zwischen Daten, Ethik und Gesetz.

(ID:50453733)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung