Der AI Act ist eine im August 2024 in Kraft getretene EU-Verordnung zur Regulierung von Künstlicher Intelligenz. Weltweit ist sie die erste derart umfangreiche gesetzliche Regelung. Ihre Vorgaben sind mit entsprechenden Übergangsfristen zu erfüllen. KI-Systeme mit inakzeptablem Risiko verbietet der AI Act.
Der AI Act ist die Verordnung der EU zur Regulierung von Künstlicher Intelligenz.
Die deutsche Bezeichnung für den Artificial Intelligence Act, kurz AI Act, lautet KI-Verordnung oder Verordnung über Künstliche Intelligenz. Es handelt sich um einen Rechtsakt der Europäischen Union zur Regulierung von Künstlicher Intelligenz. Weltweit ist sie die erste derart umfassende Verordnung dieser Art. Der AI Act soll die gesetzlichen Rahmenbedingungen für die KI-Nutzung in der Europäischen Union schaffen und sie in sichere Bahnen lenken. Die KI-Verordnung stellt eine Art Balanceakt zwischen Innovation und Risikoschutz dar. Sie verfolgt einen risikobasierten Ansatz und enthält konkrete Vorgaben für die Bereitstellung und den Umgang mit Künstlicher Intelligenz. Die KI-Systeme werden in verschiedene Risikoklassen eingeteilt. KI-Systeme mit inakzeptablem Risiko verbietet der AI Act.
Die Ausarbeitung des AI Act begann im Rahmen der EU-Digitalstrategie schon vor einigen Jahren. Im Mai 2024 verabschiedeten die 27 Mitgliedstaaten der EU schließlich die Verordnung. Nach der Veröffentlichung des Rechtsakts im Amtsblatt der EU im Juli 2024 (Verordnung (EU) 2024/1689) trat der AI Act am 1. August 2024 in der Europäischen Union offiziell in Kraft. Die Vorgaben der Verordnung sind mit entsprechenden Übergangsfristen schrittweise zu erfüllen. Die Mitgliedstaaten sind für die Überwachung und Durchsetzung der Vorgaben verantwortlich. Ein eigenes European Artificial Intelligence Board soll sie dabei unterstützen. Für Verstöße gegen die Vorgaben sieht der Artificial Intelligence Act die Möglichkeit der Verhängung von Strafen wie Bußgeldern vor.
Die dem AI Act zugrundeliegende Definition für Künstliche Intelligenz
Künstliche Intelligenz ist ein sehr weit gefasster Begriff und wird teils recht unterschiedlich definiert. Allgemein versteht man unter Künstlicher Intelligenz die Fähigkeit von Maschinen (beziehungsweise Computern) unter Nachahmung menschlicher Fähigkeiten, autonom Aufgaben zu bearbeiten, Problemstellungen zu lösen oder Entscheidungen zu treffen. Um klarzustellen, auf welche Technologien und Systeme sich der AI Act bezieht und wie sich KI von traditioneller Software abgrenzt, enthält der AI Act im Kapitel 3 (Begriffsbestimmungen) eine Definition, was unter KI und einem KI-System zu verstehen ist. Die Definition ist allgemein gehalten und weit gefasst. Ein KI-System ist laut AI Act ein maschinengestütztes System, das mit unterschiedlichem Grad an Autonomie ohne menschliches Eingreifen arbeitet. Es ist anpassbar und leitet ab, wie es Ausgaben (zum Beispiel Vorhersagen, Entscheidungen, Empfehlungen oder Inhalte) aus den Eingaben generiert. Die Ausgaben des KI-Systems können sowohl virtuelle als auch physische Umgebungen beeinflussen.
Der Artificial Intelligence Act soll die gesetzlichen Rahmenbedingungen für den Einsatz und die Entwicklung von Künstlicher Intelligenz in der EU schaffen. Der AI Act lenkt die Entwicklung, Bereitstellung und Nutzung von KI-Systemen in sichere Bahnen. Ziel ist es, die Grundrechte der EU-Bürger zu wahren, Rechtssicherheit herzustellen und Sicherheitsstandards für den Betrieb von KI-Systemen und den Umgang mit KI-Anwendungen festzulegen, ohne dass die Entwicklung von KI und KI-Innovationen zu stark eingeschränkt werden. Insgesamt sollen das Vertrauen in die Technologie und die Akzeptanz von Künstlicher Intelligenz gestärkt werden. Durch Künstliche Intelligenz verursachte Risiken oder Schäden sollen verhindert oder minimiert werden. Die in der EU bereits vorhandenen Regeln für den Anwendungsbereich der Künstlichen Intelligenz werden harmonisiert. Insgesamt soll der AI Act dazu beitragen, dass sich KI in der EU zum Vorteil der Wirtschaft, Wissenschaft und Bevölkerung weiterentwickelt.
Anwendungsbereich des AI Act
Kapitel 1 des AI Act legt den Anwendungsbereich fest. Von den Regeln und Vorgaben der Verordnung sind demnach sowohl Betreiber als auch Nutzer von Künstlicher Intelligenz betroffen. Unter anderem nennt der AI Act als Anwendungsbereiche Anbieter, Betreiber, Einführer, Händler, Produkthersteller und Bevollmächtigte von Anbietern von KI-Systemen in der EU. Damit sind juristische Personen wie Unternehmen, Behörden oder andere Einrichtungen von den Vorgaben des AI Act betroffen, sobald sie KI-Systeme in der EU anbieten, in Verkehr bringen, betreiben oder nutzen. Auch natürliche Personen in der EU sind als Nutzer von KI-Systemen vom AI Act betroffen. Prinzipiell gilt das Marktortprinzip. Es bedeutet, dass die Verordnung Anwendung findet, sobald Künstliche Intelligenz auf den EU-Markt gerichtet ist, auch wenn der Anbieter seinen Sitz in einem Drittland hat. Nicht in den Anwendungsbereich des AI Act fallen KI-Systeme, die ausschließlich zu militärischen Zwecken, zu Verteidigungszwecken oder für Belange der nationalen Sicherheit zum Einsatz kommen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Der Artificial Intelligence Act verfolgt einen risikobasierten Ansatz. KI-Systeme werden in verschiedene Risikostufen eingeteilt. Die Anforderungen an die KI-Systeme sind von den jeweiligen Risikostufen abhängig. Die Vorgaben werden mit steigendem Risiko strenger. Folgende Risikostufen werden vom AI Act definiert:
- KI-Systeme mit inakzeptablem Risiko
- KI-Systeme mit hohem Risiko
- KI-Systeme mit begrenztem Risiko
- KI-Systeme mit niedrigem oder keinem Risiko
KI-Systeme mit inakzeptablem Risiko (zum Beispiel Social Scoring, manipulative KI-Systeme oder Systeme zur biometrischen Echtzeitfernidentifizierung im öffentlichen Raum) sind unverhältnismäßig riskant für die Grundrechte und die Sicherheit der EU-Bürger und grundsätzlich verboten. Hohes Risiko liegt bei KI-Systemen vor, die in sensiblen oder systemkritischen Bereichen zum Einsatz kommen (zum Beispiel in Flugzeugen oder in der Energieversorgung). Ein begrenztes Risiko haben KI-Systeme in weniger kritischen Bereichen (zum Beispiel Chatbots im Kundensupport). KI-Systeme mit geringem oder keinem Risikopotenzial sind beispielsweise Videospiele oder KI-basierte Spamfilter und Suchalgorithmen.
Anforderungen des AI Act
Die vom AI Act gestellten Anforderungen an die KI-Systeme und ihre Anbieter, Betreiber, Einführer, Händler, Hersteller oder Nutzer sind abhängig von der jeweiligen Risikostufe. KI-Systeme mit inakzeptablem Risiko sind grundsätzlich verboten. Für KI-Systeme mit hohem Risiko gelten unter anderem diese Anforderungen:
- Konformitätsbewertung durch eine unabhängige Stelle
- Einrichtung eines Risikomanagementsystems
- Einhaltung von Daten-Governance-Verfahren
- Einhaltung von Datenqualitätskriterien
- Führen einer angemessenen technischen Dokumentation
- automatische Aufzeichnung der KI-Vorgänge und KI-Ereignisse
- transparente Information der Nutzer
- wirksame menschliche Beaufsichtigung der KI-Systeme durch natürliche Personen
- angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit
Bei KI-Systemen mit einem begrenzten Risiko sind hauptsächlich Transparenzpflichten zu erfüllen. Keine speziellen Anforderungen sieht der AI Act für KI-Systeme mit niedrigem oder keinem Risiko vor.
Für generative KI-Anwendungen wie generative Sprach- oder Bildmodelle und Chatbots wurde der Begriff GPAI (General Purpose AI) geschaffen. Solche Anwendungen unterliegen speziellen, von der Risikokategorisierung abweichenden Anforderungen. Die Sonderregelung ist eine Reaktion auf die schnelle Verbreitung generativer KI während der Ausarbeitung des AI Act. Anforderungen für GPAI umfassen zum Beispiel Kennzeichnungspflichten für KI-generierte Inhalte, die Bereitstellung von technischen Unterlagen und Gebrauchsanweisungen, die Veröffentlichung einer Zusammenfassung der für das Training verwendeten Inhalte oder die Informationspflicht, dass ein Anwender mit einem KI-System und nicht mit einem Menschen interagiert. Für GPAI-Modelle, die ein systemisches Risiko darstellen, sind weitere Anforderungen zu erfüllen wie die Durchführung von Modellbewertungen und Tests oder das Verfolgen und Melden von schwerwiegenden Vorfällen.
Der weitere Fahrplan zur Anwendung des AI Act und mögliche Sanktionen
In Kraft getreten ist der AI Act am 1. August 2024. Die Vorgaben gelten allerdings nicht sofort, sondern finden zeitlich gestaffelt in mehreren Schritten Anwendung. Die Übergangsfristen erstrecken sich über mehrere Jahre. Verbote für KI-Systeme mit inakzeptablem Risiko greifen ab Februar 2025. Die Auflagen für KI-Systeme mit allgemeinem Verwendungszweck gelten nach zwölf Monaten, einige der weiteren Vorgaben erst nach zwei beziehungsweise drei Jahren. Darunter insbesondere einige Regelungen für Hochrisikosysteme. Bis zum August 2025 müssen die EU-Mitgliedstaaten auch die zuständigen nationalen Behörden zur Überwachung der Vorgaben benannt haben. Verstöße gegen den AI Act können ebenfalls zeitlich gestaffelt ab 2025 mit Geldstrafen oder rechtlichen Konsequenzen geahndet werden. Es sind Geldstrafen von bis zu 35 Millionen Euro oder bis zu sieben Prozent des weltweiten Jahresumsatzes eines Unternehmens möglich.