Die europäische KI-Verordnung

Das Wichtigste auf einen Blick

Künstliche Intelligenz (KI) hat in der Geschäftswelt unzählige Use Cases – von automatisierten Analysen bis hin zu personalisierten Angeboten. Doch mit der europäischen KI-Verordnung gibt es nun neue Regeln für den Einsatz. Wir fassen sie zusammen.

Die Potenziale künstlicher Intelligenz für Effizienz und Innovation sind enorm. Doch als Entscheidungsträger stehen Sie vor der Herausforderung, Rechtssicherheit mit unternehmerischer Ambition in Einklang zu bringen.

Dieser Blogartikel liefert Ihnen einen kompakten Überblick über den „European AI Act“ – von den risikobasierten Regulierungsstufen über Transparenzpflichten bis hin zu konkreten Handlungsempfehlungen.

Erfahren Sie hier, welche Anforderungen von 2025 bis 2027 auf Ihr Unternehmen zukommen, wenn Sie KI einsetzen wollen, und wie Sie sich optimal darauf vorbereiten.

Der AI Act im Überblick

Der AI Act ist das erste umfassende KI-Gesetz der EU, verabschiedet am 21. Mai 2024 vom Europäischen Rat, veröffentlicht am 12. Juli 2024 im Amtsblatt und wirksam seit dem 1. August 2024. Verschiedene Pflichten treten schrittweise zwischen 2025 und 2027 in Kraft.

Die Verordnung polarisiert:

Befürworter sagen: „Der AI Act schützt Kunden und schafft Vertrauen. Ohne Regeln beim Einsatz einer so mächtigen Technologie wie KI drohen Missbrauch und Chaos.“

Kritiker meinen: „Zu viel Bürokratie bremst Innovation. Die USA und China könnten Europa überholen.“ Startups und KMUs sorgen sich zudem um die Kosten.

Wie sieht die Realität aus?

Die primären Ziele des Acts bestehen zunächst einmal in diesen vier Punkten:

Für Unternehmen bedeutet der Act jedoch auch, dass nicht alles, was durch KI (wie sie in Artikel 3 definiert ist) möglich ist, auch umgesetzt werden darf. Egal, ob Sie KI für Marketing, Produktion oder Recruiting nutzen wollen – der AI Act wird Sie in einem gewissen Maße betreffen.

Seit dem 2. Februar 2025 müssen Unternehmen zudem dafür sorgen, dass Mitarbeiter im Umgang mit KI-Tools geschult werden, wenn diese eingesetzt werden sollen (Artikel 4). Der AI Act verpflichtet Unternehmen dazu, sicherzustellen, dass Mitarbeitende, die mit KI-Systemen arbeiten, über ausreichende KI-Kompetenz verfügen.

Dies umfasst nicht nur technisches Wissen, sondern auch rechtliche und ethische Aspekte sowie das Verständnis für Risiken und den verantwortungsvollen Umgang mit KI-Systemen.

Ein formeller Nachweis – etwa durch ein Zertifikat – ist nicht vorgeschrieben. Es wird jedoch empfohlen, Schulungsmaßnahmen zu dokumentieren, einschließlich einer Liste der Teilnehmer.

Sandboxes und AI Pact

Der EU AI Act beinhaltet nicht nur Regulierungen. Er unterstützt Startups und KMU auch durch sogenannte „Sandboxes“: Diese isolierten Testumgebungen ermöglichen es Unternehmen, KI-Lösungen sicher zu testen, ohne dabei alle Anforderungen der Verordnung erfüllen zu müssen. Mit Unterstützung und Feedback von Aufsichtsbehörden können die Unternehmen ihre Tools nach und nach an regulatorische Standards anpassen. Dies reduziert finanzielle Risiken und fördert Innovationen, indem es kleineren Akteuren den Markteintritt erleichtert.

Zusätzlich dazu besteht im „AI Pact“ eine freiwillige Initiative, die Startups und KMU dabei hilft, sich frühzeitig auf die Anforderungen des AI Acts vorzubereiten. Durch Zugang zu Ressourcen – etwa Informationen über Best Practices – und Experten-Feedback können Unternehmen ihre Prozesse leichter anpassen und gleichzeitig von einer engeren Zusammenarbeit mit den Regulierungsbehörden profitieren.

Risikostufen: Welche Arten von KI werden wie reguliert?

Der AI Act der EU teilt KI-Systeme in vier Risikoklassen ein, für die unterschiedliche Regeln gelten.

1. Unannehmbares Risiko: Tabus für Unternehmen

Einige KI-Anwendungen sind seit dem 2. Februar 2025 verboten (Artikel 5), nämlich:

Nutzen Sie solche Anwendungen, müssen Sie gemäß Artikel 99 mit hohen Bußgeldern rechnen: bis zu 35 Millionen Euro oder 7 % des Jahresumsatzes, je nachdem, welcher Betrag höher ist. Weitere Bußgeldstufen: 15 Millionen Euro oder 3 % und 7,5 Millionen Euro oder 1 % bei anderen Verstößen (z. B. fehlerhafte Dokumentation, fehlende Transparenz).

2. Hohes Risiko: Strenge Anforderungen für sensible Bereiche

Hochrisiko-KI (Artikel 6) ist wohl der Kern der KI-Verordnung: Wenn Sie KI in sensiblen Bereichen einsetzen, müssen Sie ab 2026 strenge Regeln einhalten. Dies sind die Bereiche, die betroffen sind:

Beispiele:

Hochrisiko-KI erfordert ab 2026 …

Unternehmen, die Hochrisiko-KI verwenden wollen, müssen mit hoher Wahrscheinlichkeit Prozesse anpassen und Kosten für rechtliche Prüfungen einplanen – was besonders für Startups eine Hürde sein dürfte. Dennoch kann sich der Einsatz von KI lohnen.

Die Liste der KI-Anwendungen, die in die Kategorie der Hochrisiko-KI fallen, findet sich in Anhang III. Dieser Anhang kann gemäß Artikel 7 unter bestimmten Bedingungen aktualisiert werden.

3. Begrenztes Risiko: Flexibilität für Alltags-KI

KI mit geringem Risiko – dazu zählen Chatbots, Marketing-Tools oder Empfehlungsalgorithmen – unterliegt kaum Regularien.

Es besteht keine Pflicht zur Registrierung oder zur Überprüfung, wenn Sie als Unternehmen diese Art von künstlicher Intelligenz einsetzen. Die Systeme müssen sich lediglich als KI zu erkennen geben, beispielsweise durch einen Hinweis wie: „Ich bin ein Chatbot und werde versuchen, Ihre Fragen zu beantworten”.

Eine solche Kennzeichnung kann sogar ein Vorteil sein: Wenn Sie offen kommunizieren, dass Sie KI verwenden, macht Sie das in den Augen potenzieller Kunden vertrauenswürdiger. Andersherum könnte es – nicht nur von KI-kritischen Nutzern – als versuchte Täuschung wahrgenommen werden, wenn Sie es nicht tun.

4. Minimales Risiko: Freie Bahn für unkritische KI

Diese Kategorie umfasst alle KI‑Anwendungen, die weder verboten noch riskant sind und auch nicht unter die Transparenz­pflichten fallen (siehe unten).

Typische Beispiele:

Dokumentieren Sie dennoch, in welchen Bereichen Sie welche Tools einsetzen. Zum einen wollen Sie den Überblick bewahren, zum anderen kann es jederzeit passieren, dass ein Update der Funktionen die KI-Anwendung auf eine höhere Sicherheitsstufe hebt oder Sie im Zuge einer umfassenden Risikobewertung auch Auskunft über (vermeintlich) risikofreie KI geben müssen, die Sie einsetzen.

Transparenzpflichten

Neben den genannten Verboten und Vorschriften ist Transparenz ein wichtiger Aspekt des AI Acts. Artikel 50 verpflichtet Anbieter und Betreiber bestimmter KI-Systeme dazu, Nutzer darüber zu informieren, dass sie mit einem KI-System interagieren, es sei denn, dies ist offensichtlich.

Zwei Aspekte sind von besonderer Bedeutung:

Das Ziel dieser Transparenzpflichten besteht also zum einen darin, die Auswirkungen von KI-Halluzinationen (Falschinformationen) zu begrenzen, zum anderen soll es verhindern, dass KI zu unlauteren Zwecken verwendet wird, etwa um Politiker durch Bilder und Videos zu diskreditieren.

So geht es jetzt weiter

Der europäische AI Act wird schrittweise umgesetzt. Hier noch einmal die Daten im Überblick:

Wer früh handelt und sich vorbereitet, spart später Kosten und gewinnt Wettbewerbsvorteile.

Das sollten Sie jetzt tun

Wir empfehlen Ihnen die folgenden Maßnahmen als nächste Schritte:

Chancen und Herausforderungen der KI-Verordnung

Der EU AI Act bringt viele Veränderungen mit sich. Einige können für Unternehmen zunächst einmal eine Belastung sein:

Jedoch hat der EU AI Act auch Vorteile für Unternehmen:

Die richtige Balance zwischen Sicherheit und Innovation zu finden, ist nicht immer einfach. Die KI-Verordnung macht hierzu einen ersten Vorschlag – der zugegebenermaßen einige strenge Regeln beinhaltet, die den Einsatz von KI in Unternehmen deutlich erschweren können. Andererseits können vor allem kleine und mittelgroße Unternehmen von den zusätzlichen Maßnahmen – den Sandboxes und dem AI Pact – profitieren.

Es bleibt also abzuwarten, welche Auswirkungen die KI-Verordnung in der Praxis haben wird, nicht zuletzt, weil es noch einige Zeit dauern wird, bis sie vollständig wirksam ist.

Fazit

Der AI Act ist ein risikobasierter Ansatz. KI-Systeme werden nicht alle gleich behandelt, sondern je nach Gefahrenpotenzial unterschiedlich strengen Regeln unterworfen.

Für Unternehmen ist die Verordnung Herausforderung und Chance zugleich. Bis 2026 müssen Sie Ihre KI-Systeme prüfen, dabei vor allem Hochrisiko-Anwendungen identifizieren und Transparenz sicherstellen. Die Kosten können hoch sein, doch eine Compliance mit dieser strengen Regulierung stärkt auch das Vertrauen von Mitarbeitern, Kunden und Partnern in die eingesetzten KI-Tools und das Unternehmen insgesamt.

Auch wenn der AI Act noch nicht vollständig in Kraft getreten ist, sollten Unternehmen schon jetzt umfassende Audits vornehmen, um für die Zukunft optimal vorbereitet zu sein.