Alle Artikel
5. Oktober 202516 Min. Lesezeit • Aktualisiert 5. Dez.

EU AI Act: Was jetzt gilt und was kommt

Verbote seit Februar 2025 aktiv, High-Risk-Deadline auf Dezember 2027 verschoben. Klassifizierung, Anforderungen und Compliance-Roadmap für deutsche Unternehmen.

35 Millionen Euro Strafe. Oder 7% des globalen Jahresumsatzes – je nachdem, was höher ist.

Das ist keine theoretische Drohung. Die Verbote für Social Scoring und Emotion Recognition am Arbeitsplatz gelten seit Februar 2025. Wer sie noch nutzt, ist bereits im Verstoß.

Timeline: Was gilt, was kommt

EU AI Act Timeline
August 2024 ✓ Abgeschlossen

In Kraft getreten

EU-weit gültig

Februar 2025 ✓ Abgeschlossen

Verbote aktiv

  • Social Scoring
  • Emotion Recognition (Arbeitsplatz)
  • Manipulative Systeme
August 2025 ✓ Abgeschlossen

Governance-Pflichten

  • AI Literacy (Schulung)
  • GPAI-Modell-Anforderungen
  • Behörden-Benennung
Dezember 2027Verschoben von Aug 2026

High-Risk-Systeme

  • Vollständige Compliance
  • CE-Kennzeichnung
  • Conformity Assessment
August 2028

Embedded AI

  • Maschinen
  • Medizinprodukte

Digital Omnibus (Nov 2025): Die EU-Kommission hat die High-Risk-Deadline auf Dez 2027 verschoben. Parlament und Rat müssen noch zustimmen.

Update November 2025: Die EU-Kommission hat mit dem "Digital Omnibus" eine Verschiebung der High-Risk-Deadline auf Dezember 2027 vorgeschlagen. Begründung: Viele Mitgliedstaaten haben die August-2025-Deadline für Behörden-Benennung verpasst, und Unternehmen brauchen mehr Zeit zur Anpassung. Parlament und Rat müssen noch zustimmen.

Für Ihre Planung: Nutzen Sie die zusätzliche Zeit für fundierte Compliance – nicht als Ausrede zum Abwarten. Die Verbote gelten bereits, und die Dokumentationsanforderungen sind erheblich.

Deutschland: Status quo

AspektStatus
Nationales UmsetzungsgesetzEntwurf vom 11.09.2025, Konsultation bis 10.10.2025
Zuständige BehördeBundesnetzagentur (Marktüberwachung)
CybersecurityBSI
DatenschutzBfDI
Deadline verpasst?Ja – August 2025 Deadline wurde nicht eingehalten

Deutschland hat die August-2025-Deadline für die Behörden-Benennung verpasst – bedingt durch die vorgezogenen Bundestagswahlen. Das "KI-Marktüberwachungs- und Innovationsförderungsgesetz (KI-MIG)" ist in Arbeit.

Die 4 Risikokategorien

Unacceptable Risk – VERBOTEN seit Februar 2025

Diese Praktiken sind jetzt illegal. Keine Übergangsfrist, keine Ausnahmen (außer Strafverfolgung unter strengen Bedingungen):

Verbotene PraktikWas darunter fällt
Social ScoringBewertung von Personen basierend auf Sozialverhalten
Emotion Recognition (Arbeitsplatz/Schule)Erkennung von Gefühlen bei Mitarbeitern oder Schülern
Biometrische KategorisierungKlassifizierung nach Rasse, Religion, sexueller Orientierung
Predictive PolicingVorhersage von Straftaten basierend auf Profiling
Ungezielte GesichtserkennungMassensammlung aus Internet oder CCTV
Subliminal ManipulationUnterschwellige Beeinflussung

Prüfen Sie jetzt: Nutzen Sie ein HR-Tool mit Stimmungsanalyse? Werden Bewerber-Videos auf "Engagement" analysiert? Das könnte bereits ein Verstoß sein.

High Risk – Compliance bis Dezember 2027

Wenn Ihr KI-System in einen dieser Bereiche fällt, unterliegen Sie den vollständigen Anforderungen der Artikel 9-15:

HR & Beschäftigung:

  • Bewerber-Screening und CV-Parsing
  • Performance-Bewertung
  • Beförderungs- und Kündigungsentscheidungen

Kreditwürdigkeit:

  • Scoring für natürliche Personen
  • Kreditentscheidungen

Bildung:

  • Prüfungsbewertung
  • Zugangsentscheidungen
  • Lernverhalten-Analyse

Kritische Infrastruktur:

  • Energie-Management
  • Verkehrssteuerung
  • Wasserversorgung

Sicherheitskomponenten:

  • In Medizinprodukten
  • In Maschinen
  • In Spielzeugen

Limited Risk – Transparenzpflichten

SystemAnforderung
ChatbotsMüssen als KI erkennbar sein
Deepfake-GeneratorenOutput muss gekennzeichnet sein
Emotion Recognition (wenn erlaubt)Mit Hinweis
Biometrische Kategorisierung (wenn erlaubt)Mit Hinweis

Minimal Risk – Keine besonderen Anforderungen

Spam-Filter, KI-gestützte Spiele, einfache Empfehlungsalgorithmen, Korrektur-Assistenten.

Self-Assessment: Bin ich betroffen?

1. Setzen Sie KI ein?
   └─ Nein → Aktuell nicht betroffen (aber planen Sie voraus)
   └─ Ja → weiter

2. Verbotene Kategorie?
   ├─ Social Scoring?
   ├─ Emotion Recognition am Arbeitsplatz?
   ├─ Biometrische Massenüberwachung?
   └─ Ja zu einer → SOFORT STOPPEN (bereits im Verstoß!)

3. High-Risk-Kategorie?
   ├─ HR/Recruiting-Entscheidungen?
   ├─ Kreditwürdigkeitsprüfung?
   ├─ Bildungsentscheidungen?
   ├─ Kritische Infrastruktur?
   └─ Ja → Full Compliance bis Dez 2027

4. Interaktion mit Menschen?
   ├─ Chatbot/Voicebot?
   ├─ Generiert synthetische Inhalte?
   └─ Ja → Transparenzpflichten

5. Keines der obigen → Minimal Risk

High-Risk: Die 8 Anforderungen im Detail

Wenn Ihr System als High-Risk klassifiziert wird, müssen Sie ALLE folgenden Anforderungen nachweisbar erfüllen.

1. Risk Management System (Art. 9)

Was gefordert ist:

  • Dokumentiertes Risikomanagement-System
  • Identifikation bekannter und vorhersehbarer Risiken
  • Bewertung und Priorisierung
  • Mitigationsmaßnahmen
  • Kontinuierliche Aktualisierung

Praktische Umsetzung:

RisikoWahrscheinlichkeitAuswirkungMitigationVerantwortlichReview
Bias in Bewerber-RankingMittelHochFairness-Testing, diverse TrainingsdatenData Science LeadQuartalsweise
FehlentscheidungenNiedrigHochHuman-in-the-Loop, Confidence-SchwellenProduct OwnerBei Modell-Update
..................

2. Data Governance (Art. 10)

Was gefordert ist:

  • Dokumentation der Trainingsdaten
  • Qualitätskriterien
  • Bias-Prüfung
  • Nachvollziehbare Daten-Herkunft

Minimum-Dokumentation:

  • Datenquellen (woher?)
  • Datentypen und -formate
  • Verarbeitungsschritte
  • Bias-Analyse (durchgeführt? Ergebnis?)
  • Repräsentativität (für welche Population geeignet?)
  • Erhebungszeitraum

3. Technische Dokumentation (Art. 11)

Umfang: 50-100+ Seiten für komplexe Systeme. Enthält:

  • Allgemeine Systembeschreibung
  • Design-Spezifikation und Architektur
  • Verwendete Algorithmen und Modelle
  • Trainings- und Testverfahren
  • Leistungskennzahlen und Benchmarks
  • Bekannte Einschränkungen

Empfehlung: Beginnen Sie jetzt. Diese Dokumentation lässt sich nicht in wenigen Wochen erstellen.

4. Record-Keeping / Logging (Art. 12)

Was gefordert ist:

  • Automatische Protokollierung aller Events
  • Rückverfolgbarkeit von Entscheidungen
  • Aufbewahrung für Aufsichtsbehörden
# Beispiel: Logging für High-Risk AI-System
audit_log = {
    "timestamp": "2025-12-05T14:30:00Z",
    "system_id": "hr-screening-v2",
    "input_hash": "sha256:abc...",  # Nicht die Daten selbst
    "decision": "recommended_interview",
    "confidence": 0.87,
    "model_version": "v2.3.1",
    "user_id": "recruiter_123",
    "human_override": False
}

Wichtig: Loggen Sie Entscheidungen, nicht die personenbezogenen Daten selbst.

5. Transparenz (Art. 13)

Was gefordert ist:

  • Verständliche Bedienungsanleitung
  • Erklärung der Funktionsweise
  • Dokumentierte Einschränkungen und Risiken
  • Informationen über menschliche Aufsicht

Zielgruppe: Die Nutzer des Systems, nicht Data Scientists. In verständlicher Sprache.

6. Human Oversight (Art. 14)

Was gefordert ist:

  • Menschen können das System verstehen
  • Menschen können Output interpretieren
  • Menschen können eingreifen und übersteuern
  • Menschen können das System stoppen

Design-Checklist:

AnforderungImplementierung
Wer ist verantwortlich?Rolle definiert und dokumentiert
Wie verstehen sie das System?Training absolviert
Wie können sie eingreifen?Override-Mechanismus vorhanden
Wann MÜSSEN sie eingreifen?Eskalationskriterien definiert
Wie können sie stoppen?Kill Switch implementiert

7. Accuracy, Robustness, Cybersecurity (Art. 15)

Was gefordert ist:

  • Definierte und dokumentierte Genauigkeitsstufen
  • Robustheit gegen Fehler und Manipulation
  • Cybersecurity-Maßnahmen
  • Schutz vor Adversarial Attacks

Minimum-Metriken:

Performance-Baseline:
├─ Accuracy: 94% (auf repräsentativem Testset)
├─ Precision: 91%
├─ Recall: 89%
├─ False Positive Rate: 6%
├─ Subgroup-Fairness: geprüft (keine >5% Abweichung)
├─ Adversarial Robustness: getestet
└─ Security Audit: [Datum]

8. Conformity Assessment (Art. 43)

Optionen:

  • Self-Assessment (für die meisten High-Risk-Systeme)
  • Third-Party Assessment (bei Biometrie, kritischer Infrastruktur)

Ergebnis:

  • CE-Kennzeichnung
  • EU-Konformitätserklärung
  • Eintrag in EU-Datenbank

Strafen

VerstoßStrafe
Verbotene Praktiken€35 Mio. oder 7% globaler Umsatz
High-Risk ohne Compliance€15 Mio. oder 3% globaler Umsatz
Falsche Informationen an Behörden€7,5 Mio. oder 1% globaler Umsatz

Für KMU: Der niedrigere absolute Betrag gilt – aber immer noch erheblich.

Die häufigsten Fehler

"Wir haben keine High-Risk-Systeme"

Realität: HR-Tools sind fast immer High-Risk. CV-Parsing, Bewerber-Ranking, Performance-Bewertung – wenn KI an Entscheidungen über Menschen beteiligt ist, prüfen Sie die Klassifizierung genau.

"Das betrifft nur KI-Anbieter"

Realität: Der AI Act gilt für Anbieter UND Betreiber. Wenn Sie ChatGPT Enterprise oder ein SaaS-Tool für Entscheidungen nutzen, die Menschen betreffen, sind Sie Betreiber eines potenziell High-Risk-Systems.

"KI-Entscheidungen sind objektiver als Menschen"

Realität: Der AI Act fordert Human Oversight. Menschen müssen Entscheidungen verstehen und übersteuern können. Vollautomatische Entscheidungen ohne menschliche Kontrolle sind bei High-Risk-Systemen problematisch.

"Wir warten auf die deutsche Umsetzung"

Realität: Der AI Act ist eine EU-Verordnung – er gilt direkt. Die deutsche Umsetzung regelt nur nationale Behörden und Details. Warten ist keine Compliance-Strategie.

"Die Deadline wurde ja verschoben"

Realität: Die Verschiebung auf Dezember 2027 ist noch nicht final (Parlament/Rat müssen zustimmen). Und selbst wenn: Die Dokumentationsanforderungen sind erheblich. Wer jetzt nicht anfängt, wird auch 2027 nicht compliant sein.

Compliance-Roadmap

Phase 1: Inventar & Klassifizierung (Q1 2026)

  • Alle KI-Systeme erfassen (inkl. Shadow AI, SaaS-Tools)
  • Risikokategorie pro System bestimmen
  • Verbotene Praktiken sofort stoppen
  • High-Risk-Systeme priorisieren

Phase 2: Gap-Analyse (Q2 2026)

  • Anforderungen Art. 9-15 gegen Ist-Zustand prüfen
  • Gaps dokumentieren
  • Aufwandsschätzung pro Gap
  • Roadmap mit Verantwortlichkeiten

Phase 3: Dokumentation (Q3-Q4 2026)

  • Technische Dokumentation erstellen
  • Risk Management System aufsetzen
  • Data Governance dokumentieren
  • Logging implementieren

Phase 4: Controls & Testing (H1 2027)

  • Human Oversight implementieren
  • Accuracy/Robustness testen
  • Security Audit durchführen
  • Transparenz-Materialien erstellen

Phase 5: Assessment & Maintenance (H2 2027)

  • Conformity Assessment durchführen
  • CE-Kennzeichnung anbringen
  • EU-Datenbank-Eintrag
  • Kontinuierliches Monitoring aufsetzen

Die drei Fragen für Ihr nächstes Board-Meeting

  1. Inventar: Welche KI-Systeme haben wir im Einsatz – und in welche Risikokategorie fallen sie?
  2. Verantwortung: Wer ist für AI-Act-Compliance verantwortlich, und hat diese Person Budget und Mandat?
  3. Nachweis: Können wir dokumentieren, dass unsere High-Risk-Systeme die Artikel 9-15 erfüllen?

Wenn Sie eine dieser Fragen nicht beantworten können, ist jetzt der richtige Zeitpunkt zu starten.

Weiterführend

AI Security Insights

Einmal im Monat. Kein Spam.

Was passiert in der Welt der KI-Security? Welche Risiken sollten Sie kennen? Ich fasse das Wichtigste zusammen - verständlich, pragmatisch, ohne Buzzwords.

Einmal pro Monat Jederzeit abbestellbar Kein Spam, versprochen