EU AI Act: Was jetzt gilt und was kommt
Verbote seit Februar 2025 aktiv, High-Risk-Deadline auf Dezember 2027 verschoben. Klassifizierung, Anforderungen und Compliance-Roadmap für deutsche Unternehmen.
35 Millionen Euro Strafe. Oder 7% des globalen Jahresumsatzes – je nachdem, was höher ist.
Das ist keine theoretische Drohung. Die Verbote für Social Scoring und Emotion Recognition am Arbeitsplatz gelten seit Februar 2025. Wer sie noch nutzt, ist bereits im Verstoß.
Timeline: Was gilt, was kommt
In Kraft getreten
EU-weit gültig
Verbote aktiv
- Social Scoring
- Emotion Recognition (Arbeitsplatz)
- Manipulative Systeme
Governance-Pflichten
- AI Literacy (Schulung)
- GPAI-Modell-Anforderungen
- Behörden-Benennung
High-Risk-Systeme
- Vollständige Compliance
- CE-Kennzeichnung
- Conformity Assessment
Embedded AI
- Maschinen
- Medizinprodukte
Digital Omnibus (Nov 2025): Die EU-Kommission hat die High-Risk-Deadline auf Dez 2027 verschoben. Parlament und Rat müssen noch zustimmen.
Update November 2025: Die EU-Kommission hat mit dem "Digital Omnibus" eine Verschiebung der High-Risk-Deadline auf Dezember 2027 vorgeschlagen. Begründung: Viele Mitgliedstaaten haben die August-2025-Deadline für Behörden-Benennung verpasst, und Unternehmen brauchen mehr Zeit zur Anpassung. Parlament und Rat müssen noch zustimmen.
Für Ihre Planung: Nutzen Sie die zusätzliche Zeit für fundierte Compliance – nicht als Ausrede zum Abwarten. Die Verbote gelten bereits, und die Dokumentationsanforderungen sind erheblich.
Deutschland: Status quo
| Aspekt | Status |
|---|---|
| Nationales Umsetzungsgesetz | Entwurf vom 11.09.2025, Konsultation bis 10.10.2025 |
| Zuständige Behörde | Bundesnetzagentur (Marktüberwachung) |
| Cybersecurity | BSI |
| Datenschutz | BfDI |
| Deadline verpasst? | Ja – August 2025 Deadline wurde nicht eingehalten |
Deutschland hat die August-2025-Deadline für die Behörden-Benennung verpasst – bedingt durch die vorgezogenen Bundestagswahlen. Das "KI-Marktüberwachungs- und Innovationsförderungsgesetz (KI-MIG)" ist in Arbeit.
Die 4 Risikokategorien
Unacceptable Risk – VERBOTEN seit Februar 2025
Diese Praktiken sind jetzt illegal. Keine Übergangsfrist, keine Ausnahmen (außer Strafverfolgung unter strengen Bedingungen):
| Verbotene Praktik | Was darunter fällt |
|---|---|
| Social Scoring | Bewertung von Personen basierend auf Sozialverhalten |
| Emotion Recognition (Arbeitsplatz/Schule) | Erkennung von Gefühlen bei Mitarbeitern oder Schülern |
| Biometrische Kategorisierung | Klassifizierung nach Rasse, Religion, sexueller Orientierung |
| Predictive Policing | Vorhersage von Straftaten basierend auf Profiling |
| Ungezielte Gesichtserkennung | Massensammlung aus Internet oder CCTV |
| Subliminal Manipulation | Unterschwellige Beeinflussung |
Prüfen Sie jetzt: Nutzen Sie ein HR-Tool mit Stimmungsanalyse? Werden Bewerber-Videos auf "Engagement" analysiert? Das könnte bereits ein Verstoß sein.
High Risk – Compliance bis Dezember 2027
Wenn Ihr KI-System in einen dieser Bereiche fällt, unterliegen Sie den vollständigen Anforderungen der Artikel 9-15:
HR & Beschäftigung:
- Bewerber-Screening und CV-Parsing
- Performance-Bewertung
- Beförderungs- und Kündigungsentscheidungen
Kreditwürdigkeit:
- Scoring für natürliche Personen
- Kreditentscheidungen
Bildung:
- Prüfungsbewertung
- Zugangsentscheidungen
- Lernverhalten-Analyse
Kritische Infrastruktur:
- Energie-Management
- Verkehrssteuerung
- Wasserversorgung
Sicherheitskomponenten:
- In Medizinprodukten
- In Maschinen
- In Spielzeugen
Limited Risk – Transparenzpflichten
| System | Anforderung |
|---|---|
| Chatbots | Müssen als KI erkennbar sein |
| Deepfake-Generatoren | Output muss gekennzeichnet sein |
| Emotion Recognition (wenn erlaubt) | Mit Hinweis |
| Biometrische Kategorisierung (wenn erlaubt) | Mit Hinweis |
Minimal Risk – Keine besonderen Anforderungen
Spam-Filter, KI-gestützte Spiele, einfache Empfehlungsalgorithmen, Korrektur-Assistenten.
Self-Assessment: Bin ich betroffen?
1. Setzen Sie KI ein?
└─ Nein → Aktuell nicht betroffen (aber planen Sie voraus)
└─ Ja → weiter
2. Verbotene Kategorie?
├─ Social Scoring?
├─ Emotion Recognition am Arbeitsplatz?
├─ Biometrische Massenüberwachung?
└─ Ja zu einer → SOFORT STOPPEN (bereits im Verstoß!)
3. High-Risk-Kategorie?
├─ HR/Recruiting-Entscheidungen?
├─ Kreditwürdigkeitsprüfung?
├─ Bildungsentscheidungen?
├─ Kritische Infrastruktur?
└─ Ja → Full Compliance bis Dez 2027
4. Interaktion mit Menschen?
├─ Chatbot/Voicebot?
├─ Generiert synthetische Inhalte?
└─ Ja → Transparenzpflichten
5. Keines der obigen → Minimal Risk
High-Risk: Die 8 Anforderungen im Detail
Wenn Ihr System als High-Risk klassifiziert wird, müssen Sie ALLE folgenden Anforderungen nachweisbar erfüllen.
1. Risk Management System (Art. 9)
Was gefordert ist:
- Dokumentiertes Risikomanagement-System
- Identifikation bekannter und vorhersehbarer Risiken
- Bewertung und Priorisierung
- Mitigationsmaßnahmen
- Kontinuierliche Aktualisierung
Praktische Umsetzung:
| Risiko | Wahrscheinlichkeit | Auswirkung | Mitigation | Verantwortlich | Review |
|---|---|---|---|---|---|
| Bias in Bewerber-Ranking | Mittel | Hoch | Fairness-Testing, diverse Trainingsdaten | Data Science Lead | Quartalsweise |
| Fehlentscheidungen | Niedrig | Hoch | Human-in-the-Loop, Confidence-Schwellen | Product Owner | Bei Modell-Update |
| ... | ... | ... | ... | ... | ... |
2. Data Governance (Art. 10)
Was gefordert ist:
- Dokumentation der Trainingsdaten
- Qualitätskriterien
- Bias-Prüfung
- Nachvollziehbare Daten-Herkunft
Minimum-Dokumentation:
- Datenquellen (woher?)
- Datentypen und -formate
- Verarbeitungsschritte
- Bias-Analyse (durchgeführt? Ergebnis?)
- Repräsentativität (für welche Population geeignet?)
- Erhebungszeitraum
3. Technische Dokumentation (Art. 11)
Umfang: 50-100+ Seiten für komplexe Systeme. Enthält:
- Allgemeine Systembeschreibung
- Design-Spezifikation und Architektur
- Verwendete Algorithmen und Modelle
- Trainings- und Testverfahren
- Leistungskennzahlen und Benchmarks
- Bekannte Einschränkungen
Empfehlung: Beginnen Sie jetzt. Diese Dokumentation lässt sich nicht in wenigen Wochen erstellen.
4. Record-Keeping / Logging (Art. 12)
Was gefordert ist:
- Automatische Protokollierung aller Events
- Rückverfolgbarkeit von Entscheidungen
- Aufbewahrung für Aufsichtsbehörden
# Beispiel: Logging für High-Risk AI-System
audit_log = {
"timestamp": "2025-12-05T14:30:00Z",
"system_id": "hr-screening-v2",
"input_hash": "sha256:abc...", # Nicht die Daten selbst
"decision": "recommended_interview",
"confidence": 0.87,
"model_version": "v2.3.1",
"user_id": "recruiter_123",
"human_override": False
}
Wichtig: Loggen Sie Entscheidungen, nicht die personenbezogenen Daten selbst.
5. Transparenz (Art. 13)
Was gefordert ist:
- Verständliche Bedienungsanleitung
- Erklärung der Funktionsweise
- Dokumentierte Einschränkungen und Risiken
- Informationen über menschliche Aufsicht
Zielgruppe: Die Nutzer des Systems, nicht Data Scientists. In verständlicher Sprache.
6. Human Oversight (Art. 14)
Was gefordert ist:
- Menschen können das System verstehen
- Menschen können Output interpretieren
- Menschen können eingreifen und übersteuern
- Menschen können das System stoppen
Design-Checklist:
| Anforderung | Implementierung |
|---|---|
| Wer ist verantwortlich? | Rolle definiert und dokumentiert |
| Wie verstehen sie das System? | Training absolviert |
| Wie können sie eingreifen? | Override-Mechanismus vorhanden |
| Wann MÜSSEN sie eingreifen? | Eskalationskriterien definiert |
| Wie können sie stoppen? | Kill Switch implementiert |
7. Accuracy, Robustness, Cybersecurity (Art. 15)
Was gefordert ist:
- Definierte und dokumentierte Genauigkeitsstufen
- Robustheit gegen Fehler und Manipulation
- Cybersecurity-Maßnahmen
- Schutz vor Adversarial Attacks
Minimum-Metriken:
Performance-Baseline:
├─ Accuracy: 94% (auf repräsentativem Testset)
├─ Precision: 91%
├─ Recall: 89%
├─ False Positive Rate: 6%
├─ Subgroup-Fairness: geprüft (keine >5% Abweichung)
├─ Adversarial Robustness: getestet
└─ Security Audit: [Datum]
8. Conformity Assessment (Art. 43)
Optionen:
- Self-Assessment (für die meisten High-Risk-Systeme)
- Third-Party Assessment (bei Biometrie, kritischer Infrastruktur)
Ergebnis:
- CE-Kennzeichnung
- EU-Konformitätserklärung
- Eintrag in EU-Datenbank
Strafen
| Verstoß | Strafe |
|---|---|
| Verbotene Praktiken | €35 Mio. oder 7% globaler Umsatz |
| High-Risk ohne Compliance | €15 Mio. oder 3% globaler Umsatz |
| Falsche Informationen an Behörden | €7,5 Mio. oder 1% globaler Umsatz |
Für KMU: Der niedrigere absolute Betrag gilt – aber immer noch erheblich.
Die häufigsten Fehler
"Wir haben keine High-Risk-Systeme"
Realität: HR-Tools sind fast immer High-Risk. CV-Parsing, Bewerber-Ranking, Performance-Bewertung – wenn KI an Entscheidungen über Menschen beteiligt ist, prüfen Sie die Klassifizierung genau.
"Das betrifft nur KI-Anbieter"
Realität: Der AI Act gilt für Anbieter UND Betreiber. Wenn Sie ChatGPT Enterprise oder ein SaaS-Tool für Entscheidungen nutzen, die Menschen betreffen, sind Sie Betreiber eines potenziell High-Risk-Systems.
"KI-Entscheidungen sind objektiver als Menschen"
Realität: Der AI Act fordert Human Oversight. Menschen müssen Entscheidungen verstehen und übersteuern können. Vollautomatische Entscheidungen ohne menschliche Kontrolle sind bei High-Risk-Systemen problematisch.
"Wir warten auf die deutsche Umsetzung"
Realität: Der AI Act ist eine EU-Verordnung – er gilt direkt. Die deutsche Umsetzung regelt nur nationale Behörden und Details. Warten ist keine Compliance-Strategie.
"Die Deadline wurde ja verschoben"
Realität: Die Verschiebung auf Dezember 2027 ist noch nicht final (Parlament/Rat müssen zustimmen). Und selbst wenn: Die Dokumentationsanforderungen sind erheblich. Wer jetzt nicht anfängt, wird auch 2027 nicht compliant sein.
Compliance-Roadmap
Phase 1: Inventar & Klassifizierung (Q1 2026)
- Alle KI-Systeme erfassen (inkl. Shadow AI, SaaS-Tools)
- Risikokategorie pro System bestimmen
- Verbotene Praktiken sofort stoppen
- High-Risk-Systeme priorisieren
Phase 2: Gap-Analyse (Q2 2026)
- Anforderungen Art. 9-15 gegen Ist-Zustand prüfen
- Gaps dokumentieren
- Aufwandsschätzung pro Gap
- Roadmap mit Verantwortlichkeiten
Phase 3: Dokumentation (Q3-Q4 2026)
- Technische Dokumentation erstellen
- Risk Management System aufsetzen
- Data Governance dokumentieren
- Logging implementieren
Phase 4: Controls & Testing (H1 2027)
- Human Oversight implementieren
- Accuracy/Robustness testen
- Security Audit durchführen
- Transparenz-Materialien erstellen
Phase 5: Assessment & Maintenance (H2 2027)
- Conformity Assessment durchführen
- CE-Kennzeichnung anbringen
- EU-Datenbank-Eintrag
- Kontinuierliches Monitoring aufsetzen
Die drei Fragen für Ihr nächstes Board-Meeting
- Inventar: Welche KI-Systeme haben wir im Einsatz – und in welche Risikokategorie fallen sie?
- Verantwortung: Wer ist für AI-Act-Compliance verantwortlich, und hat diese Person Budget und Mandat?
- Nachweis: Können wir dokumentieren, dass unsere High-Risk-Systeme die Artikel 9-15 erfüllen?
Wenn Sie eine dieser Fragen nicht beantworten können, ist jetzt der richtige Zeitpunkt zu starten.
Weiterführend
- NIS2 und KI-Systeme – Überschneidungen mit Cybersecurity-Regulierung
- AI Risk Assessment – Methodik für Risikobewertung
- AI Policy erstellen – Interne Richtlinien und Governance
- DSGVO und LLMs – Datenschutz-Anforderungen
AI Security Insights
Einmal im Monat. Kein Spam.
Was passiert in der Welt der KI-Security? Welche Risiken sollten Sie kennen? Ich fasse das Wichtigste zusammen - verständlich, pragmatisch, ohne Buzzwords.