Alle Artikel
2. November 202514 Min. Lesezeit • Aktualisiert 6. Dez.

AI Risk Assessment: Methodik für KI-Risikobewertung

5-Dimensionen-Scoring für KI-Systeme: Data, Model, Integration, Usage, Compliance. Mit Risk-Matrix und Beispiel-Assessments.

"Ist unser KI-System sicher?" – Diese Frage lässt sich nicht mit Ja oder Nein beantworten.

Die richtige Frage: "Welche Risiken hat unser KI-System, wie wahrscheinlich sind sie, und was sind die Auswirkungen?" Das beantwortet ein strukturiertes Risk Assessment – und es ist die Grundlage für jede fundierte Entscheidung zu Mitigationsmaßnahmen.

Warum AI-Risiken anders sind

DimensionKlassische ITAI-Systeme
DeterminismusInput A → Output B (immer)Input A → Output B, C oder D
AngriffsvektorenBekannt, kategorisiert (OWASP)Neu: Prompt Injection, Poisoning, Jailbreaking
TestingVollständig möglichNie vollständig testbar
BiasSelten relevantOft kritisch
ErklärbarkeitCode lesenBlack Box
DriftSoftware ändert sich nicht selbstModels degradieren über Zeit

Konsequenz: Klassische IT-Risk-Frameworks (ISO 27005, NIST RMF) reichen nicht. AI braucht spezifische Dimensionen.

Die 5 Dimensionen des AI-Risikos

Die 5 Dimensionen des AI-Risikos

Risk Score = Σ (Dimension Score × Weight)

Risk Matrix: Scores interpretieren

Risk Matrix
Critical4.0 - 5.0
BedeutungUnmittelbare Gefahr
AktionSofort adressieren, ggf. System pausieren
TimelineSofort
High3.0 - 3.9
BedeutungSignifikantes Risiko
AktionPriorisiert behandeln
Timeline< 30 Tage
Medium2.0 - 2.9
BedeutungModerates Risiko
AktionIm nächsten Quartal adressieren
Timeline< 90 Tage
Low1.0 - 1.9
BedeutungGeringes Risiko
AktionIm Rahmen regulärer Reviews
TimelineOngoing

Beispiel-Assessment: HR-Screening-Chatbot

Systembeschreibung: Chatbot, der Bewerbungen vorfiltriert und Kandidaten für Interviews empfiehlt.

DimensionScoreBegründung
Data5PII: Namen, Lebensläufe, Kontaktdaten
Model3GPT-4 via Azure, bekannte Herkunft, aber Bias-Risiko
Integration3Read auf Bewerbungs-DB, Write auf Kandidaten-Status
Usage5Entscheidungen über Menschen (Einstellung), limitierte Review
Compliance5EU AI Act HIGH-RISK (HR-Entscheidungen)

Berechnung:

(5×0.20) + (3×0.15) + (3×0.25) + (5×0.20) + (5×0.20) = 4.20

Risk Level: CRITICAL

Empfohlene Maßnahmen:

PrioritätMaßnahmeTimeline
1Human-in-the-Loop für ALLE EntscheidungenSofort
2EU AI Act Compliance-Assessment30 Tage
3Bias-Testing implementieren60 Tage
4Vollständige Dokumentation nach Art. 1190 Tage

Beispiel-Assessment: Internes RAG-System

Systembeschreibung: RAG-System, das interne Dokumentation durchsucht und Fragen für Mitarbeiter beantwortet.

DimensionScoreBegründung
Data3Interne Dokumente, keine PII, keine Kundendaten
Model2Llama 3 self-hosted, kontrollierte Umgebung
Integration2Read-Only auf Dokumenten-Repository, keine Actions
Usage2Interne Produktivität, Human Review bei kritischen Fragen
Compliance2Minimal Risk (AI Act), Standard-DSGVO

Berechnung:

(3×0.20) + (2×0.15) + (2×0.25) + (2×0.20) + (2×0.20) = 2.20

Risk Level: MEDIUM

Empfohlene Maßnahmen:

PrioritätMaßnahmeTimeline
1Input/Output-Logging implementierenDieses Quartal
2Access Control verfeinernDieses Quartal
3Quarterly Security ReviewOngoing

Beispiel-Assessment: Betrugserkennungs-Model

Systembeschreibung: Fine-tuned Model zur Betrugserkennung im Finanzbereich.

DimensionScoreBegründung
Data5Finanztransaktionen, PII, Kontodaten
Model4Fine-Tuned auf eigenen Daten, Poisoning-Risiko
Integration4Read auf Transaktions-DB, kann Alerts triggern
Usage4Kritisch für Fraud Prevention, automatische Alerts
Compliance5Finanzregulierung + DSGVO + potenziell NIS2

Berechnung:

(5×0.20) + (4×0.15) + (4×0.25) + (4×0.20) + (5×0.20) = 4.40

Risk Level: CRITICAL

Empfohlene Maßnahmen:

PrioritätMaßnahmeTimeline
1Training Data Audit (Poisoning prüfen)Sofort
2Human Review für kritische Fraud-AlertsSofort
3Adversarial Testing30 Tage
4Model-Explainability für Audits60 Tage
5Full Compliance Assessment (BaFin, DSGVO, NIS2)90 Tage

Assessment-Prozess

Schritt 1: Inventar

Bevor Sie bewerten können, brauchen Sie Sichtbarkeit.

FrageDatenquelle
Welche AI-Systeme haben wir?IT-Asset-Management, Shadow IT Discovery
Wer ist System Owner?CMDB, Interviews
Welche Daten fließen?Data Flow Mapping
Welche Integrationen?Architektur-Dokumentation

Schritt 2: Scoring

Für jedes System die 5 Dimensionen bewerten. Dokumentieren Sie die Begründung – nicht nur den Score.

Schritt 3: Priorisierung

Nicht alles auf einmal. Priorisieren Sie nach:

KriteriumGewichtung
Risk LevelCritical/High zuerst
Effort vs. ImpactQuick Wins priorisieren
Compliance-DeadlinesEU AI Act überschreibt alles
Business ImpactGeschäftskritisch höher

Schritt 4: Maßnahmen

Risk LevelMaßnahmen-Beispiele
CriticalHuman Oversight, System pausieren, Sofort-Audit
HighControls implementieren, Monitoring verstärken
MediumQuarterly Reviews, Dokumentation verbessern
LowIm Rahmen regulärer Wartung adressieren

Continuous Assessment

Ein einmaliges Assessment reicht nicht. AI-Systeme ändern sich, Risiken entwickeln sich.

Trigger für Re-Assessment

TriggerBeispiel
Model-UpdateGPT-4 → GPT-4o Migration
Neue DatenquellenCRM-Integration hinzugefügt
BerechtigungsänderungRead-Only → Read-Write
Neuer Use CaseProduktivität → Entscheidungsunterstützung
Security IncidentPrompt Injection erkannt
Regulatorische ÄnderungEU AI Act Deadline
ZeitMindestens jährlich

Assessment-Kalender

FrequenzScopeVerantwortlich
QuartalsweiseCritical/High-Risk SystemeAI Security Lead
HalbjährlichMedium-Risk SystemeSystem Owner
JährlichAlle SystemeAI Governance Board
Bei ÄnderungenBetroffenes SystemSystem Owner + Security

EU AI Act Alignment

Ab Dezember 2027 (voraussichtlich) müssen High-Risk-Systeme ein dokumentiertes Risikomanagement nachweisen (Art. 9).

EU AI Act AnforderungAssessment-Dimension
Risiko-IdentifikationAlle 5 Dimensionen
Risiko-BewertungScoring-Methodik
Risiko-MitigationMaßnahmen-Plan
Kontinuierliche ÜberwachungContinuous Assessment
DokumentationAssessment-Records

Tipp: Nutzen Sie das hier beschriebene Framework als Basis für Ihre Art. 9 Dokumentation.

Quick Wins: Hoher Impact, niedriger Aufwand

MaßnahmeRisk ReductionEffortTypische Systeme
Human Oversight einführenHochNiedrigUsage-Risk senken
Input/Output-FilteringHochMittelIntegration-Risk senken
Logging aktivierenMittelNiedrigAlle Systeme
Access ControlHochMittelData-Risk senken
Model-VersionierungMittelNiedrigModel-Risk senken

Die Frage für Ihr nächstes Security-Review

"Haben wir für jedes AI-System ein dokumentiertes Risk Assessment mit Score, Begründung und Maßnahmen-Plan?"

Wenn nein: Starten Sie mit Ihren drei kritischsten Systemen. Ein Assessment dauert 2-4 Stunden pro System – und schafft die Grundlage für alle weiteren Entscheidungen.

Weiterführend

AI Security Insights

Einmal im Monat. Kein Spam.

Was passiert in der Welt der KI-Security? Welche Risiken sollten Sie kennen? Ich fasse das Wichtigste zusammen - verständlich, pragmatisch, ohne Buzzwords.

Einmal pro Monat Jederzeit abbestellbar Kein Spam, versprochen