Alle Artikel
26. Oktober 202512 Min. Lesezeit • Aktualisiert 5. Dez.

AI Policy erstellen: Von der Vorlage zur gelebten Richtlinie

8 Kern-Komponenten einer AI Acceptable Use Policy. Mit praxiserprobten Templates und Rollout-Strategie für Enterprise.

Eine AI Policy im Intranet, die niemand liest, ist wertlos. Eine AI Policy, die Mitarbeiter verstehen und befolgen, ist Governance in der Praxis.

Der Unterschied liegt nicht in der Vollständigkeit – sondern in Klarheit, Kommunikation und konsequenter Umsetzung. Laut CSA scheitern 42% der AI-Initiativen 2025 bereits vor dem Produktiveinsatz – oft wegen fehlender Governance.

Warum Policy allein nicht reicht

Ohne PolicyMit gelebter Policy
Shadow AI floriert (59% nutzen KI ohne IT-Freigabe)Klare Grenzen für alle
Jeder entscheidet selbst, was "okay" istEnablement statt Verbot
Bei Incidents: "Das wusste ich nicht"Schutz für Mitarbeiter und Unternehmen
Keine Grundlage für KonsequenzenBasis für Accountability

Das Problem: 38% der Mitarbeiter geben zu, sensible Daten in KI-Tools einzugeben. Ohne Policy haben Sie keine Handhabe.

Die 8 Kern-Komponenten

1. Scope: Für wen gilt diese Policy?

GeltungsbereichEmpfehlung
Alle MitarbeiterJa – unabhängig von Standort oder Abteilung
Externe (Contractors, Freelancer)Ja – bei Zugang zu Unternehmensdaten
Private GeräteJa – wenn für berufliche Zwecke genutzt
Kostenlose ToolsJa – explizit erwähnen (oft vergessen)

Template-Formulierung:

"Diese Policy gilt für alle Mitarbeiter der Firma, externe Dienstleister mit Datenzugang, sowie die Nutzung auf privaten Geräten für berufliche Zwecke. Sie umfasst alle KI-Tools unabhängig vom Anbieter – kostenlose und kostenpflichtige Versionen."

2. Approved Tools: Was ist erlaubt?

Prinzip: Verbote ohne Alternativen führen zu Shadow AI.

KategorieBeispieleStatus
Enterprise (alle)Microsoft Copilot, ChatGPT Enterprise, GitHub CopilotFreigegeben mit AVV
AbteilungsspezifischJasper (Marketing), Harvey (Legal)Nach Genehmigung
Nicht freigegebenChatGPT Free/Plus, Claude Free, PerplexityKeine Unternehmensdaten

Der kritische Punkt: Consumer-Versionen (ChatGPT Free, Claude Free) haben keine Enterprise-Sicherheit und können Daten für Training verwenden. Diese müssen explizit ausgeschlossen werden.

Freigabe-Prozess für neue Tools:

SchrittVerantwortlichDauer
Use Case + Datentyp dokumentierenAntragsteller
IT-Security-PrüfungSecurity Team5 AT
Datenschutz-PrüfungDSB3 AT
Entscheidung + KommunikationAI Governance Board

3. Prohibited Use: Was ist verboten?

Keine Ausnahmen – klare Formulierung:

KategorieVerboten
DatentypenKundendaten, Personaldaten, Finanzdaten, Gesundheitsdaten, Credentials, unveröffentlichte Produkte, Verträge, Quellcode mit Geschäftsgeheimnissen
Use CasesAutomatisierte Entscheidungen über Menschen ohne Review, Deepfakes/Fake-Content, Umgehung von Sicherheitsmaßnahmen, Mitarbeiter-Analyse ohne Einwilligung

4. Data Classification: Was darf in welche Tools?

Datenklassifizierung für KI-Nutzung
ÖffentlichPUBLIC

Alle freigegebenen Tools

  • Öffentlich verfügbare Informationen
  • Allgemeine Fragen ohne Unternehmensbezug
  • Marketing-Texte (nach Veröffentlichung)

Beispiel:

"Erkläre mir Machine Learning"
InternINTERNAL

Nur Enterprise-Tools mit AVV

  • Interne Prozessdokumente
  • Allgemeine Geschäftskorrespondenz
  • Eigene Textentwürfe ohne Kundendaten

Beispiel:

"Verbessere diese interne Präsentation"
VertraulichCONFIDENTIAL

Nur genehmigte Enterprise-Tools

  • Strategische Dokumente
  • Unveröffentlichte Projekte
  • Aggregierte Geschäftszahlen

Beispiel:

"Analysiere diesen Marktbericht" (nach Freigabe)
Streng vertraulichRESTRICTED

KEINE KI-Verarbeitung

  • Personenbezogene Daten
  • Kundendaten
  • Finanzdaten im Detail
  • Geschäftsgeheimnisse

Beispiel:

Keine KI – egal welches Tool

Schnelltest: "Wäre es okay, wenn das morgen im Internet steht?" → Nein? Dann nicht in KI-Tools eingeben.

5. Roles & Responsibilities

RolleVerantwortungEskalation
AI Governance BoardTool-Freigaben, Policy-Änderungen
CISO / IT-SecurityTechnische Freigabe, Security-BewertungSecurity-Incidents
DSBDSGVO-Konformität, DSFADatenschutz-Verstöße
FührungskräfteEinhaltung im TeamWiederholte Verstöße
MitarbeiterEigene ComplianceUnklarheiten → Vorgesetzte/IT

Governance Board Zusammensetzung: CISO, CDO/CTO, Legal, HR, Business-Vertreter. Frequenz: Monatlich.

6. Security Requirements

BereichAnforderung
AuthentifizierungSSO für alle Enterprise-Tools, MFA aktiviert, persönliche Accounts
NetzwerkNur Firmennetzwerk oder VPN, keine öffentlichen WLANs ohne VPN
LoggingAlle Interaktionen protokolliert, 90 Tage Retention, nur für Audits/Incidents
Output-HandlingReview vor Veröffentlichung, keine Auto-Weiterleitung, 4-Augen bei sensiblen Outputs

7. Consequences: Abgestuft und fair

StufeAuslöserKonsequenz
1Unbeabsichtigt, erstmaligGespräch + Nachschulung
2Wiederholt oder leicht fahrlässigSchriftliche Ermahnung + Dokumentation
3Grob fahrlässig oder vorsätzlichAbmahnung + temporärer Entzug von KI-Zugängen
4Schwerwiegend (Datenleck, Compliance-Bruch)Arbeitsrechtliche Konsequenzen bis Kündigung

Wichtig dokumentieren:

  • Versehentliche Verstöße → Schulung, nicht Bestrafung
  • Selbstmeldung → Wird positiv berücksichtigt
  • Ziel ist Compliance, nicht Bestrafung

8. Review Process

FrequenzScopeVerantwortlich
QuartalsweiseNeue Tools, neue Risiken, Mitarbeiter-FeedbackAI Governance Board
JährlichVollständige Policy-Überprüfung, Industrie-BenchmarkCISO + Legal
AnlassbezogenNach Incidents, bei neuen RegulierungenGovernance Board/CISO

Versionierung: Jede Änderung dokumentiert (Datum, Grund, Verantwortlicher). Alte Versionen archiviert.

Kurzfassung für Mitarbeiter

Die vollständige Policy ist wichtig – aber niemand liest 20 Seiten. Ein 1-Seiter für alle:

KategorieInhalt
Das darfst duFreigegebene Tools nutzen, öffentliche Infos bearbeiten, Code-Hilfe (ohne Secrets), E-Mail-Entwürfe (ohne Kundendaten)
Das ist verbotenKundendaten eingeben, Personaldaten verarbeiten, nicht freigegebene Tools nutzen, Credentials eingeben
Bei Unsicherheit1) "Wäre es okay im Internet?" 2) Datenklassifizierung prüfen 3) IT-Security fragen
Bei ProblemenSelbst-Meldung (keine Bestrafung bei Ehrlichkeit), IT-Helpdesk

Rollout-Strategie

Eine Policy schreiben ist 20% der Arbeit. Sie zum Leben erwecken ist 80%.

Phase 1: Vorbereitung

AktivitätBeteiligte
Legal-Review der FormulierungenLegal
Betriebsrat-Einbindung (falls vorhanden)HR + BR
Führungskräfte-BriefingManagement
Training-Materialien erstellenL&D + Security

Phase 2: Führungskräfte zuerst

Führungskräfte sind Multiplikatoren. Sie müssen die Policy verstehen und erklären können.

Minimum: 2-Stunden-Workshop mit Q&A. Klären Sie Eskalationswege: Wer entscheidet bei Grenzfällen?

Phase 3: Unternehmensweiter Rollout

AktivitätDetails
All-Hands AnkündigungCEO oder CISO – Signal ist wichtig
E-Learning30 Minuten, verpflichtend
Team-MeetingsAbteilungsspezifische Fragen
FAQ im IntranetLaufend aktualisiert
Helpdesk vorbereitenInitialer Ansturm erwartet

Phase 4: Operationalisierung

ZeitraumAktivität
Woche 1Tägliches Review von Incidents und Fragen
Monat 1Wöchentliche Reviews
DanachQuartalsweise Reviews

Ohne diesen Feedback-Loop veraltet jede Policy schnell.

Die 5 häufigsten Fehler

FehlerProblemLösung
Zu restriktivAlles verboten → Shadow AI explodiertFür jedes Verbot eine Alternative
Zu vage"Sensible Daten" – was ist das?Konkrete Beispiele, Datenklassifizierung
Keine KonsequenzenPolicy existiert, niemand setzt durchKlare Stufen + konsequente Umsetzung
Einmal und fertigPolicy 2023 passt nicht zu Tools 2025Quartalsweise Reviews
Top-Down ohne EinbindungManagement schreibt, Mitarbeiter ignorierenFeedback einholen, Champions einbinden

Alignment mit Frameworks

Laut ISACA sollte Ihre AI Policy mit etablierten Frameworks aligned sein:

FrameworkRelevanz für Policy
NIST AI RMFRisikomanagement-Struktur
ISO/IEC 42001:2023AI Management System Standard
EU AI ActCompliance-Anforderungen für High-Risk
DSGVODatenschutz-Anforderungen

Die Frage für Ihr nächstes Board-Meeting

"Wenn morgen ein Mitarbeiter Kundendaten in ChatGPT eingibt: Haben wir eine Policy, die das verbietet, wurde er geschult, und können wir es nachweisen?"

Wenn die Antwort nicht dreimal "Ja" ist, haben Sie eine Governance-Lücke.

Weiterführend

AI Security Insights

Einmal im Monat. Kein Spam.

Was passiert in der Welt der KI-Security? Welche Risiken sollten Sie kennen? Ich fasse das Wichtigste zusammen - verständlich, pragmatisch, ohne Buzzwords.

Einmal pro Monat Jederzeit abbestellbar Kein Spam, versprochen