Alle Artikel
28. September 202510 Min. Lesezeit • Aktualisiert 5. Dez.

LLM Security: Warum Ihre KI-Strategie ein Sicherheitskonzept braucht

LLM-Risiken für Vorstände und CISOs erklärt. Business Impact, Haftungsfragen und die Security-Entscheidungen, die jetzt auf C-Level-Ebene getroffen werden müssen.

Ihr Unternehmen nutzt bereits Large Language Models. Die Frage ist nur: Wissen Sie, welche? Und wer haftet, wenn etwas schiefgeht?

In Deutschland nutzen über 20 Millionen Menschen ChatGPT monatlich. 41% der IT-Mitarbeiter setzen es regelmäßig ein – oft ohne Freigabe durch die Security-Abteilung. Das ist keine technische Nachlässigkeit – es ist ein Governance-Versagen.

Die unbequeme Wahrheit für Führungskräfte

OpenAI-CEO Sam Altman hat es auf der Security Research Conference 2025 bestätigt: Prompt Injection – die kritischste LLM-Schwachstelle – kann nicht zu 100% gestoppt werden. Es ist kein Bug, sondern das Design.

Was das für Ihre Risikobewertung bedeutet:

Sie können LLM-Risiken nicht wegpatchen. Sie müssen sie managen. Und das erfordert Entscheidungen auf Führungsebene – nicht in der IT-Abteilung.

Die OWASP Foundation führt eine Top-10-Liste für LLM-Anwendungen. Die 2025er-Version zeigt: Die Bedrohungslandschaft entwickelt sich schneller als die meisten Security-Strategien.

Vier Risikokategorien, die C-Level verstehen muss

1. Datenabfluss: Ihre vertraulichen Informationen in fremden Modellen

Ein Mitarbeiter kopiert einen Vertragsentwurf in ChatGPT. Ein anderer lässt Kundendaten durch einen KI-Assistenten analysieren. Ein dritter nutzt ein LLM für Finanzzahlen.

Business Impact:

  • Vertrauliche Informationen in Trainingsdaten von Drittanbietern
  • Potenzielle DSGVO-Verstöße bei personenbezogenen Daten
  • Wettbewerbsrelevante Informationen außerhalb Ihrer Kontrolle

Die Governance-Frage: Haben Sie eine Policy, die regelt, welche Daten in welche LLMs fließen dürfen? Und wird sie durchgesetzt?

→ Vertiefung: DSGVO-konforme LLM-Nutzung

2. Manipulation: Wenn Ihre KI-Systeme gegen Sie arbeiten

Prompt Injection ist das LLM-Äquivalent von SQL Injection – nur dass es keine vollständige technische Lösung gibt.

Angreifer können Ihre LLM-Systeme dazu bringen:

  • Interne Anweisungen preiszugeben
  • Aktionen im Namen des Unternehmens auszuführen
  • Falsche oder schädliche Outputs zu generieren

Ein Szenario: Ihr Kunden-Chatbot verarbeitet eine manipulierte E-Mail. Der versteckte Prompt darin weist den Bot an, Kundendaten zu extrahieren und in seiner Antwort einzubetten.

Die Haftungsfrage: Wenn ein LLM-System einen Schaden verursacht – wer trägt die Verantwortung? Die IT? Der Fachbereich, der das Tool eingeführt hat? Der Vorstand, der keine Governance etabliert hat?

→ Deep-Dive: Prompt Injection verstehen und verhindern

3. Unkontrollierte Handlungsfähigkeit: Wenn KI-Agenten zu viele Rechte haben

Die nächste Welle sind LLM-Agenten – KI-Systeme, die nicht nur Text generieren, sondern eigenständig handeln: E-Mails versenden, Daten abrufen, Systeme steuern.

Die Zahlen sind alarmierend: Unternehmen haben durchschnittlich 144 Non-Human Identities pro Mitarbeiter. Viele davon mit weitreichenden Berechtigungen. Wenn ein LLM-Agent kompromittiert wird, erbt der Angreifer alle diese Rechte.

Die strategische Frage: Wer genehmigt, welche Aktionen ein LLM-Agent ausführen darf? Gibt es einen Freigabeprozess? Audit-Logs?

→ Mehr dazu: Non-Human Identity Management

4. Lieferkettenrisiko: Ihre Abhängigkeit von Drittanbietern

Sie kontrollieren nicht die Modelle. Sie kontrollieren nicht die Trainingsdaten. Sie kontrollieren nicht die Infrastruktur.

Abhängigkeiten, die Sie bewerten müssen:

  • Welche LLM-Provider nutzen Sie (bewusst und unbewusst)?
  • Wo werden Daten verarbeitet und gespeichert?
  • Was passiert bei einem Security-Incident beim Provider?
  • Wie schnell können Sie den Provider wechseln?

Die Vendor-Due-Diligence-Frage: Haben Sie die gleichen Security-Anforderungen an Ihre LLM-Provider wie an andere kritische IT-Dienstleister?

Regulatorischer Druck: Was auf Sie zukommt

EU AI Act

Ab August 2025 gelten verschärfte Anforderungen für KI-Systeme mit "inakzeptablem Risiko". Ab August 2026 für Hochrisiko-Systeme. LLMs, die in kritischen Geschäftsprozessen eingesetzt werden, fallen potenziell darunter.

Bußgeldrahmen: Bis zu 35 Millionen Euro oder 7% des globalen Jahresumsatzes.

→ Details: EU AI Act Compliance

NIS2

Die Richtlinie für Cybersicherheit erweitert den Scope auf mehr Branchen und verschärft Meldepflichten. LLM-Sicherheit wird Teil der Gesamtrisikobewertung.

→ Auswirkungen: NIS2 und KI-Sicherheit

DSGVO

Jede LLM-Nutzung mit personenbezogenen Daten ist datenschutzrechtlich relevant. Die Rechtsgrundlage, Auftragsverarbeitung und Drittlandtransfers müssen geklärt sein.

Die drei Entscheidungen, die jetzt getroffen werden müssen

Entscheidung 1: Sichtbarkeit schaffen

Die Ausgangsfrage: Welche LLMs werden in Ihrem Unternehmen genutzt?

Das schließt ein:

  • Offiziell eingeführte Tools
  • Shadow AI: private ChatGPT-Accounts, Browser-Extensions, integrierte KI-Features
  • LLMs in Drittanbieter-Software, die Sie nutzen

Ohne diese Sichtbarkeit können Sie weder Risiken bewerten noch Governance etablieren.

→ Mehr dazu: Shadow AI unter Kontrolle bringen

Entscheidung 2: Verantwortlichkeiten klären

Wer ist für LLM-Security verantwortlich?

  • CISO: Risikobewertung, Security-Architektur, Incident Response
  • CDO/DPO: Datenschutz, Data Governance, Compliance
  • Business Owner: Fachliche Anforderungen, Risiko-Nutzen-Abwägung
  • Vorstand: Governance-Framework, Budget, strategische Ausrichtung

Ohne klare Verantwortlichkeiten entstehen blinde Flecken – und niemand fühlt sich zuständig, bis es zu spät ist.

Entscheidung 3: Risikoappetit definieren

Wie viel LLM-Risiko ist Ihr Unternehmen bereit zu tragen?

Konservativ: Keine LLMs mit sensiblen Daten. Nur geprüfte Use Cases. Strenge Freigabeprozesse.

Moderat: Kontrollierte Nutzung mit definierten Guardrails. Klassifizierung nach Daten-Sensitivität.

Offensiv: Schnelle Adoption mit nachgelagerter Absicherung. Akzeptanz höherer Risiken für Wettbewerbsvorteile.

Es gibt keine richtige Antwort – aber es muss eine bewusste Entscheidung sein.

Was ein wirksames LLM-Security-Programm umfasst

1
Input Validation
Vor dem LLM
2
System Prompt
Im LLM
3
Output Filtering
Nach dem LLM
4
Access Control
Wer darf was?
5
Monitoring
Anomalien erkennen

Jeder Layer fängt ab, was der vorherige durchlässt.

Für CISOs – die kritischen Controls:

BereichMinimumZielzustand
InventarListe aller bekannten LLM-ToolsVollständige Sichtbarkeit inkl. Shadow AI
DatenklassifizierungPolicy für sensible DatenTechnische Durchsetzung
Input ValidationBasale BlocklistenMulti-Layer-Filterung mit ML
Output HandlingKeine direkte SystemintegrationSandbox-Execution, Parameterisierung
BerechtigungenDokumentierte RechteLeast Privilege, automatisierte Reviews
MonitoringLogging vorhandenEchtzeit-Anomalie-Erkennung
Incident ResponseGenerischer IR-PlanLLM-spezifische Playbooks

Der Weg zur Handlungsfähigkeit

Kurzfristig (diese Woche)

  1. Inventar starten: Welche LLMs nutzen Ihre Teams? Fragen Sie direkt.
  2. Verantwortlichkeiten klären: Wer ist Ihr Ansprechpartner für LLM-Security?
  3. Basis-Policy kommunizieren: Mindestens eine klare Aussage, welche Daten nicht in externe LLMs gehören.

Mittelfristig (dieses Quartal)

  1. Risk Assessment durchführen: Bewertung aller LLM-Use-Cases nach Business Impact
  2. Security-Architektur definieren: Welche Controls brauchen Sie?
  3. Governance-Prozess etablieren: Wie werden neue LLM-Tools genehmigt?

→ Strukturierter Ansatz: KI Risk Assessment Framework

Strategisch

  1. Integration in Enterprise Risk Management: LLM-Risiken als Teil der Gesamtrisikobetrachtung
  2. Continuous Assurance: Red Teaming, Monitoring, regelmäßige Reviews
  3. Kompetenzaufbau: Security-Teams brauchen LLM-spezifisches Know-how

→ Langfristiger Rahmen: KI Security Framework implementieren

Die Frage, die Sie Ihrem Team stellen sollten

"Wenn morgen ein LLM-basierter Sicherheitsvorfall in unserem Unternehmen passiert – wissen wir, was zu tun ist?"

Wenn die Antwort nicht eindeutig "Ja" ist, haben Sie Handlungsbedarf.

Weiterführend

AI Security Insights

Einmal im Monat. Kein Spam.

Was passiert in der Welt der KI-Security? Welche Risiken sollten Sie kennen? Ich fasse das Wichtigste zusammen - verständlich, pragmatisch, ohne Buzzwords.

Einmal pro Monat Jederzeit abbestellbar Kein Spam, versprochen