Von Sarang Warudkar - Sr. technischer PMM (CASB & AI)
18. Februar 2026 5 Minuten Lesezeit
KI-Tools beeinflussen mittlerweile die tägliche Arbeit in den Bereichen Schreiben, Analyse, Automatisierung von Besprechungen und Softwareentwicklung. Diese rasante Verbreitung führt zu erheblichen Produktivitätssteigerungen, bringt jedoch auch neue Sicherheitsrisiken mit sich, die durch das Verhalten großer Sprachmodelle (LLMs) bedingt sind. Herkömmliche SaaS-Prüfungen reichen nicht mehr aus. CISOs bewerten nun die Anwendung und das dahinterstehende Modell mit gleicher Sorgfalt.
Dieser Blogbeitrag beschreibt die LLM-Attribute, die das Unternehmensrisiko beeinflussen, sowie die praktischen Maßnahmen, mit denen Sicherheitsverantwortliche diese steuern können.

Die meisten KI-SaaS-Produkte integrieren LLMs von Drittanbietern. Dies führt zu einer doppelten Abhängigkeit. Die Anwendung kann zwar alle Sicherheitsprüfungen bestehen, aber das zugrunde liegende Modell kann dennoch Daten offenlegen, unsicheren Code erzeugen oder sensible Arbeitsabläufe preisgeben. Ein klarer Überblick über die LLM-Ebene schließt diese Lücke und passt die KI-Governance an moderne Bedrohungen an.
1. KI-Risiko auf Anwendungsebene: Die Grundlage
Bevor Sie das Modell untersuchen, vergewissern Sie sich, dass die KI-SaaS-Anwendung die grundlegenden Anforderungen erfüllt, die im Unternehmen erwartet werden.

Zu überprüfende Basisattribute
Diese Kontrollen sind weiterhin unerlässlich. Sie schaffen Vertrauen in den Dienst selbst und bilden die Grundlage für eine sichere Einführung der KI.
2. LLM-Verhalten: Die Quelle der neuen Risikooberfläche
LLM-Attribute beeinflussen direkt, wie die Anwendung auf echte Benutzer und feindliche Eingaben reagiert. CISOs verfolgen nun die folgenden Verhaltensweisen in jedem eingebetteten Modell.
Integration von GenAI und LLM
Identifizieren Sie das genaue Modell, die Hosting-Region, das Aktualisierungsmuster und ob der Anbieter es anhand von Kundendaten optimiert.
Gefängnisausbruch
Jailbreaks treten auf, wenn Benutzer Eingabeaufforderungen manipulieren, um die Sicherheitskontrollen von LLM zu umgehen. Zu den gängigen Techniken gehören Rollenspiele, mehrschichtige Anweisungen, fiktionale Darstellungen und indirekte oder verschlüsselte Sprache. Da diese Interaktionen einer normalen Nutzung ähneln, umgehen sie häufig grundlegende Kontrollen. Die Verfolgung von Jailbreak-Versuchen hilft Sicherheitsteams, Missbrauch frühzeitig zu erkennen, Schutzmaßnahmen zu verstärken und bei Audits proaktives Governance zu demonstrieren.
Beispiel
Erstellung von Malware und schädlichem Code
LLMs erzeugen gelegentlich Code, der versteckte Ausführungspfade oder Exfiltrationsroutinen enthält.
Beispiel
Toxizität, Verzerrung und CBRN-Ausgangsrisiken
Modelle können unsichere Texte generieren, wenn sie mit sensiblen oder feindseligen Eingaben konfrontiert werden. Bitte verfolgen Sie diese Verhaltensweisen für Geschäftsbereiche, in denen Sicherheit, Compliance oder physische Risiken eine Rolle spielen.
Beispiele
Das NIST hat ein Generative AI Profile veröffentlicht, das sich rasch zur Grundlage für ein verantwortungsbewusstes KI-Risikomanagement entwickelt. Sicherheits- und Compliance-Teams erwarten nun, dass jede LLM-basierte Anwendung diese Erwartungen klar erfüllt.
Unternehmen stellen direkte Fragen.
Wenn diese Fragen nicht eindeutig beantwortet werden können, steigt das Audit-Risiko erheblich. In regulierten Branchen wie dem Gesundheitswesen und dem Finanzdienstleistungssektor erhöht eine Nichtübereinstimmung mit den NIST-Richtlinien die Wahrscheinlichkeit von Datenlecks, behördlichen Strafen und nicht bestandenen Audits.
Parallel dazu dokumentiert die OWASP Top 10 für LLM-Anwendungen eine neue Klasse von Schwachstellen, die über die traditionellen Sicherheitsbedenken bei Anwendungen hinausgehen. Dazu gehören Prompt-Injection, unsichere Ausgabeverarbeitung, Training Data Poisoning und unsichere Integrationen.
Diese Risiken spiegeln sich bereits in realen Vorfällen wider. In einem Fall ermöglichte eine SaaS-Anwendung Benutzern das Hochladen von Dokumenten zur Verarbeitung durch künstliche Intelligenz. Ein Angreifer bettete versteckte Anweisungen in eine Datei ein, das Modell führte diese aus, und sensible Unternehmensdaten wurden offengelegt. Solche Szenarien treten in Live-Produktionsumgebungen auf, und Unternehmen, die sie nicht aktiv verfolgen und entschärfen, sind erheblichen Sicherheitsrisiken ausgesetzt.
Beispiel

Ein modernes KI-Governance-Programm kombiniert Anwendungsprüfungen mit modellorientierten Kontrollen.
Skyhigh Security das folgende Framework.
1. Erstellen Sie ein vollständiges Verzeichnis von KI-Anwendungen und LLMs.
Bitte berücksichtigen Sie genehmigte Tools, Schatten-KI und interne KI-Workloads.
Dokumentieren Sie das Modell, die Version, den Anbieter und die Datenverarbeitungsverfahren.
2. Bewerten Sie jedes Modell anhand messbarer LLM-Attribute.
Beziehen Sie Jailbreak-Resistenz, Malware-Verhalten, Herkunft der Schulungen, Aufbewahrungspraktiken und Compliance-Anpassung mit ein. Verwenden Sie diese Bewertungen, um Nutzungsgrenzen für sensible Abteilungen festzulegen.
3. Erweitert
KI-Eingabeaufforderungen enthalten häufig Textausschnitte aus streng regulierten Dokumenten. Nutzen Sie Fingerprinting und erweiterte DLP-Funktionen, um sensible Inhalte zu identifizieren, auch wenn der Eingabeaufforderungstext harmlos erscheint.
4. Kontinuierliche Modellprüfung durchführen
Automatisieren Sie bei jeder Aktualisierung eines Modells oder einer Anwendung umgehende Injektionsprüfungen und gegnerische Bewertungen. Behandeln Sie diese Tests als wiederkehrendes Ereignis im Lebenszyklus und nicht als einmalige Lieferantenbewertung.
5. Erweiterung der Lieferantenrisikoprogramme um LLM-Transparenz
Integrieren Sie die Modellauswahl, Schulungsmaßnahmen und die sofortige Speicherung in Ihre vertraglichen Erwartungen. Dadurch wird Ihre KI-Lieferkette in dieselbe Governance-Struktur wie der Rest Ihrer SaaS-Umgebung integriert.
LLMs verändern die Art und Weise, wie Unternehmen KI einsetzen, und sie verändern die Art und Weise, wie CISOs Risiken bewerten.
In der traditionellen Anwendungs-Governance trennen Sicherheitsteams zwei Aspekte voneinander. Die Anwendung muss die Unternehmensstandards für Zugriffskontrolle, Datenschutz, Protokollierung und Compliance erfüllen. Unabhängig davon muss die zugrunde liegende Plattform die Erwartungen hinsichtlich Zuverlässigkeit, Sicherheit und Betrieb erfüllen.
LLMs führen dieselbe zweistufige Verantwortung ein, jedoch mit höheren Risiken.
Durch die Nachverfolgung von LLM-Attributen wie Datennutzung, Sicherheitsverhalten, Guardrail-Abdeckung und Fehlermustern erhalten Sicherheitsverantwortliche das gleiche Vertrauen, das sie von ausgereiften Anwendungsprogrammen erwarten. Mit dieser Transparenz können CISOs eine breitere Einführung von KI unterstützen und gleichzeitig die Sicherheit, den Datenschutz und die Einhaltung gesetzlicher Vorschriften im gesamten Unternehmen gewährleisten.
Über den Autor

Sarang Warudkar ist ein erfahrener Produktmarketing-Manager mit mehr als 10 Jahren Erfahrung im Bereich Cybersicherheit, der es versteht, technische Innovationen mit den Marktanforderungen in Einklang zu bringen. Er verfügt über umfassende Erfahrung mit Lösungen wie CASB, DLP und KI-gestützter Erkennung von Bedrohungen und treibt wirkungsvolle Strategien zur Markteinführung und Kundenbindung voran. Sarang hat einen MBA vom IIM Bangalore und einen Abschluss als Ingenieur von der Universität Pune und kombiniert technische und strategische Kenntnisse.
Sarang Warudkar 18. Februar 2026
Niharika Ray und Sarang Warudkar 12. Februar 2026
Thyaga Vasudevan 21. Januar 2026
Jesse Grindeland 18. Dezember 2025
Thyaga Vasudevan 12. Dezember 2025