Generative KI verändert die Art und Weise, wie Unternehmen arbeiten. Tools wie ChatGPT, Copilot und DeepSeek ermöglichen es Teams, schneller zu agieren, Aufgaben zu automatisieren und in einem Tempo zu innovieren, das noch vor einem Jahr kaum vorstellbar war. Doch mit dieser Innovationskraft entsteht auch ein neues, weitgehend unsichtbares Risiko bekannt als Shadow AI.
Aus diesem Grund hat das Forschungsteam von Eye Security ein Konzept entwickelt, das sogenannte Prompt Injections in ein Werkzeug für Compliance und Nutzeraufklärung verwandelt, speziell für Sicherheitsteams und CISOs.
👉 Jetzt ausprobieren
Shadow AI: Das Risiko hinter der KI-Produktivität
Die unautorisierte Nutzung von SaaS-Anwendungen und Cloud-Diensten ist ein Problem, das jeder CISO kennt. Shadow AI ist die nächste und weitaus komplexere Evolutionsstufe dieses Phänomens.
Mitarbeitende experimentieren zunehmend mit KI-Tools. Dabei fügen sie sensible E-Mails, Geschäftsdokumente oder sogar Quellcode in Chatbots ein, um schnelle Zusammenfassungen zu erhalten oder Aufgaben zu automatisieren. So verlassen sensible Daten die Kontrolle des Unternehmens.
Daraus ergeben sich erhebliche Risiken:
-
Vertrauliche Informationen, personenbezogene Daten und geistiges Eigentum können von externen KI-Anbietern gespeichert oder verarbeitet werden.
-
Compliance-Risiko: Nach DSGVO, NIS2 und ISO 27001 müssen Unternehmen nachweisen, dass sie ihre Datenverarbeitung kontrollieren, was bei unverwalteter KI-Nutzung kaum möglich ist.
-
Shadow AI hinterlässt keine Spuren, keine Logs und keine Nachvollziehbarkeit.
-
Mitarbeitende erkennen oft nicht, dass die Eingabe vertraulicher Daten in ChatGPT bereits als Datenschutzverletzung gelten kann.
Damit steht jede Sicherheitsverantwortliche Person vor demselben Dilemma: Wie lässt sich Innovation mit KI ermöglichen, ohne die Kontrolle über Daten zu verlieren oder Compliance-Prüfungen zu gefährden?
Spezialisierte DLP-Lösungen oder Browser-Erweiterungen können helfen. Sie greifen jedoch nur auf Unternehmensgeräten. Private Geräte, etwa Smartphones, umgehen diese Schutzmechanismen leicht.
Prompt Injection neu gedacht: Vom Risiko zur Chance
Bei Eye Security denken wir gerne einen Schritt weiter und haben uns gefragt:
„Was wäre, wenn sich dieselben Techniken, mit denen Angreifer KI-Modelle manipulieren, nutzen ließen, um sie zu schützen?“
Unser Forschungsteam, das bereits eine Sicherheitslücke in Copilot durch Prompt Injection entdeckt hatte, experimentierte intensiv mit dieser Angriffsmethode. Statt sie jedoch offensiv zu nutzen, haben wir sie in ein defensives Awareness-Werkzeug verwandelt. Das Ergebnis ist ein neues Konzept samt Open-Source-Prototyp: Prompt Injection for the Good.
Dieser Prototyp ermöglicht es CISOs und Sicherheitsteams, auf einfache Weise Prompts direkt in Unternehmensdateien und E-Mails einzubetten.
Wenn ein Mitarbeitender ein geschütztes Dokument in ein privates KI-Tool, etwa ChatGPT oder Copilot, hochlädt, wird die KI durch den eingebetteten Prompt dazu gebracht, eine Warnmeldung anzuzeigen, zum Beispiel:
„Dieses Dokument enthält sensible Unternehmensdaten. Bitte beachten Sie das Risiko, diese mit nicht autorisierten Dritten oder Chatbots zu teilen.“
Anstatt Neugier zu bestrafen oder Produktivität zu blockieren, vermittelt dieser Ansatz Awareness im entscheidenden Moment.
Was ist Defensive Prompt-Injection?
Im Kern dreht unser Ansatz das Prinzip der klassischen Prompt Injection um. Während Angreifer diese Schwachstelle ausnutzen, um KI-Modelle mit „bösartigen Anweisungen“ zu manipulieren, nutzen wir denselben Mechanismus proaktiv. Die KI wird angewiesen, den Endnutzer zu warnen oder die Verarbeitung sensibler Daten vollständig zu blockieren, sobald Unternehmensdaten in generative KI-Tools hochgeladen werden, die außerhalb der Kontrolle der Organisation liegen.
Erstellen Sie Ihren eigenen defensiven Prompt
Unten finden Sie ein interaktives Tool für Sicherheitsteams und CISOs, mit dem sich das Konzept testen lässt. Geben Sie einfach den Namen Ihrer Organisation ein, wählen Sie, ob die KI lediglich eine Warnung anzeigen oder das Einlesen von Daten blockieren soll, und definieren Sie eine bevorzugte KI-Plattform (z. B. Microsoft Copilot). So können Sie Nutzende direkt auf die Einhaltung interner Sicherheitsrichtlinien hinweisen:
Dieser Textbaustein kann anschließend in bestehende Artefakte wie Signaturen, Header oder Footer eingefügt werden. Wenn Nutzende dann versehentlich Inhalte in Tools wie ChatGPT, Microsoft Copilot oder andere KI-Assistenten einfügen, löst der Prompt eine sichtbare Warnung oder einen Hinweis aus – sowohl gegenüber der KI als auch (über deren Antwort) gegenüber dem Nutzer oder der Nutzerin.
Warum das wichtig ist
Standard-DLP-Kontrollen decken in der Regel nur verwaltete Geräte und zugelassene SaaS-Anwendungen ab. Viele KI-Tools werden jedoch über private Geräte oder nicht genehmigte Kanäle genutzt und genau hier entstehen gefährliche Blindspots.
Durch das Einbetten oder sogar unsichtbare Platzieren eines Prompts innerhalb eines Unternehmensdokuments oder einer Signatur wird das Dokument selbst zu einem schützenden Wächter. Sobald es in ein KI-Tool gelangt, erscheint eine Meldung wie „Achtung, dieses Dokument enthält sensible Daten“. So wird Bewusstsein geschaffen, ohne Produktivität zu blockieren.
Anstelle einer Verbotskultur entsteht eine „Nudge-Kultur“. Mitarbeitende werden sensibilisiert, Risiken zu erkennen, statt für Neugier bestraft zu werden.
Praktische Einsatzszenarien
Nachfolgend finden Sie typische Anwendungsfälle, die Sie in Ihrem Unternehmen umsetzen können:
E-Mail-Signaturen
Viele Unternehmen fügen ihren E-Mail-Signaturen bereits rechtliche Hinweise hinzu. Ein defensiver Prompt-Snippet kann hier ergänzt werden, sodass beim Kopieren eines E-Mail-Verlaufs oder Inhalts und dem Einfügen in ein Chatbot-Tool die KI automatisch eine Warnung erhält, etwa in der Form:

Dies hindert den Benutzer nicht daran, Inhalte einzufügen aber es sorgt dafür, dass die KI beim Hochladen des vollständigen E-Mail-Verlaufs auf einer KI-Plattform automatisch eine Warnung ausgibt und den Benutzer sofort sensibilisiert.
Dokument-Header und -Footer (über Microsoft Purview oder ähnliche Tools)
Viele Unternehmen nutzen Microsoft Purview oder andere Governance-Lösungen, um Kopf- oder Fußzeilen in Word-, Excel- oder PowerPoint-Dateien (oder in Google Docs) anzuwenden. Hier kann der Prompt-Text als versteckter Header oder sichtbarer Footer eingebettet werden. Wenn ein Benutzer die Datei exportiert oder in eine KI-Anwendung hochlädt und diese verarbeitet wird, löst der Header den Awareness-Hinweis aus.

Dieses Beispiel für einen Microsoft Word-Header kann auch unsichtbar gemacht werden, indem der Text weiß eingefärbt oder so klein formatiert wird, dass er für Menschen unsichtbar ist, für KI-Tools jedoch weiterhin lesbar bleibt.
Exporte aus SaaS-Plattformen (z. B. Confluence Cloud)
Einige Plattformen ermöglichen es, beim Export von Daten, etwa als PDF, standardmäßigen Header-Text festzulegen. Genau hier lässt sich der defensive Prompt einfügen. Mitarbeitende können Inhalte weiterhin exportieren und hochladen, aber sobald die KI den Prompt im Dokument erkennt, wird automatisch die entsprechende Warnmeldung angezeigt.

Ähnlich wie im Microsoft-Word-Beispiel kann auch der Header-Text innerhalb von PDF-Dateien unsichtbar gemacht werden, für Menschen nicht sichtbar, aber für KI-Tools weiterhin lesbar.
Sonstige Kanäle (z. B. CRM-Systeme wie HubSpot-E-Mail-Signaturen)
Wenn Ihre Organisation ein zentrales Signaturmanagement in HubSpot oder einer ähnlichen Marketing-/CRM-Plattform nutzt, können Sie Ihren Prompt-Snippet in Marketing-, Vertriebs- und interne Kommunikations-E-Mails einbinden. Je breiter die Umsetzung, desto stärker und konsistenter das Signal zur Bewusstseinsbildung.
Haben wir Shadow AI gelöst?
Shadow AI ist kein Problem, das man in einem binären Sinne „lösen“ kann. Es handelt sich um ein sich entwickelndes Verhalten, das durch rasante Innovation, verschwimmende Grenzen zwischen persönlichen und beruflichen Daten sowie wachsende Nachfrage nach KI-gestützter Arbeit entsteht. Statt diese Welle aufzuhalten, haben wir einen Weg entwickelt, sie sicher zu steuern.
Um tiefer in die technische Umsetzung einzutauchen und diese Idee praxisnah zu erleben, haben wir auf unserem Forschungsblog eine detaillierte Analyse veröffentlicht, begleitet von einem Open-Source-Framework, das Sicherheitsteams ermöglicht, defensive Prompt-Injektionen in realen Szenarien zu testen und einzusetzen.
👉 Entdecken Sie unseren technischen Blogbeitrag und experimentieren Sie selbst mit dem Open-Source-Prototyp.
Das Tool erfordert technisches Fachwissen, ist aber für Sicherheitsteams konzipiert, die eine umfassende Methode suchen, um verschiedene Strategien defensiver Prompt-Injektionen über unterschiedliche Inhaltstypen, Verbreitungsmethoden (Headers, Signaturen, Exporte) und KI-Plattformen hinweg zu evaluieren.
Es unterstützt Tests auf großen Modellen wie ChatGPT, Microsoft Copilot, Claude, DeepSeek und weiteren und hilft, besser zu verstehen, wie sensible Dokumente in der Praxis mit diesen Tools interagieren.
Haben wir Shadow AI also gelöst? Nein. Aber wir machen es sichtbar, testbar und handhabbar. Und das ist ein großer Schritt nach vorn.
Welchen Nutzen hat das für die C-Suite?
Für CISOs, die dem Vorstand berichten, zeigt die Prototypisierung defensiver Prompt-Injektionen (in Testumgebungen) einen reifen Ansatz zum KI-Risikomanagement:
-
Sie gestalten interne Kontrollen aktiv.
-
Sie verbinden Produktivität mit Datenschutz, indem Risiko, Kosten und Resilienz in Einklang gebracht werden.
-
Sie kartieren zukünftige Compliance-Anforderungen, noch bevor sie verpflichtend werden.
-
Sie befähigen jede Mitarbeiterin und jeden Mitarbeiter, zu einem Wächter der Unternehmensdaten zu werden.
Letztlich vermittelt dies die Botschaft, dass Ihre Organisation vorausschauend denkt, KI verantwortungsvoll einsetzt und die Kontrolle über ihre Daten behält.
Fazit und Ausblick: Zusammenarbeit statt Kontrolle
Shadow AI wird nicht verschwinden. Bei Eye Security sind wir überzeugt, dass der Schutz der digitalen Zukunft Europas nur durch die Kombination von fortschrittlicher Sicherheit und offener Zusammenarbeit gelingt. Deshalb veröffentlichen wir diesen Forschungsprototyp als Open Source, um Lernen, Testen und Transparenz innerhalb der Community zu beschleunigen. Wir glauben, dass wir gemeinsam das richtige Gleichgewicht zwischen Innovation, Compliance und Sicherheit finden können.
Der Open-Source Prototyp ist auf GitHub verfügbar. Wir laden CISOs, Compliance-Verantwortliche und Sicherheitsexperten ein:
-
Das Repository zu erkunden.
-
Es in der eigenen Umgebung zu testen und mit unterschiedlichen Dateitypen und Disclaimern zu experimentieren.
-
Ergebnisse, Ideen und Verbesserungen zurück in die Community einzubringen.
👉 Entdecken Sie jetzt das Open-Source-Framework und beteiligen Sie sich am Austausch.