Die Schatten-IT ist den Sicherheitsteams in Unternehmen schon lange ein Dorn im Auge. Schließlich kann man nicht verwalten oder schützen, was man nicht sehen kann. Doch es könnte noch viel schlimmer kommen. Das Ausmaß, die Reichweite und die Macht der künstlichen Intelligenz (KI) sollten jeden IT- oder Sicherheitsverantwortlichen zum Handeln auffordern. Denn das Problem der Schatten-KI wird sich eher verschlimmern als von selbst lösen.

Cyber-Risiken gedeihen in den dunklen Räumen zwischen den Richtlinien zur akzeptablen Nutzung. Falls Sie es noch nicht getan haben, ist es vielleicht an der Zeit, den größten blinden Fleck Ihrer Sicherheit zu beleuchten.

Was ist Schatten-KI und warum jetzt?

KI-Tools sind schon seit geraumer Zeit Bestandteil der Unternehmens-IT. Seit den frühen 2000er Jahren helfen sie den Sicherheitsteams, ungewöhnliche Aktivitäten zu erkennen und Bedrohungen wie Spam herauszufiltern. Aber dieses Mal ist es anders. Seit dem bahnbrechenden Erfolg des ChatGPT-Tools von OpenAI im Jahr 2023, als der Chatbot in den ersten zwei Monaten 100 Millionen Nutzer verzeichnete, sind die Mitarbeiter von dem Potenzial der generativen KI im täglichen Einsatz begeistert. Leider waren die Unternehmen langsamer, um auch mit an Bord zu kommen.

Dadurch ist ein Vakuum entstanden, das frustrierte Nutzer nur zu gerne füllen. Obwohl es unmöglich ist, einen Trend genau zu messen, der naturgemäß im Verborgenen stattfindet, geht Microsoft davon aus, dass 78 % der KI-Nutzer inzwischen ihre eigenen Tools mit zur Arbeit bringen. Es ist kein Zufall, dass 60 % der IT-Führungskräfte besorgt darüber sind, dass die Entscheider keinen Plan haben, ob und wie man die Technologie offiziell implementiert.

Beliebte Chatbots wie ChatGPT, Gemini oder Claude lassen sich leicht nutzen und/oder auf ein BYOD-Handy oder einen Laptop für die Heimarbeit herunterladen. Sie bieten einigen Mitarbeitern die verlockende Aussicht auf eine Verringerung der Arbeitsbelastung, eine Erleichterung der Fristen und die Möglichkeit, sich auf höherwertige Aufgaben zu konzentrieren.

Jenseits öffentlicher KI-Modelle

Eigenständige Anwendungen wie ChatGPT sind ein wichtiger Teil der KI-Herausforderung im Schatten. Sie stellen jedoch nicht das ganze Ausmaß des Problems dar. Die Technologie kann sich auch über Browsererweiterungen in das Unternehmen einschleichen. Oder sogar über Funktionen in legitimen Unternehmenssoftwareprodukten, die von den Benutzern ohne Wissen der IT-Abteilung aktiviert werden.

Und dann gibt es noch die agentenbasierte KI: die nächste Welle der KI-Innovation, die sich um autonome Agenten dreht. Diese digitalen Gehilfen arbeiten unabhängig und erfüllen bestimmte Aufgaben, die ihnen von Menschen übertragen werden. Ohne die richtigen Sicherheitsvorkehrungen könnten sie auf sensible Datenspeicher zugreifen und unbefugte, wenn nicht gar böswillige Aktionen ausführen. Bis dies jemand bemerkt, kann es bereits zu spät sein.

Was sind die Risiken der Schatten-KI?

Sie alle bergen enorme potenzielle Sicherheits- und Compliance-Risiken für Unternehmen. Betrachten wir zunächst die nicht genehmigte Nutzung öffentlicher KI-Modelle. Bei jeder Eingabeaufforderung besteht das Risiko, dass Mitarbeiter sensible und/oder regulierte Daten weitergeben. Dabei kann es sich um Besprechungsnotizen, geistiges Eigentum, Code oder personenbezogene Daten von Kunden/Mitarbeitern (PII) handeln. Was auch immer eingegeben wird, wird zum Trainieren des Modells verwendet und könnte daher in Zukunft an andere Nutzer weitergegeben werden. Außerdem werden die Daten auf Servern von Drittanbietern gespeichert, möglicherweise in Ländern, die nicht dieselben Sicherheits- und Datenschutzstandards haben wie Ihr Unternehmen.

Dies wird von den Datenschutzbehörden nicht gerne gesehen (z. B. DSGVO, CCPA usw.). Außerdem wird das Unternehmen dadurch gefährdet, dass Mitarbeiter des Chatbot-Entwicklers möglicherweise Ihre sensiblen Daten einsehen können. Diese könnten auch vom Anbieter weitergegeben oder missbraucht werden, wie dies beim chinesischen Anbieter DeepSeek der Fall war.

Chatbots können Software-Schwachstellen und/oder Hintertüren enthalten, durch die das Unternehmen unwissentlich gezielten Bedrohungen ausgesetzt wird. Und jeder Mitarbeiter, der bereit ist, einen Chatbot zu Arbeitszwecken herunterzuladen, könnte versehentlich eine bösartige Version installieren, die darauf ausgelegt ist, Geheimnisse von seinem Rechner zu stehlen. Es gibt zahlreiche gefälschte GenAI-Tools, die speziell für diesen Zweck entwickelt wurden.

Die Risiken gehen über die Offenlegung von Daten hinaus. Die unerlaubte Verwendung von Tools zum Programmieren könnte beispielsweise ausnutzbare Fehler in kundenorientierte Produkte einbringen, wenn die Ausgabe nicht ordnungsgemäß überprüft wird. Auch der Einsatz von KI-gestützten Analysetools kann riskant sein, wenn die Modelle auf voreingenommenen oder minderwertigen Daten trainiert wurden, was zu einer fehlerhaften Entscheidungsfindung führt.

KI-Agenten können auch gefälschte Inhalte und fehlerhaften Code einschleusen oder unbefugte Aktionen durchführen, ohne dass ihre menschlichen Vorgesetzten davon wissen. Die Konten, die solche Agenten für ihre Arbeit benötigen, könnten auch ein beliebtes Ziel für Hijacking werden, wenn ihre digitalen Identitäten nicht sicher verwaltet werden.

Einige dieser Risiken sind noch theoretisch, andere nicht. IBM behauptet jedoch, dass bereits 20 % der Unternehmen im vergangenen Jahr aufgrund von Sicherheitsvorfällen im Zusammenhang mit Schatten-KI eine Sicherheitsverletzung erlitten haben. Bei Unternehmen mit einem hohen Anteil an Schatten-KI könnten die durchschnittlichen Kosten für Sicherheitsverletzungen um bis zu 670.000 US-Dollar steigen, so die Berechnungen von IBM. Sicherheitsverstöße im Zusammenhang mit Schatten-KI können erheblichen finanziellen und rufschädigenden Schaden anrichten, einschließlich Geldstrafen für die Einhaltung von Vorschriften. Geschäftsentscheidungen, die auf der Grundlage fehlerhafter oder beschädigter Daten getroffen werden, können jedoch genauso schädlich sein, wenn nicht sogar noch schädlicher, zumal sie wahrscheinlich unbemerkt bleiben.

Ein Licht auf die Schatten-KI werfen

Was auch immer Sie tun, um diese Risiken zu bekämpfen, es reicht nicht aus, jedes neue Schatten-KI-Tool, das Sie finden, auf eine "Verbotsliste" zu setzen. Sie müssen erkennen, dass diese Technologien eingesetzt werden - und verstehen, in welchem Umfang und für welche Zwecke, und dann eine realistische Richtlinie für die akzeptable Nutzung erstellen. Dies sollte Hand-in-Hand gehen mit internen Tests und Due-Diligence-Prüfungen von KI-Anbietern, um zu verstehen, wo bei bestimmten Tools Sicherheits- und Compliance-Risiken bestehen.

Kein Unternehmen ist wie das andere. Verfassen Sie Ihre Richtlinien also nach der Risikobereitschaft Ihrer Firma. Wenn bestimmte Tools verboten sind, sollten Sie versuchen, Alternativen anzubieten, zu denen die Benutzer überredet werden können. Und schaffen Sie ein nahtloses Verfahren, mit dem Mitarbeiter den Zugriff auf neue, noch nicht entdeckte Tools beantragen können.

Kombinieren Sie dies mit der Schulung der Endbenutzer. Informieren Sie die Mitarbeiter über die Risiken, die sie durch die Nutzung von Schatten-KI eingehen können. Schwerwiegende Datenschutzverletzungen führen manchmal zu Trägheit im Unternehmen, zum Stillstand der digitalen Transformation und sogar zum Verlust von Arbeitsplätzen. Und ziehen Sie Netzwerküberwachungs- und Sicherheitstools in Betracht, um die Risiken von Datenlecks zu mindern und die Transparenz der KI-Nutzung zu verbessern.

Cybersicherheit war schon immer eine Balance zwischen Risikominderung und Produktivitätssteigerung. Das ist auch bei der Bewältigung der KI-Schattenherausforderung nicht anders. Ein großer Teil Ihrer Aufgabe besteht darin, das Unternehmen sicher und konform zu halten. Aber es geht auch darum, das Firmenwachstum zu unterstützen - höchstwahrscheinlich mit dem vernünftigen Einsatz von Künstlicher Intelligenz.