Teerachai Jampanak – Shutterstock.com
Es ist der Alptraum jedes Unternehmens: Ein Wettbewerber spricht mit gezielten Kampagnen die eigenen Kunden an. Und zwar so präzise, dass dies kein Zufall sein kann. Es ist anzunehmen, dass der Konkurrent irgendwie Zugang zu diesen sensitiven Daten erhalten hat.
Die Quelle der Datenschutzverletzung: Ein ehemaliger Mitarbeitender nutzte einen KI-Assistenten, um auf eine interne Datenbank voller Kontodaten zuzugreifen. Daraufhin kopierte er sensible Details wie die Kundenumsätze und die Produktnutzung. Anschließend nahm er sie mit zu seinem neuen Arbeitgeber.
Dieses Beispiel verdeutlicht ein schnell wachsendes Problem: Der rasant steigende Einsatz von generativen KI-Tools wird unweigerlich zu mehr Datenverstößen führen. Laut einer aktuellen Gartner-Umfrage gehören zu den häufigsten KI-Einsatzgebieten GenAI-basierte Anwendungen wie Microsoft 365 Copilot und Salesforce. Diese Tools sind für Unternehmen zwar eine hervorragende Möglichkeit zur Produktivitätssteigerung, stellen aber auch eine große Herausforderung für die Datensicherheit dar.
Lesetipp: Wie CISOs KI-Workloads absichern
Datenrisiken
Untersuchungen zeigen, dass fast 99 Prozent der Berechtigungen nicht genutzt werden, wobei mehr als die Hälfte davon mit einem hohen Risiko behaftet sind. Ungenutzte und zu weit gefasste Zugriffsrechte sind prinzipiell ein Problem für die Datensicherheit. Durch künstliche Intelligenz verschärft sich die Situation um ein Vielfaches. Wenn ein User einem AI-Assistenten eine Frage stellt, formuliert das Tool eine Antwort in natürlicher Sprache auf der Grundlage von Internetinhalten und Unternehmensdaten mittels Graphen-Technologie. Dabei kann beispielsweise Microsoft Copilot auf all jene Daten zugreifen, auf die auch der User zugreifen kann – selbst wenn der Benutzer gar nicht weiß, dass er Zugriff darauf hat. Entsprechend kann Copilot leicht sensible Daten preisgeben.
KI senkt die Hürde für Angreifer
Durch KI sind die Tage gezählt, an denen Angreifer noch Systeme „hacken“ sowie langsam und vorsichtig die Umgebung auskundschaften mussten. Jetzt können sie einfach einen KI-Assistenten nach sensiblen Informationen oder Zugangsdaten fragen, um sich lateral in der Umgebung zu bewegen.
Die größten Herausforderungen für die Cybersecurity durch KI sind:
- Mitarbeitende haben Zugriff auf zu viele Daten
- Sensible Daten sind oft nicht oder falsch gekennzeichnet
- Insider können Daten mithilfe natürlicher Sprache schnell finden und exfiltrieren
- Angreifer können Secrets für die Ausweitung von Privilegien und seitliche Bewegungen finden (lassen)
- Die richtige Dimensionierung des Zugriffs ist manuell unmöglich
- Generative KI erzeugt schnell neue sensitive Daten
Diese Herausforderungen für die Datensicherheit sind nicht neu. Angesichts der Geschwindigkeit und Leichtigkeit, mit der KI Angreifern Informationen zugänglich machen kann, lassen sie sich jetzt einfacher denn je ausnutzen.
Lesetipp: Der große KI-Risiko-Guide
Schutzmaßnahmen gegen das KI-Risiko
Der erste Schritt zur Beseitigung der mit der KI verbundenen Risiken besteht darin, sicherzustellen, dass die Hausaufgaben gemacht wurden. Bevor man so leistungsstarke Tools wie Copilot einsetzt, müssen CISOs wissen, wo sich welche sensitiven Daten befinden. Zudem müssen sie in der Lage sein, Gefährdung und Risiken zu analysieren, Sicherheitslücken zu schließen und Fehlkonfigurationen effizient zu beheben.
Erst, wenn CISOs die Datensicherheit in ihrer Umgebung im Griff haben und die richtigen Prozesse eingerichtet sind, ist das Unternehmen bereit, KI-Assistenten einzuführen. Dabei sollten Sicherheitsverantwortliche auch nach der Installation kontinuierlich auf folgende drei Bereiche achten:
- Zugriffsrechte: Es muss sichergestellt werden, dass die Berechtigungen der Mitarbeitenden richtig dimensioniert sind und dass der Zugriff des KI-Tools diesen Berechtigungen entspricht.
- Klassifizierung: Sobald CISOs wissen, über welche sensiblen Daten das Unternehmen verfügt, können sie diese mit Labels versehen, um DLP-Regeln wirkungsvoll durchzusetzen.
- Menschliche Aktivitäten: Die Nutzung der KI-Assistenten muss überwacht und jedes verdächtige Verhalten entdeckt werden. Die Analyse der Eingabeaufforderungen und der Dateien, auf die zugegriffen wird, ist dabei entscheidend. Nur so kann der Missbrauch der künstlichen Intelligenz verhindert werden.
Lesetipp: Risikobewertung hilft CISOs