Von unzähligen Nachrichtenartikeln und Beiträgen in Ihrem Social-Media-Feed bis hin zu völlig neuen Tools, die in Ihre Lieblingssoftware integriert sind: Künstliche Intelligenz ist überall.
Die Technologie ist zwar nicht neu, doch mit der Veröffentlichung von ChatGPT – einem großen Sprachmodell (LLM), das Prompt Engineering nutzt, um verschiedene Ergebnisse für Benutzer zu generieren, – hat generative KI im November 2022 für großes Aufsehen gesorgt.
Fast unmittelbar nach der Veröffentlichung von ChatGPT kamen ähnliche generative KI-Tools auf den Markt, wie z. B. Bard von Google und Copilot von Microsoft, und die Verwendung von KI zur Generierung von Inhalten, Videos, Fotos, Code und mehr hat sich wie ein Lauffeuer verbreitet.
Mit der zunehmenden Beliebtheit von KI kommen jedoch auch Bedenken hinsichtlich der Risiken auf, die mit dem Einsatz dieser Technologie verbunden sind. Cyberkriminelle haben bereits Wege gefunden, Daten aus verschiedenen KI-Tools zu exfiltrieren. Dazu gehören Plattformen wie WormGPT, ein KI-Modell, das auf Daten zur Erstellung von Malware trainiert wurde und in böser Absicht oder zur Generierung von bösartigem Code eingesetzt wird.
In diesem Blogeintrag werden wir untersuchen:
- Welche Vorteile generative KI Unternehmen heute bringen kann
- Welche Risiken bei der Nutzung von KI zu beachten sind
- Wie Sie sich sicher in der KI-Landschaft zurechtfinden können
Wir beleuchten die größten Vorteile der Verwendung generativer KI und verraten, worauf Sie achten sollten. Da der Einsatz generativer KI-Tools zunimmt und sich die durchschnittlichen Kosten eines Datenlecks im Jahr 2022 auf insgesamt 4,35 Millionen US-Dollar belaufen, gibt es keinen besseren Zeitpunkt, um sicherzustellen, dass Ihr Unternehmen geschützt ist.
Warum generative KI-Sicherheit jetzt wichtig ist
Die Anfänge künstlicher Intelligenz reichen bis in die 1960er Jahre zurück, in denen Joseph Weizenbaum den ersten KI-Chatbot, ELIZA, entwickelte. Warum ist generative KI also jetzt, über ein halbes Jahrhundert später, so beliebt?
Die Einführung von ChatGPT Ende 2022 beschleunigte die Entwicklung der generativen KI und verschaffte der Welt Zugang zu dem leistungsstarken Tool.
„Was ChatGPT wirklich getan hat, ist, KI zu kommerzialisieren und sie immer mehr Menschen zur Verfügung zu stellen, was im Wesentlichen bedeutet, dass immer mehr Menschen sie nutzen können, ohne zu verstehen, welche Technologie dahinter steckt“, so Thomas Cook, ein Sicherheitsarchitekt im Varonis Incident Response Team, der Anfang 2023 ein Webinar zu ChatGPT präsentierte.
Da viele Softwareunternehmen ihre eigenen KI-Programme entwickeln, kann es vorkommen, dass Sicherheitsteams bei der Veröffentlichung dieser Tools überrascht sind und nicht wissen, wie sie die damit verbundenen Risiken bekämpfen können.
Microsoft Copilot, das sich derzeit in einer Early-Access-Phase befindet, hat zusätzlich zu seinem LLM-Design den Vorteil, dass es Ihr Unternehmen kennenlernt. Copilot kann beispielsweise an Ihren Teams-Besprechungen teilnehmen – wobei es in Echtzeit Notizen erstellt –, Sie beim Sortieren von E-Mails und Erstellen von Antworten in Outlook unterstützen oder in Excel Rohdaten für Sie analysieren.
Rob Sobers und Mike Thompson von Varonis präsentierten einen tiefen Einblick in die generative KI und die Funktionsweise des Sicherheitsmodells von Copilot und hoben die Vor- und Nachteile hervor, um Sicherheitsteams zu helfen, das Tool noch vor seiner Veröffentlichung zu verstehen.
Copilot wird als das leistungsstärkste Produktivitätswerkzeug der Welt bezeichnet, und wenn Sie jemals generative KI-Tools verwendet haben, verstehen Sie wahrscheinlich, warum. Stellen Sie sich einfach vor, Sie hätten eine kleine Version von ChatGPT, die in all Ihre Office-Apps wie Word, PowerPoint, Excel und Microsoft Teams integriert ist.
Zusätzlich zu den Fähigkeiten von Copilot gibt es mehrere Aspekte von generativen KI-Tools, von denen Sicherheitsteams profitieren können, z. B. die Verbesserung von Cyber-Security-Operationen, die Erkennung von Bedrohungen und Abwehrmechanismen.
Weitere vorteilhafte Einsatzmöglichkeiten generativer KI sind:
- Blue Team-Verteidigung: Ebenso wie ein Bedrohungsakteur KI-Tools einsetzen kann, um Schaden anzurichten, können Unternehmen sie zum Guten nutzen. Cook führte auf, wie ChatGPT die Art und Weise vereinfacht hat, auf die Benutzer bösartigen Code überprüfen, bestimmte Schwachstellen erkennen und Ergebnisse fast augenblicklich zusammenfassen können.
- Malware-Analyse: Generative KI kann bei der Generierung von Varianten bekannter Malware-Proben helfen und Cyber-Security-Experten bei der Erstellung umfassenderer Malware-Erkennungs- und Analysesysteme unterstützen.
- Täuschung und Honeypots: Generative KI kann dabei helfen, realistische Täuschungssysteme oder Honeypots zu schaffen, die für Angreifer verlockend wirken. Dies ermöglicht es Sicherheitsteams, Angriffstechniken zu überwachen und zu analysieren, Bedrohungsinformationen zu sammeln und Angreifer von echten Assets abzulenken.
- Generierung automatischer Reaktionen: Wenn ein Angriff erkannt wird, kann generative KI bei der Generierung automatischer Reaktionen helfen, um die Bedrohung zu entschärfen. Dies kann die Erstellung von Firewall-Regeln, das Auslösen von Gegenmaßnahmen und die Isolierung kompromittierter Systeme umfassen. Zudem können Analysten, die auf die Bedrohungen reagieren, dadurch Zeit sparen.
- Adaptive Sicherheitsmaßnahmen: Generative KI kann bei der Entwicklung von Sicherheitsmechanismen helfen, die sich an sich entwickelnde Bedrohungen anpassen. Indem sie kontinuierlich von neuen Angriffstechniken lernen, können diese Systeme sich weiterentwickeln und mit der Zeit ihre Verteidigungsstrategien verbessern.
- Visualisierung von Angriffen: Generative KI kann bei der Visualisierung komplexer Angriffsmuster und -verhalten helfen, sodass Sicherheitsanalysten leichter verstehen können, wie Angriffe ausgeführt werden, und Muster identifizieren können, die möglicherweise nicht sofort erkennbar sind.
Jede Geschichte hat zwei Seiten: Obwohl generative KI noch viele weitere als die bereits genannten Vorteile bietet, sind mit dem Tool auch Herausforderungen und Risiken verbunden.
Bekämpfung der dunklen Seite der KI in der Cyber-Security
Generative KI birgt mehrere Sicherheitsrisiken, die bei der Implementierung und Nutzung der Technologie sorgfältig bedacht werden müssen.
Laut einer von Forrester durchgeführten Studie ist Sicherheit eine der größten Hürden für Unternehmen, die KI einsetzen. 64 % der Befragten gaben an, nicht zu wissen, wie sie die Sicherheit generativer KI-Tools bewerten sollen.
Eines der größten Bedenken in Bezug auf Microsoft Copilot ist die Art und Weise, wie sein Sicherheitsmodell Berechtigungen verwendet und auf alle Dateien und Informationen zugreifen kann, auf die auch ein Benutzer zugreifen kann. Das Problem hierbei ist, dass die meisten Benutzer in einem Unternehmen bereits zu viel Zugriff auf Informationen haben, auf die sie nicht zugreifen können sollten.
„Eine Sache, die alle Unternehmen gemeinsam haben, ist dieser enorme Anstieg des unternehmensweiten Zugriffs“, so Thompson. „Dies ist wirklich das größte Risiko, das unserer Auffassung nach in den meisten Unternehmen nicht angegangen wird, und es ist auch das, was bei Copilot am unmittelbarsten zu einem Risiko führt, da es genau das ausnutzt: die über Sharepoint und OneDrive festgelegten Berechtigungen. Es liegt in Ihrer Verantwortung, das Least-Privilege-Modell intern durchzusetzen, und Sie wissen, dass wir Ihnen das Modell genau dafür gegeben haben. Doch wie viele Menschen tun das wirklich effektiv?“
Gegen Ende der Analyse von Microsoft Copilot durch Rob und Mike gaben 76 % der Teilnehmer an, dass sie zwar über die Risiken der Verwendung von generativen KI-Tools besorgt sind, diese aber dennoch nutzen möchten. Ohne eine angemessene Schulung oder proaktive Sicherheitsmaßnahmen laufen Unternehmen Gefahr, dass ihre wichtigen Informationen mit diesen Tools und möglicherweise mit dem gesamten Internet geteilt werden.
Mit der zunehmenden Verbreitung von KI-Tools werden die Menschen immer nachlässiger und vertrauen der KI möglicherweise zu sehr, wenn es um Sicherheitsprüfungen geht, die sie selbst durchführen sollten. So könnte ein Mitarbeiter beispielsweise Microsoft Copilot bitten, auf der Grundlage vorhandener Dokumente und Besprechungsnotizen ein Angebot zu erstellen, was ihm viele Stunden an Arbeit erspart. Er könnte das Ergebnis überfliegen und denken, es sei in Ordnung – dabei könnten sich sensible Informationen aus der Originaldokumentation eingeschlichen haben, wenn dies nicht gründlich überprüft wurde.
Abgesehen von den internen Sicherheitsbedenken verwenden Bedrohungsakteure KI ebenfalls, um bösartigen Code zu schreiben, Schwachstellen zu finden und groß angelegte Kampagnen zu starten.
Zudem nutzen Angreifer KI, um gefälschte Datensätze zu generieren und damit zu versuchen, Unternehmen zu erpressen (oder zumindest ihre Zeit zu verschwenden).
Angreifer werden nicht mehr Powershell oder Python lernen, sondern stattdessen ihre Fähigkeiten im Prompt Engineering ausbauen. Wenn sie wissen, dass sie einen Benutzer kompromittieren können und dass sie Zugang zu einem KI-Tool haben, warum sollten sie dann nicht genau diese Fähigkeiten verbessern?
Zu den weiteren Sicherheitsbedenken und Risiken im Zusammenhang mit generativer KI gehören:
- Bedarfsorientierte Cyberangriffskampagnen: Angreifer können generative KI nutzen, um die Erstellung von Malware, Phishing-Kampagnen oder anderen Cyberbedrohungen zu automatisieren und so die Skalierung und Durchführung von Angriffen zu erleichtern. In seiner Präsentation über ChatGPT teilte Thomas Cook ein Beispiel dafür, wie ChatGPT eine E-Mail personalisieren kann, um Elon Musk für eine Investition in X, früher bekannt als Twitter, zu gewinnen. Die Aufnahme von Informationen über die Zielperson – in diesem Fall Elon Musk – in die Eingabeaufforderung kann Bedrohungsakteuren helfen, ansprechendere Nachrichten zu verfassen, die mit größerer Wahrscheinlichkeit dazu führen, dass Benutzer tätig werden. Auch können KI-Tools mit Informationen zu Alter, Geschlecht, Bildung, Unternehmen und mehr gefüttert werden.
- Kein Tool-Proofing: KI-Tools laufen darüber hinaus Gefahr, manipuliert zu werden, sodass sie falsche oder böswillige Ergebnisse erzeugen. Einige KI-Tools verfügen über ethische Standards, um die missbräuchliche Verwendung des Produkts zu bekämpfen, aber Bedrohungsakteure haben Wege gefunden, diese zu umgehen.
- Offenlegung sensibler Informationen: Generative KI-Modelle lernen oft aus großen Datensätzen, die je nach den geteilten Informationen sensible Daten enthalten können. Bei unsachgemäßer Handhabung besteht die Gefahr, dass durch generierte Ausgaben versehentlich vertrauliche Informationen preisgegeben werden. Auch KI-Modelle können diese Informationen speichern und so Ihre sensiblen Daten für jeden zugänglich machen, der mit verschiedenen KI-Tools auf Ihr Benutzerkonto zugreift.
- Diebstahl von geistigem Eigentum: Generative Modelle ziehen häufig eine riesige Menge an öffentlich verfügbaren Informationen heran, darunter auch geschützte Daten. Es besteht ein reales Risiko, dass generative KI die Rechte am geistigen Eigentum anderer verletzt und Gegenstand von Gerichtsverfahren wird. So haben beispielsweise bildbasierte KI-Tools das Wasserzeichen von Getty auf Bildern implementiert, weil die von der KI generierten Fotos auf der Grundlage der zahlreichen öffentlichen Daten von Getty erstellt werden. Darüber hinaus besteht ebenfalls das Risiko, dass Ihr geistiges Eigentum in KI-Tools verwendet wird, wenn es nicht gesichert ist.
- Identitätsrisiko und Deepfakes: Generative KI kann verwendet werden, um überzeugende gefälschte Bilder, Videos oder Audioclips zu erstellen, was zu Identitätsdiebstahl, Nachahmung und der Erstellung von Deepfake-Inhalten führt, die Fehlinformationen verbreiten können. Die Tools können auch dafür sorgen, dass Phishing-Kampagnen menschlicher erscheinen und ihr Ziel ansprechen. Ein Bild des Papstes, der eine Balenciaga-Jacke trug, ging viral, bevor bekannt wurde, dass das Bild mit KI-Tools erstellt wurde. Dies beweist, dass die Wahrscheinlichkeit, dass KI-Bilder und Deepfake-Videos glaubwürdig sind, so hoch ist wie nie zuvor.
Insbesondere ChatGPT wurde entwickelt, um eine glaubwürdige menschliche Interaktion zu erzeugen, was es zum perfekten Werkzeug für Phishing-Kampagnen macht. Bedrohungsakteure nutzen das LLM auch, um Malware in gefälschte Anwendungen zu verpacken, was während des Aufkommens von ChatGPT beliebt war, bevor die Muttergesellschaft OpenAI eine iOS-Anwendung herausgegeben hatte.
„Selbst wenn Ihre Suche nach ChatGPT im Chrome-Webshop das Wort „offiziell“ umfasst, erhalten Sie immer noch über 1.000 Ergebnisse, und bei keiner dieser Anwendungen handelt es sich um legitime Erstanbieter-Anwendungen“, erläutert Cook. „Sicher sind nicht alle davon bösartig, aber man muss sich schon fragen, warum Menschen dafür bezahlen, dass Sie die API in ihrem Backend verwenden. Welchen Vorteil erhalten sie dadurch? Welche Daten sammeln sie über Sie?“
So finden Sie sich sicher in der KI-Landschaft zurecht
Wenn Sie mit der Implementierung von Sicherheitsmaßnahmen rund um KI warten, bis es zu einem Datenleck kommt, geraten Sie ins Hintertreffen.
Einer der ersten Schritte, die Führungskräfte unternehmen können, um Bedenken hinsichtlich der Nutzung generativer KI durch ihre Mitarbeitenden auszuräumen, besteht darin, sie dazu zu schulen, was sie teilen dürfen und was nicht.
Manche Leute mögen es zum Beispiel harmlos finden, Kundendaten in ChatGPT-Eingabeaufforderungen aufzunehmen, doch das ist genau die Art von Handlung, die sich Bedrohungsakteure von Ihren Mitarbeitenden erhoffen. Ein einziger Mitarbeiter, der auf eine gefälschte ChatGPT-Website zugreift und sensible Informationen eingibt, genügt, um Ihr Unternehmen zu gefährden.
Wenn neue generative KI-Tools auf den Markt kommen, müssen Unternehmen ihre Teams im richtigen Umgang mit ihnen schulen und sich der Sicherheitsbedenken bewusst sein, sobald diese aufgedeckt werden.
Durch die Einrichtung einer Datensicherheitsplattform (DSP) kann außerdem verhindert werden, dass Mitarbeitende Zugriff auf sensible Daten haben, auf die sie von Vornherein nicht zugreifen können sollten. DSPs können Sicherheitsteams dabei helfen, sensible Daten automatisch zu erkennen, zu klassifizieren und zu kennzeichnen, das Least-Privilege-Prinzip anzuwenden und kontinuierlich Daten-Exposure und Fehlkonfigurationen zu beheben.
Wenn Sie einen guten Überblick darüber haben, was Ihre Mitarbeiter und Mitarbeiterinnen tun, wo sich die Daten befinden, wie sensibel diese Daten sind und wo es Konzentrationen sensibler Daten gibt, ist es viel einfacher, diesen Radius zu verkleinern und dafür zu sorgen, dass nur die richtigen Personen Zugriff haben.
Das erstklassige globale Incident Response Team von Varonis untersucht ebenfalls ungewöhnliche Aktivitäten für Sie. Wenn ein Mitarbeiter beispielsweise auf eine Fülle von Informationen zugreift, auf die er nicht zugreifen sollte, werden Sie sofort benachrichtigt. Unsere Automatisierungsfunktionen tragen dazu bei, die Zeit bis zur Erkennung zu verkürzen, sodass wir schnell reagieren und Nachforschungen anstellen können.
Beginnen Sie mit einer kostenlosen Datenrisikobewertung, die auf die Bedürfnisse, Vorschriften und Konfigurationen Ihres Unternehmens zugeschnitten ist. Unsere Bewertungen geben Ihnen konkrete Schritte an die Hand, um wichtige Sicherheitsrisiken und Compliance-Probleme in Ihren Daten zu priorisieren und zu beheben.
Zum Abschluss
Es lässt sich nicht leugnen, dass KI die Welt im Sturm erobert hat und dass sich die Technologie in den kommenden Jahren weiter entwickeln wird.
Der erste Ansatzpunkt ist es, die Vorteile und Risiken von KI zu verstehen, die Mitarbeitenden im richtigen Umgang mit den verschiedenen KI-Tools zu schulen und Parameter dafür festzulegen, was geteilt werden darf und was nicht.
„Mein Hauptanliegen sind die Auswirkungen von KI auf den Datenschutz und die Einhaltung von Vorschriften. Das wird sich nicht ändern“, schließt Thomas Cook. „Dies ist etwas, das wir immer häufiger sehen werden. Es geht also darum, sicherzustellen, dass Sie über die entsprechenden Richtlinien und Verfahren für die Nutzung von KI verfügen und Ihre Angestellten über die möglichen Auswirkungen der Verwendung von KI-Tools aufklären.“
Wie soll ich vorgehen?
Im Folgenden finden Sie drei Möglichkeiten, wie Sie das Datenrisiko in Ihrem Unternehmen verringern können:
Vereinbaren Sie eine Demo mit uns, um Varonis in Aktion zu erleben. Wir passen die Session an die Datensicherheitsanforderungen Ihres Unternehmens an und beantworten alle Fragen.
Sehen Sie sich ein Beispiel unserer Datenrisikobewertung an und erfahren Sie, welche Risiken in Ihrer Umgebung lauern könnten. Varonis DRA ist völlig kostenlos und bietet einen klaren Weg zur automatischen Sanierung.
Folgen Sie uns auf LinkedIn, YouTubeund X (Twitter), um kurze Einblicke in alle Themen der Datensicherheit zu erhalten, einschließlich Data Security Posture Management (DSPM), Bedrohungserkennung, KI-Sicherheit und mehr.