KI erlebt momentan einen Hype, der seinesgleichen sucht: In der Blockchain gibt es viele schwache Glieder, das Metaverse scheint in diesem Teil des Multiversums nicht aufzugehen, und selbst Big Data wirken gerade klein. Als CEO eines führenden Cybersecurity-Unternehmens werde ich täglich zum Thema KI und ihrer Rolle in der Datensicherheit gefragt.
Wie die meisten neuen Technologien birgt generative KI sowohl Chancen als auch Risiken. Sie steigert bereits jetzt die Produktivität, indem sie als virtueller Assistent für Mitarbeiter fungiert. In Hinblick auf Risiken sind jedoch zwei Dimensionen zu berücksichtigen: das selbstverschuldete Risiko und das externe Risiko.
Ein selbstverschuldetes Risiko entsteht, wenn die Mitarbeiter eines Unternehmens damit beginnen, KI zu nutzen, um Inhalte vorzuschlagen – entweder über eine Abfrage oder im Kontext dessen, was sie gerade erstellen. Solange Ihre Daten nicht gesperrt sind, gibt es wenig, was die KI daran hindern könnte, Ihren Datenbestand zu analysieren und beispielsweise Ihre geheime Roadmap, Ihre Finanzdaten oder andere wertvolle Informationen an die falschen Personen weiterzugeben.
Um dieses Risiko zu mindern, empfiehlt Microsoft, sensible Daten vor der Einführung seines KI-Assistenten „Copilot“ abzusichern. Ein darin vorgeschlagener Schritt besteht darin, „sicherzustellen, dass in Ihrer Organisation die richtigen Informationszugriffskontrollen und -richtlinien vorhanden sind.“
Leider erweist sich die Einführung der richtigen Zugriffskontrollen und Richtlinien als weitaus schwieriger, als die meisten Organisationen glauben. Und das wird wahrscheinlich nur noch schwieriger werden, denn mit zunehmendem Einsatz von KI werden immer mehr Daten erstellt und müssen geschützt werden.
Ohne die richtigen Kontrollen weiß die KI nicht, wer was sehen soll. Dadurch sind Unternehmen gefährdet – genauso, wie wenn sie Unternehmenssuchplattformen aktivieren, bevor sie ihre Daten sperren, nur noch viel schlimmer. Wenn das geschieht, brauchen Mitarbeiter nicht einmal mehr nach Inhalten zu suchen, die sie stehlen oder heimlich ansehen wollen; die KI wird sie ihnen einfach zeigen.
So nutzen Angreifer KI
Das externe Risiko wird weiter zunehmen, denn Angreifer werden lernen, KI zu nutzen. Leider haben sie damit bereits angefangen. WormGPT und FraudGPT verwenden Large Language Models (LLMs), um Angreifern dabei zu helfen, überzeugende Phishing-E-Mails zu erstellen und diese in andere Sprachen zu übersetzen.
Angreifer erstellen mittlerweile auch gefälschte Datensätze, die auf früheren Verstößen und anderen verfügbaren Daten basieren. Sie behaupten dann, sie hätten diese Daten von Unternehmen gestohlen, um so ihren Ruf als gute Hacker auszubauen, oder um beispielsweise Lösegelder von den betroffenen Unternehmen zu erpressen. Generative KI kann das Datenvolumen erhöhen und es schwieriger machen, zwischen einer echten und einer gefälschten Datenschutzverletzung zu unterscheiden.
In der Forschung konnte KI bereits im Rahmen von Machbarkeitsstudien zur Entwicklung von Malware eingesetzt werden, und wir sollten damit rechnen, KI-generierte Malware bald in freier Wildbahn zu sehen. Leider wird der Einsatz von KI die Eintrittsbarrieren für alle Arten von Cyberkriminalität weiter senken.
Das sind nur einige der Risiken, die KI mit sich bringt – und mit der Geschwindigkeit, mit der diese Technologie voranschreitet, werden noch viele weitere hinzukommen. Schon bald könnte generative KI völlig selbstständig neue Cyber-Bedrohungen entwickeln.
Cyber-Security erhält einen KI-Boost
Glücklicherweise bietet KI auch enorme Chancen für die Cyber-Security.
KI ist sehr gut darin, Muster zu erkennen. Durch korrekte Analysen können KI und Machine Learning Erkenntnisse über Schwachstellen und gefährliche Verhaltensweisen liefern. In Verbindung mit Automatisierung wird KI Routineaufgaben erledigen können, sodass Menschen mehr Zeit haben werden, sich um Aufgaben zu kümmern, die ihre wertvolle Aufmerksamkeit erfordern.
Wenn menschliches Eingreifen erforderlich ist, hilft KI Cyber-Sicherheitskräften dabei, effizienter zu arbeiten, indem sie Erkenntnisse liefert und Untersuchungen beschleunigt. Solche KI-Anwendungsfälle werden schon in naher Zukunft kommen, und viele weitere sind bereits am Horizont zu sehen. So könnte generative KI zum Beispiel Unmengen synthetischer Daten erzeugen, die Angreifern als eine Art Köder dienen. Dadurch wird es für sie schwieriger, herauszufinden, ob sie etwas Wertvolles gestohlen haben. Gleichzeitig haben Mitarbeiter in der Cyber-Security mit ihren Technologien so mehr Möglichkeiten, Cyber-Kriminelle auf frischer Tat zu ertappen.
Unternehmen auf KI vorbereiten
- Führen Sie ein Data Risk Assessment durch, um sensible und übermäßig zugängliche Daten zu identifizieren, bevor sie von einer „freundlichen KI“ oder einer „unfreundlichen“ – von Angreifern ausgeführten – KI aufgedeckt werden. Ihre Daten machen KI wertvoll, und sie sollten sie gut schützen. Unternehmen wissen nicht genug darüber, wo ihre wichtigen Daten gespeichert sind oder wer sie nutzen kann – und dies auch tut.
- Sperren Sie Ihre Daten, insbesondere Ihre kritischen Daten. Unternehmen, die ihre Datenrisiken durch ein Assessment ermitteln, stellen fast immer fest, dass kritische Daten viel zu leicht zugänglich sind, sich an den falschen Stellen befinden und auf überraschende Weise verwendet oder nicht verwendet werden. Ihre Mitarbeiter und Partner sollten nur die Informationen haben, die sie für ihre Arbeit benötigen, und nicht mehr.
- Überwachen Sie Ihre Daten. Wir wissen nicht, welche neuen KI-Techniken Angreifer nutzen, aber wir wissen, wofür sie sie nutzen – um Ihre Daten zu stehlen. Es war noch nie so wichtig zu überwachen, wie Menschen und Anwendungen Daten nutzen, denn so lassen sich unerwünschte Aktivitäten erkennen. Kreditkartenunternehmen und Banken überwachen schon seit Jahren Finanztransaktionen, um Finanzkriminalität aufzudecken. Jedes Unternehmen, das über wertvolle Daten verfügt, sollte seine Datentransaktionen überwachen, um Cyberkriminelle aufzuspüren, die es darauf abgesehen haben.
Während manche neueren Hype-Technologien irgendwann ihren Höhepunkt erreichen und dann veralten, wird KI seinen Hype mit Sicherheit überdauern. Falls Ihre Daten nicht gesperrt sind, kann KI (ob freundlich oder nicht freundlich) eine Datenverletzung wahrscheinlicher machen. Soweit wir wissen, kann nicht einmal KI Datenschutzverletzungen rückgängig machen. Schützen Sie also zuerst Ihre Daten, damit die KI für Sie und nicht gegen Sie arbeitet.
Dieser Artikel wurde ursprünglich in Forbes veröffentlicht.
Wie soll ich vorgehen?
Im Folgenden finden Sie drei Möglichkeiten, wie Sie das Datenrisiko in Ihrem Unternehmen verringern können:
Vereinbaren Sie eine Demo mit uns, um Varonis in Aktion zu erleben. Wir passen die Session an die Datensicherheitsanforderungen Ihres Unternehmens an und beantworten alle Fragen.
Sehen Sie sich ein Beispiel unserer Datenrisikobewertung an und erfahren Sie, welche Risiken in Ihrer Umgebung lauern könnten. Varonis DRA ist völlig kostenlos und bietet einen klaren Weg zur automatischen Sanierung.
Folgen Sie uns auf LinkedIn, YouTubeund X (Twitter), um kurze Einblicke in alle Themen der Datensicherheit zu erhalten, einschließlich Data Security Posture Management (DSPM), Bedrohungserkennung, KI-Sicherheit und mehr.