KI erlebt momentan einen Hype, der seinesgleichen sucht: In der Blockchain gibt es viele schwache Glieder, das Metaverse scheint in diesem Teil des Multiversums nicht aufzugehen, und selbst Big Data wirken gerade klein. Als CEO eines führenden Cybersecurity-Unternehmens werde ich täglich zum Thema KI und ihrer Rolle in der Datensicherheit gefragt.
Wie die meisten neuen Technologien birgt generative KI sowohl Chancen als auch Risiken. Sie steigert bereits jetzt die Produktivität, indem sie als virtueller Assistent für Mitarbeiter fungiert. In Hinblick auf Risiken sind jedoch zwei Dimensionen zu berücksichtigen: das selbstverschuldete Risiko und das externe Risiko.
Ein selbstverschuldetes Risiko entsteht, wenn die Mitarbeiter eines Unternehmens damit beginnen, KI zu nutzen, um Inhalte vorzuschlagen – entweder über eine Abfrage oder im Kontext dessen, was sie gerade erstellen. Solange Ihre Daten nicht gesperrt sind, gibt es wenig, was die KI daran hindern könnte, Ihren Datenbestand zu analysieren und beispielsweise Ihre geheime Roadmap, Ihre Finanzdaten oder andere wertvolle Informationen an die falschen Personen weiterzugeben.
Um dieses Risiko zu mindern, empfiehlt Microsoft, sensible Daten vor der Einführung seines KI-Assistenten „Copilot“ abzusichern. Ein darin vorgeschlagener Schritt besteht darin, „sicherzustellen, dass in Ihrer Organisation die richtigen Informationszugriffskontrollen und -richtlinien vorhanden sind.“
Leider erweist sich die Einführung der richtigen Zugriffskontrollen und Richtlinien als weitaus schwieriger, als die meisten Organisationen glauben. Und das wird wahrscheinlich nur noch schwieriger werden, denn mit zunehmendem Einsatz von KI werden immer mehr Daten erstellt und müssen geschützt werden.
Ohne die richtigen Kontrollen weiß die KI nicht, wer was sehen soll. Dadurch sind Unternehmen gefährdet – genauso, wie wenn sie Unternehmenssuchplattformen aktivieren, bevor sie ihre Daten sperren, nur noch viel schlimmer. Wenn das geschieht, brauchen Mitarbeiter nicht einmal mehr nach Inhalten zu suchen, die sie stehlen oder heimlich ansehen wollen; die KI wird sie ihnen einfach zeigen.
Das externe Risiko wird weiter zunehmen, denn Angreifer werden lernen, KI zu nutzen. Leider haben sie damit bereits angefangen. WormGPT und FraudGPT verwenden Large Language Models (LLMs), um Angreifern dabei zu helfen, überzeugende Phishing-E-Mails zu erstellen und diese in andere Sprachen zu übersetzen.
Angreifer erstellen mittlerweile auch gefälschte Datensätze, die auf früheren Verstößen und anderen verfügbaren Daten basieren. Sie behaupten dann, sie hätten diese Daten von Unternehmen gestohlen, um so ihren Ruf als gute Hacker auszubauen, oder um beispielsweise Lösegelder von den betroffenen Unternehmen zu erpressen. Generative KI kann das Datenvolumen erhöhen und es schwieriger machen, zwischen einer echten und einer gefälschten Datenschutzverletzung zu unterscheiden.
In der Forschung konnte KI bereits im Rahmen von Machbarkeitsstudien zur Entwicklung von Malware eingesetzt werden, und wir sollten damit rechnen, KI-generierte Malware bald in freier Wildbahn zu sehen. Leider wird der Einsatz von KI die Eintrittsbarrieren für alle Arten von Cyberkriminalität weiter senken.
Das sind nur einige der Risiken, die KI mit sich bringt – und mit der Geschwindigkeit, mit der diese Technologie voranschreitet, werden noch viele weitere hinzukommen. Schon bald könnte generative KI völlig selbstständig neue Cyber-Bedrohungen entwickeln.
Glücklicherweise bietet KI auch enorme Chancen für die Cyber-Security.
KI ist sehr gut darin, Muster zu erkennen. Durch korrekte Analysen können KI und Machine Learning Erkenntnisse über Schwachstellen und gefährliche Verhaltensweisen liefern. In Verbindung mit Automatisierung wird KI Routineaufgaben erledigen können, sodass Menschen mehr Zeit haben werden, sich um Aufgaben zu kümmern, die ihre wertvolle Aufmerksamkeit erfordern.
Wenn menschliches Eingreifen erforderlich ist, hilft KI Cyber-Sicherheitskräften dabei, effizienter zu arbeiten, indem sie Erkenntnisse liefert und Untersuchungen beschleunigt. Solche KI-Anwendungsfälle werden schon in naher Zukunft kommen, und viele weitere sind bereits am Horizont zu sehen. So könnte generative KI zum Beispiel Unmengen synthetischer Daten erzeugen, die Angreifern als eine Art Köder dienen. Dadurch wird es für sie schwieriger, herauszufinden, ob sie etwas Wertvolles gestohlen haben. Gleichzeitig haben Mitarbeiter in der Cyber-Security mit ihren Technologien so mehr Möglichkeiten, Cyber-Kriminelle auf frischer Tat zu ertappen.
Während manche neueren Hype-Technologien irgendwann ihren Höhepunkt erreichen und dann veralten, wird KI seinen Hype mit Sicherheit überdauern. Falls Ihre Daten nicht gesperrt sind, kann KI (ob freundlich oder nicht freundlich) eine Datenverletzung wahrscheinlicher machen. Soweit wir wissen, kann nicht einmal KI Datenschutzverletzungen rückgängig machen. Schützen Sie also zuerst Ihre Daten, damit die KI für Sie und nicht gegen Sie arbeitet.
Dieser Artikel wurde ursprünglich in Forbes veröffentlicht.