Moderne Technologie stützt sich stark auf die Cloud, und da Unternehmen auf SaaS umsteigen, nutzen sie zunehmend fortschrittliche Funktionen und Tools wie generative KI.
Brock Bauer, Sicherheitsarchitekt bei Varonis, und Ellen Wilson, Produktmarketingleiterin, diskutierten vor kurzem über KI-Trends und erklärten, wie große Sprachmodelle (LLMs) Nutzern helfen, große Informationsmengen schnell zu verwalten.
Mit dieser gesteigerten Produktivität geht jedoch auch ein erhöhtes Risiko einher. Beim Übergang in die Cloud sehen sich Unternehmen mit einem wachsenden möglichen Schaden konfrontiert.
Lesen Sie weiter, um eine ausführliche Zusammenfassung der Live-Sitzung zu erhalten und zu erfahren, warum vollständige Datensichtbarkeit für den Schutz sensibler Informationen unerlässlich ist.
Die Cloud dient als Grundlage für alle Spitzentechnologien und die Übernahme der Cloud ist unerlässlich geworden.
Für Sicherheitsteams stellt sich nicht mehr die Frage, ob sie auf SaaS umsteigen sollen, sondern wie und wann sie migrieren.
„Die Cloud ist heute der Nährboden für alle neuen Technologien“, sagte Brock.
Wenn Unternehmen in die Cloud wechseln, möchten sie, neue Funktionen und Toolsets implementieren, dabei ruft KI die größte Begeisterung hervor.
Viele neue und vorhandene Produkte verfügen jetzt über KI-Funktionen und revolutionieren die Art und Weise, wie wir Daten interpretieren. LLMs ermöglichen uns die Interaktion mit Daten und den Empfang von Informationen in natürlicher Sprache und sind in neue Copiloten von Microsoft, Salesforce und vielen anderen Anwendungen integriert.
Allerdings, sagte Brock, stünden die Plattformen, Menschen und Tools, die unsere Daten verarbeiten, nicht immer im Vordergrund, was die Interessen des Unternehmens betrifft. Er warnte das Publikum, bei der Einführung neuer Technologien wie LLMs vorsichtig zu sein.
„Wir können die Produktivität steigern, indem wir KI bitten, E-Mails und Meetings zusammenzufassen, große Datensätze oder Dateisysteme zu analysieren oder sogar E-Mail-Antworten zu verfassen“, sagte Brock. „Aber wir müssen das Risiko verstehen, diese Technologien in die Hände unserer Nutzer zu legen.“
Angriffe kommen aus vielen verschiedenen Richtungen mit allen Arten von Motivationen, Methoden und Techniken. Unabhängig von der Art des Angriffs oder des Sicherheitsverstoßes haben sie jedoch alle ein gemeinsames Ziel: Ihre Daten ins Visier zu nehmen.
Ellen wies darauf hin, dass die Einführung von KI der ohnehin schon komplexen Datensicherheitsdisziplin eine weitere Ebene der Komplexität hinzugefügt hat.
„Wir beobachten, dass beim Wechsel in die Cloud, Unternehmen mit einem wachsenden möglichen Schaden konfrontiert sind“, sagte sie. „Stellen Sie sich vor, wie diese neuen KI-Kopiloten zusätzliche Risiken einer übermäßigen Offenlegung von Daten mit sich bringen können.“
Gartner berichtet, dass sich 42 % der IT- und Sicherheitsmanager Bedenken über Datenschutz im Zusammenhang mit KI haben. Unternehmen erkennen die Notwendigkeit, die Privatsphäre zu schützen und gleichzeitig die KI-Funktionalität aufrechtzuerhalten, finden es aber schwierig, beides zu bewältigen.
„Wir wollen die LLM-Technologie nutzen“, sagte Brock. „Wir wollen unseren Nutzern Produktivitätsmöglichkeiten bieten, aber wir müssen auch die Privatsphäre der Daten schützen, auf die sie Zugriff haben.
Die Sicherstellung der Einhaltung gesetzlicher Vorschriften kann auch im Bereich der KI eine große Herausforderung darstellen.
Anfang dieses Jahres wurde der Artificial Intelligence Act der Europäischen Union verabschiedet, die weltweit erste umfassende KI-Verordnung, deren Verstöße Geldstrafen von bis zu 35 Millionen Euro nach sich ziehen können.
„Ich bin sicher, dass wir in den kommenden Jahren noch mehr Verordnungen wie diese sehen werden“, sagte Brock.
Ellen wies darauf hin, dass bei vielen Unternehmen, die mit der Implementierung von KI konfrontiert sind, Sicherheitsmaßnahmen in den Hintergrund treten könnten.
Um sensible Daten vor Risiken im Zusammenhang mit KI zu schützen, müssen Sie zunächst vollständige Sichtbarkeit in Ihre Daten haben.
„Sie müssen wissen, wer Zugang hat, wie sie dorthin gelangt sind, wer oder was sie verwendet und wie sensibel sie sind“, sagte Brock.
Es ist wichtig zu wissen, welche Copilot-aktivierten Nutzer oder KI-Konten Zugriff auf Ihre Daten haben können. Dazu gehört auch die Sichtbarkeit in KI-Workloads auf wichtigen Datenplattformen wie AWS, Azure und Snowflake.
Die Überwachung der anormalen KI-Nutzung – beispielsweise wenn KI-Prozesse oder Nutzer gegen Richtlinien verstoßen oder sich ungewöhnlich verhalten – ist ebenfalls von entscheidender Bedeutung.
Schließlich ist es unerlässlich, dass Sie nicht sichere und übermäßige Berechtigungen widerrufen können, ohne den Geschäftsbetrieb zu stören.
„Dadurch können Sie den möglichen Schaden durch Ihre KI automatisch steuern und reduzieren“, sagte Ellen.
Varonis verwendet einen automatisierten, ganzheitlichen Ansatz zur Datensicherheit.
Unsere Cloud-native Plattform bewertet Ihren potenziellen Schaden, geht automatisch auf Bedrohungen ein, um ein kontinuierliches Least-Privilege-Prinzip sicherzustellen und warnt Sie vor neuen Bedrohungen, so dass Sie schneller reagieren können.
„Wir können genau erkennen, wofür Copilot verwendet wird“, sagte Brock. „Und das sind nicht nur um die Eingabeaufforderungen und Antworten, die wir verfolgen, sondern auch die Dateien, auf die KI zugreift und die sie sogar erstellt.
„Varonis verfügt bereits seit Jahren über Verhalten-basierte Warnfunktionen für Daten. Mit der LLM-Verarbeitung können wir nun betrügerische oder böswillige Absichten eines Nutzers erkennen, was uns einen Vorsprung verschafft, KI-bezogene Angriffe frühzeitig zu erkennen und Sicherheitsverstöße zu verhindern, bevor sie passieren.“
Sehen Sie sich die vollständige Diskussion von Brock und Ellen an, um mehr über LLM-Risiken zu erfahren.
Machen Sie den ersten Schritt zum Schutz Ihrer sensiblen Daten vor KI-Risiken mit einem kostenlosen Data Risk Assessment. In weniger als 24 Stunden erhalten Sie einen klaren Überblick über Ihre Risikolage und erfahren, wo sensitive Daten offengelegt werden.