Una guida pratica per implementare l'AI generativa in sicurezza

Varonis e Jeff Pollard, analista della sicurezza e del rischio di Forrester, condividono informazioni su come integrare in modo sicuro l'AI generativa nella propria organizzazione.
Megan Garza
4 minuto di lettura
Ultimo aggiornamento 24 giugno 2024
keyboard showing AI trying to access a shield to represent data security

Alla luce della crescente popolarità dell'intelligenza artificiale, in particolare dell'intelligenza artificiale generativa, le organizzazioni si trovano a dover affrontare nuove sfide nella protezione dei propri dati e nella gestione dei rischi.

Di recente abbiamo parlato con Jeff Pollard, analista di sicurezza e rischio di Forrester, riguardo alle preoccupazioni associate all'implementazione sicura di strumenti basati sull'AI nella sua organizzazione. Guarda il video completo qui o continua a leggere per conoscere tutti i dettagli.

Comprendere i casi d’uso dell’intelligenza artificiale

La funzionalità di linguaggio naturale dell'AI generativa può essere utile per gli utenti finali, tuttavia, come ha sottolineato Jeff, può anche rivelare segreti e informazioni private. In passato, gli autori delle minacce dovevano introdursi in un sistema utilizzando il codice, mentre con l'AI generativa, gli aggressori possono accedere a informazioni sensibili semplicemente ponendo una domanda.

La sicurezza è essenziale per i profitti aziendali e l'AI ne rende evidente la massima urgenza. Questa guida mostra come implementare l'AI generativa in modo sicuro nella propria organizzazione, al fine di aumentare l'efficienza e ridurre i rischi.

Per garantire un'implementazione sicura dell'AI generativa nella propria organizzazione, è fondamentale capire come il team intenda utilizzarla. Gli sviluppatori stanno analizzando il codice? Il team di marketing è alla ricerca di suggerimenti per le e-mail?

Ogni caso d'uso presenta un profilo di rischio diverso e comprendendo quali sono questi casi d'uso è possibile identificare eventuali vulnerabilità e il modo in cui i malintenzionati potrebbero sfruttarle.

Quindi, puoi creare dei meccanismi di contenimento attorno all'utilizzo dell'AI generativa nella tua organizzazione e definire dei limiti su chi la utilizza e come può farlo.

L'impatto dell'IA sugli obiettivi di business

L'impatto dell'intelligenza artificiale va oltre il semplice progresso tecnologico: è collegato a obiettivi aziendali come la crescita dei ricavi e la riduzione dei costi. I responsabili della sicurezza devono allineare le misure di sicurezza a questi obiettivi per bilanciare efficacemente l'innovazione con la riduzione dei rischi.

Anche il ruolo del CISO sta cambiando. Questi leader svolgono un ruolo fondamentale nel plasmare il modo in cui le organizzazioni valutano il rischio sia internamente che esternamente, in quanto clienti e fornitori richiedono una maggiore sicurezza alle aziende con cui stringono rapporti commerciali. Una postura di sicurezza inadeguata può ripercuotersi sulle entrate perché i clienti eviteranno di fare affari con organizzazioni che mettono a rischio i propri dati.

L'impatto dell'intelligenza artificiale va oltre il semplice progresso tecnologico; è collegato a obiettivi aziendali come la crescita dei ricavi e la riduzione dei costi. I responsabili della sicurezza devono allineare le misure di sicurezza a questi obiettivi per bilanciare efficacemente l'innovazione con la riduzione dei rischi.

Insegnare l'IA

Istruire i professionisti della sicurezza e gli utenti finali è un passo essenziale per garantire un uso sicuro dell'IA.

Le imprese devono insegnare ai dipendenti a utilizzare l'AI in modo corretto e creare delle politiche per l'utilizzo sicuro dell'AI generativa. Ma non solo. Oltre alle politiche e alla formazione, le organizzazioni devono concentrarsi sulla riduzione del raggio d'azione, ovvero tutti i dati a cui può accedere un dipendente o un aggressore disonesto.

Gli strumenti di AI generativa si basano sulle autorizzazioni esistenti di un utente per determinare quali file, e-mail, ecc. vengono utilizzati per generare risposte di intelligenza artificiale. Se tali autorizzazioni sono eccessive, esiste il rischio reale che i copilot dell'AI generativa riescano a far emergere dati sensibili. Quasi il 99% delle autorizzazioni non viene utilizzato e più della metà di queste sono ad alto rischio, il che crea un enorme raggio di azione dei potenziali danni che una violazione potrebbe causare.

I professionisti devono collaborare con i leader dei reparti e guidarli nell'adozione dell'AI in modo responsabile, il che significa ridimensionare in modo opportuno le autorizzazioni e proteggere i dati, in modo che i dipendenti possano accedere solo alle informazioni di cui hanno bisogno per svolgere il proprio lavoro.

App di terze parti e IA

Considerando che i fornitori di terze parti iniziano a implementare soluzioni di intelligenza artificiale all'interno delle loro applicazioni e ad attivarle per impostazione predefinita, i responsabili della sicurezza potrebbero non notare questi cambiamenti e faticare a identificare quali app potrebbero rappresentare un rischio per la sicurezza.

È necessario che i CISO conoscano i dati a cui le app di terze parti accedono e come li utilizzano e li raccolgono. Devono anche identificare se e come queste app memorizzano, elaborano o trasmettono i dati.

Poiché questi aggiornamenti di terze parti sono automatici, una revisione fuori banda può aiutare a identificare le funzionalità dell'AI generativa che potrebbero essere state aggiunte dopo l'implementazione dell'app.

Il ROI dell'IA

L'adozione dell'AI comporta sia opportunità che sfide, rendendo necessario trovare un equilibrio tra maggiore efficienza e gestione del rischio. Tuttavia, anche tenendo conto dei requisiti di formazione, dei controlli di sicurezza aggiuntivi e delle risorse informatiche, il potenziale ritorno sull'investimento dell'intelligenza artificiale ne giustifica l'uso.

Secondo lo studio Total Economic Impact™ di Copilot for Microsoft 365 di Forrester, l'implementazione dello strumento di AI generativa ha portato a «un aumento dei ricavi, a una riduzione dei costi operativi interni ed esterni e a un miglioramento dell'esperienza dei dipendenti e della cultura aziendale». 

Sebbene l'AI generativa possa rappresentare una svolta per la produttività delle organizzazioni, i leader della sicurezza che non esplorano dei modi sicuri di implementare l'AI saranno colti alla sprovvista.

I leader della sicurezza che sostengono attivamente l'AI hanno la possibilità unica di guidare l'innovazione con una mentalità incentrata sulla sicurezza.

Le aziende devono anche migliorare il proprio livello di sicurezza dei dati prima, durante e dopo le implementazioni dell'AI. Altrimenti è come se le organizzazioni si aspettassero una soluzione di intelligenza artificiale per salvaguardare i dati che non sono preparate a gestire.

Il futuro dell'IA

La tecnologia dell’intelligenza artificiale sta avanzando più velocemente di quanto non faccia la sua sicurezza. Alla luce della continua crescita dell'adozione dell'AI generativa, è fondamentale implementare un approccio olistico alla sicurezza dei dati e controlli specifici per i copilot stessi.

Varonis aiuta le imprese a implementare l'AI generativa in modo sicuro e previene le fughe di dati sensibili offrendo loro un livello di supervisione e gestione completo degli strumenti e delle attività di intelligenza artificiale. Guarda una demo di 30 minuti e scopri come la nostra soluzione nativa per il cloud può soddisfare tutte le tue esigenze di sicurezza in ambito AI.

O que devo fazer agora?

Listamos abaixo três recomendações para reduzir os riscos de dados na sua organização:

1

Agende uma demonstração conosco Veja a usabilidade de Varonis em uma sessão personalizada com base nas necessidades de segurança de dados da sua organização. Responderemos a todas as suas perguntas.

2

Veja um exemplo do nosso Relatório de Risco de Dados Conheça as ameaças que podem permanecer no seu ambiente. O Relatório da Varonis é gratuito e demonstra claramente como realizar a remediação automatizada.

3

Siga-nos no LinkedIn, YouTube et X (Twitter) Obtenha insights detalhados sobre todos os aspectos da segurança de dados, incluindo DSPM, detecção de ameaças, segurança de IA, entre outros.

Prova Varonis gratis.

Ottieni un report dettagliato sul rischio dei dati in base ai dati della tua azienda. Distribuzione in pochi minuti.

Keep reading

Varonis tackles hundreds of use cases, making it the ultimate platform to stop data breaches and ensure compliance.

approfondimento-sul-dspm:-sfatiamo-i-miti-sulla-sicurezza-dei-dati
Approfondimento sul DSPM: sfatiamo i miti sulla sicurezza dei dati
DSPM (Data Security Posture Management) è l'acronimo leader nella sicurezza informatica. Tuttavia, le recenti discussioni hanno confuso il significato di gestione della posizione di sicurezza dei dati. Demistifichiamo il tutto.
tendenze-globali-delle-minacce-e-il-futuro-della-risposta-agli-incidenti
Tendenze globali delle minacce e il futuro della risposta agli incidenti
Il team di risposta agli incidenti di Varonis illustra le recenti tendenze globali delle minacce e spiega perché l'IR proattivo è il futuro della sicurezza dei dati.
tendenze-della-cybersecurity-nel-2024:-cosa-c'è-da-sapere
Tendenze della cybersecurity nel 2024: cosa c'è da sapere
Scopri di più sulla gestione della postura della sicurezza dei dati, sui rischi della sicurezza dell'AI, sulle modifiche della conformità e altro ancora per preparare la strategia di cybersecurity per il 2024.
elementi-essenziali-per-la-sicurezza-del-cloud:-il-caso-della-dspm-automatizzata
Elementi essenziali per la sicurezza del cloud: il caso della DSPM automatizzata
La gestione della postura di sicurezza dei dati (DSPM, data security posture management) è emersa come standard per proteggere i dati sensibili nel cloud e in altri ambienti. Tuttavia, senza automazione, la DSPM non ha alcuna possibilità di riuscita. L'automazione è fondamentale per superare le sfide della sicurezza dei dati nel cloud.