Ricompense e rischi: cosa significa l'IA generativa per la sicurezza

Con la crescente popolarità dell'IA, sorgono preoccupazioni sui rischi connessi all’utilizzo della tecnologia. Scopri i vantaggi e i rischi derivanti dall'utilizzo dell'IA generativa.
Lexi Croisdale
8 minuto di lettura
Ultimo aggiornamento 19 settembre 2023
Viso a pixel IA

Da innumerevoli articoli e post sul tuo feed di social media ai nuovissimi strumenti integrati nel tuo software preferito, l'intelligenza artificiale è ovunque.  

Sebbene la tecnologia non sia nuova, l'IA generativa ha recentemente suscitato interesse con il rilascio di ChatGPT nel novembre 2022, un modello linguistico di grandi dimensioni (LLM) che utilizza il prompt engineering per generare diversi risultati per gli utenti. 

Quasi immediatamente dopo il rilascio di ChatGPT sono stati lanciati strumenti di IA generativa simili, come Bard di Google e Copilot di Microsoft, e l'utilizzo dell'IA per generare contenuti, video, fotografie, codice e altro si è diffuso a macchia d'olio.  

Con la crescente popolarità dell'IA, sorgono preoccupazioni sui rischi connessi all'utilizzo della tecnologia. I criminali informatici hanno già trovato modi per esfiltrare dati da diversi strumenti di IA, incluso l'utilizzo di piattaforme come WormGPT, un modello di intelligenza artificiale addestrato sui dati di creazione di malware e utilizzato per intenti illeciti o per generare codice dannoso. 

In questo blog esamineremo:  

  • I vantaggi che l'IA generativa può portare alle aziende oggi 
  • Quali rischi bisogna temere quando si utilizza l'IA 
  • Come puoi navigare con sicurezza nel campo di gioco dell'IA  

Evidenzieremo i principali vantaggi dell'utilizzo dell'IA generativa e spiegheremo a cosa prestare attenzione. Con l'aumento dell'uso di strumenti di IA generativa e il costo medio di una violazione dei dati per un totale di 4,35 milioni di dollari nel 2022, non c'è momento migliore per garantire la protezione della tua organizzazione.  

{% module_block module "" %}{% module_attribute "" is_json="true" %}"{% raw %}"div""{% endraw %}{% end_module_attribute %}{% module_attribute "child_css" is_json="true" %}{}{% end_module_attribute %}{% module_attribute "css" is_json="true" %}{}{% end_module_attribute %}{% module_attribute "definition_id" is_json="true" %}null{% end_module_attribute %}{% module_attribute "label" is_json="true" %}null{% end_module_attribute %}{% module_attribute "smart_objects" is_json="true" %}null{% end_module_attribute %}{% module_attribute "smart_type" is_json="true" %}"NOT_SMART"{% end_module_attribute %}{% module_attribute "tag" is_json="true" %}"module"{% end_module_attribute %}{% module_attribute "type" is_json="true" %}"module"{% end_module_attribute %}{% end_module_block %}

Perché la sicurezza generativa dell'IA è importante ora  

L'intelligenza artificiale risale agli anni '50, con la creazione del primo chatbot IA, ELIZA, sviluppato da Joseph Weizenbaum. Perché l'IA generativa è così popolare ora, più di cinquant'anni dopo?  

L'introduzione di ChatGPT alla fine del 2022 ha accelerato lo sviluppo dell'IA generativa e ha dato al mondo accesso a questo potente strumento.  

"Ciò che ChatGPT ha davvero fatto è mercificare l'IA e renderla disponibile a sempre più persone: essenzialmente inserirla su un front-end del motore di ricerca significa solo che sempre più persone possono usarla senza capire quale sia la tecnologia sottostante", ha affermato Thomas Cook, architetto della sicurezza del Team di risposta agli incidenti di Varonis, che ha presentato un webinar su ChatGPT all'inizio del 2023. 

Mentre molte società di software sviluppano i propri programmi di intelligenza artificiale, i team della sicurezza potrebbero essere colti di sorpresa quando questi strumenti vengono rilasciati e potrebbero non essere consapevoli di come combattere i rischi che presentano.  

Microsoft Copilot, attualmente in fase di accesso anticipato, ha il vantaggio di consentire l'apprendimento della tua organizzazione oltre alla progettazione LLM. Tra i casi d'uso, Copilot che partecipa alla riunione di Teams e prende appunti in tempo reale, aiuta a valutare le e-mail in Outlook e a creare risposte e persino ad analizzare i dati non elaborati in Excel per te. 

Rob Sobers e Mike Thompson di Varonis hanno presentato un approfondimento sull'IA generativa e su come funziona il modello di sicurezza di Copilot, e hanno evidenziato aspetti positivi e negativi per aiutare i team addetti alla sicurezza a comprendere lo strumento prima che venga rilasciato.

Copilot viene definito lo strumento di produttività più potente del pianeta e, se hai mai utilizzato gli strumenti di intelligenza artificiale, probabilmente puoi capire perché viene chiamato così. Immagina di avere un piccolo ChatGPT integrato in tutte le tue app di Office come Word, PowerPoint, Excel e Microsoft Teams.
Rob Sobers, Chief Marketing Officer di Varonis

Oltre alle capacità di Copilot, i team di sicurezza possono trarre vantaggio da diversi aspetti degli strumenti di intelligenza artificiale, tra cui il miglioramento delle operazioni di cybersecurity, il rilevamento delle minacce e i meccanismi di difesa.  

Tra gli altri usi vantaggiosi dell'IA generativa ricordiamo: 

  • Difensori Blue Team: proprio come un aggressore può utilizzare gli strumenti di intelligenza artificiale per arrecare danni, le aziende possono usarli a fin di bene. Thomas ha spiegato come ChatGPT abbia semplificato il modo in cui gli utenti possono controllare il codice dannoso, rilevare vulnerabilità specifiche e riepilogare i risultati quasi istantaneamente.  
  • Analisi malware: l'IA generativa può contribuire a generare varianti di campioni di malware noti, aiutando i professionisti della cybersecurity a creare sistemi di rilevazione e analisi del malware più completi. 
  • Inganno e honeypot: l'IA generativa può aiutare a creare sistemi o honeypot realistici che sembrano allettanti per gli aggressori. Ciò consente ai team di sicurezza di monitorare e analizzare le tecniche di attacco, raccogliere informazioni sulle minacce e distogliere gli aggressori da risorse reali. 
  • Generazione automatica delle risposte: quando si rileva un attacco, l'IA generativa può aiutare a generare risposte automatizzate per mitigare la minaccia. Ciò può includere la generazione di regole firewall, l'implementazione di contromisure e l'isolamento di sistemi compromessi. Può aiutare gli analisti a risparmiare tempo nella risposta alle minacce.  
  • Misurazioni di sicurezza adattive: l'IA generativa può aiutare a sviluppare meccanismi di sicurezza che si adattano a minacce in continua evoluzione. Imparando continuamente dalle nuove tecniche di attacco, questi sistemi possono evolvere e migliorare le loro strategie di difesa nel tempo.  
  • Visualizzazione degli attacchi: l'IA generativa può aiutare a visualizzare modelli e comportamenti di attacco complessi, rendendo più facile per gli analisti della sicurezza capire come vengono eseguiti gli attacchi e individuare modelli che potrebbero non essere immediatamente evidenti. 

Vi sono due lati della medaglia. Anche se l'IA generativa offre molti vantaggi oltre a quelli sopra elencati, lo strumento comporta anche sfide e rischi. 

Combattere il lato nocivo dell'IA nella sicurezza informatica 

L'IA generativa presenta diversi rischi per la sicurezza, che occorre valutare attentamente durante l'implementazione e l'utilizzo della tecnologia.  

Secondo una ricerca condotta da Forrester, la sicurezza è un ostacolo fondamentale per le aziende che adottano l'IA: il 64% degli intervistati dichiara di non sapere come valutare la sicurezza degli strumenti di IA generativi. 

Una delle principali preoccupazioni di Microsoft Copilot è il modo in cui il suo modello di sicurezza utilizza le autorizzazioni e può accedere a tutti i file e le informazioni a cui ha accesso un utente. Il problema è che la maggior parte degli utenti di un'organizzazione ha già troppo accesso a informazioni alle quali non dovrebbe accedere. 

"Una cosa che tutte le organizzazioni hanno in comune è l'enorme quantità di accessi a livello di organizzazione", ha affermato Mike. "Questo è davvero il rischio maggiore che riteniamo non venga affrontato dalla maggior parte delle organizzazioni ed è quello che si trasformerà più direttamente in rischio con Copilot, perché è questo che sfrutta. Le autorizzazioni definite tramite Sharepoint e One Drive. È tua responsabilità applicare internamente il modello dei privilegi minimi e sai che ti abbiamo fornito il modello per farlo. Ma quanti lo fanno davvero in modo efficace?” 

Verso la fine dell'analisi relativa a Microsoft Copilot di Rob e Mike, il 76% dei partecipanti ha dichiarato di essere preoccupato per i rischi connessi all'utilizzo di strumenti di IA generativa, ma di voler comunque considerare l'opportunità di utilizzarli. Senza una formazione adeguata o l'implementazione di misure di sicurezza proattive, le aziende corrono il rischio che le loro informazioni fondamentali vengano condivise con questi strumenti e, potenzialmente, con l'intera rete Internet.  

Con lo sviluppo dell’adozione degli strumenti di IA, gli esseri umani diventeranno più pigri e potenzialmente si fideranno eccessivamente dell'IA per eseguire i controlli di sicurezza che devono svolgere. Ad esempio, un dipendente potrebbe chiedere a Microsoft Copilot di generare una proposta utilizzando documenti e appunti di riunione esistenti, eliminando le ore di lavoro per un dipendente. Potrebbero dare una scorsa al risultato e pensare che vada bene, ma le informazioni sensibili della documentazione originale potrebbero essere presenti sulla proposta se non viene esaminata attentamente.  

Oltre alle preoccupazioni interne sulla sicurezza, gli aggressori utilizzeranno l'IA per scrivere codice nocivo, scovare vulnerabilità e lanciare campagne su larga scala.  

Gli aggressori utilizzeranno l'IA anche per generare set di dati falsi e usarli per cercare di estorcere dati alle aziende (o come minimo, far loro perdere tempo). 

Gli aggressori diventeranno efficaci nel prompt engineering invece di imparare Powershell o Python. Se sanno di poter compromettere un utente e di avere accesso a uno strumento di intelligenza artificiale, perché non migliorare l'ingegneria del prompt?
Rob Sobers, Chief Marketing Officer di Varonis

Tra gli altri problemi di sicurezza e rischi connessi all'IA generativa ricordiamo: 

  • Campagne di attacchi informatici on demand: gli aggressori possono sfruttare l'IA generativa per automatizzare la creazione di malware, campagne di phishing o altre minacce informatiche, rendendo più semplice la scalabilità e il lancio degli attacchi. Nella sua presentazione su ChatGPT, Thomas ha riportato un esempio di come ChatGPT può personalizzare un'e-mail per indurre Elon Musk a investire in X, precedentemente noto come Twitter. Includere informazioni sull'obiettivo, in questo caso Elon Musk, nel prompt può aiutare gli aggressori a scrivere messaggi più accattivanti e con maggiori probabilità di indurre gli utenti ad agire. Gli strumenti di intelligenza artificiale potrebbero anche essere attivati con informazioni quali età, sesso, istruzione, informazioni aziendali e altro ancora.   
  • Nessuna verifica degli strumenti: gli strumenti di IA corrono inoltre il rischio di essere manipolati per produrre risultati errati o dannosi. Alcuni strumenti di intelligenza artificiale prevedono standard etici che aiutano a combattere l'uso improprio del prodotto, ma gli aggressori hanno trovato il modo di aggirarli.  
  • Perdita di informazioni sensibili: i modelli di intelligenza artificiale generativa spesso apprendono da set di dati di grandi dimensioni, che potrebbero contenere dati sensibili, a seconda delle informazioni condivise. Se non gestiti correttamente, esiste il rischio di rivelare inavvertitamente informazioni riservate tramite gli output generati. Anche i modelli di IA possono memorizzare queste informazioni, rendendo i tuoi dati sensibili accessibili a chiunque acceda al tuo account utente con diversi strumenti di intelligenza artificiale.  
  • Furto della proprietà intellettuale: i modelli generativi spesso raccolgono un'enorme quantità di informazioni disponibili al pubblico, inclusi dati proprietari esposti. Esiste il rischio reale che l'IA generativa possa violare i diritti di proprietà intellettuale altrui ed essere oggetto di azioni legali. Ad esempio, gli strumenti di IA basati sulle immagini hanno implementato la filigrana di Getty sulle immagini perché le foto generate dall'IA vengono create sulla base dell'utilizzo della grande quantità di dati pubblici di Getty. Inoltre, c'è anche il rischio che la tua proprietà intellettuale possa finire per essere utilizzata negli strumenti di intelligenza artificiale se non è sicura.  
  • Rischio di identità e deepfake: l'IA generativa può essere utilizzata per creare immagini, video o clip audio falsi convincenti, portando al furto di identità, all'impersonificazione e alla creazione di contenuti deepfake che possono diffondere disinformazione. Gli strumenti possono anche far sembrare le campagne di phishing più umane e attraenti per i loro destinatari. Un'immagine del Papa che indossa una giacca Balenciaga è diventata virale prima che si scoprisse che era stata creata utilizzando strumenti di IA. Questo dimostra che la probabilità che le immagini dell'IA e i video deepfake siano credibili è ai massimi storici.  

ChatGPT, in particolare, è progettato per creare un'interazione umana credibile e questo lo rende lo strumento perfetto per campagne di phishing. Gli autori delle minacce utilizzano LLM anche per comprimere malware in applicazioni false, una pratica molto popolare durante l'ascesa di ChatGPT prima che la società madre OpenAI rilasciasse un'applicazione iOS.  

"Anche se cerchi ChatGPT nel web store di Chrome e includi la parola "ufficiale", ottieni comunque oltre 1.000 risultati e nessuno di questi è costituito da applicazioni legittime e di prima parte", ha affermato Thomas. "Non tutte saranno dannose, ma ci si deve chiedere perché le persone pagano per utilizzare l'API nel loro back-end. Cosa ci guadagnano? Quali informazioni stanno sottraendo?"  

{% module_block module "" %}{% module_attribute "" is_json="true" %}"{% raw %}"div""{% endraw %}{% end_module_attribute %}{% module_attribute "child_css" is_json="true" %}{}{% end_module_attribute %}{% module_attribute "css" is_json="true" %}{}{% end_module_attribute %}{% module_attribute "definition_id" is_json="true" %}null{% end_module_attribute %}{% module_attribute "label" is_json="true" %}null{% end_module_attribute %}{% module_attribute "smart_objects" is_json="true" %}null{% end_module_attribute %}{% module_attribute "smart_type" is_json="true" %}"NOT_SMART"{% end_module_attribute %}{% module_attribute "tag" is_json="true" %}"module"{% end_module_attribute %}{% module_attribute "type" is_json="true" %}"module"{% end_module_attribute %}{% end_module_block %}

Naviga con sicurezza nel campo di gioco dell'IA

Se aspetti che si verifichi una violazione dei dati per iniziare a implementare misure di sicurezza relative all'IA, resterai indietro. 

Uno dei primi passi che i leader possono intraprendere per affrontare le preoccupazioni relative all'utilizzo dell'IA generativa da parte dei dipendenti è quello di formarli adeguatamente su cosa è accettabile condividere e cosa no.  

Alcune persone, ad esempio, potrebbero trovare innocuo includere i dati dei clienti nei prompt di ChatGPT, ma questo è esattamente il tipo di azione che gli autori delle minacce sperano che i tuoi dipendenti intraprendano. Basta che un dipendente acceda a un falso sito ChatGPT e inserisca informazioni sensibili per mettere la tua azienda a rischio.  

Con il rilascio di nuovi strumenti generativi di IA, le aziende devono istruire i propri team su come utilizzarli correttamente e rimanere consapevoli dei problemi di sicurezza man mano che vengono scoperti.  

Avere una piattaforma di sicurezza dei dati (DSP) può anche impedire ai dipendenti di avere accesso a dati sensibili a cui non dovrebbero accedere. Le DSP possono aiutare i team di sicurezza a scoprire, classificare ed etichettare automaticamente i dati sensibili, applicare privilegi minimi e correggere costantemente l'esposizione dei dati e le configurazioni errate. 

Se hai una riesci a controllare efficacemente ciò che le persone fanno, la posizione e la sensibilità dei dati e dove si concentrano i dati sensibili, è molto più facile ridurre il raggio d'azione e assicurarsi che vi abbiano accesso solo le persone giuste.
Thomas Cock, Security Architect di Varonis

L'eccellente team globale di risposta agli incidenti di Varonis indaga anche sulle attività anomale per tuo conto. Se un dipendente sta accedendo a una grande quantità di informazioni a cui non dovrebbe avere accesso, viene inviato un alert immediato. Le nostre capacità di automazione contribuiscono a ridurre i tempi di rilevamento, consentendoci di rispondere e indagare rapidamente. 

Inizia con un data risk assessment personalizzato in base alle esigenze, ai regolamenti e alle configurazioni della tua organizzazione. Le nostre valutazioni forniranno misure concrete per stabilire le priorità e risolvere i principali rischi per la sicurezza e i problemi di conformità dei tuoi dati.   

In conclusione 

Non si può negare che l'IA abbia conquistato il mondo e la tecnologia continuerà a evolversi in futuro.  

Il punto di partenza è comprendere i vantaggi e i rischi connessi all’intelligenza artificiale, formare il personale affinché utilizzi correttamente i diversi strumenti di intelligenza artificiale e stabilire parametri su ciò che è accettabile e non accettabile condividere.  

"La cosa più importante per me è l'impatto dell'IA sulla privacy e sulla conformità. Non scomparirà", ha dichiarato Thomas. "È qualcosa cui assisteremo sempre di più, quindi occorre assicurarsi di avere in atto politiche e procedure relative all'uso dell'IA e di fornire indicazioni ai dipendenti sui potenziali impatti che l'utilizzo degli strumenti di IA può comportare. 

O que devo fazer agora?

Listamos abaixo três recomendações para reduzir os riscos de dados na sua organização:

1

Agende uma demonstração conosco Veja a usabilidade de Varonis em uma sessão personalizada com base nas necessidades de segurança de dados da sua organização. Responderemos a todas as suas perguntas.

2

Veja um exemplo do nosso Relatório de Risco de Dados Conheça as ameaças que podem permanecer no seu ambiente. O Relatório da Varonis é gratuito e demonstra claramente como realizar a remediação automatizada.

3

Siga-nos no LinkedIn, YouTube et X (Twitter) Obtenha insights detalhados sobre todos os aspectos da segurança de dados, incluindo DSPM, detecção de ameaças, segurança de IA, entre outros.

Prova Varonis gratis.

Ottieni un report dettagliato sul rischio dei dati in base ai dati della tua azienda. Distribuzione in pochi minuti.

Keep reading

Varonis tackles hundreds of use cases, making it the ultimate platform to stop data breaches and ensure compliance.

in-che-modo-varonis-è-utile-per-la-sicurezza-della-posta-elettronica
In che modo Varonis è utile per la sicurezza della posta elettronica
Scopri come ridurre in modo proattivo la superficie di attacco delle e-mail, bloccare la data exfiltration e contenere il rischio dell'AI generativa con una sicurezza e-mail accurata e automatizzata.
in-che-modo-l'approccio-di-varonis-all'sspm-può-aiutare-la-tua-azienda
In che modo l'approccio di Varonis all'SSPM può aiutare la tua azienda
Adotta un approccio basato sui dati con l'SSPM di Varonis per proteggere le applicazioni SaaS e ridurre i rischi. Scopri come ottenere una migliore visibilità, automazione e protezione.
l'importanza-dell'automazione-per-la-cybersecurity-e-per-il-tuo-business
L'importanza dell'automazione per la cybersecurity e per il tuo business
Questo articolo spiega come l'automazione possa aiutare a trasformare le informazioni corrette in azione, contribuendo a difenderci dagli attacchi informatici, ridurre i rischi, rafforzare la conformità e migliorare la produttività.
tendenze-della-cybersecurity-nel-2024:-cosa-c'è-da-sapere
Tendenze della cybersecurity nel 2024: cosa c'è da sapere
Scopri di più sulla gestione della postura della sicurezza dei dati, sui rischi della sicurezza dell'AI, sulle modifiche della conformità e altro ancora per preparare la strategia di cybersecurity per il 2024.