Se pensiamo a quello che è sulla bocca di tutti, niente è più in fermento dell'AI in questo momento; la blockchain ha qualche anello debole, il metaverso non sta facendo faville in questa parte del multiverso e anche i big data sembrano più che altro modesti. In qualità di CEO di un'azienda leader nel settore della cybersecurity, mi viene chiesto ogni giorno dell'AI e del suo significato per la sicurezza dei dati.
Come la maggior parte delle nuove tecnologie, l'AI generativa presenta opportunità e rischi. L'AI sta già aumentando la produttività fungendo da assistente virtuale per i dipendenti. Dal punto di vista del rischio, tuttavia, occorre considerare due dimensioni: rischio autoinflitto e rischio esterno.
Il rischio autoinflitto si verificherà quando i dipendenti di un'organizzazione inizieranno a utilizzare l'AI per suggerire contenuti, tramite una query o nel contesto di ciò che stanno creando. A meno che i dati non siano bloccati, c'è poco da fare per evitare che l'AI analizzi il tuo patrimonio di dati e riveli la tua road map segreta, le tue informazioni finanziarie o altri dati preziosi a tutte le persone sbagliate.
Per mitigare questo rischio, Microsoft consiglia di proteggere i dati sensibili prima di implementare il suo assistente AI, Copilot. Un passo che suggerisce di compiere è "assicurarsi che la propria organizzazione disponga dei controlli e dei criteri di accesso giusti alle informazioni".
Sfortunatamente, mettere in atto i controlli di accesso e i criteri giusti si rivela molto più impegnativo di quanto la maggior parte delle organizzazioni possa pensare. Ciò sarà probabilmente più difficile solo perché l'AI aumenta ulteriormente i dati che creiamo e dobbiamo proteggere.
Senza i giusti controlli in atto, l'AI non saprà chi deve vedere quali dati. Le organizzazioni saranno esposte, proprio come quando attivano le piattaforme di ricerca aziendale prima di bloccarle, solo che andrà molto peggio. Se questo accade, i dipendenti non dovranno nemmeno cercare i contenuti che vogliono sottrarre o sbirciare di nascosto; l'AI li esporrà volentieri per loro.
Come gli aggressori stanno sfruttando l'AI
Il rischio esterno continuerà ad aumentare man mano che gli aggressori impareranno a usare l'AI. Sfortunatamente, hanno già iniziato. WormGPT e FraudGPT utilizzano modelli linguistici di grandi dimensioni (LLM) per aiutare gli aggressori a creare e-mail di phishing convincenti e a tradurle in altre lingue.
Ora anche gli aggressori creano set di dati falsi basati su violazioni passate e altri dati disponibili; affermano di aver sottratto dati alle aziende per rafforzare la loro reputazione di abili aggressori o potenzialmente indurre queste aziende a pagare un riscatto. L'AI generativa potrebbe aumentare il volume dei dati e rendere più difficile distinguere tra una violazione reale e una falsa.
I ricercatori hanno già utilizzato l'AI per creare malware come proof of concept e dovremmo aspettarci di vedere malware generati dall'AI in circolazione. Sfortunatamente, l'uso dell'AI continuerà ad abbassare le barriere all'ingresso per tutti i tipi di criminalità informatica.
Questi sono solo alcuni dei rischi connessi all'AI e, con il ritmo con cui questa tecnologia avanza, ce ne saranno molti altri nel prossimo futuro. Presto, l'AI generativa potrebbe ideare da sola nuove minacce informatiche.
I difensori informatici riceveranno un potenziamento dell'AI
Per fortuna, l'AI offre anche enormi opportunità per la sicurezza informatica.
L'intelligenza artificiale è eccellente nel riconoscere i modelli. Analizzando i fattori giusti, l'AI e il machine learning possono fornire informazioni sulle vulnerabilità e sui comportamenti indesiderati. Se abbinata all'automazione, l'AI sarà in grado di occuparsi delle attività di routine, dando agli esseri umani più tempo per occuparsi delle attività che richiedono la loro preziosa attenzione.
Quando è necessario l'intervento umano, l'AI aiuterà i difensori informatici a essere più efficienti fornendo approfondimenti e accelerando le indagini. Questi usi dell'AI sono imminenti e molti altri sono all'orizzonte. Ad esempio, l'AI generativa potrebbe creare moltissimi dati sintetici da usare come esca per gli aggressori, rendendo più difficile per i malintenzionati sapere se hanno sottratto qualcosa di prezioso e dando ai difensori e alle tecnologie su cui si basano maggiori opportunità di cogliere sul fatto i criminali informatici.
Preparare le organizzazioni all'AI
- Conduci un Data Risk Assessment per individuare i dati sensibili ed eccessivamente accessibili prima che vengano scoperti da un'"AI amichevole" o "ostile" gestita da un utente malintenzionato. I tuoi dati rendono preziosa l'AI, ed è questo ciò che devi proteggere. Le organizzazioni non hanno una comprensione sufficiente di dove sono archiviati i loro dati importanti o di chi può utilizzarli, e li utilizza.
- Proteggi i tuoi dati, soprattutto quelli critici. Quando un'organizzazione è in grado di individuare i rischi dei propri dati durante una valutazione, quasi sempre scopre che i dati critici sono troppo accessibili, nei posti sbagliati e utilizzati o inutilizzati in modi sorprendenti. I tuoi dipendenti e partner dovrebbero avere solo le informazioni di cui hanno bisogno per svolgere il proprio lavoro e niente più.
- Tieni d'occhio i tuoi dati. Non sappiamo quali nuove tecniche di AI utilizzeranno gli aggressori, ma sappiamo per cosa le utilizzeranno: sottrarre i tuoi dati. Non è mai stato così importante monitorare il modo in cui gli esseri umani e le applicazioni utilizzano i dati per cercare attività indesiderate. Le società di carte di credito e le banche monitorano le transazioni finanziarie da anni per individuare i crimini finanziari e chiunque abbia dati preziosi dovrebbe monitorare le proprie transazioni per individuare eventuali crimini legati ai dati.
Mentre alcune tecnologie più recenti e di tendenza raggiungono il picco e cadono nell’obsolescenza, l'AI quasi certamente sopravviverà al clamore. Se i tuoi dati non sono protetti, l'AI (amichevole o meno) potrebbe rendere più probabile una violazione dei dati. Per quanto ne sappiamo, nemmeno l'AI può correggere una violazione dei dati, quindi proteggi i tuoi dati anticipatamente, per garantire che l'AI giochi a tuo favore anziché contro.
Questo articolo è apparso per la prima volta su Forbes.
O que devo fazer agora?
Listamos abaixo três recomendações para reduzir os riscos de dados na sua organização:
Agende uma demonstração conosco Veja a usabilidade de Varonis em uma sessão personalizada com base nas necessidades de segurança de dados da sua organização. Responderemos a todas as suas perguntas.
Veja um exemplo do nosso Relatório de Risco de Dados Conheça as ameaças que podem permanecer no seu ambiente. O Relatório da Varonis é gratuito e demonstra claramente como realizar a remediação automatizada.
Siga-nos no LinkedIn, YouTube et X (Twitter) Obtenha insights detalhados sobre todos os aspectos da segurança de dados, incluindo DSPM, detecção de ameaças, segurança de IA, entre outros.