Legge dell'UE sull'AI: cos'è e perché è importante

Una panoramica della prima regolamentazione completa sull'AI al mondo, dei suoi requisiti di conformità e di come prevenire sanzioni penali fino a 35 milioni di euro (38 milioni di dollari)

Nolan Necoechea
3 minuto di lettura
Ultimo aggiornamento 13 settembre 2024
EU AI Act

All'inizio di quest'anno, il Parlamento europeo e il Consiglio hanno deciso di regolamentare l'uso dell'AI nell'UE con l'approvazione della legge dell'Unione europea sull'intelligenza artificiale (legge dell'UE sull'AI), il primo regolamento completo sull'AI al mondo. 

Perché la legge dell'UE sull'AI è importante?

Se la tua organizzazione utilizza l'AI e opera all'interno dell'UE, o è un'azienda esterna che opera nell'UE, è importante comprendere le nuove normative e assicurarsi di aderirvi.

Il mancato rispetto di alcune disposizioni può comportare multe fino a 35 milioni di euro (38 milioni di dollari) o fino al 7% del fatturato lordo.

La nuova legge si prefigge di garantire la sicurezza e l'affidabilità dei sistemi di AI, posizionando l'UE come leader nella governance dell'AI. Impone requisiti di trasparenza per tutte le applicazioni generali di AI e delinea obblighi come la gestione del rischio, l'autovalutazione, la mitigazione dei rischi sistemici e altro ancora.

Date chiave da tenere presenti: 

  • Febbraio 2025: entrano in vigore i requisiti di divieto 
  • Agosto 2026: la legge dell'UE sull'AI diventa pienamente applicabile 
  • Agosto 2027: entrano in vigore le norme per i sistemi di AI integrati nei prodotti regolamentati 

 

Continua a leggere per scoprire i passaggi che la tua organizzazione deve seguire per conformarsi ai nuovi requisiti.

Watch our on-demand webinar to find out more about the EU AI Act.
Watch now
Compliance-Management

I quattro livelli di classificazione 

La legge dell'UE sull'AI classifica i sistemi in base al rischio che rappresentano per gli utenti e ogni livello di rischio presenta un livello di regolamentazione specifico. Questi quattro livelli (inaccettabile, elevato, limitato e minimo/senza rischi) saranno trattati in modo diverso in base ai casi d'uso.

La legge dell'UE sull'AI si concentra sui sistemi di AI inaccettabili e a rischio elevato. Diamo un'occhiata nei dettagli. 

Sistemi AI a rischio inaccettabile 

I sistemi AI considerati un rischio inaccettabile sono ritenuti una chiara minaccia per le persone e non rispettano i valori dell'UE. 

Tra gli esempi dell'UE di sistemi di AI a rischio inaccettabile si annoverano: 

  • Manipolazione cognitivo-comportamentale di persone o gruppi vulnerabili specifici: ad esempio, giocattoli ad attivazione vocale che inducono i bambini a comportamenti pericolosi. 
  • Punteggio sociale: classificazione delle persone in base al comportamento, allo stato socio-economico o alle caratteristiche personali. 
  • Identificazione biometrica e categorizzazione delle persone. 
  • Sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale. 

I sistemi di AI a rischio inaccettabile saranno vietati entro sei mesi dall'entrata in vigore della legge europea sull'AI, con alcune eccezioni per scopi di applicazione della legge.

Sistemi AI a rischio elevato 

I sistemi di AI considerati a rischio elevato incidono negativamente sulla sicurezza o sui diritti fondamentali e si dividono in due categorie: 

  1. Sistemi di AI utilizzati nei prodotti che rientrano nella legislazione dell'UE sulla sicurezza dei prodotti, inclusi giocattoli, aviazione, automobili, dispositivi medici e ascensori 
  2. Sistemi di AI che rientrano in aree specifiche che dovranno essere registrati in un database dell'UE, tra cui gestione e funzionamento delle infrastrutture critiche, istruzione e formazione professionale e gestione della migrazione, dell'asilo e del controllo delle frontiere 

I sistemi di AI a rischio elevato devono essere valutati prima di entrare nel mercato e durante il loro ciclo di vita. I cittadini hanno il diritto di presentare reclami su questi sistemi. 

Questi requisiti e obblighi diventeranno applicabili 36 mesi dopo l'entrata in vigore della Legge dell'UE sull'AI. 

Sistemi di AI generativa 

Gli strumenti di AI come Microsoft 365 Copilot e ChatGPT non sono classificati a rischio elevato, ma richiedono la conformità ai requisiti di trasparenza e alle leggi sul copyright dell'UE. Ciò include: 

  • Comunicare chiaramente quando i contenuti sono generati dall'AI, in modo che gli utenti finali ne siano consapevoli. 
  • Progettare il modello per evitare che produca contenuti illegali. 
  • Pubblicare sintesi di dati protetti da copyright utilizzati per la formazione. 

I modelli di AI ad alto impatto generale devono superare valutazioni approfondite e gli incidenti gravi devono essere segnalati alla Commissione Europea. 

Questi requisiti si applicheranno 12 mesi dopo l'entrata in vigore della legge dell'UE sull'AI. 

In che modo Varonis può essere utile 

Garantire la conformità a strutture normative complesse è un compito impegnativo e, con l'introduzione della legge dell'UE sull'AI, la necessità di trasparenza e sicurezza dei dati diventa ancora più stringente. 

Varonis semplifica la gestione della conformità e offre visibilità e controllo in tempo reale sui dati critici utilizzati dall'AI per aiutarti a rispettare la legge dell'UE sull'AI in quattro modi fondamentali: 

  • Proteggendo i dati privati e sensibili ingeriti e prodotti dall'AI generativa.
  • Consentendo di vedere completamente i suggerimenti e le risposte dell'AI, compresa l'indicazione dell'accesso ai dati sensibili. 
  • Inviando avvisi su minacce e anomalie, tra cui attività e comportamenti che indicano un uso improprio. 
  • Proteggendo automaticamente i dati, compresa la revoca degli accessi eccessivi, la correzione delle etichette e delle configurazioni errate, per ridurre l'esposizione e il rischio. 

Abbiamo inoltre consentito a migliaia di aziende di conformarsi alle normative, tra cui HIPAA, GDPR, CCPA, NIST e ITAR.

Accelerare l'adozione dell'AI per i team di sicurezza 

Nell'ambito di un approccio olistico alla sicurezza dell'AI generativa, Varonis offre anche l'unica offerta completa del settore per la protezione di Microsoft 365 Copilot e Salesforce Einstein Copilot

L'ampia gamma di funzionalità di sicurezza della nostra piattaforma di sicurezza dei dati può accelerare l'adozione e l'implementazione dell'AI da parte della tua organizzazione, consentendo di vedere e controllare completamente le autorizzazioni e i carichi di lavoro degli strumenti. 

Riduci i rischi senza assumerne nessuno. 

Se stai iniziando il percorso verso l'AI o non sai come ottemperare ai requisiti della legge dell'UE sull'AI, ti consigliamo di iniziare con la nostra Data risk assessment gratuita.

In meno di 24 ore, avrai una visione chiara e basata sul rischio della tua posizione di sicurezza e della tua ottemperanza agli standard di conformità.

Inizia subito la tua valutazione gratuita. 

O que devo fazer agora?

Listamos abaixo três recomendações para reduzir os riscos de dados na sua organização:

1

Agende uma demonstração conosco Veja a usabilidade de Varonis em uma sessão personalizada com base nas necessidades de segurança de dados da sua organização. Responderemos a todas as suas perguntas.

2

Veja um exemplo do nosso Relatório de Risco de Dados Conheça as ameaças que podem permanecer no seu ambiente. O Relatório da Varonis é gratuito e demonstra claramente como realizar a remediação automatizada.

3

Siga-nos no LinkedIn, YouTube et X (Twitter) Obtenha insights detalhados sobre todos os aspectos da segurança de dados, incluindo DSPM, detecção de ameaças, segurança de IA, entre outros.

Prova Varonis gratis.

Ottieni un report dettagliato sul rischio dei dati in base ai dati della tua azienda. Distribuzione in pochi minuti.

Keep reading

Varonis tackles hundreds of use cases, making it the ultimate platform to stop data breaches and ensure compliance.

confronta-agevolmente-le-autorizzazioni-utente-di-salesforce
Confronta agevolmente le autorizzazioni utente di Salesforce
DatAdvantage Cloud ora consente agli amministratori di confrontare le autorizzazioni effettive di due utenti Salesforce fianco a fianco con un semplice clic di un pulsante.
tendenze-della-cybersecurity-nel-2024:-cosa-c'è-da-sapere
Tendenze della cybersecurity nel 2024: cosa c'è da sapere
Scopri di più sulla gestione della postura della sicurezza dei dati, sui rischi della sicurezza dell'AI, sulle modifiche della conformità e altro ancora per preparare la strategia di cybersecurity per il 2024.
what-is-itar-compliance?-definition-and-regulations
What is ITAR Compliance? Definition and Regulations
ITAR regola la produzione, la vendita e la distribuzione di hardware, dati e documentazione militare, di difesa e spaziale. Ecco un elenco dei requisiti di conformità ITAR e delle sanzioni che devi conoscere.
come-impedire-il-tuo-primo-data-breach-ai
Come impedire il tuo primo data breach AI
Scopri come l'ampio uso dei copilot di AI generativa aumenterà inevitabilmente le violazioni dei dati, come ha spiegato Matt Radolec di Varonis in una sessione di apertura della RSA Conference 2024.