No início deste ano, o Parlamento e o Conselho Europeu concordaram em regulamentar o uso de IA na UE com a aprovação da Lei de Inteligência Artificial da União Europeia (Lei de IA da UE), a primeira regulamentação abrangente de IA do mundo.
Se sua organização usa IA e opera na UE ou é uma empresa externa que faz negócios na UE, é importante entender as novas regulamentações e garantir a adesão.
O não cumprimento de certas disposições pode resultar em multas de até € 35 milhões (US$ 38 milhões) ou até 7% da sua receita bruta.
A nova lei visa garantir a segurança e a confiabilidade dos sistemas de IA, posicionando a UE como líder em governança de IA. Essa lei impõe requisitos de transparência para todos os aplicativos gerais de IA e define obrigações como gerenciamento de riscos, autoavaliação, mitigação de riscos sistêmicos e outras.
Continue lendo para saber o que sua organização precisa fazer para cumprir os novos requisitos.
A Lei de IA da UE classifica os sistemas de acordo com o risco que eles representam para os usuários, sendo que cada nível de risco tem seu próprio nível de regulamentação. Estes quatro níveis, inaceitável, alto, limitado e mínimo/sem risco, serão tratados de forma diferente com base em seus casos de uso.
A Lei de IA da UE se concentra em sistemas de IA com risco inaceitável e alto. Vamos examinar de perto.
Os sistemas de IA considerados de risco inaceitável são aqueles que oferecem uma clara ameaça às pessoas e não cumprem os valores da UE.
Os exemplos de sistemas de IA de risco inaceitável da UE incluem:
Os sistemas de IA de risco inaceitável serão banidos dentro de seis meses após a entrada em vigor da Lei de IA da UE, com algumas exceções para fins de aplicação da lei.
Os sistemas de IA considerados de alto risco afetam negativamente a segurança ou os direitos fundamentais e são divididos em duas categorias:
Sistemas de IA de alto risco devem ser avaliados antes de entrar no mercado e durante a vida útil. Os cidadãos têm o direito de apresentar reclamações sobre esses sistemas.
Esses requisitos e obrigações serão aplicáveis 36 meses após a Lei de IA da UE entrar em vigor.
As ferramentas de IA generativa, como o Microsoft 365 Copilot e o ChatGPT, não são classificadas como de alto risco, mas exigem conformidade com os requisitos de transparência e as leis de direitos autorais da UE. São eles:
Os modelos de IA de uso geral de alto impacto devem passar por avaliações rigorosas, e os incidentes graves devem ser comunicados à Comissão Europeia.
Esses requisitos serão aplicados 12 meses após a entrada em vigor da Lei de IA da UE.
A conformidade com estruturas regulatórias complexas é um desafio e, com a introdução da Lei de IA da UE, a necessidade de transparência e segurança de dados se torna ainda maior.
A Varonis simplifica a gestão de conformidade e fornece visibilidade e controle em tempo real sobre os dados críticos usados pela IA, ajudando você a cumprir a Lei de IA da UE de quatro maneiras cruciais:
Também capacitamos milhares de empresas a cumprirem normas como HIPAA, GDPR, CCPA, NIST e ITAR.
Como parte de uma abordagem holística da segurança de IA generativa, a Varonis também fornece a única oferta abrangente do setor para proteger o Microsoft 365 Copilot e o Salesforce Einstein Copilot.
A ampla variedade de recursos de segurança da nossa Plataforma de Segurança de Dados pode acelerar a adoção e a implementação da IA em sua organização com total visibilidade e controle sobre as permissões e cargas de trabalho das ferramentas.
Se você está iniciando sua jornada de IA ou não sabe como cumprir os requisitos da Lei de IA da UE, recomendamos começar com nosso Relatório de risco de dados gratuito.
Em menos de 24 horas, você terá uma visão clara baseada no risco de sua posição em relação à segurança e se ela atende aos padrões de conformidade.
Comece sua avaliação gratuita hoje mesmo.