A principios de este año, el Parlamento Europeo y el Consejo acordaron regular el uso de la IA en la UE con la aprobación de la Ley Europea de Inteligencia Artificial (Ley de IA de la UE), la primera regulación integral de IA del mundo.
¿Por qué es importante la Ley de IA de la UE?
Si su organización usa IA y opera dentro de la UE, o es una empresa externa que hace negocios en la UE, es importante comprender las nuevas regulaciones y garantizar su cumplimiento.
El incumplimiento de ciertas disposiciones puede provocar multas de hasta 35 millones de euros (38 millones de dólares) o hasta el 7 % de sus ingresos brutos.
La nueva ley tiene por objeto garantizar la seguridad y confiabilidad de los sistemas de IA, lo que posiciona a la UE como líder en la gobernanza de la IA. Exige requisitos de transparencia para todas las aplicaciones generales de IA y describe obligaciones como la gestión de riesgos, la autoevaluación, la mitigación de riesgos sistémicos, etc.
Fechas clave para tener en cuenta:
- Febrero de 2025: entran en vigor los requisitos de prohibición
- Agosto de 2026: la Ley de IA de la UE se vuelve totalmente aplicable
- Agosto 2027: entran en vigor normas para los sistemas de IA integrados en productos regulados
Continúe leyendo para conocer los pasos que su organización debe seguir para cumplir con los nuevos requisitos.
Los cuatro niveles de clasificación
La Ley de IA de la UE clasifica los sistemas según el riesgo que representan para los usuarios, y cada nivel de riesgo tiene su propio nivel de regulación. Estos cuatro niveles (inaceptable, alto, limitado y mínimo/sin riesgo) se tratarán de manera diferente según sus casos de uso.
La Ley de IA de la UE se enfoca en los sistemas de IA inaceptables y de alto riesgo. Profundicemos un poco más.
Sistemas de IA de riesgo inaceptable
Los sistemas de IA que se consideran un riesgo inaceptable se perciben como una clara amenaza para las personas y no cumplen con los valores de la UE.
Entre los ejemplos de sistemas de IA con riesgo inaceptable que ofrece la UE se incluyen los siguientes:
- Manipulación cognitivo-conductual de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños
- Puntaje social: clasificar a las personas en función del comportamiento, el estatus socioeconómico o sus características personales
- Identificación biométrica y categorización de personas
- Sistemas de identificación biométrica remota y en tiempo real, como el reconocimiento facial
Los sistemas de IA de riesgo inaceptable se prohibirán en un plazo de seis meses a partir de la entrada en vigor de la Ley de IA de la UE, con algunas excepciones para fines de aplicación de la ley.
Sistemas de IA de alto riesgo
Los sistemas de IA que se consideran de alto riesgo afectan negativamente a la seguridad o a los derechos fundamentales y se dividen en dos categorías:
- Sistemas de IA que se utilizan en productos que entran en el ámbito de aplicación de la legislación de la UE en materia de seguridad de productos, incluidos juguetes, aviación, automóviles, dispositivos médicos y elevadores
- Sistemas de IA que pertenecen a áreas específicas que deberán registrarse en una base de datos de la UE, incluida la gestión y el funcionamiento de infraestructuras críticas, la educación y la formación profesional, y la gestión de la migración, el asilo y el control de fronteras
Los sistemas de IA de alto riesgo deben evaluarse antes de introducirlos en el mercado y durante su ciclo de vida. Los ciudadanos tienen derecho a presentar quejas sobre estos sistemas.
Estos requisitos y obligaciones serán aplicables 36 meses después de la entrada en vigor de la Ley de IA de la UE.
Sistemas de IA generativa
Las herramientas de IA generativa como Microsoft 365 Copilot y ChatGPT no están clasificadas como de alto riesgo, pero requieren el cumplimiento de los requisitos de transparencia y las leyes de derechos de autor de la UE. Esto incluye lo siguiente:
- Revelar claramente cuándo el contenido es generado por IA para que los usuarios finales lo sepan
- Diseñar el modelo para evitar que genere contenido ilegal
- Publicar resúmenes de los datos protegidos por derechos de autor utilizados para la capacitación
Los modelos de IA de propósito general de alto impacto deben pasar evaluaciones exhaustivas, y los incidentes graves deben notificarse a la Comisión Europea.
Estos requisitos se aplicarán 12 meses después de la entrada en vigor de la Ley de IA de la UE.
Cómo puede ayudar Varonis
Cumplir con estructuras regulatorias complejas es un desafío, y con la introducción de la Ley de IA de la UE, la necesidad de transparencia y seguridad de los datos se vuelve aún mayor.
Varonis simplifica la gestión del cumplimiento y proporciona visibilidad y control en tiempo real sobre los datos críticos utilizados por la IA para ayudarlo a cumplir con la Ley de IA de la UE de cuatro maneras críticas:
- Protección de datos privados y confidenciales procesados y generados por IA generativa
- Proporcionar visibilidad completa de las indicaciones y respuestas de la IA, incluida la indicación de cuándo se accede a datos confidenciales
- Alertas sobre amenazas y anomalías, incluida la actividad y los comportamientos que indican mal uso
- Protección automática de los datos, incluida la revocación del acceso excesivo, la corrección de etiquetas y la corrección de errores de configuración, para reducir la exposición y el riesgo
También hemos permitido que miles de empresas cumplan con las regulaciones, lo que incluye HIPAA, GDPR, CCPA, NIST e ITAR.
Aceleramiento de la adopción de la IA para los equipos de seguridad
Como parte de un enfoque integral de la seguridad de la IA generativa, Varonis también proporciona la única oferta integral del sector para proteger Microsoft 365 Copilot y Salesforce Einstein Copilot.
La amplia gama de capacidades de seguridad de nuestra plataforma de seguridad de datos puede acelerar la adopción e implementación de IA de su organización con visibilidad y control completos sobre los permisos y las cargas de trabajo de las herramientas.
Reduzca su riesgo sin tomar ningún otro
Si está comenzando su recorrido por la IA o no está seguro de cómo cumplir con los requisitos de la Ley de IA de la UE, le recomendamos comenzar con nuestra evaluación de riesgo sobre los datos gratuita.
En menos de 24 horas, tendrá una visión clara y basada en el riesgo de su postura de seguridad y si cumple con los estándares de cumplimiento.
Empiece hoy mismo con su evaluación gratis.
¿Qué pasos debo seguir ahora?
A continuación,a le presentamos tres maneras de avanzar en la reducción del riesgo de datos en su empresa:
Programe una demostración con nosotros Vea a Varonis en acción en una sesión personalizada según las necesidades específicas de seguridad de datos de su organización. Estaremos encantados de responder a todas sus preguntas.
Revise un ejemplo de nuestra evaluación de riesgo sobre los datos (DRA) Conozca los riesgos que podrían estar presentes en su entorno. La DRA de Varonis es completamente gratuita y ofrece un camino claro hacia la remediación automatizada.
Síganos en LinkedIn, YouTube, and X (Twitter) Obtenga información detallada sobre la seguridad de datos, incluyendo la administración de la postura de seguridad de datos (DSPM), la detección de amenazas, la seguridad de la IA y mucho más.