La Ley de IA de la UE: qué es y por qué es importante

Una descripción general de la primera normativa integral de IA del mundo, sus requisitos de cumplimiento y cómo evitar multas de hasta 35 millones de euros (38 millones de dólares)

Nolan Necoechea
4 min read
Last updated 13 de septiembre de 2024
EU AI Act

A principios de este año, el Parlamento Europeo y el Consejo acordaron regular el uso de la IA en la UE con la aprobación de la Ley Europea de Inteligencia Artificial (Ley de IA de la UE), la primera regulación integral de IA del mundo. 

¿Por qué es importante la Ley de IA de la UE?

Si su organización usa IA y opera dentro de la UE, o es una empresa externa que hace negocios en la UE, es importante comprender las nuevas regulaciones y garantizar su cumplimiento.

El incumplimiento de ciertas disposiciones puede provocar multas de hasta 35 millones de euros (38 millones de dólares) o hasta el 7 % de sus ingresos brutos.

La nueva ley tiene por objeto garantizar la seguridad y confiabilidad de los sistemas de IA, lo que posiciona a la UE como líder en la gobernanza de la IA. Exige requisitos de transparencia para todas las aplicaciones generales de IA y describe obligaciones como la gestión de riesgos, la autoevaluación, la mitigación de riesgos sistémicos, etc.

Fechas clave para tener en cuenta: 

  • Febrero de 2025: entran en vigor los requisitos de prohibición 
  • Agosto de 2026: la Ley de IA de la UE se vuelve totalmente aplicable 
  • Agosto 2027: entran en vigor normas para los sistemas de IA integrados en productos regulados 

 

Continúe leyendo para conocer los pasos que su organización debe seguir para cumplir con los nuevos requisitos.

Watch our on-demand webinar on to find out more about the EU AI Act.
Watch now
Compliance-Management

Los cuatro niveles de clasificación 

La Ley de IA de la UE clasifica los sistemas según el riesgo que representan para los usuarios, y cada nivel de riesgo tiene su propio nivel de regulación. Estos cuatro niveles (inaceptable, alto, limitado y mínimo/sin riesgo) se tratarán de manera diferente según sus casos de uso.

La Ley de IA de la UE se enfoca en los sistemas de IA inaceptables y de alto riesgo. Profundicemos un poco más. 

Sistemas de IA de riesgo inaceptable 

Los sistemas de IA que se consideran un riesgo inaceptable se perciben como una clara amenaza para las personas y no cumplen con los valores de la UE. 

Entre los ejemplos de sistemas de IA con riesgo inaceptable que ofrece la UE se incluyen los siguientes: 

  • Manipulación cognitivo-conductual de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños 
  • Puntaje social: clasificar a las personas en función del comportamiento, el estatus socioeconómico o sus características personales 
  • Identificación biométrica y categorización de personas 
  • Sistemas de identificación biométrica remota y en tiempo real, como el reconocimiento facial 

Los sistemas de IA de riesgo inaceptable se prohibirán en un plazo de seis meses a partir de la entrada en vigor de la Ley de IA de la UE, con algunas excepciones para fines de aplicación de la ley.

Sistemas de IA de alto riesgo 

Los sistemas de IA que se consideran de alto riesgo afectan negativamente a la seguridad o a los derechos fundamentales y se dividen en dos categorías: 

  1. Sistemas de IA que se utilizan en productos que entran en el ámbito de aplicación de la legislación de la UE en materia de seguridad de productos, incluidos juguetes, aviación, automóviles, dispositivos médicos y elevadores 
  2. Sistemas de IA que pertenecen a áreas específicas que deberán registrarse en una base de datos de la UE, incluida la gestión y el funcionamiento de infraestructuras críticas, la educación y la formación profesional, y la gestión de la migración, el asilo y el control de fronteras 

Los sistemas de IA de alto riesgo deben evaluarse antes de introducirlos en el mercado y durante su ciclo de vida. Los ciudadanos tienen derecho a presentar quejas sobre estos sistemas. 

Estos requisitos y obligaciones serán aplicables 36 meses después de la entrada en vigor de la Ley de IA de la UE. 

Sistemas de IA generativa 

Las herramientas de IA generativa como Microsoft 365 Copilot y ChatGPT no están clasificadas como de alto riesgo, pero requieren el cumplimiento de los requisitos de transparencia y las leyes de derechos de autor de la UE. Esto incluye lo siguiente: 

  • Revelar claramente cuándo el contenido es generado por IA para que los usuarios finales lo sepan 
  • Diseñar el modelo para evitar que genere contenido ilegal 
  • Publicar resúmenes de los datos protegidos por derechos de autor utilizados para la capacitación 

Los modelos de IA de propósito general de alto impacto deben pasar evaluaciones exhaustivas, y los incidentes graves deben notificarse a la Comisión Europea. 

Estos requisitos se aplicarán 12 meses después de la entrada en vigor de la Ley de IA de la UE. 

Cómo puede ayudar Varonis 

Cumplir con estructuras regulatorias complejas es un desafío, y con la introducción de la Ley de IA de la UE, la necesidad de transparencia y seguridad de los datos se vuelve aún mayor. 

Varonis simplifica la gestión del cumplimiento y proporciona visibilidad y control en tiempo real sobre los datos críticos utilizados por la IA para ayudarlo a cumplir con la Ley de IA de la UE de cuatro maneras críticas: 

  • Protección de datos privados y confidenciales procesados y generados por IA generativa
  • Proporcionar visibilidad completa de las indicaciones y respuestas de la IA, incluida la indicación de cuándo se accede a datos confidenciales 
  • Alertas sobre amenazas y anomalías, incluida la actividad y los comportamientos que indican mal uso 
  • Protección automática de los datos, incluida la revocación del acceso excesivo, la corrección de etiquetas y la corrección de errores de configuración, para reducir la exposición y el riesgo 

También hemos permitido que miles de empresas cumplan con las regulaciones, lo que incluye HIPAA, GDPR, CCPA, NIST e ITAR.

Aceleramiento de la adopción de la IA para los equipos de seguridad 

Como parte de un enfoque integral de la seguridad de la IA generativa, Varonis también proporciona la única oferta integral del sector para proteger Microsoft 365 Copilot y Salesforce Einstein Copilot

La amplia gama de capacidades de seguridad de nuestra plataforma de seguridad de datos puede acelerar la adopción e implementación de IA de su organización con visibilidad y control completos sobre los permisos y las cargas de trabajo de las herramientas. 

Reduzca su riesgo sin tomar ningún otro 

Si está comenzando su recorrido por la IA o no está seguro de cómo cumplir con los requisitos de la Ley de IA de la UE, le recomendamos comenzar con nuestra evaluación de riesgo sobre los datos gratuita.

En menos de 24 horas, tendrá una visión clara y basada en el riesgo de su postura de seguridad y si cumple con los estándares de cumplimiento.

Empiece hoy mismo con su evaluación gratis. 

¿Qué pasos debo seguir ahora?

A continuación,a le presentamos tres maneras de avanzar en la reducción del riesgo de datos en su empresa:

1

Programe una demostración con nosotros Vea a Varonis en acción en una sesión personalizada según las necesidades específicas de seguridad de datos de su organización. Estaremos encantados de responder a todas sus preguntas.

2

Revise un ejemplo de nuestra evaluación de riesgo sobre los datos (DRA) Conozca los riesgos que podrían estar presentes en su entorno. La DRA de Varonis es completamente gratuita y ofrece un camino claro hacia la remediación automatizada.

3

Síganos en LinkedIn, YouTube, and X (Twitter) Obtenga información detallada sobre la seguridad de datos, incluyendo la administración de la postura de seguridad de datos (DSPM), la detección de amenazas, la seguridad de la IA y mucho más.

Prueba Varonis gratis.

Obtenga un informe detallado de riesgos de datos basado en los datos de su empresa.
Se implementa en minutos.

Keep reading

Varonis tackles hundreds of use cases, making it the ultimate platform to stop data breaches and ensure compliance.

por-qué-su-organización-necesita-implementar-el-escaneo-de-seguridad-de-copilot-antes-de-implementar-herramientas-de-ia
Por qué su organización necesita implementar el escaneo de seguridad de Copilot antes de implementar herramientas de IA
Evaluar su postura de seguridad antes de implementar herramientas de IA generativa como Copilot para Microsoft 365 es un primer paso fundamental.
integre-información-centrada-en-datos-en-sus-flujos-de-trabajo-de-seguridad-mediante-webhooks
Integre información centrada en datos en sus flujos de trabajo de seguridad mediante webhooks
Utilice webhooks para integrar fácilmente la información única y centrada en datos de Varonis en su pila de seguridad para consolidar el monitoreo y mejorar los flujos de trabajo de seguridad.
cómo-prevenir-su-primera-brecha-de-datos-de-ia
Cómo prevenir su primera brecha de datos de IA
Descubra cómo el amplio uso de copilotos de IA generativa aumentará inevitablemente las brechas de datos, que Matt Radolec de Varonis compartió en la apertura de RSA Conference 2024.
seguridad-de-ia-generativa:-garantizar-una-implementación-segura-de-microsoft-copilot
Seguridad de IA generativa: garantizar una implementación segura de Microsoft Copilot
En este artículo, se describe cómo funciona el modelo de seguridad de Microsoft 365 Copilot y los riesgos que deben tenerse en cuenta para garantizar una implementación segura.