Cómo prevenir su primera brecha de datos de IA

Entérese por qué el uso generalizado de copilotos de IA generativa aumentará inevitablemente las brechas de datos, según lo destacó Matt Radolec de Varonis durante la sesión de apertura de la RSA Conference 2024.
Nolan Necoechea
3 min read
Last updated 27 de junio de 2024
data protection in age of AI

Durante su discurso de apertura en la RSA Conference 2024, Matt Radolec, vicepresidente de Respuesta a Incidentes y Operaciones en la Nube de Varonis, describió un escenario cada vez más frecuente en la era de la IA generativa:

Una organización se acercó a Varonis con un problema por resolver. Su competidor había logrado acceder a información confidencial de las cuentas y estaba utilizando esos datos para dirigir campañas publicitarias a los clientes de la organización.

La organización no tenía idea de cómo se obtuvieron los datos. Esto era una pesadilla de seguridad que podía poner en peligro la confianza y la credibilidad de sus clientes.

Gracias a trabajar con Varonis, la compañía identificó la fuente de la brecha de datos. Un exempleado usó un copiloto de IA generativa para acceder a una base de datos interna llena de datos de cuentas. Luego, copió información confidencial, como el gasto de los clientes y el uso de los productos, y se los llevaron a un competidor.

 

Vea el debate completo de Matt Radolec sobre cómo prevenir las brechas de datos de IA en la RSA Conference 2024. 

Este ejemplo pone de manifiesto un problema creciente: el amplio uso de copilotos de IA generativa inevitablemente aumentará las brechas de datos.

Según una encuesta reciente de Gartner, los casos de uso de IA más comunes incluyen aplicaciones basadas en IA generativa, como Microsoft 365 Copilot y Einstein Copilot de Salesforce. Si bien estas herramientas son una excelente manera para que las organizaciones aumenten la productividad, también crean importantes desafíos para la seguridad de los datos.

En este blog, analizaremos estos desafíos y le mostraremos cómo proteger sus datos en la era de la IA generativa.

El riesgo de los datos de la IA generativa 

Casi el 99 % de los permisos no se utilizan, y más de la mitad de esos permisos son de alto riesgo. El acceso a datos sin usar y excesivamente permisivo siempre es un problema para la seguridad de la información, pero la IA generativa intensifica el problema.

Cuando un usuario le hace una pregunta a un copiloto de IA generativa, la herramienta formula una respuesta en lenguaje natural basada en contenido de internet y comercial a través de tecnología de gráficos.

Debido a que los usuarios suelen tener permisos de acceso a datos excesivamente amplios, el copiloto puede revelar fácilmente información confidencial, incluso si el usuario no se da cuenta de que tiene acceso a ella. En primer lugar, muchas organizaciones ni siquiera saben qué datos confidenciales tienen, y ajustar manualmente el acceso de forma adecuada es casi imposible.

La IA generativa facilita la brecha de datos.  

Los atacantes ya no necesitan saber cómo piratear un sistema o comprender los detalles de su entorno. Simplemente pueden pedirle a un copiloto información confidencial o credenciales que les permitan moverse lateralmente por el entorno.

Los desafíos de seguridad que conlleva la habilitación de herramientas de IA generativa incluyen los siguientes:

  • Los empleados tienen acceso a demasiados datos. 
  • Los datos confidenciales no suelen estar etiquetados o lo están, pero de manera incorrecta. 
  • Los expertos pueden encontrar y exfiltrar datos rápidamente con lenguaje natural. 
  • Los atacantes pueden descubrir secretos para la escalada de privilegios y el movimiento lateral. 
  • No es posible ajustar el acceso de forma manual. 
  • La IA generativa puede crear nuevos datos confidenciales con rapidez.

Estos desafíos para la seguridad de datos no son nuevos, pero son muy explotables, dada la velocidad y la facilidad con la que la IA de última generación puede revelar información.

Cómo evitar que ocurra su primera brecha de IA 

El primer paso para eliminar los riesgos asociados a la IA generativa es asegurarnos de tener nuestras propias herramientas en orden.

Es una mala idea dar rienda suelta a los copilotos en su organización si no está seguro de dónde tiene datos confidenciales, cuáles son esos datos confidenciales, no puede analizar la exposición y los riesgos, y no puede cerrar las brechas de seguridad y corregir las configuraciones incorrectas de manera eficiente.

Una vez que tenga el control de la seguridad de los datos en su entorno y los procesos correctos estén implementados, estará listo para implementar un copiloto. En este punto, debería centrarse en tres áreas: permisos, etiquetas y actividad humana.

  • Permisos: asegúrese de que los permisos de sus usuarios tengan el tamaño correcto y que el acceso del copiloto refleje esos permisos.
  • Etiquetas: una vez que comprenda qué datos confidenciales tiene y en qué consisten esos datos confidenciales, puede aplicarles etiquetas para reforzar la DLP.
  • Actividad humana: es esencial monitorear cómo se usa el copiloto y revisar cualquier comportamiento sospechoso que se detecte. Monitorear las indicaciones y los archivos a los que se accede es crucial para evitar copilotos explotados.

Incorporar estas tres áreas de seguridad de datos no es fácil y, por lo general, no se puede lograr solo con un esfuerzo manual. Pocas organizaciones pueden adoptar de manera segura copilotos de IA generativa sin un enfoque holístico con respecto a la seguridad de los datos y controles específicos para los propios copilotos.

Evite las brechas de IA con Varonis. 

Varonis se centró en la seguridad de los datos durante casi 20 años, y ayudó a más de 8000 clientes en todo el mundo a proteger lo que más importa. 

Aplicamos nuestra profunda experiencia para proteger a las organizaciones que planean implementar la IA generativa.
 
Si está comenzando su camino hacia la IA generativa, la mejor forma de empezar es con nuestra Evaluación gratis de riesgo sobre los datos.

En menos de 24 horas, tendrá un panorama en tiempo real del riesgo de sus datos confidenciales para determinar si puede adoptar un copiloto de IA generativa de forma segura. Varonis también es la primera solución de seguridad de datos de la industria para Microsoft 365 Copilot y tiene una amplia gama de capacidades de seguridad de IA para otros copilotos, LLM y herramientas de IA generativa.

Para obtener más información, explore nuestros recursos de seguridad de IA

¿Qué pasos debo seguir ahora?

A continuación,a le presentamos tres maneras de avanzar en la reducción del riesgo de datos en su empresa:

1

Programe una demostración con nosotros Vea a Varonis en acción en una sesión personalizada según las necesidades específicas de seguridad de datos de su organización. Estaremos encantados de responder a todas sus preguntas.

2

Revise un ejemplo de nuestra evaluación de riesgo sobre los datos (DRA) Conozca los riesgos que podrían estar presentes en su entorno. La DRA de Varonis es completamente gratuita y ofrece un camino claro hacia la remediación automatizada.

3

Síganos en LinkedIn, YouTube, and X (Twitter) Obtenga información detallada sobre la seguridad de datos, incluyendo la administración de la postura de seguridad de datos (DSPM), la detección de amenazas, la seguridad de la IA y mucho más.

Prueba Varonis gratis.

Obtenga un informe detallado de riesgos de datos basado en los datos de su empresa.
Se implementa en minutos.

Keep reading

Varonis tackles hundreds of use cases, making it the ultimate platform to stop data breaches and ensure compliance.

por-qué-su-organización-necesita-implementar-el-escaneo-de-seguridad-de-copilot-antes-de-implementar-herramientas-de-ia
Por qué su organización necesita implementar el escaneo de seguridad de Copilot antes de implementar herramientas de IA
Evaluar su postura de seguridad antes de implementar herramientas de IA generativa como Copilot para Microsoft 365 es un primer paso fundamental.
comprender-y-aplicar-el-modelo-de-responsabilidad-compartida-en-su-organización
Comprender y aplicar el modelo de responsabilidad compartida en su organización
Para evitar deficiencias de seguridad importantes y riesgos para los datos confidenciales, las organizaciones deben comprender el modelo de responsabilidad compartida que utilizan muchos proveedores de SaaS.
varonis-presenta-athena-ai-para-transformar-la-seguridad-de-los-datos-y-la-respuesta-a-incidentes
Varonis presenta Athena AI para transformar la seguridad de los datos y la respuesta a incidentes
Con Athena AI, la nueva capa de IA generativa para Varonis, el lenguaje natural, los clientes pueden realizar investigaciones y análisis de seguridad en profundidad de manera más eficiente.
¿qué-es-la-detección-y-respuesta-administradas-de-datos-(mddr)?
¿Qué es la detección y respuesta administradas de datos (MDDR)?
Las ofertas de XDR y MDR se centran en las amenazas y son ciegas con respecto a los datos. La MDDR de Varonis ayuda a mitigar amenazas complejas a su recurso más valioso: los datos.