Una guía práctica para implementar de forma segura la IA generativa

Varonis y Jeff Pollard, analista de seguridad y riesgos de Forrester, comparten información sobre cómo integrar de forma segura la IA generativa en su organización.
Megan Garza
4 min read
Last updated 26 de junio de 2024
keyboard showing AI trying to access a shield to represent data security

A medida que la popularidad de la IA, especialmente la IA generativa, sigue creciendo, las organizaciones se enfrentan a nuevos retos a la hora de proteger sus datos y gestionar el riesgo.

Recientemente conversamos con Jeff Pollard, analista de seguridad y riesgo de Forrester, sobre las preocupaciones asociadas con la implementación segura de herramientas impulsadas por IA en su organización. Mire el video completo aquí o siga leyendo para conocer todos los detalles.

Comprender los casos de uso de la IA

La función de lenguaje natural de la IA generativa puede ser útil para los usuarios finales, pero –como señaló Jeff– también puede exponer secretos e información privada. En el pasado, los actores de amenazas tenían que irrumpir en un sistema usando código, pero con la IA generativa, los atacantes pueden acceder a información confidencial simplemente haciendo una pregunta.

La seguridad es esencial para los resultados del negocio y la IA hace que esto sea más urgente que nunca. Esta guía le mostrará cómo implementar la IA generativa de forma segura en su organización para que pueda aumentar la eficiencia y reducir el riesgo.

Para garantizar el despliegue seguro de la IA generativa en su organización, es crucial comprender cómo su equipo tiene previsto emplearla. ¿Los desarrolladores analizan el código? ¿Su equipo de marketing busca consejos por correo electrónico?

Cada caso de uso tiene un perfil de riesgo diferente y, comprendiendo cuáles son esos casos de uso, puede identificar cualquier vulnerabilidad y cómo los actores maliciosos podrían explotarla.

Luego, puede crear barreras de protección en torno al uso de la IA generativa en su organización y establecer límites sobre quién la emplea y cómo.

El impacto de la IA en los objetivos empresariales

El impacto de la IA va más allá del progreso tecnológico; está conectado a objetivos empresariales como el crecimiento de los ingresos y la reducción de costos. Los líderes de seguridad deben alinear las medidas de seguridad con estos objetivos para equilibrar eficazmente la innovación con la reducción de riesgos.

La función del CISO también está cambiando. Estos líderes desempeñan una función vital en la configuración de cómo las organizaciones evalúan el riesgo tanto interna como externamente, ya que los clientes y proveedores exigen una mayor seguridad de las empresas con las que hacen negocios. Una postura de seguridad deficiente puede afectar los ingresos, porque los clientes evitarán hacer negocios con organizaciones que pongan en riesgo sus datos.

El impacto de la IA va más allá del progreso tecnológico; está conectado a objetivos empresariales como el crecimiento de los ingresos y la reducción de costos. Los líderes de seguridad deben alinear las medidas de seguridad con estos objetivos para equilibrar eficazmente la innovación con la reducción de riesgos.

Promover la IA

Educar a los profesionales de la seguridad y a los usuarios finales es esencial para garantizar un uso seguro de la IA.

En su lugar, muestre a sus empleados cómo emplear la IA correctamente y crear políticas de IA generativa segura. Y, además de las políticas y la educación, las organizaciones deben centrarse en reducir su radio de ataque potencial: todos los datos a los que puede acceder un empleado deshonesto o un atacante.

Las herramientas de IA generativa se basan en las licencias existentes de un usuario para determinar qué archivos, correos electrónicos, etc., se emplean para generar respuestas de IA. Si esos permisos son excesivos, existe un riesgo real de que los copilotos de IA generativa revelen datos confidenciales. Alrededor del 99 % de los permisos no se utilizan, y más de la mitad de ellos son de alto riesgo, lo que crea un radio de ataque masivo del daño potencial que podría causar una violación.

Los profesionales deben trabajar con los líderes de departamento para asesorarlos y guiarlos en la adopción responsable de la IA. Esto implica ajustar adecuadamente los permisos y asegurar los datos para que los empleados solo accedan a la información necesaria para hacer sus tareas.

Aplicaciones de terceros e IA

A medida que los proveedores externos comienzan a implementar soluciones de IA dentro de sus aplicaciones y a activarlas de forma predeterminada, es posible que los líderes de seguridad no noten estos cambios y tengan dificultades para identificar qué aplicaciones podrían representar un riesgo para la seguridad.

Los CISO necesitan conocer los datos a los que acceden las aplicaciones de terceros y cómo los emplean y recopilan. También necesitan identificar si estas aplicaciones almacenan, procesan o transmiten datos y cómo lo hacen.

Debido a que estas actualizaciones de terceros son automáticas, una revisión fuera de banda puede ayudar a identificar las funciones de IA generativa que pueden haber agregado después de que se implementó la aplicación.

El ROI de la IA

La adopción de la IA conlleva tanto oportunidades como desafíos, lo que requiere un equilibrio entre una mayor eficiencia y la gestión de riesgos. Sin embargo, incluso cuando tiene en cuenta los requisitos de capacitación, los controles de seguridad adicionales y los recursos informáticos, el retorno de la inversión potencial de la IA justifica su uso.

Según Total Economic Impact™ de Copilot para Microsoft 365 de Forrester, la implementación de la herramienta de IA generativa generó "aumentos de ingresos, menores costos operativos internos y externos y una mejor experiencia de los empleados y la cultura de la empresa". 

La IA generativa puede ser un factor revolucionario para la productividad de su organización, pero los líderes de seguridad que no exploren formas seguras de implementar la IA se quedarán atrás.

Los líderes de seguridad que defienden activamente la IA tienen una oportunidad única de impulsar la innovación con una mentalidad de seguridad.

Las empresas también deben mejorar su postura de seguridad de datos antes, durante y luego de las implementaciones de IA. De lo contrario, sería como esperar que una solución de IA generativa proteja datos que las organizaciones no están preparadas para manejar o gestionar.

El futuro de la IA

La tecnología de IA avanza más rápido que su seguridad. A medida que la adopción de la IA generativa continúa creciendo, es fundamental contar con un enfoque integral para la seguridad de los datos y controles específicos para los propios copilotos.

Varonis ayuda a las organizaciones a implementar de manera segura IA generativa y protege los datos confidenciales de fugas al brindarle supervisión y administración completas de las herramientas y tareas de IA. Vea cómo nuestra solución nativa de la nube puede cubrir todas sus necesidades de seguridad de IA con una demostración de 30 minutos.

What should I do now?

Below are three ways you can continue your journey to reduce data risk at your company:

1

Schedule a demo with us to see Varonis in action. We'll personalize the session to your org's data security needs and answer any questions.

2

See a sample of our Data Risk Assessment and learn the risks that could be lingering in your environment. Varonis' DRA is completely free and offers a clear path to automated remediation.

3

Follow us on LinkedIn, YouTube, and X (Twitter) for bite-sized insights on all things data security, including DSPM, threat detection, AI security, and more.

Prueba Varonis gratis.

Obtenga un informe detallado de riesgos de datos basado en los datos de su empresa.
Se implementa en minutos.

Keep reading

Varonis tackles hundreds of use cases, making it the ultimate platform to stop data breaches and ensure compliance.

seguridad-de-ia-generativa:-garantizar-una-implementación-segura-de-microsoft-copilot
Seguridad de IA generativa: garantizar una implementación segura de Microsoft Copilot
En este artículo, se describe cómo funciona el modelo de seguridad de Microsoft 365 Copilot y los riesgos que deben tenerse en cuenta para garantizar una implementación segura.
gestión-de-la-postura-de-seguridad-de-datos-(dspm):-guía-de-mejores-prácticas-para-ciso
Gestión de la postura de seguridad de datos (DSPM): Guía de mejores prácticas para CISO
DSPM proporciona visibilidad de los datos, quién tiene acceso, cómo se utilizaron y la postura de seguridad de la empresa.
varonis-presenta-athena-ai-para-transformar-la-seguridad-de-los-datos-y-la-respuesta-a-incidentes
Varonis presenta Athena AI para transformar la seguridad de los datos y la respuesta a incidentes
Con Athena AI, la nueva capa de IA generativa para Varonis, el lenguaje natural, los clientes pueden realizar investigaciones y análisis de seguridad en profundidad de manera más eficiente.
varonis-acelera-la-adopción-segura-de-microsoft-copilot-para-microsoft-365
Varonis acelera la adopción segura de Microsoft Copilot para Microsoft 365
Varonis y Microsoft forjaron una nueva colaboración estratégica para ayudar a las organizaciones a aprovechar de forma segura una de las herramientas de productividad más poderosas del planeta: Microsoft Copilot para Microsoft 365.