Seguridad para la IA: un marco estratégico para cerrar la brecha de exposición de la IA
A medida que se acelera la adopción de la IA, los CISO se enfrentan a un doble desafío: impulsar la innovación y, al mismo tiempo, mitigar los riesgos de una superficie de ataque en rápida expansión. El marco de cinco pasos de Tenable para proteger la IA ofrece un abordaje sistemático para reducir los riesgos de seguridad de la IA a medida que su organización se apresura por obtener los beneficios de productividad de la IA.
Puntos importantes
- Obtenga un marco de cinco pasos que le ayude a proteger el uso de la IA a lo largo de toda su organización y a mitigar los riesgos de seguridad que generan las herramientas de IA.
- La protección del uso de la IA a nivel empresarial exige una combinación de capacidades robustas de detección de IA, mecanismos para proteger las cargas de trabajo de IA y la infraestructura que ejecuta la IA, visibilidad a nivel de prompts, la capacidad de analizar los riesgos de seguridad de la IA junto con otras exposiciones, y controles técnicos para garantizar el cumplimiento de la política de uso aceptable de la IA de su organización.
- Descubra por qué sus controles de seguridad actuales pueden ser inadecuados para proteger la IA.
A medida que la IA transforma las empresas, los responsables de seguridad como debemos abordar la cuestión de cómo gestionar de la forma más eficaz los riesgos de seguridad que genera.
El desafío es que la IA ahora está incorporada prácticamente en todas nuestras organizaciones: en las herramientas de productividad de los empleados, las plataformas de SaaS, las bibliotecas de desarrolladores, los servicios en la nube, las API y las aplicaciones web. ¿El resultado? Nuestros equipos se encuentran con una creciente brecha de exposición de la IA: una superficie de ataque amplia y en gran medida invisible que nuestras herramientas de seguridad tradicionales no fueron diseñadas para monitorear.
Lo que complica las cosas es que a menudo no podemos aislar el riesgo de la IA en un único activo. Más bien surge de una serie de elementos interconectados (como aplicaciones, infraestructura, identidades y datos) que en conjunto crean exposición. Para que pueda comprender lo que quiero decir, le daré un ejemplo.
Digamos que un miembro de los empleados utiliza un chatbot de IA aprobado para la resolución de soporte técnico que se basa en agentes de Amazon Bedrock, y esos agentes tienen mayores privilegios para acceder a sistemas internos confidenciales como la planificación de recursos empresariales y las herramientas de gestión de recursos de clientes. Si un agente malicioso logra acceder al agente a través de una vulnerabilidad sin parche en la computadora portátil del empleado, puede utilizar el agente para vulnerar datos confidenciales, y así el uso aparentemente seguro de una herramienta de IA aprobada se convierte en una exposición de alto impacto.
Proteger los datos en los entornos de trabajo actuales asistidos por IA se hace cada vez más difícil, ya que cada una de las innumerables interacciones con los activos de IA (por ejemplo, cada consulta, carga de archivos, respuesta generada, integración y configuración) puede poner en peligro la propiedad intelectual, la información de los clientes y los planes confidenciales.
Entonces ¿cómo podemos controlar esta nueva superficie de ataque que crece sin control a medida que nuestras organizaciones amplían el uso de la IA? Este es un marco estratégico que he puesto en práctica para gobernar, detectar y proteger la IA donde aparezca y genere riesgos para su organización.
Marco estratégico: cinco pasos para proteger la IA empresarial
1. Establecer un comité de gobierno, un marco y una política de uso aceptable de la IA.
Para proteger la IA, primero se deben establecer expectativas claras con los empleados sobre el uso aceptable. Establezca una política de uso aceptable de la IA que ofrezca lo siguiente:
- proporcione una lista de herramientas de IA aprobadas y no aprobadas;
- defina los casos de uso de negocios adecuados e inadecuados;
- explique los tipos de datos que pueden y no pueden compartirse con los LLM;
- prescriba normas para la manipulación de datos;
- aborde las leyes sobre derechos de autor; y
- indique las consecuencias de las violaciones de la política.
En función de la política de uso aceptable de la IA de su organización, puede implementar controles para imponer y supervisar su cumplimiento.
2. Detectar la IA a lo largo de toda su superficie de ataque
Cuando hablo con otros CISO sobre la seguridad de la IA, me dicen que su detección es uno de sus principales desafíos. Y lo entiendo: está por todas partes y es muy difícil detectarla, en parte porque la presencia de la IA va mucho más allá de los sistemas gestionados centralmente que son claramente visibles.
Como responsables de seguridad, tenemos que tener en cuenta lo siguiente:
- Activos de IA, agentes, plug-ins, extensiones de navegador y cargas de trabajo, independientemente de si…
- se ejecutan en la nube o de manera local,
- son accesibles interna o externamente,
- están aprobados o no.
- Implementaciones de pruebas de IA olvidadas
- Herramientas de IA incorporadas en puntos de conexión y aplicaciones
- Todo software, biblioteca, modelo y servicio de IA
- Servicios de IA expuestos públicamente, API de modelos de lenguaje grandes (LLM) y chatbots de IA en puntos de conexión y aplicaciones en la nube.
Sus soluciones existentes de prevención de pérdida de datos (DLP), agentes de seguridad de acceso a la nube (CASB) y gestión de la postura de seguridad en la nube (CSPM) pueden proporcionar un buen punto de partida inicial para detectar activos de IA. Pero la detección integral requiere herramientas de detección especializadas ya que la naturaleza no determinística de la IA desafía las protecciones de seguridad tradicionales basadas en reglas. También requiere capacidades de detección únicas para identificar herramientas y bibliotecas de IA incorporadas y comprender cómo los sistemas de IA trabajan en conjunto para crear exposición.
Con una visión constante y completa del uso de la IA en su empresa, sabrá con precisión qué cargas de trabajo e infraestructuras debe proteger, y podrá empezar a evaluar la exposición general a la IA de su organización, así como priorizar las acciones de corrección específicas en consecuencia.
3. Proteger las cargas de trabajo y los agentes de IA
Dado que las cargas de trabajo de IA están profundamente interconectadas y a menudo gravemente mal configuradas o con exceso de permisos, este paso implica proteger de forma proactiva la infraestructura en la que se ejecuta la IA y endurecer las cargas de trabajo de IA antes de que los atacantes puedan explotarlas. Por ejemplo, si los desarrolladores de su organización están creando aplicaciones habilitadas por IA en la nube, querrá asegurarse de que la infraestructura en la nube sea segura.
Para que la protección sea eficaz, las capacidades deben:
- Identifiquen errores de configuración y configuraciones riesgosas en cargas de trabajo de IA basadas en la nube.
- Detecten vulnerabilidades que podrían exponer modelos, agentes, datos o API a accesos no autorizados.
- Implementen una reducción de la exposición basada en la identidad, ya que la IA depende en gran medida de identidades no humanas.
- Detenten las cuentas de servicio, funciones e identidades de máquinas con privilegios excesivos que utilizan los flujos de trabajo de IA y apliquen el acceso de privilegios mínimos.
- Comprendan las rutas de ataque potenciales de los activos de IA y las cargas de trabajo que podrían afectar a los sistemas críticos para el negocio o conducir a datos confidenciales.
- Aíslen rápidamente a los agentes de IA erráticos o puestos en riesgo en entornos controlados para minimizar el impacto potencial de las vulneraciones.
Hablaré en mayor detalle sobre este tema específico de la seguridad de las cargas de trabajo y los agentes de IA en un blog de seguimiento que tengo planeado. Mientras tanto, puede comprender cómo las deficiencias de identidad y los fallos de infraestructura se combinan para crear una exposición crítica si realiza un análisis detallado del riesgo de su pila de IA. A partir de esta información, puede proporcionar manuales de estrategias prácticos a sus equipos de seguridad para reforzar los entornos y garantizar que los servicios se ejecuten en arquitecturas seguras, resistentes y validadas.
4. Evaluar el uso y las interacciones de la IA
Este paso implica comprender cómo interactúan sus empleados con las herramientas de IA generativa y los agentes autónomos para asegurarse de que no infrinja la política de uso aceptable de la IA de su organización. Es fundamental comprender cómo fluyen los datos a través de todas las aplicaciones de IA y determinar dónde se está creando la exposición.
Esto requiere una visibilidad detallada hacia lo siguiente:
- Quién utiliza la IA
- Para qué
- Dónde se originan las conductas de riesgo y el consumo indebido
- Qué datos comparten los empleados a través de solicitudes, cargas o acciones automatizadas
- Intentos eludir a las herramientas de IA aprobadas y proporcionar prompts malintencionados
La visibilidad a nivel de prompt hacia el uso de la IA por parte de los empleados permite que su equipo de seguridad detecte violaciones de las políticas y refuerce el comportamiento seguro de la IA. También permite que su equipo de seguridad identifique cualquier dato confidencial, incluyendo la propiedad intelectual y la información de identificación personal, que los empleados o los agentes compartan con las herramientas de IA a través de solicitudes, cargas e interacciones automatizadas y que podría crear exposición a través de una fuga accidental. Y permite a su equipo de seguridad detecte y responda a las nuevas amenazas y los usos indebidos específicos de la IA, como los intentos de inyección puntual y otras instrucciones malintencionadas diseñadas para manipular los sistemas de IA.
Tanto si se detecta una herramienta malintencionada conectada a un agente de Microsoft Copilot como si un miembro de los empleados hace uso indebido de la IA para situaciones inapropiadas para las que la herramienta no fue diseñada (por ejemplo, decisiones internas de contratación), es necesario responder rápidamente para abordar la exposición y reforzar el uso seguro.
5. Analizar los riesgos de seguridad de la IA dentro del contexto de otras exposiciones
Para mitigar los riesgos de seguridad de la IA, no basta con detectar de forma aislada vulnerabilidades sin parches en el software de IA, configuraciones débiles de los sistemas de IA y agentes con privilegios excesivos. Al final de cuentas, la IA se está integrando plenamente en todas nuestras aplicaciones, datos y procesos del negocio.
Para mitigar los riesgos de seguridad de la IA, se requiere un abordaje unificado y automatizado para recopilar datos de seguridad de la IA ricos en contexto, y correlacionarlos y analizarlos junto con otros datos de exposición, como un bucket de S3 expuesto públicamente, una computadora portátil vulnerable o una cuenta huérfana con privilegios de administrador. En Tenable, llamamos a este abordaje gestión de exposición y vemos que el sector lo está adoptando rápidamente. La gestión de exposición le permite ver de forma proactiva cómo las deficiencias de seguridad en todo su entorno se combinan para crear exposición: rutas de ataque de alto riesgo que conducen a los sistemas y datos más confidenciales de su organización.
La gestión de exposición también hace aflorar los riesgos con contexto preciso —incluyendo el motor de IA, el usuario y la sesión específicos— para facilitar gestión de problemas de alta fidelidad y la respuesta rápida. Se trata de comprender cómo se unen las combinaciones tóxicas de riesgo para crear exposición empresarial. Un error de configuración de criticidad medium (media) en Amazon Bedrock podría estar relacionado con un LLM sin protección que proporcione a los agentes acceso a derechos excesivos. La gestión de exposición requiere esta comprensión completa de todo el entorno y la superficie de ataque.
Garantizar el futuro de la innovación en IA
La rápida integración de la IA a nivel empresarial ha creado una superficie de ataque compleja e interconectada que los controles de seguridad tradicionales simplemente no están preparados para manejar. Para cerrar la brecha de exposición de la IA, los responsables de seguridad deben pasar de un abordaje reactivo y centrado en las herramientas a una estrategia proactiva y unificada.
Mediante la implementación de este marco de cinco pasos, puede crear una postura de seguridad resistente que evolucione a la par de la tecnología de IA. En última instancia, la gestión de exposición eficaz no consiste en ralentizar la innovación, sino en proporcionar las protecciones necesarias para garantizar que su organización pueda adoptar el poder de la IA con seguridad y confianza.
Más información
- Cloud
- Exposure Management
Tenable One
Solicitar demostración
La plataforma de gestión de exposición impulsada por IA líder en el mundo.
Gracias
Gracias por su interés en Tenable One.
Un representante se pondrá en contacto con usted en breve.
Form ID: 7469
Form Name: one-eval
Form Class: c-form form-panel__global-form c-form--mkto js-mkto-no-css js-form-hanging-label c-form--hide-comments
Form Wrapper ID: one-eval-form-wrapper
Confirmation Class: one-eval-confirmform-modal
Simulate Success