Frank Schwaak, Field CTO EMEA Rubrik
Frank Schwaak, director técnico de campo para EMEA Rubrik, explica cómo los CISO pueden mantener el control: con cinco recomendaciones concretas, que van desde el «Secure by Design» hasta las capacidades forenses basadas en la inteligencia artificial, pasando por la preparación para la recuperación. Su conclusión: quien acepte la innovación y, al mismo tiempo, esté preparado para el fracaso, saldrá fortalecido de la era de los agentes.

Reservan viajes, analizan cláusulas contractuales, monitorean redes y escalan tickets de soporte, todo ello sin supervisión humana: los agentes de inteligencia artificial se han instalado firmemente en las empresas. Según un estudio de 2025 de Rubrik Zero Labs, en el que participaron 1.625 responsables de decisiones en seguridad informática, el 84 % de las organizaciones ya ha integrado agentes de IA de forma total o parcial en su infraestructura de identidad. Un 14 % adicional planea hacerlo en un futuro próximo. La penetración es casi total y, para muchas organizaciones, el punto de no retorno ya quedó atrás.

Pero la autonomía tiene un precio. Cuanto más intervienen los agentes de IA directamente en los procesos críticos del negocio, mayor es el potencial de daño cuando algo sale mal. Y algo saldrá mal: no es una posibilidad, sino una certeza. La consultora Gartner pronostica que, para finales de 2027, más del 40 % de todos los proyectos de IA agéntica serán cancelados porque los riesgos superan la promesa inicial o los costes se descontrolan. Para los CISO, esto significa: quien no actúe de forma proactiva ahora perderá el control, o quizás ya lo haya perdido.

La buena noticia: rectificar es posible. La clave no está en frenar a los agentes de IA, sino en integrarlos correctamente desde el principio, con límites claros, monitoreo continuo y una arquitectura de seguridad capaz de absorber errores antes de que escalen. Cinco recomendaciones para lograrlo:

1. Incorporar la seguridad y la capacidad de recuperación desde el primer día

Quien trate a los agentes de IA como un problema de seguridad posterior ya ha perdido la batalla. El enfoque correcto sigue el principio de «Seguridad desde el Diseño» (Secure by Design): la ciberseguridad no es un parche que se aplica al final, sino una parte integral de la arquitectura desde la primera línea de código. Cada acción de un agente debe ser explicable y, en la medida de lo posible, reversible. La resiliencia no es una función que se añade después; debe contemplarse desde el primer día.

En la práctica, esto significa que los equipos de desarrollo y los responsables de seguridad deben colaborar desde el inicio. El modelado de amenazas pertenece a la fase de diseño temprana, no al último sprint antes del lanzamiento. Solo así se pueden minimizar las superficies de ataque y excluir estructuralmente los comportamientos no deseados.

2. Prepararse para los fallos: la recuperación como obligación, no como opción

Los agentes de IA cometerán errores. No es una cuestión de si ocurrirá, sino de cuándo. Y cuando un agente «se descontrola» —ejecutando acciones no deseadas o dañinas—, las organizaciones deben ser capaces de entender lo sucedido en el menor tiempo posible y restaurar el sistema a su estado anterior. Los archivos de registro tradicionales no son suficientes para esto. Se requieren capacidades reales de recuperación de datos: la posibilidad de revertir el estado del sistema a un momento anterior al error y restablecer la continuidad del negocio.

Las organizaciones que aún no cuentan con esta capacidad deberían desarrollarla de forma prioritaria, idealmente antes de que ocurra el primer incidente grave.

3. Diseñar para la tolerancia a fallos múltiples

Los agentes de IA rara vez operan de forma aislada. Trabajan en conjunto, intercambian datos y delegan tareas entre sí. Esto los hace potentes, pero también vulnerables a fallos en cascada. Un único agente mal calibrado puede desencadenar rápidamente errores secundarios en otros agentes, que a su vez afectan a sistemas críticos. Por eso, los sistemas deben diseñarse de forma que un error individual no conduzca de inmediato a una interrupción operativa generalizada.

La solución radica en el aislamiento sistemático de las acciones de los agentes: siempre que sea posible, los agentes deben operar en entornos sandboxed con interfaces definidas y rutas de escalada claras. Esto impide que un error localizado se convierta en un incidente a escala empresarial.

4. Tratar los permisos de los agentes como acceso privilegiado

Muchas organizaciones cometen el error de dotar a los agentes de IA con amplios derechos de acceso, partiendo de que más acceso equivale a mayor utilidad. Lo contrario es cierto. Los agentes de IA no se detienen automáticamente cuando algo sale mal: continúan ejecutando acciones a velocidad sobrehumana hasta que alguien interviene. Las consecuencias pueden ser graves: desde interrupciones técnicas y violaciones de cumplimiento hasta la eliminación accidental de bases de datos de producción enteras, un escenario que ya se ha documentado en la práctica.

Por tanto, el principio de Zero Trust se aplica también a los agentes: acceso mínimo, control máximo. Cada agente solo debe tener los permisos estrictamente necesarios para su tarea concreta, nada más. Los controles de acceso estrictos son especialmente críticos cuando los agentes interactúan con datos de clientes o procesos críticos del negocio.

5. Garantizar transparencia total y auditabilidad

Según Rubrik, menos del diez por ciento de las organizaciones disponen de capacidades forenses de IA, es decir, la posibilidad de rastrear y analizar de forma exhaustiva el comportamiento de los agentes. Esta es una brecha alarmante. Las organizaciones que no pueden ver lo que hace un agente tampoco pueden intervenir cuando lo hace de forma incorrecta.

Lo que se necesita es transparencia completa: desde el prompt inicial hasta el resultado final, con cada paso intermedio documentado y auditable. Esto requiere infraestructuras de transparencia de datos robustas que vayan mucho más allá de los archivos de registro tradicionales. Solo quien pueda rastrear cada paso estará también en condiciones de intervenir con precisión, revertir acciones erróneas y aprender de los incidentes.

La integración de agentes de IA en los procesos empresariales ya no es una cuestión de si ocurrirá, sino de cómo. Los CISO que actúen de forma proactiva ahora, anclen la seguridad de manera estructural y desarrollen la recuperación como competencia central, podrán aprovechar las ventajas de la IA agéntica sin perder el control. Los demás están jugando contra el tiempo. Y el tiempo se acaba.

Por Jakob Jung

El Dr. Jakob Jung es redactor jefe de Security Storage y Channel Germany. Lleva más de 20 años trabajando en el periodismo especializado en TI. A lo largo de su carrera ha colaborado con Computer Reseller News, Heise Resale, Informationweek, Techtarget (almacenamiento y centros de datos) y ChannelBiz. Además, colabora como freelance con numerosas publicaciones del sector de las TI, entre las que se incluyen Computerwoche, Channelpartner, IT-Business, Storage-Insider y ZDnet. Sus temas principales son el canal, el almacenamiento, la seguridad, los centros de datos, los sistemas ERP y CRM. Contacto – Contacto por correo electrónico: jakob.jung@security-storage-und-channel-germany.de

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Aviso sobre Cookies en WordPress por Real Cookie Banner