Desde el lanzamiento de ChatGPT en otoño de 2022, el potencial de la inteligencia artificial (IA), al igual que el auge de Internet, ha cautivado al mundo.
En 2023, se trataba de experimentación. En 2024, organizaciones de todos los sectores empezaron a aplicar la IA para impulsar la eficiencia, especialmente respondiendo preguntas y escribiendo código, correos electrónicos y contenidos. 2025 es el año en el que la IA empezará a realizar tareas y a tomar decisiones. Creo que esto diferenciará realmente a los líderes de los rezagados y cambiará las industrias para siempre.
A medida que la IA deja de ser una palabra de moda para convertirse en una herramienta práctica y cotidiana, los directores ejecutivos corren contrarreloj para integrarla en sus flujos de trabajo y productos. Un avance que está ganando especial tracción es la IA agéntica. A medida que mejoran los modelos básicos de IA, los agentes de IA se están convirtiendo en la frontera de la mejora y la investigación en IA. Pueden aumentar la productividad, transformar sectores y hacer posible un futuro en el que la colaboración entre humanos e IA sea esencial para el éxito.
Sin embargo, aunque los directores ejecutivos están ansiosos por aprovechar las ventajas de adoptar agentes de IA y otros avances de la misma, deben comprender los contras. Según Gartner, los agentes crean importantes riesgos de ciberseguridad. Para 2028, el 25% de las infracciones cibernéticas estarán relacionadas con el uso indebido de agentes de IA. Esto incluye vulnerabilidades de la cadena de suministro, alucinaciones de IA, acceso no autorizado a datos, fugas de información de identificación personal (PII) y más.
¿Por qué? Para que los agentes de IA funcionen eficazmente, necesitan amplios permisos de lectura y escritura en varios sistemas y recursos de la empresa. Sin embargo, conceder a los agentes de IA acceso a un conjunto diverso de puntos finales crea una nueva superficie de ataque, previamente insegura, que los ciberdelincuentes pueden aprovechar. Hoy en día, las organizaciones están adoptando gradualmente soluciones de seguridad que supervisan y alertan contra las identidades no humanas (NHI, por sus siglas en inglés) comprometidas, incluidas las identidades digitales utilizadas por máquinas, aplicaciones y scripts automatizados. Esta inversión es muy importante, pero, por desgracia, los agentes de IA no funcionan como los otros tipos de NHI para los que se han creado estas soluciones.
Hasta ahora, solía ser sencillo entender cómo se comportaban las NHI porque su actividad de acceso era repetitiva y predecible. Este no es el caso de los agentes de IA. La previsibilidad desaparece porque las salidas de los grandes modelos de lenguaje (LLM, por sus siglas en inglés) son no deterministas por naturaleza. Al igual que los humanos, piensan, aprenden y actúan de formas que no siempre son previsibles. La supervisión continua de extremo a extremo en toda la red es importante para que una organización pueda hacer un seguimiento de lo que los agentes de IA están haciendo realmente y bloquear la actividad no deseada. Esto también debe incluir a los usuarios humanos que puedan estar utilizando el agente de IA.
Tres consejos para equilibrar la innovación en IA y el riesgo cibernético
Entonces, ¿cómo pueden las organizaciones navegar por este delicado equilibrio? ¿Cómo pueden impulsar la innovación y adoptar agentes de IA para adelantarse a sus competidores sin exponerse a riesgos significativos?
He aquí tres consejos clave que los directivos deben tener en cuenta:
1/ Mantener una estrecha colaboración con el CISO.
A medida que las organizaciones se apresuran a adoptar la IA y mantenerse por delante de sus competidores, a menudo recurren al director de seguridad de la información (CISO) para garantizar que la implementación se realiza teniendo en cuenta la seguridad. Sin embargo, los agentes de la IA son tan nuevos, complejos y evolucionan tan rápidamente que los CISO no siempre están totalmente preparados para gestionar los riesgos asociados.
A pesar de ello, se enfrentan a una inmensa presión por parte de sus empresas para que se implementen rápidamente. Esto deja a los CISO en una posición difícil. Deben adoptar agentes de IA rápidamente mientras sortean importantes problemas de seguridad, a menudo sin las salvaguardias adecuadas y sin tiempo suficiente.
Para evitar consecuencias graves, como el uso indebido o el manejo incorrecto de datos confidenciales, es imperativo que la alta dirección se alinee estrechamente con el CISO para comprender mejor los riesgos a los que se enfrentan y alinearse en una estrategia que garantice que la empresa continúe innovando y avanzando sin sacrificar la seguridad. De lo contrario, una brecha podría poner en riesgo a toda la empresa y su reputación.
2/ Limitar el acceso y la exposición de los agentes de IA a datos sensibles
Una laguna importante en la seguridad de la IA es la falta de atención a la protección de los propios agentes de IA: cómo acceden a los sistemas, qué identidades asumen y qué hacen esas identidades. La nueva especificación del protocolo MCP, que regula la capacidad del agente de IA para interactuar con servicios externos, aborda la autorización.
Sin embargo, sigue habiendo importantes lagunas que deben abordarse a medida que madura rápidamente. La mayoría de los debates en torno a la seguridad de la IA se centran en la protección de los datos, garantizando que no se manipulen ni se utilicen para entrenar modelos públicos, pero no abordan la cuestión más amplia de asegurar el acceso de los agentes de IA a sistemas críticos. Estos agentes interactúan con varias identidades y sistemas, lo que suscita preocupación sobre si podrían acceder inadvertida o maliciosamente a datos confidenciales o realizar acciones no autorizadas.
Para evitarlo, las organizaciones deben garantizar que los agentes de IA sólo tengan acceso a lo que necesitan y que no se les conceda un amplio acceso privilegiado. Además, dado que los agentes de IA funcionan de forma muy similar al cerebro humano, limitar el acceso puede ayudar a las organizaciones a garantizar que los agentes de IA no puedan aprender y entrenarse en datos de propiedad, como datos de clientes o propiedad intelectual fuera del alcance.
Esto también es importante para garantizar la protección de la organización desde el punto de vista legal. No querrás abrir la puerta a una posible batalla legal después de compartir inadvertidamente datos confidenciales de clientes externamente o conceder a tus competidores acceso a su salsa secreta.
3/ Utiliza agentes de IA para la seguridad
Si bien los agentes de IA plantean riesgos de seguridad significativos, también tienen el potencial de mejorar la postura de seguridad de una organización. Los directivos deben alentar a los CISO a aprovechar los agentes de IA de forma proactiva para identificar y remediar los riesgos y vulnerabilidades mientras se defiende contra la IA adversaria en tiempo real.
Al igual que un policía de tráfico dirige el flujo de vehículos para garantizar un entorno fluido y seguro, los agentes de IA tienen el potencial de supervisar y coordinar las acciones de otros agentes y herramientas de seguridad para lograr una mejor seguridad.
Reflexiones finales
Mi intención aquí no es desanimar o asustar a las organizaciones para que no avancen. Creo firmemente en el potencial de la IA. Pero, al igual que con cualquier otra tecnología, es imperativo que los líderes comprendan los retos y riesgos a los que se enfrentan.
Al comprender claramente la naturaleza de los agentes de IA, sus riesgos potenciales y las medidas para mitigarlos, los directivos pueden prepararse mejor para este cambio masivo y garantizar la salud de la empresa a largo plazo.