Estamos pasando de “asistentes de IA que responden” a agentes de IA que actúan. Las aplicaciones de los agentes programan, llaman a herramientas, invocan flujos de trabajo, colaboran con otros agentes y, a menudo, ejecutan código. Para las empresas, esta capacidad ampliada es también una superficie de ataque ampliada, y la confianza se convierte en un atributo empresarial y de ingeniería fundamental.
Cisco contribuye activamente al ecosistema de seguridad de la IA a través de herramientas de código abiertomarcos de seguridad y cooperación con Coalición para una IA segura (CoSAI), OWASPy otras asociaciones comerciales. A medida que las organizaciones pasan de la experimentación a la implementación a escala empresarial, el camino a seguir requiere comprender los riesgos y establecer pautas de seguridad prácticas y repetibles.
Esta discusión explora no solo las vulnerabilidades que amenazan las aplicaciones de agentes, sino también los marcos concretos y las mejores prácticas que las empresas pueden utilizar para construir ecosistemas de agentes de IA seguros y confiables a escala.
Amenazas de la IA en la era de la autonomía
Las aplicaciones tradicionales de IA producen principalmente contenido. Las aplicaciones de agentes entran en acción. Esa diferencia lo cambia todo para las empresas. Si un agente puede acceder a almacenes de datos, cambiar una configuración de producción, aprobar un paso del flujo de trabajo, crear una solicitud de extracción o activar CI/CD, entonces su modelo de seguridad cubre la integridad y la responsabilidad de la ejecución. La gestión de riesgos debe ir más allá de la mera precisión del modelo.
En los ecosistemas de agentes, la confianza se convierte en una propiedad de todo el sistema: identidad, permisos, interfaces de herramientas, memoria del agente, contención del tiempo de ejecución, protocolos entre agentes, monitoreo y respuesta a incidentes. Estas decisiones técnicas definen la posición de riesgo de la empresa.
El «ecosistema de agentes de IA» abarca muchas arquitecturas, que incluyen:
- Sistemas de flujo de trabajo de agente único que organizan herramientas empresariales
- Agentes de codificación que afectan la calidad, la seguridad y la velocidad de entrega del software.
- Sistemas multiagente (MAS) que coordinan capacidades especializadas
- Ecosistemas interoperables que abarcan proveedores, plataformas y socios
A medida que estos sistemas se vuelven más distribuidos e interconectados, los límites de confianza de la empresa se expanden en consecuencia.
Codificación segura de IA como disciplina empresarial con Project CodeGuard
Cisco anunció Proyecto CodeGuard como un marco de código abierto independiente del modelo diseñado para ayudar a las organizaciones a integrar la seguridad en el desarrollo de software asistido por IA. En lugar de depender del criterio de los desarrolladores individuales, CodeGuard permite a las empresas institucionalizar las expectativas de seguridad en todos los flujos de trabajo de codificación de IA, antes, durante y después de la generación del código.
El proyecto CodeGuard aborda inquietudes como la criptografía, la autenticación y la autorización, el riesgo de dependencia, el fortalecimiento de la nube y la infraestructura como código y la protección de datos.
Para las organizaciones que escalan el desarrollo asistido por IA, CodeGuard ofrece una manera de hacer que el «código seguro por defecto» sea un resultado predecible en lugar de una aspiración. Cisco también utiliza Project CodeGuard internamente para identificar y remediar vulnerabilidades en sistemas y productos, lo que demuestra cómo estas prácticas se pueden poner en práctica a escala.
Seguridad del protocolo de contexto modelo (MCP) y riesgo empresarial
MCP conecta aplicaciones y agentes de IA con herramientas y recursos empresariales. La seguridad de la cadena de suministro, la identidad, el control de acceso, la verificación de la integridad, el aislamiento de fallos y la gestión del ciclo de vida en las implementaciones de MCP son una prioridad para la mayoría de los directores de información de seguridad (CISO).
Cisco Escáner MCP es una herramienta de código abierto diseñada para ayudar a las organizaciones a obtener visibilidad de las integraciones de MCP y reducir el riesgo cuando los agentes de IA interactúan con herramientas y servicios externos. Al analizar y validar las conexiones MCP, MCP Scanner ayuda a las empresas a garantizar que los agentes de IA no expongan inadvertidamente datos confidenciales ni introduzcan vulnerabilidades de seguridad.
La cooperación industrial también es esencial. CoSAI ha publicado una guía para ayudar a las organizaciones a gestionar los riesgos de identidad, control de acceso, verificación de integridad y aislamiento en implementaciones de MCP. OWASP ha complementado este trabajo con una hoja de trucos que se centra en el uso seguro de servidores MCP de terceros y controla el descubrimiento y la verificación.
Establecer un control de confianza para la conexión del agente
Los controles de confianza de MCP procesables incluyen:
- Autenticación y autorización de servidores y clientes MCP con permisos estrictamente limitados.
- Tratar los resultados de las herramientas como poco confiables y aplicar la validación antes de que influyan en las decisiones.
- Uso de flujos de trabajo seguros de descubrimiento, procedencia y aprobación.
- Aislamiento de herramientas y operaciones de alto riesgo.
- Integre la auditabilidad en cada interacción con la herramienta
Estos controles ayudan a las empresas a pasar de experimentos ad hoc a operaciones de agentes de IA controladas y auditables.
La comunidad MCP también ha incluido recomendaciones para la autenticación segura utilizando OAuth 2.1, lo que refuerza la importancia del control de acceso e identidad basado en estándares a medida que los agentes de IA interactúan con recursos empresariales confidenciales.
OWASP Top 10 para aplicaciones de agentes como base de gestión
El OWASP Top 10 para aplicaciones de agentes proporciona una base práctica para la planificación de la seguridad organizacional. Enmarca la confianza en torno a una mínima agencia, un comportamiento auditable y fuertes controles en los límites de la identidad y las herramientas, principios estrechamente alineados con los modelos de gobierno corporativo.
Una forma sencilla para que los equipos de gestión apliquen esta lista es tratar cada categoría como un requisito de gestión. Si la organización no puede explicar claramente cómo previene, detecta y se recupera de estos riesgos, el ecosistema de agentes aún no está listo para la empresa.
AGNTCY: Activando la confianza a nivel del ecosistema
Para respaldar ecosistemas de agentes de IA listos para la empresa, las organizaciones necesitan descubrimiento, conectividad e interoperabilidad seguros. AGNTCY es un marco abierto, creado originalmente por Cisco, diseñado para brindar soporte a nivel de infraestructura para ecosistemas de agentes, incluido el descubrimiento, la conectividad y la colaboración interoperable.
Las preguntas clave sobre confianza que las empresas deberían plantearse sobre cualquier capa del ecosistema de agentes incluyen:
- ¿Cómo se descubren y verifican los agentes?
- ¿Cómo se establece criptográficamente la identidad del agente?
- ¿Las interacciones están autenticadas, impuestas por políticas y resistentes a la repetición?
- ¿Se pueden realizar un seguimiento de las acciones de un extremo a otro entre agentes y socios?
A medida que los sistemas multiagente se expanden más allá de las fronteras organizativas y de proveedores, estos problemas se vuelven fundamentales para la confianza y la responsabilidad empresarial.
MAESTRO: Hacer que la confianza sea mensurable a escala empresarial
El Guía de modelado de amenazas del sistema multiagente OWASP presenta MAESTRO (Entorno, seguridad, amenaza, riesgo y resultado de múltiples agentes) como una forma de analizar ecosistemas de agentes a través de capas arquitectónicas e identificar riesgos sistémicos.
Aplicado a nivel empresarial, MAESTRO ayuda a las organizaciones a:
- Modele ecosistemas de agentes en tiempo de ejecución, memoria, herramientas, infraestructura, identidad y observabilidad.
- Comprender cómo los errores pueden ocurrir entre capas
- Priorizar los controles según el impacto empresarial y el radio de explosión
- Validar supuestos de confianza a través de escenarios realistas de múltiples agentes
Creación de ecosistemas de agentes de IA en los que las empresas puedan confiar
La confianza en los ecosistemas de agentes de IA se logra mediante un diseño consciente y se verifica mediante operaciones continuas. Las organizaciones que triunfen en la nueva «Internet de los agentes» serán aquellas que puedan responder con certeza: qué agente actuó, con qué permisos, a través de qué sistemas, bajo qué políticas y cómo demostrarlo.
Al adoptar estos principios y aprovechar las herramientas y marcos analizados aquí, las empresas pueden crear ecosistemas de agentes de IA que no solo sean poderosos, sino también dignos de confianza a largo plazo.
Con Cumbre de IA de CiscoLos clientes y socios profundizarán en cómo construir sistemas de IA seguros, robustos y confiables diseñados para escala empresarial.
Únase a nosotros virtualmente el 3 de febrero para conocer cómo las organizaciones están preparando su infraestructura y sus bases de seguridad para una IA responsable.

