Agente de IA empresarial, el área ciega de seguridad detrás de la productividad... la brecha de gobernanza se amplía

En el contexto de que las empresas aceleran la incorporación de inteligencia artificial (IA), los “agentes autónomos” que mejoran la eficiencia laboral también se convierten en nuevas vulnerabilidades de seguridad. Es especialmente importante destacar que muchas empresas, aunque han desplegado agentes de IA en sus sistemas internos, no han establecido sistemas de confianza y gobernanza adecuados para gestionarlos, lo cual se señala como un riesgo central.

El CEO de KnowBe4, Brian Palma, afirmó en el evento KB4-CON 2026: “El problema fundamental en el campo de la seguridad actualmente es la brecha entre la velocidad de incorporación y la construcción de sistemas de gobernanza.” Él enfatizó que las empresas deben primero “identificar” y “comprender” los agentes de IA que operan en sus sistemas. Explicó que la actitud hacia los agentes de IA debe adoptar el mismo enfoque que la industria de seguridad ha tenido con respecto a los empleados humanos en el pasado. Esto significa considerarlos como activos no completamente entrenados, entender primero su comportamiento y luego protegerlos.

Palma compara a los agentes de IA con estudiantes de primaria. Explicó que no pueden distinguir instrucciones maliciosas y son susceptibles a ser inducidos por comandos erróneos o código malicioso. Él afirmó: “La clave para construir confianza radica en la ‘transparencia’.” Es necesario entender claramente qué agentes existen, a qué sistemas están conectados y qué recursos pueden acceder.

De “persona” a “agente de IA”… Ampliación del alcance de la gestión de seguridad

En respuesta a este cambio, KnowBe4 está expandiendo su plataforma de gestión de riesgos humanos existente para abarcar la seguridad de los agentes de IA. La herramienta AIDA de la compañía, que automatiza y personaliza la capacitación en conciencia de seguridad para empleados, ahora cuenta con un nuevo “Gestor de Riesgos de Agentes” enfocado en gestionar en inventario los agentes de IA que operan en el entorno empresarial, identificando sus rutas de conexión y permisos de acceso, y estableciendo políticas y mecanismos de restricción correspondientes.

Según Palma, esta herramienta primero realiza un inventario de los agentes de IA en la empresa. Luego, rastrea qué procesos utilizan cada uno y a qué sistemas están conectados, como sistemas de correo o finanzas. El paso final es configurar “barandillas” que puedan distinguir entre lo que un agente “puede hacer” y lo que “no debe hacer”.

Esto indica que las estrategias de seguridad empresarial están reestructurándose en torno a una “estructura de doble amenaza”. Porque un mismo agente de IA puede, por un lado, aumentar la productividad, y por otro, convertirse en un canal explotado por atacantes. En última instancia, las empresas enfrentan la necesidad de diseñar simultáneamente estrategias de defensa y de aprovechamiento.

Amenazas de IA cada vez más avanzadas… “En el próximo año, aumentarán los incidentes provocados por agentes”

KnowBe4 afirma que su modelo de IA se basa en datos de comportamiento acumulados durante 15 años de 70,000 organizaciones y más de 100 millones de usuarios. Palma señaló que esto es lo que diferencia a la compañía de sus competidores. Según el informe “Estado de Riesgos Humanos 2025” publicado por la empresa, el 45% de los líderes en ciberseguridad consideran que la “amenaza impulsada por IA en constante evolución” es su mayor desafío.

Añadió que en la plataforma AIDA, en comparación con los métodos manuales, la puntuación de riesgo personal se redujo en aproximadamente 4 puntos porcentuales. Esto indica que la capacitación de seguridad personalizada mediante IA ha tenido un efecto positivo en la mejora del comportamiento real de los usuarios.

Además, KnowBe4 está ampliando su soporte desde Microsoft Copilot hacia Gemini, Claude y ChatGPT para afrontar un entorno de “múltiples LLM”. Consideran que, dado que las empresas no dependerán únicamente de un modelo de lenguaje grande específico, la gestión de riesgos de agentes de IA también debe poder manejar múltiples modelos simultáneamente.

Palma advierte que en el próximo año, los casos en los que agentes de IA provoquen incidentes de seguridad empresarial como vulnerabilidades directas podrían aumentar significativamente. Él dijo: “Los agentes ampliarán la superficie de ataque. La implementación en sí misma es muy importante y efectiva, pero también conlleva riesgos enormes.”

El foco en la seguridad de IA empresarial ya ha trascendido la simple cuestión de “si se introduce” y se ha convertido en “quién usa qué tipo de agente de IA y a qué sistemas están conectados”. Algunos opinan que, para que una estrategia de IA priorice la productividad y la innovación tenga éxito, primero debe establecerse un sistema de confianza y control, una opinión que cada vez cuenta con más respaldo.

Notas sobre TP AI Este resumen se basa en el modelo de lenguaje TokenPost.ai. El contenido principal del texto puede estar omitido o no coincidir con los hechos.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Fijado