Ciberseguridad

Los agentes de IA y la ciberamenaza de la que nadie habla (y cómo abordarla)

Primer plano de un joven programador de computadoras mirando el código fuente; agentes de IA.

Muchas empresas están pasando rápidamente de la fase de prototipo a la de producción de agentes de IA en diversas funciones. Image: Getty Images/PeopleImages

Eric Kelleher
President & Chief Operating Officer, Okta, Okta
Este artículo es parte de: Centro de Ciberseguridad
  • Las empresas están utilizando agentes de inteligencia artificial (IA) en diversos sectores, desde ventas e investigación hasta creación de contenidos y finanzas.
  • Estos sistemas pueden tomar decisiones y planificar de forma autónoma, pero también exponen a las organizaciones a nuevas amenazas de ciberseguridad.
  • Independientemente de si parten de cero o utilizan herramientas ya existentes, las organizaciones deben garantizar la seguridad, la interoperabilidad y la visibilidad de sus agentes de IA.

La fuerza laboral moderna está atravesando una rápida transformación. Las organizaciones están utilizando agentes de inteligencia artificial (IA) en cada vez más áreas de negocio, desde el desarrollo hasta las ventas y el servicio al cliente, pasando por la investigación, la creación de contenidos y las finanzas.

Estos sistemas autónomos de IA pueden tomar decisiones y planificar tareas complejas con una supervisión mínima por parte de humanos. Y las empresas están pasando rápidamente de la fase de prototipo a la de producción de estos agentes de IA.

Como resultado de esta difusión acelerada, se espera que el volumen de identidades no humanas y de agentes supere los 45 000 millones a finales de este año. Eso es más de 12 veces el número aproximado de seres humanos que componen la fuerza laboral mundial actual.

A pesar de este crecimiento explosivo, solo el 10% de los participantes en una encuesta de Okta realizada a 260 ejecutivos afirma tener una estrategia bien desarrollada para gestionar sus identidades no humanas y de agentes de IA. Esto plantea un importante problema de seguridad, teniendo en cuenta que el 80% de las violaciones implican el uso de identidades comprometidas o robadas. Y la IA generativa agrava esta amenaza al permitir que los actores maliciosos lleven a cabo ataques de phishing y de ingeniería social aún más sofisticados.

¿Has leído?

A medida que las empresas aceleran el despliegue de sistemas de IA, es fundamental que establezcan controles de identidad y prioricen la seguridad desde el principio. Esto ayudará a las organizaciones a evitar riesgos graves relacionados con agentes de IA con permisos excesivos y potencialmente inseguros.

Para protegerse contra la velocidad y la complejidad de la IA, las empresas necesitan un nuevo enfoque: una estructura de seguridad de identidades. Esta nueva categoría protege todas las identidades (humanas, no humanas y de agentes) en todos los casos de uso, aplicaciones y recursos de identidades. Este enfoque es clave para proteger a las empresas en un futuro impulsado por IA.

Cómo se ataca a los agentes de IA

Los ciberdelincuentes han sabido aprovechar rápidamente la IA para llevar a cabo actividades maliciosas, agravando las amenazas existentes y creando otras más sofisticadas. La IA generativa ya está impulsando el malware, los deepfakes, la clonación de voz y los ataques de phishing.

Los agentes de IA añaden un nuevo nivel de complejidad al panorama de la seguridad empresarial. Entrenados con datos de gran valor y potencialmente sensibles de la empresa, estos agentes pueden convertirse en nuevos vectores de ataque si no están correctamente diseñados, implementados, gestionados y protegidos.

Las organizaciones tienen incentivos para conceder a los agentes acceso a más datos y recursos para que sean más eficaces, pero un mayor acceso conlleva un mayor riesgo para el negocio. Los actores maliciosos podrían manipular el comportamiento del agente de IA mediante un ataque de inyección rápida, por ejemplo, en el que tratan de inducir al agente a compartir información privilegiada.

Cuanto más acceso tiene un agente de IA, más fácil es para los actores maliciosos infiltrarse en una empresa. Esto puede dar lugar a filtraciones de datos, acciones no autorizadas o un comprometimiento total del sistema.

El problema de la identidad de los agentes de IA

Dado que los agentes de IA necesitan acceder a datos y flujos de trabajo específicos del usuario, cada uno de ellos requiere una identidad única. Sin un control riguroso, estas identidades pueden tener demasiado acceso y autonomía.

Por muy 'humanos' que puedan parecer estos agentes, gestionar su identidad es fundamentalmente diferente a gestionar la identidad de un usuario humano. Las identidades no humanas y las identidades de los agentes tienen varias particularidades.

Hoy en día, cuando un nuevo empleado se incorpora a una empresa, hay un punto de partida claro para determinar cuándo ese usuario necesita acceder a las aplicaciones y los datos de la empresa. Puede utilizar contraseñas, datos biométricos o autenticación multifactorial (MFA) para iniciar sesión en una cuenta y validar su identidad. Pero los agentes de IA no pueden autenticarse como los empleados humanos. En su lugar, recurren a elementos como tokens de interfaz de programación de aplicaciones (API) o certificados criptográficos para validarse.

El ciclo de vida de un agente de IA también es distinto. Los agentes tienen una vida útil dinámica, requieren permisos extremadamente específicos durante períodos de tiempo limitados y, a menudo, necesitan acceder a información confidencial. Las organizaciones deben estar preparadas para proporcionar y retirar acceso a los agentes con rapidez.

Además, puede ser más difícil rastrear y registrar a los agentes que a sus homólogos humanos, lo que complica las auditorías y los trabajos de reparación tras una brecha de seguridad. Todo ello hace que sea fundamental que los equipos de seguridad supervisen cuidadosamente los agentes de IA y sus permisos.

Prepararse para un futuro con IA autónoma

La mayoría de las organizaciones aún se encuentran en las primeras etapas de su transición hacia la IA autónoma. Esto supone una oportunidad para establecer protocolos de identidad y seguridad adecuados desde el principio. Para las organizaciones que implementan agentes de terceros, no hay mejor momento que durante la adopción para sentar las bases de la seguridad de las credenciales. Al crear agentes desde cero, se debe priorizar la identidad durante el desarrollo.

Existen varias consideraciones clave en materia de identidad para los agentes de IA autónomos, tanto si una organización parte de cero como si trabaja con herramientas preconstruidas:

1. Seguridad

La naturaleza autónoma de los agentes de IA significa que pueden encadenar permisos para acceder a recursos a los que no deberían. Los equipos de seguridad necesitan establecer políticas de acceso granulares para garantizar que los agentes no compartan información confidencial. Los agentes de IA solo deben tener acceso y autorización a los recursos durante determinados periodos de tiempo.

2. Interoperabilidad

Las organizaciones deben asegurarse de que los agentes de IA cumplan con los estándares de interoperabilidad. Los agentes son más potentes cuando pueden conectarse con otros agentes y sistemas de IA, pero los equipos no pueden sacrificar la seguridad en este proceso. Estándares como el Protocolo de Contexto de Modelo (MCP) proporcionan un marco para que los agentes se conecten de forma segura a herramientas y fuentes de datos externas.

3. Visibilidad

Sin una visión clara de las acciones y los patrones de acceso de estos agentes, se pueden pasar por alto comportamientos anómalos, lo que podría generar vulnerabilidades de seguridad. Para mitigar estos riesgos, las organizaciones necesitan disponer de capacidades completas de monitoreo y auditoría que les permitan realizar un seguimiento de la actividad de los agentes y mantener el control.

Loading...

Proteger el futuro de los

Las organizaciones aún están dando sus primeros pasos en el futuro de la IA autónoma. Y es importante recordar que crear e implementar un agente de IA es solo el primer paso en el recorrido hacia la seguridad.

A medida que el número de casos de uso siga aumentando, también lo harán las responsabilidades de los equipos de seguridad de las organizaciones. Se necesita un compromiso continuo con la visibilidad, la gobernanza y el control para garantizar que los agentes de IA funcionen de forma segura y según lo esperado.

Con una base sólida de seguridad de identidad, las organizaciones pueden empezar a ampliar de forma segura sus aplicaciones de agentes, permitir que más usuarios aprovechen los beneficios y explotar el potencial empresarial de las herramientas de IA.

No te pierdas ninguna actualización sobre este tema

Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.

Inscríbete de forma gratuita

Licencia y republicación

Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.

Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.

Mantente al día:

Ciberseguridad

Temas relacionados:
Ciberseguridad
Negocios
Tecnologías emergentes
Comparte:
La visión global
Explora y monitorea cómo Ciberseguridad afecta a las economías, las industrias y los problemas globales
World Economic Forum logo

La Agenda Semanal

Una actualización semanal de los temas más importantes de la agenda global

Suscríbete hoy

Más sobre Ciberseguridad
Ver todo

Fighting Cyber-Enabled Fraud: A Systemic Defence Approach

Incorporar la seguridad en la próxima generación de la computación permitirá expandir el ciberespacio

Quiénes somos

Participe en el Foro

Enlaces directos

Ediciones en otros idiomas

Política de privacidad y normas de uso

Sitemap

© 2025 Foro Económico Mundial