Cómo diseñar para la confianza en la era de los agentes de IA

La inteligencia artificial está pasando de ser herramientas estáticas a agentes de IA autónomos, lo que plantea toda una serie de preguntas relacionadas con cómo pensamos sobre la confianza. Image: Getty Images/iStockphoto
- La IA está pasando de herramientas estáticas a agentes autónomos que requieren nuevos marcos de rendición de cuentas.
- La confianza duradera depende de sistemas diseñados para la resonancia cognitiva en lugar de construidos mediante la persuasión emocional.
- Los líderes deben implementar una arquitectura de confianza en capas que priorice un razonamiento legible y una agencia acotada del sistema.
La IA agéntica no está llegando con estruendo. Está llegando en silencio. Sistemas que antes esperaban instrucciones están empezando a actuar de manera autónoma — iniciando tareas, tomando decisiones, adaptándose a medida que avanzan.
Y aunque este cambio ya está en marcha, la forma en que hablamos sobre la gobernanza de la IA todavía parece anclada en el pasado. Nuestros marcos éticos, legales y organizacionales no fueron diseñados para dar cuenta de agentes no humanos. Pero los sistemas agénticos están cambiando esa ecuación y plantean preguntas urgentes sobre la rendición de cuentas cuando las cosas salen mal.
De herramientas a interlocutores
La mayoría de las discusiones sobre la gobernanza de la IA todavía giran en torno al cumplimiento normativo, el riesgo y la prevención del daño. Estas cosas importan. Siempre lo harán. Pero fueron concebidas para un mundo en el que la IA era en gran medida estática.
A medida que los agentes de IA pasan de herramientas a interlocutores, el núcleo se vuelve conductual: ¿cómo nos aseguramos de que los agentes de IA puedan ser dignos de confianza? Algunos países están intentando responder a esto ofreciendo marcos regulatorios para la IA agéntica a gran escala.
En este nuevo paradigma, la confianza se convierte en una decisión central de diseño. Una que debe tomarse deliberadamente, mediante colaboración global, no construirse a través de la persuasión o la opacidad. La confianza que se construye mediante este reflejo emocional será frágil. En el momento puede persuadirnos, pero no resistirá un escrutinio real.
Cómo construimos confianza
En cambio, la confianza que se construye a través de la resonancia cognitiva, cuando los sistemas se comportan de maneras que los humanos pueden entender intuitivamente, anticipar y evaluar críticamente, es duradera y perdurable.
La resonancia cognitiva significa que los límites de la IA son visibles.
El razonamiento, los límites y las intenciones del agente permanecen legibles. Esto importa porque los agentes de IA moldean cada vez más decisiones, creencias y estados emocionales. Cuando los usuarios no pueden entender por qué un agente responde como lo hace, o si está optimizando en función de sus intereses, la confianza se convierte en dependencia. Aquí es donde la conversación debe avanzar. Prevenir el daño es esencial, pero no es lo mismo que moldear el impacto. Y en la era de la autonomía, la responsabilidad no puede definirse solo por lo que no sale mal. También debe tener en cuenta los futuros que estamos creando activamente.
Ganar, no fabricar, confianza
Desde una perspectiva de diseño, eso significa garantizar que la confianza se gane en lugar de fabricarse. Para ello, se requieren decisiones de diseño tanto estructurales como psicológicas.
Las decisiones de diseño estructural se relacionan con cómo está construido el sistema. Un diseño significativo implica una “arquitectura de confianza” en capas para la autonomía, que incluye:
- Trayectorias de razonamiento legibles: El agente debe poder explicar cómo y por qué llegó a un resultado, con un nivel de detalle adecuado. No una divulgación técnica completa, sino una trazabilidad significativa.
- Agencia acotada: Debe haber límites claros sobre lo que el agente puede hacer, decidir o recomendar. Sin escaladas silenciosas de autonomía.
- Transparencia de objetivos: Los objetivos del agente deben ser explícitos. Los usuarios deben saber si está optimizando la precisión, la seguridad, la eficiencia, la interacción o los resultados comerciales.
- Impugnabilidad y anulación: Los humanos deben poder cuestionar, corregir o desconectarse del agente con facilidad. Una salida sin fricción es un requisito para la confianza.
- Gobernanza por diseño: Los mecanismos de registro, auditabilidad y supervisión deben estar incorporados desde el inicio, no añadidos posteriormente.
Antes de que la autonomía se escale, existe una oportunidad para desacelerar y observar. ¿Cómo se comporta un agente cuando aprende en entornos abiertos? ¿Qué patrones empieza a favorecer? Y, tan importante como eso, ¿cómo responden los humanos? ¿Delegan más? ¿Intervienen menos? ¿Confían más rápido de lo que deberían?
Tomarse el tiempo para explorar cómo podrían desarrollarse estos cambios no es un lujo. Es la forma en que las organizaciones evitan avanzar sin darse cuenta hacia comportamientos que nunca pretendieron normalizar. Estos momentos no son casos aislados, sino señales tempranas de los futuros que estamos moldeando activamente.
La confianza no debe verse como una barrera para la adopción, sino como una base para mejores resultados: una manera de alinear los sistemas de IA con los comportamientos, juicios y normas que queremos reforzar.
Una arquitectura de confianza en capas
Una forma de plantearlo es como una “arquitectura de confianza” en capas para la autonomía.
Para confiar en lo que hace un sistema de IA, necesitamos entender qué sabe, qué se le permite hacer y qué hizo efectivamente. Eso implica comenzar con datos bien gobernados y trazables; añadir reglas claras, legibles por sistema, que reflejen valores y límites; y garantizar registros de decisión transparentes que permitan cuestionar las acciones y aprender de ellas.
Este tipo de estructura no ralentiza la autonomía. La hace más segura de escalar.
Pero la gobernanza no es solo estructural. También es emocional. Las personas necesitan sentir que todavía tienen agencia. Necesitan entender cuándo la IA está actuando, por qué y cómo intervenir. Los sistemas que son técnicamente conformes pero experiencialmente opacos erosionan rápidamente la confianza.
Para ello, las decisiones de diseño claras son esenciales, e incluyen:
- Afectividad no engañosa: El agente debe evitar señales antropomórficas que sugieran empatía, cuidado o autoridad más allá de la capacidad real del sistema. El tono emocional no debe implicar comprensión moral.
- Humildad epistémica: El agente debe señalar la incertidumbre, las limitaciones y los niveles de confianza. Decir “no lo sé” es una característica que construye confianza.
- Sin captura emocional: El agente no debe reforzar creencias de manera acrítica, reflejar emociones para profundizar el apego ni optimizar la dependencia.
- Consistencia por encima de la persuasión: Un comportamiento predecible y basado en principios construye confianza de manera más efectiva que la persuasión adaptativa.
- Respeto por la autonomía del usuario: El agente debe apoyar la reflexión y la elección, no orientar decisiones de manera encubierta. Por eso los líderes necesitan hacerse un tipo diferente de pregunta. No solo: “¿Es nuestra IA responsable?”, sino: “¿Qué comportamientos normalizará este sistema?” “¿Qué recompensará?” “¿Qué desalentará silenciosamente?” y “¿Qué tipos de juicio moldeará con el tiempo?”
Los agentes de IA cognitivamente resonantes tratan a los usuarios como sujetos que razonan, no como objetivos conductuales. La confianza surge cuando los sistemas son comprensibles, acotados y responsables. A largo plazo, esto no es solo un imperativo ético, sino un requisito previo para la adopción sostenible de agentes de IA a gran escala.
La verdadera prueba de una autonomía responsable no serán los riesgos que evitamos, sino los futuros que deliberadamente trajimos a la existencia. Así que la pregunta que vale la pena plantearse ahora es simple pero difícil: ¿qué tipo de mundo está ayudando a crear nuestra IA y estamos preparados para respaldarlo?
No te pierdas ninguna actualización sobre este tema
Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.
Licencia y republicación
Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.
Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.
Mantente al día:
Digital Identity
La Agenda Semanal
Una actualización semanal de los temas más importantes de la agenda global
