¿Usas IA? Así puedes preservar tu autonomía en una era de persuasión superhumana

La tecnología sigue yendo más rápido que nuestros actuales sistemas de gobernanza de la IA. Image: REUTERS/Aly Song
- Las tecnologías como la inteligencia artificial (IA) pueden utilizarse para ayudar a las personas a conectarse de manera más efectiva entre sí.
- Pero también hay muchas formas en que actores malintencionados pueden usar la IA para difundir desinformación y mala información.
- Los líderes globales necesitan comprender tanto el potencial de la tecnología como aprender a aprovecharlo para fomentar la confianza y la colaboración.
Imagina que estás dando un discurso ante una audiencia de líderes globales con interpretación simultánea. Solo que, en este caso, el intérprete no traduce a diferentes idiomas extranjeros. En cambio, traduce tu discurso a los distintos marcos morales de cada miembro de la audiencia.
A medida que propones una nueva iniciativa de paz o una nueva política corporativa, tu intérprete traduce ese argumento en mensajes diseñados específicamente para persuadir a cada persona. Además, está probando esos mensajes en tiempo real para ver qué enfoque hace que aumente su frecuencia cardíaca.
Así como los algoritmos prueban qué videos hacen que pases más tiempo mirando la pantalla, estos intérpretes de IA determinarían qué mensajes generan mayor compromiso. Y aunque este escenario es ficticio por ahora, podría ser posible en el futuro.
Entonces, la pregunta será: ¿quién controla al intérprete?
Tras asesorar a líderes globales sobre cómo comunicar con impacto e influencia durante más de 20 años —y haber utilizado IA en este proceso durante más de cinco— soy optimista respecto de que la tecnología puede ayudarnos a conectarnos de manera más efectiva entre nosotros. Sin embargo, también veo con claridad las oportunidades de uso indebido por parte de actores malintencionados.
Los líderes deben comprender tanto el potencial de esta tecnología como aprender a aprovecharlo para fomentar la confianza y la colaboración mediante una gobernanza efectiva.
Enseñar persuasión
Cuando enseño persuasión e influencia a estudiantes de posgrado en la Harvard Kennedy School, estudiamos marcos que han resistido el paso del tiempo, como los modos de persuasión de Aristóteles: la credibilidad (ethos), la argumentación (logos) y los llamados a la emoción (pathos) son poderosos resortes que podemos ajustar para conquistar los corazones y las mentes de nuestra audiencia.
Al enseñar estos marcos, advierto a mis estudiantes que nadie sabe qué hace que un argumento sea persuasivo para todas las personas, porque lo que alguien encuentra persuasivo depende de su contexto, creencias y experiencias. “Y menos mal que no lo sabemos”, les digo. “Porque esa persona tendría un poder que ningún ser humano debería tener”.
Pero ese poder ahora existe. Yo lo llamo “el algoritmo de Aristóteles”: la aplicación de principios persuasivos antiguos, ejecutados por la IA a escala sobrehumana. Durante 2.300 años, los modos de persuasión de Aristóteles estuvieron limitados por las capacidades humanas: un orador, un mensaje. La IA ha empezado a superar muchas de esas limitaciones, planteando cuestiones éticas profundas.
Cuando el algoritmo de Aristóteles opera a gran escala, cada individuo habita una realidad persuasiva distinta.
Las capacidades de la IA
La desinformación y la mala información son el principal riesgo global a corto plazo identificado por el Informe de Riesgos Globales 2025 del Foro Económico Mundial. La utilización de la IA generativa como arma es un factor clave detrás de este riesgo. Un estudio de 2024 sobre GPT-4 de OpenAI encontró que, cuando al modelo se le proporciona información de contexto sobre las personas, se vuelve un 82 % más persuasivo que los seres humanos. Es decir, la IA supera de manera contundente la capacidad de persuasión humana cuando tiene acceso a datos personales.
“Las técnicas de persuasión basadas en modelos de lenguaje implican riesgos éticos y sociales profundos, incluida la difusión de desinformación, la amplificación de sesgos y la invasión de la privacidad”, advirtieron investigadores de la Universidad de Gante en un estudio publicado en noviembre de 2024. “Estos riesgos subrayan la necesidad urgente de guías éticas y marcos regulatorios actualizados”.
Y uno de los hallazgos más reveladores sobre la persuasión mediante IA es que la investigación muestra que su eficacia disminuye considerablemente cuando la gente sabe que está interactuando con una IA y no con un ser humano. Esto demuestra que el engaño es un componente clave de los tipos de manipulación que preocupan a los expertos en relación con la propagación de desinformación y mala información.
Así, cuando un sistema de IA tiene acceso a tu historial de votación y tus hábitos de compra, y puede crear un perfil psicológico basado en tu presencia en redes sociales, esa IA es capaz de ejercer un nivel de persuasión específica sin precedentes —y a una escala exponencial—.
Desde una perspectiva, el uso del algoritmo de Aristóteles podría salvar millones de vidas. Imagina que la Organización Mundial de la Salud necesita difundir métodos de prevención de enfermedades a millones de personas. Un mensaje podría “traducirse” al instante en distintos argumentos según el perfil de cada individuo.
Por otro lado, ¿qué impide que una persona o una institución use ese poder para manipularte con el fin de que tomes acciones que sirvan a sus intereses y no a los tuyos?
Los líderes de hoy tienen acceso a herramientas de persuasión sobrehumanas, con poca transparencia sobre cómo fueron desarrolladas y sin acuerdo acerca de cómo y cuándo se debe informar de su uso. Estos sistemas de IA interpretarán el mundo por nosotros y afectarán las creencias de miles de millones de personas.
¿Qué tipo de consenso deberíamos construir sobre cómo se despliegan estos sistemas de IA? ¿Y qué protecciones establece la gobernanza de la IA para evitar que un empleado deshonesto cambie manualmente los valores del modelo?
Responsabilidad en la gobernanza de la IA
Me considero una optimista centrada en las personas cuando se trata de tecnología. El factor determinante es cómo usamos estas herramientas. Las decisiones que se tomen sobre la IA en los próximos dos años —la transparencia sobre cómo se entrenan los modelos y la claridad respecto de cómo se utilizan nuestros datos— determinarán la trayectoria futura de la historia humana. Estos temas son centrales en mi libro AI for the Authentic Leader: How to Communicate More Effectively Without Losing Your Humanity, que explora cómo los líderes pueden usar la IA generativa para reforzar la autenticidad, la confianza y la conexión entre culturas.
Hay muchas soluciones posibles, como colocar “etiquetas nutricionales” en los sistemas de IA para mostrar cómo se utilizan los datos, exigir avisos de divulgación como los que se piden en los anuncios políticos en Estados Unidos o dar a las personas el control sobre sus propios datos, para que puedan decidir cuándo y cómo son utilizados por otros. Cualquier solución requiere comprender cómo funciona la tecnología y desarrollar una sensibilidad profunda a sus impactos sociológicos.
A medida que la tecnología continúa superando nuestros sistemas actuales de gobernanza de la IA, el tiempo es esencial. El Foro Económico Mundial reunirá a líderes de todo el mundo en su Reunión Anual de enero de 2026. Estos líderes deben debatir cómo establecer límites a la IA que protejan la autonomía humana. Podrían iniciar una nueva conversación sobre la influencia de la IA, definiendo principios de gobernanza que garanticen que esta tecnología esté al servicio de la verdad, la transparencia y la agencia humana —no de la manipulación o el control—.
Si la próxima era del liderazgo es una de persuasión sobrehumana, también deberá ser una de responsabilidad sobrehumana. Tenemos una oportunidad única para determinar el futuro de la persuasión, de modo que todas las voces, en todos los idiomas, puedan ser escuchadas en sus propios términos.
No te pierdas ninguna actualización sobre este tema
Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.
Licencia y republicación
Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.
Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.
Mantente al día:
Inteligencia Artificial y Robótica
Temas relacionados:
La Agenda Semanal
Una actualización semanal de los temas más importantes de la agenda global
Más sobre Inteligencia artificialVer todo
Prof. Dr. Kathrin Gabriele Kind
2 de diciembre de 2025






