Riesgo y resiliencia

Protección vs. censura: cómo encontrar el equilibrio al frenar la desinformación en línea

Los panelistas debaten sobre la desinformación en línea durante una sesión en la Reunión Anual de este año en Davos.

Los panelistas debaten sobre la desinformación en línea durante una sesión en la Reunión Anual de este año en Davos.

Image: Foro Económico Mundial/Faruk Pinjo

  • Los panelistas de dos sesiones en la Reunión Anual del Foro Económico Mundial de este año debatieron sobre el equilibrio necesario para abordar la desinformación en línea.
  • Las complejidades —frenar la desinformación sin afectar la libertad de expresión— dificultan llegar a un consenso.
  • Surgieron cinco prioridades sobre cómo avanzar de manera proactiva.

Los días en que las teorías conspirativas, la desinformación y las noticias falsas se limitaban a los márgenes de internet han quedado atrás. Hoy forman parte del debate global general, influyen en elecciones, alteran mercados y ponen a prueba los límites de la libertad de expresión. Como reveló el Informe de Riesgos Globales 2025 del Foro Económico Mundial, la desinformación sigue siendo, por segundo año consecutivo, el principal riesgo a corto plazo. Tiene el poder de erosionar la confianza, profundizar las divisiones y debilitar la gobernanza y la cooperación global. Con una regulación que aún no alcanza el ritmo acelerado del cambio tecnológico, el riesgo no solo persiste, sino que crece.

En la Reunión Anual del Foro Económico Mundial de este año, dos sesiones clave —Truth vs. Myth in Elections (Verdades vs. mitos en las elecciones) y To Moderate or Not to Moderate? (Moderar o no moderar)— abordaron los crecientes desafíos de la desinformación, los dilemas de la moderación de contenidos y el frágil equilibrio entre la integridad democrática, los derechos humanos y la innovación tecnológica.

Si bien los panelistas coincidieron en que la trayectoria actual es insostenible, la pregunta es si es posible alcanzar un consenso ante las complejidades que enfrentan las plataformas digitales: equilibrar su responsabilidad de frenar los contenidos nocivos sin socavar la libertad de expresión ni acentuar la polarización en las sociedades.

Desinformación: una amenaza para la democracia

En 2024, el 50 % de la población mundial acudió a las urnas, con narrativas falsas e información engañosa moldeando los escenarios políticos en todo el mundo y profundizando la fragmentación geopolítica.

El caso de Moldavia es ilustrativo. Su primer ministro, Dorin Recean, describió cómo redes extranjeras de desinformación interfirieron en las elecciones de su país mediante la difusión de deepfakes generados con inteligencia artificial que mostraban a niños con uniformes militares junto a banderas de la Unión Europea, afirmando falsamente que la integración a la UE conduciría a la guerra. La desinformación no se trata solo de mentiras. Se trata de miedo, emociones y división. “Intentan asociar la UE con la guerra y dicen: ‘Miren lo que pasa en Ucrania. Si quieren la UE, lo mismo ocurrirá en Moldavia’”, advirtió Recean, y agregó que la inversión en ataques de desinformación fue del 2,5 % del PIB de Moldavia.

Un enfoque estructurado para la gobernanza del contenido en línea.
Un enfoque estructurado para la gobernanza del contenido en línea. Image: Foro Económico Mundial

Gobernanza y moderación: reglas fuera de línea, realidades en línea

A medida que los gobiernos comienzan a comprender las implicancias del impacto de la desinformación, la Ley de Servicios Digitales (DSA, por sus siglas en inglés) de la Comisión Europea está emergiendo como referencia en los debates sobre rendición de cuentas. “Lo que es ilegal fuera de línea debe ser ilegal en línea”, declaró Jean-Noël Barrot, ministro francés para Europa. “La transparencia en los algoritmos no es negociable”, sostuvo. “En Francia, los comentarios racistas u homofóbicos son ilegales y pueden ser juzgados por un tribunal, por lo que las plataformas deben seguir las mismas reglas en línea. En cuanto a la desinformación, la DSA exige que las plataformas tomen medidas para reducir los riesgos sistémicos que conlleva. Esto se vuelve cada vez más esencial, especialmente considerando cómo las generaciones más jóvenes interactúan con la información.”

Sin embargo, Sasha Havlicek, del Institute for Strategic Dialogue, advirtió sobre los riesgos de simplificar en exceso y señaló que los actores malintencionados aprovechan la apertura de las plataformas digitales, utilizando tácticas engañosas como redes de bots y cuentas falsas para distorsionar el discurso público de formas invisibles para el usuario promedio. “La infraestructura algorítmica amplifica aquello que tiene más probabilidades de captar tu atención. El modelo de negocio de la economía de la atención amplifica desproporcionadamente lo más sensacionalista, lo más extremo, en lugar de lo moderado”, explicó.

Moderar a miles de millones de usuarios no es tarea fácil. La moderación de contenidos sigue siendo técnicamente compleja y políticamente delicada. Solo en 2024, las principales plataformas moderaron 1.600 millones de piezas de contenido, según Michael McGrath, comisionado europeo para la Democracia, la Justicia y el Estado de Derecho. “La libertad de expresión debe ser protegida, y sobre eso no hay discusión. Es innegociable. Pero existen límites para lograr el equilibrio adecuado”, agregó.

La moderación a gran escala conlleva riesgos. Tirana Hassan, exdirectora ejecutiva de Human Rights Watch, subrayó que las políticas de moderación deben basarse en principios de derechos humanos para evitar abusos. “La moderación debe proteger, no silenciar. Una regulación excesiva corre el riesgo de facilitar el control autoritario”, afirmó. “Invertir en una buena moderación de contenidos, tanto digital como humana, puede implicar el cumplimiento de obligaciones legales. No son cosas que se contradicen”, añadió. Tirana también destacó la necesidad de proteger a los grupos vulnerables en línea, señalando que en algunos casos fueron víctimas de engaños y fueron expuestos en las plataformas, arriesgándose a sufrir daños físicos e incluso al desplazamiento.

Volker Türk, Alto Comisionado de las Naciones Unidas para los Derechos Humanos, advirtió que “muchos de estos productos terminan en situaciones de crisis o conflicto, donde existe una responsabilidad aún mayor de garantizar que no se utilicen para deshumanizar o alimentar más violencia”.

IA: ¿amplificador o solución?

Mientras tanto, las empresas tecnológicas enfrentan una paradoja. La inteligencia artificial generativa ha amplificado la difusión de contenido falso y engañoso, pero también promete ayudar a identificarlo y filtrarlo. Algunos de estos desafíos provienen de cómo están estructuradas las plataformas y de los algoritmos que, a menudo, amplifican el contenido de maneras que tienen consecuencias sociales inesperadas.

Según Havlicek, los algoritmos enfocados en el engagement promueven la controversia en lugar de un contenido de calidad. “Debido a la economía de la atención, no estamos en un entorno de libertad de expresión. Es uno curado, donde los gigantes tecnológicos deciden finalmente lo que ves según los datos que recopilan y el dinero que van a ganar”, explicó.

Y no solo las instituciones son responsables. Según el Edelman Trust Barometer 2025, a nivel global, el 40 % de los encuestados aprueba el activismo hostil, incluyendo atacar a personas en línea o difundir intencionalmente desinformación como una herramienta legítima para generar cambios. Este sentimiento es especialmente predominante entre los encuestados de 18 a 34 años, con un 53 % de ellos afirmando que aprobarían difundir desinformación de manera intencional por una causa que apoyen. Esta alarmante tendencia refleja una crisis de confianza en aumento. Las personas ahora están adoptando tácticas que antes se consideraban poco éticas.

Cinco prioridades para el futuro

Estas dos sesiones en Davos no solo ofrecieron un análisis del impacto de la desinformación y cómo moderar el contenido en redes sociales, sino que también brindaron algunas direcciones posibles. Aquí algunos de los puntos clave que surgieron sobre cómo abordar los desafíos de la desinformación:

  • Transparencia como herramienta. Las plataformas deben permitir el escrutinio de cómo se promociona el contenido. “Donde los regímenes autoritarios responden con censura, nosotros debemos responder con una transparencia clara. Eso significa obtener acceso a los datos para investigaciones independientes, para que podamos evaluar el impacto de estos sistemas en el discurso público”, dijo Havlicek.
  • Alfabetización mediática. La educación y el pensamiento crítico son las mejores vacunas contra la desinformación. “Educar a los jóvenes para distinguir lo que es confiable de lo que no lo es es útil y necesario. Pero debe hacerse sin sesgo. Se trata de enseñarles a pensar por sí mismos”, dijo Almar Latour, CEO de The Wall Street Journal.
  • Gobernanza multilateral. Los gobiernos, las empresas tecnológicas y la sociedad civil deben co-crear reglas que protejan tanto la libertad de expresión como la seguridad. La moderación debe proteger, no suprimir. Pero sin transparencia, corremos el riesgo de cambiar la desinformación por otro tipo de distorsión: una en la que solo unos pocos deciden lo que es visible. “Necesitamos espacios públicos abiertos en los que podamos tener discusiones basadas en hechos, en evidencia y en ciencia para encontrar las soluciones políticas que el mundo necesita con urgencia”, agregó Türk.
  • Diseño ético de la tecnología. Las plataformas deben priorizar la seguridad, ya que casi el 50 % de los niños se encuentran con contenido dañino accidentalmente. “Estamos construyendo un rincón positivo de Internet, privado solo para usuarios menores de 16 años, y eso fue realmente importante para nosotros porque queríamos asegurarnos de que nuestros usuarios más vulnerables estuvieran a salvo”, dijo Wanji Walcott, Directora Legal y de Asuntos Empresariales de Pinterest. Iain Drennan de WeProtect Global Alliance subrayó la urgencia de proteger a los menores, pidiendo “seguridad por diseño con regulaciones bien diseñadas”.
  • Moderación equilibrada de contenido. La moderación efectiva requiere un enfoque matizado que fomente la libertad de expresión mientras previene el daño. “La libertad de expresión no es absoluta. Existen ciertas restricciones necesarias para proteger a los más vulnerables. La moderación y la responsabilidad de las plataformas digitales también son importantes para asegurar que el modelo de negocio, las políticas y la tecnología estén alineados con los derechos humanos internacionales”, afirmó Hassan.

La verdad no se va a moderar sola

Los periodistas y las organizaciones de la sociedad civil deben desempeñar un papel crucial en contrarrestar la desinformación a través de la investigación periodística, la verificación de hechos y las iniciativas de educación pública. Latour destacó la importancia de mantener la independencia editorial y la transparencia para reconstruir la confianza pública en los medios. “La sugerencia de que la desinformación no jugó un papel importante en el último año [en relación con las elecciones] es grotesca. Eso es desinformación”, añadió.

Descubre

'Restaurar la confianza' en Davos 2025

En una era dominada por la amplificación algorítmica y el contenido sintético, contrarrestar la desinformación exige más que soluciones tecnológicas o marcos regulatorios. Requiere una responsabilidad compartida basada en el pensamiento crítico, la transparencia y la resiliencia.

El debate abierto es vital para la democracia. Reconstruir la confianza no se trata de consenso. La lucha por la verdad no se trata de "ganar". Se trata de fomentar entornos donde las diversas perspectivas puedan coexistir sin hostilidad.

Acepte nuestras cookies de marketing para acceder a este contenido.

Estas cookies están actualmente deshabilitadas en su navegador.

No te pierdas ninguna actualización sobre este tema

Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.

Inscríbete de forma gratuita

Licencia y republicación

Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.

Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.

Comparte:
World Economic Forum logo

La Agenda Semanal

Una actualización semanal de los temas más importantes de la agenda global