Tecnologías emergentes

Cómo combatir la desinformación de la IA y proteger la verdad en el mundo digital

Vista lateral de un hombre sosteniendo un teléfono móvil con fondo oscuro: reportaje sobre IA y desinformación.

La IA se utiliza para crear deepfakes, pero también puede combatir la desinformación. Image: Gilles Lambert/Unsplash

Cathy Li
Head, AI, Data and Metaverse; Member of the Executive Committee, World Economic Forum
Agustina Callegari
Project Lead, Global Coalition for Digital Safety, World Economic Forum
  • La proliferación de la inteligencia artificial (IA) en la era digital ha traído consigo tanto innovaciones como retos, sobre todo en materia de integridad de la información.
  • Las tecnologías de IA capaces de generar "deepfakes" pueden utilizarse para producir información engañosa y desinformación.
  • Sin embargo, la IA también puede ayudar a combatir la desinformación analizando patrones, lenguaje y contexto para ayudar a la moderación de contenidos.

La proliferación de la inteligencia artificial (IA) en la era digital ha traído consigo innovaciones notables y retos únicos, especialmente en el ámbito de la integridad de la información.

Las tecnologías de IA, con su capacidad para generar textos, imágenes, audio y vídeos falsos que parecen reales (los llamados "deepfakes"), hacen más difícil distinguir los contenidos auténticos de las creaciones sintéticas. Esta capacidad permite a los agentes maliciosos automatizar y multiplicar campañas de desinformación, aumentando enormemente su alcance e impacto.

Sin embargo, la IA no es un villano en esta historia. La tecnología también desempeña un papel crucial en el combate contra la desinformación. Los sistemas avanzados de IA pueden analizar patrones, uso del lenguaje y contexto para ayudar en la moderación de contenidos, comprobar si las noticias son falsas y detectar información errónea y desinformación.

¿Has leído?

Comprender los matices entre la difusión involuntaria de información errónea y la desinformación deliberada es crucial para tomar contramedidas eficaces- y eso también puede facilitarse mediante el análisis de contenidos con IA.

El costo social de la desinformación

Las consecuencias de la desinformación incontrolada impulsada por la IA son profundas y pueden erosionar el tejido mismo de la sociedad.

El Informe sobre Riesgos Globales 2024 del Foro Económico Mundial señala la difusión de información errónea y la desinformación como graves amenazas en los próximos años, destacando el posible aumento de la propaganda y la censura nacionales.

El uso político malintencionado de la IA plantea graves riesgos, pues la rápida propagación de deepfakes y contenidos generados por IA dificulta cada vez más a los votantes discernir la información factual de la falsa. Eso puede influir en el comportamiento de los votantes y socavar el proceso democrático, influenciando elecciones, erosionando la confianza pública en las instituciones, generando malestar social e incluso incentivando la violencia.

Loading...

Grupos demográficos específicos también pueden ser objetivo de campañas de desinformación con contenidos nocivos generados por IA. La desinformación sexista, por ejemplo, perpetúa los estereotipos y la misoginia, marginando aún más a los grupos vulnerables.

Estas campañas manipulan la percepción pública, lo que provoca un daño social generalizado y profundiza las divisiones sociales existentes.

Una estrategia multidimensional contra los contenidos fake

El rápido desarrollo de las tecnologías de IA muchas veces supera la capacidad de supervisión de los gobiernos, lo que puede provocar daños sociales si no se gestiona con cuidado.

Iniciativas del propio sector, como la autenticidad de los contenidos y las marcas de agua, responden a preocupaciones sobre la desinformación y la propiedad de los contenidos. Estas herramientas requieren un diseño cuidadoso y la colaboración de múltiples partes interesadas para evitar usos indebidos, como la erosión de la privacidad o la persecución de periodistas en zonas de conflicto.

Por ejemplo, la Coalición para la Autenticidad y Procedencia del Contenido (C2PA, por su sigla en inglés) -integrada por Adobe, Arm, Intel, Microsoft y TruePic- aborda la prevalencia de información engañosa en línea mediante el desarrollo de normas técnicas para certificar el origen y el historial, o procedencia, de los contenidos de los medios en línea.

Para mitigar aún más los riesgos asociados a la IA, los desarrolladores y las organizaciones deben aplicar salvaguardias sólidas, medidas de transparencia y marcos de rendición de cuentas.

Mediante el establecimiento de sistemas integrales, los desarrolladores pueden garantizar que la IA se despliegue de forma ética y responsable, fomentando así la confianza y promoviendo el uso beneficioso de la IA en diversos ámbitos.

Además de medidas técnicas, proveer educación pública sobre alfabetización mediática y pensamiento crítico es esencial para empoderar a las personas para navegar por el complejo panorama de la información digital.

Las escuelas, bibliotecas y organizaciones comunitarias desempeñan un papel vital en la promoción de estas habilidades, proporcionando recursos y programas de formación para ayudar a los individuos a desarrollar la capacidad de evaluar críticamente las fuentes de información, diferenciar entre desinformación y contenido factual y tomar decisiones con conocimiento de causa.

Descubre

¿Qué está haciendo el Foro Económico Mundial en el ámbito de la cuarta revolución industrial?

La colaboración es clave para combatir la desinformación

Además, la colaboración entre partes interesadas, como responsables políticos, empresas tecnológicas, academia y organizaciones de la sociedad civil, es vital para abordar con eficacia los múltiples retos que plantean la difusión de información errónea y desinformación potenciadas por la IA.

Esta situación pone de relieve la importancia de fomentar el entendimiento y la cooperación a nivel global para hacer frente a la difusión de información falsa facilitada por el auge de los contenidos producidos por humanos y las tecnologías de IA.

La Alianza para la Gobernanza de la IA, iniciativa emblemática del Foro Económico Mundial y parte del Centro para la Cuarta Revolución Industrial, reúne a expertos y organizaciones de todo el mundo para abordar los complejos retos relacionados con la IA, entre ellos la generación de contenidos engañosos o perjudiciales y la violación de los derechos de propiedad intelectual.

Mediante esfuerzos de colaboración, la Alianza elabora recomendaciones pragmáticas para garantizar que la IA se desarrolle y despliegue de forma responsable, ética y para el mayor beneficio de la humanidad.

Otra iniciativa del Foro es la Coalición Mundial para la Seguridad Digital, que encabeza los esfuerzos para combatir la desinformación promoviendo un enfoque de toda la sociedad para mejorar la alfabetización mediática. Esto incluye comprender cómo se produce, distribuye y consume la información falsa, e identificar las habilidades necesarias en cada etapa para contrarrestarla.

La coalición reúne a empresas tecnológicas, gobiernos, sociedad civil y organizaciones internacionales para intercambiar buenas prácticas y coordinar acciones con el objetivo de reducir los daños en línea.

Avanzar en nuestro enfoque de la seguridad digital

A medida que la IA sigue transformando nuestro mundo, es imperativo avanzar en nuestro enfoque de la seguridad digital y la integridad de la información.

A través de una mejor colaboración, la innovación y la regulación, podemos aprovechar los beneficios de la IA y, al mismo tiempo, protegernos de sus riesgos, garantizando un futuro en el que la tecnología eleve la confianza pública y los valores democráticos en lugar de socavarlos.

Trabajando juntos, podemos garantizar que la IA sirva como herramienta para promover la verdad y el progreso, no para manipular y dividir.

No te pierdas ninguna actualización sobre este tema

Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.

Inscríbete de forma gratuita

Licencia y republicación

Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.

Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.

Comparte:
A hand holding a looking glass by a lake
Innovación mediante crowdsourcing
Involúcrate con nuestra plataforma digital de crowdsourcing para lograr un impacto a escala
World Economic Forum logo
Agenda Global

La Agenda Semanal

Una actualización semanal de los temas más importantes de la agenda global

Suscríbete hoy

Puedes anular tu suscripción en cualquier momento utilizando el enlace que figura en nuestros correos electrónicos. Para obtener más información, consulta nuestro Política de privacidad.

¿Está la tecnología creando una generación ansiosa?

Jessica Wanger

22 de octubre de 2024

Cómo superar los límites de las tecnologías cuánticas para equilibrar la cooperación global con la soberanía nacional

Quiénes somos

Participe en el Foro

  • Iniciar sesión
  • Asóciese con nosotros
  • Conviértase en miembro
  • Regístrese para recibir nuestras notas de prensa
  • Suscríbase a nuestros boletines
  • Contacte con nosotros

Enlaces directos

Ediciones en otros idiomas

Política de privacidad y normas de uso

Sitemap

© 2024 Foro Económico Mundial