Ciberseguridad

Cómo puede la inteligencia artificial detectar y crear noticias falsas

Artist Heather Dewey-Hagborg works in her studio where she created computer models for 3-D printed masks created from DNA extracted from cheek swabs and hair clippings she received from formerly imprisoned U.S. Army Private Chelsea Manning while she was in jail, ahead of the August 2, 2017 opening of  "A Becoming Resemblance", an exhibition at the Fridman gallery in New York City, July 7, 2017.

Image: REUTERS/Mike Segar

Comparte:
Nuestro impacto
¿Qué está haciendo el Foro Económico Mundial para acelerar la acción en Ciberseguridad??
La visión global
Explora y monitorea cómo Ciberseguridad afecta a las economías, las industrias y los problemas globales
A hand holding a looking glass by a lake
Innovación mediante crowdsourcing
Involúcrate con nuestra plataforma digital de crowdsourcing para lograr un impacto a escala
Mantente al día:

Ciberseguridad

Cuando Mark Zuckerberg le dijo al Congreso de Estados Unidos que Facebook iba a utilizar la inteligencia artificial para detectar las noticias falsas publicadas en esta red social no dio muchos detalles de a qué se refería. Dado que trabajo en análisis de imagen y vídeo, pienso que la empresa debería tener cuidado. A pesar de sus posibles fallos básicos, la IA puede ser una herramienta útil para detectar propaganda en la red; pero también puede ser asombrosamente buena para crear material engañoso. No podrán creer lo que Obama dice en este vídeo. Sin duda da la impresión de que Barack Obama dice cosas que probablemente nunca diría.

Los investigadores ya saben que las noticias falsas en Internet se difunden más ampliamente y con mucha más rapidez que las verdaderas. A través de mi investigación he llegado también a la conclusión de que las entradas con información médica falsa reciben más visitas y calificaciones de “me gusta” que las que ofrecen contenido médico fiable. En el mundo digital, donde los usuarios tienen una atención limitada y están saturados de opciones de contenido, a menudo da la impresión de que la información falsa les resulta más atractiva o interesante.

El problema empeora: de aquí a 2022, los habitantes de los países desarrollados podrían encontrar más noticias falsas que información real. Esto podría causar un fenómeno que los investigadores denominan “vértigo de la realidad”, en el que los ordenadores serán capaces de generar un contenido tan convincente que a los usuarios normales les resultará difícil saber qué es cierto y qué no lo es.

Image: Freedom House/ Statista

Detectar la falsedad

Los algoritmos de aprendizaje automático, un tipo de IA, combaten desde hace décadas el spam en los mensajes electrónicos, analizando el texto de los mensajes y determinando qué probabilidad hay de que un mensaje determinado sea una comunicación real de una persona concreta, o se trate de publicidad de productos farmacéuticos o de una reclamación de una fortuna perdida hace mucho.

Basándose en este tipo de análisis de texto en la lucha contra el spam, los sistemas de IA pueden evaluar si un texto o un titular coinciden con el contenido real de un artículo que alguien comparte en Internet. Otro método podría examinar artículos similares y ver si otros medios informativos presentan datos distintos. Sistemas similares pueden detectar cuentas y páginas específicas que difunden noticias falsas.

Un ciclo sin fin

Sin embargo, esos métodos se basan en la suposición de que quienes difunden las noticias falsas no cambian de sistema. A menudo cambian de táctica, manipulando el contenido de las entradas falsas para hacer que parezcan más auténticas.

El uso de la IA para evaluar la información puede también poner de manifiesto –y amplificar– determinados sesgos de la sociedad relacionados con el sexo, la procedencia racial o los estereotipos locales. Puede tener también consecuencias políticas, con el riesgo en potencia de restringir la expresión de determinados puntos de vista. Por ejemplo, YouTube ha eliminado la publicidadde algunos tipos de canales de vídeo, lo cual cuesta dinero a sus creadores.

El contexto es también clave. El significado de las palabras puede variar con el tiempo. Y la misma palabra puede significar cosas distintas en ambientes progresistas o conservadores. Por ejemplo, una entrada con los términos “WikiLeaks” y “DNC” (Comité Nacional Demócrata) en una página progresista posiblemente sea una noticia, mientras que en una página conservadora podría hacer referencia a un conjunto concreto de teorías de la conspiración.

El uso de la IA para crear noticias falsas

Sin embargo, el mayor reto de usar la IA para detectar noticias falsas es que sitúa la tecnología en una carrera de armamentos contra ella misma. Los sistemas de aprendizaje automático están demostrando ya su espeluznante capacidad para crear lo que se denomina deepfakes [falsificaciones profundas]: fotos y videos que sustituyen de manera realista el rostro de una persona por el de otra para que parezca, por ejemplo, que un famoso ha sido fotografiado en una pose sugerente o que una figura pública está diciendo cosas que en realidad nunca diría. Hasta hay aplicaciones de teléfonos inteligentes capaces de este tipo de sustitución, lo que pone esta tecnología al alcance prácticamente de todos, aunque sin la capacidad de edición de vídeo propia de Hollywood.

Los investigadores se están preparando para utilizar la IA con el fin de detectar estas falsificaciones creadas mediante IA. Por ejemplo, las técnicas de magnificación de imagen pueden detectar cambios en el pulso humano que determinarían si una persona incluida en un video es real o está generada por ordenador. Pero tanto los falsificadores como los detectores de falsificaciones mejorarán. Algunas falsificaciones podrían volverse tan complejas que resultaría muy difícil refutarlas o rechazarlas, a diferencia de anteriores generaciones de falsificaciones que empleaban un lenguaje simple para afirmar cosas fácilmente refutables.

La verdadera clave está en la inteligencia humana

La mejor forma de combatir la difusión de noticias falsas podría ser acudir a las personas. Las consecuencias sociales de las noticias falsas –mayor polarización política, aumento del partidismo, erosión de la confianza en los medios de comunicación convencionales y en el Gobierno– son significativas. Si más personas supieran lo que está en juego, quizá serían más precavidas con la información, en especial si tiene una base emocional, porque ese es un modo eficaz de llamar la atención de la ciudadanía.

Image: Gráfico EE/ Fuente: Facebook

Cuando alguien ve una entrada indignante, es mejor que investigue la información, en lugar de compartirla de inmediato. El hecho de compartirla también le da credibilidad a una entrada: cuando otras personas la ven, registran que ha sido compartida por alguien a quien conocen y en quien presumiblemente confían al menos un poco, y es menos probable que se fijen en que la fuente original es cuestionable.

Redes sociales como YouTube o Facebook podrían decidir voluntariamente etiquetar su contenido, mostrando claramente si un artículo que supuestamente constituye una noticia está verificado por una fuente acreditada. Zuckerberg le dijo al Congreso estadounidense que quiere movilizar a la “comunidad” de usuarios de Facebook para dirigir los algoritmos de su empresa. Facebook podría solicitar una colaboración abierta en los esfuerzos de verificación. Wikipedia ofrece también un modelo de dedicados voluntarios que hacen un seguimiento de la información y la verifican.

Facebook podría utilizar sus alianzas con medios informativos y voluntarios para adiestrar a la IA, afinando constantemente el sistema para que pueda responder a los cambios de temas y tácticas empleados por los propagandistas. Así no se abarcarán todas las noticias publicadas en Internet, pero sería más fácil que una cantidad mayor de personas distinguiese la verdad de la mentira. Eso podría reducir las posibilidades de que historias ficticias o engañosas se hiciesen populares en la Red.

Sin duda, las personas que tienen cierta exposición a noticias reales distinguen mejor la información real de la falsa. La clave está en asegurarse de que al menos parte de lo que se ve en Internet sea de hecho cierto.

Anjana Susarla es profesora asociada de Sistemas de la Información, Universidad Estatal de Michigan.

No te pierdas ninguna actualización sobre este tema

Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.

Inscríbete de forma gratuita

Licencia y republicación

Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.

Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.

Comparte:
World Economic Forum logo
Agenda Global

La Agenda Semanal

Una actualización semanal de los temas más importantes de la agenda global

Suscríbete hoy

Puedes anular tu suscripción en cualquier momento utilizando el enlace que figura en nuestros correos electrónicos. Para obtener más información, consulta nuestro Política de privacidad.

Más sobre Ciberseguridad
Ver todo

Estrategias clave para reforzar la ciberresiliencia en 2024

Deryck Mitchelson

5 de abril de 2024

Sobre nosostros

Eventos

Medios

Socios y Miembros

  • Únete

Ediciones en otros idiomas

Política de privacidad y normas de uso

© 2024 Foro Económico Mundial