Tecnologías emergentes

La guerra de los robots: la salvación antes de la era ‘fake’

A Greenpeace activist holds a giant eye during a demonstration against the trade agreements TTIP, CETA and TiSA in front of the U.S. Mission in Geneva, Switzerland, September 20, 2016. REUTERS/Denis Balibouse - S1BEUCIPIWAA

Image: REUTERS/Denis Balibouse

Jordi Pérez Colomer

La carrera 'armamentística' entre algoritmos que crean o detectan falsificaciones ya ha empezado.

El mundo de Instagram no es más bonito que el real por casualidad, sino porque la edición de foto es universal. Photoshop ya no es solo para profesionales, docenas de apps replican sus funciones y son fáciles de usar: "La gente las usa para cambiar el enfoque, encuadrar, puntos de luz, filtros, añadir o quitar objetos, darle apariencia vintage y, por supuesto, retocar la cara y el cuerpo", dice María Bretón, jefa de Social en Groupm. "Todas las fotos pasan por un editor", añade.

La realidad retocada de Instagram es solo un aperitivo de nuestro futuro. La inteligencia artificial permitirá crear realidad. Ya no solo podremos retocarla, podremos inventarla. En los últimos días se han anunciado novedades extraordinarias en la creación de fotos, textos y vídeos falsos. Son el prólogo de un mundo nuevo, donde la posición por defecto deberá ser no creer lo que vean tus ojos en una pantalla.

Pronto echaremos de menos a las simples 'fake news', que solo hay que contrastar.

Nuestros ojos no sabrán distinguir si es falso un vídeo donde habla, por ejemplo, el presidente del Gobierno o si una pelea en el centro de la plaza del pueblo ocurrió o no. ¿Qué solución hay? ¿Igual que hay robots malos que crean falsificaciones podremos programar robots buenos que identifiquen la mentira? Es una esperanza, pero no es seguro. Es más seguro que pronto echaremos de menos a las simples fake news, que solo hay que contrastar.

El Instituto OpenAI, impulsado por Elon Musk, fue creado en 2015 para divulgar descubrimientos en inteligencia artificial. Ahora acaba de anunciar un modelo que sin entrenamiento es capaz de escribir textos a partir de un par de frases iniciales. Los investigadores no han querido publicar el código para complicar su réplica. Temen que se use para automatizar la creación de textos falsos que inunden internet, desde noticias falsas o posts de Facebook a reviews inventadas en TripAdvisor.

En diciembre la empresa Nvidia publicó los resultados de un trabajo donde creaban caras perfectas a partir de la combinación de rostros reales. En febrero, un ingeniero de Uber, Philip Wang, ha usado ese código para crear la web thispersondoesnotexist.com [estapersonanoexiste.com] que enseña cara tras cara perfectamente reales que no existen. "He decidido rascarme el bolsillo para llamar la atención sobre esta tecnología", explica Wang en Facebook. A partir del repositorio de Nvidia se pueden crear también gatos, coches y habitaciones. Wang ha creado otra web de gatos (thiscatdoesnotexist.com) pero no están tan refinados y suelen salir pequeños engendros.

A pesar de los obstáculos, la expansión es ya incontrolable. Hay tutoriales en internet para crear vídeos falsos. Hace unos días apareció un vídeo impecable de la actriz Jennifer Lawrence en una rueda de prensa a la que le habían incrustado la cara del actor Steve Buscemi. A estos vídeos se les llama deepfakes, "profundos falsos".

Habrá quien piense que esto ya existe. No. Ahora una política británica de extrema derecha puede escoger un vídeo de Alejandría (Egipto) de 2013, tuitearlo sin más contexto que los musulmanes son malos y acabar retuiteado por Donald Trump. Pero ese caso se corrigió rápido con una simple búsqueda en Google.

En la nueva era fake, las opciones se multiplicarán. Una figura pública grabada en una mala situación dirá que un enemigo ha creado ese "deepfake". Esa negativa será de repente plausible. ¿Qué político pillado en una declaración o escena desafortunadas no clamará "deepfake"?

Hay ya un campo de investigación que se dedica precisamente a detectar vídeos falsos: el Análisis forense digital. "Hay una carrera armamentística entre hacer falsificaciones digitales y detectar esas falsificaciones", dice Siwei Lyu, profesor de la Universidad de Albany (EE UU). Antes de 2017, este campo se centraba en Photoshop. Ahora los dos bandos aprovechan la inteligencia artificial.

Image: Todas las caras que se ven en esta foto son falsas; han sido generadas por el algoritmo StyleGAN. KERRAS ET AL. EL PAÍS
CÓMO FUNCIONAN ESTOS MODELOS

El funcionamiento de estos modelos de inteligencia artificial no son ningún misterio. Un algoritmo así requiere de bases de datos inmensas. Para escribir, por ejemplo. Se le dan millones de frases y textos y el modelo aprende, dadas las palabras que ha visto en su base, cuál es el orden más probable. El algoritmo no es consciente de si eso que escribe tiene sentido o es verdad. Solo que se parece a lo que ha visto. Y no siempre acierta. Pero sus errores son a menudo menores y sino fácilmente corregibles: repite el proceso.

Ocurre igual con los vídeos deepfake. Necesita imágenes de un individuo con expresiones distintas, desde varios ángulos y hablando. El modelo observa cómo es una señora y resume ese conocimiento en una acción que la señora nunca antes ha hecho. O el presidente puede de repente decir que odia a los inmigrantes. El candidato puede aparecer besando a la cantante. O el futbolista puede beber y fumar en la barra de una discoteca. Solo hacen falta muchas imágenes de cada cual, aplicar el modelo y poder de computación.

No es la primera vez que habrá una guerra así: los virus y los antivirus siguen vigentes. Es un ejemplo, además, que prueba la eficacia del mal para sobrevivir. Hay toda una industria millonaria creada alrededor de los antivirus. Los fakes presentan un problema añadido respecto a los virus: su código no se publica. "Un grupo de hackers anónimos genera deepfakes y los detalles de su algoritmo quizá no estén disponibles como los de un ataque informático. Mientras, la tecnología de protección suele hacerse en la academia con papers públicos", dice Lyu.

Los tramposos saben cómo les persiguen. Es como si un ladrón de bancos va a robar con un GPS donde ve cómo se mueven los policías y los policías dependen solo de su intuición. "De aquí en adelante, los generadores de deepfakes se entrenarán para engañar a los detectives", dice Giorgio Patrini, fundador de Deeptrace, empresa dedicada a detectar vídeos falsos.

"Es mejor que tengamos alguna tecnología antes de que una persona pueda hacerse pasar por nosotros en una vídeollamada".

De momento, por tanto, no hay solución. Deeptrace se dedica a esto y pide más tiempo. "Ahora mismo no hay ninguna tecnología con un nivel de madurez suficiente para ser desplegada en el mundo real", dice Patrini. Y es mejor que llegue cuanto antes, cree, mientras las máquinas malas aún están aprendiendo cómo inventar escenas. Es decir, no solo mezclar dos rostros o poner una cabeza en un cuerpo ajeno y hacerla hablar, sino crear algo que nunca existió. "Es mejor que tengamos alguna tecnología antes de que una persona pueda hacerse pasar por nosotros en una vídeollamada solo descargándose un software", añade Patrini.

De momento la alternativa es educar a humanos: "Debemos empezar a detectar cuando se crean imágenes falsas de humanos. Nosotros hemos empezado entrenando a humanos. El próximo paso es entrenar inteligencia artificial", dice Jevin West, profesor de la Universidad de Washington.

A quien le falte imaginación para pensar aplicaciones de estas tecnologías, un científico del laboratorio nacional de Los Alamos tiene este ejemplo: pide al algoritmo una foto de tu vecino antipático con una pistola en la mano, implántalo en el vídeo de la cámara de seguridad de una farmacia y haz que le encarcelen.

Patrini es de los científicos que creen que hay tiempo para que los robots nos defiendan. Battista Biggio, profesor de la Universidad de Cagliari (Italia), cree que la opción más segura es acostumbrarse: "Con imágenes, vídeos, audios el malhechor puede básicamente cambiar todo casi sin vínculos. Será muy difícil defenderse técnicamente de estas amenazas", dice.

¿Su solución? Mejor acostumbrarnos a no creer lo que ven nuestros ojos. "Deberemos usar soluciones tecnológicas distintas para certificar la información desde el inicio, la fuente del dato", dice Biggio. Aunque, como saben los autores de certificados de software, también son sencillos de falsificar.

La guerra de robots para la era fake ya ha empezado. Quizá los buenos resistan. Pero no es mala idea entrenar ya la mirada con un escepticismo total.

No te pierdas ninguna actualización sobre este tema

Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.

Inscríbete de forma gratuita

Licencia y republicación

Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.

Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.

Mantente al día:

Medios de comunicación, entretenimiento e información

Comparte:
La visión global
Explora y monitorea cómo Economía digital y creación de nuevos valores afecta a las economías, las industrias y los problemas globales
World Economic Forum logo

La Agenda Semanal

Una actualización semanal de los temas más importantes de la agenda global

Suscríbete hoy

Navigating the AI Frontier: A Primer on the Evolution and Impact of AI Agents

¿Debe el diseño de robots seguir estas tres leyes?

Quiénes somos

Participe en el Foro

  • Iniciar sesión
  • Asóciese con nosotros
  • Conviértase en miembro
  • Regístrese para recibir nuestras notas de prensa
  • Suscríbase a nuestros boletines
  • Contacte con nosotros

Enlaces directos

Ediciones en otros idiomas

Política de privacidad y normas de uso

Sitemap

© 2024 Foro Económico Mundial