Tecnologías emergentes

¿Somos todos sospechosos en la era del software inteligente?

Security cameras are seen in front of the great hall of people in Tiananmen square in Beijing November 8, 2013. China's Communist Party gave an emphatic no to any political reform that may threaten its rule in a lengthy document published on Friday, the day before it starts a key meeting to set the economic agenda for the next decade.REUTERS/Kim Kyung-Hoon (CHINA - Tags: POLITICS) - RTX1551Q

Image: REUTERS/Kim Kyung-Hoon

Estevan Ordóñez

Has podido provocar alarma, alertar a un sistema de cámaras de vigilancia que te habría seguido la pista durante unos minutos, señalándote como posible terrorista o delincuente. En tal caso, habrás permanecido bajo el foco sin percatarte. ¿El motivo? Unos movimientos azarosos como mirar mucho hacia atrás mientras caminas, por ejemplo, o andar demasiado rápido.

Puede haberte ocurrido si has visitado algunas ciudades de Estados Unidos donde se han implantado sistemas de videovigilancia inteligentes cuyos algoritmos se han diseñado para aprender una serie de comportamientos que precederían a la comisión de un crimen o un atentado. Son programas de vigilancia autónomos que han funcionado ya en algunas zonas de Reino Unido y se están probando en aeropuertos europeos como el de Ámsterdam, según la revista Wired.

A la artista holandesa Esther Hovers le fascinan estos mecanismos que nos ayudan a dar ese pequeño paso que nos falta para vivir en un capítulo de Black Mirror. Hovers decidió crear una serie de fotografías que demuestran cómo todos podemos ser sospechosos ante estos sistemas de inteligencia artificial por la sencilla razón de ser humanos espontáneos. Todas sus imágenes del entorno urbano incluyen algún sujeto que se está moviendo de forma que inquietaría a las cámaras de vigilancia.

Sin embargo, en el día a día, donde la máquina vería una tragedia a punto de ocurrir, el ojo humano apenas puede captar la anomalía. En su trabajo, la fotógrafa desafía a los espectadores a encontrar el sujeto potencialmente peligroso. Hovers bautizó el proyecto como Falsos positivos porque, en todos los casos, se trata de alertas aguadas, fruto del azar.

Cada fotografía se empareja con un dibujo que resuelve el enigma. En él, aparece el personaje peligroso silueteado, separado del escenario. Entonces comprendemos un poco más a los dispositivos de vigilancia: de forma aislada si olfateamos fácilmente la amenaza.

La autora duda de que podamos confiarnos por entero a estos métodos de vigilancia: «Los expertos con los que he colaborado para este trabajo me han asegurado que no podemos hacerlo. Los humanos somos aún, de lejos, mucho mejores que los ordenadores leyendo los contextos. Me gustaría cuestionar el futuro de las técnicas de vigilancia inteligente de forma crítica, que nos preguntemos si es un futuro que debemos desear», explica a Yorokobu.

La artista contactó con especialistas en seguridad para conocer qué comportamientos en el entorno público nos colocarían encima el ojo de halcón de la vigilancia. Le explicaron ocho patrones: caminar con demasiada rapidez, merodear lentamente sin rumbo durante cierto tiempo, abandonar algún objeto (maleta, bolsa, mochila), permanecer quieto en una esquina, mirar repetidamente hacia atrás, caminar en contra del sentido del tráfico, moverse de manera sincronizada o que un grupo de personas se rompa repentinamente.

Confeccionó sus imágenes en función de estos parámetros con el objetivo de inocular una serie de preguntas en la mente del espectador: «¿Qué es la normalidad? ¿Por qué tenemos reglas sociales en el espacio público? ¿Qué pasa si las rompes? ¿Romperlas siempre sería un acto criminal?», reflexiona.

Se dirigió, cámara en mano, al distrito financiero de Bruselas para cazar a individuos que incurrieran en presuntas conductas alarmantes. Después, mediante un montaje de capas, los colocó en un contexto callejero amplio y cotidiano. En el proceso, Hovers no se libró de despertar temores: «Me encontré a mí misma actuando como en las anomalías que menciono. A veces, me pidieron que me fuera de allí y otras me preguntaron qué estaba haciendo», recuerda.

El trabajo de Hovers plantea unas dudas que no resuelve porque su «investigación era artística, no científica». El tema encaja en su campo de especialización, que se centra en la arquitectura, el entorno urbano y el análisis del comportamiento en el espacio público.

Poco a poco, gracias a la paranoia de la seguridad, la intimidad desaparece de la calle. Una conducta que se sabe observada continuamente es una conducta antinatural. El pánico colectivo crece con cada ataque terrorista, poco importa, por ejemplo, que la Europa del norte, la que más se deja llevar por el terror, sea una de las regiones más seguras del mundo. Cada explosión, cada lobo solitario al volante provoca que la seguridad engulla más parcelas de libertad.

Evitar que un individuo, en un acceso de rabia, atropelle a los peatones es un reto tan imposible, tan fantasmal, que exige toneladas de información para tratar de hacerlo posible, y esas miríadas de datos necesitan de quienes las procesen: en consecuencia, el ser humano no da abasto, hacen falta máquinas. Aquí se hacen imprescindibles los programas automáticos de detección, y la única forma de justificar el gasto de millones en ellos es tenerles confianza, creer que la estadística y los algoritmos ofrecen más certezas que errores. Entonces, inevitablemente, la distopía aflora en nuestra cabeza: ¿Llegará un punto en que moverse como lo haría un terrorista nos convertirá en terroristas?

Esta posibilidad aterradora, no tan cinematográfica como cabría desear, sobrevuela tras el proyecto de Esther Hovers. Falsos positivos se arma de sutileza en la composición de cada imagen porque busca desintegrar la idea de que toda rotura de la normalidad esconda, necesariamente, algún mal o algún perjuicio para el resto de la sociedad. En realidad, se trata de un instinto muy humano cuya perversión aumenta al tecnificarse: condenar al que se salta la inercia. Estas fotografías se revelan como un grito de advertencia para evitar que, seducidos por una tecnología de sofisticación casi divina, caigamos en una suerte de frenología del movimiento corporal que nos convierta a todos en criminales potenciales.

No te pierdas ninguna actualización sobre este tema

Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.

Inscríbete de forma gratuita

Licencia y republicación

Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.

Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.

Mantente al día:

Tecnologías emergentes

Comparte:
World Economic Forum logo

La Agenda Semanal

Una actualización semanal de los temas más importantes de la agenda global

Suscríbete hoy

Navigating the AI Frontier: A Primer on the Evolution and Impact of AI Agents

¿Debe el diseño de robots seguir estas tres leyes?

Quiénes somos

Participe en el Foro

  • Iniciar sesión
  • Asóciese con nosotros
  • Conviértase en miembro
  • Regístrese para recibir nuestras notas de prensa
  • Suscríbase a nuestros boletines
  • Contacte con nosotros

Enlaces directos

Ediciones en otros idiomas

Política de privacidad y normas de uso

Sitemap

© 2024 Foro Económico Mundial