Por qué tenemos que hablar de macrodatos
Big data e inteligencia artificial es un tema candente de privacidad Image: Unsplash
- ¿Tenemos que sacrificar nuestra privacidad por los macrodatos?
- Preocupa el hecho de que quizás estamos regalando demasiada información personal
- El 74 % de los ciudadanos chinos están preocupados por el auge de las tecnologías de reconocimiento facial
«Si quieres mantener un secreto, debes ocultártelo también a ti mismo».
”Siete décadas después de la publicación del libro 1984, George Orwell parece profético y clarividente. Tal vez solo entendía la naturaleza humana. Parece ser que hemos llegado a un mundo tan abundante en datos y tan tecnologizado que es difícil encontrarse con algún secreto.
Por una parte, los líderes empresariales, los responsables políticos, los profesionales sanitarios y los educadores de todas partes quieren lo último y lo mejor en inteligencia artificial y ciencias de datos para facilitar su trabajo. Sabemos que los datos son esenciales para tomar decisiones y que constituyen un recurso importante para mejorar los diagnósticos médicos, las predicciones meteorológicas y las tendencias demográficas. La inteligencia artificial con gran abundancia de datos ayuda a los oncólogos a detectar cánceres de ovarios y de mama con más eficacia de la que pueden lograr los seres humanos por sí solos. El Servicio Nacional de Salud del Reino Unido (NHS), el Imperial College London y otras universidades, junto con socios industriales como DeepMind, están creando estas oportunidades y ayudando a reducir el número de fallos en el diagnóstico del cáncer en este país.
Por otra parte, ahora leemos que las tecnologías en línea, combinadas con los macrodatos y la inteligencia artificial, se están convirtiendo en «el nuevo maletín de herramientas del autócrata». Las mismas tecnologías que disfrutamos —reconocimiento de voz, aplicaciones inteligentes, las soluciones para orientarnos en un entorno (conocidas como «wayfinding») o las recomendaciones basadas en nuestros hábitos— pueden utilizarse ahora para rastrear nuestra localización, nuestras comunicaciones y nuestra vida personal. Todo avance parece tener un posible inconveniente. La propia colaboración entre el NHS y DeepMind, que ha servido para mejorar diagnósticos, ha generado preocupación porque DeepMind comparte datos británicos con su empresa matriz, Google, radicada en Estados Unidos. Los ciudadanos, las empresas y los gobiernos han de hablar de estos temas o la tecnología irá por delante de lo que las sociedades quieran o toleren.
Estas inquietudes trascienden naciones y sectores. En un mundo de microtargeting, bots y hacking resulta imposible regular incluso actividades que antes estaban muy controladas, como las comunicaciones de los partidos políticos en las elecciones generales del Reino Unido. La colaboración entre países y sectores será esencial para la gobernanza de la IA. La alternativa es un mercado mundial fragmentado, con islas de regulación e innovación desiguales. Y estas inquietudes no son exclusivas del mundo occidental: una encuesta reciente revela que el 74 % de los ciudadanos chinos están preocupados por el rápido auge de las tecnologías de reconocimiento facial.
El Dr. Yves-Alexandre de Montjoye, un experto en IA y privacidad que hablará en Davos 2020, ha demostrado que los datos personales «anonimizados» —que son frecuente objeto de comercio a escala mundial— se pueden someter a ingeniería inversa para identificar a las personas a quienes se refieren. En un conjunto anonimizado de datos de ciudadanos estadounidenses, comprados a un intermediario, Yves y sus colegas pudieron identificar correctamente al 99,98 % de las personas a quienes pertenecían utilizando características como la edad, el género y el estado civil.
Aunque el fracaso de la «anonimización» de los datos es alarmante, hay soluciones en el horizonte. Yves propone formas de contener, conservar y administrar los datos que, en algunos casos, nos permitirán beneficiarnos de la información que proporcionan sin sacrificar la privacidad que deseamos. Él y sus colegas del Imperial College London, el MIT Media Lab, Orange, el Foro Económico Mundial y Data-Pop Alliance han creado la plataforma OPAL precisamente con este fin. Su objetivo es utilizar el potencial de los datos privados para el bien público de manera consciente de la privacidad, escalable, y social y económicamente sostenible. Trabajan para que se puedan utilizar los datos sin abusar de ellos.
De hecho, tal vez podamos hacer lo que propone Orwell y ocultarnos los datos a nosotros mismos, al tiempo que aprovechamos las ventajas de su obtención, planteando hábiles consultas acerca de los datos, en lugar de manipularlos.
El Dr. Yves-Alexandre de Montjoye analizará estos asuntos en un grupo de trabajo patrocinado por el Imperial College London en la Asamblea Anual del Foro Económico Mundial que se celebrará en Davos en 2020.
No te pierdas ninguna actualización sobre este tema
Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.
Licencia y republicación
Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.
Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.
Mantente al día:
Economías más justas
Temas relacionados:
La Agenda Semanal
Una actualización semanal de los temas más importantes de la agenda global
Puedes anular tu suscripción en cualquier momento utilizando el enlace que figura en nuestros correos electrónicos. Para obtener más información, consulta nuestro Política de privacidad.
Más sobre Foro InstitucionalVer todo
Gayle Markovitz and Spencer Feingold
5 de diciembre de 2024