Por qué el diseño de la inteligencia artificial debe priorizar la privacidad de los datos
La privacidad de los datos suele estar relacionada con los modelos de inteligencia artificial (IA) basados en los datos de los consumidores. Image: Adeolu Eletu/Unsplash
- La inteligencia artificial es parte integral de los desarrollos en la atención médica, la tecnología y otros sectores, pero hay preocupaciones sobre cómo se regula la privacidad de los datos.
- La privacidad de los datos es esencial para ganar la confianza del público en los avances tecnológicos.
La privacidad de los datos se vincula a menudo con los modelos de inteligencia artificial (IA) basados en los datos de los consumidores. Es comprensible que los usuarios desconfíen de las tecnologías automatizadas que obtienen y utilizan sus datos, que pueden incluir información sensible. Dado que los modelos de IA dependen de la calidad de los datos para ofrecer resultados destacados, su existencia continua depende de que la protección de la privacidad sea parte integral de su diseño.
Más que una forma de disipar los temores y preocupaciones de los clientes, las buenas prácticas de privacidad y gestión de datos tienen mucho que ver con los valores organizativos fundamentales de la empresa, los procesos empresariales y la gestión de la seguridad. Los problemas de privacidad se han estudiado y divulgado ampliamente, y los datos de nuestra encuesta de percepción de la privacidad indican que la protección de la privacidad es una preocupación crucial para los consumidores.
Abordar estas preocupaciones en contexto es crucial, y para las empresas que operan con IA de cara al consumidor, hay varios métodos y técnicas que ayudan a resolver los problemas de privacidad a menudo vinculados a la inteligencia artificial.
Algunos productos y servicios necesitan datos, pero no necesitan invadir la privacidad de nadie
Las empresas que trabajan con inteligencia artificial ya se enfrentan a una desventaja ante la opinión pública en términos de privacidad. Según la Organización Europea de Consumidores en 2020, una encuesta mostró que entre el 45 y el 60% de los europeos están de acuerdo en que la IA provocará un mayor abuso de los datos personales.
Hay muchos servicios y productos populares en línea que se basan en grandes conjuntos de datos para enseñar y mejorar sus algoritmos de IA. Algunos de los datos de esos conjuntos de datos podrían ser considerados privados incluso por los usuarios menos conscientes de la privacidad. Los flujos de datos procedentes de redes, páginas de medios sociales, teléfonos móviles y otros dispositivos contribuyen al volumen de información que las empresas utilizan para entrenar los sistemas de aprendizaje automático. Gracias a la extralimitación en el uso de los datos personales y a la mala gestión de algunas empresas, la protección de la privacidad se está convirtiendo en una cuestión de política pública en todo el mundo.
Muchos de nuestros datos sensibles se recopilan para mejorar los procesos habilitados por la Inteligencia Artificial. Muchos de los datos analizados también están impulsados por la adopción del machine learning, ya que los sofisticados algoritmos necesitan tomar decisiones en tiempo real, basándose en esos conjuntos de datos. Los algoritmos de búsqueda, los asistentes de voz y los motores de recomendación son solo algunas soluciones que aprovechan la IA basada en grandes conjuntos de datos de usuarios del mundo real.
Las bases de datos masivas pueden abarcar una amplia gama de datos, y uno de los problemas más urgentes es que estos datos podrían ser personalmente identificables y sensibles. En realidad, enseñar a los algoritmos a tomar decisiones no depende de saber a quién corresponden los datos. Por lo tanto, las empresas que están detrás de este tipo de productos deben centrarse en hacer que sus conjuntos de datos sean privados, con pocas o ninguna forma de identificar a los usuarios en los datos de origen, así como en crear medidas para eliminar los casos límite de sus algoritmos para evitar la ingeniería inversa y la identificación.
La relación entre la privacidad de los datos y la inteligencia artificial es bastante matizada. Aunque algunos algoritmos pueden requerir inevitablemente datos privados, hay formas de utilizarlos de manera mucho más segura y no invasiva. Los siguientes métodos son sólo algunas de las formas en que las empresas que utilizan datos privados pueden formar parte de la solución.
Diseñar la inteligencia artificial teniendo en cuenta la privacidad de los datos
Hemos hablado del problema de la ingeniería inversa, donde los malos actores descubren vulnerabilidades en modelos de Inteligencia Artificial y disciernen información potencialmente crítica de los resultados del modelo. La ingeniería inversa es la razón por la que cambiar y mejorar las bases de datos y los datos de aprendizaje es vital para el uso de la Inteligencia Artificial en los casos que se enfrentan a este desafío.
Por ejemplo, la combinación de conjuntos de datos conflictivos en el proceso de machine learning (aprendizaje adversario) es una buena opción para distinguir fallos y sesgos en el resultado del algoritmo de IA. También existen opciones para utilizar conjuntos de datos sintéticos que no utilizan datos personales reales, aunque su eficacia sigue siendo cuestionada.
El sector de la salud es líder en la gobernanza de la Inteligencia Artificial y la privacidad de los datos, especialmente en el manejo de datos privados sensibles. También ha trabajado mucho en el tema del consentimiento, tanto para los procedimientos médicos como para el manejo de sus datos, ya que los riesgos son elevados y se han impuesto legalmente.
En cuanto al diseño general de los productos y algoritmos de Inteligencia Artificial, desvincular los datos de los usuarios mediante métodos de anonimato y agregación es clave para cualquier empresa que utilice datos de usuarios para entrenar sus modelos de Inteligencia Artificial.
Hay varias consideraciones que pueden reforzar la protección de la privacidad en las empresas de Inteligencia Artificial:
Privacidad como base: poner la protección de la privacidad en el radar del desarrollador y encontrar formas de reforzar la seguridad de forma efectiva.
Anonimizar y agregar conjuntos de datos, eliminar todos los identificadores personales y puntos de datos únicos.
Tener un control estricto sobre quién en la empresa tiene acceso a conjuntos de datos específicos y auditar continuamente cómo se accede a estos datos, ya que ha sido la razón detrás de algunas violaciones de datos en el pasado.
Más datos no es siempre la mejor solución. Prueba tus algoritmos con datos minimizados para saber cuál es la menor cantidad de datos que necesitas recopilar y procesar que haga viable tu caso de uso.
Es esencial proporcionar una forma ágil de eliminar los datos personales a petición del usuario. Las empresas que sólo hacen seudonimización de los datos de los usuarios deben volver a retener continuamente sus modelos con los datos más actualizados.
Aprovechar fuertes tácticas de de-identificación, por ejemplo, conjuntos de datos agregados y sintéticos con anonimización completa, identificadores no reversibles para el entrenamiento de algoritmos, auditoría y garantía de calidad, entre otros.
Salvaguardar tanto la autonomía como la privacidad de los usuarios repensando las formas de obtener y utilizar la información crítica de terceros: examinar detenidamente las fuentes de datos y utilizar sólo aquellas que recojan datos con el consentimiento claro e informado del usuario.
Considerar los riesgos: ¿podría un ataque poner en peligro la privacidad del usuario a partir de los resultados de tu sistema de IA?
¿Cuál es el futuro de la privacidad de los datos y la Inteligencia Artificial?
Los sistemas de Inteligencia Artificial necesitan muchos datos, y algunos de los mejores servicios y productos en línea no podrían funcionar sin los datos personales utilizados para entrenar sus algoritmos de Inteligencia Artificial. Sin embargo, hay muchas maneras de mejorar la adquisición, la gestión y el uso de los datos, incluidos los propios algoritmos y la gestión general de los datos. La Inteligencia Artificial respetuosa con la privacidad requiere empresas respetuosas con la privacidad.
No te pierdas ninguna actualización sobre este tema
Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.
Licencia y republicación
Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.
Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.
Mantente al día:
Ciencia de datos
La Agenda Semanal
Una actualización semanal de los temas más importantes de la agenda global
Puedes anular tu suscripción en cualquier momento utilizando el enlace que figura en nuestros correos electrónicos. Para obtener más información, consulta nuestro Política de privacidad.