Tecnologías emergentes

El peligro de vivir en una sociedad digital diseñada para manipular

British cyborg musician and performer Neil Harbisson poses while holding an eggplant in Palma de Mallorca on the Spanish Balearic island of Mallorca September 9, 2011. Harbisson, who was born with achromatopsia, a condition that only allows him to see in black and white, became in 2004 the first person in the world to be fitted with an eyeborg. The eyeborg works with a head-mounted camera that picks up the colours in front of it and converts them in into sound waves. By memorising the frequencies related to each colour, Harbisson can perceive up to 36 colors.

Image: REUTERS/Enrique Calvo

José Ángel Plaza López
Comparte:
Nuestro impacto
¿Qué está haciendo el Foro Económico Mundial para acelerar la acción en Tecnologías emergentes??
La visión global
Explora y monitorea cómo Biotechnology afecta a las economías, las industrias y los problemas globales
A hand holding a looking glass by a lake
Innovación mediante crowdsourcing
Involúcrate con nuestra plataforma digital de crowdsourcing para lograr un impacto a escala
Mantente al día:

Biotechnology

Las promesas de la biotecnología, la neurociencia o la inteligencia artificial requieren inculcar hábitos morales a los responsables de cada avance para asegurar un futuro más justo e inclusivo.

La búsqueda constante de una sociedad en la que los algoritmos cada vez pesan más o en el que existan seres humanos mejorados plantea reflexiones morales que en muchas ocasiones llegan con retraso. Resulta fundamental tener claros los límites antes de que la ciencia haga posible ciertos avances.

Elena Postigo, profesora de Bioética de la Universidad Francisco de Vitoria, advierte de estos peligros: “Los avances en biotecnología y neurociencia nos acercan cada vez más a esa idea de transhumanos con capacidades aumentadas, pero los planes de estudio no enseñan hábitos morales para que los científicos desarrollen una conciencia crítica sobre sus quehaceres”. La profesora intervino recientemente en un debate sobre tecnoética organizado por la Fundación Telefónica.

Según Postigo, es necesario fijar estos límites antes de que las leyes, las normas deontológicas o los protocolos de actuación regulen los posibles conflictos derivados de alterar nuestras bases biológicas, como una nueva estratificación social con profundas desigualdades.

"Criticar la tecnología es la mejor manera de amarla”

Jaron Lanier

Para ello, la formación de los médicos, biotecnólogos y científicos debe ir acompañada de una reflexión antropológica en torno a quiénes somos, hacia dónde vamos, qué medios debemos utilizar para ello y cuáles serán los instrumentos más adecuados para evolucionar teniendo en mente conceptos como lo deseable, lo mejor, lo responsable, lo prudencial, lo justo, el respeto de las libertades o la protección de los más vulnerables. “Tiene que ser una reflexión intrínseca, consustancial al mismo quehacer de esos profesionales y que debe darse a la par de sus investigaciones, nunca después”, apunta Postigo.

Ese mismo retraso a la hora de someter a juicio la tecnología es lo que ya ha propiciado “una sociedad digital diseñada para manipular”, según Jaron Lanier. Este filósofo, músico e investigador pionero en el ámbito de la realidad virtual afirma que criticar la tecnología es “la mejor manera de amarla”, puesto que únicamente a través del debate podremos cambiar el rumbo y crear un nuevo mundo virtual que sea sostenible, así como “menos oscuro y alocado”.

En este contexto, Lanier hace un llamamiento para acabar con “esos enormes sistemas algorítmicos” que nos espían para implantar técnicas de adicción y de modificación del comportamiento similares a las que convierten a las personas en ludópatas: “Hemos permitido que las grandes compañías, con una enorme sed de datos, implanten un modelo de negocio que domina internet y que está impulsando los sistemas de inteligencia artificial, con lo que nos acercamos a la creación de un nuevo orden económico donde lo importante es captar información pero sin darle ningún valor a las personas”.

Lanier considera que salir de esta situación es complicado, dado que nos enfrentamos a una adición “a gran escala” donde casi nadie quiere hablar del problema al haberse creado grandes intereses comerciales. Pero aun así se muestra optimista y confía en que las voces críticas acabarán por impulsar el uso de la tecnología de una forma positiva.

Se trata de una opinión compartida por el experto en identidad y marcas Andy Stalman, que aboga por recuperar la capacidad de duda, de criticar para mejorar: “Debemos dejar a un lado la dictadura del algoritmo y poner en valor la democracia de las personas”. Según Stalman, hoy en día una de las cuestiones que debe preocuparnos es quiénes son los encargados de programar los algoritmos. “¿Qué diferencias hay entre una misma inteligencia artificial (IA) cargada por distintos gobiernos? Estamos depositando recursos y energías en las nuevas tecnologías, pero no debemos desatender los grandes desafíos como sociedad y humanidad”, señala.

Image: cyborgoproject.com; qz.com; tecnología.elpais.com/Julia Castillo y Alberto Nava Consultoría
Una IA razonada, transparente y justa

Precisamente, a mediados de septiembre IBM respondió a algunas de estas reivindicaciones con el lanzamiento de un servicio que detecta automáticamente los posibles sesgos introducidos al programar una IA y proporciona la explicación sobre las decisiones tomadas a partir de algoritmos. Se trata de una solución automatizada que no solo describe qué criterios y factores de confianza utilizan los algoritmos para llegar a una recomendación, sino que también detecta resultados potencialmente injustos y detalla qué otros datos deben añadirse al modelo con el fin de resolver los sesgos identificados.

“La inteligencia artificial no puede ser una caja negra. Si una solución concreta de IA no puede explicar cómo y con qué criterios elabora sus recomendaciones, no debería utilizarse. Solo la IA razonada, transparente y justa sobrevivirá”, afirma Marta Martínez, directora de IBM en España, Portugal, Grecia e Israel.

Según Martínez, el objetivo final de esta propuesta es que las personas, y no la tecnología, seamos las responsables “activas y únicas” de un futuro ético inclusivo y mejor. En este mismo sentido, Fernando Broncano, catedrático de Filosofía de la Ciencia en la Universidad Carlos III de Madrid, estima que ahora vivimos cada vez más en un presente continuo porque vemos el futuro con miedo “o al menos con indiferencia”.

Por eso, Broncano advierte de la necesidad de hacer más deseable el día de mañana, pero no en el sentido determinista de adaptarnos a lo que vendrá, sino que más bien debemos pararnos a debatir cómo debería ser la tecnología para que fuera posible interactuar con ella en una sociedad apetecible.

“Los que aún tenemos algún tipo de responsabilidad en el orden intelectual, político, económico o social debemos pensar en qué tipo de tecnología deberíamos tener y abordar ese futuro mediante trayectorias que permitan transformar el entorno con compromisos morales que no deben separar la tecnología de lo humanístico, lo educativo, lo cultural, lo económico o lo político”, aclara Broncano.

No te pierdas ninguna actualización sobre este tema

Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.

Inscríbete de forma gratuita

Licencia y republicación

Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.

Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.

Temas relacionados:
Tecnologías emergentesIndustrias en Profundidad
Comparte:
World Economic Forum logo
Agenda Global

La Agenda Semanal

Una actualización semanal de los temas más importantes de la agenda global

Suscríbete hoy

Puedes anular tu suscripción en cualquier momento utilizando el enlace que figura en nuestros correos electrónicos. Para obtener más información, consulta nuestro Política de privacidad.

Cómo combatir la desinformación de la IA y proteger la verdad en el mundo digital

Cathy Li and Agustina Callegari

18 de junio de 2024

Sobre nosostros

Eventos

Medios

Socios y Miembros

  • Únete

Ediciones en otros idiomas

Política de privacidad y normas de uso

© 2024 Foro Económico Mundial