Inteligencia Artificial y Robótica

¿Robots con remordimientos?

An activist from the Campaign to Stop Killer Robots, a coalition of non-governmental organisations opposing lethal autonomous weapons or so-called 'killer robots', protests at Brandenburg Gate in Berlin, Germany, March, 21, 2019. REUTERS/Annegret Hilse - RC1FFA9FEA70

Image: REUTERS/Annegret Hilse

Belén Juárez
Comparte:
Nuestro impacto
¿Qué está haciendo el Foro Económico Mundial para acelerar la acción en Inteligencia Artificial y Robótica??
La visión global
Explora y monitorea cómo Inteligencia Artificial y Robótica afecta a las economías, las industrias y los problemas globales
A hand holding a looking glass by a lake
Innovación mediante crowdsourcing
Involúcrate con nuestra plataforma digital de crowdsourcing para lograr un impacto a escala
Mantente al día:

Inteligencia Artificial y Robótica

Tiago se mira por primera vez al espejo. Tras varios movimientos con su único brazo lo confirma: “soy yo”, dice alto y claro el robot blanco y negro de 1,50 metros de altura. Dos años después de comenzar sus investigaciones con el proyecto Selfception, el científico Pablo Lanillos ha conseguido que los androides sean capaces de reconocerse a sí mismos.

Este humanoide se auto identifica después de realizar varios movimientos aleatorios con el brazo delante de un espejo. Es posible porque Lanillos ha adaptado un modelo matemático basado en el funcionamiento del cerebro humano: “Las personas tenemos un modelo fijo y nuestro cerebro actúa muy rápido para distinguir nuestros movimientos”, señala el investigador. “Pero que el robot se reconozca no es pre reflexivo (es decir, saber que yo soy yo con toda mi historia), sino por repetición de movimientos”, añade. Sin embargo, si programamos un autómata con la misma apariencia que Tiago, que hace los mismos movimientos en el mismo momento, el androide se confunde y cree que es él mismo reflejado en un espejo. “Aunque si la réplica hace un leve movimiento distinto, Tiago distingue que no es él instantáneamente”, asegura Lanillos.

El ingeniero español y doctor en Inteligencia Artificial por la Universidad Complutense de Madrid (UCM) ha desarrollado este proyecto gracias a una beca Marie Curie, destinadas a fomentar la formación y el desarrollo de investigadores destacados en temas de innovación. Lo ha llevado a cabo en la Universidad de Múnich, (Alemania) y ha probado sus teorías en Pal Robotics, una empresa puntera en tecnología de androides bípedos con sede en Barcelona.

El proyecto Selfception está inspirado en teorías sensomotoras de psicología y neurociencia y se basa en que el desarrollo de las capacidades cognitivas pasa primero por el aprendizaje de nuestro cuerpo.

Image: PAL Robotics

La empresa fue la encargada de poner en marcha el primer humanoide bípedo autónomo de Europa (que era capaz hasta de jugar al ajedrez). Francisco Ferro, su fundador, creó la compañía para que “la ciencia y la tecnología mejoren la vida de las personas”, señala. Trabajan con robots que sirven a la industria, a investigaciones de neurociencia e incluso asisten a personas mayores en casa. Actualmente están programando a Talos. Un robot de 1,85 metros que podría ayudar en tareas de fabricación de aviones que un hombre no puede realizar muchas horas por ser un trabajo arduo. Se unirá a la plantilla de Airbus cuando esté listo.

Varias investigaciones de los últimos años han estudiado si los robots se pueden reconocer en el espejo. Nico, el robot creado por el equipo de Brian Scassellati en el Instituto Tecnológico de Massachussets (MIT) se miró en en el espejo en 2007. La diferencia es que Scassellati solo usó la variable relacionada con el movimiento (el robot se reconocía porque se movía). Sin embargo, Lanillos ha conseguido que el autómata se identifique por dos variables: el movimiento y la visión. “El robot está programado para darse cuenta de que si sube un brazo, la extremidad va a aparecer en cierta posición y prever ese movimiento”, explica Lanillos. Ya no significa solo moverse, sino que el androide lo haga con coherencia a lo que espera ver y se produzcan cambios en su visión.

El científico español está convencido de que este es un primer paso para que el robot pueda relacionarse con el entorno y tomar decisiones. Pensemos en un coche autónomo. El vehículo genera una acción en la carretera que trae una consecuencia para los pasajeros. Si los androides anticipan lo que puede pasar, pondrá la seguridad de los viajeros en primer plano y decidirá si la mejor opción es dar un volantazo hacia un lado o hacia otro. El siguiente paso será que el autómata se reconozca porque mueva todo su cuerpo, no solo el brazo. “No puede existir un robot que interactúe con humanos que no sepa en todo momento donde está su cuerpo”, concluye Lanillos.

No te pierdas ninguna actualización sobre este tema

Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.

Inscríbete de forma gratuita

Licencia y republicación

Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.

Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.

Comparte:
World Economic Forum logo
Agenda Global

La Agenda Semanal

Una actualización semanal de los temas más importantes de la agenda global

Suscríbete hoy

Puedes anular tu suscripción en cualquier momento utilizando el enlace que figura en nuestros correos electrónicos. Para obtener más información, consulta nuestro Política de privacidad.

AI for Impact: The Role of Artificial Intelligence in Social Innovation

Eugenio Zuccarelli

5 de abril de 2024

Sobre nosostros

Eventos

Medios

Socios y Miembros

  • Únete

Ediciones en otros idiomas

Política de privacidad y normas de uso

© 2024 Foro Económico Mundial