Tecnologías emergentes

¿Deben los coches autónomos tomar decisiones de vida o muerte? Tú decides

A prototype of Google's own self-driving vehicle is seen during a media preview of Google's current autonomous vehicles in Mountain View, California.

Un simulador desarrollado por el MIT nos permite decidir si un vehículo de conducción autónoma debe matar a sus pasajeros o a los peatones que circulan por la calle. ¿Tú qué harías? Image: REUTERS/Elijah Nouvelage

Carlos Morales
Comparte:
Nuestro impacto
¿Qué está haciendo el Foro Económico Mundial para acelerar la acción en Tecnologías emergentes??
La visión global
Explora y monitorea cómo Cuarta Revolución Industrial afecta a las economías, las industrias y los problemas globales
A hand holding a looking glass by a lake
Innovación mediante crowdsourcing
Involúcrate con nuestra plataforma digital de crowdsourcing para lograr un impacto a escala
Mantente al día:

Tecnologías emergentes

Juguemos un rato a ser programadores –y un poco dioses– y decidamos quién vive y quien muere en una encrucijada hipotética en la que un vehículo autónomo debe decidir si matar a sus pasajeros o unos transeúntes.

Es una idea macabra, es verdad, pero la tecnología no ha traído hasta este punto. Se trata de escenarios ante los cuales todo auto que sea conducido por una computadora debe estar preparado. ¿Tú qué harías?

Para no dejar esa idea en un supuesto, el Massachusetts Institute of Technology (MIT) desarrolló un simulador que te permite decidir qué curso de acción debe tomar un vehículo autónomo cuando se encuentra en un escenario en el que, haga lo que haga, se verá involucrado en un choque que implicará la pérdida de vidas.

El simulador, llamado apropiadamente Moral Machine, plantea 13 escenarios hipotéticos en los que un coche de conducción autónoma se queda súbitamente sin frenos sobre una vía en la que existen obstáculos que, de chocar con ellos, matarían a sus pasajeros, y sobre la que caminan transeúntes. Alguien tiene que morir, pero, ¿quién?

Existen escenarios para todos los disgustos. ¿Qué valoras más, la vida de un humano o la de un animal, la de un indigente o la de un médico, la de un niño o la de un anciano? ¿Debería un auto autónomo, chocar contra un muro de concreto para salvar a los peatones que cruzan la calle aunque éstos hayan ignorado que el vehículo tenía la luz verde en el semáforo?

Aunque polémico y en algunos casos un poco tramposo (hay un escenario en el que debes elegir entre un grupo de un hombre y cuatro niños y uno de una mujer y cuatro niñas), el simulador demuestra de manera contundente que el debate moral sobre la respuesta que deben tener las máquinas si se enfrentan al peor escenario posible está lejos de ser clara o fácil de resolver.

Al final, puedes comparar tus resultados con los de otros y confirmar –o, como yo, descubrir en medio de un shock– cuáles son tus prioridades:

  • Salvar más o menos vidas
  • Proteger a los pasajeros
  • Respetar la ley
  • Evitar la intervención
  • Si preferirías matar a un hombre o a una mujer, a un niño o a un anciano o a un humano o un anima

Los investigadores dejan claro cuáles son sus motivaciones para poner a los usuarios en tales predicamentos: “Mientras más autonomía le damos a la inteligencia artificial en estas funciones más probable es que se encuentre en situaciones en las que deba tomar decisiones autónomas que involucren la vida y la integridad física humanas. Esto exige no sólo una comprensión más clara de cómo toman esta tipo de decisiones los seres humanos, sino también una comprensión más clara de cómo los seres humanos perciben a la inteligencia artificial tomando tales decisiones.”

Y también explican cuáles son los objetivos que persiguen con su simulador: “Estudios científicos recientes sobre la ética de las máquinas han aumentado la conciencia sobre el tema en los medios de comunicación y el discurso público. Este sitio web tiene como objetivo proseguir con el debate, proporcionando una plataforma para 1) la construcción de una imagen humana colectiva sobre cómo las máquinas deben tomar decisiones cuando se enfrentan a dilemas morales, y 2) la generación colectiva y discusión de los posibles escenarios de consecuencia moral.”

Por ahora, si me disculpan, tengo mucho que pensar sobre mis resultados:

No te pierdas ninguna actualización sobre este tema

Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.

Inscríbete de forma gratuita

Licencia y republicación

Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.

Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.

Temas relacionados:
Tecnologías emergentesCuarta Revolución Industrial
Comparte:
World Economic Forum logo
Agenda Global

La Agenda Semanal

Una actualización semanal de los temas más importantes de la agenda global

Suscríbete hoy

Puedes anular tu suscripción en cualquier momento utilizando el enlace que figura en nuestros correos electrónicos. Para obtener más información, consulta nuestro Política de privacidad.

El espacio está en auge. Cómo aprovechar esta oportunidad de 1,8 billones de dólares

Nikolai Khlystov and Gayle Markovitz

12 de abril de 2024

Sobre nosostros

Eventos

Medios

Socios y Miembros

  • Únete

Ediciones en otros idiomas

Política de privacidad y normas de uso

© 2024 Foro Económico Mundial