Juguemos un rato a ser programadores –y un poco dioses– y decidamos quién vive y quien muere en una encrucijada hipotética en la que un vehículo autónomo debe decidir si matar a sus pasajeros o unos transeúntes.

Es una idea macabra, es verdad, pero la tecnología no ha traído hasta este punto. Se trata de escenarios ante los cuales todo auto que sea conducido por una computadora debe estar preparado. ¿Tú qué harías?

Para no dejar esa idea en un supuesto, el Massachusetts Institute of Technology (MIT) desarrolló un simulador que te permite decidir qué curso de acción debe tomar un vehículo autónomo cuando se encuentra en un escenario en el que, haga lo que haga, se verá involucrado en un choque que implicará la pérdida de vidas.

El simulador, llamado apropiadamente Moral Machine, plantea 13 escenarios hipotéticos en los que un coche de conducción autónoma se queda súbitamente sin frenos sobre una vía en la que existen obstáculos que, de chocar con ellos, matarían a sus pasajeros, y sobre la que caminan transeúntes. Alguien tiene que morir, pero, ¿quién?

Existen escenarios para todos los disgustos. ¿Qué valoras más, la vida de un humano o la de un animal, la de un indigente o la de un médico, la de un niño o la de un anciano? ¿Debería un auto autónomo, chocar contra un muro de concreto para salvar a los peatones que cruzan la calle aunque éstos hayan ignorado que el vehículo tenía la luz verde en el semáforo?

Aunque polémico y en algunos casos un poco tramposo (hay un escenario en el que debes elegir entre un grupo de un hombre y cuatro niños y uno de una mujer y cuatro niñas), el simulador demuestra de manera contundente que el debate moral sobre la respuesta que deben tener las máquinas si se enfrentan al peor escenario posible está lejos de ser clara o fácil de resolver.

Al final, puedes comparar tus resultados con los de otros y confirmar –o, como yo, descubrir en medio de un shock– cuáles son tus prioridades:

  • Salvar más o menos vidas
  • Proteger a los pasajeros
  • Respetar la ley
  • Evitar la intervención
  • Si preferirías matar a un hombre o a una mujer, a un niño o a un anciano o a un humano o un anima

Los investigadores dejan claro cuáles son sus motivaciones para poner a los usuarios en tales predicamentos: “Mientras más autonomía le damos a la inteligencia artificial en estas funciones más probable es que se encuentre en situaciones en las que deba tomar decisiones autónomas que involucren la vida y la integridad física humanas. Esto exige no sólo una comprensión más clara de cómo toman esta tipo de decisiones los seres humanos, sino también una comprensión más clara de cómo los seres humanos perciben a la inteligencia artificial tomando tales decisiones.”

Y también explican cuáles son los objetivos que persiguen con su simulador: “Estudios científicos recientes sobre la ética de las máquinas han aumentado la conciencia sobre el tema en los medios de comunicación y el discurso público. Este sitio web tiene como objetivo proseguir con el debate, proporcionando una plataforma para 1) la construcción de una imagen humana colectiva sobre cómo las máquinas deben tomar decisiones cuando se enfrentan a dilemas morales, y 2) la generación colectiva y discusión de los posibles escenarios de consecuencia moral.”

Por ahora, si me disculpan, tengo mucho que pensar sobre mis resultados: