Una máquina moral te permite decidir a quién mata un coche autónomo defectuoso
Con la aparición de los vehículos autoconducidos, una de las principales preocupaciones que se plantean es cómo responderían a la problemas con los carritos. Se trata básicamente de cuestiones morales, como cuando un coche autoconducido lleno de ancianos tiene que decidir si choca para evitar a unos cachorros en el paso de peatones o si está bien atropellar a dos delincuentes para salvar a un médico. ¿Qué vidas valen más, las de los ancianos o las de los niños de siete años? Investigadores del MIT han desarrollado un juego llamado Máquina moral que permite a los jugadores tomar decisiones similares en materia de ética. El objetivo principal de este juego es ayudar a construir una imagen multitudinaria de la opinión humana sobre cómo las máquinas deben tomar la decisión cuando se enfrentan a dilemas morales.
A los participantes en este juego se les plantean 13 preguntas, todas ellas con sólo dos opciones. En todos los escenarios, un coche autoconducido al que le fallan inesperadamente los frenos tiene que tomar una decisión: seguir avanzando y chocar con lo que tenga delante o apartarse del camino, aplastando lo que encuentre a su paso.
Moral Machine cuenta con todo tipo de personas en diferentes escenarios: niños, ancianos, hombres, mujeres y adultos. Hay ejecutivos, delincuentes, indigentes o anónimos. En una de las preguntas, se pide a los participantes que elijan entre salvar a una mujer embarazada en un coche o a un niño, una mujer médico, una mujer ejecutiva, dos mujeres deportistas y una mujer médico. El escenario plantea cuestiones más matizadas: ¿Debería salvarse al pasajero que nunca se quejó del exceso de velocidad del coche? ¿O deberíamos depender de los airbags y otros dispositivos de seguridad en caso de accidente en lugar de arrollar a civiles desprotegidos?
El juego también plantea opciones básicas como si la IA debe participar en absoluto si va a salvar más vidas o simplemente permanecer pasiva en lugar de cambiar activamente los acontecimientos de una manera que la hagan responsable de la muerte de alguien. La mayoría de la gente que juega al juego piensa que las decisiones son difíciles en situaciones claras. Imagínate lo difícil que será para los coches autoconducidos en medio de un caos vial.
El problema del trolebús se formuló por primera vez a finales de los años sesenta. La pregunta es si es más justo tirar de una palanca, que envía un trolebús por una vía diferente para matar a una persona, o dejar el trolebús en su curso, donde matará a cinco. Se trata de un problema moral inherente, y una ligera variación puede cambiar significativamente la respuesta de la gente.
Al final del test, la Máquina Moral informa al participante de que sus respuestas forman parte de una recopilación de datos realizada por científicos del MIT para investigar la ética y la sociedad de las máquinas autónomas. Sin embargo, las personas pueden optar por no enviar sus datos.
Crédito de la imagen: techcrunch