La máquina de la moral y otras ideas para que los coches tomen decisiones correctas
Una máquina de la moral y filósofos colaboran con el MIT para enseñar a los coches a resolver un accidente con el menor número de víctimas posible
De entre todas las dudas que suscitan los coches autónomos, las que tienen que ver con su capacidad para tomar decisiones son las que más debate generan. Muchos usuarios aún temen que el coche pueda cometer un error y estrellarse. Pero lo cierto es que se equivocan mucho menos que los conductores humanos y que el drama real puede venir porque el coche tome la decisión de estrellarse y sacrificar a los pasajeros.
Visto así parece parte de la trama de La rebelión de las máquinas, pero es algo que podría suceder en una situación en la que el daño fuera inevitable y el coche tuviera que decidir entre atropellar a tres peatones o estrellarse y dañar a un pasajero. Es como el dilema de accionar una palanca para que un tren arrolle a una persona o no accionarla y dejar que arrolle a cinco. Pero en la vida real. En este escenario, ¿quién enseña a las máquinas a elegir? ¿Quién decide qué es más correcto en cada situación
El Instituto Tecnológico de Massachusetts (MIT) trabaja con una máquina de la moral a la que han llamado Moral Machine. Es un sistema de inteligencia artificial que presenta distintos escenarios en los que los coches tienen que tomar decisiones a la hora de resolver un accidente con el menor número de víctimas posible. En estas situaciones se asume que frenar y evitar la colisión no es una opción: se trata de casos en los que el automóvil está 100% seguro de que alguien sufrirá daño pero puede actuar para seleccionar quién lo sufrirá.
Fuente: Retina (El País) – 7/09/2017 * Mª Victoria S. Nadal