Votemos qué está bien, qué está mal

La moral en la inteligencia artificial

3830

En cierta ocasión una piedra desprendida desde lo alto de un acantilado mató a un joven que estaba abajo, tranquilamente mirando el móvil junto a la playa. La piedra fue condenada por asesinato. De nada valieron los argumentos de la defensa, que sostenían que la piedra estaba sujeta a la ineludible ley de la gravedad. El juez dictó que la piedra, como vehículo en movimiento, debería haber decidido de forma autónoma desviar su trayectoria para así evitar la muerte de aquel inocente joven. Este mismo absurdo razonamiento ocurre con los vehículos de conducción autónoma.

Ninguna máquina toma una decisión moral; son las personas que diseñaron los algoritmos quienes la toman

Actualmente existe un debate en torno a la decisión que debe tomar un vehículo autónomo cuando se encuentre ante una situación que afecte a la integridad física de las personas. Para avanzar en esta controversia, el MIT ha creado Moral Machine (http://moralmachine.mit.edu). El objetivo es “construir una imagen amplia (mediante crowdsourcing) de la opinión de las personas sobre cómo las máquinas deben tomar decisiones cuando se enfrentan a dilemas morales”. Para ello, el MIT propone una serie de escenarios con dilemas relacionados con vehículos autónomos y, sobre ellos, los participantes deciden soluciones.

Las disyuntivas que se plantean radican en el número y tipo de personas que morirían frente a un determinado escenario. Se plantea si es mejor matar a un viandante o a las personas que viajan en el coche; o a una joven frente a un delincuente; o a una persona atlética respecto a un anciano achacoso. Estas cuestiones tienen su peligro y merecen una reflexión.

Detrás de tales dilemas morales se encuentra la corriente filosófica ética denominada utilitarista, según la cual está bien aquello que es bueno para la mayoría. En el caso de la plataforma del MIT, la solución correcta respecto a un posible escenario puede depender de la opinión más votada. Así planteado, parece que dejamos la vida en manos de la solución más votada, al puro estilo de un circo romano. Desde luego, es más moderno decir que es una solución basada en una “plataforma de crowdsourcing”. De esta forma diluimos la responsabilidad en la modernidad.

Pero además existe un segundo error. Ninguna máquina toma una decisión moral; son las personas que diseñaron los algoritmos quienes la toman. Un vehículo autónomo es como la piedra que cayó y mató al joven en el acantilado. Así como argumentó la defensa, que la piedra estaba sujeta a la ineludible ley de la gravedad, de la misma forma el vehículo autónomo está sujeto a la ineludible ley (o leyes) del algoritmo que algún ingeniero le programó. Ni la piedra ni el vehículo son “autónomos”. Una máquina no se enfrenta a dilemas a morales, somos nosotros quienes nos enfrentamos a ellos a través de las máquinas, y esa es nuestra responsabilidad.

Todo esto nos lleva a una serie de preguntas a las que debemos dar respuesta antes de ponernos a programar: ¿es la moral una cuestión de democracia?, ¿es el bien y el mal una cuestión de votos?, ¿es siempre única la respuesta ante una pregunta ética? En consecuencia, ¿podemos reducir las cuestiones éticas a fórmulas matemáticas, y por tanto a algoritmos? Hace falta más Kant y menos Watson.