¿Queremos que un coche automático decida quién debe morir?

Albert Grau Carbonell
Punto y coma
Published in
5 min readJun 9, 2016
Fuente (adaptada).

Un coche sin piloto se acerca a un cruce. Solamente puede ir a derecha o seguir recto. Surge un problema. Si sigue en la misma dirección tiene una gran probabilidad de chocar con otro coche. Si gira a la derecha puede hacer salir un autobús escolar de la calzada y provocar un número indeterminado de víctimas. Si gira a la izquierda es una sentencia de muerte segura para los cinco ocupantes del vehículo. No da tiempo a frenar, el código debe decidir. O no.

Desde que Isaac Asimov inició el debate sobre el comportamiento de los robots con sus tres famosas leyes, se ha hablado mucho sobre las implicaciones filosóficas que estos traen consigo junto a sus circuitos y su potencial. Sin embargo, el dilema sigue hoy candente y, en este caso, carece de respuestas: ¿debe un robot tener la capacidad de decidir quién vive y quién muere?

En caso afirmativo, ¿se debe programar una máquina para que minimice el número de víctimas, o para que maximice las edades de los fallecidos? La respuesta parece trivial: la mayoría probablemente abogaríamos por una combinación de ambos factores. Sin embargo, ¿cómo puede un coche calcular el número de potenciales víctimas en décimas de segundo? Debería primero comprobar cuántos ocupantes lleva cada vehículo, luego calcular el valor de cada uno y finalmente optimizar el número de daños humanos. Sin embargo, esto levanta un problema fundamental. Debe valorarse la vida humana en una escala numérica sobre la que el robot pueda calcular. Esto, por supuesto, genera un importante dilema moral: ¿cómo valoramos unas vidas frente a otras?

Prototipo de Google para un coche sin conductor. Fuente.

Existe además otro problema difícil de esquivar. Pongamos que nuestro coche decide arrollar a otro para evitar provocar un accidente a un autobús escolar. Bien, ¿cómo sabe nuestro vehículo que ese autobús está lleno? Es fácil imaginar que pasaría. Se levantarían mil y una voces en contra de un sistema que ha priorizado la muerte de los ocupantes de dos vehículos por encima de la de un conductor de autobús.

El sector tecnológico y el automovilístico rompen una vara en favor de esta tecnología. La informatización ha llegado rápidamente a los vehículos, así que cada vehículo podría transmitir en directo la cantidad de pasajeros, así como los «valores» de estos, al resto de vehículos. Aunque, aun así, ¿quién querría dejar conducir a un piloto automático que en caso de que sea necesario — si los ocupantes «valen menos puntos» — sacrificará a las personas de su vehículo?

¿Quién querría dejar conducir a un piloto automático que en caso de que sea necesario — si los ocupantes «valen menos puntos» — sacrificará a las personas de su vehículo?

Por otro lado, hay quien apunta en la dirección opuesta. Según este punto de vista, un robot no debe tener ninguna potestad a la hora de decidir sobre vidas humanas. El robot debería simplemente imitar las maniobras que un humano haría, esquivando otros vehículos pero nunca evaluando daños. Este argumento se sostiene en tres pilares fundamentales. En primer lugar, ningún programa se encuentra libre de errores y una vida humana no debe estar sujeta a estos. En segundo lugar, se considera que no es moral otorgar más valor a la vida de una persona que a la de otras. En tercer lugar, no hay ninguna garantía de que un robot no produzca más daños de los necesarios, ya que no se espera que todos los vehículos sean automáticos y por lo tanto se añadiría un factor anti-intuitivo a la carretera. Además, todo se basa en probabilidades que, sin duda, se calcularían con códigos no deterministas y basados en modelos falibles.

Sin embargo, este punto de vista genera un último dilema. Si la sociedad libera de culpa a todo el mundo por los accidentes provocados por estas tecnologías, ¿no estamos creando un contexto en el que los conductores quedan liberados de las consecuencias de sus actos? ¿Acaso no va esto en contra de la naturaleza humana y, en última instancia, de una sociedad bajo un conjunto de leyes que determinan responsabilidades en otros muchos aspectos? ¿Estamos dispuestos a permitir que ciertas acciones no sean punibles?

¿Estamos dispuestos a permitir que ciertas acciones no sean punibles?

Los avances en la conducción automática llevan aparejados muchos retos tecnológicos, pero también — como se puede comprobar en esta reflexión — un sinfín de dilemas filosóficos de difícil solución. Las respuestas no saldrán de la industria sino de un debate que debe trasladarse a las calles, a la política y a la educación. El futuro, en esta era de avances sin precedentes, descansa en las manos de todos.

También puede interesarte:

Si te ha gustado el texto, por favor compártelo en las redes sociales que uses habitualmente o recomiéndalo en Medium.

Albert Grau Carbonell recientemente se graduó en Física y ahora escribe desde los Países Bajos, donde estudia un Máster en Nanomateriales. Escribe en elLibro de a Bordo desde hace seis años.

Puedes seguirle en twitter en @AlbertGraC y puedes mantenerte al tanto de las publicaciones de Punto y Coma en @PuntoyComaMed o en la página de Facebook.

--

--

Albert Grau Carbonell
Punto y coma

Físico, divulgador, expatriado y escritor aficionado.