Programando el crimen perfecto

Breve relato de ciencia ficción sobre crimen y conciencia

David Alcubierre
EÑES
6 min readOct 29, 2017

--

La idea se me ocurrió el día que vi uno de esos vídeos que circulan por las redes sociales.

Peatones confiados en la tecnología. Confiados en algoritmos creados por humanos competentes. Qué fácil es morir a manos de una máquina, de una máquina programada por humanos.

Pensando en esas imágenes fue inevitable que me preguntara lo que tantas y tantas mentes se han preguntado a lo largo de la historia.

¿Sería posible el crimen perfecto?

Sí, ya se que ya han habido crímenes perfectos. Crímenes que no salen en los periódicos porque precisamente su éxito se basa en no trascender. Yo hablo de algo diferente, algo más allá de limpiar eficientemente la escena del crimen y esconder (mejor eliminar) el cuerpo del delito. Hablo de construir una lógica que elimine directamente el hecho de la búsqueda del culpable.

Las máquinas no pueden ir a la cárcel. Nadie sospecha que una máquina pueda hacer algo con voluntad propia. Cualquier investigador podría concluir que «la culpa ha sido del mal funcionamiento de un algoritmo». Un accidente más.

Estaba decidido.

Lo primero sería elegir qué máquina sería la más adecuada para el crimen perfecto.

Foto de Portal GDA con propósitos ilustrativos.

El referente evidente era el coche autónomo. La gran ventaja es que sería muy fácil de reprogramar. Además, atropellos de humanos hechos por humanos pasan cada día y se determinan como accidentes en su gran mayoría. Uno más pasaría desapercibido. Por otro lado, si escogíamos un coche autónomo eléctrico añadiríamos un más que interesante factor sorpresa al crimen. La gran desventaja del coche autónomo es que limitaba mucho el radio de acción. Solo sería posible atropellar a quien saliera a la calle en condiciones muy determinadas. La velocidad limitada en las urbes añadía también un factor de supervivencia del peatón. Demasiados cabos sueltos. Opción desestimada.

Foto de Sam Churchill con propósitos ilustrativos.

La siguiente opción que se me ocurrió fue usar drones autónomos. Ahora hay muchos drones de entrega de paquetes que seguramente serían fáciles de reprogramar. Sus hélices son un arma potencial que podrían crear daños a un humano.

Imagen de Aalborg University.

Por desgracia, se han hecho un gran número de tests para averiguar el daño que podría hacer, y no arrojan datos definitivos sobre la mortalidad de sus ataques. Serían la elección si quisiéramos herir, pero no matar, que es el objetivo de todo crimen perfecto. Seguramente harían más daño golpeando como peso muerto caído desde el cielo (en similitud con la típica muerte por caída de maceta en la cabeza) que tratar de secuenciar las hélices para clavarlas en alguna zona blanda. Opción mejor que el coche autónomo, pero desestimada también.

Foto de Paul Wasneski con propósitos ilustrativos.

Una opción alternativa a los drones eran los robots repartidores. Tienen la gran ventaja de no parecer nada amenazadores. Además, estos pueden llegar de forma silenciosa y pueden penetrar en jardines y terrazas sin demasiados problemas. El mayor inconveniente es que están limitados a lugares accesibles, pero eso no es importancia si tenemos en cuenta que es el humano quien finalmente se debe aproximar al robot. El humano tiene un interés especial en acercarse e interaccionar con el robot, pues desea el paquete que este lleva en su interior. El problema del robot repartidor era que no disponía de potenciales armas. La velocidad de estos dispositivos no es muy alta, así que podríamos descartar el atropello al humano. Tampoco sería buena idea enviar una bomba dentro del robot. Implicaba burlar demasiados controles. Por no hablar de los restos que dejaría la explosión. Demasiadas pruebas. Opción desestimada también.

Imagen de Knightscope con propósitos ilustrativos.

Otra de las opciones sería poder usar un robot de vigilancia. Podía desplazarse tan rápido como un robot repartidor (unos 20 kilometros/hora). No dispone tampoco de un aspecto amenazador. Más aún, se supone que debe proteger a las personas. Pero la ventaja más grande era que sería fácilmente programable para que usara alguna de sus armas en modo letal. Algunos modelos de robots de vigilancia (como los Anbot o los Knightscope) disponen de un táser incorporado. Sería muy sencillo modificar el firmware del robot para que aplicara una mayor potencia al arma y la convirtiera en letal.

Decidido. El robot de vigilancia sería el asesino perfecto.

El siguiente paso sería programar el aparato. El proceso duró casi cuatro meses. Empleé todo el tiempo del que disponía. Tuve que decidir el modelo que usaría. Opté por los Knightscope por razones mediáticas. Me explico. No disponía de un dispositivo para pruebas, así que tendría que modelar todo el comportamiento en un modelo emulado. Cuando tuviera el nuevo firmware listo para implantar tendría que hacerlo de manera remota. Debería acceder a un dispositivo y realizar la actualización sin dejar pistas. Si el experimento funcionaba bien, al día siguiente sería noticia de primera plana. Si escogía Anbot (empresa china), me arriesgaba a que la noticia no pasara la censura china y nunca sabría si el experimento llegó a funcionar. Knigthscope disponía de dispositivos en funcionamiento en varios estados de EE. UU. Estaba seguro que si un robot mataba a una persona sería primera página del New York Times.

Lo tenía todo preparado. Las pruebas de emulación habían funcionado perfectamente. Había reprogramado al robot para que taseara al primer humano con gafas que se encontrara a partir de las 13.00 horas. El táser generaría más potencia de la debida y el humano acabaría sufriendo un ataque al corazón de fatales consecuencias.

Conseguí acceder a los servidores de Knigthscope y realicé el cambio de firmaware. Añadí una rutina que eliminaba el nuevo firmware del servidor en cuanto era descargado por alguno de los dispositivos de la empresa. Con eso me aseguraba de que solo un dispositivo estuviera modificado.

Una vez en el dispositivo el sistema se reiniciaría con un downgrade al final del crimen. Eso sería el equivalente a limpiar la escena del crimen.

Estaba todo listo. Solo quedaba esperar. Me fui a la cama esperando a leer las buenas noticias al día siguiente.

No ha funcionado. Algo ha fallado. Repetí la emulación una y mil veces y en todas dio un resultado positivo. Desconozco las razones del fallo. El borrado de pruebas elimina la posibilidad de que lleguen hasta mí, pero también hace imposible que pueda descubrir el error. Algo en el robot impidió que llevara a cabo las ordenes principales. ¿No pudo o no quiso matar? No hubo crimen perfecto.

Esta es la noticia que leí sobre el tema:

Captura de pantalla de la noticia en Mirror

--

--

David Alcubierre
EÑES

Consultor freelance. Me gusta la programación, los videojuegos y la ciencia ficción.