Androides


A última hora de esa mañana tan pródiga en éxitos iba paseando por mi trinchera cuando vi en un apostadero al alférez Pfaffendorf; estaba dirigiendo desde allí, con un anteojo goniométrico, el tiro de sus lanzaminas. Me puse a su lado y, nada más hacerlo, descubrí a un inglés que caminaba a descubierto por detrás de la tercera línea enemiga; con su uniforme gris caqui se destacaba nítidamente del horizonte. Le arrebaté de las manos el fusil al centinela que más cerca me quedaba, puse el alza a seiscientos metros, apunté con todo cuidado, un poco delante de su cabeza, y apreté el gatillo. El inglés dio todavía tres pasos y luego se derrumbó de espaldas, como si le hubieran quitado de debajo del cuerpo las piernas; un par de veces batió los brazos y después cayó rodando en un agujero abierto por una granada. Largo tiempo vi brillar aún, con los prismáticos, la manga gris de su uniforme.

Tras la vergüenza y el tedio de haber tenido que ocupar funciones de observación debido a una herida en su pierna, Ernst Jünger relata como recuperó en el Somme la plenitud de sus fuerzas vitales. Observar el movimiento de los enemigos sin dispararles iba en contra de algo en él que (según las inclinaciones de cada uno) podría ser llamado un reflejo adquirido o un capricho. En todo caso, era una conducta muy propia de un soldado de infantería, pero que podía ser muy perjudicial en muchas otras posiciones, tales como la que ocupaba su contemporáneo Wittgenstein, la de oficial de reconocimiento.

A diferencia de lo que dice el artículo de Wikipedia, Von Hilgers afirma que los compañeros de Wittgenstein lo detestaban por haberse enlistado como voluntario (al igual que Jünger). Me parece plausible. Yo también odiaría a un voluntario, y ver validado mi prejuicio me exime de acudir a las fuentes. De acuerdo a Von Hilgers, la experiencia militar habría influído poderosamente sobre le pensamiento del primer Wittgenstein, y se detiene sobre un punto en particular. En sus clases en Cambridge, entre 1930 y 1932, Wittgenstein escribía:

Podemos sustituir un plan por palabras. Y un pensamiento puede ser un deseo o una orden. La verdad y la falsedad consisten por lo tanto en la obediencia o desobediencia a ordenes. Pensar significa operar con planes … ¿Cómo sabemos si alguien comprendió un plan o una orden? Uno solo puede demostrar su comprensión traduciéndolo en otros símbolos. Puede comprender sin obedecer. Pero si obedece, también está traduciendo — es decir, coordinando su acción con símbolos.

En esa etapa de su pensamiento Wittgenstein aceptaba el supuesto la naturaleza verbal de la vida psíquica. Esas ordenes o exigencias simbolizadas no serían una expresión consciente de algo anterior (instinto, pulsión, deseo, como quiera llamárselo), sino el dato elemental de lo psicológico. Algunos filósofos de la mente anglosajones adoptaron ese supuesto con entusiasmo y plantearon a las llamadas propositional attitudes como unidades fundamentales del pensamiento, excluyendo de la vida psíquica a la imaginación visual y a la sensación sin objeto. ¿Cómo sería una mente en la cual el deseo no fuera algo distinto de sus manifestaciones verbales, y en la cual toda exigencia fuera efectivamente una instrucción? Sería algo extraño y externo a lo humano, pero comprensible. Algo sobre lo que la filosofía ha reflexionado mucho menos que la ingeniería y la ficción popular.

2:> Bajo el auspicioso título de Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative/Reactive Robot Architecture, Ronald Arkin redacta una especificación formal de los requerimientos de diseño necesarios para evitar que los robots militares puedan matar sin violar las leyes de guerra. Además de ser filosóficamente inepta — es casi enternecedor ver a un molusco como Arkin “considerando” el imperativo categórico kantiano — , desde el punto de vista formal la propuesta de Arkin es de una trivialidad sorprendente. En un momento declara con solemnidad que el diseño debe cumplir la condición de que Pletal = Pletalpermisible. Es decir, que sea constitutivamente incapaz de una acción letal no permisible.
A estas alturas queda claro que Arkin es alguien firmemente apostado debajo de la mediocridad, lo que hace de su lectura una experiencia muy didáctica.

Arkin no tiene mucha paciencia con las leyes de Asimov, a las que desestima de plano. Aunque no se detiene en dar un argumento al respecto, por falaz o precario que fuera, podríamos comentar su gesto de la siguiente forma. Al imposibilitar la resolución violenta de un conflicto desde su primera ley, Asimov condena a los robots a un rol tan servil que los volvería no solo inútiles, sino además desagradables ¿Como podrían satisfacer el sadismo y la necesidad de adulación humanas unos esclavos incapaces de dañar a nadie? Enseguida nos aburriríamos de ellos, y le exigiríamos a los Arkins del futuro la producción de otros que puedan destruirnos. Si el futuro deviene una aburrida prolongación de nuestro presente, los críticos culturales seguirán ignorando la compleja pero clara relación entre deseo y dinero, y culparán a una bestia llamada Mercado de la tendencia humana a fantasear con su autodestrucción.

Nadie se tomará en serio la personería moral de los robots mientras la tecnología no logre hacer más satisfactorio castigarlos a ellos que a los humanos por una falta. ¿No prefieren los partidarios de los derechos de los animales castigar a un hombre que ver sufrir a cualquier otro animal? El utilitarismo es un sistema ético y no una descripción de la psicología humana precisamente por la tendencia al retributivismo que prevalece cuando no lo contrarresta un disciplinamiento moral brutal y temprano. Si pudiéramos identificar al greatest happiness principle con alguna tendencia humana innata el utilitarismo sería efectivamente la banalidad que Marx quiso ver en él.

Otra trivialidad que Arkin plantea con solemnidad de los imbéciles es su afirmación de que los robots pueden desempeñarse de manera mucho más confiable por no poseer una pulsión de autopreservación (no puedo resistirme traducir drive de esa manera). Podemos concederle que los robots son mucho más obedientes a una orden. Quizás eso pueda hacerlos incluso más predecibles que nosotros mismos, pero para superarnos moralmente necesitarían la posibilidad no consumada de destruirnos. Por suerte con ingenieros tan poco imaginativos, que ni siquiera están dispuestos a tomarse el esfuerzo de programar un utility monster, la misantropía y el extincionismo tendrán que seguir esperando varias décadas más al Skynet que nos aniquile.

One clap, two clap, three clap, forty?

By clapping more or less, you can signal to us which stories really stand out.