22/1/16. Inteligencia artificial

Estamos en un momento en el que oímos mucho hablar de inteligencia artificial y ello, irremediablemente, nos lleva a pensar en un mundo lleno de robots que piensan por sí solos. Las peliculas también han ayudado mucho a ello. Ya en 1942 el excelso Isaac Asimov enumeró las tres leyes que todo robot debe cumplir:

  1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

Parecen claras y obvias, pero ¿es posible que algún robot pueda llegar a pensar de manera autónoma como para tener que plantearse esas leyes a sí mismo? Hay investigadores que piensan que esto no es posible.

Ayer estaba viendo un magnífico vídeo de una charla de Oscar Schwartz titulada ¿Puede un ordenador escribir poesía? En dicho vídeo se mostraban al público distintos poemas escritos por humanos y por ordenadores y, en algún caso, los asistentes no eran capaces de distinguir el escrito humano del artificial. Y ello lleva al investigador, por un lado, a concluir que los robots serán lo que nosotros queramos que sean, es decir, si enseñamos a una computadora a escribir -mediante un algoritmo- como Machado, escribirá como Machado. Y, por otro lado, a sentenciar que lo que nos hace humanos es algo inestable. Es algo que se construye con nuestras opiniones y que cambia con el tiempo. De ahí la dificultad de construir eso que algunos llaman un robot-humano. Según Oscar Schwartz no hay que preguntarse si se puede construir, sino qué tipo de robot-humano queremos construir, una reflexión que a su juicio debe tener la humanidad entera.