¿Desarrollo de inteligencia artificial, fin de nuestros tiempos?

Desde que en 1956, en la conferencia de Dartmouth College, New Hamspshire, el informático John McCarthy y otros científicos discutían sobre cómo simular la inteligencia humana en las máquinas, no solo nace el concepto de Inteligencia artificial, sino que también surge un acalorado debate que enfrenta el progreso tecnológico con dilemas éticos y morales.

Lo primero, para poder tomar posiciones en el tema, es entender qué es la inteligencia artificial. El libro Inteligencia Artificial y computación avanzada, de la Fundación Alfredo Brañas, se define como el comportamiento “inteligente” de un artefacto científico, es decir algo que una si una persona hiciese, sería considerada inteligente, es hecho por una máquina.

No es un concepto del todo complicado, aunque durante las últimas décadas hemos estado constantemente expuestos a películas, libros y juegos de video que nos muestran una realidad apocalíptica en el momento en el que el hombre pierde el control sobre su creación y esta nos sobre pasa. El debate está abierto ¿Es la inteligencia artificial un gran desarrollo científico que ayudará a la humanidad? O por el contrario ¿mientras más sofisticadas las máquinas, más cerca estamos del fin de la humanidad como la conocemos?

La inteligencia artificial comienza a adentrarse poco a poco dentro de nuestra cultura, hasta el punto en el que solemos olvidarnos de que posiblemente hayamos estado en contacto con esta alguna vez en nuestras vidas. Muñecas robot, que lloran y piden comida, carros inteligentes, mascotas robot, máquinas para pasear minusválidos, aplicaciones que interactúan con las personas, etc.

Es un proceso que aunque ha arecido lento, cada día se acelera un poco más y se acerca el momento de llegar “a la singularidad”, momento en el que desaparecen las barreras entre la Inteligencia Artificial y la Inteligencia Biológica. Según dijo Carlos León, profesor del departamento de ingeniería del Software e inteligencia artificial de la UCM, para el programa ConCiencia de TeleMadrid, es el momento el que el ser humano pueda crear una máquina tan sofisticada que esta a su vez pueda crear otra máquina incluso más inteligente que puedo crear otra y así sucesivamente.

El desarrollo tecnológico no necesariamente tienen que terminar en un acabose, pero para evitar ese panorama, los científicos han estado creando planes de contingencia y test que puedan medir si un aparato es inteligente o no. Uno de los más famosos es el test de Turing, creado por Alan Turing, el matemático que quebró el “Código Enigma” y con esto cambié el rumbo de la Segunda Guerra Mundial. En este test un juez mantiene una conversación por medio de un teclado con una máquina y con un humano. Si al final no puede diferenciar entre ambos, se considera que la máquina es un igual al hombre.

Pero el test de Turing abre las puertas a distintas posiciones, puesto que una máquina podría estar programada para funcionar correctamente en el test, pero de todas maneras no poder resolver un problema cotidiano para el hombre. Y aunque un robot pueda mantener una conversación, esta se puede salir de control.

Uno de los casos recientes de descontrol de un robot de Inteligencia Artificial es el de Tal, fue programada por Microsoft para interactuar a través de Twitter, como si fuera una joven estadounidense de 19 años. El 23 de marzo de 2016 fue su “nacimiento” en la plataforma, poco después de tener “interacción” con los tuiteros, comenzó a tornarse agresiva, xenófoba, homofóbica y machista y fue “apagada” en un día.

Ya desde 1940 el escritor ruso Isaac Asimov elaboró para sus cuentos y novelas tres leyes básicas que los robots deberían cumplir siempre para evitar una catástrofe leyes de la robótica.

  1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.

Con estas leyes, Asimov, pretendía evitar un “complejo de Frankenstein” que los robots se rebelen frente a su creador y desobedezcan contra este. Sin embargo, estas leyes entran en conflictos morales y éticos que posiblemente un robot no pueda discernir, con lo que entraría confusión y puede tomar decisiones incorrectas.

Por otro lado, la inteligencia artificial puede ser de gran ayuda para la humanidad, en el campo de la medicina, es de gran ayuda para cuidar pacientes con enfermedades complicadas y que restrinjan el contacto con los médicos, en exploraciones a lugares inhabitables para el hombre, como el reactor de Fukushima, también ha sido de alta importancia, reduciendo el riesgo de recibir semejantes niveles de radiación.

La inteligencia artificial y el sofisticación de los robots son un desarrollo irrefrenable de la humanidad, un futuro apocalíptico aún está en un escenario distante, falta mucho camino por recorrer. Que no cuenda el pánico.