Robots-tueurs: sommes-nous sur le point d’ouvrir la boîte de Pandore?

Le 2 novembre dernier, 300 scientifiques ont adressé une lettre au Premier ministre canadien Justin Trudeau pour alerter sur les dangers de la militarisation de l’intelligence artificielle. Ces experts affirment que l’intelligence artificielle a déjà transformé considérablement nos vies dans de nombreux domaines comme les transports, la santé, l’éducation ou le commerce. Mais selon eux, ces évolutions, passées ou à venir, appellent une grande vigilance, notamment sur le terrain militaire. Ils estiment ainsi qu’en matière d’armement, une “ligne morale claire” ne doit pas être franchie, et que l’utilisation d’armes létales autonomes supprimant un “contrôle humain significatif” dans le processus d’identification et de “neutralisation” des cibles franchirait clairement cette ligne morale.

Ce n’est pas la première fois que la communauté des experts de l’intelligence artificielle sonne l’alarme sur les dangers potentiels d’une trop importante robotisation des armées. En août, un groupe de 115 fondateurs d’entreprise de robotique a adressé une tribune aux Nations unies pour réclamer l’interdiction des robots tueurs autonomes. Parmi eux, Mustafa Suleyman, co-fondateur de DeepMind, une start-up spécialisée dans l’IA rachetée par Google en 2014, et Elon Musk, patron de Tesla, qui considère comme un “risque existentiel civilisationnel”.

Ces figures du monde de la robotique avaient été précédées en 2015 par une lettre du “Future of Life Institute”, un organisme américain spécialisé dans la recherche sur les potentiels risques induits par le développement d’une intelligence artificielle “de niveau humain”. L’astrophysicien Stephen Hawking et le cofondateur d’Apple Steve Wozniak y qualifiaient le déploiement des armes autonomes de “troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires” et soulignaient la nécessité de ne pas sous-estimer la puissance de l’IA.

La lettre ouverte adressée à Justin Trudeau avertit les décideurs: si le déploiement des robots-tueurs s’intensifie, leur autonomie pourrait se développer à un rythme trop soutenu pour l’entendement humain. Des robots émancipés pourraient-ils alors faire la loi, comme l’imaginait James Cameron dans Terminator (1984)?

Ce scénario relève de la paranoïa pour un autre titan de la Silicon Valley, Marck Zuckerberg. Le fondateur de Facebook a critiqué les déclarations d’Elon Musk, les jugeant négatives et irresponsables”.

Les signataires de la tribune adressée cet été à l’ONU comparaient cet été l’intensification du déploiement militaire de l’IA à l’ouverture d’une boîte de Pandore, “difficile à refermer”. Reste que cette boîte a déjà été ouverte, et que les états-majors semblent peu disposés à ralentir ce processus d’automatisation: en France, la ministre des armées Florence Parly a annoncé en septembre l’armement prochain des drones Reaper de l’armée de l’air.