Peut-on dans une quasi-indifférence décider du destin de notre société ?

Ce qui se joue avec le projet de loi sur le Renseignement est plus profond qu’on ne pense

Ay. Poulain Maubant
20 min readApr 30, 2015

Cher monsieur mon député, (et autres parlementaires qui se reconnaîtront),

L’Assemblée Nationale puis le Sénat sont saisis actuellement d’un projet de loi dit sur le renseignement, dont plusieurs points soulèvent des inquiétudes provenant de voix extrêmement variées, des spécialistes du sujet police-justice y compris des juges anti-terroristes, du défenseur des droits, des entrepreneurs du numérique, de la CNIL, des associations de citoyens, des parlementaires, des observateurs étrangers à qui nous avons apporté la liberté en leur temps, et j’en passe. Ces voix ne semblent pas assez ni entendues, ni écoutées (!). Leurs arguments sont souvent balayés au prétexte qu’il faudrait accepter de petits renoncements à la liberté pour avoir plus de sécurité, qu’il s’agit de petites concessions, et que ce sont en réalité de tous petits groupes de Français qui vont être surveillés. Au contraire, un des choix techniques est à la base d’un renoncement majeur à terme, à tel point que lorsque ce terme arrivera personne ne saura plus qu’un autre choix était possible.

Le deuxième article de cette loi peut en effet à terme changer durablement, et sans retour possible, l’essence même de la liberté :

- pouvoir agir sans sentir un œil constamment posé sur vous qui finit par pousser à l’auto-censure,

- pouvoir mener sa vie sans devoir ressentir, puis intégrer, puis finalement oublier, la présence d’une main invisible qui tisse les fils de votre destin selon des choix que vous ne pouvez pas vous expliquer.

Entendons-nous bien, il ne s’agit pas de refuser le principe du Renseignement (tant que ses services sont maîtrisés, bien sûr). Dans le contexte historique que nous vivons, aucune des voix ci-dessus n’a remis en cause la nécessité d’effectuer du renseignement, aucune de ces voix, de plus en plus nombreuses, ne rejette en bloc le principe de cette loi. Elles interrogent en revanche certaines de ses modalités, démontrant leur inefficacité technique et dénonçant leur atteinte à des principes constitutionnels. Et si sur la technique nous comprenons que l’ensemble des parlementaires de la classe politique actuelle ne soient pas toujours les plus avertis, c’est un peu plus dur à avaler pour nous citoyens qui leur confions un mandat, de voir que ces principes qui ont fait depuis plusieurs siècles la République telle que nous la connaissons, risquent d’être engloutis en quelques semaines, sans véritable débat de fond.

Il est également un peu plus difficile d’apprendre que bon nombre de parlementaires se contentent de renvoyer aux citoyens qui les interrogent une lettre type rédigée par le rapporteur du texte Jean-Jacques Urvoas et son équipe. Sur un sujet qui va nous engager collectivement vers un choix de Société discutable (c’est-à-dire: qu’il convient de discuter), se contenter de relayer des éléments de langage me semble très loin, très très loin de ce que l’on attend de la représentation nationale.

Si je m’adresse à vous dans mon apostrophe, Richard Ferrand, c’est parce que vous êtes mon député, et que je ne sais pas exactement quel est votre sentiment sur ces sujets. Je ne vous ai pas vu en parler sur votre site ou sur les réseaux sociaux, ou dans votre lettre d’information. Votre champ lexical sur les 12 derniers mois, tel qu’analysé par nosdeputes.fr, ne remonte pas beaucoup de termes relatifs à l’ère numérique et au changement de monde en cours. J’ai également regardé vos questions orales et écrites ces dernières années, sans pouvoir me faire un avis tranché comme on pourrait en avoir un sur, au hasard, Laure de la Raudière ou Christian Estrosi. J’ai vu cependant que vous aviez pris comme argument, dans des questions sur le délit de faciès, la qualité attentatoire à la vie privée de ces procédures de contrôle physique, que vous avez eu aussi à cœur les questions de la Confiance entre les gardiens de l’ordre et les citoyens. Plus récemment, j’ai observé le destin de votre amendement “secret des affaires” que vous aviez mis dans la loi Macron dont vous étiez le rapporteur, une thématique -le secret des affaires- qui était déjà chère au cœur de votre prédécesseur.

Je me renseigne sur votre travail de député et de conseiller régional, et il me semble qu’il est tout à fait possible de discuter avec vous sans faire face à une position dogmatique, et à travers vous, à vos collègues qui ont suffisamment confiance en eux pour se faire un avis éclairé par eux-même.

“Vous” désigne donc à présent les parlementaires qui se reconnaîtront dans cet état d’esprit de veille permanente, à celles et ceux qui sentent confusément qu’il y a quelque chose d’incertain dans ce projet de loi, compte-tenu du nombre d’oppositions qui se présentent dans la société civile, et dans leurs propres rangs.

Puisqu’on parle… il faudrait que vous nous écoutiez, avant de nous engager collectivement dans cette aventure à risques du projet de loi Renseignement

Je vais vous dire d’où moi je parle. L’ère numérique est mon quotidien. J’y suis plongé depuis mes études dans une grande école des télécoms il y a 25 ans, poursuivie par une thèse en sciences cognitives, où j’ai pu analyser en détail l’histoire des recherches en intelligence artificielle, puis par plusieurs années de sensibilisation du tissu économique finistérien (dont votre territoire actuel, pour le compte des collectivités locales et territoriales) à l’arrivée d’Internet pour tous, de l’aménagement numérique du territoire, et, les années s’additionnant, jusqu’aux dynamiques FrenchTech et à la possibilité, unique et enfin bienvenue, de prendre toute notre place dans la création du monde post-industriel. Aujourd’hui, alors que je vous écris, je rédige un document sur l’Homme augmenté, et je mesure à quel point, en France beaucoup plus qu’ailleurs, nous échouons systématiquement à prendre en compte collectivement les bouleversements du numérique sur nos sociétés — ce que nous faisons collectivement dans le numérique en tant que peuple est bien en-deçà de ce qu’il faut faire.

Par ailleurs, ma conscience citoyenne s’est affinée pendant de nombreuses années comme officier de réserve en charge de sessions de JAPD, d’autant plus que je fus adoubé à ce poste un certain 11 septembre. J’ai aussi vu d’assez près, presque majeur à l’époque, un attentat de grande ampleur à Paris.

Ceci pour vous dire, sans entrer dans d’inutiles longueurs, que je considère pouvoir me faire une opinion suffisamment bien documentée sur certains des enjeux de la loi Renseignement, et que je pense également que le fruit de ma réflexion peut être utilement rendu public. Et voici comment je la formule :

Le projet de loi Renseignement, tel qu’il est rédigé en avril 2015, introduit un biais majeur qui va, imperceptiblement, au fil des mois et des années, parce que les technologies vont s’insinuer puis s’engouffrer dans cette brèche, parce que les humains vont par confort, méconnaissance ou ignorance, laisser les choses se faire. Ce biais est celui d’une Société régie dans ses plus petits moments comme dans ses grands, dans nos vies intimes comme dans les chemins de nos peuples, non plus par notre volonté humaine, mais par les décisions d’artefacts que nous créons aujourd’hui mais que nous ne comprendrons plus demain. Nous créons les conditions d’un destin humain qui nous échappe.

Laissez-moi vous faire voir comment.

La Question qui nous est posée est la suivante : pouvons-nous laisser à un dispositif technique le soin de tisser notre destin tant collectif qu’individuel ?

Ce dispositif — futur, on en voit que les prémices aujourd’hui— est annoncé par celui de l’article 2 de la loi Renseignement, le principe de la “boîte noire”. Que cette boîte noire soit déjà placée ici ou là dans les réseaux, plus ou moins légalement —la loi a aussi pour objectif de clarifier cette légalité, c’est bien— , qu’elle soit placée à l’avenir sous contrôle fort du premier ministre (l’exécutif! tout de même !? quid de la séparation des pouvoirs?) et faible des magistrats (la commission de contrôle proposée est bien trop faiblement armée pour remplir sa mission), qu’à l’avenir un autre gouvernement soit animé d’intentions plus liberticides encore, une fois que cette brèche sera ouverte, là n’est finalement plus la question. Puisqu’à l’évidence nombre de parlementaires semblent insensibles à tous ces arguments. Alors mettons de côté cette boîte noire quelques instants.

La question est en réalité celle du Destin individuel, et par delà du destin collectif que nous nous proposons d’avoir. Elle nous est posée à nous tous, pas seulement aux 577 députés le 5 mai prochain, et aux sénateurs ensuite. C’est la nature même de notre rapport au destin, et donc aux libertés qui permettent d’en garder le contrôle, que nous nous apprêtons à modifier sans retour possible. Laissez-moi vous en convaincre.

Pourquoi nos destins individuels sont-ils ainsi dans la balance ?

Nous aspirons tous à l’égalité des chances dans la vie. Nous aspirons également tous à pouvoir faire nos choix de vie en pleine conscience. Certes, ces choix que nous faisons sont influencés par l’éducation que nous recevons, nos expériences de vie, les messages des publicitaires, notre culture commune, les façons de vivre de nos voisins que nous voulons imiter ou non…Il s’agit cependant d’une influence que nous pouvons accepter car nous pouvons la percevoir, la décoder, l’accepter ou la refuser, la comprendre, à des degrés divers, certes, mais suffisamment pour que nous restions encore tous à peu près maître de notre destinée.

La donne change complètement lorsque nous laissons à des algorithmes le soin d’estimer nos comportements et de modifier notre environnement en conséquence. Car ces algorithmes, par essence désincarnés et n’ayant pas éprouvé la nature et la condition humaines, ne peuvent pas prendre en compte toutes nos subtilités. Ils vont façonner peu à peu un monde qui ne nous correspondra plus, sans que nous en ayons même conscience. Ce point est absolument essentiel à comprendre.

Attention, je reste très pro artefacts numériques, je suis persuadé que ces derniers peuvent/doivent accéder à un niveau de comportement et de conscience de même nature que les organismes biologiques, mais laissons leur le temps d’entrer dans notre monde plutôt que les amener à le bouleverser et d’y imposer leurs règles.

Nous avons déjà aujourd’hui peu conscience de la présence de ces algorithmes ; qu‘en sera-t-il demain ? dans 10 ans, dans un siècle ?

Le cas des retraits d’argent au distributeur bancaire parlera à tout le monde (il est illustré en détail dans un texte à lire d’InternetActu qui date de 2013). Chacun convient qu’il faut sécuriser ces retraits, et que l’imagination des voleurs semblant sans limite il faut déployer en face des ripostes avec les moyens techniques disponibles. Granted! Observer les types de retrait (montants, localisation…) et lever une alerte (bloquer une carte) en cas de retrait improbable (fréquence de retrait, montants, localisations brusquement changeantes) semble ainsi raisonnable / acceptable. Mais si l’algorithme est mal conçu, il risque de bloquer une carte qui n’est pas utilisée frauduleusement (ce qu’on appelle un faux positif), par exemple après une opération de retrait annulée en cours de route par le propriétaire légitime de la carte qui se serait ravisé (exemple cité dans InternetActu ci-dessus, lisez vraiment cette référence tout à l’heure). S’ensuit du temps perdu par l’usager qui ne comprend pas pourquoi ses retraits sont soudainement impossibles, et qui risque de s’adresser à sa banque qui n’en saura pas plus, car les décisions de l’algorithme ne sont pas nécessairement connues non plus du conseiller bancaire (d’autant plus qu’elles évoluent avec le temps).

“C’est un problème informatique, ma bonne dame. Je n’y peux rien.” Qui n’a pas déjà entendu cette excuse ?

Allons plus loin. Les banques disposent d’une masse de données sur leurs clients absolument énorme. Votre banque connaît vos habitudes de consommation, l’état de vos revenus, vos déplacements, les associations caritatives auxquelles vous faites des dons… Jetez un coup d’œil à vos relevés bancaires sur quelques mois pour voir à quel point on peut connaître quelqu’un à cette simple lecture. Ces données, une fois exploitées, peuvent apporter un réel service aux clients. Elles peuvent également lui être néfaste si on n’y prend garde. Par exemple, l’ensemble des données clients d’une banque peut, globalement (c’est-à-dire avec des données récoltées de manière totalement anonyme à l’origine), donner à la banque une connaissance intime (connue d’elle seule) des capacités de remboursement de ses clients selon certains profils, lui ouvrant la possibilité de proposer, ou non, des facilités de prêts à des taux et échéances différentes selon le profil du client qui se présente devant son conseiller. Précisons bien : jusqu’au moment où le client arrive, personne ne s’est intéressé spécifiquement au comportement de ce client précis, mais lors de sa demande, il est comparé à une somme de connaissances sur les comportements bancaires, à laquelle il a lui-même participé anonymement, et un algorithme décide de présenter à l’écran du conseiller les différents choix de prêts. Le conseiller ignorera que d’autres choix sont possibles, le client encore moins, et ses 30 ans de prêts à venir seront peut-être dictés par ses comportements au distributeur automatique sur les deux dernières années, allez savoir.

Les Hommes naissent et demeurent égaux devant l’algorithme. Ou pas !

Fiction ? Chacun est égal devant l’algorithme ? Pas du tout. Traversez une rame de train et demandez aux gens à quel tarif ils ont eu leur billet. Les différences sont importantes, en fonction des réductions possibles (par définition) mais également du moment où le billet a été acheté. Après tout, cela est raisonnable (tant que les écarts restent effectivement raisonnables), mais ce qui l’est moins c’est quand on s’aperçoit que le site de réservation donne des résultats différents selon qu’on annonce ou non disposer d’une carte de réduction (j’en ai fait l’expérience plusieurs fois), donnant accès à des billets encore plus avantageux qu’avec la dite carte !

Ceux qui savent comment fonctionnent l’algorithme savent comment se comporter pour en tirer le meilleur bénéfice. La grande majorité ne sait pas, et ignore même qu’un algorithme est en face d’eux, elle pense qu’elle est à égalité de traitement avec les autres.

De petite décision en petite décision, de grands changements peuvent se produire

Prenons un autre exemple, loin du numérique, dans l’analogique de terrain. La ligne de chemin de fer entre Brest et Quimper, tiens. Drôle de détour ? Vous allez voir que non. Je me suis installé sur une commune traversée par le train et disposant d’une gare ; à l’époque le TER s’arrêtait trois fois dans la journée. Ce n’est plus le cas depuis plusieurs années, et on a pu lire dans la presse que cette voie de chemin de fer pourrait être abandonnée au profit du car (ce qui a été réfuté depuis). Le problème n’est pas sa fermeture ou non, le problème est : comment en arrive-t-on là ? Quels processus de décision humains font que, peu à peu, une ligne peut disparaître, et qu’on se retrouve un jour à ne plus comprendre pourquoi on en est là (et que des rumeurs de démantèlement trouvent un terrain fertile). C’est à chaque fois de petits critères de ce qu’on peut appeler un “algorithme humain” qui ont changé peu à peu les comportements des usagers jusqu’à ce qu’il devienne naturel, évident, impensable à remettre en cause que la question de maintenir cette ligne puisse se poser.

Entrons dans les détails. Trois arrêts, vous disais-je un peu plus haut. Pas trois dans un sens et trois dans l’autre. Non, deux dans un sens (Brest vers Quimper) et un dans l’autre. Celui dans le sens Quimper-Brest avait lieu le soir, les deux autres un le matin et un le soir. Pour aller vers Brest travailler, il fallait donc aller vers Quimper, puis s’arrêter à la gare suivante, attendre le train passant dans l’autre sens, et repasser dans le bon sens 45mn plus tard. Hyper bien pensé, non ? D’autant plus que dans le même temps les études de déplacement prouvaient que les habitants de ma commune allaient plutôt travailler vers Brest que Quimper, mais las, le train proposait justement l’inverse. D’où une fréquentation en baisse. Jusqu’à la fermeture de la gare. Et aujourd’hui, ce sont des travaux à effectuer sur la ligne qui sont retardés pour diverses raisons, rendant le trajet Quimper Brest de plus en plus long car nécessitant des passages à vitesse réduite, et poussant ainsi les usagers à choisir d’autres moyens de locomotion. Jusqu’à ce que la ligne soit tellement vidée de passagers qu’il n’y ait plus besoin de la conserver.

Je ne discute pas le problème de la fermeture ou non de cette ligne, c’est un autre sujet, ni du caractère conscient ou non, voulu ou non de ces petites évolutions des horaires. Je montre comment, au fil des ans, des choix ici et là ont changé le comportement des usagers de la ligne, sans que ces derniers (ou même l’opérateur du réseau ou le Conseil régional) aient conscience globalement, dans le temps, de ce que cela risquait d’impliquer. Sans voir la global picture. Et pourtant, il n’y avait là que des processus humains en cause.

Confier des prises de décision à des algorithmes pour des pans entiers de nos vies, c’est renoncer collectivement à notre libre arbitre, c’est accepter collectivement un peu plus d’aliénation

L’existence des algorithmes dans le projet de loi Renseignement a été notamment justifiée par le fait que nous acceptons déjà bien ceux, par exemple, de Facebook qui connaît également beaucoup de choses de notre vie intime (et extime). C’est un très bon argument. Car après tout, si vous n’avez rien à cacher et si vous avez déjà l’habitude de tout dire à Facebook, pourquoi craindre les processus proposés par le projet de loi ?

Sauf que tout le monde n’a pas encore compris à quel point “l’algorithme de Facebook” infère dans nos comportements sociaux. Facebook (ou tout autre réseau social fonctionnant sur des principes similaires, je prends Facebook comme exemple vécu par nombre d’entre nous) modifie des classes de comportements qui diffèrent profondément en nature, de ceux qui nous ouvriraient ou non la possibilité d’avoir un prêt bancaire. Facebook touche à nos relations avec les autres, à notre manière de vivre en société. Le fil d’actualités (celles de nos “amis”, des pages que l’on aime, des groupes qu’on a rejoint, et bientôt des informations venant des medias…) ne pouvant pas montrer tout ce qui est créé par nos relations, un algorithme décide de ce qui nous sera présenté. Comment fonctionne-t-il ? Mystère et boule de gomme, c’est un secret de fabrication, comme la recette de Coca Cola. Le connaître serait pouvoir le détourner, et donc le rendre inopérant, et donc rendre les fils d’actualité illisibles à nouveau. Il est donc a priori raisonnable de ne pas rendre public cet algorithme, qui évolue d’ailleurs constamment.

Et pourtant cet algorithme va influer sur nos relations avec les autres, parce qu’on aura un jour plus liké tel ou tel statut, moins tel ou tel autre, les statuts de ces personnes seront plus ou moins présentés à nouveau, jusqu’à ne plus l’être pour certains, détruisant des relations qui existaient auparavant et s’étaient confiées à l’outil numérique pour pouvoir évoluer (dans un monde où les différents cercles autour de nous ne font que grossir, et pour lesquels l’outil numérique est bien pratique). N’est-ce pas dérangeant de savoir que nos relations humaines sont à tel point façonnées par un processus artificiel “inconscient” de ce que sont de telles relations ? Et que seuls ceux qui savent vont régulièrement visiter les traces numériques des autres pour garder de la vitalité aux liens qui les unissent et piloter ainsi du mieux qu’ils peuvent cet algorithme inconnu ?

Les êtres humains ont encore déjà tellement de mal à se comprendre entre eux, et on laisse des algorithmes le faire pour nous ?

Hubert Guillaud dans son papier de 2013 sur Internet Actu cité plus haut, parle de danse avec les algorithmes : nous sommes engagés dans un pas de danse avec les algorithmes pour essayer à la fois de comprendre de quelle danse il s’agit, où elle nous mène, et garder le contrôle sur le rythme.

Que se passe-t-il quand nos moindres faits, gestes et pensées sont accessibles à un algorithme ?

La banque… Les réseaux sociaux… Passons à une autre échelle : l’État. Lui aussi nous permet de vivre ensemble, il nous définit, il nous délimite, il nous protège, nous avons passé un contrat social avec lui. Il est réputé quasi éternel. Il a le droit d’être coercitif. Nous avons placé notre confiance en lui. Mais il doit lui aussi connaître ses limites pour permettre à la multitude qui le constitue de s’épanouir réellement.

C’est le moment de revenir sur les boîtes noires de l’article 2 (et on peut dire des choses similaires sur les IMSI catchers). S’il y a un seul argument d’autorité à utiliser ici, ce sera le suivant : il s’agira bien d’une surveillance généralisée, appliquée de proche en proche à absolument toute la population (c’est très bien démontré ailleurs, par exemple ici). Et une fois le dispositif rentré dans les gènes de notre contrat social :

  • il s’étendra pour permettre la connaissance des données de connexion du deuxième cercle des présumés terroristes,
  • il s’étendra au-delà des 7 objectifs principaux visés par la loi (on peut lire déjà fin avril 2015 des échanges sur la possibilité intéressante qui serait ouverte pour détecter les joueurs compulsifs en ligne),
  • il ne se contentera pas d’enregistrer les métadonnées des messages, qui font en vérité partie du contenu de ces messages (c’est un point technique essentiel à comprendre, c’est expliqué ici et ici), mais les messages eux-même,
  • il finira par devenir acceptable et intégré dans l’esprit des gens, il ne peux y avoir aucun doute là-dessus,
  • pire encore, il finira par se croiser avec d’autres corpus de données collectées autrement,
  • il sera l’objet d’attaques malfaisantes et de piratages, et des pans entiers de vies intimes seront révélés, exploités, détournés, falsifiés.

Et les terroristes initialement visés sauront comment le contourner, les méthodes existent, qu’elles soient hyper technologiques ou au contraire revenir au monde analogique le plus basique. Les gens informés savent danser avec les algorithmes.

Mais la grande majorité ne saura pas. Elle ne comprend pas aujourd’hui pourquoi son voisin de train a eu un billet moins cher, pourquoi son cousin a eu un prêt plus avantageux, une assurance moins chère, elle ne comprendra pas plus demain pourquoi de toutes les voitures arrêtées par la gendarmerie au rond-point c’est sur elle que cela tombe, comme le gendarme lui-même ne saura pas pourquoi c’est cette voiture particulière que l’algorithme lui a demandé de stopper, en raison d’une signature de comportements qui correspond (voir infra).

Le problème majeur du projet de loi Renseignement réside dans l’idée qu’une fois le dispositif de surveillance officialisé, il sera convoqué à toute occasion par celles et ceux qui y verront un outil efficace pour classer la population. On le voit déjà pour l’addiction aux jeux, on pourrait l’utiliser pour… consolider Hadopi, s’assurer que les gens font effectivement des recherches pour trouver un emploi, s’assurer que les gens en arrêt maladie sont effectivement chez eux, repérer les usages abusifs de locations d’appartements en masse sur AirBnB, repérer les usages simultanés et déraisonnables de taxis, etc. on peut s’amuser à créer une liste infinie de bonnes raisons. Et cela se fera doucement, soit par de nouveaux décrets, soit par des cavaliers législatifs dans de futures lois générales. Cela se passera comme cela, on ne peut en douter. Ce n’est pas les 7 objectifs initiaux du projet de loi qui freineront les velléités d’utiliser cet outil si pratique. Allons-nous ouvrir cette boîte de Pandore ?

Classification de comportements humains !!

Un mot à propos de la “signature” (pattern). Pour que la détection des comportements répréhensibles fonctionne, il faut qu’ils soient le plus objectivement définis. Poster tous les jours sur YouTube des vidéos terroristes est par exemple un pattern assez clair pour identifier des terroristes, car ce n’est pas le divertissement le plus répandu dans la population. Les drones aussi sont équipés d’un minimum d’intelligence artificielle leur permettant de détecter des signatures reconnues comme spécifiques d’activités suspectes, mais quand on apprend qu’un de ces pattern consiste à être un groupe d’homme qui circulent dans certaines conditions, et que des drones seront peut-être bientôt autorisés à tirer sans contrôle humain sur la base de ces signatures (et aujourd’hui sans l’accord direct de POTUS, puisqu’il s’agit de lui), il y a de quoi se poser des questions, et on ne souhaitera à personne de vivre sous l’œil des drones.

Cet extrait, tout de même, pour éclairer les foules et montrer à quel point peut dériver une solution logicielle technique qui n’est plus sous le contrôle strict des humains :

Obama administration officials have confirmed that the drone missile attack that killed Weinstein and Lo Porto was a “signature strike,” in which targets are not identified by name, but selected on the basis of a pattern of activities supposedly consistent with those of a terrorist group. The CIA carried out a drone missile attack that killed six people, including Weinstein and Lo Porto, based on aerial observation of the comings and goings at the building targeted, without actually knowing who was there or what their relation, if any, was with Al Qaeda or the Taliban. (26 avril 2015)

Qu’est-ce qui peut nous assurer que demain, moi, vous, votre famille, ne va pas sans le savoir développer des comportements qui correspondront un peu plus tard à des patterns (non encore connus aujourd’hui) considérés comme suspects et susceptibles de vous valoir des ennuis plus ou moins agréables ?

J’ai déjà commencé à me poser des questions. Qu’est-ce qui me dit que la liste des informations que je mets aujourd’hui en like dans Facebook ou en favori sur Twitter ne sera pas retenue contre moi demain, en interprétant n’importe comment ces micro-gestes numériques que je fais aujourd’hui, selon un sens qui m’est propre et ne regarde que moi ?

Peu à peu c’est la confiance dans les conséquences de nos actes du quotidien qui va disparaître, et la généralisation de la méfiance (des actes) de l’Autre

Au début, personne ne s’inquiétera trop des boîtes noires, jusqu’à ce que les premières erreurs arrivent (elles existent déjà sans les boîtes noires, alors que des humains sont encore dans le processus). Elles ne seront pas ressenties comme telles au début, mais arriveront en nombre plus important compte-tenu des chiffres en jeu. La population en prendra pleinement conscience, soit par quelque scandale, soit parce que la peur, l’incertitude et le doute s’insinueront peu à peu sous le manteau.

La crainte que les photos de soirée soient plus tard systématiquement analysées à la recherche de quelque fumée suspecte, ou d’être pris en photo avec quelqu’un qui pourrait s’avérer infréquentable un jour. L’incertitude sur ce qu’il convient de mettre ou pas dans ses profils en ligne pour ne pas déplaire, le moment venu (ce serait dommage que ce soit un critère automatique pour trouver un appartement, par exemple). Le doute sur ce qui est permis, ce qui sera permis, ce qui sera compris de mes actions plus tard.

Est-ce que passer un peu plus de temps sur telle ou telle page ne va pas être retenu contre soi un jour ? Devra-t-on à chaque pérégrination sur Internet s’interroger sur les traces qu’on va laisser, comme on pourrait s’interroger aujourd’hui sur le risque de laisser des traces ADN un peu partout quand on se promène et d’entrer par mégarde dans des fichiers de police si le sentier de randonnée devient une scène de crime demain ?

Dommage, quand-même, car cette confiance est aussi un des socles de l’économie à l’ère numérique en train de naître, et c’est pour cela qu’un grand nombre de professionnels du numérique s’élèvent eux aussi contre ce projet de loi. D’un point de vue économique, ce n’est vraiment pas le moment de donner des signes de défiance.

Des libertés à préserver pour se construire en tant qu’être humain !

En rendant possible une société où une présence invisible artificielle peut être juge de vos actes, selon des règles évolutives et non nécessairement connues, on empêchera tout simplement les êtres humains de se développer dans toute leur richesse. Ceux-ci ont en effet…

  • besoin de s’accomplir en testant diverses hypothèses, en développant des “bulles de pensée”, et en se sentant confortable quand on le fait,
  • besoin profond pour tester ces hypothèses d’être entre soi, c’est-à-dire d’être sûr de son intimité, c’est-à-dire de pouvoir se cacher,
  • besoin de pouvoir évaluer des informations de son propre chef,
  • besoin de se former tout au long de la vie, c’est-à-dire de changer / d’évoluer tout au long de la vie, c’est-à-dire de pouvoir se renseigner sur tous les sujets,
  • besoin d’oser, d’imaginer, de savoir qu’on peut imaginer,

Créer des processus de surveillance généralisée sans débat avec la Société, dans le cadre d’une loi passée en procédure accélérée, ne grandira pas la France

Voter ce texte tel quel, c’est rendre acceptable l’idée de processus opaques régissant notre vie physique et notre vie numérique, c’est rendre acceptables les services supposés que ces boîtes noires à l’efficacité discutable nous rendraient en ignorant tous les dommages bien plus grands qu’elles entraîneront.

Voter ce texte tel quel, c’est s’éloigner de la possibilité de développer des algorithmes et des intelligences artificielles bienveillantes, aptes à nous faire passer le prochain stade de l’évolution humaine. C’est au contraire s’approcher d’une singularité algorithmique au-delà de laquelle le destin de chacun d’entre nous changera de nature.

Voter ce texte tel quel, c’est créer les conditions d’un monde dans lequel les enfants à naître baigneront inconscients d’être régis par des algorithmes, inconscients des rouages du pouvoir, inconscients de leur libre arbitre, inconscients des capacités humaines telles que nous les connaissons aujourd’hui.

Nous méritons mieux que ça. Réfléchissons avant de s’engager dans cette voie.

--

--

Ay. Poulain Maubant

C★O Nereÿs • hop vers l’ère cognitive • #ia #data #cogni #edu #neurobio • #frenchtech • Cofondateur#cantinebrest @AnDaolVras • was chroniqueur pour @TebeoTV