Les Métadonnées : Surveiller et Prédire

Le Conseil national du numérique s’est saisi en septembre 2016 de la question du chiffrement des données. Dans le cadre de ses travaux, il publiera à échéances régulières des articles d’approfondissement pour éclairer les différents enjeux du débat. Cet article est issu des réflexions du groupe de travail. Les positions qui y sont exprimées ne préjugent pas de l’avis qui sera adopté au terme de ce travail par le Conseil dans son ensemble.

Les métadonnées sont littéralement des données sur des autres données. Dans le cas des communications électroniques, le terme de métadonnées désigne par exemple les données qui, sans faire partie du contenu de la communication, servent à son acheminement : origine, destinataire, date, position géographique… Parce qu’elles sont nécessaires au bon fonctionnement des services, les métadonnées sont difficiles à cacher et restent le plus souvent en clair (non chiffrées). En effet, dans le monde numérique comme analogique, un facteur a besoin de connaître le destinataire d’un message pour assurer son acheminement. Dès lors, quand bien même les applications grand public installées sur nos téléphones seraient chiffrées de bout-en-bout, assurant une confidentialité sur le contenu, ces applications ne peuvent pas, pour la plupart, garantir l’anonymat des utilisateurs ou des terminaux utilisés.

Bien sûr, il ne s’agit pas d’en faire une généralité : il existe aujourd’hui des façons de masquer certaines métadonnées — c’est par exemple l’objet des réseaux de type Tor — et demain, nous serons probablement en mesure d’en cacher davantage. Le projet Vuvuzela par exemple, financé par la National Science Foundation et Google, vise à noyer les métadonnées dans un bruit aléatoire pour les rendre moins facilement identifiables.

Nous générons, dans nos activités numériques, un nombre considérable de métadonnées. Mais si la captation de ces traces permet potentiellement de déterminer précisément qui parle, à qui, où, quand et depuis quel équipement, le droit peine à encadrer leur utilisation. Le terme générique de métadonnées n’est jamais employé dans les textes légaux qui utilisent tour à tour de nombreuses expressions différentes. On retrouve çà et là les termes de “données techniques”, “données techniques de connexion”, “données relatives au trafic”, “informations ou documents”, “information et données”, “numéros de connexion” ou encore “renseignements”. Las! Certains textes se contentent d’évoquer “les autres données”. Cette absence de définition homogène, en plus de compliquer le dialogue entre les juristes et les informaticiens, a été particulièrement décriée lors de l’examen de la loi de programmation militaire en 2013 et de la loi sur le renseignement. Du reste, considérées comme moins sensibles que les données de contenu, les métadonnées bénéficient d’un régime juridique moins protecteur (en particulier, ces données ne sont pas couvertes par le secret des correspondances).

La petite fadette par George Sand

L’accès judiciaire et administratif aux métadonnées reste une problématique majeure. Bien souvent, les juges ou les services de police se heurtent à la lenteur des procédures internationales d’échange d’informations ou à la résistance de certains fournisseurs de service. Le régime juridique européen de collecte et de conservation est en effet “binaire”. Les opérateurs de télécoms sont soumis à la directive “vie privée”, qui prévoit que les Etats peuvent imposer la conservation des données de connexion pour des motifs liés à la sécurité publique. Au contraire, les interceptions légales ou la conservation des métadonnées n’est aujourd’hui prévu par aucun texte européen en ce qui concerne les fournisseurs de service (Whatsapp, Skype, Gmail…). “Aujourd’hui, Telegram ne fournit aucune information”, expliquait récemment le procureur de Paris, François Molins (Source) à propos de l’application sécurisée. Bernard Cazeneuve, le ministre de l’Intérieur, déplorait quant à lui que les services ne disposent “d’aucun interlocuteur” chez l’entreprise, lors d’une conférence de presse conjointe avec son homologue, Thomas de Maizière. En faisant tout pour se mettre hors de portée des États, Telegram peut se targuer d’avoir révélé “exactement zéro octet de données concernant [ses] utilisateurs depuis [son] lancement” (Source). Cette absence de coopération rend évidemment la tâche plus difficile pour les enquêteurs, qui peuvent néanmoins compter sur d’autres moyens pour s’attaquer à l’application (notamment l’infiltration humaine). De son côté, Open Whisper Systems, éditeur de l’application Signal, ne conserve pas la grande majorité des métadonnées et n’a donc que peu de données à fournir au FBI.

“We Kill People Based on Metadata”

Traditionnellement, les services de renseignement s’intéressaient au contenu des communications. À l’ère de l’usage généralisé des outils numériques, la collecte et le traitement automatisé des métadonnées sont de plus en plus privilégiés. Les documents publiés par Edward Snowden ont montré l’appétence des services de renseignement — en particulier la NSA — pour ces données techniques. Pourquoi passer du contenu au contenant ? Les raisons de ce déport d’intérêt sont multiples. D’abord, elles sont difficilement sécurisables par le chiffrement. Par ailleurs, alors que l’analyse des contenus nécessite encore un traitement individuel — coûteux en termes de temps et de ressources humaines — , l’analyse des métadonnées se prête plus aisément à une surveillance automatisée, générale ou exploratoire. Comme l’indiquait Rémi Récio, alors délégué général de la Commission nationale de contrôle des interceptions de sécurité (CNCIS) dès 2010, “Les terroristes ne vont jamais dire ouvertement dans une conversation “rendez-vous à tel endroit pour placer la bombe”, en revanche il est important de pouvoir reconstituer un réseau, donc les données techniques sont plus opérationnelles que ce que vont se dire les gens” (Source).

Pigeon espion allemand muni d’une caméra lors de la Première Guerre mondiale 
(Source : Allgemeiner Deutscher Nachrichtendienst — Zentralbild)

Parallèlement, les pratiques de surveillance technologique ont fortement évolué au cours de la dernière décennie. De ponctuelles et ciblées, elles deviennent permanentes et générales. Devant la multiplicité des capteurs, la profusion des informations collectées, la délégation parlementaire au renseignement met en garde : “l’enjeu est désormais celui de la sélection, de l’intégration, de l’enrichissement et de l’analyse” (Source). Et John Le Carré, écrivain et ancien espion, de s’interroger : “Est-il possible d’avoir trop de renseignements ? Est-il possible que plus nos formidables espions électroniques engloutissent des renseignements, moins ils sont capables de les digérer ?” (Source). Bien évidemment, il ne s’agit pas d’analyser tous les renseignements collectés. Les raisons de cette massification sont plutôt à chercher du côté de la veille stratégique et de l’intelligence économique. Ces dernières ont théorisé l’idée qu’il est possible de débusquer les “signaux faibles” d’une activité criminelle ou terroriste par une surveillance généralisée des réseaux. Surveiller pour prévenir, mais aussi pour prédire.

Collectées en masse et moulinées par de puissants algorithmes, ces données peuvent en effet servir à l’établissement de graphes sociaux. Cette expression, popularisée par Facebook, désigne une cartographie d’un réseau de connexions et de relations entre individus en lien avec leurs activités sur internet — pourquoi pas à l’échelle d’une société et en temps réel. Agrégées sous cette forme, nos métadonnées peuvent être révélatrices de nos comportements, nos habitudes, nos fréquentations, nos centres d’intérêts et même nos opinions. La Cour de justice de l’Union européenne ne s’y trompe pas en affirmant qu’elles permettent de “tirer des conclusions très précises concernant la personne […], telles que les habitudes de la vie quotidienne, les lieux de séjour permanents ou temporaires, les déplacements journaliers ou autres, les activités exercées, les relations sociales de ces personnes et les milieux sociaux fréquentés par celles‐ci” (Source).

Combinés aux outils statistiques les plus pointus — les intelligences artificielles — ces graphes sociaux peuvent également aider à la constitution de patterns, ou modèles de comportements, afin d’anticiper les risques qui correspondraient au déclenchement possible d’une attaque terroriste. La loi sur le renseignement, votée en juillet 2015, prévoit ainsi un régime de surveillance massive des métadonnées visant à “détecter une menace terroriste” en faisant ressortir des comportements “signants” anonymisés — si tant est qu’une anonymisation complète est possible… Il s’agit des fameuses “boîtes noires”, à l’époque tant décriées.

“Precrime, It Works!”

La surveillance au service de la prédiction ! L’intention semble frappée au coin du bon sens : Si Amazon est si doué en matière de recommandations, et que l’algorithme de Google répond si bien à toutes nos questions, pourquoi les services de renseignement ne pourraient pas, eux aussi, profiter des formidables opportunités ouvertes par les big data ? L’application de modèles prédictifs aux sujets de sécurité nationale soulève toutefois au moins deux considérations bien spécifiques : la fiabilité de ces procédés algorithmiques et les conséquences sociétales à long-terme d’une surveillance prédictive généralisée.

Publicité fictive du film “Minority Report” (Crédit : Fox)

Quiconque s’intéresse aux modèles prédictifs est forcément confronté à la définition — particulièrement ardue — d’un seuil de détection. Ce seuil définit la sensibilité du modèle, c’est à dire, dans le cas qui nous intéresse ici, sa capacité à effectivement détecter la majorité des menaces terroristes potentielles. Mais plus ce taux de détection est élevé, plus le taux de “faux positifs” (les personnes repérées par le modèle, mais dont il s’avère en réalité qu’elles n’ont aucune intention terroriste) l’est aussi. Pour citer Wikipédia :

“Un test est d’autant meilleur que le taux de détection est élevé (c’est-à-dire que le taux de faux négatifs est faible) et que le taux de faux positifs est faible. Le taux de faux positifs et le taux de détection dépendent tous les deux du seuil choisi et varient dans le même sens, ce qui signifie qu’il est impossible de simultanément augmenter le taux de détection et diminuer le taux de faux positifs : tout ce que l’on peut faire est de trouver un compromis acceptable entre sensibilité et spécificité.”

De ce point de vue, le dispositif des “boîtes noires” prévu par la loi renseignement a pu interroger quant à son efficacité (elles ne sont d’ailleurs toujours pas mises en œuvre). Les spécialistes sont unanimes : même si le dispositif algorithmique en question était extrêmement sophistiqué, il ne pourrait échapper à une quantité significative de faux positifs. La difficulté réside en effet dans l’identification fiable de comportement statistiquement très rares. Les chercheurs de l’Inria l’avaient démontré de la façon suivante :

Supposons que l’on recherche des terroristes dans une population. Tout algorithme de détection a une marge d’erreur c’est à dire va identifier des personnes sans intention terroriste (des « faux-positifs »). Si la marge d’erreur est de 1%, ce qui est considéré àce jour comme très faible, l’algorithme identifiera quelques 600 000 personnes sur une population totale de 60 millions de personnes. Si le nombre de vrais terroristes est par exemple de 60, ces vrais terroristes ne représenteront que 0,01% de la population identifiée [comme potentiellement suspecte].

De plus, un tel algorithme devra prendre en compte le fait que les individus ciblés par ce dispositif chercheront à adopter un comportement visant à échapper aux patterns définis puisqu’ils s’adaptent en permanence pour échapper à la détection. En la matière, il est malaisé de s’inspirer des géants de l’internet : ceux-ci allouent au développement de leurs algorithmes des sommes astronomiques, utilisent quantités de données sur nos habitudes de consommation, et pourtant leurs algorithmes ne sont pas infaillibles ! Mais si l’algorithme de Criteo se trompe, il proposera à un utilisateur la mauvaise table basse. En revanche, si l’erreur d’un algorithme de renseignement conduit à la surveillance poussée d’un individu, la situation est beaucoup plus problématique.

Pour cause. Les faux-positifs peuvent à eux seuls fabriquer de la discrimination. Les dangers liés à ce type de modèles ont récemment fait irruption dans le débat public autour des questions de police prédictive. Si de nombreuses villes, y compris en France, se sont dotées d’outils algorithmiques censés permettre une meilleure allocation des ressources policières sur le terrain en identifiant des régularités statistiques dans les bases de données de la délinquance, les études qui commencent à poindre viennent nuancer cet enthousiasme. Un exemple est particulièrement illustrant : celui d’un algorithme du nom de Strategic Subjects List, qui est utilisé depuis 2013 à Chicago. À l’aide des données sur les arrestations liées à la drogue, l’affiliation à un gang etc., ce programme identifie et classe les personnes les plus susceptibles d’être impliquées — comme auteurs ou victimes — dans des fusillades. À ce jour, cette liste comprend plus d’un millier de noms. Pourtant, la criminalité n’a pas baissé à Chicago (cette année est même en passe d’être une année record !). Une étude de la Rand Corporation, un think tank spécialisé dans les questions de défense, avance même que ce logiciel n’aide pas à prévenir les crimes ; son seul effet serait que les personnes sur la liste sont plus fréquemment arrêtées. En août dernier, 17 associations de protection des libertés civiques américaines (ACLU, EFF, Open Technology Institute…) signaient un communiqué commun pour alerter sur les risques de ces techniques. Ce texte, accompagné d’un rapport, dénonçait “les défauts systémiques” et les “biais inhérents” aux méthodes de police prédictive, génératrices de discriminations.

Prison panoptique Presidio Modelo, sur l’Île de la Jeunesse à Cuba

Parmi les conséquences de long-terme d’une surveillance généralisée, il est un risque extrêmement grave : celui de l’autocensure des individus. Une étude publiée dans l’édition de mars de la revue Journalism & Mass communication quaterly a montré que la surveillance gouvernementale incitait les internautes à taire leurs opinions quand ils les considéraient minoritaires. Comme l’assène Glenn Greenwald, “La surveillance de masse crée une prison dans l’esprit qui est bien plus subtile mais bien plus efficace pour favoriser la conformité aux normes sociales, bien plus effective que la force physique ne pourra jamais l’être” (Source). Les conséquences peuvent être désastreuses : en plus d’un impact net sur les droits et libertés fondamentaux, l’auto-censure peut avoir d’importants effets sur le développement et la diffusion des innovation (ce que Sir Tim Berners-Lee nomme “les insidieux effets de refroidissement de la surveillance sur Internet”).

Plongée dans un Monde de Calculs

À mesure de l’explosion du nombre de données générée par la numérisation de nos sociétés et du développement de procédés algorithmiques permettant de les trier, les agréger et les représenter, nous entrons — pour reprendre l’expression de Dominique Cardon — dans un monde de calcul. Les outils statistiques deviennent une technique de gouvernement. Dopés par les progrès de l’intelligence artificielle (en particulier autour de l’apprentissage profond et des réseaux neuronaux complexes), les algorithmes de traitement des données se font de plus en plus sophistiqués.

Une scène du premier épisode de la saison 2 de la série Black Mirror, dans lequel l’héroïne s’habitue à vivre avec un robot doté d’une intelligence artificielle créée à partir des traces numériques laissées par son défunt mari (Crédit : Channel 4)

À mesure que les algorithmes deviennent de plus en plus intelligents, ils sont de plus en plus opaques pour les humains. Les algorithmes fonctionnent à la manière de boîtes noires : des systèmes qui ne permettent d’appréhender que les informations en entrée ou en sortie, sans donner à voir les principes qui le sous-tendent, y compris parfois pour leurs concepteurs. Cette situation soulève plusieurs problématiques : la première, évidente, est celle de la confiance à accorder aux résultats présentés par ces algorithmes. Si on ignore comment la machine est arrivée à ses conclusions, pouvons-nous être sûrs de la valeur de celles-ci, a fortiori face au risque de faux-positifs ? En prolongement de la première, la seconde problématique tient aux droits des personnes concernées par ces traitements de données. Évidemment, cette question ne se pose pas qu’en matière de surveillance (les bacheliers soumis à la sélection post-bac n’en sont que trop conscients). Néanmoins elle trouve une acuité particulière pour le renseignement, car à cette opacité inhérente au fonctionnement des algorithmes complexes s’ajoute le nécessaire secret qui entoure les pratiques de surveillance. En effet, à supposer qu’elle puisse s’en apercevoir — au détour par exemple d’une procédure judiciaire — , comment une personne surveillée à tort pourrait-elle dénoncer efficacement cette surveillance ?

Équilibrer les Pouvoirs et les Devoirs

Une question majeure se pose alors à nos sociétés : celle du droit au recours effectif et, au-delà, celle d’un droit à l’explication sur les traitements de données qui fondent une pratique de surveillance. De ce point de vue, rappelons que la loi Informatique et Libertés posait dès 1978 le principe selon lequel “aucune décision administrative ou privée impliquant une appréciation sur un comportement humain ne peut avoir pour seul fondement un traitement automatisé d’informations donnant une définition du profil ou de la personnalité de l’intéressé”, ajoutant que “toute personne a le droit de connaître et de contester les informations et les raisonnements utilisés dans les traitements automatisés dont les résultats lui sont opposés”. Ces dispositions, étendues par une loi du 6 août 2004, montre que le législateur avait anticipé très tôt les dangers éventuels de ce type de dispositifs.

Les législations antiterroristes — 16 lois au cours des trente dernières années ! — ont inlassablement cherché à adapter les moyens des forces de sécurité à la réalité de la menace et aux évolutions technologiques. La loi de 1991 sur les écoutes téléphoniques, adoptée à un moment où l’internet grand public n’en était qu’à ses balbutiements, a été interprétée comme permettant d’absorber la transformation des usages. Dans la même perspective, la loi sur le renseignement de l’an dernier vise l’évolution des pratiques de surveillance et accorde une très large marge de manœuvre aux services de renseignement pour les prochaines années.

Mais qu’en sera-t-il demain ? La multiplication des capteurs, la prolifération des objets connectés (voitures, bracelets, vêtements, drones, …) prévue dans les prochaines années devrait voir le nombre de (méta)données disponibles exploser. Soit autant d’opportunités de surveillance. Les arbitrages effectués à la suite de la vague des récents attentats nous engagent pour des décennies et ces législations pourraient bien se retourner contre nous. Face à la montée en puissance des acteurs de la sécurité, il est de notre responsabilité de constamment nous interroger sur l’équilibre entre les pouvoirs et les devoirs des services de renseignement. Si les services ont accès à de plus en plus d’information, il n’est pas anormal que leurs devoirs et leur contrôle augmentent en conséquence. Les évolutions des usages technologiques, l’explosion des données, l’augmentation des capacités de calcul, la baisse continue du coût de stockage, les progrès de l’intelligence artificielle et du deep learning convergent vers un même constat : jamais dans l’histoire un gouvernement, qu’il soit démocratique ou totalitaire, n’a disposé d’autant de moyens pour surveiller sa population. Dans le même temps, on ne saurait nier le fait que les menaces, terroristes ou autres, se font plus redoutables que jamais. Le débat autour du chiffrement des données s’inscrit dans ce contexte de tension palpable, de difficile équilibre entre libertés et sécurité.

Le directeur de la NSA, le général Michael Hayden, résume parfaitement la portée de ces nouveaux modes de surveillance : “We kill people based on metadata”. Il est temps de s’interroger collectivement sur les biais, les risques systémiques entourant ces algorithmes prédictifs et leurs conséquences sur la société.

Ce texte est issu d’un travail en cours et est donc susceptible d’évoluer. N’hésitez pas à le commenter ou à adresser vos retours à info@cnnumerique.fr

Signataires : Rand Hindi (pilote du groupe de travail), Godefroy Beauvallet, Sophie Pène, Amal Taleb, Célia Zolynski, Marc Tessier, Antoine Petit, Emmanuelle Roux, Ghislaine Hierso, Emmanuelle Turlotte, Françoise Mercadal-Delasalles, Yann Bonnet (Secrétaire général), Romain Delassus, Charly Berthet et Marylou Le Roy (rapporteurs).