Le consentement à l’épreuve de Stop Covid

Charlotte_cd
24 min readMay 26, 2020

--

Entre les citoyens, les associations de défense des libertés numériques, les experts en sécurité informatique et en médecine, le projet d’application français Stop Covid divise. Deux enquêtes soulignent que les Français seraient prêts à lui réserver un meilleur accueil. Une étude de l’Université d’Oxford révélait que 80% de ses répondants exprimaient la volonté d’installer une telle application. Dans une enquête Ipsos/Sopra Steria en avril, 60% des Français seraient favorables à “ce qu’une application comme Stop Covid, qui permet, grâce à la géolocalisation (…) de limiter la propagation du virus, (…) soit mise en place de façon obligatoire”.
L’avis rendu par la CNIL sur le projet souligne pourtant l’importance de conserver un consentement libre, éclairé et spécifique au coeur du dispositif. La formulation présentée ci-dessus souligne le risque d’une incompréhension tant sur le fonctionnement du contact tracing et ses implications que sur le concept du consentement et sa place dans l‘application Stop Covid.

Condition nécessaire mais insuffisante à la protection de nos données personnelles, il est essentiel que ce concept soit compris et assimilé par quiconque souhaite faire respecter ses droits.
Après avoir rappelé le fonctionnement du contact tracing, cet article propose ainsi d’adopter le prisme du consentement libre, éclairé et spécifique, pour mieux comprendre la persistance des inquiétudes et des comportements de résistance liés au projet Stop Covid.

Qu’est-ce que le contact tracing ?

A distinguer des dispositifs de suivi de symptômes, de contrôle des déplacements individuels ou d’implémentation des restrictions de déplacement, la méthode du contact tracing vise à contrôler la transmission d’un virus, en suivant les contacts de chaque personne infectée. Si ce travail est traditionnellement effectué manuellement par les équipes soignantes, l’équipe des chercheurs d’Oxford a souligné l’intérêt d’automatiser le processus.

Dans certains pays ayant recours à des technologies à capacité de surveillance, le contact tracing a rapidement pu être intégré aux stratégies d’endiguement. En Corée du Sud, en Israël ou en Chine, le suivi de la géolocalisation des individus est déjà couplé à la reconnaissance faciale ou l’analyse des transactions bancaires et paiements sans contact, afin de retracer a posteriori le parcours des individus infectés.

Dans les autres pays où les infrastructures technologiques sont moins matures, la réglementation plus contraignante ou la vision de la société différente, il faut donc capitaliser sur une technologie facile à déployer, efficace et plus respectueuse de la vie privée de ses utilisateurs.

C’est ainsi que les applications basées sur le Bluetooth ont émergé en consensus, à l’instar du protocole TraceTogether, déployé à Singapour. L’objectif est de suivre la diffusion du virus sans avoir recours aux données de localisation. Ces solutions visent à analyser localement la proximité entre individus, pour alerter, rétro-activement, des personnes potentiellement infectées.

Principe de fonctionnement du contact tracing par Bluetooth — Source : Github du protocole ROBERT

Alors que la plupart des protocoles sont développés en open source par des équipes de chercheurs, se limitant à une analyse des contacts via Bluetooth, s’efforçant de garantir l’anonymat de ses utilisateurs… Pourquoi un consentement serait-il requis ?

Pourquoi Stop Covid est-il soumis au consentement ?

Si la plupart des protocoles basés sur le Bluetooth, PEPP-PT, DP-3T,… promettent une anonymisation des données traitées, l’objectif du contact tracing reste in fine de faire le lien entre le diagnostic d’une personne identifiée et les marqueurs générés par cette-dernière, afin d’alerter ses contacts.
L’anonymisation est caractérisée par une irréversibilité de la procédure, rendant théoriquement impossible de ré-identifier un individu à partir de ses données en vue de traitements supplémentaires.
A contrario, une donnée pseudonymisée est considérée comme une donnée personnelle, et rentre ainsi dans le cadre du RGPD européen (Règlement de Protection des Données Personnelles). C’est bien sur ce principe que fonctionnera l’application.
La règle générale du RGPD prévoit que le traitement des données personnelles est conditionné à l’obtention d’un consentement libre, éclairé, spécifique et univoque. En théorie, ces conditions renforcent le pouvoir des citoyens européens sur leurs données, en accroissant des exigences de transparence et de contrôle pour les citoyens européens.

Dans une tribune publiée le 2 mai, Cédric O s’efforce de lever les différentes appréhensions liées au projet. S’il reconnaît « la tentation » qui peut « être forte, lorsque la demande de protection est aussi forte et que l’ennemi est à ce point invisible, d’en recourir aux solutions de contrôle les plus extrêmes pour minimiser les risques », il précise qu’il ne s’agit pas d’un outil de surveillance, pas d’une application de « tracking », qu’elle n’est pas destinée à la délation, qu’elle sera bien facultative et temporaire, que les données seront « non identifiantes » et que le code sera diffusé en « open source ». Alors, comment expliquer les appréhensions envers ce projet ?

L’univocité du consentement à une application type Stop Covid ne semble pas poser question, puisqu’il pourra se traduire par l’acte de la télécharger et d’accepter ses CGU. Qu’en est-il des autres caractères ? Le consentement peut-il être éclairé, libre et spécifique ?

Peut-on parler de consentement éclairé ?

Peser les bénéfices et les risques : l’homo oeconomicus à l’épreuve de la surcharge informationnelle

Dans le cadre du RGPD, un consentement est “éclairé” dans la mesure où certaines informations ont été mentionnées, comme l’identité du responsable du traitement, les finalités poursuivies ou encore les catégories de données collectées.

La décision de fournir un consentement éclairé découlerait ainsi idéalement de la valeur perçue d’une transaction par l’utilisateur, après avoir opéré un calculus, soit une analyse rationnelle des bénéfices et des risques à la lumière de ces informations (Laufer et Wolfe 1977). Au quotidien, cette rationalité est limitée (Simmons 1955) en temps et en capacité à traiter l’information, et “menacée” par de nombreux biais cognitifs. Les arbitrages en termes de vie privée ne sont d’ailleurs pas toujours conscientisés dans nos choix du quotidien, comme la communication ou la recherche d’informations (Acquisti et al 2015). Ces biais cognitifs nous poussent notamment à opter pour la solution la plus confortable et la plus adéquate avec nos valeurs, occultant ou minimisant les éléments moins maîtrisés ou incertains. Le cas de Stop Covid illustre cette dichotomie entre une perspective lointaine et abstraite de risques en termes de vie privée, qui s’effacent au profit de bénéfices tangibles et mieux communiqués.

Des bénéfices évidents dont l‘applicabilité reste à démontrer

Les bénéfices attendus par l’utilisation de Stop Covid semblent bien appréhendés, jusque dans le nom de l’application, qui porte la promesse de stopper le virus par son adoption. Ces motivations évidentes sont soulevées par l’étude de l’Université d’Oxford. Face à la menace d’une crise sanitaire, économique, et d’une privation de liberté, le fait de céder une poignée de données ne semble pas excessif. C’est d’autant plus vrai pour les individus personnellement exposés au virus, dans leur entourage ou dans le cadre d’une activité professionnelle.

Extrait de l’enquête de l’Université d’Oxford

Les motivations du gouvernement à cet égard semblent également claires. Cédric O explique ainsi que Stop Covid sera précieuse pour “mettre sous cloche toute résurgence de l’épidémie”, de façon plus efficace qu’une enquête sanitaire traditionnelle — notamment dans les zones urbaines ou les transports en commun. Caroline Zorn, Docteure en droit, souligne pourtant qu’aucune précision n’a été à ce jour apportée par rapport aux mesures prévues pour un individu ayant reçu une alerte via le dispositif.

Si les stratégies d’endiguement fructueuses observées à Taïwan ou en Corée du Sud appellent à suivre leur voie, il convient d’observer plus attentivement les mesures prises pour vérifier leur reproductibilité. Taïwan a décidé d’automatiser le suivi de la localisation des personnes placées sous quarantaine par le biais de la « triangulation », en collaboration directe avec les opérateurs téléphoniques. La Corée du Sud, qui a généralisé et centralisé le relevé de localisation par GPS de tous ses citoyens, partage l’historique de déplacements de chaque personne testée positive sur une base de données publique. D’une part, il faut se demander si nous sommes prêts à aller aussi loin France. D’autre part, il convient de se demander si nous sommes en capacité d’intégrer ce type d’outil au sein d’une stratégie efficace. Dans son analyse, Caroline Zorn explique que « la France adapte ses méthodes à ses moyens » depuis le début de l’épidémie. Contrairement aux pays cités, nous avons « peu testé car pas de tests disponibles », et ainsi, été contraints de confiner l’ensemble de la population au lieu de tester « massivement et confiner de manière ciblée ».

Malgré cette volonté de transparence de la part des porteurs de projets basés sur le Bluetooth, ainsi qu’un soutien d’apparence massif de la part de la communauté académique, le potentiel de cette technologie pour endiguer l’épidémie reste questionné. En Belgique, les chercheurs du KU Leuven Institute of the Future doutent de voir émerger la preuve d’une efficacité marginale du contact tracing par Bluetooth par rapport au manuel. Après avoir envisagé cette solution, la Belgique a finalement renoncé à la mise en place d’une application, pour se concentrer sur un suivi traditionnel.

En effet, la technologie du Bluetooth, fortement conditionnée à son environnement, présente une fiabilité limitée, comme le souligne Sven Mattison, l’un des créateurs du Bluetooth en 1995. Le système fonctionne sur le principe de la signose, induisant un risque d’infection suite à tout contact enregistré. Cela risque d’entraîner de nombreux faux positifs, et créer une fatigue pour l’utilisateur, comme en Corée du Sud où les notifications font vibrer les smartphones en continu.

Source : BBC

Jason Bay, l’un des développeurs à l’origine du projet singapourien, craint que trop d’espoirs ne soient placés dans ces solutions au détriment d’une stratégie de test, de distribution de matériel de protection ou d’adoption de gestes barrières. Ce risque de solutionnisme technologique est également soulevé par Anne Laure Denis, présidente de la CNIL.

Du tangible à l’incommensurable : des risques multiples pour la vie privée et la sécurité des utilisateurs

A contrario, le potentiel de risque à l’égard de la vie privée des utilisateurs reste sous-évalué. Si certains peuvent sembler abstraits et peu probables, d’autant plus car ils ne sont pas immédiats, d’autres risques très concrets inquiètent les spécialistes techniques et juridiques.

Des risques liés au Bluetooth — Certains sont inhérents à la technologie Bluetooth, qui rend impossible une protection efficace de ses utilisateurs, comme le soulignent une équipe de chercheurs de l’Inria sur le site risques-tracages.fr. Plusieurs scénarii problématiques y sont soulevés, ne requérant pas nécessairement de connaissances informatiques. En termes de sécurité, la technologie du Bluetooth est également décriée pour ses nombreuses vulnérabilités en termes d’accès ou de modification des données, comme l’expliquait l’ANSSI en 2007. C’est d’autant plus vrai si l’application doit rester active en permanence — l’un des points sur lesquels Apple refuse de céder aux porteurs du projet Stop Covid.

Exemples de détournement d’un outil basé sur le contact tracing — Source : risques-tracages.fr

Au-delà des problèmes liés au Bluetooth, d’autres dimensions devront être prises en compte au regard de la vie privée des utilisateurs.

Des risques liés à l’identification des individus —Le concept d’anonymisation reste débattu dans la communauté académique. En 2019, une étude publiée dans la revue Nature démontrait qu’il restait possible d’identifier 99.98% des individus à partir de 15 attributs démographiques — même avec une base incomplète ou anonymisée aux standards actuels. Il faut donc postuler que l’identification d’un sujet a posteriori est toujours possible, même avec le plus grand soin apporté à l’anonymisation des données. Cette identification sera facilitée par une procédure de dé-identification réversible, comme le recours aux pseudonymes. Cela confirme donc la nécessité d’une précaution et d’une réflexion critique dès l’étape de la collecte.

Des risques de discrimination — constituent l’une des conséquences tangibles que l’identification d’un individu peut entraîner. En Corée du Sud, les indices fournis sur les bases publiques permettaient largement de déduire l’identité des personnes diagnostiquées (date d’infection, âge, genre, nationalité, historique de déplacements). Une véritable “chasse aux sorcières” s’est déclenchée dans le pays, faisant passer la crainte d’être discriminé, ou de voir son mode de vie et son intimité déballés sur la place publique (par exemple, la fréquentation d’un bar LGBT ou d’un love hotel), avant celle de la maladie.

Extrait d’une base de données publique disponible sur le site d’une localité de la métropole de Séoul — Source : Métropole de Séoul

Des risques liés à la sécurité des infrastructures — Le risque de piratage est l’un des aspects qui inquièterait le plus les Français, d’après l’étude de l’Université d’Oxford. Depuis le début de la crise du Covid-19, les cyber attaques ont déjà visé des hôpitaux, des organisations et des individus dans plus de 240 pays et territoires. Si la vigilance doit être de mise du côté des particuliers, notamment pour éviter de télécharger une fausse application, le risque principal en termes de sécurité concerne l’accès aux infrastructures ou aux flux de données des organisations.
Dans près de la moitié des cas, les fuites de données qui se sont banalisées proviennent d’une ingérence interne (processus mal suivi ou mal documenté, erreur, problème de compétence du personnel).
Dans le cas du Covid-19, des failles ont déjà été soulevées pour l’application CoronApp-Colombia. En Russie, les nombreuses données requises par l’application dédiée au Covid suscitent la crainte, suite aux nombreuses fuites de données subies en 2019 par les services d’intelligence, un fournisseur d’accès à Internet, une banque d’Etat, ainsi que par le gouvernement sur une vingtaine de sites institutionnels.
En France, le projet de reconnaissance faciale Alicem fait l’objet de vives critiques, tant pour la vie privée que pour la sécurité. En test depuis 2019, son objectif est d’utiliser les données biométriques des citoyens comme clé d’entrée à de nombreux services publics en ligne. Le système d’authentification était notamment jugé obsolète par des experts en sécurité.

Des risques liés à la nature et au rôles d’organisations tierces —
L’accès aux données par des acteurs tiers reste l’un des principaux points d’inquiétude en général au regard de la vie privée. Le tracking numérique reste un sujet méconnu des Français, qui se contentent de fermer le bandeau cookie pour accéder à leur contenu en ligne, avec une ignorance de la manière dont ces données peuvent être compilées et exploitées commercialement.
En 2019, un rapport de Cookiebot révélait que la quasi-totalité des sites gouvernementaux et des sites officiels de santé publiques des pays membres de l’UE déclenchaient le dépôt de cookies tiers sur le navigateur de leurs visiteurs. La France est en première place, avec plus de 50 traceurs publicitaires identifiés sur le site gouvernement.fr. Cela signifie que les informations liées à notre navigation peuvent être partagées avec des plateformes publicitaires, rattachées à des profils publicitaires et enrichir des fichiers de ciblage pour nous servir de la publicité personnalisée basée sur ces informations.

Source : AdTech Surveillance on the Public Sector Web Report, Cookiebot 2019

La technologie de tracking SDK utilisée par les applications mobiles est encore plus intrusive, car elle permet de rattacher les données à un identifiant publicitaire unique, propre à chaque smartphone.
Qu’en sera-t-il des traceurs intégrés à l’application Stop Covid ? Les GAFA pourraient, quoi qu’il arrive, être en mesure de récupérer ces données.

Au-delà du potentiel de renforcement des acteurs du numérique bien connus du grand public, l’étendue de l’influence de certains acteurs spécialisés en big data et en intelligence artificielle devra être surveillée. En France, l’Assistance Publique-Hôpitaux de Paris aurait envisagé l’intervention de Palantir dans son projet d’application. Cette société spécialisée en data mining, qui propose notamment un service de prédiction de la criminalité à la CIA, a souvent été pointée du doigt sur le plan éthique, notamment du fait de biais discriminatoires systémiques présents dans son algorithme. En 2019, la société américaine Clearview AI a été épinglée pour avoir aspiré les photos de millions de sites web dans le cadre de son logiciel de reconnaissance faciale, exploitant les données biométriques de millions d’individus sans leur consentement. La société américaine a approché plusieurs gouvernements avec son service de contact tracing enrichi de reconnaissance faciale.

Dans un récent rapport, le Conseil de l’Europe résume la problématique du consentement éclairé à travers son questionnement :

« Bien que les outils technologiques puissent jouer un rôle important pour relever les défis actuels, la première question -essentielle- qu’il faut se poser avant une adoption systématique et non-critique de technologie serait la suivante (…) : ces « apps » sont-elles la solution ? Considérant l’absence de preuves relatives à leur efficacité, leurs promesses valent-elles les risques légaux et sociaux prévisibles ? »

La liberté du consentement en question

Postulant que le consentement à utiliser Stop Covid saura être éclairé à la lumière d’une bonne évaluation des bénéfices et des risques, pourra-t-il toutefois être libre et le rester, dans la mesure où cette liberté représente une entrave potentielle à son efficacité ?
Un consentement libre signifie qu’il ne doit être ni contraint, ni influencé, mais résulter d’un choix réel, sans qu’un refus ne puisse entraîner de conséquence négative.

Influence & persuasion

Alors que le discours officiel est axé sur le champ lexical de la guerre, la rationalité du choix peut être discutable. La responsabilité de mettre fin à l’épidémie, de sauver des vies, de participer à la reprise économique semble basculée sur le choix individuel de consentir à l’utilisation de Stop Covid. L’émotion, l’injonction sociale ou le contexte professionnel peuvent constituer une forte influence sur le jugement, au détriment du libre-arbitre. Dans sa tribune, Cédric O expliquait par exemple que la possibilité de faire le choix de refuser l’outil « pour des raisons philosophiques », impliquera cependant « d’accepter un risque significatif de malades et de morts supplémentaires ». Un député serait allé jusqu’à qualifier de « crime contre l’humanité » le fait d’être contre le principe de l’application.

En Australie, le premier ministre Scott Morrison a ainsi fait planer l’espoir d’une réouverture prochaine des pubs, conditionnée à une augmentation satisfaisante du nombre de téléchargements de leur application COVIDSafe. L’organisme Digital Rights Watch Australia déplore une tentative de persuasion peu subtile, éloignée des attentes de transparence et d’annonces factuelles de la part des Australiens. Le gouvernement ne disposerait pas d’un capital confiance suffisant pour se lancer dans ce type de projet, et une telle approche ne pourra qu’éroder cette confiance.

De la carotte au bâton, le diktat du volontariat

Le fonctionnement des applications de contact tracing nécessite une adoption par environ 60% de la population, d’après l’Université d’Oxford. Au-delà de l’intention de télécharger, celle-ci dépend notamment du degré d’adoption de la technologie support (équipement en smartphone, capacité à télécharger l’application, accessibilité du réseau mobile, capacité de stockage, batterie…). Avec 75% de la population française équipée d’un smartphone, cette exigence crée le doute dans la capacité de l’outil à montrer son efficacité. En Australie, 8 à 15% de la population avait téléchargé l’application au 3 mai. A Singapour, 20% de la population avait choisi de télécharger l’application au 21 avril, loin de l’objectif des 60% visé par les autorités. Pourtant, le pays qui affichait des résultats exemplaires a dû se résigner au confinement massif en avril.
Faute de résultats avec TraceTogether, il a été décidé que la technologie devra être pleinement exploitée pour combattre le virus. Depuis le 23 avril, le nouveau système SafeEntry impose de s’enregistrer via un QR code pour pouvoir pénétrer dans tout bâtiment public. L’obligation sera étendue aux centres commerciaux, aux entreprises, et peut-être aux gares et aux parcs. En lieu et place du volontariat, de la minimisation des données et de l’anonymat promis par le premier outil et jugés insuffisants, il est désormais obligatoire de fournir au système central ses coordonnées complètes.

Le recours à la contrainte a également été envisagé en Italie, bien que la piste ait finalement été écartée. Pour inciter à télécharger l’application Immuni, le gouvernement étudiait la piste d’une limitation des déplacements pour les individus n’ayant pas souhaité télécharger l’application. En alternative, il était envisagé de faire porter des bracelets électroniques aux personnes âgées.

A Moscou, le consentement est déjà devenu un homme de paille, avec une application qualifiée de « Cyber Gulag » par ses détracteurs. Théoriquement, les individus sont libres de télécharger ou pas l’application de QR code de la ville. Il reste cependant obligatoire d’y déposer une demande afin d’être autorisé à circuler dans l’espace public.

La liberté du consentement est déjà débattue en France du fait de l’injonction formulée à son égard. Elle inquiète également du fait des nombreux volte-faces observés au fil des semaines, du fait du caractère exceptionnel de la crise. Malgré les nombreuses promesses, cela crée une incertitude sur l’évolution des décisions et des discours. Il sera essentiel de rester intransigeant sur l’indépendance de toute contrainte du système envisagé.

De l‘optimisme au catastrophisme : le pari de la spécificité du consentement

Gageons que l’application soit suffisamment adoptée par le biais d’un consentement libre et éclairé. Le risque de dévoiement de la spécificité du consentement constitue une ultime et majeure inquiétude auprès des détracteurs du projet. Un consentement spécifique garantit que le système corresponde à un seul traitement, pour une finalité limitée et borné dans le temps.

Ouvre-t-on la boîte de Pandore?

Pour se prémunir de dérives et gagner la confiance des consommateurs, des garanties ou des leviers de réassurance peuvent être proposés, par le biais de « sunset clauses » spécifiant les clauses d’extinction du dispositif.

En cas d’absence ou de manque de clarté de ces clauses, un système de collecte ou de traitement de données pourra être réexploité à des fins différentes. La Russie et la Corée du Sud ont en commun d’avoir investi dans la mise en place de systèmes d’unification des données, agrégeant les flux de caméras à reconnaissance faciale avec d’autres sources. En Corée du Sud, il est désormais possible en 10 minutes de faire remonter l’historique de déplacement d’un citoyen diagnostiqué. Le grand potentiel de ces infrastructures développées ad hoc saura-t-il être abandonné, après la crise, au nom des libertés individuelles ?

Le principe de « non neutralité » de la technologie implique que tout projet, même créé à des fins bienveillantes ou dans un cadre précis, a le potentiel de voir son usage dévoyé. La mise en place d’un outil à capacité de surveillance revient donc à « ouvrir la boîte de Pandore ». Il convient ainsi d’accueillir avec une dose de scepticisme toute démarche à potentiel intrusif ou liberticide, dans sa structure ou dans le type de données collectées. Si la Corée du Sud a su faire accepter son dispositif en faisant preuve d’une (trop?) grande transparence vis-à-vis des citoyens, qu’en est-il de la France ?

L’institutionnalisation des mesures d’urgence, une réalité

Dans l’étude de l’Université d’Oxford, le frein principal au téléchargement d’une application type Stop Covid par les Français correspond à une crainte que « le gouvernement renforce la surveillance ». Comme le souligne Erik Baekkeskov, professeur en politique publique à l’Université de Melbourne, cette pratique se déroule en deux temps. Des mesures sécuritaires ponctuelles sont instaurées dans un contexte exceptionnel, pour ensuite être entérinées dans le droit commun.
Le Patriot Act, prévu 4 ans aux Etats-Unis et finalement resté actif depuis 2001, en est une illustration notoire. Au nom de la sécurité nationale et de la lutte contre le terrorisme, le dispositif a permis la mise en place de plusieurs dispositifs de surveillance, de manière plus ou moins opaque. En France, l’Etat d’urgence déclaré en 2015 a été prolongé 2 ans. Ses principes ont été transcrits dès 2017 dans la Loi Anti-terroriste, encore en vigueur. A cet effet, les nombreuses ordonnances imposées depuis l’Etat d’urgence sanitaire du 23 mars posent question.

En France, l’escalade des mesures liberticides fragilise la confiance

Partant du principe que “les promesses n’engagent que ceux qui les croient”, la méfiance des détracteurs de Stop Covid est nourrie par un faisceau d’indices factuels.

  • D’une part, par la feuille de route du gouvernement, résolument tourné vers une généralisation de l’identification des citoyens sur Internet et une valorisation de leurs données, au prix de mesures à caractère liberticide.
  • D’autre part, par le manque de dialogue démocratique dans le cadre du déploiement de ces nouveaux dispositifs digitaux.

“La maîtrise de la sécurisation de l’identité numérique des citoyens, dans leurs relations avec l’administration ou les entreprises, est une préoccupation majeure au cœur du projet gouvernemental ; elle permettra de développer des usages numériques plus fluides, de mieux protéger les données et de mieux lutter contre la fraude.”
Source : Synthèse et défis — Etat de la menace liée au numérique 2019
Ministère de l’intérieur

L’institutionnalisation de la violation de la vie privée en France, en quelques dates marquantes

  • En 2015, la Loi Renseignement, qui soulevait des motifs d’inconstitutionnalité sur la forme et sur le fond, a entériné l’atteinte au respect de la vie privée en cas de “nécessité d’intérêt public” à travers des mesures comme le suivi en temps réel des fournisseurs d’accès à Internet, ou la détection de menaces via un traitement automatisé opaque des données de communication.
  • En 2016, le fichier biométrique TES était promulgué par voie de décret, en plein week-end de la Toussaint, malgré la polémique et les craintes de piratage et de surveillance. Déployé par le Ministère de l’Intérieur, ce fichier recense nom, adresse, données relatives aux titres d’identité ainsi que la taille, la couleur des yeux ou l’empreinte digitale de l’ensemble des citoyens français.

L’année 2019 est marquée par une accélération dans la mise en place de nouveaux dispositifs, tout aussi critiqués et malgré tout adoptés.

  • En juillet, l’annonce du projet AliceM de reconnaissance faciale, qui à terme devrait être systématisé pour accéder aux services publics en ligne, génère de vives inquiétudes de la part de la CNIL, qui alerte sur son incompatibilité avec le règlement européen. Un recours devant le Conseil d’Etat est déposé sans succès par la Quadrature du Net, qui dénonce l’“objectif avoué d’identifier chaque personne sur Internet pour ne plus laisser aucune place à l’anonymat’.
  • En novembre, l’annonce par le Ministère de la Santé du lancement du Health Data Hub entraîne de nouvelles inquiétudes, dont la publication d’une motion par le Conseil National des Barreaux mettant en garde contre le risque de violation du secret médical. Cette plateforme a vocation à permettre à des organisations privées d’exploiter des gisements de données de santé issus de l’assurance maladie, mais aussi des centres hospitaliers, pharmacies, des dossiers médicaux numériques des citoyens, considérant les données de santé comme un “patrimoine collectif”. Si le rapport officiel promet une anonymisation des données, la Direction de la recherche, des études, de l’évaluation et des statistiques du ministère de la santé (Drees) parle de « pseudonymisation ».
Variété de données exploitées par le Health Data Hub — Source : Opusline
  • En décembre, l’Article 57 de la Loi des Finances 2020 votée à l’Assemblée permet à Bercy d’aspirer massivement les contenus publiés sur les réseaux sociaux, pour automatiser la détection de cas de fraude fiscale. La CNIL souligne que cette démarche marque un tournant, généralisant la surveillance de chaque citoyen alors qu’auparavant, un contrôle n’était démarré que suite à un soupçon. Pour la Quadrature du Net, la validation par le Conseil Constitutionnel risque d’encourager d’autres administrations à réclamer leur propre part de surveillance. Même au sein du Sénat est déplorée une « atteinte aux libertés publiques » d’une « gravité absolue ».
  • Alors que le Président de la République appelle depuis plusieurs années à une réflexion sur la fin de l’anonymat en ligne, dans une logique « d’hygiène démocratique du statut à l’information », la Loi Avia (anti-haine) votée le 13 mai fait désormais peser sur les plateformes et moteurs de recherche la responsabilité de supprimer sous vingt-quatre heures les contenus jugés « illicites ».
  • Dans cette même logique d’hygiène de l’information, une page de « fact checking » était publiée quelques jours sur le site du gouvernement . Ayant vocation à recenser les sources « fiables », l’opération a été vivement critiquée par un collectif de journalistes, dénonçant une atteinte à la liberté de la presse. Pour Arnaud Benedetti, professeur associé à l’Université de la Sorbonne, cette démarche démontre une « grande fébrilité du pouvoir exécutif, qui, faute de pouvoir censurer, se transforme en certificateur de l’information ».

De nouveaux projets à risque à l’heure du Covid-19 — Les deux nouveaux systèmes d’information mis en place dans le cadre de la loi d’urgence sanitaire créent également le doute, tant pour le secret médical que pour l’absence des citoyens au sein de la discussion ou la perspective d’efficacité du dispositif. L’Article 6 permet de « se passer du consentement des personnes intéressées » pour intégrer les données patients au sein des fichiers de traçage, ce qui peut être soutenu du fait du caractère exceptionnel de la situation. Cependant, la question se pose au niveau de l’utilité du système, puisque l’identification d’un risque de contamination n’entraînera a priori pas d’intégration dans unparcours fléché dans l’esprit de la Corée ou de Taïwan, mais simplement une injonction à rester à domicile.

Centralisation et transparence, la persistance de doutes sur les modalités de Stop Covid — L’un des points qui sème le doute concerne l’intention de mettre en place un système qui centralise les données collectées dans le protocole ROBERT. Cela peut laisser à penser une volonté ultérieure de collecter davantage de points de données, ou de pouvoir les connecter à d’autres bases de données, comme le craignent plus de 300 chercheurs. L’autorité « de confiance » qui serait appelée à gérer une telle base de données reste d’ailleurs à définir.
Certaines alternatives, comme le projet DP-3T, préconisent justement que les données soient stockées de manière décentralisée, c’est-à-dire localement, afin de limiter le risque lié à l’agrégation de données.
La promesse de transparence réaffirmée par Cédric O dans sa tribune reste par ailleurs à démontrer. Si le projet n’est pas à proprement parler en « open source » puisque non participatif, le code source qui a finalement partagé le 12 mai a été qualifié de « coquille vide » par les spécialistes. La même journée, un communiqué de l’Inria annonçait que le code source ne serait finalement pas publié dans son intégralité, allant de fait à l’encontre du principe d’open source.

Du clair obscur à l’escalade de l’engagement, la crainte plausible d’un changement de cap — Les volte-faces observés dans la prise de parole du gouvernement, au sujet de la gravité de la crise minimisée, de l’utilité du port du masque ou encore de l’injonction contradictoire des élections municipales le 15 mars ont érodé le capital confiance de ce dernier. Arnaud Benedetti qualifie de « clair-obscur » le « moteur communiquant de l’exécutif », et explique certaines positions contre-intuitives par l’« escalade de l’engagement ». En psychologie sociale, ce cadre théorique explique que plus un individu ou un groupe s’est investi pour atteindre un objectif, plus il sera difficile de changer de cap, même en présence de signaux d’alerte. La question d’une exploitation à tout prix de l’application Stop Covid est donc légitime.

In fine, la perspective de spécificité du consentement reste spéculative, et donc basée sur la confiance que nous sommes prêts à placer envers les porteurs de projet, par-delà leurs déclarations, pour des conséquences qui risquent de dépasser largement la durée de l’épidémie. Comme le souligne Erik Barkkeskov, une fois qu’ils existent, « cela demande de l’action et des efforts pour éliminer les outils à même de contrôler qui est où, quand et faisant quoi ».

Protéger la vie privée, de l’indifférence au devoir citoyen

La société d’exposition : une surveillance en voie de normalisation ?

En 1974, le projet Safari du gouvernement français avait scandalisé l’opinion publique et conduit à faire de la France le pays pionnier en matière de protection des informations personnelles. Au fil des années, le développement et la démocratisation croissants des TIC ont facilité une certaine normalisation de pratiques de collecte et de traitement de données aux capacités exponentielles.
A l’heure de la société d’exposition décrite par Bernard Harcourt, et malgré une inquiétude déclarative envers notre vie privée, nous nous dévoilons sur les réseaux sociaux, recherchons des informations, consommons en ligne avec une attente forte de services gratuits et personnalisés, car après tout, nous n’avons rien à cacher.
Face à la santé publique, la vie économique et sociale et la liberté de déplacement, il semble anodin d’installer juste un outil de plus.
Ceux qui osent le remettre en question sont d’ailleurs immédiatement culpabilisés, pour peu qu’ils possèdent un smartphone ou utilisent un réseau social, car accepter d’utiliser un service reviendrait à devoir renoncer à toute prétention à la vie privée.
Mais un climat de peur, qu’il résulte d’une menace tangible ou d’un virus, ne peut pas et ne doit pas conduire à une baisse de notre garde, de nos attentes ou de notre tolérance envers des collectes de données au potentiel liberticide.

Réaffirmer la vie privée comme un droit fondamental

Le débat sur la vie privée est actuellement tourné vers la patrimonialité de nos données, avec, comme prérogative individuelle, la cession ou l’échange de ses données contre rémunération, comme une marchandise. A cette assertion, “nous possédons nos données”, s’oppose la vision de la vie privée comme droit fondamental, défendant que “nous sommes nos données”. La minorité de voix qui s’élèvent pour préserver ce droit sont les garants d’une négociation collective bénéfique à l’ensemble de la société.

La vie privée est en effet indispensable pour protéger la démocratie comme pour garantir le droit à l’autonomie, l’auto-détermination, la liberté d’information, de parole, de pensée, de déplacement et l’égalité de droit de chaque citoyen.

Un affaiblissement de ce droit, un accès non souhaité à des informations par une organisation, une institution ou un acteur malveillant nous expose à une asymétrie d’information, conduisant à des risques tangibles de chantage, d’intimidation, d’humiliation, de discrimination, d’usurpation d’identité, d’extorsion ou encore de manipulation. L’agrégation de données et la prédiction permises par la technologie renforcent le champ des possibles pour quiconque entre en possession de nos données. D’autant plus lorsqu’il s’agit de données de santé (numéro de sécurité sociale, données génétiques) ou de données biométriques qui, par nature, nous suivent à vie.

Conclusion

La perspective d’un lancement de l’application française de contact tracing le 2 juin pose la question de son efficacité ainsi que des risques encourus pour la vie privée des citoyens et la santé de notre démocratie.

La collecte composite et quotidienne de données personnelles ou identifiables, leur dissémination opaque vers de trop nombreux acteurs tiers et peu connus du grand public, leur agrégation et leur exploitation aux mains d’une poignée d’entreprises ou d’une autorité gouvernementale, avec des risques de fuites, de piratage et d’usages malveillants à chaque étape, présentent des asymétries de pouvoir et des menaces trop concrètes pour que nous puissions nous en détourner.

Le socle réglementaire européen du RGPD, première pierre à l’édifice durement acquise au terme de décennies de combat politique -et encore trop peu respecté-, ne doit pas être pris à la légère ni abdiqué dans la précipitation ou la crainte, mais doit au contraire voir son esprit renforcé dans cette épreuve.

Dans ce contexte, il est essentiel de questionner et combattre la normalisation sociale croissante du tracking des individus, cristallisée par la posture « Je n’ai rien à cacher ». Pour cela, les seuls véritables garde-fous seront l’intérêt que nous sommes prêts à porter au sujet, ainsi qu’un esprit critique vis-à-vis du fonctionnement de l’application proposée et des garanties qui seront apportées à son sujet.

La volonté de construire une société de l’après Covid-19 risque d’être vaine si la protection de nos données personnelles n’est pas intégrée pleinement à la réflexion.

--

--

Charlotte_cd

Doctorante en sciences de gestion @iaelyon / vie privée & gestion des données personnelles par les consommateurs et les organisations.