Privacy : au-delà de la protection, l’éthique de la réciprocité

Christophe Benavent
6 min readMar 19, 2016

--

Les utilisateurs assidus du web ont remarqué que de nombreux médias incitent leurs lecteurs à désactiver les adblockers, et à les inscrire en liste blanche, pour accéder aux contenus. Ils suivent aussi l’affrontement entre Apple et le FBI à propos des backdoors. Ils ont aussi noté la fulgurante progression de Telegram qui assure le cryptage des données.

Quelques événements qui marquent l’importance persistante de la question de la confidentialité des données et de la protection de la vie privé. Au travers de ces faits on dénotera une d’inflexion de la problématique. Dans le cas de Apple, se révèle que le risque de la surveillance vient moins des entreprises que des Etats quand la sécurité prime sur la liberté, les premières ont a défendre la confidentialité, sinon elles s’expose à une désaffection et la crise de confiance. Avec le cas des adblockers c’est l’enjeu d’un contrat social implicite qui est remis en jeu : le développement du web presque gratuit repose sur l’acceptation de contraintes publicitaires. Sa remise en cause conduirait vers un internet payant, plus réduit dans ses contenus et son accès. C’est un contrat à renouveler.

Voilà qui soulève deux questions. La première est celle du paradoxe de la vie privé qui est en apparente contradiction avec ces faits, et justifie l’autorégulation de la profession publicitaire et de celle plus récente et plus large des professionnels des données. La seconde est relative à une politique qui ne se limite pas à la protection mais vise à donner des fondements plus solides à l’échange de données de qualité.

Le paradoxe de la vie privée vient d’une apparente contradiction entre l’inquiétude manifestée par les consommateur à l’égard de l’usage qui peut fait des données personnelles et des conduites plus insouciantes qui les amènent à agir souvent à découvert et parfois de manière risquée. Cette incohérence s’explique au moins de trois manières.

La première est économique. Les risques sont futurs et peu probables ( usurpation d’identité, spamming, ..) alors que le bénéfice est immédiat, le calcul de vie privée donne alors l’avantage à l’action plutôt qu’à la protection. Cet argument est complété par une seconde explication : celle de la résignation. Quoique conscient des dangers, ayant le sentiment qu’on ne peut s’échapper à la surveillance, on se résigne et l’on se soumet. Le coût d’une protection inefficace conduit à renoncer à se protéger. Une troisième hypothèse s’appuie sur la théorie des niveaux de construit. Ce qui est lointain et abstrait fait l’objet d’un jugement différent de ce qui est proche et concret. Les deux jugements, la préoccupation à l’égard des données personnelles et l’attitude positive au dévoilement de soi, coexistent s’appliquant en fonction des circonstances. Abstraite et concrète.

On pourrait se dire que l’adoption des Adblockers est en contradiction avec ces hypothèses. Pas tout à fait. Ils sont sans doute une réponse à l’aspect le plus irritant de l’utilisation des données : le caractère intrusif de certains modes de publicités (pensons aux vidéos qui s’imposent une dizaines de secondes avant de laisser voir le contenu), leur facilité d’installation et l’étendue du champs d’application encourage à leur adoption. Le moteur est émotionnel, leur adoption ne signifie pas qu’un plus grand effort de contrôle des données est produit. Leur particularité est le faible niveau d’engagement qu’ils demandent, contrairement aux outils VRM, à ceux d contrôle de ses données personnelles, et plus simplement les règles d’hygiène digitale (effacer ses cookies, utiliser des hétéronymes…). On rapellera que l’autre technique de protection à faible engagement s’appelle le mensonge et conduit à cette situation que si les flux de données ne tarissent pas, ils sont encombrés de scories et de données erronées.

On pourrait espérer que les individus se comportent plus rationnellement. Ce n’est pas faute d’information et d’éducation, inutile de les alerter des risques, ils le sont déjà. Ils agissent pourvu que les coûts de protection soit faibles : bloquer les pubs ou mentir. Ils sont partisans du moindre effort et réagissent moins en fonction des risques réels que des irritations. La responsabilité de l’initiative contre les actions frauduleuses, abusives ou dangereuses doit en conséquent être l’objet soit de la puissance de publique, soit des activistes, soit de l’industrie des données elle-même.

La perspective ouverte est que si les consommateur sont réticents et vulnérables, il faut traiter le problème à leur place et faire en sorte non seulement qu’ils aient confiance mais qu’ils ne soient pas agacés. Ceci nécessite de juguler les externalités de la publicité digitales et de l’utilisation massive des données : ce qui est mensonger, ce qui est trompeur, ce qui est erroné , ce qui est intrusif, ce qui est indiscret, ce qui est risqué. Dans ce domaine l’exemple des externalités environnementales donne des voies de réflexions : la pollution que l’on limite par des taxes, des droits, des contrôle, des incitations douces. Certains économistes s’y sont attachés : Rao et Reiley donnent récemment un bel aperçu de l’économie du spam, et d’autres proposent des solutions intéressantes comme le » Attention Bond Mechanism« , même si elles semblent difficiles à mettre en place.

Reste l’auto-régulation et d’essayer de se distinguer des autres comme le fait Apple dont la bataille contre le Fbi a même perdue l’avantage de convaincre les consommateurs de la bonne volonté et de la bienveillance de la marque. C’est un engagement fort. Il reste insuffisant car ne traite pas l’autre volet du problème. Si les firmes privées peuvent assurer les consommateurs d’assurer l’intégrité de leurs données par ce type de position, y compris celle de l’engagement de ne les confier à aucun tiers sans l’autorisation explicite des consommateurs, les émetteurs de ces données, il n’est pas sur que celà se traduise par une meilleure acceptation des messages publicitaires. Même bien ciblée, au moins en terme de taux de clics, comme le fait le retargeting, la publicité reste un problème par la contrariété qu’elle suscite. Ecran bloqué, pop-up insistants, boite aux lettres encombrées.

Un éléments cependant ouvre une voie. Lorsque le contenu est pertinent, qu’il vient d’une source crédible, qu’il est contrôlable, il peut être accepté. Le dévoilement de soi et l’acceptation de message non sollicités sont liés principalement par le contrat qui nous lie à la marque. Un contrat moral qui s’engage dans une logique de réciprocité. Dans les enquêtes l’acceptation d’offres personnalisée est acceptés alors que les popups sont systématiquement rejetés. Cette logique de réciprocité à l’heure de la transformation digitale doit s’étendre au données. Si on collecte des données, le principe de réciprocité invite à les restituer de manière intelligente. Plus que ça, donner les moyens de contrôler les données. D’une part des instruments pour définir les paramètres de confidentialité, d’autre part un retour intelligible des données sous formes d’alertes, de recommandations ou de tableaux de bord.

Ce principe de réciprocité est inscrit dans l’antique règle d’or que partagent de nombreuses pensée. C’est un objet de l’économie autant que que de psychologie sociale, une norme morale et sociale. Elle est d’autant plus précieuse dans le monde des données, que si ces dernières ne sont pas la propriété de ceux qui les génèrent, les consommateurs, ceux-ci disposent un droit de contrôle, et ceux qui les partagent ont une obligation de rendre compte à la fois de ce qu’il font pour respecter la vie privée mais aussi des effets sociaux qu’induisent l’usage agrégé de ces données. La réciprocité est ce système de paiement symbolique qui maintient la confiance, tourné vers l’intérêt de l’autre. La question est désormais de savoir quels types de dispositifs permettent de l’exprimer. L’engagement de confidentialité n’est pas suffisant, le cryptage est de plus en plus exigé, la restitution des données est une voie ouverte par la portabilité, le contrôle ( facile) des paramètres de confidentialité est une condition qui va s’imposer, d’autres mécanisme sont à inventer pour maintenir vivante la réciprocité dans l’échange des données.

Ce donnant-donnant équitable appelle aussi à une autre approche des données. Elles sont moins des informations et des renseignements, que les inputs d’un processus de service dont la structure est celle d’un feed-back, ce que l’utilisateur donne lui reviens sous forme de notification, de recommandation, de tableau de bord et d’actions. Pourvu que ce retour soit utile, apporte de la valeur et qu’il soit équitable.

Préparé pour le Trust&Privacy Day — 19 mars 2016

Originally published at benavent.fr.

--

--

Christophe Benavent

Professeur à l'Université Paris Nanterre - Marketing, Cultures et technologie http://benavent.fr