Des données à la création de valeur

Data Book
databook
Published in
18 min readMay 3, 2019

Les trois facettes de la valeur des données

Compte tenu de la grande variété des données, leur valeur est difficile à mesurer. Aucun outil de mesure statistique ne fait aujourd’hui consensus, qu’il s’agisse d’apprécier la valeur globale des données dans l’économie ou de mesurer leur valeur individuelle [20]. Ainsi, en 2017, l’Union européenne estimait qu’en 2015, l’économie fondée sur les données représentait 272 milliards d’euros, soit 1,87 % du PIB de l’Union, et qu’elle devrait représenter 643 milliards d’euros d’ici à 2020, soit 3,17 % du PIB global de l’Union [21]. Et dans une étude de 2013 consacrée à l’évaluation des données personnelles, l’OCDE notait que les courtiers en données vendent une adresse postale pour 0,50 dollar, une date de naissance pour 2 dollars et un numéro de sécurité sociale pour 8 dollars. Sur les marchés illégaux, le prix d’un numéro de carte de bancaire dérobé peut atteindre 30 dollars [22].

Contrairement à ce que l’on observe pour l’or ou le pétrole, il n’existe, pour les données, ni unité de mesure de référence ni cours qui y soient associés. Leur valeur d’échange est extrêmement volatile dans le temps et en fonction du type de données en cause. Certaines données n’ont de valeur que parce qu’elles sont disponibles en temps réel. De plus, les données ne ressemblent pas aux ressources traditionnelles : leur extraction, leur valorisation, leur échange empruntent plusieurs voies, parfois très différentes les unes des autres. Si un consensus émerge, c’est pour considérer que les données n’ont la plupart du temps pas de valeur intrinsèque. La valeur des données réside principalement dans l’usage qui peut en être fait, dans leur croisement avec d’autres données et leur circulation. Ce qui a une valeur d’échange, en revanche, c’est le service qui est commercialisé à partir de l’exploitation des données.

Il est toutefois possible de distinguer trois aspects de la valeur des données [23].

Les données constituent d’abord une matière première, une marchandise qui peut se vendre et s’acheter sur le marché. Certaines données acquises par une organisation sont directement monétisables auprès de tiers, qui peuvent, par exemple, chercher à acquérir les coordonnées de nouveaux clients potentiels ou se servir des données détenues par une entreprise pour lancer des campagnes publicitaires ciblées ou proposer de nouvelles offres de services.

Le marché de la donnée est également investi par des « data brokers » ou « courtiers en données », qui sont des entreprises spécialisées dans la commercialisation à des tiers de jeux de données sous forme de fichiers ou de flux de données qu’elles acquièrent auprès de différentes entreprises ou organisations. Leur modèle économique s’appuie sur les nouvelles possibilités offertes par la multiplication des données produites et les technologies permettant de les exploiter. Les données concernées peuvent être plus ou moins précises, par exemple le type de logement occupé par un individu ou le modèle de voiture qu’il conduit.

Aux États-Unis, plusieurs startups proposent par ailleurs d’associer les particuliers à la marchandisation de leurs données. Le principe est simple : en échange de leurs données, les utilisateurs reçoivent une rémunération. Par exemple, l’entreprise Datacoup propose de rémunérer ses utilisateurs 8 dollars par mois en échange de la collecte de leurs données sur les réseaux sociaux et de leurs relevés de transactions bancaires, qu’elle vend ensuite aux entreprises.

La commercialisation de données contre une somme d’argent ne représente toutefois pas l’opération la plus courante si l’on rapporte celle-ci à la quantité de données qui sont produites chaque jour. En dehors des données personnelles, le marché des données reste relativement embryonnaire.

Les données sont également un levier économique et un facteur d’innovation. L’agrégation de données permet de produire de la connaissance qui peut ensuite être utilisée pour mieux décider, mieux produire ou mieux agir. Les données peuvent bien sûr être mises à profit pour améliorer les performances d’une organisation, qu’il s’agisse d’optimiser les processus de production ou de développer de nouvelles activités. « Uber peut, par exemple, décider d’ouvrir ou non son service dans une ville à partir du nombre de personnes qui tentent chaque jour d’utiliser son application pour se déplacer », explique Simon Chignard. Les données peuvent par ailleurs servir au profilage des consommateurs. À partir des données dont on dispose sur un individu et sur la base de corrélations statistiques, on infère certaines de ses caractéristiques. Le profilage peut servir à des campagnes de publicité ciblées ou pour améliorer et personnaliser le service. Il peut également être utilisé par les banques et par les assurances pour évaluer les risques.

L’exploitation des données peut également contribuer à l’amélioration des services publics : renforcement des mobilités urbaines, amélioration de la pharmacovigilance, lutte contre la fraude sociale ou fiscale, ou encore prévention des atteintes à la sécurité publique dans le cadre de ce qu’on appelle la police prédictive. À cette fin, des logiciels d’aide à la décision peuvent être utilisés pour identifier les zones à risque où la police doit patrouiller à partir des statistiques des crimes passés [24]. De nombreuses collectivités ont également mis en place des applications mobiles qui permettent aux habitants de remonter, de façon volontaire, les dysfonctionnements constatés sur la voie publique (feux de circulation cassés, poubelles renversées, etc.).

Les données peuvent enfin représenter un actif stratégique, en ce sens que celui qui les contrôle est à même d’exercer un pouvoir de marché. Les données permettent généralement à une entreprise d’obtenir un avantage compétitif par rapport à ses rivales, et cela se vérifie tout particulièrement dans les secteurs économiques qui reposent sur une exploitation des données. On parle d’un « effet boule de neige » [25] : l’entreprise qui a accès au plus grand volume de données est en mesure d’offrir à ses clients les meilleurs services, ce qui lui permet d’attirer de nouveaux clients et donc de collecter encore davantage de données. Au final, cette entreprise est en mesure de définir de nouvelles fonctionnalités et de nouveaux produits, d’améliorer ses algorithmes et d’entrer sur des marchés adjacents. La concentration des données entre les mains de certaines entreprises peut contraindre l’arrivée sur le marché d’autres acteurs, qu’ils soient plus petits ou pas encore numérisés.

Valeur unitaire et valeur agrégée des données

Une donnée prise isolément n’a que peu de valeur. Les données primaires doivent être agrégées et traitées pour qu’il puisse en être dégagé une valeur suffisamment conséquente. Le plus souvent, une donnée n’est d’ailleurs exploitable que lorsqu’elle est contextualisée, utilisée en combinaison avec les métadonnées qui l’accompagnent. Les métadonnées désignent l’ensemble des données qui servent à décrire une autre donnée, qu’il s’agisse du nom, de la taille et de la date de création d’un fichier, du titre d’une chanson ou d’un album associés à un fichier audio ou encore du descriptif d’une photographie. « De très nombreux services digitaux reposent de façon quasi exclusive sur la gestion et l’exploitation des métadonnées plutôt que des données elles-mêmes », selon Henri Isaac. « Il en va ainsi des systèmes de messagerie électronique, des moteurs de recherche, des services musicaux en ligne (les playlists proposées ne sont qu’une gestion des métadonnées), les services de catalogage des photographies, les catalogues de commerce électronique, les services de réseaux sociaux, etc. » [26]. Par exemple, sans ses métadonnées, un fichier musical n’est pas exploitable : il ne peut pas être classé ni inclus dans une liste de lecture personnalisée. En revanche, dès lors qu’il est associé à d’autres données, comme le nombre de fois où il a été écouté par les utilisateurs de services de musique en ligne, les lieux et les moments d’écoute, les fichiers musicaux qui lui sont associés dans les listes de lecture créées par d’autres usagers, il peut être utilisé pour élaborer des services complémentaires, comme la création de playlists personnalisées.

Plus encore, la constitution de larges bases de données représente un enjeu majeur pour le développement de l’intelligence artificielle contemporaine fondée sur les techniques de l’apprentissage automatique (machine learning) [27]. En ce sens, l’accès à la donnée procure un avantage compétitif essentiel dans la compétition mondiale pour l’IA. Or sur ce terrain, l’Europe paraît aujourd’hui distancée par les États-Unis et la Chine.

Le traitement, un levier essentiel de la valeur des données

Le simple fait de collecter un nombre important de données ne garantit pas la création de valeur. La valorisation des données est le résultat de mécanismes complexes de collecte, de stockage et de traitement des données destinés à la production de biens ou services à valeur ajoutée pour les consommateurs ou usagers.

Un préalable indispensable à toute extraction de valeur à partir des données est la production de données de qualité. De nombreuses données sont en effet rendues inaccessibles ou inutilisables du fait de la mauvaise qualité de leur production. Cette dernière est généralement la première difficulté à laquelle se trouvent confrontées les organisations qui entendent recentrer une partie de leur activité autour de l’exploitation des données en leur possession. D’après une étude menée par le cabinet Gartner, plus de la moitié des programmes de gestion de la relation client et des projets d’entrepôts de données échouent en raison de la piètre qualité des données collectées [28]. Une autre étude a pu recenser 122 organisations en Europe et aux États-Unis qui avaient perdu plus de 1 200 milliards de dollars pour la même raison [29].

La plupart des données nécessitent donc d’être retraitées avant de pouvoir être utilisées. L’objet de ce traitement est de rendre les données fiables, cohérentes, accessibles pour les utilisateurs et conformes aux normes de sécurité et de confidentialité. Il peut par exemple s’agir d’enrichir et d’annoter les données en y adjoignant les métadonnées qui en qualifient le contenu. De telles opérations sont toutefois longues et pénibles et nécessitent la mobilisation d’importantes ressources humaines et financières. C’est pourquoi certains acteurs font appel pour ce faire à des sources de financements spécifiques ou à du crowdsourcing.

Ainsi, certaines plateformes de micro-travail proposent par exemple aux entreprises d’externaliser des tâches comme la collecte et la vérification de données auprès des internautes contre rémunération. Autre exemple : l’internaute qui, pour accéder à un site Internet, retranscrit les caractères ou identifie les images qui lui sont présentées, participe à la constitution de gigantesques bases de données qui serviront ensuite à alimenter les programmes d’IA.

Une fois garantie la qualité des bases de données, leur traitement par des méthodes d’analyse est une étape indispensable de la création de valeur. Le traitement des données permet aux organisations d’améliorer leur processus de gestion, qu’il s’agisse de leur méthode de production ou de leur relation avec leurs publics. Si l’utilisation de l’analyse de données est ancienne, les progrès récents en algorithmes, rendus possibles par la puissance de calcul des ordinateurs et la volumétrie croissante de données, ont introduit de nouvelles possibilités dans l’exploitation des données [30]. En ce sens, explique le sociologue Dominique Cardon, « les algorithmes constituent d’indispensables instruments pour classer les informations (moteur de recherche), personnaliser les affichages publicitaires (ciblage comportemental), recommander (prédictions culturelles) ou guider vers la meilleure route possible (GPS) » [31].

IA, machine learning et deep learning

Parmi les différentes méthodes algorithmiques existantes, les techniques d’apprentissage par données issues des recherches en intelligence artificielle marquent une rupture. Comme le souligne le rapport Villani : « elles marquent le passage progressif d’une logique de programmation à une logique d’apprentissage » [32]. L’apprentissage automatique (machine learning) et l’apprentissage profond (deep learning) sont des techniques d’apprentissage qui permettent de produire des modèles directement à partir des données. Autrement dit, c’est le programme informatique qui établit les variables pertinentes à partir de l’objectif qui lui a été assigné et qui ajuste ensuite le modèle sur la base des nouvelles données qu’il continue de recevoir. Les données combinées à ces algorithmes permettent par conséquent la création de services à forte valeur ajoutée qui apprennent continuellement des données d’usage ou d’un quelconque processus opérationnel pour améliorer leur offre.

Le machine learning permet d’entraîner l’algorithme à partir d’exemples pour créer un modèle prédictif.

Henri Isaac, « Données, valeur et business model », Cahiers scientifiques, p. 23–24 (extrait)

Le machine learning chez Uber

Tout comme Airbnb, Uber utilise des algorithmes de machine learning pour déployer son modèle d’affaires de mise en relation entre une demande de déplacement urbain et d’offre de transports des chauffeurs privés (VTC). Uber utilise par exemple un modèle Bayésien qui lui permet de prédire la destination du client et ainsi de pré-positionner ses chauffeurs dans les localisations les plus susceptibles de voir une demande exister. Mais la proposition de valeur d’Uber réside dans la mise à disposition d’un chauffeur dans un temps minimum. Uber doit minimiser le temps d’attente du passager et maximiser le nombre de passagers pour un chauffeur. Il faut donc un modèle qui permette à l’offre et à la demande de répondre à ce double programme de maximisation. Ainsi dans la ville de San Francisco seulement 16 % des taxis arrivent en moins de dix minutes contre 97 % des chauffeurs VTC. Cette disponibilité des véhicules Uber est au coeur de l’avantage concurrentiel et d’autres études démontrent que plus Uber est présent depuis longtemps, moins les clients ont de patience pour attendre un véhicule VTC.

Ce programme s’avère complexe, car il peut différer d’une ville à l’autre, mais aussi dans la journée (heure creuse versus heure pleine). En effet, pendant les heures creuses, les chauffeurs sont prêts à parcourir de plus longues distances pour obtenir une course, ce qui n’est pas le cas aux heures d’affluence où une demande peut émerger très rapidement à proximité du chauffeur et où le chauffeur a intérêt à attendre quelques minutes plutôt que parcourir une plus longue distance pour obtenir un nouveau client. En utilisant un système multi-agents et en intégrant différents comportements du côté des passagers et des chauffeurs, Uber a pu déterminer que les conducteurs utilisant son système de dispatching central gagnent entre 25–50 % de plus que les chauffeurs qui utilisent leurs seules connaissances de la ville pour la recherche d’un passager.

Mais là où l’utilisation des algorithmes est encore plus saillante dans le modèle d’Uber est son modèle de tarification dynamique qui équilibre l’offre et la demande. Le système de tarification dynamique « surge price », mis en oeuvre aux heures de pointe et à certaines périodes (soirées du vendredi et samedi, nuit du réveillon, etc.), qui multiplie le prix par un facteur 2 ou plus, incite les chauffeurs à travailler à ces heures, car ils augmentent leur revenu. Ainsi, le service Uber continue d’offrir des chauffeurs à des périodes où il est traditionnellement difficile de trouver un taxi. Les données montrent que l’offre augmente de 70 à 80 % pendant ces périodes et que deux tiers des demandes sont absorbées. Cet algorithme, introduit en 2011, a depuis évolué grâce aux données collectées sur toutes les courses et le modèle a pu se raffiner. Il concerne environ 10 % de l’ensemble des courses sur la plateforme Uber. Désormais, les clients sont avertis, lorsque la période est en « surge price », tout comme lorsque cette période se termine.

La collecte des évaluations des clients et des chauffeurs constitue également une source importante de données utilisées pour réguler le système et maintenir sa qualité et garantir la sécurité des passagers.

L’apprentissage profond, ou deep learning, est une technique d’apprentissage dérivée de l’apprentissage automatique qui fonctionne grâce à un réseau de neurones artificiels. Une fois qu’il est suffisamment entraîné, le réseau de neurones est capable d’identifier les caractéristiques essentielles du traitement sans nécessiter aucune intervention humaine. Le deep learning a notamment permis de faire des progrès spectaculaires en matière de reconnaissance d’images. Par exemple, une machine est capable d’identifier une voiture sur une photographie en utilisant les caractéristiques qu’elle a elle-même identifiées à partir de millions de photographies contenant des voitures. L’apprentissage profond a ceci de particulier que le modèle est directement « appris » des données en recourant à des caractéristiques et des relations entre données qui sont parfois impossibles à identifier pour un être humain. Les applications de l’apprentissage profond sont innombrables. Ce dernier peut notamment être utilisé pour identifier un individu sur une photo ou une vidéo, analyser des émotions sur un visage, lire sur les lèvres, établir un système de recommandation musicale, détecter des fraudes ou encore proposer un diagnostic à partir d’une imagerie médicale.

La clé du développement du deep learning tient toutefois autant à la qualité des algorithmes qu’au volume de données disponibles. Pour être correctement entraînés, les algorithmes ont en effet besoin d’un nombre très élevé d’exemples. À en croire Hal Varian, économiste en chef chez Google, les données auraient cependant « des rendements d’échelle décroissants » [33]. Autrement dit, l’utilité marginale d’une donnée supplémentaire diminuerait avec la quantité de données déjà collectées. Tant et si bien qu’à partir d’un certain seuil, il deviendrait inutile de recueillir davantage de données. Selon lui, le succès d’entreprises comme Google tiendrait donc plus aux recettes qu’aux ingrédients employés, à la qualité de ses algorithmes plutôt qu’au volume de ses données. Mais de telles analyses sont aujourd’hui remises en cause au regard des avancées réalisées en matière d’IA : la quantité de données disponibles et leur fraîcheur deviennent une ressource stratégique dans l’amélioration des algorithmes auto-apprenants. En ce sens, les données constituent la matière première de l’IA et l’accès aux données tend, au-delà des enjeux économiques, à devenir un enjeu de souveraineté et d’autonomie pour les États [34].

La valeur des données n’est donc pas seulement liée à leur abondance et à leur qualité. Leur traitement apparaît tout aussi indispensable à la création de biens et services performants. Tout au bout de la chaîne, la dernière étape du processus de création de valeur à partir des données tient à leur restitution sous forme de services à destination de l’utilisateur.

L’étape de la restitution, ou la valeur pour les utilisateurs

L’enjeu pour les organisations est d’être en mesure de proposer un service à plus forte valeur ajoutée à l’issue de la phase de traitement des données.

L’un des objectifs pour elles est de réussir à impliquer leurs utilisateurs dès la phase de conception du service numérique. Elles peuvent pour cela recourir au design thinking développé à l’université de Stanford dans les années 1980 par Rolf Faste sur la base des travaux de Robert McKim. Cette méthode prend notamment pour point de départ les besoins des utilisateurs finaux et leur ressenti et intègre ensuite leurs retours pour améliorer le produit ou l’offre de service.

Prenons l’exemple des compteurs de vélo connectés. La fonction première de ce type d’objets est de fournir à leur utilisateur des indications sur sa vitesse et sur les distances qu’il a parcourues. Mais le service proposé aura d’autant plus de valeur aux yeux de l’utilisateur qu’il sera en mesure de l’inciter à exercer une activité physique régulière et à améliorer ses performances. Le compteur pourra ainsi par exemple accompagner l’affichage de données brutes de messages incitatifs liés à l’évolution des performances du cycliste et aux caractéristiques de son parcours. Il pourra également informer l’utilisateur sur le nombre de calories qu’il a dépensées durant son trajet ou encore calculer les économies qu’il a réalisées en choisissant d’effectuer ses déplacements à vélo plutôt qu’en voiture. Le compteur pourra encore être relié à une application mobile qui restituera à l’utilisateur sous une forme visuelle et interactive certaines caractéristiques de ses courses : carte des trajets parcourus, graphique représentant les temps de trajet, les dénivelés réalisés ou la vitesse moyenne, etc.

L’amélioration du service proposé aux utilisateurs passe également par le recours aux outils de datavisualisation [35]. La datavisualisation est l’art de présenter les données sous forme visuelle, qu’il s’agisse de graphiques, de camemberts, de chronologies, de cartographies, d’infographies ou de toute autre forme de création graphique. Au-delà de l’aspect esthétique, l’enjeu est d’aider les utilisateurs ou tout autre destinataire à mieux comprendre des informations en apparence complexes ou qui contiennent de nombreux paramètres.

Les enjeux ne sont pas tellement différents si l’on se place cette fois du point de vue de l’administration. L’ouverture des données détenues par l’administration n’a de sens, en tant que telle, que si ces données sont suffisamment lisibles et compréhensibles pour les citoyens et si elles leur procurent un surcroît d’informations. Il faut encore que le format dans lequel elles sont restituées permette leur réutilisation par d’autres acteurs. La publication d’immenses tableaux en format pdf qui contiendraient pêle-mêle l’intégralité des données d’une administration ne présente à ce titre qu’un faible intérêt. Pour être efficace, toute politique d’ouverture des données publiques (Open Data) doit en principe s’accompagner d’une réflexion de l’administration portant à la fois sur la pertinence des informations qui sont mises à la disposition du public et sur la forme donnée à cette restitution.

Par exemple, dans le cadre de ses missions de régulation, l’ARCEP (Autorité de régulation des communications électroniques et des postes) a revu depuis quelques années de sa façon de s’adresser aux utilisateurs des télécoms et du secteur postal. En lieu et place de la publication de rapports longs et difficilement compréhensibles pour les non-experts, l’autorité a développé des outils qui prennent pour point de départ les préoccupations des utilisateurs. Le site Internet MonReseauMobile.fr propose ainsi aux visiteurs une carte interactive de la couverture mobile en France. Les utilisateurs peuvent désormais connaître et comparer les performances des opérateurs français sur les différents points du territoire pour les appels, les sms et l’Internet mobile. Ils peuvent ensuite arbitrer leurs choix en fonction de ces informations et décider de changer d’opérateur.

Piloter la donnée au sein de l’organisation

Notons enfin que l’extraction de valeur à partir des données est loin de pouvoir se résumer à un ensemble d’opérations techniques. De nombreux travaux ont souligné que la valorisation des données au sein d’une organisation ne tient pas seulement à la collecte massive de données, à leur traitement par des algorithmes et à leur restitution sous forme de produits ou services proposés aux utilisateurs, mais qu’elle relève aussi de processus organisationnels spécifiques [36].

L’un des enjeux est de réussir à développer une véritable culture de la donnée et de son partage au sein de l’organisation. L’exploitation des données requiert en effet une collaboration cohérente entre les différents services d’une même organisation pour casser les silos dans le traitement des informations. Alors que certains métiers ont une culture de la donnée très développée, d’autres manquent de maturité sur le sujet, sans qu’ils soient pour autant moins concernés.

Compte tenu de la volumétrie croissante des données, il est indispensable de penser ensemble les mécanismes de création de valeur, le modèle d’affaires et les capacités techniques de l’organisation. Par conséquent, à côté des investissements en infrastructures informatiques, la création de valeur à partir des données nécessite des investissements en termes d’organisation et de compétences afin de mettre en oeuvre une véritable gouvernance des données au sein de l’organisation.

Cette gouvernance se répartit en trois niveaux [37]. Tout d’abord, la gouvernance des données ne doit pas être considérée comme une sous-catégorie de la gouvernance des systèmes d’information. Pour qu’une démarche de valorisation des données se mette en place dans une organisation, elle doit être rattachée à la gouvernance globale de l’entreprise au plus haut niveau. C’est à ce premier niveau que les données doivent être considérées comme un actif stratégique et qu’il convient de définir la politique de gestion des données et les principes de leur intégration dans la chaîne de valeur de l’organisation. Il appartient ensuite au niveau managérial de définir le processus de gestion des données (la propriété des données, leurs mécanismes de gestion et de contrôle). Enfin, le dernier niveau est en charge des aspects techniques de la gestion des données.

La coordination de ces trois niveaux peut éventuellement être confiée à un nouvel acteur, le chief data officer, qui aura non seulement la responsabilité de la gouvernance et de la stratégie des données, mais qui sera également chargé de diffuser la culture de la donnée à tous les niveaux de l’organisation. Cependant, le chief data officer ne peut rien faire tout seul. Pour que son action soit efficace, il doit pouvoir s’appuyer sur des interlocuteurs métiers au sein de l’organisation, voire, en fonction de la taille de l’organisation, sur un département dédié, avec des data scientists qui pourront faciliter la diffusion des pratiques centrées sur la donnée dans l’organisation [38].

[20] Mandel Michael, “Beyond Goods and Services. The (Unmeasured) Rise of the Data-Drive Economy”, Progressive Policy Institute, Policy Memo, octobre 2012 ; Brynjolfsson Erik, “Why it Matters that the GDP Ignores Free Goods”, Techonomy 2012, Conference Report, 7 décembre 2012.

[21] Commission Européenne, “Créer une économie européenne fondée sur les données”, Communication, COM (2017) 9 final, 10 janvier 2017.

[22] OCDE, “Exploring the Economics of Personal Data: A Survey of Methodologies for Measuring Monetary Value”, Documents de travail de l’OCDE sur l’Économie numérique, n° 220, Éditions OCDE, 2013.

[23] Chignard Simon et Benyayer Louis-David, Datanomics, les nouveaux business models des données, éditions FYP, 2015.

[24] Legros Claire, « À Marseille, le big data au service de la sécurité dans la ville », Le Monde du 8 décembre 2017 ; Paquette Emmanuel, « Police : le logiciel d’anticipation des crimes face à ses détracteurs », L’Express du 8 février 2018.

[25] Autorité de la concurrence et Bunderskartellamt, Droit de la concurrence et données, 10 mai 2016, p. 15.

[26] Isaac Henri, « Données, valeur et business model », Les Cahiers Scientifiques, n°21, 2016, p. 18.

[27] VillaniCédric, Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, rapport issu de la mission confiée par le Premier ministre, 2018, p. 27.

[28] Gregory Adrian “Data Governance — Protecting and Unleashing the Value of your Customer Data Assets”, Journal of Direct, Data and Digital Marketing practice, vol. 12, n° 3, 2011, p. 230–248.

[29] English Larry, Information Quality Applied: Best Practices for Improving Business Information Processes, Wiley Publishing Inc, 2009.

[30] « Les algorithmes sont des procédures informatiques réglées qui permettent d’opérer des calculs à partir de données », Cardon Dominique, « Le pouvoir des algorithmes », Pouvoirs, n°164, p. 64.

[31] Cardon Dominique, « Le pouvoir des algorithmes », op. cit.

[32] VillaniCédric, Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, rapport issu de la mission confiée par le Premier ministre, 2018, p. 26.

[33] Cité par The Economist, “Fuel of the future”, 6 mai 2017.

[34] Morin-Dessailly Catherine, L’Union européenne, colonie du monde numérique ? Rapport d’information du Sénat, 2013.

[35] Isaac Henri, « Données, valeur et business model », op. cit.

[36] Isaac Henri, « Données, valeur et business model », op. cit.

[37] Isaac Henri, « Données, valeur et business model », op. cit.

[38] CIGREF, Valorisation des données dans les grandes entreprises. Maturité, pratiques et modèles, rapport, novembre 2016, p. 16 et s.

--

--