Comprendre comment les données et les APIs alimenteront l’économie de la prochain génération

Traduction de https://blog.chain.link/understanding-how-data-and-apis-power-next-generation-economies/, Romain Vaucher

Dans les deux précédents articles de la série “éducation”, nous avons abordé qu’est-ce que les blockchains et les contrats intelligents comme nouvelle infrastructure hautement sécurisée et fiable pour le transfert et le stockage de la valeur. Comme un ordinateur sans internet, les contrats intelligents basés sur des blockchains ont une valeur intrinsèque en soi, comme la création et l’échange de tokens. Cependant, ils deviennent exponentiellement plus puissants lorsqu’ils sont connectés à la vaste et grandissante économie des données et APIs, qui prend racine en dehors de l’écosystème blockchain.

Les contrats intelligents peuvent devenir la forme dominante d’accord numérique sur tous les grands marchés s’ils réussissent à exploiter le vaste réservoir de données généré par les fournisseurs de données, les APIs web, les systèmes d’entreprise, les fournisseurs de cloud, les dispositifs IoT, les systèmes de paiement, les autres blockchains, et bien plus encore.

Dans cet article, nous examinons plus en détail les données et les APIs, en particulier :

  • Qu’est-ce qu’une donnée et comment est-elle le moteur d’une économie des données ?
  • Comment les données sont-elles produites ?
  • Comment les données sont-elles échangées par le biais des APIs?
  • Qu’est-ce que l’analyse des Big Data ?

La compréhension de la portée de l’économie des données off-chain pose les bases du prochain article, dans lequel nous examinerons comment connecter de manière sûre et fiable les contrats intelligents à ces ressources en utilisant des infrastructures supplémentaires appelées “oracles”.

Les données et leur économie

Données

Les données sont des caractéristiques ou des informations obtenues par observation, comme la mesure de la température extérieure, le calcul de la position d’une voiture ou la documentation de l’interaction d’un utilisateur avec une application en ligne. En soi, les données brutes ne sont pas particulièrement précieuses ou fiables ; elles ont besoin d’autres données pour les contextualiser et d’une conformation pour assurer leur validité et/ou leur véracité.

Métadonnées

Les métadonnées sont des “données sur les données”, qui consistent principalement en informations de base pour faciliter le suivi et le travail avec les données. Par exemple, l’heure d’envoi d’un message texte, l’emplacement géographique d’un relevé de température ou la durée d’un appel téléphonique, sont autant de métadonnées qui aident à indexer et à donner un sens aux données.

Tri des données

En outre, les données doivent être traitées et triées afin d’être suffisamment fiables pour être utilisées par des applications critiques. Le processus de tri consiste à éliminer les données anormales, à repérer les inexactitudes et à ne pas tenir compte des informations non pertinentes, par exemple en comparant les températures actuelles aux températures historiques pour repérer et empêcher l’utilisation de données erronées.

Économie des données

L’économie des données est un écosystème économique dans lequel tous les types de données sont rassemblés, affinés et échangés de manière à produire des informations précieuses. Ces informations sont ensuite utilisées pour maximiser la production sociétale : une base de données de santé partagée pour stocker des essais cliniques afin de mieux comprendre les conditions médicales ou une entreprise privée qui suit ses opérations internes pour identifier et améliorer les inefficacités.

La croissance de l’économie des données ouvre de nouvelles possibilités autour de l’automatisation dans laquelle les données conduisent directement au déclenchement d’actions économiques sans intermédiaire humain. Par exemple, créer une application qui effectue un paiement pour des marchandises une fois que trois données sont confirmées : les marchandises sont arrivées (données GPS), elles sont en bon état (données IoT) et elles ont passé la douane (API web).

Production des données

Les données sont un sous-produit d’un processus ou d’un événement. Elles nécessitent un apport (action) pour être générées, une technique d’extraction (mesure) pour être enregistrées, et une technique d’agrégation (analyse) pour leur donner un sens. Comme l’accès à des entrées et à des techniques d’extraction/agrégation spécifiques peut être limité, toutes les données ne sont pas créées de la même manière et tout le monde n’a pas la possibilité de créer des données de même qualité.

Voici quelques-unes des façons les plus courantes de saisir des données nouvelles et originales :

  • Formulaires (saisie manuelle) — données saisies par les utilisateurs qui remplissent manuellement des formulaires publics ou privés, comme la participation à des enquêtes, la signature d’un document et la participation à des forums sociaux.
  • Applications/sites web (consentement d’utilisation) — les données sont saisies lorsque les utilisateurs acceptent les termes et conditions d’une application ou d’un site web, ce qui permet généralement d’obtenir un consentement légal pour suivre certaines mesures de données comme l’activité spécifique de l’application, les habitudes de navigation, et parfois même des informations générales sur le profil (sexe, âge, etc.).
  • Internet des objets (surveillance en temps réel) — données saisies par des dispositifs équipés de capteurs et d’actionneurs qui transmettent des données via internet, notamment les téléphones, les appareils ménagers intelligents, les articles de santé, les produits suivis RFID, etc.
  • Procédés brevetés / Expériences individuelles (propriété) — données capturées grâce à la propriété d’une entreprise sur un processus commercial (avoir un brevet ou être le leader du marché) ou à l’expérience personnelle unique d’une personne.
  • Recherche et analyse (combinaison et interprétation) — données saisies en prenant des ensembles de données existants et en leur donnant une interprétation originale : contre-interrogatoire avec des données historiques, références croisées avec d’autres ensembles de données, nouvelles techniques de filtrage et de calcul, etc.

Il existe également des revendeurs de données, qui achètent des données en gros à des agrégateurs de données ou à des entreprises de valeur, puis les revendent aux utilisateurs finaux. Bien que plus coûteux, les revendeurs de données prétraitent les données pour les adapter à des filtres ou des formats personnalisés.

Echange de données

Si les données doivent devenir un élément de base pour les applications de la prochaine génération, les industries ont besoin que les marchés achètent et vendent des données au lieu de se reposer uniquement sur la production interne. L’achat de données peut être nettement moins cher que la production de données. Par exemple, la création d’un algorithme d’auto-conduite nécessite une grande quantité de données sur la détection, la classification, la localisation et la prédiction de mouvement des objets. Pour obtenir ces données, le développeur pourrait les produire en interne en parcourant des millions de kilomètres ou simplement les acheter en externe par le biais d’une API.

Une interface de programme d’application (API) est un ensemble d’instructions sur la manière dont une application externe peut accéder à des ensembles de données et/ou des services spécifiques au sein de votre système. Les APIs sont aujourd’hui la méthode standard d’achat et de vente de données et de services. L’application de covoiturage Uber utilise une API GPS pour les données de localisation (MapBox), une API SMS pour les données de messagerie (Twilio) et une API de paiement (Braintree) pour les données de paiement afin de gérer les fonctionnalités communes de l’application plutôt que de créer chacun de ces services à partir de zéro.

(L’économie des APIs connaît une tendance à la hausse constante depuis sa création, avec de nombreuses innovations qui introduisent de nouvelles APIs et offrent de meilleures façons de gérer les APIs. Source: Software Development Company Informatica)

Les APIs sont généralement monétisées par le biais d’abonnement dans lesquels les utilisateurs finaux paient à l’utilisation (compteurs), souscrivent à des plans mensuels standards (sous licence) ou acceptent une forme de facturation échelonnée. Cela incite les fournisseurs de données à produire des données, tandis que les utilisateurs finaux les consomment sans avoir besoin de fournir leur propre infrastructure. Elle établit également un contrat juridiquement contraignant entre le fournisseur d’APIs et les utilisateurs payants, pour empêcher les activités malveillantes telles que le piratage des données et leur revente sans autorisation, ainsi que pour tenir le fournisseur de données responsable de certaines normes de performance.

Il existe une variété d’API ouvertes et gratuites auxquelles tout le monde peut accéder, notamment Open Weather Map pour les données météorologiques, Skyscanner Flight Search pour les données sur l’état des vols et GDELT pour le comportement humain et les croyances à l’échelle mondiale. En outre, les gouvernements du monde entier mettent de plus en plus de données à disposition via des APIs ouvertes dans le cadre de leurs initiatives en matière de données ouvertes.

Toutefois, les APIs ouvertes ne sont pas aussi fiables que les APIs payantes car elles ne bénéficient pas d’incitations financières et de contrats juridiques liés au contrôle de la qualité et aux performances de latence. La grande majorité des données de haute qualité sont obtenues par des APIs payantes, qui ont généralement accès à la source de données primaire, possèdent une infrastructure de pile complète, emploient des équipes de surveillance à plein temps et innovent constamment pour concurrencer d’autres fournisseurs de données pour les affaires.

Grandes infrastructures de données et analyses

Les humains ont été fascinés par l’idée de programmer les systèmes de manière à ce qu’ils puissent apprendre et s’améliorer. L’apprentissage est facilité par le fait de prendre une mesure, de recevoir un résultat, de l’analyser par rapport à des données historiques et d’acquérir de nouvelles connaissances sur la manière d’améliorer ses performances à l’avenir pour atteindre un objectif spécifique. C’est pourquoi on observe une tendance à construire des infrastructures capables d’accueillir une grande quantité de données, de les filtrer, de les classer et d’en tirer des informations approfondies.

Facebook, Google et Amazon aux Etats-Unis, ainsi qu’Alibaba, Tencent et Baidu en Asie, sont devenus des géants technologiques parce que leurs applications internet largement utilisées produisent d’énormes réservoirs de données pour leurs utilisateurs. Ces données constituent la base des meilleures analyses de données au monde, en particulier des logiciels d’intelligence artificielle (IA) et d’apprentissage automatique (ML). Ces technologies permettent de mieux comprendre le comportement des consommateurs, les tendances sociales et les pratiques du marché.

En même temps, les logiciels de gestion d’entreprise aident les entreprises à mieux comprendre leurs propres activités. Des sociétés comme SAP, Salesforce et Oracle ont mis au point des logiciels de planification des ressources de l’entreprise (ERP), de gestion de la relation client (CRM) et de gestion du cloud computing qui aident les entreprises à gérer leurs processus commerciaux internes en compilant toutes leurs données et tous leurs systèmes afin de générer des informations clés.

Le cloud computing et le stockage sont également devenus de plus en plus populaires comme moyen d’obtenir un accès plus fiable et plus étendu aux infrastructures numériques. Le cloud computing permet à de nombreux utilisateurs différents de partager l’infrastructure de stockage et de traitement des données, ce qui évite à chacun d’entre eux de devoir fournir et exploiter ses propres systèmes. Il a permis d’améliorer les processus cadres des applications, d’accroître le partage entre les systèmes et de réduire les coûts d’accès aux logiciels AI/ML. Par exemple, les utilisateurs de Google Cloud peuvent profiter de BigQuery, un logiciel |Software-as-a-Service pour l’analyse évolutive des pétaoctets de données avec des capacités ML intégrées.

En avant vers la quatrième révolution industrielle

Lorsque nous combinons l’AI/ML, les logiciels de gestion d’entreprise et l’infrastructure cloud, nous obtenons de meilleurs outils pour améliorer les informations tirées des données. L’informatique de pointe, les réseaux de télécommunication 5G et la biotechnologie, qui ouvrent des environnements de données de plus en plus connectés en temps réel, viennent s’ajouter à ces tendances. Ces systèmes font continuellement évoluer les systèmes économiques vers une prise de décision en temps réel basée sur les données, avec moins d’efforts humains, d’autant plus que les données sont produites et partagées de manière transparente et plus fréquente. En fait, nombreux sont ceux qui qualifient cette mégatendance de “quatrième révolution industrielle”.

Lecture supplémentaire

Pour en savoir plus, consultez le prochain article de la série “éducation” sur le “problème de l’oracle ”. Suis-nous sur Twitter pour être informé des prochaines parutions d’articles et rejoins notre Telegram pour les dernières nouvelles concernant Chainlink.

--

--