Big Data : le SI Digital doit sacraliser la data

Il ne faut pas idolâtrer de fausses divinités. Il n’y a pas de dieu Big Data ni de miracles algorithmiques sur le traitement des données. Le Big Data est partout, immanent à tous les SI modernes, qui se doivent de sacraliser la donnée. Car la donnée recueillie est éternelle, elle ne doit jamais être perdue, sa modification est un sacrilège et sa suppression, un acte de profanation. Il faut l’enrichir par l’hypercontextualisation et la fertiliser par des corrélations à 360°, alors seulement la donnée montrera la voie du ROI.

“#BigData dans une base #NoSQL et des #Datascientist autour.” vu sur Twitter @habibguergachi

Les fausses croyances sont légions autour du dieu Big Data. De nombreuses sociétés françaises pensent encore trop souvent qu’il suffit de lancer sa ligne numérique dans les data-lakes pour que, comme par magie, dieu Big Data pourvoit gracieusement à la pêche. Mais cette image véhiculée par les prophètes marketing est bien loin de la réalité. Car si on peut voir un data-lake comme un océan numérique riche de grasses données, on peut également le voir comme un vaste dépotoir. Et il y a de fortes chances de tomber sur une donnée ayant la valeur ajoutée d’un vieux pneu.

Pour garantir la qualité des données pêchées, il est nécessaire de maîtriser l’hypercontextualisation de sa captation. Et encore faut-il que la pêche soit fraîche, car la durée de vie de la valeur ajoutée d’une donnée peut être très courte, et son temps de traitement est absolument primordial. Penser alors qu’il ne s’agit que de simples problèmes techniques qui seront réglés en trouvant le bon outil et la bonne société de services est une erreur.

Fais ton pèlerinage

Il faut du métier et de l’expérience pour équilibrer la sainte trinité du big data : la volumétrie, l’algorithme et la vitesse (Combien va me coûter un volume de données à traiter, qu’est-ce que je veux en faire et qu’est-ce que je veux en extraire, quelle est la contrainte de temps pour obtenir un résultat ?) Car la volumétrie et le type de données à traiter influent forcément sur le temps de traitement et le temps de réponse, et prendre trop de temps fait baisser la valeur attendue de l’opération.

La problématique est la même lorsqu’on doit faire du traitement très complexe, donc très long, sur un faible volume de données.

Toutes les problématiques Big Data ont donc ceci en commun : quel est le coût de traitement d’un volume de données dans un laps de temps donné.

Ainsi, le réglage entre ces trois principaux paramètres (volumétrie, algorithme et vitesse) va simplement définir si l’opération peut gagner de l’argent ou en perdre.

Sacralise la sainte donnée…

Mais trouver les bons réglages n’est pas suffisant. Il faut maîtriser tout le processus, de l’inception de la donnée ou de son apparition, à sa captation, son traitement, sa restauration et la délivrance de sa substantifique moelle. La donnée ne doit pas seulement être manipulée avec soin, elle doit être sacralisée. Car c’est elle qui représente la valeur absolue de l’entreprise. Il n’est alors pas concevable d’imaginer une approche big data complètement externalisée (je déplace le problème), et d’envoyer toute la valeur ajoutée de l’entreprise à une société tiers pour qu’elle l’exploite, tout en apportant des restrictions d’utilisation. Pire : quand la société tiers contrôle le processus de génération des données !

Et le temps de réintégrer les résultats au sein du SI de l’entreprise, c’est faire une croix sur l’avantage du traitement en temps réel.

Externaliser toute la gestion des flux big data pour dire “je suis une entreprise digitale” est non seulement irresponsable, c’est une hérésie.

Il faut moderniser le SI pour concentrer ces flux, les traiter et les distribuer au plus vite aux parties prenantes. La DSI de chaque entreprise doit être au service de ses données, et de fait le Big Data doit être immanent à tout SI qui se respecte.

…Et elle s’ouvrira à toi

Il n’est pas possible de créer du service Big Data en évitant la transformation du SI, et en dédiant une équipe extérieur à toute autre production informatique, qui s’attellera à la récupération et à la production de valeur des informations. On ne change pas de direction en créant quelque chose “à côté”. Il faut changer l’intention et l’objectif des applications et des logiciels, et donc la distribution et la production de la donnée dans l’entreprise. Il faut repenser l’architecture et oublier les solutions périmétriques pour combler les lacunes du SI.

Il est faux de croire qu’on peut rendre modernes des systèmes encapsulés et des pratiques ancestrales en leur ajoutant simplement des données externes.

Il faut replacer la donnée, l’architecture et les technologies au sein du SI, et tirer toute la chaîne en s’appuyant sur l’automatisation des services.

Il faut exploiter la donnée intelligemment, avec tous les leviers possibles, du front office jusqu’aux métiers. C’est à dire pleinement, à 360°. Il ne faut pas avoir peur de la capter, de la tracer, de l’hypercontextualiser, et ainsi toujours mieux qualifier les utilisateurs et leurs besoins, et améliorer les services. Il faut construire des SI modernes, dans lesquels l’information recueillie sur le client à 360 degrés sera vénérée, dans lesquels la moindre action sera sacralisée.

Seulement alors la donnée pourra donner sa quintessence.

Seulement alors elle permettra le passage d’un « IT en mode save money » à un « IT en mode make money ».

Par Habib Guergachi, CEO de Zengularity, publié le 08/04/2017 dans JDN.

zengularity.com / contact@zengularity.com