Avant Big Data, pensez Small Data

Commençons par le commencement, avant Big Data pensez Small Data

 

Imaginez un riche propriétaire terrien qui ne serait pas capable de savoir ce qu’il possède, un industriel ou un commerçant qui ne connaitrait pas l’état de son stock, un banquier qui ne saurait dire comment sont diversifiés ses placements… Inimaginable, non ? Pour autant, à des degrés divers, c’est à peu près ce qui se passe aujourd’hui dans la majorité des entreprises.

 

En effet, ces dernières disposent de très nombreuses données qui sont un véritable trésor. Le “nouvel or noir” disent certains ! Ces données leur permettent de mieux connaître leurs clients et prospects, leurs potentiels, leurs appétences aux offres, d’anticiper l’évolution de leurs besoins et même d’appréhender les sources de profits actuels et à venir. Elles sont aujourd’hui tellement stratégiques qu’il est largement question de pouvoir les valoriser à l’actif des bilans des entreprises. Pour mieux les utiliser, de plus en plus de sociétés investissent dans des logiciels performants au service d’un projet qui leur permet de continuer à croître et à se développer.

 

Mais… Car en toute chose, il y a souvent un mais !

 

Evoquons, tout d’abord, le regroupement des données dans un logiciel standard et unique. Il se conjugue bien souvent au pluriel, chaque service voulant être maître chez soi. Leur interconnexion, dont l’utilité apparait comme une évidence, relève plus souvent du vœu pieux que de la réalité de terrain.

 

Pire, nous constatons assez fréquemment une multitude de gisements de données éparses et non-répertoriées, élaborées par telle ou telle personne, sans date de création ni de mise à jour, sauvegardés de droite et de gauche et, pour simplifier le tout, dans des formats et des structures de contenus forts divers.

 

Pour ne rien arranger, il faut bien considérer que les données ont intrinsèquement de très vilains défauts : elles se trouvent orphelines, faute de parents identifiés ; elles se dédoublent par saisies successives et couramment imparfaites ; elles évoluent, déménagent même quand elles s’appellent “adresse” ; elles meurent, soit naturellement, soit par l’effet des contraintes, des évolutions législatives... Bref, elles ont individuellement besoin de beaucoup de soins, de suivis et d’attentions régulières, qui leurs manquent trop souvent cruellement.

 

Voici également deux sujets majeurs qui pointent le plus souvent aux abonnés absents : la vision globale préalable à la mise en place d’un système de gestion des données ; le processus post-déploiement visant à pérenniser l’investissement réalisé, notamment par la formation aux bonnes pratiques, les mises à jour, les évolutions des référentiels, les transferts de compétences…

 

Alors quand on voit le chemin qui reste le plus souvent à parcourir, en restant à son niveau actuel de “Small Data”, on imagine mal, sauf à être un ardent partisan des catastrophes nucléaires, de passer d’un simple claquement de doigts au “Big Data” ! La solution est simple : le faire avec méthode et en commençant par le commencement.

 

Voici quelques étapes qui, si elles semblent évidentes, n’en sont pas moins incontournables :

 

  • Créer un comité de pilotage data regroupant tous les services/personnes impliqués et définir la feuille de route
  • Appréhender les besoins utilisateurs en prônant, le plus de dialogue possible, entre services
  • Identifier toutes les sources de données existantes dans l’entreprise et leurs pertinences.
  • Compléter l’état des lieux avec les sources externes disponibles pour enrichir ses bases
  • Vérifier la légalité, la pérennité et la fiabilité de chaque source, de ses contenus et modèles éventuels d’interconnexion
  • Supprimer les sources qui sont inexploitables, en double ou sans valeur
  • Déterminer pour chaque source : dates de création/mise à jour, contenus, structures, formats, volumes…
  • Identifier pour chaque source les clés de rattachements possibles
  • Etablir un plan d’architecture des données
  • Choisir la solution technique, les coûts directs et induits, préciser le retour sur investissement attendu
  • Construire un schéma de migration comprenant préparation et intégration des données, règles d’homogénéisation, dédoublonnage, nettoyage, score, enrichissements externes…
  • Développer un plan test de validation/qualité des données intégrées
  • Former et informer les utilisateurs, les sensibiliser à la qualité de la donnée et aux données personnelles
  • Définir un processus de mise à jour et de contrôle qualité

^