Retour d’expérience : la stratégie data sans gouvernance, ça ne tient pas !

REX data gouvernance industrie

Il y a quelques semaines, nous avons accompagné une organisation industrielle avec une vision ambitieuse : faire de la donnée un levier stratégique, avec des moyens investis dans une plateforme moderne et des cas d’usage IA bien identifiés.

Mais très vite, nous avons été confrontés à la réalité du terrain

  • Des données de production issues de plusieurs systèmes hétérogènes (MES, ERP, SCADA) sans alignement ni synchronisation ;
  • Des anomalies non tracées de façon unifiée : entre la qualité, la prod et le SAV, chacun utilise sa propre nomenclature ;
  • Des KPIs différents selon les sites : OEE, rebut, taux de non-conformité… aucun standard partagé ;
  • Des doublons dans les référentiels articles, clients, équipements… avec plusieurs « vérités » coexistantes ;
  • Des analyses rejetées en audit qualité, car l’origine et la fiabilité de la donnée n’étaient pas démontrables.

Trop souvent, on parle de la stratégie data comme d’un choix technologique ou d’une course aux cas d’usage IA.

Ce que cette expérience nous a appris

La stratégie data (vision, architecture, IA…) et la stratégie de gouvernance (qualité, rôles, règles, partage) sont deux sujets à mener en parallèle.
La stratégie de gouvernance ne vient pas après les projets : elle les précède et les sécurise, elle est le socle invisible, mais indispensable, d’une stratégie data efficace.

On ne peut pas aller loin si :

  • On ne sait pas ce que « client », « CA » ou « performance » veulent dire dans l’entreprise,
  • Personne ne se sent responsable de la qualité de la donnée,
  • On passe plus de temps à nettoyer les données qu’à les analyser.

Comment avons-nous commencé ?

Voici les premières étapes que nous avons déployées avec ce client :

  • Cadrage de la vision
    • À quoi doit servir la donnée dans l’organisation ?
    • Quels sont les irritants métiers liés à la donnée ?
    • Quels usages veut-on fiabiliser ou accélérer ?
  • Création d’une cartographie des sources critiques (production, qualité, maintenance, R&D) ;
  • Identification des données « haute valeur » (lot, batch record, équipement, temps de cycle, OOS…) ;
  • Positionnement d’un socle de gouvernance simple et opérationnel
    • Identifier quelques concepts business critiques (client, CA, etc.) pour construire un glossaire métier ;
    • Standardiser les indicateurs clés, avec une définition métier partagée et documentée ;
    • Définir les premiers rôles (data owner, data steward), sans complexité ;
    • Cadrer les règles de qualité sur ces concepts : à quoi ressemble une donnée « fiable » ?

Pour que ça fonctionne, l’enjeu a été d’initier une communauté de gouvernance en impliquant dès le départ les managers, chefs de projet, analystes… et en valorisant leur rôle dans la connaissance métier et la qualité des données.

La feuille de route pour la qualité des données

Dans les différents scénarios proposés par OPERA, une architecture hybride a été choisie.

Pour commencer sans lourdeur, nous avons :

  • Créé des scripts Python pour automatiser les premiers contrôles DQ
    • Contrôle de formats (emails, dates) ;
    • Détection de doublons sur des clés métiers ;
    • Vérification de cohérence entre colonnes (ex : codes pays et noms).
  • Mis en place d’un dashboard simple pour suivre :
    • % de données valides ;
    • Nombre d’anomalies détectées par type ;
    • Délai de correction.
  • Organisé des « cercles de validation » métier : cas où les règles automatiques ne peuvent pas décider seules (acceptation d’écarts).

On avait prévu de la détection d’anomalies comportementales (machine learning ou règles heuristiques) : finalement, ce sera à mettre en place dans un second temps, lorsque la premier processus “simple” aura rendu ses constats.

Gains constatés

  • Moins de retraitement manuel ;
  • Tableaux de bord conformes aux exigences qualité (et audités) ;
  • Meilleure collaboration entre les équipes production, qualité et data ;
  • Premiers cas d’usage IA lancés sur des données fiabilisées.

La principale difficulté n’a pas été technique, mais humaine : La conduite du changement et l’engagement des parties prenantes dans la durée.

Les enjeux pour que ça marche !

  • Passer d’une culture de correction ponctuelle à une culture d’amélioration continue ;
  • Maintenir l’implication des équipes au-delà des premiers “quick wins” ;
  • Créer une “routine de la qualité” dans des métiers habitués à “faire avec” les écarts.

#DataGovernance #DataStrategy #TransformationData #CDO #QualitéDesDonnées #dataquality #DataOps #GouvernanceParLaValeur #changemanagement #Python #Panda #Datahub #mydatcatalogue #datagalaxy


Articles similaires