Comment gérer les différences de granularité pour fluidifier le reporting ?


Les sièges des grands comptes ont besoin d’informations fiables, basées sur des données issues du terrain, pour prendre des décisions, se doter d’indicateurs de suivi, satisfaire à des obligations de reporting…

Mais plus les entreprises sont grandes, plus leurs centres de décisions stratégiques sont “éloignés” (hiérarchiquement, mais aussi, souvent, géographiquement) des centres de production. Dans ces conditions, mettre en place un processus opérationnel d’échanges et de remontée d’informations devient un véritable défi. Cela est dû, notamment, à de grandes différences dans la granularité des données disponibles. Mais pourquoi est-il si difficile d’aller rechercher une information au niveau où elle est produite ?

La granularité des données : véritable enjeu pour les grands comptes

granularité donnéesPour alimenter leurs indicateurs de suivi, les centres de décisions (sièges) des grands groupes se tournent naturellement vers leurs centres opérationnels (unités de production). Ces derniers sont en effet les mieux placés pour faire “remonter des informations fiables du terrain”. Jusque-là tout va bien.

En pratique, ça se complique. Les centres opérationnels disposent de très nombreuses données. Par exemple, pour piloter leur production, ils bâtissent leurs propres indicateurs, le plus souvent via des processus “maison” basés sur Excel. Ainsi un directeur d’usine calcule sa consommation d’énergie, à partir des données remontées par chaque atelier, elles-mêmes basées sur la consommation de chaque machine ou poste de travail. Mais le hic, c’est que ces données ne correspondent pas aux attentes précises des sièges pour une raison simple : ce n’est pas leur but…

En pratique, la plupart des données que le siège demande existent déjà dans les centres de production, mais sous une forme opérationnelle : elles sont très détaillées et leur organisation a été pensée pour faciliter leur suivi quotidien. Le siège, de son côté, n’a pas besoin d’une information aussi fine : il gère le groupe et, à moins qu’un événement stratégique ne justifie son attention, les données qu’il demandera à ses entités locales seront agrégées. Cette agrégation facilitera à la fois les comparaisons entre entités et l’échange de données.

Et le phénomène s’amplifie avec la taille des sociétés : plus les entreprises sont grandes, plus les différences de granularité de données sont importantes entre centres décisionnels et opérationnels.

Or, en terme de processus, les différences de granularité posent un problème simple : qui va payer ?

Évidemment, du point de vue du siège, le plus simple serait de recevoir des données parfaitement homogènes car dans le cas contraire, le coût de traitement sera directement proportionnel à la taille de l’organisation. Mais demander à chaque centre opérationnel de retravailler ses données pour satisfaire aux demandes du siège à également un coût : celui de la résistance au changement des utilisateurs qui estiment, à juste titre, que leur priorité numéro un, c’est la production, pas le reporting.

La DSI face à un workflow de données non prédictif

workflow donnéesDevant ces difficultés, le siège sera tenté de s’adresser à la DSI, à la fois pour faire développer un processus de collecte… Et pour le faire accepter aux entités. Mais au-delà de ce problème – qui, après tout, concerne un grand nombre de projets – un autre obstacle, technique celui-ci, se dressera vite en travers de sa route : au siège, bien souvent, personne ne connaît l’identité de l’utilisateur qui pourrait produire la donnée adéquate.

Souvent, en effet, le workflow de données est non prédictif. Impossible de connaître à l’avance tous les chantiers de l’entreprise, le détail de toutes ses entités ou les périmètres de responsabilité de chacun des employés. Faute de pouvoir lister toutes les parties prenantes impliquées, comment implémenter une solution ?

Il serait évidemment possible de commencer le projet par dresser la liste de tous les utilisateurs impliqués jusqu’au niveau le plus fin, mais alors les coûts d’acquisition et de maintenance de ce référentiel d’utilisateurs pourraient bien dépasser les bénéfices générés par le projet : on serait bien loin d’une solution de collecte de données agile, et les utilisateurs risqueraient fort de revenir vers leurs vieux démons : Excel + Mail.

GT, le chemin le plus direct vers les données brutes

data repositoryPour structurer des processus d’échanges de données efficaces, l’outil Gathering Tools met en oeuvre plusieurs principes. En premier lieu, il fait en sorte que toutes les parties prenantes impliquées travaillent sur un même référentiel – ce qui est indispensable pour obtenir une information de qualité. Concrètement, avec Gathering Tools, le siège va fournir un template sécurisé, doté de fonctions de contrôle de cohérence, aux centres opérationnels. Ces derniers vont le renseigner à partir des informations qu’ils ont à leur disposition.

Deuxième grand principe : l’utilisateur (dans un centre opérationnel) n’a pas à générer de nouvelles données. Avec Gathering Tools, il synchronise des informations qu’il produit déjà avec les demandes du siège. Cela va même plus loin : il connecte tout son environnement de gestion de données local sous Excel au niveau opérationnel avec le template du siège, toutes les transformations de données pouvant être réalisées par des fonctions du tableur. Et ce travail n’est évidemment à faire qu’une fois : lors des itérations suivantes, tout ce processus local sera réexécuté d’un clic et les données automatiquement mises à jour.

Ainsi, Gathering Tools minimise la charge de transformation des données de l’opérationnel vers le décisionnel et pour les utilisateurs du siège, toutes les données remontées par les entités se présentent sous une forme homogène. Enfin – c’est l’un des grands bénéfices de Gathering Tools – tout l’existant métier, consigné jusqu’alors dans les macros et les flux Excel peut être préservé, les données étant ensuite injectées dans le workflow qui en vérifiera la qualité. C’est par exemple la solution retenue par le groupe Vinci pour son reporting environnemental.

Un outil auto-apprenant

agilité collecte donnéesGathering Tools se révèle ainsi extrêmement agile pour sécuriser des processus de collecte de données complexes. Il répond en outre au défi des workflows non prédictifs :  l’outil n’impose pas que tous les points de provenance des données soit identifiés a priori, ni que soient connues toutes les parties prenantes.

Quand un processus Excel est “transféré” sous GT, ce dernier devient auto-apprenant. Lorsque les informations remontent au fil du processus de collecte, GT  “découvre” tout le cheminement de production des données. Dès lors, il devient possible de faire redescendre – depuis le siège par exemple – une demande de correction vers une personne sur le terrain qui n’était pas identifiée au départ. Chaque partie dispose des données à la granularité souhaitée, et le processus est dorénavant fiabilisé et simple à maintenir : avec Gathering Tools, les entreprises peuvent grandir et demeurer agiles.

Temoignage alternative Excel