The Voices of Capgemini Consulting

The Voices of Capgemini Consulting

Décloisonner et valoriser la donnée, un challenge gagnant en B2B

 Par Ulysse Moutard, Cédric Vialle, Steve Baradel et Pierre Muzard, de Capgemini Consulting France
 Avec le témoignage de Vincent Champain, Directeur Général de GE Digital Foundry Europe

 

La donnée B2B est-elle une marchandise comme les autres? Parfois ignorée, souvent maltraitée ou peu partagée en interne, la donnée provenant d’autres entreprises ou partenaires est pourtant essentielle à la création de valeur. Leurs clients, fournisseurs de données, le savent et en attendent un retour... Pour y remédier, le plan d’action est simple vu d’en haut. D’abord, s’organiser pour ne pas gaspiller cette ressource. Ensuite, se muscler pour savoir la traiter; développer alors sa valeur en adoptant une stratégie des petits pas, tout en essaimant en interne. Enfin, reconsidérer la chaîne de valeur d’extraction, de collecte et d’exploitation de la donnée afin de repenser son positionnement dans l’écosystème. À la clé, les entreprises peuvent générer de nouvelles sources de revenus, voire même de nouveaux business models pour les plus aventuriers ! 

Complexes et cloisonnées, les données collectées auprès des autres entreprises, fournisseurs et clients, sont souvent sous-exploitées, faute d’une organisation ou d’une culture adaptées.
 

Révéler le potentiel des données collectées

Mieux appréhender les attentes des clients

À l’image du client particulier, à leur tour, les clients B2B élèvent leur niveau d’exigence quant à leurs fournisseurs. Les maîtres mots sont ici rapidité et simplicité. Fluidifier leurs transactions, communiquer par des canaux efficaces, anticiper leurs besoins et ceux de leurs clients deviennent des nécessités pour les fournisseurs. L’objectif? Proposer des services plus adaptés. Pour ce faire, les entreprises peuvent s’appuyer sur un éventail très large de données. Quantitatives (données financières et comptables, stocks), qualitatives (organigrammes, fiches produits…) ou hybrides (données de marché, client final, données de maintenance), tout l’enjeu est de comprendre comment ces données, consolidées, permettent de mieux satisfaire les clients. Pour aller plus loin dans l’apport de valeur au client, le CMO ou CSO peut aussi utiliser des données autres que celles fournies directement par son client ou produites par les services de son organisation. Le B2B adopte ici une démarche similaire au B2C : études clients, panels, comparaison des données de marché, étude des tendances, etc. Sans parfois disposer des mêmes ressources ou d’organisations adéquates pour exploiter pleinement ces données collectées. Cela impose souvent de se concentrer sur les données clés de marché ou de tendance, celles qui servent directement à se repérer dans son marché et anticiper les comportements d’achat. C’est ce que fait l’industrie laitière en achetant les données de tendances météorologiques pour anticiper les demandes des glaciers par exemple.
 

Collection et exploitation : ouvrir les vannes du data management

Par essence, les données sont non signifiantes et doivent passer au crible du traitement et de l’interprétation pour devenir de l’information à valeur. Nombreux sont les freins internes à leur utilisation. D’abord leur volume : selon une étude IDC pour EMC, le volume de données produites par le seul «Univers Digital» devrait être multiplié par 10 entre 2013 et 2020 pour atteindre 44 Zettabits1. Cela impose un changement conceptuel et organisationnel dans les organisations : passer du Big au Smart data afin de lever des obstacles techniques et structurels (format, compatibilité, stockage) qui se multiplient aussi vite que les données s’accumulent. S’y ajoutent des freins récurrents tels que la gestion de la qualité et de l’intégrité des données. La multiplicité du type de données, de formats et de logiciels utilisés (ERP, CRM et SCM) pose également la question de la circulation de l’information au sein de l’organisation. Un exemple : les chantiers navals créent des modèles géométriques de bateaux avec un format donné. En revanche, les bureaux d’études disposent de logiciels qui ne sont pas toujours compatibles avec ces formats. Afin d’effectuer des calculs, par exemple de stabilité, ils doivent souvent recréer ces modèles dans leur propre format, perdant ainsi en efficacité et démultipliant les risques d’erreurs. Un audit des méthodes de travail, des outils utilisés et des canaux de communication permettrait certainement de transformer le temps dédié à la gestion technique des données en temps à plus forte valeur ajoutée pour le bureau d’étude). Au-delà de la question technique, le principal blocage à l’utilisation efficace et coordonnée des données provenant des entreprises externes est d’ordre culturel.
 
 

Sortir de son pré carré

Pour assurer une mise à disposition efficace de la donnée, les entreprises doivent également s’interroger sur leur capacité à faire circuler l’information en interne. Le caractère sacré de la donnée et son utilisation pour la mesure de la performance individuelle ou collective créent une volonté de ne pas la partager, voire de la dissimuler. En effet, les différents départements d’une entreprise travaillent encore trop souvent en silos. Un comportement conforté par des freins psychologiques au partage, et paralysant alors la mobilité des données et leur libre communication. Un bon exemple dans la gestion des opérations : en donnant trop de visibilité sur ses opérations, la logistique s’expose à des critiques en cas d’incident; lorsque les forces de vente dévoilent leurs résultats, elles peuvent être challengées par le marketing. Pourtant, 60 % des décisionnaires considèrent que l’accès de tous les employés à la donnée client améliorerait la capacité à les fidéliser2. Un frein culturel auquel s’ajoute un déficit de compétences : près de la moitié des entreprises déclarent ne pas pouvoir traiter l’ensemble des données collectées faute de compétences adéquates3
 

Capitaliser sur les clients clés pour engager une transformation : oser le POC

«Rome ne s’est pas faite en un jour» : embarquer toute l’entreprise dans ce changement culturel n’est pas simple et instantané. La mise en place de «POCs» (Proofs of Concept), qui visent à démontrer la valeur de l’usage des données, en interne comme auprès de ses clients ou fournisseurs, sur un cas donné, est le premier pas vers des résultats rapides et réels. Un des avantages des entreprises B2B est de pouvoir s’adresser à une grande partie de leur marché en s’appuyant sur un nombre limité de clients clés. Ces clients, des partenaires privilégiés de longue date souvent, sont de parfaits candidats pour la mise en place de projets bornés et réalistes d’exploitation partagée de données. Le client «pilote» attend alors un retour de valeur à la hauteur du partage d’informations qu’il opère : pour lui, un statut de bêta testeur et un accès gratuit à des offres innovantes sont perçus comme des avantages concurrentiels. Ainsi, dans le cadre de l’expérimentation Territoire de Soins Numérique, visant à améliorer la coordination des professionnels dans le traitement des maladies chroniques, des hôpitaux et services sociaux départementaux ont accepté de partager des informations relatives à leurs patients communs. Un tel projet commence forcément sous forme de « POC » car les aspects règlementaires de gouvernance de données, intrinsèquement complexes dans cette industrie, nécessitent un temps de traitement important. Le « POC » a permis de démontrer rapidement l’apport en termes de qualité de soins et de suivi social et d’accélérer la résolution des sujets de fonds, plus complexes. Le projet pilote apparait comme un excellent moyen d’amorcer la transformation de l’organisation en apportant la preuve de la valeur apportée au client et à sa propre organisation. En partant de ses attentes, de celles de ses clients ou fournisseurs, l’identification des données pertinentes à la résolution de son problème servira de point de départ à la création de solutions pérennes permettant l’exploitation de nouvelles opportunités.
 

Scale up ! Élargir son vivier et muscler son organisation

Démontrer la valeur de l’utilisation des données provenant de son écosystème par des « POC » est essentiel pour enclencher une dynamique de transformation. Une question demeure : comment poursuivre cette transformation pour s’adapter, voire dominer, dans ce monde de la donnée?
 

Industrialiser l’acquisition de données à valeur : deux approches

Un marketeur B2B achète communément des fichiers clients, notamment de prospection. Plus l’interlocuteur pertinent dans l’organisation est inaccessible (e-mail ou téléphone directs renseignés), plus le fichier est onéreux. Néanmoins, ce type de prospection montre ses limites. Quels sont les jeux d’influence au sein de l’entreprise prospectée? Qui sont les véritables décideurs : acheteurs, marketeurs, top management? Tous attendent des fournisseurs une compréhension fine de leurs enjeux. C’est pourquoi une nouvelle technique est très en vogue en termes d’achat de fichiers de prospection : le web scraping. Le fournisseur de données administre les sites web et plateformes sociales des prospects ou clients et en extrait une «revue de presse» des évolutions : nouveaux articles postés, nouveaux résultats affichés, etc. On estime par exemple que 20 à 25 % des entreprises changent un élément de contact chaque année4. C-Radar est un système marketing prédictif B2B qui permet d’identifier avec précision des prospects sur le web5. La donnée collectée peut provenir tant des réseaux sociaux, de pages internet officielles que d’institutions comme l’INSEE, InfoGreffe et l’INPI. Agrégée, elle donne un profil complet et contextualisé de prospects avec des contacts dans l’entreprise. Mieux compris quant à ses attentes, et par les tendances de son marché, il reçoit de la part du fournisseur des propositions plus focalisées sur son besoin. Il peut aussi bénéficier de la mise en perspective de ses propres données, lui apportant des capacités supplémentaires de décision. Les données collectées sur LinkedIn ou Slideshare permettent aujourd’hui de profiler finement les attentes des personnes clés de l’organisation et ainsi de pousser les informations utiles pour lui au moment où il en a besoin. Plusieurs sociétés proposent aujourd’hui des outils d’analyse des profils sur les réseaux sociaux faisant ressortir les centres d’intérêts, les typologies d’«amis», les sociétés avec lesquelles le profil est lié.

Le troc de données

«Un bien n’est agréable que si on le partage» disait Sénèque. Les fournisseurs et clients échangent par nécessité des informations opérationnelles pour synchroniser les chaînes de production, l’arrivée des intrants, les flux de factures... Certains vont plus loin, ainsi Caterpillar fut un des premiers à investir dans la récupération de données d’utilisation de ses machines pour anticiper les réparations et les pannes6, un coût d’opportunité important pour son client final ou pour ses distributeurs. En ce qui concerne les données clients, on trouve de nombreux exemples d’échanges de données dans le cadre de partenariats de fournisseurs répondant à un même appel d’offres. Concurrents éternels, Mastercard et Visa développent des pilotes pour échanger des données avec des petits commerces (épiceries, etc) pour simuler des mini CRM (cibler des promotions, benchmark…). Plus traditionnellement, un outsourcer et une SSII comme IGATE et Capgemini le font dans le secteur financier, en se partageant les données relatives à leur client dans un objectif commun, validé par leur client : traiter ses opérations. Le premier grâce à des hommes, le second en équipant ces hommes d’un outil informatique communiquant avec le SI du client. Ce partage est facilité par l’existence d’un contrat de service qui définit clairement les cas d’usage des données échangées entre les partenaires.
 

Transformer l’organisation

Les entreprises n’ont pas la même maturité dans le partage de données. Beaucoup se contentent de construire l’infrastructure, le «tuyau» pour analyser indépendamment les données collectées dans chaque service. C’est le niveau 0. Se limiter à cette position dans la chaîne de valeur, c’est se priver d’opportunités et risquer de se faire «commodityser». Avant toute chose, la culture et l’organisation doivent s’adapter à de nouveaux modèles d’exploitation de la donnée par la constitution d’«équipes multisectorielles qui collaborent», comme le précise Clara Gaymard, ex-Présidente de GE France7. Un géant européen du courrier s’est récemment interrogé sur l’organisation et la gouvernance pour gérer les masses de données qu’il possède à grande échelle. Tout d’abord, un CDO (Chief Data Officer) qui établit la stratégie Data et s’assure de la cohérence avec la Stratégie globale. Ensuite, des data owners qui conçoivent et établissent les normes de gestion des données. À ces dimensions stratégiques et tactiques s’ajoutent les opérationnels en charge de construire les solutions et de mener des analyses : responsable métier, architecte des données et analyste de la qualité.
 
 

La montée en compétence progressive de l’organisation quant à la gestion et l’exploitation des données est essentielle pour accompagner l’ouverture des flux de données avec ses fournisseurs, clients et prestataires. Sans un renforcement de sa capacité à gérer les données, l’entreprise peut se mettre en danger : fuite de données sensibles, corruption de données logistiques, incapacité à exploiter le flux d’informations client et à exploiter les opportunités commerciales… En parallèle de la montée en compétence de l’organisation sur le traitement des données B2B, l’entreprise a aussi besoin de s’équiper techniquement pour pouvoir collecter, traiter, visualiser et analyser un flux toujours plus grand de données. Aujourd’hui, l’état de l’art en la matière est adressé par les technologies associées au Big Data : Data Lake, Hadoop, NoSQL, predictive engines… Tous les concepts véhiculés par ces technologies font rêver les Chiefs Digital Officers, marketeurs et commerciaux sur des cas d’usages sans limite. Pourtant, la mise en œuvre d’un système Big Data, prédictif qui plus est, est encore loin d’être une opération simple et clé en main comme peuvent le présenter certains fournisseurs de solutions. Le monde bancaire nous a montré qu’il vaut mieux prendre les sujets dans l’ordre et progressivement. Si on prend l’exemple de la gestion des risques en banque d’affaires, activité clé de l’industrie, on conçoit rapidement l’intérêt d’un système ouvert, prédictif analysant toutes les données collectées sur le client, quels que soient leurs sources ou leurs formats. Pour autant, la construction du système est passée par des étapes successives : collecte à la volée des données de transactions, mise en place de capteurs de transactions à risque, création de plateformes clients collectant des données non transactionnelles pour enrichir l’analyse (de livraisons de marchandises par exemple), implémentation d’algorithmes plus sophistiqués de détection de la fraude et enfin de puits de données regroupant les données de provenances et de formats divers pour des analyses ou des détections par algorithmes «à froid». Plusieurs années après, le travail de construction du système de prévention de la fraude est toujours en cours malgré un investissement conséquent de ces acteurs.

Un repositionnement nécessaire des acteurs dans la chaîne de valeur

En parallèle de leur transformation, ces entreprises s’ouvrent sur leur écosystème afin de créer de nouveaux produits, voire de nouveaux business models à partir des données. Dassault Systèmes, leader en modélisation 3D, et Bureau Veritas, acteur clé de l’industrie de la certification, s’associèrent en mars 2016 pour proposer la modélisation 3D de bateaux et plateformes offshore8. L’objectif est de créer une expérience utilisateur moderne reposant sur les données récoltées lors d’inspection ou sur la base des plans afin de gérer leur intégrité et anticiper les risques. Un business model inédit et de nouveaux usages autour des données d’entreprise partagées. Ce modèle est un exemple probant que le partage de données entre entreprises est créateur de valeur pour l’industrie. Une infinité d’autres modèles sont envisageables, dont voici quelques exemples.

L’inverse du modèle des GAFA

General Electric, géant de l’industrie en tant que producteur et fournisseur dans de nombreux secteurs, s’est attelé à un projet ambitieux de création d’une plateforme Big Data d’analyse prédictive de données en temps réel, Predix, en répondant d’abord aux besoins d’un client, le POC en somme, puis en le généralisant à d’autres une fois la valeur de la plateforme prouvée par l’exemple. «Nous sommes l’inverse des GAFA9», déclare Vincent Champain, CEO GE Digital Europe. «Nous proposons une plateforme payante, mais le client reste maître de sa valeur et de sa donnée». Dans ce modèle, les data scientists sont nécessaires. Mais sans travail commercial ni communication, explication avec les différentes fonctions de l’entreprise sur les usages à valeur, toutes ces données savamment ordonnées sont enfermées dans un entrepôt sous clef dont l’unique détenteur parle chinois.

Coffre-fort, labelliseur ou analyste : choisir son positionnement

Affirmer son positionnement quant au traitement des données de son industrie apporte de nombreux avantages. Cela permet tout d’abord de se positionner sur de nouvelles offres, plus disruptives : Tesla Motors, se positionnant comme analyste expert de la donnée, a décidé d’embarquer par anticipation dans ses véhicules les capteurs et la puissance nécessaires permettant d’introduire de nouvelles fonctionnalités post-commercialisation (e.g. AutoPilot, …) permises grâce aux données collectées et à l’intelligence artificielle. Cela permet à terme de développer de nouveaux business models. Ainsi, à l’instar de Tesla, en équipant ses produits de capteurs connectés, General Electric a construit une offre de services complémentaire pour ses clients : aujourd’hui, les services constituent plus de 50 % de son chiffre d’affaires. Plus intelligente et plus ouverte, la donnée de nos entreprises tire une valeur intrinsèque qui dépasse son rôle instrumental attribué jusqu’alors. C’est à celui qui saura la capter que reviendra le leadership. Oracle BlueKai joue le rôle de «tiers de confiance», labelliseur, c’est-à-dire l’intermédiaire reconnu entre offre et demande de données. Il centralise les données, les anonymise et les valorise, en permettant ainsi de créer des bannières publicitaires ciblées par exemple. Sigfox, dans une autre industrie, se projette aussi comme «labelliseur» et vecteur de la donnée en créant un réseau sécurisé pour les données issues des objets connectés. A contrario, SAP et General Electric prétendent maîtriser la donnée d’une industrie de bouten-bout grâce à des plateformes qui s’adaptent aux particularités de leurs clients, en leur laissant notamment la propriété de leurs données. Très forte est la tentation de maintenir captive la donnée collectée dans des systèmes calqués sur son organisation. Mais les exemples apportés par les grands gestionnaires B2B de données (Google, General Electric, etc.) démontrent qu’il n’est pas possible de maximiser l’exploitation commerciale des données au sein d’une même organisation, aussi forte soit-elle. Il est aujourd’hui, plus que jamais, nécessaire de s’ouvrir aux autres entreprises et à leurs données, à un écosystème sectoriel élargi pour s’aider à inventer le business de demain. Celui-ci reposera nécessairement sur le nouvel or noir de la quatrième révolution industrielle, à savoir les données.

2. E. Collins, B2B Loyalty, The B2C Way, Forrester, mars 2015
3. Des données inutilisées, Etude réalisée pour Pure Storage, Juillet 2015, auprès d’entreprises
4. Experian–Harness the power of data to drive marketing ROI
5. http://www.journaldunet.com/ebusiness/expert/58860/data-tour---le-secteur-b2b-est-il-le-prochain-arret.shtml
6. Forrester, Make Your B2B Marketing Thrive In The Age Of The Customer, Août 2015
7. Entretien de Clara Gaymard in L’Usine Nouvelle, «Le Digital, un levier de nouveaux services», 5 novembre 2015
8. http://www.3ds.com/press-releases/single/bureau-veritas-and-dassault-systemes-partner-to-drive-digitaltransformation-for-marine-and-offshor
9. Acronyme constitué des géants du web : Google, Apple, Facebook, Amazon

 

Sur la version intégrale du JMR 6 : découvrez le témoignage de Vincent Champain, Directeur Général de General Electric Digital Foundry Europe.

 

A propos de l'auteur

L'équipe Customer Experience Insights
L'équipe Customer Experience Insights

Laisser un commentaire

Votre adresse email ne sera pas cédée. Les champs obligatoires sont marqués d'un astérisque.