Interview expert : l’impact de la data visualisation sur la veille
Dans le cadre du Baromètre sur l'état de l'art et les tendances de veille Digimind -Orange Consulting (État de l’art & tendances Veille et Market Intelligence), nous avions interviewé des spécialistes (intelligence économique, finance, juridique, data visualisation, deep et dark web) afin de mieux saisir l’impact potentiel des technologies et réglementation sur les fonctions Veille Stratégique et Market Intelligence pour aller au-delà de notre panel de sondés. Après l'entretien avec Fabien Giuliani sur sa vision de l'impact de “l’intelligence artificielle”, nous publions ici l'interview de Alexandra Kartachova sur la data, l'information et la datavisualisation.
Alexandra Kartachova
Head of Market Intelligence Practice - Sofrecom Business Consulting, filiale d’Orange
Alexandra dirige les activités de veille et d’études de marché dans le domaine des télécoms pour accompagner les différentes entités du groupe, ainsi que les opérateurs hors footprint Orange sur l’ensemble des problématiques marketing, connaissance clients et marchés.
Quelle est la différence entre donnée et information dans le cadre de la market intelligence ?
Souvent utilisés comme synonymes, les deux mots n’ont pas la même signification dans le domaine de la MI (Market Intelligence) où « l’information » est une notion supérieure. La « donnée » porte un caractère multiple, répétitif et/ou dynamique. C’est une « matière brute » qui avant d’être utilisée, nécessite un travail d’analyse, d’interprétation ou au moins, de structuration et de présentation (ex. via les outils de Dataviz). L’information en revanche - quelle que soit sa nature, descriptive (faits) ou analytique (s’appuyant sur des données) est forcément « parlante » elle-même, peut inciter à l’action et/ou alimenter un circuit décisionnel.
Quels moyens pour regrouper et comparer des données de différentes sources (publications, réseaux sociaux, médias, web) ?
Aujourd’hui, bien que les moyens et outils digitaux commencent à se développer et prendre de la place dans les entreprises leur usage est encore marginal. Tant que l’offre ne s’est pas banalisée, le coût reste assez prohibitif et les entreprises peinent à les adopter, notamment compte tenu des bénéfices pas encore connus de tous.
Nous ne sommes pas une exception et dans nos travaux la variable « humaine » reste primordiale dans la production des analyses agrégeant plusieurs sources.
L'analyse nécessitera toujours la présence d’expertise humaine, le storytelling restera une prérogative humaine”
Dans un contexte big data, comment la data visualisation va permettre de mettre en exergue les données pour accompagner la prise de décisions stratégiques ?
La donnée « brute » bien structurée et synthétique est très prisée des décisionnaires car elle a l’avantage de porter un caractère objectif et concret. La Dataviz est la meilleure solution pour rendre son usage opérationnel, notamment grâce à la lecture « immédiate » et son côté dynamique.
Quels outils préconisez-vous pour diffuser la bonne donnée à la bonne personne au bon moment ?
L’outil qui me semble le plus adapté est le Dashboard digital customisable selon les domaines d’intérêt et les usages de chacun.
Cela couvre à la fois le type de contenu, mais aussi la quantité des informations fournies, la forme de la présentation et la fréquence des mises à jour.
Comment faire en sorte que les données soient assez granulaires pour faciliter la pertinence des données à tous niveaux de l’organisation ?
Des niveaux de lecture différents selon les différents publics sont à prévoir – des données les plus détaillées possibles pour les opérationnels et un niveau de granularité de plus en plus « macro » et agrégé pour des fonctions plus stratégiques.
Est-ce que la tendance sera d’industrialiser l’exploitation de données pour aider les différentes directions métiers dans l’analyse de ces données ?
Il faut être clair par rapport à ce que l’on entend par l’exploitation de données. D’un côté, il y a la captation, la sélection de la « bonne » donnée et son traitement qui peuvent et doivent être industrialisés (notamment à l’ère du Big Data et de la profusion des données générées par des clients). De l’autre, il y a l’analyse à proprement parler qui elle, nécessitera toujours la présence d’expertise humaine (même si certaines fonctions de pré analyse-peuvent déjà exister, le « storytelling » restera une prérogative humaine).
Est-ce que cela implique que le veilleur / analyste devra se former à de nouvelles compétences ou il devra s’appuyer sur d’autres services en interne tels que les data scientists ?
Il est sûr que le métier de veilleur n’est pas le même qu’il y a encore quelques années et ne va cesser d’évoluer. Une collaboration avec des experts maîtrisant la donnée brute (données client internes, big data, … ) s’impose pour une connaissance marché et son exploitation business optimales. Cependant, toutes les compétences n’ont pas forcément besoin d’exister en interne (et être possédées par le veilleur), des outils en DIY et des partenariats avec des spécialistes de la Data sont également des pistes valables.
Retrouvez l’intégralité des interviews des experts Veille et Market Intelligence dans le baromètre sur les pratiques et tendances en veille stratégique et market intelligence par les professionnels.
Ecrit par Christophe Asselin
Christophe est Senior Insights & Content Specialist @ Digimind. Fan du web depuis Compuserve, Lycos, Netscape, Yahoo!, Altavista, Ecila et les modems 28k, de l'e-réputation depuis 2007, il aime discuter et écrire sur la veille et le social listening, les internets, les marques, les usages, styles de vie et les bonnes pratiques.