1 novembre 2011

Trop de technologie dans les études ?


L'air de rien le monde des études a évolué à grande vitesse au cours des dernières années et s'est largement diversifié par la multiplication des sources et la sophistications des méthodes. On peut craindre que l’excès de technologie les déprécient, et qu'il faille leur redonner de l'esprit par plus de théorie et plus d'esprit.

Du point de vue des sources, l'apparition dans les années 90 des bases de données clients, puis des systèmes CRM a mis à disposition des données massives relatives aux historiques de comportements et aux historiques d'interaction. Depuis le milieu des années 2000, c'est la digitalisation de la société qui fournit de nouvelles sources : les commentaires des consommateurs, les fils de conversation twitter, les banques de photos et de vidéos, les notes, et déjà et bientôt les données géolocalisées et chronométrées : des matériaux nouveaux dans leur nature et infiniment volumineux. L'accessibilité de ces nouvelles sources d'information, l'immensité de leur population ne les rendent pas forcement plus aisés à analyse que les enquêtes par sondage d'opinion nés avec Gallup, et les approches qualitatives traditionnelles qu'un Dichter a introduite dans les années 60. Ainsi les millions d'avis de consommateurs, en dépit de leur nombre ne reflètent en rien l'avis de la population pour autant qu'ils fassent l'objet d'un biais de sélection important – ce qui est le cas général, et l'observation exhaustive des séquences d'achat d'une clientèle n'est pas forcement extrapolable à la totalité du marché quand justement cette clientèle est très ciblée. Ces questions cependant peuvent être résolues.

Le véritable défi tient en trois éléments : le temps, la granularité, les modèles. La question du temps est celle de la barométrie. L'enquête d'opinion qui autrefois se présentait comme une photographie, peut plus facilement se distribuer en continu. Le longitudinal n'a sans doute pas pris toute l'importance qu'il devrait avoir dans l'analyse, il est pourtant essentiel dans la mesure où en dehors de l'expérimentation c'est le seul moyen de saisir les causalités et les dynamique. La question des de la granularité, qu'elle concerne le temps ou l'espace a une conséquence importante : les résultats d'étude peuvent concerner différents niveaux de décision à différents horizons. Un même système CRM peut produire une information de synthèse qui donne les tendances à moyen terme, et peut tout aussi bien servir des responsables de points de ventes. Voilà qui pose aux études un problème d'organisation de la distribution des résultats. Le troisième défi porte sur la relation entre des sources distinctes. Si les bases CRM sont riches et précises en matière de comportements, on a besoin aussi pour les expliquer de connaître les opinions et attitudes, si les recommandations sont une sources de données précieuses pour l'entreprise, c'est en connaissant les motivations de ceux qui recommandent que l'on peut les mettre en perspective. Il s'agit donc d'articuler les sources, de les intégrer dans des modèles pour rendre toute l'intelligibilité des modèles. Il ne s'agit pas d'éclairer un quali par un quanti, une étude par une autres, mais de fondre les données dans une seule base, un seul système et apparier des éléments apparemment hétérogènes.

Les évolutions ne concernent pas que les données et les mode de recueil, elles concernent aussi les méthodes d'analyse. A défaut de les inventorier, faute de place, quelques exemples choisis permettent d'en rendre compte. Avec les modèles SEM et les réseaux bayesiens, il est désormais plus aisés de saisir la structure des relations entre de nouvelles variables. Les modèles VAR et leurs outillages, récompensés cette année par un prix Nobel donné à Sims, ont ouvert la voie à une analyse causale, et dynamique des effets du mix. Les techniques de visualisation qui sont en plein essor permettent de prendre l'avantage de vaste corpus de données. Et il en est de même dans le domaine qualitatif : l'anthropologie renouvelle le champs des études quali en réintroduisant une dimension culturelle indispensable, l'observation est facilitée par des capteurs en tout genre – pensons aux progrès de l'occulométrie.

Le foisonnement et la sophistication des modèles posent cependant un problème important : celui de leur maitrise à la fois par les sociétés d'étude et par les annonceurs. Si la culture des uns et des autres se limitent à des tris croisés, peu de chance qu'on tire avantage et des données et des méthodes. C'est un problème que certains tentent d'éluder en cachant le capot sous le moteur, et en laissant croire que par des tableaux de bords simplifiés on peut saisir la complexité des marchés, sans s'intéresser à la complexité des phénomènes qui les animent.

Le corollaire est la nécessité d'avoir des modèles théorique bien compris des réalités que l'on cherche à explorer. Les données et les modèles seuls ne peuvent produire la décision, ce sont les modèles théorique qui leur donne un sens. Une approche scientifique des études se définit par un triple choix : celui du modèle théorique d'abord, de la méthode ensuite, et des données enfin. C'est sans doute le message le plus difficile à faire passer, l'induction est plus populaire que la déduction et l'on est souvent tenté d'analyser d'emblée l'apparence des faits qui est parfois trompeuse. Ces cadres théoriques sont cependant disponibles depuis bien longtemps. Et pour n'en donner qu'un exemple, on rappellera la théorie de la motivation de Deci et Ryan qui associe la nature intrinsèque des motivation à des changements durables de comportement. On comprendra mieux par ce cadre la relative inéfficacité de nombreux programmes de fidélisation.

A l'idéal la fonction étude pour être améliorée nécessiterait donc moins de nouveaux outils de mesures, et de nouvelles techniques d'analyse qu'une discipline plus grande qui devrait s’exercer dans trois directions:

  • Une meilleure définition et conceptualisation des variables clés et des modèles théoriques pertinents pour le marché où l'on opère et les stratégies mises en œuvre. Plus élaborés sera ce socle et plus rentables seront les études, car il sera possible d'accumuler les résultats et de produire un langage commun. Un exemple simple est celui du bon vieux modèle de part de marché à la Nakashini et Cooper : conçu comme le rapport de l'effort marketing de la marque sur le total de ses concurrents, il permet de mesurer les élasticités des variables du mix. Il peut servir de clé de voute à l'organisation et la structuration des sources et des méthodes d'analyse des données.
  • À un niveau organisationnel, la distribution et la diffusion des études doit prendre une importance capitale. L'efficacité des études ne réside pas seulement dans leur pertinence, mais dans la connaissance partagée qu'elles produisent. L'étude en soi n'est pas une connaissance, c'est son appropriation par chacun des membres de l'organisation qui en fait une connaissance organisationnelle. De ce point de vue les chargés d'étude sont moins, des analystes, des acheteurs, que des éducateurs. La fonction étude peut s'inspirer largement des processus de veille et d'intelligence : recueillir, coder, analyser, disséminer. Et sans doute plus encore devenir une véritable université interne.
  • Une troisième dimension réside dans la capacité d'accumulation des études. Pour autant qu'elles aient été structurées, qu'elles emploient des indicateurs standardisés, elle peuvent se prêter plus facilement aux techniques de méta-analyses, trop ignorée en marketing, et faire l'objet de généralisations empiriques.

Bref l'enjeu principal est celui de l'intelligibilité dont les trois dimensions concerne le caractère analytiques des modèles de connaissance, leur capacité à produire du sens commun, et à constituer des standards de comparaison.

Note : quelques réflexions pour alimenter la conférence : des études à l'intelligence marketing - SEMO

Aucun commentaire: