31 mai 2010

Gestion des contacts et gestion de la relation


L'approche client en marketing a gagné de manière évidente, au moins par le vocabulaire. On ne peut que s'en féliciter, sauf si par un esprit chagrin, on remarque que ce qui est appelé relation-client se limite à de simples contacts.

Ainsi les centres de gestion de la relation client sont souvent un rhabillage sémantique de centre de contact que les lieux où la relation se construit. L’ambiguïté n'est pas nouvelle, elle était déjà en germe dans les systèmes de gestion de CRM, qui le plus souvent ne font que les comptabiliser, éventuellement les analyser, beaucoup plus rarement les développer. La confusion des termes donne cependant l'opportunité de souligner l'importance de ces deux niveaux d'actions et d'analyse : le contact et la relation.

Ce qu'une littérature bien ancrée du marketing relationnel  souligne est qu'au delà des moments d'achats et plus largement des moments de vérité, un élément important et préalable joue un rôle crucial dans les décisions du consommateur : la relation. Celle-ci est un état, une atmosphère, une expérience, une prédisposition à l'égard de la marque qui est indépendante de l'offre, mais en conditionne le choix pour plusieurs raisons. La principale est qu'une relation de bonne qualité crée de la confiance, réduit le risque perçu, renforce l’appétence, facilite la recherche d'information, encourage l'échange, facilite la résolution des conflits.

Naturellement cette relation se construit sur la base de la multitude des interactions et des contacts. Dans un univers aux médias abondants, ces contacts n'ont jamais été aussi nombreux. Et il importe naturellement que chacun d'eux soit satisfaisant. En multipliant les points et les moments de contacts, c'est l'effet immédiat des technologies de l'information, une plus grande exigence est demandée en la matière. Elle est opérationnel et vise que jamais des processus s’exécute de manière fiable.

Gestion de la relation et gestion des contacts sont deux niveaux distincts d'analyse et d'action même s'ils sont interdépendants. La question est de savoir quel niveau est prioritaire? Pour certains, c'est la thèses des petits effets, c'est par une gestion impeccable des contacts que la relation est conforté, pour d'autre c'est la relation elle-même, le degré de confiance et d'attachement qui doit être la cible des efforts.

Ces deux niveaux diffèrent dans leurs horizons temporels. L'unité du contact est relative à un instant, des secondes, des minutes, au plus des heures. L'unité de la relation est celle de son histoire, des jours, des mois des années. L'une se répète, l'autre se poursuit, et si la première nécessite une formalisation élevée, la seconde exige une attention personnalisée.

C'est toute la différence de ces deux gestions parallèles : le succès de la gestion des contacts vient de la capacité à en assurer une qualité régulière à grandes échelle, celui de la relation a créer dans l'esprit de chaque consommateur un sentiment durable de confiance et d'attachement étroitement associé à sa reconnaissance. Et pour donner une échelle aux choses considérons par exemple le cas d'une clientèle bancaire qui serait de l'ordre de 5 millions de clients. Tous reçoivent un relevé bancaire mensuel, la moitié consulte leur compte 5 à 8 fois par mois, on passe au distributeur de billet hebdomadairement, et disons que l'on consulte son conseiller deux à trois fois pas an. L'arithmétique seule fait jaillir une quantité de contacts qui se chiffre en milliard quand le nombre de relations gérée par conseillers est de l'ordre de quelques centaines, éventuellement quelques milliers. Pour quelques contacts intenses et structurant de la relation, la majorité résultent d'automatisme et d'une logique d'ingéniérie.

Toute la question est donc de faire coexister et collaborer ces deux niveaux de gestion. Ce serait une erreur de les confondre.



crédit photos

12 mai 2010

Les paradoxes de la vie privée - du secret au mensonge


Les enquêtes se succèdent et la plupart témoignent (on présentera bientôt d'autres résultats) de ce qui est désormais appelé par les chercheurs le paradoxe de la vie privée : quand bien même les consommateurs déclarent ressentir l'intrusion des marques et ne souhaitent pas livrer leurs données personnelles, cela ne les empêche pas de participer aux réseaux sociaux et de cliquer sur les publicités comportementales.


Cette apparente dissonance entre l'action et l'opinion s'explique par le fait sans doute que les bénéfices reçus dépassent le risque perçu que les données personnelles soient utilisées. Cette balance mérite cependant d'être mieux caractérisée : les bénéfices reçus sont le plus souvent des bénéfices immédiats, les risques sont des risques futur dont la probabilité de réalisation est faible. Ils sont ainsi dans la situation des fumeurs qui ne se décident pas à arrêter : le plaisir de la bouffée à l'instant est entier et l'accalmie du manque est immédiate, alors que le possible cancer auquel on peut espérer survivre est un événement si lointain, que l'on peut plus ou raisonnablement penser qu'il ne se produira pas, et sera évincé par un événement tragique d'une nature différente - si les meurtres sont rares, les accidents de voitures sont encore fréquents.


On retrouve dans cette argumentation celles des économistes des choix intertemporels, dont l'essentiel réside dans le fait que les options futures sont dévalorisées selon des taux d'actualisation dont la nature est discutée, exponentielle ou hyperbolique.


Une alternative pourrait être trouvée dans la prospect theory et ses extensions de la framing theory . Il ne s'agit pas simplement d'un élément d'actualisation (le futur vaut moins que le présent), mais aussi d'une conséquence de l'aversion au risque et de la distorsion dans l'estimation des probabilités de réalisation de ce risque. Cependant, dans ce cadre nous savons que les petites probabilités sont surestimées, et les pertes mieux valorisée que les gains, ce qui devrait conduire à penser que le dévoilement de soi a un coût plus élevé que dans le cadre d'une simple actualisation. Par conséquent, en acceptant cette théorie, il faudrait admettre que les avantages immédiats sont bien supérieurs aux espérances de pertes. Mais voilà qui s'oppose à l'évidence, depuis un an ou deux les médias sont actifs dans la dénonciation des atteintes à la vie privée, rivalisent en matière de catastrophisme, et renforcent certainement la perception des coûts.


Un autre développement de cette économie comportementale peut résoudre l'énigme. Il est relatif au fait que ce paradoxe se réalise dans un contexte où de nombreuses informations sont disponibles, et que la manière dont les consommateurs intègrent cette information est peut être décisive. Ce développement peut être trouvé dans un travail récent d'un des représentants de ce courant de recherche, George Loevenstein, qui porte sur la valorisation des informations nouvelles, et qui propose et vérifie que si les bonnes nouvelles sont intégrées dans la décision, les mauvaises seraient masquées, ignorées, témoignant d'un comportement d'autruche.


S'il démontre cette théorie dans le fonctionnement des marchés financiers, la portée de cet argument est bien plus large et s'applique dans notre cas. A l'ère de l'information munificente, ce n'est ni la quantité ni la qualité de l'information qui compte, mais sa valeur dans un système de préférence. L'information est un bien soumis aux préférences, et l'on peut comprendre que des mécanismes de sélection déterminent son usage. En très bref, on ne retient que ce qui nous arrange dans l'immédiat.


Le véritable paradoxe de la vie privée ne serait donc pas que l'on donne ses données personnelles alors qu'on craint les conséquence de ces actions, mais que même averti des conséquences, on se refuse à les envisager.


Il est naturellement difficile de conclure sur la justesse de l'une où l'autre des théories, mais à l'évidence la simple balance des coûts et avantages n'est pas en mesure de résoudre le problème. Il faudrait pouvoir mieux apprécier d'une part le degré avec lequel le risque est minimisé, ou non, et dans quelles mesure les comportements d'autruche jouent un rôle. Il est fort probable que les alarmes médiatiques plutôt que de dissuader soit totalement ignorées.


En conclusion, si fondamentalement le problème est une balance entre avantages obtenus (la personnalisation) et les coûts concédés (celui de l'abandon des données personnelles), trois questions sont posées :
1) Selon quel modèle les conséquences futures de l'abandon des données sont évaluées ? Quels sont les types de risques envisagés : usurpation d'identité, surveillance policière, publicité non sollicitée....et quelles probabilités leurs sont associées ?
2) Dans quelle mesure ces valeurs sont affectées par la manière dont le problème est posé pour chacun et par l'aversion au risque propre à chacun.
3) Mais surtout de quelle manière les informations sur ces risques sont incorporées dans nos évaluations?


Et il faudra surtout envisager les stratégies que mettent en œuvre les consommateurs pour faire face à une double ignorance : celle de la valeur des informations que l'on donne sur la protection de leur vie privée et les conséquences de leurs faiblesses, celle de la conséquences de leurs actes. N'oublions pas que ceux qui brandissent la peur d'un monde Orwellien, au fond ne savent pas quel monde nous allons vivre, et qu'on ne peut espérer que les consommateurs leur fasse confiance.


La conséquence de l'état d'ignorance dans lequel nous met la société de l'information est très certainement que la meilleure stratégie des membres de la société soit désormais de mentir et de dissimuler, il faudra explorer plus avant comment le triomphe de la transparence conduit au royaume de l'hypocrisie. Comment le secret violé conduit à la généralisation du mensonge.



10 mai 2010

Les fourmis de Facebook - I like Buttons...


Depuis un mois les boutons « J'aime » de Facebook pullulent sur les pages du web. Ces boutons analogues aux boutons de partage remplissent une fonction toute à fait particulière, qui font que l'intelligence n'est désormais plus dans les moteurs de recherche mais dans le réseau lui-même, une intelligence sociale.
L'intelligence sociale n'est pas plus grande que celle des fourmis mais passablement plus efficace que la nôtre. Son principe est remarquablement simple. Les fourmis qui ont trouvé de la nourriture laissent sur leur chemin de retour des traces de phéromones - l'environnement sert de support à la communication. En supposant que deux chemins de retour se présentent, un court et un long, et si le choix initial est aléatoire, les traces de phéromone se dissiperont moins vite sur le court chemin que sur le plus long car la fréquence de passage sera plus rapide modifiant la probabilité des choix jusqu'à devenir un chemin unique qu'une colonne régulière empruntera.

Ce bouton « j'aime » est une phéromone numérique. En cliquant, on laisse une trace qui se répercute dans les pages de Facebook. Notons au passage que si la plateforme était fermée, elle s'ouvre à son dehors et en quelque sorte se réapproprie l'ensemble du web. Le remarquable du procédé réside dans la nouvelle conception du feed, qui désormais donne deux choix : la toute dernière actualité personnelle – empilement chronologique des messages, ou une sélection par défaut des « meilleurs » messages, ceux justement qui sont appréciés et commentés.

Poursuivant l'analogie, la plateforme est la fourmilière, nous en sommes les fourmis, et nos clics laissent notre signal, celui qui guide les autres vers les informations les plus attractives (et il n'est pas sûr que le plus attractif soit le plus pertinent). Comme la fourmilière, une intelligence émergente apparaît sans cerveau central. Il n'est plus besoin d'algorithme et de calculateur, c'est la trace de nos pas qui crée de l'ordre et de la signification, au sein même du réseau, par le réseau lui-même, en tant qu'il est l'environnement dans lequel on évolue.

Mais la limite de cette analogie est que l'odeur que nous laissons n'est pas la nôtre. Nous ne faisons que l'activer, ce sont les sites, autrement dit l'environnement qui la dépose, et c'est l'astuce de la plateforme qui la ramène dans son environnement interne au prix d'une certaine perte de contrôle des traces que nous laissons. On pourra largement discuter de ce sujet qui apporte une inquiétude de plus. Une analyse technique de Didier Durand et une discussion de Jean-Nicolas Reyt en donne quelques éléments.

Mais dans ce post, contentons-nous de souligner un fait plus général : l'audience d'un site et sa valeur dépendent de ce qu'il est tout de même difficile d'appeler une intelligence, mais d'un mécanisme collectif de renforcement de la crédibilité des sources d'information ( désormais des dizaines de millions). Facebook de ce point de vue n'invente rien, le pagerank jouait déjà ce rôle, des sites de signets collectifs (social bookmarks) comme delicious, diggs et autres technorati ont engagé le procédé, twitter (et son bouton qui fleurit depuis quelques mois) l'a systématisé.

Ce qui change c'est la taille, 400 millions de fourmis (...et moi et moi et moi) ça change la donne! Mais c'est aussi l'abandon d'un effort général de classification : le score des I like se distribue entre les pages de chacun, se fractionne, s'ajuste, se personnalise, sans qu'aucun effort ne soit fait sauf de lier un bouton perdu dans l'océan des pages, un cookie qui traine, et cette page de news qu'on consulte désormais chaque matin.

L'enjeu pour les marques devient considérable, faute d'être aimées elles disparaitront des pages d'accueil, n'ayant d'autre choix pour s'y retrouver d'en payer le droit à la plateforme : le bouton va enflammer le prix du CPM! L'alternative : produire assez de contenu, un contenu si saisissant qu'à force de clics elles se maintiendront sur l'écran défilant de nos nouvelles.


8 mai 2010

Plus de 24h pour les données - des nouvelles de l'AFM


Au congrès 2010 de l'AFM, qui avait lieu au Mans, nous avons été ravi d'animer avec Lars Meyer-Waarden une table ronde sur les panels, avec Matthieu Joly de MarketingScan et Jean-Pierre Gaucher de IRI.

Quelques questions simples et des réponses franches et éclairantes. Le bilan de ces dernières années est clair : une incroyable montée de la granularité et de l'étendue des données, la généralisation qui met à l'encan la théorie des sondages, une époque bien heureuse pour ceux qui se ravissent des bains d'information. Fraîches et précises, jamais elles n'ont été aussi détaillées, fidèles, précises, et utiles.


Un nouvel horizon? C'est celui de la confiance, et ceux qui possèdent les plus belles bases, celles qui sont constituées à partir des programmes de fidélité ne sont pas prêts encore à syndiquer leurs informations, ne serait-ce que par le biais d'échantillons larges. Mais cela n'empêche pas cette fusion des données de demeurer aujourd'hui l'horizon des panels.

Nous aurons senti dans cette rencontre qu'un appel fort est lancé auprès des académiques, non pas dans le développement de modèles que peu d'annonceurs sont prêts à comprendre, mais dans l'établissement de généralisations empiriques qui aident à la décision.


Nos interlocuteurs auront avoué au fond que la masse des données qu'ils recueillent et redistribuent auprès de leur client est assez peu travaillée dans sa généralité. Elles ont pourtant le potentiel de donner des indications précises sur l'efficacité générale des moyens du mix : le prix, la promotion, la marque et la publicité, sans doute l'effort promotionnel, toutes ces données sont désormais disponibles à une échelle qui est moins celle d'un échantillon que de celle d'une population, laquelle permet dans certains cas une finesse géographique qui au-delà de la dimension stratégique en font aussi des outils de pilotage opérationnel.


Remercions-les d'avoir ouvert leurs réflexions à la communauté de l'AFM, d'avoir dit sans fard l'état de leurs méthodes, et de donner l'espoir qu'une connaissance empirique sérieuse puisse se développer. On ne sait que peu de choses des marchés, on connait rarement la dynamique de leur essor, les présomptions sont plus fortes que les faits. Le travail que font ces sociétés n'est finalement pas que de donner aux acteurs une vision lucide de leurs affaires, mais aussi de permettre que l'on connaisse mieux l'état des marchés et les mécanismes qui les habitent. Il reste à nous organiser pour proposer les projets, les méthodes et les techniques qui feront parler les données.


Nous retiendrons que jamais on a connu une telle abondance de données, mais que jamais on a autant été éloigné des données du marché, au moins dans les milieux académiques. Le message laissé par nos invités est clair : il y a besoin de docteurs, il y a besoin de chercheurs, il y a besoin de donner du sens aux données. Et la panelisation des programme de fid, si elle est souhaitable, n'est pas encore possible...




3 mai 2010

La compétition par la fragmentation


C'est une chose que l'on ne comprend pas assez bien. Les bénéfices de la personnalisation ne sont pas issus seulement des avantages relationnels qu'ils procurent, mais de manière plus directe, de la plus grande faciliter à récolter le surplus des consommateurs, cette différence entre un prix qu'ils sont prêt à payer et celui qu'ils payent effectivement.

Il est parfaitement possible d'exploiter ce surplus sans recourir à de grandes bases de données et des calculs savants, il suffit de faire varier l'offre, de l'altérer sans cesse, de la proposer à des prix qui varient selon les saisons, les heures, l'humeur du moment. Vive la promotion! On peut jouer sur l'auto sélection du self service, ou user de toutes les forces de notre connaissance pour anticiper les désirs, le principe reste le même : la firme qui ajuste mieux qu'une autre, sa capacité à offrir des prix différents et adaptés, engrange des marges plus importantes, un plus grand pouvoir de marché, la faculté d'étendre à moindre coût le spectre de ses offres.

Dans cette compétition, il ne s'agit pas d'offrir le meilleur produit, ni même la plus sure des relations, aucun consommateur ne choisit même si la somme de leurs décisions fait une différence. Cette compétition se réalise aussi bien dans la valeur offerte que dans les coûts qui en donne l'accès. Elle se fait par une recherche obsessionnelle des ajustements les plus fins. Elle permet d'accumuler à travers le grand nombre de petites améliorations de marges qui pèsent sur le résultat.

On peut y retrouver l'argument de la longue traîne, qui reprend l'idée de coûts marginaux presque nuls, ceux qui font qu'une fois l'infrastructure financée, les produits des marchés d'interstices peuvent produire autant de revenu que les marques majeures. Lorsqu'on individualise au plus fin des besoins, on trouve des ressources que n'ont pas les autres.

La nature de cette compétition s'ancre dans la maîtrise de la connaissance : la produire, la sélectionner, la structurer, la mettre en œuvre. Les firmes comme des marathoniens ne gagnent pas la course par leur intelligence tactique, mais par leur concentration, trouvant en eux-même les forces d'avancer de manière plus soutenue, et de franchir les cols de la douleurs.

Les firmes qui s'attachent leurs clients ont un avantage, mais cet avantage n'est pas unique, les bases de données ont ainsi introduit aussi cette très vieille idée de l'économie, celle de la discrimination par les prix. Ayons des étonnements simples, si les marchés étaient ce qu'on nous en dit, l'ère de l'information aurait sans doute accélérer le chemin vers l'équilibre alors que nous assistons à l'éruption de nuages de prix, des équilibres en nuées. Les marchés se construisent dans l'appareillage de leur mesure.

Ce que la théorie économique n'a pas forcément prévu est que l'ère digitale est celle qui disperse définitivement les marchés. La technique de l'information lamine les catégories communes, volatilise les standards, pulvérise les référentiels. Quand l'agriculteur picard contractualise avec McCain, pour produire la pomme de terre destinée à la frite 9997, l'état de la concurrence ne résulte plus des substitutions possibles, mais au travers de la relation de produire un échange si avantageux que le bénéfices de l'agriculteur peut se satisfaire de la rente qu'il produit.

Et nous sommes fortement tenté de penser que l'avantage concurrentiel ne provient plus seulement de la différenciation de l'offre, de la qualité de la relation, mais de cette capacité dynamique à exploiter nos ressources propres. Les firmes modernes jonglent avec des millions de marchés.

1 mai 2010

La panelisation des systèmes CRM - next step ?


Pour le vieux data-miner, celui qui utilisait SPSS en DOS et les codes SAS, celui qui a été nourri au lait de l'analyse des données et des algorithmes de classification, les vingt dernières années ont été une période plus que faste, joyeuse, munificente.

La taille des fichiers double chaque année, la vitesse de calcul rattrape cette taille, rendant obsolète cette vieille théorie des sondages à mesure que les populations dépassaient les milliers d'individus, puis les dizaines de milliers, et les centaines, comptant aujourd'hui en millions, voire dizaines de millions. Les Oracles, les IBM, ont largement contribué à la construction logique de ces bases. D'autres solutions émergent fondées sur le calcul dans les nuages.


Bien sûr en parallèle de ce mouvement, de nouveaux modèles, les algorithmes s'adaptent à ces nouvelles données, et de nombreux modèles sont apparus même s'ils ne sont pas si systématiquement employés par l'industrie : réseaux de neurones, réseaux bayésiens, modèles multi-niveaux, modèles de mélanges, cointégration et modèles VAR, juste pour en citer quelques- uns.


Mais le fait dominant reste dans la dimensions des bases de données. Et il peut être bien d'en caractériser les principales structures.

  • La structure de données élémentaires est celle des enquêtes ad-hoc. Autrefois limitées à quelques centaines d'interviews en face à face, on peut envisager désormais des enquêtes électroniques de plusieurs dizaines de milliers de personnes. Ces données sont transversales, couvrent une ou plusieurs populations, et sont constituées de réponses à un questionnaire. Elles concernent des dimensions attitudinalles : connaissances et jugements.

  • Bien avant l'internet un souci aigu s'est manifesté pour mesurer l'impact des médias de masse. Les panels en sont la solution. Longitudinaux par nature, ils contrôlent l'évolution de valeurs agrégées telles que la part de marché, des taux de pénétration, d'audience, de couverture de la distribution, de prix moyens pratiqués. Les modèles fondamentaux sont les modèles de part de marché qui évalue l'impact des moyens du mix sur le choix des consommateurs. Panel de distributeurs ou de consommateurs, ils saisissent une population dans sa continuité par des données journalières. Internationaux ils couvrent désormais des dizaines de milliers d'individus dont ils suivent quotidiennement les consommations. Trois sociétés dominent : GFk, Homescan, et IRI avec Médiamétrie pour les audiences.

  • Une des conséquences de la révolution des TI a été l'introduction et le développement des système CRM qui capturent avec un grand détail les comportements d'une clientèle. Le volume de ces données peut aller jusqu'à plusieurs millions d'individus, pour lesquels plusieurs dizaines d'actes d'achats sont enregistrés ainsi qu'un nombre équivalent de contacts marketing. La limite de ces données est de limiter la vue avec ceux dont on est au contact, pour le reste du marché on devient aveugle. Segmentation et scoring en sont les outils privilégié.


L'internet bouleverse ce paysage de trois manières :

  • Il généralise la géolocalisation et en fait la clé universelle de mise en relation des bases de données.

  • Il introduit des matrices de relations sociales et permet de mesurer plus que les attitudes, les comportements et les expositions mais aussi les interactions sociales. C'est le graphe social.

  • Il permet l'association de plusieurs bases de données par la mise à disposition d'API au service des développeurs d'application, faisant du mash -up la nouvelle frontière des bases de données : leur interopérabilité.


Dans cette perspective, on peut se demander si on ne va pas vers nouvel outil de mesure ? Très certainement, on peut en imaginer les traits. Il sera d'abord un outil hybride qui associe différentes sources, par exemple en échantillonnant les bases de données CRM des principaux concurrents sur un marché. La juxtaposition de ces bases neutraliserait leur caractère partiel, égocentré, en donnant une vue panoptique du marché.


Mais elle exige une stricte anonymisation. L'unité de matching des données devra par conséquent se réaliser à un autre niveau d'analyse que l'individu et ses identifications (nom, adresses, numéros de comptes..). Un bon candidat est la position géographique, qui permettrait de faire coïncider les données avec celles du web, peut aussi dessiner un niveau très fin d'agrégation très proche de l'individu.

Ainsi le CRM analytique ne s'appuiera plus seulement sur les données comportementales de la clientèle, y compris les contacts, mais s'élargissant aussi par la dimension sociale, il puisera dans dans bases externes, les éléments utile pour mieux comprendre le marché et chacun de ses agents. Reste à identifier les clés légitimes d'appariement des données.