30 décembre 2008

Bonne année les bots!

Loin des chaos de Gaza, et des apprentis-sorciers de la finance, c’est en revenant vers mon enfance, et mes premières lectures que j’ai envie de la commencer avec vous, me rappelant les délices du soir quand j’apprenais à comprendre le monde dans les romans d’Asimov.

L’hiver se prête à la science-fiction, et que ses temps soient éloignés, quand il s’agit d’un romanesque du milieu du siècle passé, il y a une étrange proximité : le monde des robots est déjà le notre, cette société des objets dont un Latour se fait le penseur, en leur redonnant à juste titre un rôle dans l’analyse des interactions sociales, mais dont je pense qu’un Asimov a pensé bien plus profond la nécessité qu’une société se construit moins par l’enrôlement, le pouvoir, que par la règle et le droit, une règle et un droit qui s’appliquent tout aussi bien aux hommes qu’à ses objets.

Les robots d’Asimov sont aujourd’hui parmi nous, des instruments qui acquièrent dans leur contexte d’usage et d’abandon, une autonomie d’action qui ne requiert aucune intention, et participe à notre vie comme nous participons à la leur. Il fallait une règle dans cette société, ce sont les Trois Lois de la Robotique (Manuel de la robotique 58è édition - 2058 après JC)

  • Première Loi : Un robot ne peut blesser un être humain ni, par son inaction, permettre qu'un humain soit blessé.
  • Deuxième Loi : Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi.
  • Troisième Loi : Un robot doit protéger sa propre existence aussi longtemps qu'une telle protection n'est pas en contradiction avec la Première et/ou la Deuxième Loi.

Au-delà de ce jeu d’axiomatique juridique, c’est la question du lien social et de ses médiatisations que pose Asimov comme le discute Philippe Breton dans un commentaire du roman « Face aux feux du soleil ».

Il n’a pas été le premier, ni le seul romancier à penser le rapport de l’homme à la machine, généralement pensé comme un rapport de pouvoir et donc de révolte, rappelez-vous l’Odyssée de l’espace . On ne peut naturellement oublier Philip K Dick, et les androïdes rêvent-ils de moutons (1968).On ira volontiers lire de Dantec Babylone Babies (2001), pour un rapport plus organique avec la machine qu’un Existenz de Cronenberg radicalise dans un monde où les robots sont des jeux vidéo. Et nous pourrions développer encore très longuement cette littérature de l'homme et de la machine.

Ces quelques rappels suffisent pour nous donner une direction pour cette année nouvelle : penser l’interaction homme/machine est désormais plus un problème de sociologie que d’ergonomie. Nous entrons dans la société des robots…N’est-ce pas un signe que l’OS mobile de Google soit nommé Android ?

En attendant, ne me reste pour cette année qu'à vous souhaiter une année heureuse, épargnée des tourments du monde, à vous tous, femmes, hommes, androïdes et autres robots!

28 décembre 2008

Echanger sans trace - projet Master Marketing



Voici un moment que la Fing a lancé ce thème d’étude. S’il a dans son intitulé la saveur d’un puzzle, de goût de l’énigme, il a en fait la force d’une évidence et le vertige de la naïveté. Ainsi donc, dans l’espace numérique, il ne serait plus vraiment possible de commercer comme on commerce au marché, dans la rue, et chez les boutiquiers.

Juste se promener, fouiner, dénicher et acheter en payant en billet gras ou craquant un meuble, une tomate, un tube de dentifrice, ou juste une mise en pli, sans avoir à donner son nom, son adresse ou le moins autre signe, ne laisser qu’un sourire et partir faire d’autres affaires, sans trace, sans mémoire, l’affaire dénouée et le contrat rempli. Dans la vie ordinaire les commerçants ne font pas remplir de fiche, ne copient pas nos papiers d’identités, ils s’assurent juste par quelques questions de la particularité de nos goûts, et usent de leur intelligence pour nous offrir ce que nous voulons. Et nous en sommes heureux le plus souvent, il ne faut guère que quelques minutes, un bref échange, pour que nous ayons le sentiment d’avoir obtenu ce que nous désirions.

Et bien dans l’univers digital c’est une chose bien difficile à obtenir. Avant même d’avoir goûté le moindre fruit il faut laisser son pédigrée, et quand nous payons ce n’est pas qu’une somme que nous abandonnons mais toute une histoire financière. Voudrions-nous rester des anonymes, c’est un chemin de croix qui se présente à nos pas. Le simple fait d’un billet posé sur le comptoir devient une acrobatie technique et commerciale inouïe dans l’espace digital. Les solutions existent. L’une d’elles que les sites porno ont mise au point est un paiement par tiers, l’opérateur téléphonique qui nous accorde un code, en fonction d’un débit. PayPal est sur les rangs aussi.

Mais le problème ne se limite pas au paiement, la recherche d’information aussi peut faire l’objet d’une personnalisation sans nécessaire identification. Les techniques de filtrage collaboratif, certains jeux de rôles, des interviews diagnostics, les techniques ne manquent pas pour offrir au consommateur l’information qu’il souhaite sans qu’il doive se déclarer. Après tout, le succès de Google s’appuie sur ce principe très général, supposant au passage que la pertinence n’est pas si subjective !

C’est ce sujet d’étude qu’un groupe d’étudiant du Master Marketing Opérationnel et International explore, en cherchant dans l’espace des sites Web, qu’ils soient marchands ou non, des cas remarquables, afin d’établir une typologie des méthodes et des techniques, en collaboration avec un groupe de travail du projet Identités Actives de la Fing.

____________

voir aussi

- Projets Master MOI
- Personnaliser sans identifier(2)
- Personnaliser sans identifier(1)

27 décembre 2008

Fraude aux clicks…un sujet encore frais.


L’International Journal of Electronic Commerce consacre son numéro de décembre à la fraude aux clicks. Voici un thème qui de manière pressante s’impose dans le champ du search-marketing en plein essor, apparaissant comme une conséquence de l’évolution des systèmes de paiement. Après le coût à l’impression (CPM), équivalent aux modes classiques de facturation de la publicité (paiement à l’audience utile), le coût par click (CPC) s’est imposé sur de nombreuses plateformes, évoluant même vers un coût par action, ou conversion (CPA), quelques professionnels envisageant même un coût par temps d’exposition ! Ainsi, en passant d’un mode de rémunération fondé sur les moyens fournis ( l’audience) vers un mode de rémunération à la performance atteinte, des problèmes d’agence (au sens économique) se manifestent avec une certaine violence.

Le problème n’est pas neuf comme en témoigne cet article de Business Week en octobre 2006. Quelques chiffres sont discutés par Freakonomics, ils sont d’un ordre de 16%, et reprennent ceux de ClickForensic, un quart d’entre eux seraient le fait de robots, mais ils se stabiliseraient au cours de 2008. L’analyse qu’ils en donnent est simple : dans la mesure où les sanctions sont inexistantes, que le gain même faible est certain, que le coût de réalisation de la fraude est quasi-nul, on peut se demander quelle proportion ces clicks inappropriés peuvent atteindre.

Il faudrait analyser plus particulièrement les causes (voir http://blog.lafraudeauxclics.com/) : tactiques de la concurrence, appétit des petits diffuseurs, système de contrôle des régies, etc… Le phénomène est plus complexe qu’il ne semble : sa mesure est extrêmement difficile car elle passe par une comparaison des statistiques propres aux diffuseurs à celles des régies, ses causes sont multiples, ses acteurs sont extrêmement hétérogènes (l’éditeur d’un blog a sans doute moins de motivation à frauder que celui d’un annuaire d’annonces !), les comportements des régies ne sont pas identiques.

Le sujet peut intéresser l’économiste quant à la faculté des marchés à s’organiser par eux-mêmes, ou justement à ne pas en être capable, et à s’interroger sur les institutions qui permettront de maintenir un niveau de confiance suffisant pour que le marché se maintienne. Quels systèmes d’incitation ? Quels signaux ? Comment réduire les coûts d’agence? Quelles régulations ? Il intéresse déjà certains juristes.

Pour les professionnels du marketing, le problème se pose en termes légèrement différents : comment évaluer les coûts publicitaires en fonction des performances véritables ? Doit-on continuer à favoriser des modes de mesure à la performance ou revenir à la mesure des moyens ? Doit-on s’appuyer sur les mesures proposées par les régies, ou sur des mesures plus spécifiques ? Comment mieux maîtriser ses plans médias en choisissant mieux ses éditeurs ? Qui sont les plus touchés, les annonceurs modestes ou les plus importants ? Ces questions deviennent centrales alors qu'on s'inquiète d'une baisse des taux de clicks (voir l'article de Philippe Astor dans ZDnet).

Concluons en rappelant que cette thématique a fait florès en 2006, comme le montrent les statistiques de Google trends , mais la polémique depuis s’est éteinte, le problème sans doute non. L’étonnant est que peu de publications scientifiques en ont fait leur objet (11 références dont le numéro sus-indiqué dans Business Source Complete, aucune dans JSTOR) !

17 décembre 2008

360°C ou résonnance?


360°C. L’expression a fait florès depuis quelques années, et évoque l’exigence des publicitaires à prendre en compte le fait que les différents médias ne sont pas complémentaire simplement parce qu’ils touchent des cibles différentes, l’esprit du plan média étant de choisir les supports de telle manière à optimiser les investissements, mais qu’il se complètent en ce qu’ils jouent un rôle différent dans les différentes phases du processus de traitement de l’information, si on considère le modèle classique d’un comportement d’achat analysé comme un processus de traitement de l’information et de prise de décision.

Le modèle de média planning passe ainsi d’un principe d’horizontalité, tous les médias ont une même fonction mais touche différentiellement les segments, à un principe de verticalité, ils agissent différemment sur les mêmes consommateurs à des stades de décision différents. Cette perspective commence à être étudiée, par exemple Verhof…L’optimisation consiste ici à trouver la combinaison des moyens qui permettent d’un stade à l’autre d’obtenir la plus grande conversion. Ainsi une campagne TV, dont le but essentiel est l’éveil, n’a pas pour but de préparer à la vente, mais plutôt d’inciter à une recherche d’informations plus poussée sur le net.

Le modèle n’est cependant pas si vertical, l’existence d’un site et sa consultation peut en retour accroître l’attention au message TV…Dans un tel modèle le 360°C ne trouve pas sa signification dans l’emploi de toute une panoplie focalisée sur le sujet, mais dans la recherche d’effet d’interaction.

L’avantage recherché est synergétique, pour employer cette vieille expression, et fait que la productivité de l’investissement publicitaire est accrue. Cette perspective est d’autant plus pertinente qu’il est difficile de croire à la pertinence d’un modèle séquentiel de prise de décision.

Dans le modèle classique du média planning, les notions de fonction de réponse dont un Morgenstern a été le pionnier, et de probabilité multinomiale d’exposition dont Jean-louis Chandon* en France a été un des précurseurs, sont fondamentales. Ces deux principes sont des principes d’économie, le premier vise à déterminer l’impulsion optimale, il a ouvert la voie à des débats sur la proposition de Jones quant à l’ODV optimale, et de manière plus sophistiquée aux stratégies de pulsassions des campagnes. Le second a ouvert un champ important de la recherche opérationnelle en posant le problème du choix des médias qui maximise une exposition pour un budget donné.

Dans les nouveaux modèles des nouveaux médias, c’est la notion d’amplification qui est essentielle. Il ne s’agit plus d’un principe d’économie, mais d’un principe de synergie. Comment combiner les canaux pour que l’un accroisse le plus possible l’impact de l’autre ? Pour accroitre le taux de clicks, faut-il le soutenir par une campagne presse ou par une campagne TV ? La première génère-t-elle plus de transformation que la seconde ? Et réciproquement, la campagne web intensifie-t-elle plus la réponse aux campagne TV ou la campagne radio ?

Si le problème est assez simple à poser, il sera difficile à calculer, les métriques ne sont pas les mêmes et les effets peu évidents à estimer. Mais il y a là très certainement un enjeu majeur pour les recherches sur l’efficacité de la publicité. Un problème nouveau aussi, qui se résoudra par la construction de nouvelles classes de modèles, mais aussi simplement par les données empiriques.

Concluons sur une question de business, si aujourd’hui Google absorbe une grande partie du marché publicitaire, et s’arroge les bénéfices, il le fait au titre d’une prétention au monopole : c’est la décision d’exposer l’internaute au lien qui produit l’essentiel de la réponse, en fait cette réponse est aussi fonction de l’effort que la marque a fait pour promouvoir le lien, et l’on pourrait penser qu’il est juste que les promoteurs de cette action réclament leur part. On voit aujourd’hui difficilement comment Google pourrait céder à cette demande, mais dans un futur proche, les choses pourrait être différentes, le Search Marketing n’est pas le seul segment du marché publicitaire, les réseaux sociaux prennent des parts, et qu’ils fussent tentés de récompenser parmi leurs annonceurs, ceux qui incitent à plus et mieux cliquer pourrait introduire un grand changement dans le marché.

*Chandon, Jean-Louis (1976), A Comparative Study of Media Exposure Models, Unpublished doctoral dissertation, Northwestern University.

_______
voir aussi
le grand retour de la publicité

7 décembre 2008

Audrey vient de soutenir...


Audrey Bonnemaizon vient de soutenir sa thèse de Doctorat ce vendredi 5 décembre 2008 à l'Université de Pau et des Pays de l'Adour.

Elle porte sur la mise en œuvre de l'orientation client, en s'appuyant sur une étude de cas extrême de type ethnographique. Elle met en évidence que la perspective traditionnelle de l'orientation marché, conçue comme une dualité processus/culture, peut être spécifiée de manière plus précise dans une dualité matérielle idéelle qui pose la question de l'ajustement entre orchestration des outils de gestion de la clientèle et représentation des rôles que la firme attribue au client. Le Jury était présidé par Hervé Dumez (Ecole polytechnique CRG), Bernard Cova (Euromed Management) et Eric Lamarque (Université Bordeaux IV) rapportaient sur la thèse, Jean-Louis Moulin (Université de la Méditérannée) et Jacques Jaussaud (Université de Pau et des pays de l'Adour) complétaient le Jury. Elle a obtenue la mention très honorable avec les félicitations du Jury.

La thèse a été développée dans le cadre d'un contrat cifre et d'un partenariat avec EDF-R&D, du département ICAME sous la responsabilité de Marie-Claude Louyot.
Audrey Bonnemaizon est actuellement ATER à l'Université Paris Ouest - UFR Segmi.
__________
Voir aussi :
Audrey Bonnemaizon : la mise en oeuvre de l'orientation client
L'orientation marché : une question de rôle


29 novembre 2008

L’archéologie de l’immédiat


Une nouvelle a été reprise par de nombreux sites : Google est capable de prédire l’épidémie de grippe mieux que les organismes spécialisés. Internet-actu , dont on soulignera l'excellence des analyses, en donne une analyse forte intéressante qui met l’accent sur l’aspect méthodologique : l’exploitation des traces sous la forme de bribes d’information, en rappelant justement qu’il ne fallait pas attendre l’internet pour cela.

Développons cette idée de trace. Au fond, la qualité de prévision est essentiellement liée à la qualité du codage des données. La technique de Google, qui s’appuie sur le dénombrement des requêtes, a sans doute été affinée par un choix judicieux de mots clés. Le terme grippe (flu) bien trop générique a sans doute été précisé par d’autres combinaisons. On imagine qu’un « guérir la grippe », est plus pertinent que l’énonciation seule de la maladie, mais que la rareté de cette formulation peut apporter de la fragilité. De petites expériences simples avec le générateur de mots-clés de Google illustrent le caractère fruste de la plupart des recherches qui se constituent d’un seul mot en général, de deux au mieux. On imagine aussi que la méthode puisse être contextuelle, une recherche n’est que rarement unique, nous cherchons en rafale.

On peut généraliser la méthode. Après tout ce que Google fait, il est quasiment le seul a pouvoir le faire, puisqu’en situation de monopole de l’utilisation des recherches…tant mieux que par certains outils Google nous donne des informations. Hormis Google peu pourront offrir de tels terrains d’étude. Mais la généralisation ne concerne pas que la trace laissée par les mots d’une recherche. On a connu des études qui s’appuient sur l’étude de nos poubelles, ce qui d’ailleurs a donné naissance à une forme de trash–journalisme, internet-actu cite l’utilisation de GPS, et là aussi le suivi de nos localisation s’avère intéressant.

Mais, au fond, nous réinventons l’archéologie, depuis longtemps les historiens se sont rendus maîtres de ces techniques. L’élément neuf est que c’est une micro-archéologie, une archéologie de l’immédiat. L’archéologie d’une société de l’oubli, d’une société qui enfouit aussitôt ses poubelles, et se donne de manière étonnante la possibilité de prédire son proche futur.

Le vrai défi au fond, est de savoir si ces traces abondantes que nous laissons de notre passage permettront de prédire au-delà de l’immédiat, au-delà de quelques mois ce qui adviendra de nous. Cette nouvelle archéologie en scrutant la surface de nos actes a-t-elle la force de deviner nos devenirs ?

Sans nul doute, il y a des vertus à prédire l’immédiat, mais cette vertu est sans doute moins celle d’une connaissance profonde que celle d’un contrôle défini depuis longtemps comme étant celui de la surveillance. Nous retrouvons dans ce dispositif un bon vieux concept de feed-back, pas forcément le sens de l’histoire. En une formule, l’épaisseur des données n’en fait pas la longueur…

28 novembre 2008

Les canaux de la conquête


En ces temps de crise annoncée, il ne suffira plus de fidéliser pour atteindre les objectifs de vente, et sans faire le prophète on peut se demander si le temps de la fidélisation n’est pas en train de se clore pour laisser le champ à des stratégies plus agressives, qui viseront le plus souvent à prendre aux concurrents les moins pourvus des clients qu’ils ne peuvent plus défendre.

Nous connaissons les canaux de la conquête, des forces de vente à la sollicitation insistante, des campagnes ciblées de marketing direct, des opérations de parrainage, des tentatives de buzz sur les réseaux sociaux, des promos aguichantes. La panoplie est large. Quels canaux choisir et comment répartir l’effort entre ceux-ci ?

Nous n’oublierons pas tout à fait cet adage invérifié mais raisonnable que conquérir coûte plus que de fidéliser, et dans la nécessité on se souviendra que tant qu’à conquérir, il vaut mieux des acquis durables. Inutile d’attraper des papillons même si le filet en capture des nuées, tant qu’à faire des efforts autant que la proie génère durablement ses richesses ; le critère de valeur du client est un critère raisonnable pour évaluer les stratégies d’acquisition.

Pour bien poser le problème supposons que deux canaux soient disponibles. La question est de savoir comment allouer les ressources.

L’hypothèse principale qui est faite est que la qualité des clients, leur valeur, se dégrade à mesure qu’on exerce une pression importante. Cela résulte d’un effet de sélection, plus on fait d’effort et plus on touche des clients peu sensibles, peu concernés, peu intéressés. On présume que leur durée de vie sera plus courte et les revenus produits moins important. C’est ce que représentent nos deux courbes. Les canaux entre eux peuvent différer dans leur dégradation à l’effort. Dans notre exemple le canal B est sujet à un effet de sélection plus élevé que le canal A.

Imaginons maintenant qu’en observant les résultats des opérations courantes nous observions des rendements différents pour un niveau d’effort équivalent. Le canal B est supérieur au canal A. On sera donc tenté d’accroitre le budget de B, et en contre partie de réduire celui de A. Observons le résultat.

En supposant, pour faciliter l’analyse, que le nombre de clients perdus par A est équivalent au nombre de clients gagnés par B, on s’aperçoit de manière directe que l’on dégrade le rendement global des canaux. En intensifiant l’effort sur B, on diminue fortement la valeur moyenne de ces clients, même si la diminution de l’effort sur A améliore la qualité des clients.

Paradoxalement, l’investissement dans le canal le plus rentable ne conduit pas à une meilleure performance. L’illustration que nous donnons est largement simplifiée, dans un modèle plus opérationnel il faudrait réintégrer des effets démographiques. Mais en conclusion il reste que ce qui est important c’est de comprendre que l’effet d’un canal est un effet de sélection, et que dans les décisions de choix de canaux de recrutement, l’essentiel est de comprendre comment l’effort exercé par ce canal détruit la valeur moyenne des clients.

C’est à ce problème que s’attaque un des doctorants du groupe « technologie du marketing », Edmond Kouadio, en contrat cifre chez Varibase, en se mettant dans le sillage de quelques travaux initiateurs : Jaquelyn Thomas* notamment, qui aborde cette question des biais de sélection en reprenant une méthodologie classique de modèle Tobit, et des techniques économétriques d’un Heckman (pour les modèles voir ce cours.)

*Thomas, Jacquelyn (2001), "A Methodology for Linking Customer Acquisition to Customer Retention," Journal of Marketing Research, 38 (2)


9 novembre 2008

Relation- Client après le Web 2.0 - Un projet du Master MOI



En écoutant ce que disent les praticiens du marketing (voir Cherclient.TV), l'objectif du projet est de faire une synthèse de la manière dont on conceptualise la relation client après plus de vingt ans d'histoire du concept.

La finalité pratique du projet est une monter un reportage de 45mn à partir des entretiens collectés patiemment par Emmanuel Mignot de Teletech, et sur cette base d'organiser vers le mois d'avril 2009, une conférence de lancement.

-----
Voir aussi :

6 novembre 2008

Espaces mobiles - un projet d'étude du Master MOI


En dépit d'un taux de pénétration encore faible, les smartphones risquent de devenir un espace privilégié de la publicité, ne serait-ce que par leur caractère de couteau suisse de l'information.

Quelles formes de publicité y seront les plus efficaces ? MMS ou SMS? RobCall? Bannière Web? Pop-up applicatifs? Pour répondre à la question, un impératif : mieux comprendre l'usage de ces condensés de technologie, analyser leur appropriation.

Un groupe d'étudiant du Master MOI Classique s'engage dans cette étude : Grolleau Adeline, Oumachiche Athéna, Bensimon Ylan, Sougrat Mustafa, Amdouni Rami. Rendez-vous dans quelques mois pour des premiers résultats.

25 octobre 2008

Intrusion, vie privée – la question de l’intimité


Un baromètre de l’intrusion est une belle initiative de ETO et de son patron Yann Claessen, elle doit être rapprochée de la thèse d’Andrea Micheaux d’AID. Belle initiative, car venant des gens du métier, elle témoigne de ce qu’ils ont conscience que l’action nécessaire et utile des formes nouvelles de publicité peut avoir des effets indésirables et qu’il faille en déterminer le juste niveau de pression.

Juste observer que le médicament peut aussi être un poison. Les objets de la consommation ne sont ni bons, ni mauvais dans leur essence, c’est leur rapport au monde qui les rend acceptables ou inacceptables. Autrement dit légitime. Et c’est bien de cela dont il s’agit, au-delà de leur efficacité économique, quelle est la légitimité des instruments d’action ?

Mais cessons là l’exercice de morale, et tournons nous plus précisément sur ce fait concret que les nouvelles technologies de l’information, et les nouvelles techniques de marketing qui en découlent, si elles peuvent apporter un réel avantage à l’entreprise, peuvent aussi être considérées comme des pollutions par le corps social.

Dans l’outil qui suscite cette réflexion, un mot à été particulièrement bien choisi. Celui de l’intrusion. Le lecteur aurait pu être surpris, car il n’est pas le plus usité dans le domaine. La littérature anglo-saxonne, a préféré retenir le concept de « privacy », que l’on peut traduire de respect de la vie privé, même si nous lui préférons celui d’intimité. Notons de suite que les deux termes ont une longue histoire derrière eux. Un article célèbre de Warren and Brandeis a établi l’importance du concept de privacy dès la fin du XIXème , et l’on attribue volontiers à Simmel la première analyse sociologique de l’intimité .

Il y aurait à faire l’analyse comparative approfondie des deux notions, c’est une affaire de sociologue et de juriste, mais dans l’attente des résultats d’un tel travail, quelques remarques militent pour que nous les confondions, et justifient notre choix de traduction.

Trois notions sont relatives à la même idée. L’intimité, ou la privacy, est un droit, celui des sujets à contrôler l’accès à des informations personnelles qui les concernent et plus encore à celui d’être seul. C’est aussi un degré de contrôle, qui leur donne notamment la capacité de délivrer à qui ils souhaitent des informations qui les concernent. Ce pouvoir s’exerce par le secret ou la dissimulation, par la gestion des droits (d’image, de vie privée), et la diffusion contrôlée. Le droit peut nourrir ce pouvoir, mais le pouvoir n’est pas forcément un droit. C’est pourquoi dans les débats existe une tension, entre la définition sociale et juridique des droits à l’intimité et à la vie privée, et les moyens de la maintenir. C’est enfin un état de fait, la tranquillité qu’on lui accorde.

Là où la notion d’intrusion devient pertinente est qu’elle est de nature et d’intensité distincte, selon qu’on se réfère à l’une où l’autre de ces notions d’intimité. L’intrusion peut être légalement qualifiée dans la mesure où elle outrepasse les droits, elle est psychologique dans la mesure où même respectant les droits elle outrepasse le degré qu’accorde le sujet, et elle est sociale dans la mesure où elle définit cette zone de l’intimité qui est affectée par les actions de marketing.

Comment caractériser l’intrusion ? Au cœur de cette triple définition de l’intimité se trouve deux éléments : tout d’abord le contrôle de l’accès à des informations personnelles, c’est le cœur du concept de privacy, qui suppose que certaines informations soient privées. Le second aspect en est une conséquence : elle est le fait que le sujet peut donner l’exclusivité de cet accès à un petit nombre de personnes. C’est la définition simmelienne de l’intimité. L’intimité n’est pas le secret. Ceci suppose qu’ayant accès à une information, on puisse en jouir sans en avoir les droits de diffusion.

On comprend dès lors que l’intrusion revêt deux aspects. Un aspect primaire qui est l’entrée sans droit d’accès dans une zone de l’espace personnel par un tiers, et un aspect secondaire, qui se révèle lorsqu’un tiers autorisé outrepasse le droit de jouir pour diffuser. C’est l’indiscrétion.

Revenons aux techniques, aux procédés, qui peuvent outrepasser les frontières de l’intimité. Comment en mesurer l’effet, les conséquences ? Comment en apprécier l’importance ? Plus que l’acceptation de livrer à autrui des informations, ce qui est en jeu est l’acceptation d’autrui qui agit sur nous-mêmes, quelles que soient les autorisations que nous lui donnons à utiliser des données personnelles.

La thématique de la privacy telle qu’elle est développée dans le domaine des sciences de l’information se réfère au degré avec lequel nous concédons de donner des informations personnelles. Elle est distincte du fait que nous acceptions qu’ayant donné ces informations, nous acceptions qu’on en use pour nous influencer. L’idée d’intrusion va au-delà du respect de la vie privée. Elle concerne le degré avec lequel nous permettons aux autres de nous contrôler.

C’est pour cela que nous saluons cette initiative, mesurer l’intrusion, car elle va au-delà de la question de la vie privé, elle concerne cette acceptation, et son degré d’être contrôlé par les autres. L’intrusion est cette irruption d’autrui dans l’espace que nous souhaitons soustraire à l’influence d’autrui. La vie privée ne se confond pas avec l’intimité.

Même dans l’intimité il peut y a avoir des réticences à se prêter au contrôle d’autrui. Les techniques de persuasion peuvent être acceptée dans la vie privée et se heurter au sentiment d’intimité. De ce point de vue, le concept d’intrusion est terriblement pertinent. Il reste à le penser. Relève-t-il de la réactance ou de la résistance ?

18 octobre 2008

Obama, la leçon de marketing


Il y a bien longtemps que le domaine politique est le laboratoire des pratiques Marketing. Déjà, en 1936, George Gallup prédisait avec les techniques modernes de sondage d’opinion, le succès de Roosevelt (en passant rappelons que David Olgivy fut un de ses assistants).

Aujourd’hui c’est Obama qui clairement est le foyer des nouvelles inventions. Francis Pisani en donne les grandes lignes.

Il y a d'abord l’usage d’une mégabase de 220 millions comme le décrit un article de Bloomberg , et qui est gérée par Catalist. L’étonnant est que la firme se présente à la fois comme un fournisseur de services, mais qui les destine aux organisations progressistes ! Une plateforme de marketing politique au service des Sénateurs, des gouverneurs, des représentants, des militants. 200 millions d'américains surveillés par quelques dizaines de milliers de partisans. Au fond, il y a un côté chinois dans la méthode!

Le second élément est l’usage des réseaux sociaux. Facebook bien sûr avec l’embauche de Chris Hughes, les wikis, le mobile , aussi et même les jeux vidéos comme le montre la photo qui illustre ce post. Mais fondamentalement, il y a le mouvement qui se donne comme une appropriation du candidat.

Mais les outils ne sont rien sans stratégie. On trouvera, dans ce post, une analyse aussi intéressante qu’elle est en phase avec la pensée marketing actuelle : conquérir ou conserver.

Le choix d’Obama est celui de la conquête, allant à contre sens du discours marketing commun tel qu’il est promulgué depuis Reichheld. Mais une conquête segmentée. Une base unie, ça a été difficile! Il fallait retrouver les troupes d’Hillary. Est-ce vraiment fait? Mais aussi opérer des incursions significatives dans les poches de l'opposant. Au delà de remporter le suffrage des indécis, la victoire se tient dans la capacité à convaincre une frange des opposants.

Mobiliser ou faire bouger les lignes. Fausse alternative au fond. Mobiliser toujours, quant à faire bouger les politiciens ne peuvent pas, c'est le terrain des idéologues. En attendant, les deux, mon capitaine !!! La victoire en politique nécessite le passage du seuil des 50%, elle ne se satisfait pas du gain de quelques points de parts de marché. Cette victoire exige donc d’être à la fois capable de mobiliser les votes acquis et de conquérir une part des voix opposantes.

La vertu du positionnement peut parfois aider, un Mitterrand a su user de ce registre, Sarkozy aussi mais tous reconnaissent que c’était une duperie. La leçon de marketing d’Obama est que le positionnement ne suffit pas, la stratégie est nécessaire mais pas suffisante, il faut encore faire de ces mouvements un mouvement, et animer le flux par des instruments puissants.

Ces instruments, nous les avons évoqués sans préciser leurs qualités. Deux d’entre elles nous semblent fondamentales. La première est qu'elles sont massives, la base de données couvre la quasi totalité de la population et met à disposition ces données à la totalité des militants. La leçon c'est : supporter les troupes avec un renseignement d'extrême qualité.

La seconde est relative à l'action et au choix de favoriser de petites choses, une idée modeste. Cette idée est celle qu’on change le monde moins par des changements de structure mais par de petites actions, une grande résolution et la vertu de l’exemple.

Je serais tenté d’y voir ici l’héritage moins des technologues que de quelques philosophes. Un Thoreau ou un Gandhi serait à mettre en tête de liste. La chance en plus est que l’initiative de chacun peut être renforcée par les plateformes de tout le monde…



17 octobre 2008

Discrimination et technologies de l'information


En passant sur l’excellent Blog Econoclaste, je lis un post intelligent en réponse au courroux de l’excellent Francis Pisani. Et voilà qui nous rappelle qu’une des merveilles de la technologie pour le marketing est de mettre en œuvre véritablement, cette découverte de Pigou (lisez l’original et pour une très bonne synthèse ce texte de Simon Anderson et Régis Renault ).

Ne discutons pas l’argument discutable du bien fondé social de la discrimination par les prix, que son auteur semble défendre, c’est une question d’économistes et nous ne nous y aventurerons pas. Le bienfait paradoxal de la discrimination relève de l’économie politique. Considérons plutôt la question de l’économie pratique.

Les technologies de l’information rendent d’abord un fier service en apportant les outils nécessaires pour réaliser l’ultime mode de discrimination, cette discrimination de troisième degré qui nécessite de connaître à la perfection les propensions à payer. Ces outils consistent dans les historiques d’achats des clients, mais aussi dans les expérimentations telles que celles attribuées à Amazon. On se dit que cette masse de données peut permettre d’évaluer individuellement les élasticités, et de fixer ainsi les prix individuellement.

Il semblerait, en fait, que plutôt que prédire les propensions à payer, les firmes préfèrent mettre en œuvre des systèmes qui les révèlent à l’instar des techniques de yield management, des méthodes relevant du second degré. L’accumulation de données individuelles serait-elle insuffisante pour fixer le prix optimum ?

Très probablement oui, l’accumulation des données ne donne pas plus de précision sur ce que chacun à chaque instant souhaite, elle permet juste de définir avec plus de précision la topologie du paysage. A coups d’essais et d’erreurs, savoir où et quand un tarif est accepté. Dresser la carte des tarifs acceptables et épouser le corps du marché.

Nous avons à penser l’importance du volume de données que nos systèmes produisent, permettent-ils de comprendre mieux l’individu ou sa régularité ?

La discrimination par les prix crée de mauvaises surprises, et Francis Pisani a sans doute raison contre Econoclaste. Comment supporter de payer ici plus cher que là ? La multiplication des différences de prix serait indolore si les consommateurs n’y sont pas exposés, et s’ils peuvent arbitrer. Ironiquement cette condition est obtenue sur l’internet par le fait que l’abondance de l’information, en élevant le coût de d’analyse, apporte plus d’ombre que de transparence au marché, en dépit des comparateurs de prix.

16 octobre 2008

Personnaliser sans identifier (2)


Voici une question raisonnable que pose la Fing. On en comprend aisément l’enjeu. Dans une perspective marketing il s’agit de concevoir une offre s’adaptant au sujet et à ses désirs sans qu’il ne se dévoile, sans entamer la vie privée, de manière encore plus restrictive que des approches dite de « permission marketing ». Résoudre ce problème est crucial dès que le consommateur demande un anonymat absolu.

Quelles sont les solutions possibles ? Dans les grandes lignes deux approches sont possibles.

Celle qui s’appuie sur l’histoire du sujet, et requiert de ce dernier un assentiment à laisser des informations sur ses goûts, ses préférences. Son identité n’est pas nécessaire, il suffit qu’il laisse transparaitre une certaine personnalité. Un avatar est suffisant, en lui laissant la maîtrise de son personnage. La seconde est celle du stéréotype. Chaque question, chaque indice, dans son agrégation, permet de retrouver des régularités.

A bien regarder la question on retrouve en fait les grands modes de segmentation : la méthode du menu, qui en offrant un grand nombre de choix laisse le sujet se révéler dans ses décisions, l’anticipation qui s’appuie sur une histoire et la régularité des multitudes, et entre deux des formes de négociation.

Tout l’art désormais est de combiner les techniques de telle manière à réduire le nombre d’informations fournies par le consommateur en maximisant la pertinence de celles qui lui sont données. Quelle que soit la méthode de recueil des informations, il restera à choisir les techniques de calcul. Celles-ci ont de grandes chances de s’appuyer sur une méthode de calcul de probabilité conditionnelle, autrement dit sur le calcul Bayesien.

Le problème de la personnalisation sans identification se résout ainsi à un double problème : celui d’une méthode de recueil d’information, et celui d’une méthode de calcul. Sans aucun doute de multiples méthodes pourront satisfaire ces objectifs. Il convient de construire des mesures qui établissent l’ajustement entre le désir du consommateur et ce qu’on lui offre.

De manière classique on s’attend à ce que cet ajustement affecte l’attitude et le comportement, sans qu’il soit nécessaire que la réponse sur un aspect soit associée à une réponse sur l’autre. Certaines suggestions peuvent apporter au sujet une gratification intrinsèque, et le plaisir ne s’ensuit d’aucune action. Certaine peuvent ne pas émouvoir mais conduire à agir.

Il y a là un objet de recherche de première qualité. Tester en fonction des contextes quelle méthode de personnalisation, qui ne requiert pas d’identification, entraîne une réponse favorable. Des méthodes fondées sur l’analyse des séries comportementales ? Des méthodes fondées sur l’analyse des similarités ? Des méthodes dialogiques ?

26 septembre 2008

Cross-selling – développer ou fidéliser ?


Depuis une bonne dizaine d’année le mot magique de cross-selling s’est répandu dans les entreprises et dans le monde académique. L’idée de fond est simple : puisque l’acquisition de nouveaux clients est non seulement difficile mais coûteuse, il est plus avantageux de développer le volume d’affaire avec les clients existants.

Compte-tenu de ce principe général, la méthode consiste à étudier les comportements pour déterminer quels sont les produits ou services qu’un consommateur donné est susceptible d’acheter connaissant son profil d’acquisition et éventuellement selon d’autres caractéristiques plus personnelles.

Différentes méthodes sont possibles. Les plus simples sont d’utiliser des processus markoviens, certains pour prendre en compte les durées proposent des analyses de survie, des approches plus sophistiquées à base d’analyse des classes latentes sont aussi proposées. Un corps de littérature méthodologique solide s’est ainsi constitué. Nous en donnons ci-dessous quelques références marquantes, en remarquant que la plupart de ces travaux s’intéressent aux produits bancaires et financiers.

En fait de telles approches, quel que soit leur degré de sophistication, s’apparentent surtout à des méthodes de ciblages et leur avantage est double : augmenter le rendement de campagne de ventes en limitant les sollicitations non souhaitées qui pourraient irriter les clients.

Mais le cross-selling est aussi considéré par les entreprises comme une méthode de fidélisation, et là c’est une question bien différente. Celle de savoir si le nombre des produits acquis affecte la fidélité, ou au moins la rétention des clients. Peu de travaux ont été consacrés à cette hypothèse. Il y a là un sujet de recherche de première importance qui a cependant déjà été traité au moins partiellement avec la thèse de Dominique Crié sur les produits fidélisants.

Il reste encore à établir le fait, démontrer qu’en équipant mieux nos clients, nous produisions une plus grande rétention, une plus faible sensibilité aux prix, une plus grande appétence, indépendamment de la propension à être fidèle. Nous invitons les entreprises à entreprendre cette recherche...

Quelques références :

Shi Li, B.G Sun, and R. T. Wilcox (2005) “Cross-Selling Sequentially Ordered Products: An Application to Consumer Banking Services” Journal of Marketing Research, Vol. XLII (May 2005), 233–239.

Wagner A. Kamakuraa, Michel Wedel E, Fernando de Rosad and Jose Afonso Mazzon (2003) “Cross-selling through database marketing: a mixed data factor analyzer for data augmentation and prediction”, International Journal of Research in Marketing , 20 (2003) 45–65

Leonard J. Paas, Ivo W. Molenaar (2005), Analysis of acquisition patterns: A theoretical and empirical evaluation of alternative methods”, International Journal of Research in Marketing 22 (2005) 87

22 septembre 2008

New! des news...


Jusqu'à maintenant ce blog ne faisait pas dans l'actualité, ni scientifique ni business. Pour inaugurer cette rentrée (le Workshop redémarre Jeudi 25), ouvrons une nouvelle rubrique de News qui servira à annoncer les colloques, conférences et autres événements relatifs aux technologies du marketing.

Et pour bien commencer, juste signalons que les travaux menés par l'équipe sont repris par le Wall Street Journal : "Reward that Reward"!

24 août 2008

Le co-branding des cartes ou les saveurs de la monnaie

Depuis Octobre 2007, le co-branding des cartes de paiement est autorisé en France. Les banques ne se sont pas privées de cette opportunité, Sofinco avec Fiat 500, Renault avec et la Sofinco encore, la Société Générale avec Nouvelle Frontières et la SNCF, le Crédit Agricole avec la Banque de France, Orange et la BNP, la LCL et le vélo, la BRED et les femmes…bref le lecteur curieux de ces cas ira volontiers consulter les blog MarketingIsDesign ou Le bloc-notes d'Antoine Wintrebert .

La levée de l’interdiction participe d’un projet important celui de l’Espace Unique de Paiements en Euro, ou SEPA, caractérisé pour les cartes par l’adoption de la norme EMV. Notons que la carte de paiement représentent 38% des règlements, et qu’en France comme dans les grands pays européens le nombre de transactions réglées annuellement est de l’ordre de 250 (cartes, virement, prélèvement chèque et très marginalement paiement électronique). Il y aurait en France 81,5 millions de cartes de paiement (55,7 de cartes bancaire et 25,7 de cartes privatives) pour un volume de 430,7 milliards d'euros en 2007 (dont 13,1 concernant des paiements par internet), le taux de fraude étant de 0,062%. (observatoire de la sécurité des moyens de paiements ). Voici donc l’état marché, et une rupture : si les cartes privatives avaient une sorte de monopole sur le paiement à crédit, et les cartes bancaires l’exclusivité des paiements courants, la frontière est en train de se brouiller.

On comprend mieux l’importance de ces innovations qui permettent aux uns et aux autres de pénétrer la frontière. On comprend aussi la réorganisation des usages qui risque de s’ensuivre. La dualité carte principale universelle, cartes secondaires spécialisées dans des achats spécifiques, risque d’être remise en cause. Sans aucun doute, ces cartes sont des sortes de cheval de Troie au bénéfice de la conquête de clientèles, et leur succès dépend à l’évidence de l’intelligence de ces unions tant sur le plan symbolique que fonctionnel.

Mais ce qui est le plus intéressant est au fond ce rôle particulier de la technologie qui brouille l’unité et la neutralité de la monnaie. Nous avions été habitués à ce que la monnaie s’apparente à un bien indifférencié, monnaie papier ou scripturale, rarement elle n’a été associée à d’autres fonctions que celle d'unité de compte, de moyen d'échange, de réserve. Ce n’est désormais plus tout à fait le cas, les moyens de paiement nouveaux qui se constituent avec les cartes sont désormais associés à une litanie de services, qui vont de l’assurance à l’assistance en passant par le crédit sans oublier l’affirmation du statut et l’expression tribale du soi.

Au-delà du moyen de paiement, ces nouveaux modèles de cartes sont avant tout des instruments d’identification et d’accès. Et plus que le support d’un accroissement de l’efficience de l’enregistrement comptable que permet la digitalisation, elles deviennent le vecteur d’un marketing plus sophistiqués que jamais. L’étude de leur usage par les consommateurs et par leurs émetteurs devrait être aujourd’hui une priorité. La riche littérature sur les alliances de marques pourrait nous y aider.

Concluons sur ce joli paradoxe que la recherche de l’interopérabilité conduit à la fragmentation. Entre les cartes purement affinitaires (par exemple ces cartes associées à la pratique d’un sport), les cartes de services spécifiques (comme le seront les cartes destinées à gérer les voyages), les cartes d’optimisation consommation (associant crédit et fidélisation), ou les cartes de paiement universel (sorte de passe partout dont le micro paiement est un des atouts), nous assistons à la mise en place d’une nouvelle donne. Il faudra y associer les moyens de paiement électronique à la Paypal, et ne pas oublier que si le support de la carte à puce (EMV) s’est établi désormais comme standard, d’autres matérialisations sont encore possibles. Nous attendons avec impatience le prochain HTC cobrandé par HSBC, ou l’I-pod e-Virgin. Dans tous les cas, observons que l’on ne peut plus dire que la monnaie n’a pas d’odeur, elle porte sur elle désormais les saveurs du marketing le plus sophistiqué.

18 août 2008

Lydiametrics - ou comment les modèles marketing se conçoivent


Certains cas sont remarquables, celui de Lydia Pinkham l’est à plusieurs titres. C’est d’abord la preuve vivante et continue de l’efficacité d’une stratégie marketing qui s’appuie sur des dépenses publicitaires considérables. Il l’est aussi comme laboratoire dans lequel les méthodes économétriques se sont appliquées à fournir leurs appareillages nouveaux et à offrir aux spécialistes des études de nouveaux moyens pour mesurer l’efficacité de la publicité, au point que Pollay (1) utilise le terme de Lydiametrics.

L’histoire de Lydia Pinkham commence en 1873 avec l’introduction d’un remède à base de plante destiné à calmer les douleurs menstruelles et les gênes de la ménopause, mais aussi à cette époque l’atonie sexuelle. L’histoire de l’entreprise a reçu une publicité forte à plusieurs occasions produites par des controverses juridiques, lesquelles ont été à la source de la publication de ces données dont on dispose un historique annuel de 1907 à 1960, et mensuel de Janvier 1954 à Juin 1960. Palda (2) en donne l’histoire, les données, et le premier exemple d’application à la modélisation en testant l’effet de rémanence de la publicité avec un modèle de Koyck en 1964. La marque est toujours en activité , elle a traversé le siècle y compris la période de prohibition alors que sa formule contenait 30 % d'alcool! La compagnie disparaît en 1973 mais le produit est toujours commercialisé à ce jour. La marque est devenue un symbole de la culture de consommation américaine, les collectionneurs s'arrachent les bouteilles anciennes et les éléments publicitaires, la marque est entrée dans les musées.

Cette base de données a été choisie par de nombreux chercheurs pour plusieurs raisons. D'abord il s'agit d'un produit à fréquence d'achat élevée qui est une catégorie importante pour la recherche en publicité. Ensuite la publicité avait été l'unique instrument marketing employé par cette marque, au cours dans son histoire la copy-strategy n'a été modifié que trois fois, les changements de prix sont faibles et rares, les mêmes circuits de distribution sont employés et la formule est restée inchangée. Enfin, aucun concurrent direct n’est observé, la relation entre les ventes et la publicité pouvant être considérée de manière isolée d’autres facteurs. Méthodologiquement il s’agit donc d’une expérience naturelle.

En 1969, Bass et Parsons (3) utilisent un système d’équation simultanée pour analyser le cas, Schmalensee (1972) le discute dans son fameux ouvrage (4). Clarke et Mac Cann réexaminent l’effet cumulatif (5) à la suite de Houston et McCann (6). Quand les méthodes de type Box-Jenkins apparaissent, Helmer et Johansson (7), par exemple, y présentent la notion de fonction de transfert. Cains, Sethi, et Brotherton (8) introduisent à la même période les tests de causalité et en marketing Hanssens (9) reprend de manière systématique. Winer (10) teste un modèle dans lequel le paramètre de l’effet de la pub peut varier. En 2001, Grewal et Al (11) utilisent de manière systématique les méthodes issues de l’analyse de la cointégration, ce qui a été initié par Baghestani en 1991 (12). Jusqu'à présent les modèles testés indiquaient que les ventes déterminaient le budget publicitaire, avec Kim en 2005 par une méthode de bootstrap le sens attendu de la causalité est enfin retrouvé !

En conclusion, depuis plus de 40 ans ce cas alimente la discussion sur l’efficacité de la publicité et sert de banc d’essai à la modélisation. Il pourrait servir de fil conducteur pour une histoire de l’économétrie et peut aussi conduire s’interroger sur la qualité d’un savoir développé autour d’un cas unique. Mais ce n’est pas une histoire unique, dans le domaine de l’analyse des similarités, les données de Fisher produites en 1936 sur les iris ont joué le même rôle.

Enfin, puisque nous n’avons cité que quelques-unes des références, nous invitons les lecteurs à un jeu d’été : mettre en commentaire les références oubliées dont nous savons qu’elles sont bien plus nombreuses que la liste suivante :

(1) Pollay , R.W. (1979) “Lydiametrics : Application of econometrics to the history of advertising”, Journal of Advertising History”


(2) Palda, K. S. (1964) The Measurement of Cumulative Advertising Effects., Prentice-Hall Englewood Cliffs


(3) Bass, F . M. and Parsons L, J. (1969) “Simultaneous-Equation régression Analysis of Sales and Advertising”, Applied Economics, 1, 103-124.


(4) Schmalensee (1972) “ Advertising Economics”


(5) Clarke, D . G. and McCann J.M. (1977) “Cumulative Advertising Effects: The Role of Serial Correlation; A Reply”, Decisions Sciences, 8, , 33-43.


(6) Houston, F. S. and Weiss D, . L (1975) “Cumulative Advertising Effects: The Role of Serial Correlation, Decision Sciences, 6 , 471-81.”


(7) Helmer, R . M. and Johansson J,. K. (1977) “An Exposition of the Box-Jenkins Transfer Function Analysis With An Application to the Advertising-Sales Relationship” Journal of Marketing Research, 1, 4,227-39.


(8) Cains, P. E., Sethi, S.P. and Brotherton, T. W. (1977) “Impulse Response Identification and Causality Detection for the Lydia Pinkham Data”, Annals of Economic and Social Measurement 6, , 147-63.


(9) Hanssens, D M (1980) "Bivariate Time-Series Analysis of the Relationship Between Advertising and Sales," Applied Economics, September 1980.


(10) Winer, Russell S. (1979), “An Analysis of the Time Varying Effects of Advertising: the Case of Lydia Pinkham,” Journal of Business, 52 (October), 563-576.


(11) Rajdeep Grewala, Jeffrey A. Millsb, Raj Mehtab, Sudesh Mujumdar (2000) “Using cointegration analysis for modeling marketing interactions in dynamic environments: methodological issues and an empirical illustration” Journal of Business Research, 51, 127-144.


(12) Baghestani Cointegration (1991) “Analysis of the Advertising-Sales relationship” The Journal of Industrial Economics, Vol. 39, No. 6 (Dec., 1991), pp. 671-681


(13) Kim. J.H (2005) « Investigating the advertising-sales relationship in the lydia Pinkham data: a bootstrap approach ». Applied Economics

8 août 2008

Paradoxes de la diversité : choisir et classer


Une des questions importantes posée par le développement des technologies du marketing est celle de la manière dont les consommateurs appréhendent l’incroyable diversité d’options qui leurs sont proposées. Un lieu commun est de faire de cette diversité une vertu et une source de joie. Dans l’immense diversité offerte par le miracle de la longue traine chacun trouve ainsi exactement ce dont il peut avoir besoin.

Et pourtant un certains nombre d’arguments théoriques militent contre cette perspective proposant que l’infinité des choix possibles génère à la fois de l’insatisfaction et de mauvaises décisions. La complexité du traitement de l’information conduit à des stratégies de simplification erronées. C’est cette thématique que Barry Schawtz développe dans « When more is less ». Sa conférence est un merveilleux cours de psychologie appliquée au marketing qui avec intelligence rappelle les principaux résultats de la psychologie économique telle que l’ont développée les Amos Tversky , Daniel Kahneman , Richard Thaler et quelques autres théoriciens.


Une conclusion très générale que chacun peut tirer est que pour améliorer la satisfaction des consommateurs, et plus profondément leur permettre de prendre des décisions adéquates, la solution réside très certainement dans la réduction des ensembles de choix, dans la simplification des offres, à la condition naturelle que ces ensembles restent pertinents du points de vue des mêmes consommateurs.

Cette tâche est notamment celle des systèmes d’aides à la recommandation, dont on ne peut que souligner l’importance dans les stratégies marketing à l’heure digitale. Ce sujet est immense, mais arrêtons nous ici à un de ses aspects particuliers qui rejoint cette question de la diversité et des moyens dont le consommateur disposent pour se retrouver dans l’infini des choix : celui de la classification des objets.

Une des innovations importantes en ce domaine est celui des folksonomies, qui ne sont pas des taxonomies, c'est-à-dire des classifications considérées comme universelles, mais des catégorisations partagées. Les tags, ou méta-données et les systèmes qui les gèrent socialement t à ce jour sans doute la couche principale. David Weinberger en donne ici un aperçu vivant et clair, nous faisant toucher du doigt toute la difficulté de ce qu’en psychologie, on appelle le problème de la catégorisation, et dont Elenaor Rosch est une des spécialistes les plus importantes.




Everything is Miscellaneous
/ David Weinberger

2 août 2008

Anti-Spam : le dépot de garantie

Si le spamming ennuie les consommateurs, il est une menace pour les marketeurs qui y perdent leur légitimité et leur réputation.

La lutte contre les spams peut prendre des formes diverses : il y a d'abord, c'est la solution la plus répandue, les méthodes de filtrage (collaboratif et avec apprentissage), qui éliminent les sollicitations non attendues les plus grossières, mais tendent aussi à éliminer des messages publicitaires plus honorables, au détriment des marketeurs, certains ont pensé aux solutions de taxes, qui élimineraient les spammeurs abusifs.

Certains chercheurs proposent une solution analogue dans ses principes économiques, aux mécanismes de réduction de la pollution tels que les droits d'émission. Le principe s'apparente à un dépôt de garantie, l'émetteur de mail publicitaire déposerait chez un tiers une somme que le destinataire fixe comme valeur de l'intérêt du mail reçu. S'il considère que ce mail est du spam, il touche la somme, celle-ci est rendue à l'émetteur si le courrier n'est pas considéré comme tel. Cette technique prend le nom en anglais d’Attention Bond Mechanism, à traduire peut-être comme "dépôt de garantie attentionnel"?

Un de ces chercheurs, Marshall Van Alstyne, démontre économiquement que cette solution est la meilleure. On suivra avec attention sa démonstration dans la vidéo ci-dessous, ce qui nous permet de surcroît de signaler la collection remarquable dans laquelle elle s'insère (Videolecture).

An Economic Response To Unsolicited Communication - Marshall Van Alstyne



Et pour ceux qui auront trouvé l'exposé trop théorique, la lecture de la page de l'ITU complétera l'analyse du problème. On y trouvera notamment une FAQ instructive sur l'ABM.

31 juillet 2008

Sociabilité et participation : au coeur des réseaux sociaux

Chaque professionnel le sait. Fidéliser apporte moins que ce qu’on espère et pour gagner plus on est tenté de faire de nos clients fidèles les premiers agents du recrutement. Cette idée pratique n’est pas vraiment à l’ordre du jour des académiques, qui poursuivent plutôt celle que la qualité du recrutement détermine, à raison, la fidélité des clients restants.

Et pourtant, c’est bien cette idée qui est au cœur du travail d’un Duncan Watts que nous avons déjà évoquée dans ces pages ou pour prendre un autre auteur celle de Netpromoter. C’est une vieille idée, celle des acteurs du marketing direct, que de faire de leurs clients fidèles les parrains de nouveaux recrutements, et d'en faire leurs influenceurs. Cette idée est si évidente.

Sa mise œuvre nécessite de savoir avec qui nos chers clients sont amis. C’est une chose que l’on connaît peu, et l’on doit aux sociologues de s’y être intéressé au travers de la notion de sociabilité. François Héran a largement contribué à ce type d’études qui ont été populaires dans les années 90, mais semblent connaître une certaine désaffection.

Nous apprendrons ainsi que plus nous sommes aisés et éduqués et plus nous avons d’amis, passant de 4 à 10. La sociabilité décrit quantitativement la nature des réseaux que nous habitons, elle s’intéresse aussi pour partie au degré d’engagement social et politique. Pour dire les choses simplement, quand dans une population de 60 millions de personnes, quelques millions participent à des associations, quelque centaines de milliers sont membres de partis politique, moins de trois cent mille occupent des fonctions électorales, c'est-à-dire quelque chose de l’ordre du demi pour cent. Nous devons nous interroger sur les moteurs de l’organisation sociale. Quels que soient les domaines.

Très récemment, Rue89 a publié quelques résultats d’une étude de la participation de ses lecteurs. On y retrouve les mêmes ordres de grandeur. Si 600 000 personnes chaque mois consultent le site, 45 000 y sont inscrits. 4500 ont posté des commentaires, et 1500 d’entre eux en ont produit 80% du volume. La participation est ainsi le fait de moins de 0,1% des lecteurs.

On pourrait jaser sur l’illusion participative, en politique, tout comme sur les marchés. Mais soyons prudents, les choses sont plus complexes, on connaît le phénomène des porte-voix. Et notre sujet ne porte pas sur la question participative, mais sur les structures des réseaux sociaux.

Si dans la vie quotidienne, l’horizon de la sociabilité se limite à quelques toute petites dizaines de personnes, à l’échelle de la société, un très petit nombre communique avec un très grand nombre. La structure qui se dégage est assez simple. Pour un leader, il y a cent militants, les accompagnent un millier de supporters, et peut être 10 000 compagnons. Ceux-ci entraînent dans leu sillage 10% de la population concernée. Les autres attendent, sensibles aux propositions des précédents, la moitié d’entre elle est certainement inerte. Cette asymétrie structurale, qui mérite d’être mieux définie, quantifiée, nous semble fondamentale. Elle structure aussi les clientèles.

Parmi les fidèles, d’un parti, d’une idée, d’un produit, il en est qu’une fraction minimale qui s’engage, milite, défend et prend parti. Cette minorité a cependant une influence décisive, elle est extrêmement active. Elle milite, elle écrit, influence-t-elle? Se confond-elle aux fameux leaders d'opinion dont le rôle est remis en cause?

Il reste cependant à savoir comment l’employer. La masse des fidèles ne peut être la cible. Il s’agit de la sélectionner. Deux critères nous semblent essentiels : d’une part la connectivité, d’autre part l’engagement. La connectivité décrit simplement le nombre de personnes que ces individus sont capables d’influencer, et secondairement les caractéristiques qui leur permettent de le faire. Certains ont une sociabilité intense, dans une période de temps ils peuvent interagir avec plusieurs centaines d’individus, quand les autres, la très grande majorité n’en touche que quelques dizaines, au mieux. L’engagement est relatif à leur volonté de défendre dans leur réseau de sociabilité, des idées qui leurs sont chères. Certains dans un domaine chercheront à convaincre tous leurs amis, d’autres se contenterons de ceux qu’ils considèrent proches du sujet.

En combinant ces deux critères ne soyons pas étonné que la capacité d’influence des plus fidèles soit inférieure à 1. Leur effort persuasif ne peut atteindre plus d’une personne. Le produit du nombre de leurs amis, et de la probabilité qu’ils les convainquent en faisant l’effort nécessaire ne dépasse certainement pas l’unité. Pour conquérir de nouvelles voix il s’agit donc de porter l’effort sur ceux qui ont beaucoup d’amis et sont prêt sur chacun à exercer une forte conviction.

L’application pratique devient alors évidente. Dans le corps des clients que l’on fidélise, inutile de les appeler tous, il s’agit de repérer ceux qui à la fois ont un large réseau et, sur la question pour laquelle on les motive, sont prêts à faire l’effort de persuader. Il reste à savoir comment mesurer ces deux caractéristiques, et en fonction de celles-ci à déterminer qui toucher et impliquer dans un programme de bouche à oreille.

Les méthodes sont multiples, mais le critère est simple : ceux dont la capacité à recruter est supérieure à 1. Au moins un nouveau client conquis. Il s'agira aussi de s'interroger sur leur rémunération, les gratifications qui stimulent et renforcent cette activité.

Nous laissons au lecteur le soin de déterminer les techniques opérationnelles, même si nous en avons quelques idées. Nous lui recommandons juste de réfléchir à cette idée : il n’y qu’une fraction minime de leurs clients fidèles qui possède à la fois un réseau de sociabilité assez large et une motivation assez forte pour effectivement amener à la marque de nouveaux clients. Savoir les cibler est le cœur de la réussite. C'est sans doute un objectif des nouvelles segmentations.

Voilà pour l’opérationnel. Il reste à méditer sur la nature des réseaux sociaux, à mieux comprendre leur structure et leur dynamique, et à mieux penser cette idée que la démocratie comme le marché, ne se constitue pas comme un ensemble d’atomes équivalents, mais de grumeaux de petites tailles, très nombreux et de grains très liants mais très rares. Mieux comprendre la sociabilité, mieux comprendre les influenceurs, mieux comprendre comment les deux structures interagissent sera sans doute la clé des nouvelles stratégies de communication.
Entre la théorie des leaders d’opinion, et l’utopie de la participation, se dessine un chemin finalement assez peu exploré.

Et gardons pour la fin cette question essentielle : la matérialisation des réseaux sociaux par les multiples plateformes digitales, de MySpace à FaceBook, modifient-elle profondément le phénomène? Les sujets élargissent-il le cercle de leur sociabilité? Exercent-ils un effort plus intense ou plus efficace pour amener leurs proches à partager les mêmes préférences?

29 juillet 2008

La laisse, le maître et le chien - leçon d'économie de la publicité en temps de crise


Une des grandes avancées de l’économétrie moderne est certainement celle de l’analyse de la co-intégration. Cette notion qui est difficile pour le novice, peut se résumer dans l’idée simple que l’on emprunte à Murray(*), du maître et de son chien. L’un tire l’autre, dans une proportion variable, et si leur chemin est hasardeux, la laisse les empêche de s’éloigner. Cette observation a donnée naissance à un modèle essentiel, le modèle à correction d’erreur (VECM).

Mais tenons en-nous à la métaphore. Le chien est autant la cause du chemin que ne l’est le maître, à observer leur cheminement on les retrouvera ensemble. Cependant l’un peut exercer plus de force que l’autre, l’un dirige quand l’autre corrige. Et le maître souvent est emmené bien loin, alors même que c’est le chien qui dirige même si le maître ne cesse de corriger la trajectoire (moyenne) de son chien.

Les relations entre l’effort publicitaire et les ventes sont de même nature. Tous les observateurs s’aperçoivent que les budgets publicitaires évoluent de manière parallèle à celles des ventes. Et nombreux ceux-qui en déduisent que la décision de dépense est le fruit d’un critère simple de ratio. La décision budgétaire se ferait en fonction d’un pourcentage des ventes. Cela donne l’argument pour dire que la décision ne s’appuie pas sur un fondement rationnel et qu’au bout du compte on a la preuve que la dépense publicitaire est le fruit de croyances, celle de son efficacité d’abord – pas forcément bien établie et dans tous les cas juste à court terme, et celle d’un niveau optimal de dépense ensuite. Mais au fond on n’en sait rien, l’habitude juste et l’imitation sans doute, conduisent à ces décisions.

A la lumière de la dynamique du maître et de son chien, cet argument est pauvre. En effet dans l’immédiat la publicité dirige les ventes comme le chien dirige son maître, mais le maître ne sachant pas où le chien l’emmène, il est fort aise de tirer sur la laisse, et de corriger la trajectoire du chien pour la ramener à la sienne. Le maître préfère marcher dans les allées (celui d’une norme budgétaire) quand le chien gambade dans les fourrés.

Ainsi nous pouvons mieux comprendre le rôle de la publicité dans l’évolution des ventes, non pas comme une tendance générale, mais une tension constante sur la laisse qui se tend et se détend, ces trajectoires erratiques, qui tracent l’erre du maître. Il n’y a pas une lecture évidente dans l’effet instantanée de la publicité sur les ventes, encore moins de lecture à long terme, le chien n’en sait chien, il va d’une odeur à l’autre, mais on peut comprendre que même si la règle budgétaire le ramène dans le droit chemin, c’est la publicité qui conduit les ventes, au moins à court terme de manière efficiente, et à plus long terme dans l’accumulation de ses divagations.

Imaginons maintenant que le maître est pressé de rentrer chez lui. Il resserre la laisse, et corrige plus fermement la trajectoire du chien. Imaginons encore que ce chien soit un chien truffier. Vous comprenez alors facilement qu’il n’y a aucune chance que le chien conduise son maître à l’or brun.

C’est exactement la situation des récessions économiques, quand pour des raisons conjoncturelles, on réduit les budgets ou on resserre la laisse. Le long terme n’a plus de sens, il se réduit à la réduction des coûts, et se réalise dès aujourd’hui, mais il empêche que le possible se produise. Les errements du chien, les tâtonnements de la publicité auront peu de chance de conduire à la richesse.

Cette métaphore, qui n’est pas la nôtre, permet ainsi de penser, d’autant plus fortement qu’elle n’est pas qu’une métaphore mais l’idée même de ce qui est une des plus prodigieuses avancées de l’économie, ce fait singulier que le court terme n’est pas une fluctuation autour d’un long terme inexorable, mais le moyen même par lequel le long terme se construit.

En resserrant la laisse du chien, le maître rentre chez lui de manière sûre, mais échappe aux possibles prospères que le court terme dessinait pour demain.

Alors un dernier conseil, quand la pluie menace, ne serrez pas la laisse, il faut mieux être mouillé pour espérer la richesse. Et ce qui apparaît comme une dépense, la dépense du chien, est en fait la richesse du maître.

(*) Michael P. Murray (1994) "A Drunk and Her Dog: An Illustration of Cointegration and Error Correction" The American Statistician, Vol. 48, No. 1, (Feb., 1994), pp. 37-39 (pour lire l'article il faut être abonné à JSTOR)



24 juillet 2008

Les technologies du marketing au secours du pouvoir d'achat


Il n'échappera à personne que le consommateur, dans sa plus grande subtilité, prête attention à son porte monnaie. Il n'échappera à personne que ce porte-monnaie est souvent exsangue. Surtout par les jours qui viennent.

Mais on ne sait pas comment il l'use. On sait qu'il se rétrécit, sait-on vraiment comment il l'emploie? Naturellement il se serre la ceinture. Le fait-il de manière homogène? On imagine aisément qu'il conçoit d'ajuster son budget en réduisant l'ensemble ses coûts. On imagine aussi qu'il les réduise de manière drastique pour ce qui ne lui produit aucune joie, et consacre le surplus de ces gains à des consommations plus hédoniques.

Notre question n'est pas là. Dans quelle mesure profite-t-il des avantages proposés par les techniques nouvelles de consommation? Utilise-t-il de manière plus systématique des avantages en coupons et des techniques de fidélisation? Fait-il plus attention aux récompenses données par les programmes de fidélisation?

Nous n'avons pas de récompenses, mais qui veut en avoir, et en possède les données, nous nous proposons d'y répondre et de les analyser. Nous appelons gentiment les gestionnaires de ces programmes à nous confier l'analyse de ces informations.

L'art du marketing va être aujourd'hui de répondre à ce pouvoir d'achat menacé. La question est ouverte, nous ne doutons pas du talent de bricolage des consommateurs, nous seront ravis d'en découvrir les secrets.

18 juillet 2008

La marque à l’âge digital

Pour vivre la marque s’est longtemps appuyée sur les méthodes de la propagande : des slogans infiniment répétés, des icônes obsessives, cette massivité de la présence qui conduit ceux qui y sont exposés, à juger au fond qu’elles ne doivent pas être si mauvaises, si elles sont si présentes. C’est la logique du « mere exposure effect » étudié par Zajonc (1) et que d’autres chercheurs ont analysé dans l’environnement du web, en en distinguant deux explications différentes, l’une cognitive et l’autre plus affective (2). S’il fallait traduire ce terme, l’expression « effet simple » serait suffisante.

Ainsi aimons nous le Che, ainsi Bin Laden conserve une belle estime dans le monde, ainsi McDonald ou Coca-Cola retiennent l’attention et participent à la vie des signes, même si ces signes se sont vidés de leur substance, ou n’en ont jamais eu. Il y a une idée de la publicité qui ne réside pas dans le génie sémiologique, mais dans la puissance logistique, elle marque le pouvoir du média-planneur contre celui du créatif. Ce dernier le reprend quand sa cuisine a la vertu d’être reprise, imitée, reproduite, et par cette répétition contrecarre la puissance des achats d’espaces. C’est l’espoir des buzzeurs en tout genre, mais un espoir fragile (Gardons a l'esprit que le Buzz participe aux logiques de la rumeur).

Mais notre propos ne se porte pas sur cette question de politique de diffusion, mais sur le fait même de sa possibilité. A l’âge électronique, les symboles de la marque sont fragiles, le nom, l’icône, l’image, se prêtent à une transformation qui n’est pas maîtrisée par ses émetteurs, d'autant moins qu'elle est globale. Et l’on peut se demandé raisonnablement en quel lieu le « mere effect » se constitue. Dans l’idée de la marque ou dans ses attributs ? Cet effet de familiarité se construit-il sur le signe ou l’idée ?

S’il se fonde sur le signe, les marques doivent être inquiètes, car le propre de l’âge électronique est que chacun est capable de transformer le signe et de le rediffuser (même si la psychosociologie nous enseigne que les signes transportés et transformés de bouche à oreille, sont le sujet de magnification et de simplification qui aboutissent à des formes stables). Le signe émis peut être transformé si radicalement que la forme sous laquelle il se diffuse et se stabilise n’ait plus rien à voir avec ce que l’émetteur souhaitait. Cela n’empêchera pas une attitude favorable à ce signe, mais il y a de fortes chances que se soit une attitude profondément différente de celle qui a été espérée. Les posters de Guevarra dans les chambres d’adolescents véhiculent moins d’espoir d’une lutte des classes qu’un esprit de révolte et la sympathie recueillie œuvre plus pour l’industrie du Rock que pour la révolution ! D & G font figure aujourd’hui moins d’un luxe décalé que de l’esthétique populaire, de la parodie et du simulacre. La marque échappe ainsi aisément à ses promoteurs pour devenir une icône falsifiable.

S’il se fonde sur l’idée, les marques peuvent être rassurées, peu importantes sont les variantes sémiotiques pourvu que se maintienne le sens qui leur est attribué. Mieux elles pourront jouer de la variété de ces transformations, et vivre au travers de multiples symboles. Coca-Cola, Coke, Classic Coke, sont autant de signes distincts qui se superposent, coexistent sans que l’identité de la marque n’en souffre, la multiplication des formes, n’altère pas l’idée de la marque. A moins qu'elle ne devienne un stéréotype.

A l’âge digital, cette hypothèse redevient essentielle : les marques sont-elle des signes ou sont-elles des idées ? Participent-elles au monde de l’imaginaire ou à l’ordre symbolique?

(1)Zajonc, R. B. (1968) Attitudinal Effects of Mere Exposure. Journal of Personality and Social Psychology, 9, 2, 1-27.)

(2)Fang, X., Singh, S., and AhluWalia, R. (2007). An Examination of Different Explanations for the Mere Exposure Effect. Journal of Consumer Research, 34, 97-103