31 décembre 2010

Meilleurs voeux à nos amis et nos robots.

C'est l'usage, un plaisir mais aussi un moment inquiet : regarder en arrière ce qui a été fait et qui ne l'a pas été et voir devant ce qui devra être fait et ce qui n'arrivera pas. Mais balayons les inquiétudes, et regardons en souriant à l'avenir.

Marvin (PA)
Drôle d'avenir que celui que nous dessinent les technologies de l'information, Facebook s'empare de la première place au US, la reconnaissance faciale s'invite dans nos applications, les smartphones se greffent à nos corps mobiles et les robots non seulement investissent peu à peu nos maison mais dialoguent aussi sur nos écrans. On vient d'en évaluer quelques-uns récemment, et dans ces dernières heures de l'année une bonne nouvelle surgit des données : c'est l'humanité des artefacts qui nous incitent à les utiliser au fond.

En analysant finement les grilles de notation du jury, le modèle suivant semble avoir structuré le jugement *. Il fait apparaitre que l'intention d'usage des agents virtuels est déterminé d'une part par leur utilité – ce qui est au fond trivial même si cela correspond bien au modèle robuste du TAM, et par leur jouabilité : autrement dit par le plaisir immédiat que l'on tire de la conversation avec l'agent. L'utilité est elle-même fonction de la facilité d'utilisation et du sentiment d'efficacité du robot, là encore rien d'étonnant, sauf s'il l'on considère que cette efficacité supposée résultent du sentiment que le robot est aimable, amusant, chaleureux, sympathique, bref humain. Cette humanité semble aussi déterminante quant à la jouabilité et la beauté. 

Ces résultats sont provisoires naturellement, juste une esquisse d'un work in progress, ne sont pas incohérents avec ce que l'on sait déjà dans le domaine. Ils vont dans le sens d'une idée générale essentielle : nos machines ne sont pas admises dans la société par la seule force de leur efficacité mais par ce que nous leur prêtons une humanité faite de sollicitude et d'attention, d'affection, de sympathie et d'empathie. C'est au fond une bonne nouvelle.

Alors souhaitons pour cette année nouvelle, à l'heure où les technologies de l'information - mobiles- vont se répandre dans le moindre interstice de nos vies quotidiennes,  que nous soyons capables de donner aux robots les moyens de s'incarner, et de témoigner d'une sorte de théorie de l'esprit. Souhaitons qu'ils nous accordent toute la sympathie et la chaleur que nous attendons de nos amis.


* Sans donner trop de détail les données sont constituées des 92 évaluations de 21 agents virtuels formulées par les membres du Jury. Elles sont analysées par une séries d'analyse factorielles, et synthétisées au travers d'un modèle SmartPLS.

29 décembre 2010

Quel CRM pour le BOP?

Depuis l'article fameux de C.K Prahalad et S. Hart «Fortune at the  Bottom of the Pyramid » une littérature relativement importante s'est développée sur le thème du Business avec les plus pauvres à l'instigation de quelques auteurs clés , mais finalement a relativement trouvé peu d'écho en marketing. Dans la base Ebsco moins d'une vingtaine d'articles académiques sont recensés, dont une large part est due à un numéro spécial de Journal of Consumer Marketing.

En-deçà de la question sociale et politique des moyens d'améliorer le sort des 4 milliards de consommateurs pauvres du monde, la problématique avancée par ce groupe de chercheur est de connaître quels sont les modèles d'affaire qui permettent de réaliser des affaires avec les plus pauvres. En effet même si leur revenu annuel est inférieur à 1000 dollars annuels, la masse qu'ils constituent en fait un marché qui grosso modo pèse autant que les 150 millions d'humains les plus aisés et autant que les classes intermédiaires ( dans un scénario où 150 m ont un revenu de 30 000 dollars annuels, 1000 m de 4000 dollars et 4000 de 1000 dollars, chaque segment représente un tiers du pouvoir d'achat global).

D'un point de vue marketing, les stratégies BOP nécessitent naturellement des adaptation fortes en termes de produit et de prix, mais c'est sans doute les modes de distribution qui présentent l'originalité la plus importante : faire d'une partie des consommateurs des micro-entrepreneurs chargé de distribuer et de commercialiser les produits dans un environnement peu accessible par les méthodes traditionnelles, pour des raisons physique, sociale, ou culturelles. Des programmes tels que Ate vocé de Nestlé, Shakti d'Industan lever, les Grammeen Ladies de Danone en sont quelques exemples.

Ces cas qui sont relativement bien documentés, laisse cependant de côté une question essentielle : comment gérer une masse considérable de point de distribution ? Un seul exemple on évalue à près de 2 000 000 le nombre de warung en indonésie, Natura est réputé gérer 600 000 ambassadrices. On comprend qu'avec de tels volumes des outils de CRM peuvent être utiles pour gérer ce niveau intermédiaire de distribution alors qu'il est sans doute difficile de faire comme dans les pays riche de gérer directement la clientèle finale pour des raisons simple d'identification et de valeur unitaire. Ses buts seront sans doute différents. Et au-delà des outils classiques, s'intéresser à la manière dont ces agents utilisent les technologies de l'information : en voici un exemple. Ce domaine de recherche est immense, et manifestement inexploré. Que ce soit la question de ses formes : franchises, micro-entreprises, Marketing multi-niveau aussi, ou celle de leur contrôle.

Et en étudiant ces cas, leurs solutions, leurs inventions, soyons persuadés que nous découvrirons de nouvelles voies pour comprendre et imaginer les nouvelles formes de la relation client.

6 décembre 2010

Groupon - après la bataille


L'actualité parle parfois. Entre les rumeurs du rachat de Groupon par Google au prix exorbitant de 6 milliards de dollars – qui n'aura finalement pas lieu- et cette bataille d'arrière garde du papier contre la décision de Leclerc de supprimer d'ici 2020 le prospectus, se dessine avec une limpidité crue le nouveau paysage de la promotion.

C'est bien dans les smartphones que va se jouer la bataille du local, que les marques vont se battre à coup de code promotionnel. Les puces NFC ne seront pas là simplement pour assurer la sécurité d'un paiement, mais pour négocier à la caisse des rabais dument calculés dans des processus d'enchères et les les algorithmes de personnalisation. Ne nous intéressons pas aux détails mais aux lignes du champs de bataille.

Quand la promotion était une confrontation entre les distributeurs et les annonceurs, elle sera une partie à trois. Le tiers celui qui est capable de dire à l'un et à l'autre, où, quand et à qui faut-il concéder la remise nécessaire pour emporter le morceau. On est tenté de parier sur les intermédiaires. Groupon a sans doute la certitude l'emporter le morceaux, on ne doute pas que Google fait travailler ses labo pour une alternative.

Il y aura des variantes, c'est sur. Le modèle de Groupon est pertinent pour le petit commerce désemparé dont le souci est d'atteindre un chiffre d'affaire qu'il ne contrôle pas, en mobilisant les troupes Groupon est en mesure de combler le vide des affaires. Mais parallèlement, la puissance de calcul risque d'en élargir l'assiette. Examinons les intérêts.

Côté annonceur la promotion coûte cher en concession à la marge. Il importe que les clients fidèles et habituels continuent à payer le prix qu'ils acceptent, et par période d'amener d'autres qui d'ordinaire refuserait l'offre à rejoindre les premiers. Le besoin est celui du ciblage. Ayant peu de moyen d'identifier les uns et les autres ils sont prêt à concéder une partie de la marge à ceux qui leur amènent un revenu additionnel.

Côte distributeur la question est de maintenir une image prix basse même si les prix réels sont élevés. Il ont fait payé ce compromis aux annonceurs leurs arrachant des remises indistinctes au bénéfice de leur consommateur, mais au prix de malmener les marques qui leur assurent la fidélité de leur clientèle de base. Que leclerc s'engage dans la bataille se comprend bien. D'autres vont suivre. S'il y a un bénéfice durable, il concerne l'environnement c'est certain, mais surtout de cesser cette dispendieuse compétition de la remise indistincte. Si les distributeurs ne ciblent pas, google et d'autres le front à leur place, à moins que les annonceurs à leur tour s'y mettent comme le fait Danone et vous.

Dans tous les cas, c'est le début de la fin des promotions aveugles, la bataille des prix se loge désormais dans l'ombre digitale et le secret des bases de données.

28 novembre 2010

Miss Client 2011 – évaluer la beauté des robots.

L’inventeur du concours Miss Client, Thierry Spencer,  propose à nos étudiants du Master Marketing Opérationnel International de constituer le Jury qui va sacrer l’agent virtuel de l’année à venir. Joli cadeau pour ces futurs experts du marketing digital, mais tâche rude que d’expertiser ces jolis robots, dont une bonne partie ont été conçus et entrainés par la société Virtuoz.

Une bien belle idée aussi qui va au-delà de l’ironie. Quel paradoxe que de célébrer ce qui pourrait être l’anti-thèse de la relation-client, cette idée vieille de 30 ans dont on a défini la qualité par les critères de satisfaction, de confiance, d’engagement, de justice, d’attachement quand ce n’est d’amour…Autant de qualités qu’on prête aux seuls humains. Mais le monde est ainsi fait que les automates, même dotés d’intelligence peuvent travailler 24h sur 24h et 7 jours sur 7 en répondant simultanément à une flopée de consommateurs anxieux et souvent perdus dans le labyrinthe des sites web, en ne réclamant aucun salaire que le prix de leur conception, l’énergie des calculateurs et la juste rémunération de leur concepteur. La relation-client moins qu’une stratégie est désormais une industrie.

Ne nous lamentons pas sur ce paradoxe que la gestion du client soit désormais une gestion du contact, et que résoudre à l’instant les difficultés du consommateur passe avant l’établissement d’un climat favorable et durable de résolution des problèmes. C’est une autre question à laquelle nous nous intéresserons dans un autre billet, contenterons de rappeler le mot de Thierry Spencer : à l’heure du Self-Care le client est bien seul.
L’enjeu pour notre jeune Jury est de départager 21 candidates et candidats (3 avatars masculins pour 18 féminin et aucun être sexuellement indéterminé – le post humain n’a pas encore fait le deuil du genre) en introduisant dans l’élection des éléments objectifs pour pondérer les effets de popularité de la marque dont les postulants portent la couleur.

Il s’agit donc de déterminer les critères clés. De ce point de vue, près de 20 ans de recherche en la matière fournissent des éléments précieux. C’est à Davis que l’on doit ce modèle que des centaines de chercheurs ont testé à travers le monde sur des dizaines d’artefacts : le fameux Technological Acceptance Model (TAM) dont la simplicité et la robustesse lui valent son succès. On en retrouvera les principales versions développées sur le site de son principal co-auteur : V Venkatresh. L’utilité et la performance que l’usager perçoit ainsi que la facilité à utiliser le système sont les deux éléments clé de l’intention d’en prolonger l’usage et de son usage effectif.

Les travaux empiriques ont cependant dans une large mesure souligné l’importance d’une troisième variable dont l’intérêt se manifeste quand les usagers sont encore novices : il s’agit de la jouabilité perçue. Non seulement le système doit réaliser la performance qu’on en attend de lui sans que le coût cognitif de son utilisation soit élevé, mais en plus il doit procurer une gratification immédiate, le plaisir tiré de son usage. Il peut être amusant de dialoguer avec un robot, et les observateurs savent bien que les sujets n’hésitent pas à le tester par des questions pièges et commentaires plus ou moins salace. Les robots sont aussi l’objet de notre ironie.

Un quatrième critère au regard de cette abondante littérature s’impose dans le cas des agents virtuels. Leur humanité semble être déterminante. Elle est définie dans les travaux des chercheurs par une notion devenue essentielle dans les interactions Humains/machines : la présence sociale. Ce sentiment particulier qui nous arrache à la solitude de nos interactions.

Le cinquième critère curieusement est délaissé par les spécialistes de marketing et pourtant au cœur de cette discipline souvent incomprise qu’est le design. L’objet fonctionnel doit être beau, le bel objet est aussi fonctionnel. L’esthétique, la plastique est aussi le propre des miss et des misters. Nous ne l’oublierons pas.
C’est sur cette base, scientifique fondée, que nos étudiants vont travailler et concevoir le protocole qui va guider leurs délibérations. En attendant, secret jusqu’au 15 décembre.

NB1 : Pour participer à l'évaluation : la grille est ici ( mais vos réponses ne comptent pas dans les résultats, ils seront cependant communiqués au jury pour éclairer leur décision après qu'eux mêmes aient évalués les 21 candidats). 


NB2 : une bibliographie scientifique sur les agents virtuel de recommandation est disponible ici


NB3 : celle note est aussi disponible sur le site du Master Marketing Opérationnel International.

12 novembre 2010

Bravo Darty, pour la conversation!

Le marketing comme conversation. Voilà qui semble bien théorique pour nos étudiants, mais pire encore de nombreux cadres. Le clue train manifesto reste encore obscur pour beaucoup. Alors juste une petite histoire qui date de quelques minutes.

J'ai l'habitude de donner à mes étudiants des travaux sous la formes d'études de cas. Un des groupes d'étudiants me propose donc Darty et le sujet me semblant tout à fait intéressant, je m'empresse de rédiger une petite note à leur intention que j'affiche ici et que twitte aussitôt.
Dans les minutes qui suivent la publication, surprise. @Darty_officiel me suis. Hasard ou nécessité? Je m'interroge :
La réponse est venue avant même d'avoir envoyé le message
alors je répond
Bravo pour avoir veillé correctement, bravo pour ce fil qui débute, bravo pour l'art de la conversion. Et merci pour les encouragements  et succès au @confianciologue !
crédit photo

    11 novembre 2010

    Au fil du feed : paper.li

    Paper.li débarque en France, et semble largement se diffuser si j'en crois ma time-line. 

    Paper.li est une simplicité déconcertante. C'est un journal, une page et une adresse composée comme la Une de nos quotidien, mais nourrie par l'es informations indexées le jour précédent par la horde de ceux qu'on suit sur twitter. Pour créer ce journal, il suffit de donner son login. Quelques minute d'analyse et la page est publiée. Efficace et beau. A ce jour la version est minimale, on ne peut paramétrer les comptes. Choisir un modèle d'édition, donner des priorité. L'engin fonctionne seul. Il envoie chaque jour l'édition du jour.

    Quel engin dérrière qui décode les twits, séparant les hashatag, réponses, RT, et ramène à la surface les contenus des adresses raccourcies, et les distribue entre des catégories, leurs alloue une place et compose la page? Nous sommes curieux de le savoir, plus encore d'une version qui pourra permettre d'agir sur ce paramétrages, donnant plus d'importance à certaines sources, favorisant certains mots clés.

    Cette couche superposée sur la couche des conversation de twiter remplit un double rôle de filtre et de mise en valeur. Le fil twitter que l'on ne peut raisonnablement suivre s'il l'on a plus de 200 à 500 suivants, pour nourrir convenablement notre appétit d'information doit être retraité. Filtrer d'une part pour éliminer les scories, brouillons, redondance, mais aussi classer hierarchiser et marquer ces différence par une capacité d'attraction de l'attention plus forte. C'est exactement ce que fait paper.li et que d'autres services font vraisemblablement.

    On comprend du même coup le rôle de twitter, celui de nourrir le fil de nos information, non seulement par l'alimentation – ce qui est deja bien fait quand notre sélection de sources est avisée, mais aussi la digestion. C'est le rôle d'applications et de services comme paper.li. Les applications sont évidentes : la veille, qui peut ainsi être mieux distribuée, le compagnon d'un blog, les revues de presse. Répondre à la nécessité d'arrêter le temps dans un espace, de saisir le stream dans son ensemble.

    Sans doute le prototype d'une évolution des plateforme qui associe crowdsourcing, personnalisation, filtrage auto-contrôlé et collaboratif, mashup ( car c'en est un), visualisation et design.C'est un produit d'une start-ip suisse, smallrivers.com  localisée au sur le campus du Swiss Institute of Technology EPFL. Une idée européenne.

    La leçon est claire : le nouveau monde du digital n'est plus un problème de production de contenu, il n'est plus un problème de recherche du contenu, il est encore un problème de mise en relation des producteurs de contenus, il devient de plus en plus un problème de filtrage du contenu. Cette avanture apporte l'idée d'une solution, avec l'élégance de reprendre les code d'une vieille institution : celle de la presse.



    A lire aussi 
    Crédit photo

      7 novembre 2010

      Work in progress : CRM à l'heure digitale

      Voici un document de travail, l'esquisse d'un chapitre pour un ouvrage coordonnée par Thomas Stenger pour Dunod. Le développement d'un certain nombre d'idées qui serpentent dans ce blog.

      Celle que l'information est produite plus que nous ne pouvons la traiter, que des processus psycho-sociaux font de cet espace un espace privé plus que public, que le prix de l'adaptation est celui d'une perte de vie privée, que les systèmes locaux favorisent les dynamique locale, microlocale. Qu'au delà des communautés c'est de les faire vivre en de petites sociétés qui est nécessaire.Quelque idées à tester, en cours de mise en forme, et pour lesquelles vos commentaires sont bienvenus.





      credit photo

      6 novembre 2010

      Le contenu de la marque : présentez vos documents!

      Bientôt la conférence infotodoc et la joie de participer à un atelier  organisé par Didier Delhaye de Cincom en excellente compagnie....

      Juste en avant-première cette idée qu'à l'heure du brand-content, il va falloir se demander comment fournir assez de contenu aux marques. Un contenu sous la forme de livres blancs, de journaux, de catalogues, de vidéos, de factures, de contrats, d'historiques, de comptes, de présentations, de notes, d'articles, de sons, de photos, de webinaire, de formulaire. Juste pour une première approche.

      Les entreprises sont devenus des quasi-éditeurs, à l'heure digitale le contenu est numérique et est prêt à se distribuer dans la chaine éditique au travers des multiples canaux. C'est ce contenu  qui nourrit la marque , peut être faudrait dit-il  injecter de la marque dans la masse des documents. Des documents dont Jean-michel Salaun donne une perspective précise et riche. Un élément de communication que le marketing a souvent oublié, obnubilé par les slogans. Ainsi le besoin de produire une parole de la marque, une parole qui entretienne la grande conversation en distribuant ses documents.

      Et juste pour donner un ordre d'idée, une banque émet quelques dizaines de millions de relevés chaque année, la SNCF 800 millions de billets, . Sans rien changer, juste en prenant conscience de la masse des documents produit et archivables, il y a sans doute du grain à moudre pour le contenu de marque. D'autant plus que ce volume considérable est de mieux en mieux traité par la chaine éditique. En dématérialisant, en remastérisant, il y a un espace de communication considérable à reconquérir. Quant au rythme à lui donner ce sera une histoire de story telling.

      A lire aussi : 

      2 octobre 2010

      Mort aux clics !

      Cela devrait être l'évidence, et pourtant l'industrie du e-marketing fonctionne toujours au clic. 

      Ses taux sont pourtant ridiculement faible : de 0,06 à 0,15% selon le secteur (au US), sans compter que depuis deux ans le nombre de clics s'est réduit de moitié (de 32% à 16% des internautes qui ont cliqué sur au moins une bannière au cours du mois) . 
       
      Comme le rappelle Gian Fulgoni dans une présentation donnée à l'AMA, le clic ne signifie rien. Ce qui compte c'est la capacité du clic à modifier les croyances, les sentiments et ce que font les consommateurs, ce qu'ils achètent. 

      Un de ses arguments, est que les clics ne reflètent pas l'impact cumulé de l'exposition publicitaire, ni ses effets sur la marque, ni même les comportement d'achat. L'efficacité de la campagne doit être évaluée dans la durée et sur les comportements accumulés. Et de ce point de vue, dans la durée, c'est à la fois la fréquence de contacts (une dizaine d'exposition) et la qualité de la création qui génère le lift : cet accroissement des ventes généré par l'ensemble de la campagne. Et de ce point de vue il semble que l'internet fasse jeu au moins égal avec la TV. Pour en savoir plus on ira lire sa communication dans  Journal of Advertising Research et sa présentation ci dessous.

      Dans ce travail qui s'appuie sur la puissance des systèmes de recueil de donnée, et la capacité à associer les données de clickstream, aux données de panels (certains résultats viennent de collaboration avec Behaviorscan) on revient à des questions essentielles posées autrefois aux beaux jours de la publicité : l'audience obtenue n'est pas la bonne mesure de l'efficacité. Le véritable problème c'est la mesure de l'élasticité. 
       
      De manière plus fine, c'est toute la problématique de la pression commerciale qui est posée. Combien d'expositions sont efficaces - Vaut-il mieux une pression forte sur un laps de temps court ou une pression modeste étalée dans le temps? Quel est le poids de la création dans l'efficacité ? Comment la qualité de la création se combine au média planning?



      On devine dans cette réflexion que bientôt les modèles publicitaires vont changer. Le CPM, le le CPC et même le CPA ont assez peu d'avenir. Dans un univers où pour obtenir 1 clic il faut générer 1000 impressions, bientôt les annonceurs vont exiger autre chose de leurs publicitaires. Se moquant des taux de transformation, et de toute les exotismes de la mesure, ils vont demander une chose simple, combien de ventes supplémentaires apportent un euro d'investissement. C'est la notion de lift, qu'on pourrait traduire en français, par une certaine élévation, mais en économie par l'élasticité marginale.

      Dans cet esprit les taux de transformation et les autres mesures de ROI n'ont aucun intérêt. La question est d'identifier les ventes additionnelles qui résultent d'une dépense additionnelle. Celles-ci proviennent non seulement des clics, mais aussi du cumul des expositions et de ses conséquences. Sans aucun clic une campagne peut être efficace ne serait-ce que par ce vieil « mere effect », cet effet de familiarité qui facilite le choix.

      L'omniprésence du net ( moteur de recherche, web, réseaux sociaux, web mobile) et sa très grande diffusion dans de nombreux pays, renforce l'importance de cet effet. Le véritable problème aujourd'hui n'est plus de savoir si les internautes réagissent aux messages, les taux de clics sont condamnés à se réduire, mais si à travers leur accumulation, il réagissent positivement quand les biens leur sont proposés, quand il sont sur les points de vente, off ou on.



      Le débat aujourd'hui est de connaître le degré optimum d'exposition. Suffit-il de deux ou trois? D'une dizaine? Existe-t-il au-delà d'une certaine fréquence des effets de rejet? Le message créatif permet-il de réduire ce nombre optimal d'exposition ou au contraire de l'accroître? La combinaison des medias améliore-t-elle l'efficacité ?

      Qu'il s'agisse de bannières, de liens sponsorisés ou de mails, la question est la même.

      21 septembre 2010

      A Marketing giant has disappeared - About Professor Andrew Ehrenberg and “How his research happened”


      Professor Andrew Ehrenberg a giant in marketing has passed away the 25 August 2010. I therefore would like to remember his important contributions over the last sixty years to marketing knowledge about topics ranging from consumer behaviour (e.g. brand loyalty) to how advertising works. This article outlines how the research of Andrew Ehrenberg, who was Professor of Marketing at the London Business School and London South Bank University, over the last 60+ years came about. it could be synthetize as Science should be simple and generalizable

      With hindsight, he was always aiming at findings that were both simple and generalizable. Simple findings so that everybody could see the patterns in data which at first often looked complex. This attempt was published in his famous book in 1975 “Data Reduction” which was reprinted in the Journal of Empirical Generalisations in Marketing Science, 2000, 5, 1-391. It maintains that much of the approach to research methods and prediction depends on finding patterns in data and this is much aided by its presentation in simple tables. Such tables also aid communication of results. The basic ideas are very simple. They depend on the principles of how memory works as the great Nobel Prize Herbert Simon had reported that people could not remember numbers of more than two digits: clear layout of simple tables, rounding of figures, placing figures to be compared in the same column and showing averages.

      Generalizable, within stateable conditions, to provide validated benchmarks, possibly lawlike in due course. Andrew Ehrenberg believed that the methods of physical science are applicable to social science. The discovery and development of such lawlike relationships was expressed in an article in the hard science journal Nature (1993) entitled "Even the social sciences have laws". In it he asserted that even in a field dominated by people's impulses to buy, that of marketing, there are striking regularities.


      In 1955 Andrew Ehrenberg moved into marketing research working on consumer panels. His first milestone paper was "The Pattern of Consumer Purchases" (Ehrenberg 1959) which showed the applicability of the NBD-Negative Binomial Distribution (a heterogeneous mixture of Poissons distributions) to the numbers of purchases of a brand of consumer goods.

      In the early 1980s, Ehrenberg extended the NBD model to the Dirichlet model to account for brand choices. This model gave a very close fit to the majority of observed purchasing data and it has been shown to hold over different product categories, big, medium, and small brands of very varied grocery-type products from soap to soup and mascara as well as soap operas, different countries, time, and for both subscription and repertoire repeat-purchase markets. Such a quantified regularity was unprecedented in marketing. So it was (and is still today) exciting. Andrew Ehrenberg had stumbled accidentally on an empirically widely-grounded theory to benchmark how many people do or should buy any brand how often. The theory itself was also exciting. It assumed that consumers behaved “as-if probabilistically”. That is very irregularly.

      'The Dirichlet', as it became known, has been described as one of the most famous empirical generalisations in marketing, along with the Bass model of diffusion of innovation. It helped him be faithful to his “holy” scientific principles to deliver simple lawlike benchmarks for a number of empirical generalisations, including Double Jeopardy, the Duplication of Purchase law, Polygamous Brand-Buying and Natural Monopoly. These generalizations can be found in his book “Repeat-buying: facts, theory and applications” (1988). This is possibly the most important marketing book ever written on buyer behaviour.

      The idea of "Double Jeopardy" proved particularly important, in arguing that a big brand will possess a greater number of loyal customers than a similar, smaller rival almost entirely because of its scale. More specifically, it suggested that repeat buying and other loyalty measures do not vary greatly between individual brands, meaning that increases in penetration are typically behind any growth in sales. One consequence of this finding for marketers was that the most cost-effective use of resources may be to "nudge" occasional customers to buy, rather than trying to "squeeze more out of" dedicated clientele.

      Ehrenberg's interests furthermore centered upon establishing empirical generalisations applicable in areas like brand buying, TV viewing, consumer attitudes and reactions to price changes. (A wide-ranging summary of his contribution to the industry is available here). He derived from these models of buyer behaviour a view on advertising for established brands. It mostly serves to publicise the advertised brand, but seldom seems to persuade. Promotions have only a short-term effect, and do not affect a brand's subsequent sales or brand loyalty. The extra buyers during the promotion have been seen almost all to have bought it before the promotion rather than being the hoped for new buyers.

      Andrew Ehrenberg set up the Centre for Research in Marketing at London South Bank University. At the university of South-Australia the The Ehrenberg-Bass Institute for Marketing Science was raised up for his honors. Both centres have worked with a large number of marketing-oriented companies to address critical issues in marketing. Over the years they contributed to marketing learnings based again and again on reliable, reusable marketing knowledge (empirical generalizations) or the Laws of Marketing.

      The Dirichlet thus contributed to lawlike relationships. However, he was very controversy as his kind of theorising – which at base describes and explains already-established and generalised empirical discoveries and which thus post-dicts them – was anathema to many American academic marketing colleagues. They espoused much more ambitious and complex-looking econometric procedures which never worked in practice. Ehrenberg often spoke out against the pseudo-science of complex once-off statistical modeling which even lead him to label the American School of Modeling the “Scientification of Non-Knowledge-SoNK”. Hence he said “I SoNK therefore I Am”. Sadly, therefore has been little dialogue with US academics over the years. Was he too outspoken?

      The marketing community has lost a legendary figure, in marketing, market research and the statistics field. It has been written on the website for the The Ehrenberg-Bass Institute for Marketing Science:”Over his life Professor Andrew Ehrenberg's contribution to the development of marketing science has been enormous."
      But his work continues though to live and to influence the practice of both statistical science and marketing. Worldwide you can find his disciples in the “Dirichlet School”, such as Marc Uncles, Byron Sharp, Cam Rungie in Australia, Peter Fader in the USA who extended the NBD model to the BG/NBD model for customer lifetime value modelisation, in France Jean-Louis Chandon, Gilles Laurent, as well as Lars Meyer-Waarden and Christophe Benavent who recently directed a PHD thesis about the usage of these models to estimate the long term impact of sales promotions on customer lifetime value.

      A giant in marketing has disappeared, but his work and his spirit are still alive. New baby disciples are born and continue to develop his work which is omnipresent in marketing literature and which continues to excite academics.

      Bibliography:
      • Ehrenberg, A. (1959) The pattern of consumer Purchases, Applied Statistics, 8,1, 26-41.
      • Ehrenberg, A., (1964) Description, Prediction and Decision, Journal of the Market Research Society, 13, 14-33.
      • Ehrenberg, A., (1966) Laws in Marketing - A tailpiece, Journal of the Royal Statistical Society, Series C, 15, 257-268.
      • Chatfield C., Ehrenberg, A. and Goodhardt, G. (1966), Progress on a simplified model of stationary purchasing behaviour, Journal of the Royal Statistical Society A, 129, 317- 367.
      • Ehrenberg, A., (1968) The Elements of lawlike relationships, Journal of the Royal Statistical Society, Series A, 131, 280-329.
      • Ehrenberg, A. (1969), The discovery and use of laws of Marketing, Journal of Advertising Research, 9,2, 11-17.
      • Ehrenberg, A. (1975), Data Reduction, John Wiley, Chichester. Reprinted in the Journal of Empirical Generalisations in Marketing Science, 2000, 5, 1-391 (www.empgens.com).
      • Goodhardt G.J., Ehrenberg, A. and Chatfield (1984), The Dirichlet: A comprehensive model of buying behaviour, Journal of the Royal Statistical Society, Series A, 147, 621-655.
      • Goodhardt GJ, Ehrenberg A., Collins M. (1987), The television audience, 2nd ed. Gower, Aldershot, UK.
      • Ehrenberg A.(1988) Repeat-buying: facts, theory and applications, 2nd ed., Edward Arnold, London; Oxford University Press, New York. Reprinted in the Journal of Empirical Generalisations in Mark Science, 2000, 5, 392-770 (www.empgens.com).
      • Barwise, P. and Ehrenberg, A. (1988), Television and its Audience, Sage, London, 1998.
      • Ehrenberg, A , Goodhardt, G. and Barwise, P (1990), Double jeopardy revisited, Journal of Marketing, 54, July, 82-91.
      • Ehrenberg, A. (1993a), Even the social sciences have laws, Nature, 365, 30 September, 385.
      • Ehrenberg A. and Bound, J. (1993b), Journal of the Royal Statistical Society Series A, 156, 2, 167-206.
      • Ehrenberg A., Hammond K. and Goodhardt G. (1994), The after-effects of price-related consumer Promotions, Journal of Advertising Research, 34,4, 11-21.
      • Ehrenberg, A., Barnard N., Kennedy R., and Bloom, H. (2002), Brand advertising as creative publicity, Journal of Advertising Research, 42, 4, 7-18.
      • Ehrenberg, A. Uncles, M , and Goodhardt, G. (2004), Understanding Brand Performance Measures: Using Dirichlet Benchmarks, Journal of Business Research, 57, 12, 1307 - 1325.
      • Scriven, J.A and Ehrenberg A.S.C. (2004), Consistent Consumer Responses to Price Changes. Australasian Marketing Journal, 12, 3.

      16 septembre 2010

      Effets à long terme de la promotion : la mesure de la valeur-client

      Et une nouvelle thèse soutenue!

      Herbert Casteran en défendant sa thèse, le 15 septembre à l'Université de Toulouse, devant un Jury présidée par Eric Vernette et composé de  Pierre Desmet, de Paul N'Gobo - rapporteurs, de Jean-Louis Chandon et de ses co-directeurs de recherche Lars MeyerWaarden et Christophe Benavent), a démontré l'intérêt des modèles de valeur de clientèle pour évaluer l'efficacité à long terme des programmes d'actions marketing dans la grande distribution. En l’occurrence il s'agissait de l'effet à long terme de la promotion sur les marchés du café et des shampoings..

      Au-delà des faiblesses, des limites, et des questions que les membres du jury ont scrupuleusement soulevées, cette thèse ( qui a obtenu les félicitations unanimes) présente plusieurs contributions remarquables.

      La première est de montrer que le raisonnement CRM peut s'appliquer dans un champs qui n'est pas naturel : celui des produits de grande consommation. L'action et les opérations marketing, ici limités à la promotion n'a pas d'effet unique et mécanique : l'action promotionnelle permet d'acquérir de nouveaux consommateurs, modifie les niveaux de consommations et renforce (ou affaiblit) la fidélité des clients habituels. Les modèles de valeur proposés permettent de saisir une diversité d'effets pour une diversité de clients qui se distribuent et s’accumulent au cours du temps. Les modèles de valeurs permettrait de saisir l'ensemble de ces effets au cours du temps.

      Sur le plan empirique, le test des hypothèse s'est appuyé sur des données de panel, plus précisément celles de du panel Gfk BehaviorScan (On ne remerciera jamais assez l'entreprise d'avoir prêté ce laboratoire impressionnant : environ 3000 consommateurs et les 250 000 transactions réalisées au cours d'une période de deux ans, et de permettre ainsi de tester grandeur réelle un certain nombre d'idées fondamentales.) Pour ce test, Herbert a utilisé notamment une famille des modèles stochastiques (Pareto/NBD, BG/NBD etc) et formulé un modèle original en introduisant  des variables individuelles pour affiner les paramètres et les corrélés aux variables promotionnelles.

      Quant aux résultats, ils montrent qu'à travers les catégories de produit sla promotion ne produit pas forcément les mêmes effets, ouvrant ainsi d'autres questions : l'implication dans la catégories de produit, la structure concurrentielle, la nature des promotions font varier l'intérêt de l'instrument. Au-delà des effets contingents, une réalité émerge clairement de la recherche : l'effet à long terme des programmes se joue largement dans la qualité des clients acquis par ces opérations. On y retrouve un résultat mis en évidence par d'autres : la fidélité des clients dépend en grande partie des modes de recrutement.
      En extrapolant, l'idée simple qui se dégage est que certaines actions marketing, si elle produisent un effet immédiat apparemment avantageux, peuvent aussi, dans la mesure où elles drainent une fraction importante de clients opportunistes, dégrader à long terme la valeur du portefeuille. Pour le manager la conclusion est assez simple : la valeur future des clients se joue dans la qualité de leur recrutement.

      C'est un sujet important dans une période où les consommateurs n'hésitent pas à profiter des aubaines, et où les responsables du marketing opérationnels sont tentés de vaincre la morosité du marché par des opérations fortes. Le risque est que les deux parties se rencontrent au prix d'une valeur future amoindrie.
      Herbert Casteran est désormais Professeur à l'EM Strasbourg, il a enseigné de longues années à l'ESC de Pau, et a fondé le cabinet StatAdour. Pour ceux qui veulent s'y plonger, voici la version intégrale de sa thèse:

      6 septembre 2010

      Étiquetage

      Pixo - av Ipiranga
      Il a été un des mots magiques de l'internet : le tag. Non pas cette signature baroque qui orne  les murs de villes, quoiqu'il s'agisse de la même chose, mais ces procédés qui étiquettent idées, textes, musiques, vidéos et objets. Et qu'on désigne par le mot délicieux de folksonomie.

      Je me souviens du rôle des étiquettes, c'était dans mon enfance en salle de sciences naturelles, ce carton insignifiant qui désignait d'un nom, d'une date et d'un lieu, le spécimen cloué dans la boite à papillons, cet exemplaire unique qui représente toute l'espèce. Je me souviens aussi de ce sentiment d'inutilité de la chose. Le papillon épinglé se suffisait à lui même, pourquoi en piquer la singularité par quelques indications aussi vagues qu'imprécises?

      Et je retrouve les étiquettes, comprenant aujourd'hui leur sens profond, comme celles des tableaux dans les musées, elles n'ont rien à dire sur l'œuvre, mais par leur combinaison permettent un inventaire, et d'un texte à l'autre de s'assurer que l'on parle de la même chose. Elles sont moins qu'un numéro d'inventaire, mais plus aussi, permettant au minimum que les spécimens se retrouvent dans le bazar des choses. Les étiquettes sont les cailloux du petit Poucet, des riens, des signes sans significations, mais dont le rôle est de permettre de retrouver un chemin.

      Le sens profond des tags est à trouver moins dans leur nature que dans l'abondance de l'information. Chaque bribe de parole, chaque image, chaque film, chaque document, ne serait plus rien dans cette gigantesque accumulation si elle ne laissait un fil qui en permette par le hasard et ses distributions une sorte de redécouverte. Les étiquettes contemporaines ont une autre fonction, celle de passer à travers les supports, les sites, les bases, d'être l'élément universel qui permette de traverser les mondes. Et c'est sans doute pour cette raison que ces drôles d'étiquettes, code barre flash tag, QR codes prolifèrent. Qu'importe leur fonction, ces petits cailloux ne subsisteront que s'ils peuvent passer d'un média à l'autre. D'un chemin au couvert des bois à la poche d'un enfant. D'une affiche à l'écran d'un mobile.

      Les tags non seulement doivent être expressifs, mais fongibles. Ils doivent passer d'un support à un autre. D'une affiche à un site web, d'un site web à une caisse de supermarché. Et de ce point de vue la technique a beaucoup à dire. Elle le dit inventant des formes étranges, des 2D codes dont le graphisme facilitent la captation, le RFID.Les étiquettes sont dans l'invasion de l'information le seul moyen de tracer des pistes dans un monde que personne ne pourra plus explorer, car trop vaste! Le village global redevient une immensité avec la masse d'information qui croît tant que plus personne ne peut en maitriser la moindre parcelle.

      Les cailloux du petit Poucet sont devenus essentiels pour que surnagent les connaissances. Tags et metag tag sont les petits soldats de l'ère de l'information. Les étiquettes de notre enfance revêtent une valeur nouvelle et forte. Elles sont des condensations, une suite de mots qui ne résument rien, mais permettent de revenir à la chose enfouie, même si la mode des nuages de tags s'est évaporée, plus efficacement que d'autres techniques.

      Ces folksonomies s'appuient sur l'intelligence des foules mais sont surtout des taxinomies du pauvre qui s'opposent à la société des savants sans doute, mais qui trouve dans la beauté des nuages l'immédiateté du sens commun de la recherche. Les tags se sont pas que des graphismes, mais une part de ces meta-données à la base des systèmes sémantiques.

      Et de ce point de vue il faudra réfléchir à pourquoi la systématique laisse le pas à ces formes d'indexation flottante. Une double raison semble s'imposer. La première est que nous ne disposions plus d'une théorie assez forte pour classer les objets du monde à l'instar du tableaux des éléments de Mendeleiev , ou de la classification de Linné  dont le dernier avatar est celui de Karl woese . Comment construire une hiérarchie quand on ne dispose pas de la théorie qui peut l'établir?

      Cependant recommandons à tous de soigner ses tags, il sont la condition de passer au-delà du flux du présent et de revenir à la mémoire des vivants. Ce qui ne sera pas tagué s'enfouira dans cette mémoire profonde, sédimentée, qui attend sans espoir d'être réveillée.Les marques sont des tags. Parmi les plus précieux. Dans les grandes bases qui se constituent et se renforce, qu'elle soient géographiques, conversationnelles, document, photographiques, bibliographiques, l'accès à l'information passe par l'usage de mots clés, et les marques en sont sans doute les plus utilisés.

      25 août 2010

      Le pari au cœur des modèles statistiques - le principe de Bayes.

      Dans les tests des campagnes digitales et des autres opérations, le calcul statistique est un outil incontournable pour statuer sur la fiabilité des résultats constatés. Affirmer dans un test A/B que le taux de transformation de A est supérieur à celui de B, passe par une évaluation statistique.

      Presque toutes les disciplines scientifiques ont recours à ces outils pour conforter leurs affirmations. L'utilisation de ces processus sont attachés à de nombreuse méthodes, parmi celles les plus connues on trouve les tests d'hypothèse avec la notion d'intervalles de confiance. Les tests permettent de confronter deux hypothèses: l’hypothèse « Nulle » et « Alternative », en rejetant une au profit de l’autre. Cette pratique a pour objectif de déterminer parmi les deux hypothèses, laquelle est la plus vraisemblable. Les intervalles de confiance ont pour but de fixer des marges qui accordent une certaine confiance aux résultats. Par exemple pour déterminer la proportion d'intention de vote d'une population donnée, on dira que cette dernière se trouve dans un intervalle de [43%; 49%] à 95% de confiance ( la taille de l'intervalle dépend du nombre de personnes interrogée, ici environ 400).
        Ces deux outils s'inscrivent dans le cadre d'une approche dite fréquentiste de l'inférence statistique. Cette dernière manipule des quantités appelées estimateurs pour faire de l'inférence statistique. Ces estimateurs deviennent des composantes sur lesquelles les tests d'hypothèse et intervalles de confiances sont obtenus.
        Pour pouvoir appliquer ces tests ou construire des intervalles de confiance, il essentiel d'avoir un échantillon aléatoire ( sondage) à partir duquel on infère les résultats généraux. Cette inférence est une procédure qui permet à partir des données de remonter aux causes de leur réalisation, en vue de généraliser ses conclusions à l'ensemble de la population; elle prend des formes paramétriques et non-paramétriques.
        • L'inférence paramétrique suppose que le processus de réalisation des données observées est identifiable parmi un ensemble de lois de probabilité indexées par un paramètre θ. L'inférence est effectuée pour cibler le paramètre, et ainsi déterminer la loi de probabilité qui régit le phénomène. Le test en t de comparaison de deux moyennes en est un exemple.
        • L'inférence non paramétrique, comme son nom l'indique ne suppose pas l'existence d'un paramètre d'intérêt, elle raisonne directement sur les lois de probabilité. Le test du Chi 2 en est l'exemple type.
        L'inférence est le cœur du raisonnement statistique, chaque calcul est accompagné par cette dernière. Elle consiste généralement à calculer une statistique de test à partir des données, et d'en induire la probabilité qu'elle prenne cette valeur, alors que le test la présume nulle, pour répondre à la question de savoir si l'écart entre la situation théorique et empirique est du à une cause systématique, ou à une fluctuation de la population sondée.Dans la pratique, l'utilisation de l'inférence paramétrique est dominante. Elle est effectuée généralement dans le cadre fréquentiste, alors que de plus en plus c'est un cadre bayésien qui s'impose dans la littérature technique.

        Une des premières différences dans l’approche bayésienne par rapport au raisonnement fréquentiste réside dans la façon de définir une probabilité. Le raisonnement bayésien définit la probabilité d’un évènement comme un pari sur sa future réalisation. Cette optique est dite subjective car elle est liée à l’individu. De son coté le cadre classique définit la probabilité comme la limite de sa fréquence de réalisation en supposant que les évènements sont répétables et réalisables dans des conditions identiques. La première limite de ce raisonnement est le cas des évènements non répétables (à notre horizon), par exemple qu'un astéroïde percute la terre. Dans ce cas la probabilité ne peut être qu’un pari et non le fruit d'une régularité.

        La deuxième divergence réside dans la façon d’analyser. Contrairement au cadre fréquentiste le calcul bayésien attribue une loi de probabilité sur le paramètre. Implicitement cela signifie que le paramètre d’intérêt θ est vu comme une variable aléatoire. L’intérêt d’une telle loi est de traduire la connaissance disponible avant observations. Cette loi dite loi a priori sur le paramètre, peut résumer un avis d'expert ou encore des anciennes données. Durant l'analyse, Elle se transformera en une loi a posteriori dès que les données seront observées. Cette actualisation est rendue possible grâce à la formule de Bayes.

        Ainsi sachant qu'une clientèle est constituée de 3 segments, et que les taux de réponse dans les trois segments sont de 1%, 2% et 3%, on peut calculer aisément la probabilité qu'un client ayant répondu appartienne au premier segment  est de : 1/3*0.01 /(1/3*0.01+1/3*0.02 +1/3*0.03 ) = 0.17 ( de 0.33 et 0.5 pour les deux autres segments). En revanche si on connait la distribution des clients entre les segment ( 50%, 40% et 10%), le calcul est modifié et la probabilité est de 0.31%. La connaissance a priori de la répartition nous permet d'actualiser le calcul. ( la formule est sur le t-shirt).

        D’après Robert (2006), L'analyse statistique bayésienne se ramène fondamentalement à une inversion. De cette façon elle permet de remonter des effets (données disponibles) aux causes (paramètres). Le grand avantage de cette optique est que les résultats obtenus sont avancés sachant les données et non de façon asymptotique. Ce constat devient très utile pour résoudre les problèmes de décision où peu de données sont disponibles.

        L'approche bayésienne est étroitement liée à la théorie de la décision. Elle utilise des éléments de cette théorie, pour contrôler les résultats de l'inférence. Cette harmonie est rendue possible grâce aux manipulations des lois a posteriori sur les paramètres. Ce cadre décisionnel permet d'effectuer des tests d'hypothèses et construire des intervalles de crédibilité. Néanmoins le cadre bayésien trouve des critiques dans la façon de fixer ses lois a priori. Car l’information introduite via ces lois, est dite subjective et peu perturber les résultats finaux. Une réponse à cette question est partiellement résolue par les a priori non informatifs (loi uniforme, prior de jeffrey, etc...), mais un grand travail reste à faire dans se sens.

        Pour un bayésien toute information disponible est importante, de plus injecter des informations ainsi est en accord avec sa vision de pari probabiliste. Pour lui être objectif, est de bien justifier ses choix dans l’analyse. Même si ce choix de modélisation reste incompris, les lois a priori sont bien utiles aux bayésiens quand on est face à un manque de données, difficulté que le cadre fréquentiste peine à combler, même si les deux approches donnent les mêmes résultats quand il y a abondance

        Le cadre bayésien est une approche qui s'est beaucoup développée grâce aux outils informatiques (il peut être gourmand en calcul), et permet grâce à la mise à jour des connaissances de réactualiser les inférences statistiques. Il contribue à une approche apprenante des systèmes et des modèles telle que chaque nouvelle information permet de mettre à jour l'estimation. Le raisonnement bayésien désormais s'étend à travers de nombreuses applications : méthodes de filtrage de spam, réseaux bayésiens , méthodes d'estimation de régression linéaire et logistique via les modèles hiérarchique bayésien, méthodes de classification. Ces techniques qui permettent de modéliser des phénomènes complexes sont très prisées dans plusieurs domaines touchés par le problème d’incertitudes et les événements rares. Le raisonnement bayésien permet dans ce cas, de quantifier les incertitudes en avançant des les lois de probabilité sur lesquelles le risque peut être supervisé. Le contrôle du risque d’avalanche en est un exemple. Le champs est étendu!  Il peut trouver de beaux terrains en méta-analyse.

        Mais pour clore ce qui n'est qu'une invitation, voici un exemple où l'inférence bayésienne donne des capacités d'apprentissage aux robots.








        Et quelques livres:

        19 août 2010

        Une recommandation pour mesurer la fidélité des clients

        La mesure de la fidélité se satisfait difficilement d'une seule mesure, c'est ce que les critiques du Net promotor score mettent en avant. Et c'est à raison.

        La fidélité a des raisons multiples : la préférence, l'habitude, la satisfaction, la dépendance, la confiance, l'engagement, la pression du groupe, sa gratification.

        Et ses formes sont variées : la recommandation en est un aspect, le réachat un autre, sans compter le taux de nourriture, la résistance à la persuasion, la propension à réclamer, le renforcement des attitudes, la consolidation de la relation, la faible sensibilité au prix, une propension plus forte à se dévoiler et à accepter la communication.

        Un avantage actuel de la mesure de la recommandation tient dans l'importance croissante des médias sociaux qui amplifient la diffusion des messages. Elle est d'autant plus importante qu'au-delà d'une simple mesure en 7 points portant sur l'intention de recommander la marque réalisée par sondage, des dispositifs spécifiques et systématiques sont proposés à la recommandations des visiteurs. 

        Ces instruments de recommandation se présentent sous la forme de nombre d'étoiles à attribuer, de commentaires, de bouton sociaux. Voici un résultat possible : 2234 tweet, 1013 FB shares, 176 thumbs-up, 49 commentaires, un millier de like.


        Le premier mécanisme demande peu d'effort et d'engagement, il induit par effet de sélection très certainement un biais de surestimation de l'appréciation générale, mais le nombre d'avis formulé vient nuancer : c'est moins la note moyenne qui compte que le nombre de réponses données. En voici un exemple issu d'Amazon.com. On appréciera le "84% des clients qui ont regardé cette page ont acheté l'article", est-il un meilleur encouragement?
        Le second est très engageant, il demande un certain degré d'engagement et de ce fait est un dispositif très sélectif. Des opinions tranchée y sont le plus souvent formulées, positive ou négative et quand les opinions sont variées, il peut s'engager un débat passionné. Même si moins de 0,5 % des visiteurs y contribuent, les visiteurs silencieux les lisent aussi. Notons que les commentaires eux-même parfois peuvent être notés. Ils sont parfois aussi important que l'article principal.

        Les boutons sociaux demande un degré intermédiaire d'engagement, mais ils ouvrent à des potentiel s de relais qui peuvent être élevé. Dans un bon réseau twitter, dans le millier de followers que l'on a, si les 1% qui relayent, touche chacun le même nombre, c'est 10 000 contacts supplémentaires qui sont obtenus. Le rendement a un facteur 10, dans notre exemple.

        Dans chacun des cas, il est conceptuellement facile de proposer des indicateurs. La note moyenne, son écart-type, et le taux d'expression ( nombre de notes données/nombre de visiste de l'article) sont les métriques naturelles du premier cas. Les commentaire se prête à une analyse sémiotique. Une simple analyse lexicale peut fournir des éléments précieux. Un taux de commentaire est aussi pertinent.  Le nombre des likes, des partages, est une mesure directe des effets.

        Des notes de sentiments peuvent aussi être élaborées à partir d'une analyse sémantique. Quant aux boutons, des calculs d'audience intégrale ( nombre d'individus uniques touchés par un ensemble de réseaux – réseau propre, twitter, facebook, blogs, Linked in) semblent nécessaires. On peut imaginer aussi que sur le corpus élargi soit comptabiliser le nombre de mention de recommandation. Ceci exige techniquement qu'un lexique de la recommandation soit constitués. Il y a la un joli projet de développement à conduire.

        La simplicité est sans doute l'avantage trompeur du NPS. Mais son idée reste pertinente. La mesure de la recommandation est un critère clé de mesure de la fidélité de nos clients. Les dispositifs sociaux des sites web en facilite le recueil systématique, même si chacun des instruments est sensible au coût de participation. Seule une minorité s'exprime, sans doute la plus engagée. Mais au-delà de l'opinion, qu'elle soit biaisée ou non, ce qui importe est que ces mesures captent directement l'action de recommandation. Si seuls 10 commentaires sont produits pour un article, et qu'ils soient majoritairement enthousiastes, il peuvent générer un nombre de vente substantiellement plus élevés.
        Les limites tiennent d'abord à la réflexivité de l'instrument : Si l'affichage des bonnes recommandations a un effet sur les comportements, cette mesure sera biaisée car reflétant son propre effet, c'est ainsi qu'en accroissant artificiellement ces indicateurs (en mobilisant les militants de la marques) on peut provoquer un engouement qui ne correspond pas forcement aux attitudes de ceux qui ne s'expriment pas.

        Les indicateurs restent en surface de la masse des clients. Une apparente flambée de recommandations peut aussi s'accompagner d'une sourde défiance, il est donc nécessaire de sonder aussi la masse silencieuse par des instruments plus traditionnels de mesure de satisfaction.

        La recommandation peut être une affaire de courtisans, ils forment désormais des foules, une industrie.

        -------------
        A lire aussi : 
        - Du prix à la note – mutations des marchés
        - Les fourmis de Facebook - I like Buttons...

        12 août 2010

        Microdon – vive les requins paisibles!

        En France Madame Chirac a donné l'exemple avec ses pièces jaunes : c'est au marge des budgets de consommation qu'il faut aller chercher la charité. Là où le coût de détention pèse plus que la valeur de l'argent – cette monnaie troue les poches; là où s'en séparer apporte plus de gratifications que de perte - que nous sommes généreux!

        La micro-monnaie, le micro-financement, le micro-paiement, ainsi trouveraient une destination différente de l'ordinaire. Les marges, cette queue de distribution peu épaisse, deviennent ainsi le gras nouveau qui nourrit de nouveaux business.

        On assiste ainsi à une multiplication de plateformes qui se destinent à exploiter ces marges. Flattr en est l'exemple le plus récent, Le SARD développe cette idée en france , tipit.to a peut être lancé le mouvement, microdon ( ce n'est pas un requin) utilise l'idée sur d'autres supports, citons encore MooZar, le défunt fundable, kachingle, ou ulule (n'hésitez pas à ajouter en commentaire d'autres initiatives analogies dont vous avez connaissance). .

        Les formes et les solutions diffèrent, le point commun est d'associer une mise faible à la dissociation de la relation d'échang. On réinvente le don, et son économie, en espérant introduire un cycle de financement, aux marges, qui redistribue la ressource en dehors du paradigme strict de l'échange marchand mais échappe à l'autorité collective. Sans doute le roman de Doctorow, et cette idée du whuffie alimente l'imaginaire de ces systèmes, c'est une forme sans doute différente du Potlach et ce ce que des anthrologues obstinés considèrent comme une des formes les plus fondamentales de l'économie.

        L'homme de marketing, celui qui se nourrit moins d'économie que d'anthropologie, ne sera pas étonné de ces solutions. Le pot à pourboire est une forme ancienne de rémunération, et le freemium en est une variété. Un des défis des technologies posé au marketing est justement cette question de la tarification. Nous l'avons déjà abordée ici. La question est de savoir si ces nouvelles plateformes sociales vont-elle remettre réduire l'espace marchand en étendant l'économie du don?

        Le cas de Flatter est intéressant, car délibérément il s'adresse moins au don, qu'à la rémunération de ces productions publiques qui jusqu'à ce jour ne trouve de compensation que par la fausse monnaie de la réputation (les boutons face-book) ou le marché dual de la publicité. L'innovation est dans la combinaison de ces deux gratifications : symbolique et matérielle, par un seul bouton. Mais aussi dans l'engagement, ceux qui peuvent espérer gagner doivent d'abord donner. La technique semble induire cette triple règle du don : l'obligation de donner, de recevoir et de rendre (sans que la symétrie des actes ne soient engagée).

        S'y esquisse un modèle de financement des œuvres de l'esprit, qui échappe au marché et à l'autorité d'une administation, qui se fonde dans une obligation de don mais une liberté de destination. Il peut être au-delà un modèle de régulation des charités, car au fond il ne s'agit pas seulement de financer des oeuvres de l'esprit, mais de financer le bien commun différemment de l'impot. Nous pouvons imaginer que chacun puisse allouer aux autres une partie de son budget d'autant plus aisément qu'il peut choisir à qui l'allouer.

        Telle est l'économie du don, on peut sacrifier une partie de ses biens aux autres, on aimerait en choisir les destinataire, cette fraction étant marginale, il a été difficile d'en choisir la destination, c'est ce que la technique permet aujourd'hui. Permettra-t-elle d'élargir la marge que l'on est prêt à donner? Permetra-t-elle de réduire l'espace de l'échange marchand et des prélèvement obligatoires? La technique va-t-elle créer un nouveau champ, faire revivre cette économie ancestrale qui substite au sein de nos familles?

        Nous n'en savons rien. Mais il faut observer. Au limite de l'économie, de l'anthropologie, et de la technologie, il va falloir penser des politiques de prix inouïes. Le revenu ne dépend plus de ce que l'on vend.
        _________

        9 août 2010

        Un thermomètre sur mesure ? Des sondages sans instrument.

        Au hasard de l'actualité, deux sondages de l'IFOP posent des questions sérieuses de méthodes dans la presse. Celui présumé mesurer l'opinion des français face aux mesures (encore non formulées) de « lutte contre la délinquance » et celui destiné à apprécier l'efficacité perçue par les français du dispositif Hadopi.

        On pourrait passer en revue les différents points de méthodes :  la méthode de recueil ( CAWI), la détermination de l'échantillon (quotas), et la présentation des résultats. Ce serait une matière à réécrire un manuel de pratique et d'études des sondages. Bien trop long pour un post. Et finalement pas aussi critiquable que ça à quelques points techniques près

        Une seule phrase de Yves-Marie Cann  mérite d'être ici discutée :
        « L’initiative d’un sondage peut revenir soit à l’institut soit au commanditaire de l’étude. Dans les deux cas, le questionnaire est toujours le fruit d’un échange approfondi entre les deux parties. À charge ensuite pour l’institut de mettre ceci en question puis de soumettre à son client un projet de questionnaire. Plusieurs allers-retours peuvent avoir lieu avant d’aboutir à la version finale qui sera administrée à un échantillon représentatif. » d'autant plus qu'elle est éclairée par une interrogation un peu plus loin: « Pourquoi s’en prendre systématiquement au thermomètre ? »

        S'il s'agit d'un thermomètre, celui-ci doit mesurer un fait objectif : un état particulier d'une quantité particulière - le degré d'agitation moléculaire du milieu sondé, autrement dit la température. Il ne mesure pas la chaleur (qui est un transfert d'energie), et plusieurs échelles seront disponibles pour en donner une quantification ( Kelvin, Celcius ou Fahrenheit). Le thermomètre sera valide s'il mesure ce qu'il doit mesurer - l'agitation moléculaire - et si on le retire trop vite du milieu test, il mesurera autre chose, juste un transfert de chaleur.

        En psychologie sociale, c'est ce que les (véritables) spécialistes appellent la validité de contenu : les items (questions)  retenues correspondent-ils à l'idée ( le concept) que l'on souhaite mesurer?

        A l'évidence, ce contenu ne peut être négocié. Ce serait pour prendre une image simple, accepter que le thermomètre soit conçu par une discussion entre le patient, le médecin et la sécurité sociale.  Au lieu de capter la température interne du patient, même si à travers tous les orifices cette mesure est fiable (produit la même mesure), elle ne serait en aucun cas valide car entachée d'un biais systématique. On ne mesurerait qu'un rapport de force ou un consensus, d'autant plus qu'à chaque sondage, même exécuté dans les meilleures conditions, la graduation, et la nature même du thermomètre serait modifiée.

        Si la mesure a pour ambition d'être objective, elle doit se rapporter à un construit bien établi. Quel est ce construit dans ces enquête? Une opinion, mais relative à quoi? Au soutien de la politique sécuritaire de Sarkozy ou à la croyance que la répression est le meilleur moyen de freiner la délinquance? Au soutien d'un dispositif de lutte contre la copie privée ou à l'attitude à l'égard de la copie privée?

        Scientifiquement, même s'il est bien mené techniquement, un tel sondage n'apporte rien, au mieux connaître les intentions de ses commanditaires. De manière marginale, on découvrira des opinions dont la raison reste obscure. On mesurera un vent.

        C'est cette critique de fond qui depuis longtemps a été adressée par Bourdieu et que reprennent de manière pédagogique et amusante les Guignols de l'info.



        Le sérieux d'un institut de sondage tel que l'Ifop serait de fournir sur de tels sujets des instruments de mesure qui se rapportent à des concepts bien établis. Si au travers d'une opinion particulière il s'agit de rendre compte d'une attitude : degré de xénophobie, l'attitude à l'égard de l'autorité, soutien politique, sentiment de victimisation, des instruments valides dans leur contenu, fiables dans leur application, représentatifs des populations qu'ils appréhendent, sont nécessaires. Pour que l'instrument soit valide il lui faut un contenu, sinon les questions posées sont pure rhétoriques et l'interprétation des réponses, des sophismes.

        Pour travailler ainsi les méthodes existent, et de nombreuses échelles de mesures sont disponibles,  pas besoin de R&D avancée, il suffit d'emprunter dans les bibliothèques les manuels adéquats ou de consulter les procédures typiques. Une longue histoire psycho et sociométriques donnent les méthodes adéquates et elle se poursuit, les spécialistes de marketing n'étant pas en reste dans le débat.

        Et sans entrer dans la technique on peut espérer que dans de telles enquêtes les concepts ( la température) soient bien établis et que les items (l'alcool ou le mercure du thermomètre) soient représentatifs de ce qu'on veut mesurer. Si les sondeurs font bien leur travail de sondage ( au sens de recueillir les données), soulignons que le fait même de négocier les questions, leur ôte le thermomètre des mains, il n'y a même pas besoin de le briser, il est simplement absent.

        -----
        Complément : on trouvera ici l'article fondateur (1979) - pour le marketing - de la méthodologie du développement des échelles et quelques ouvrages fondamentaux :


        crédit photo