28 mars 2009

Halte au scientisme! Contre le neuromarketing


Le Monde vient de publier un long article qui peut déclencher l'hilarité ou la colère. Cela dépendra de nos cartes corticales.


On parle si souvent trop peu du marketing, ou pour en donner une image tronquée, celle d'une discipline de la manipulation au service des intérêts du capital, qu'on ne peut que regretter que ce Journal du soir consacre le spectaculaire et l'anecdotique.

Le spectaculaire se trouve naturellement dans la charge affective qui s'associe au neuronal, ce lieu de tous les mystères où l'esprit se réfugie, un lieu dont on trouverait les clés en l'imaginant, au sens littéral, produire des images de son activité. Il est dommage que l'on ne donne pas plus l'arrière-plan théorique de la méthode, qu'on explique l'intérêt de localiser dans le cerveau l'activité de telle ou telle zone. Cet intérêt est essentiellement psychologique, il vise à mieux comprendre les mécanismes de prise de décision, la mémoire. Il se destine à une compréhension générale des processus psychologiques. Et il semble que la méthode d'imagerie soit particulièrement utile, se substituant à une instrumentation plus périphérique.


Mais pour le marketing quelle utilité ? Aucune. La méthode en elle-même ne peut rien apporter d'utile. A quoi sert de savoir que l'exposition à un message de LVMH active la zone corticale X dans la mesure où l'on ne pourra pas répéter la mesure au-delà de quelques sujets volontaires? Souhaiterions-nous en faire une nouvelle mesure d'efficacité publicitaire plus précise que les tests crayon et papier, ou cati de mesure d'attitude ?


Ce dont le marketing a besoin certainement est de renouveler sa compréhension des mécanismes de décision, de la mémoire, de l'apprentissage, du rôle des émotions. Nous avons besoin de renouveler nos cadres théoriques et de mieux prendre en compte ces connaissances nouvelles dans nos cadres d'analyse. C'est en grande partie le champ de l'économie expérimentale, qui au fond n'est qu'un raffinement à certains types de décision, d'une bonne psychologie cognitive, enrichie par les neurosciences. Un exemple de ce type de travail peut être retrouvé ici . Notons ici que le facteur social n'y est pas oublié !


Mais il ne s'agit pas encore d'imagerie. Voici un autre exemple de recherche qui l'utilise : quelle est la réponse du cerveau d'une mère au sourire de son enfant? Même sans être un spécialiste, on comprend que dans l'article (lisez le! ) c'est un processus biologique que l'on cherche à mettre en évidence, il permettra sans doute de mieux comprendre des processus généraux, mais remarquons qu'il échappe à expliquer les différences individuelles. Ainsi il n'y a pas d'explication définitive à pourquoi certaines mères réagissent par la colère aux cris de l'enfant. Il est évoqué ici le fait que les personnes déprimées ont une moindre reconnaissance des expressions faciales. Cette hypothèse générale associe ainsi un état physiologique du cerveau (déficit de dopamine) à son mode de fonctionnement, permettant d'expliquer certains comportements.


Admettons ce point et acceptons que cette hypothèse générale proposée par les auteurs soit validée : (l'état dépressif entrainé lié à une insuffisance de dopamine inhibe la reconnaissance de signaux positifs), et étendons le raisonnement à une situation de marketing. On peut s'attendre à ce que les sujets déprimés soient moins sensibles aux publicités heureuses et gratifiantes.


Voilà une hypothèse utile, mais qui ne nécessite pas d'appareillage neuroscientifique, juste de mettre à jour nos connaissances en psychologie, et de les tester moins dans l'enceinte d'un IRM mais au cœur de la société. In vivo. Au neuropsychiatre la responsabilité de mettre à jour des processus généraux, à nous d'en évaluer la validité et surtout la pertinence dans l'univers (social) de la consommation.


Il n'y a pas de neuromarketing, c'est une escroquerie intellectuelle, il n'y qu'un marketing informé des travaux de nos collègues psychiatres, psychologues, économistes et j'en passe, une recherche sur le comportement de consommation qui actualise ses connaissances.


PS1 : Pour une introduction à ce que les neurosciences apportent à la psychologie, autant commencer par les livres de Antonio Damasio, et quant aux réflexions dans le champs du marketing, on lira avec attention le numéro spécial de International Journal of Advertising : "Advertising and the Brain" (Vol 27 n°3).


PS2 : La question de l'imagerie est aussi une question épistémologique : celle de la vérité de l'image ou du moins de sa réalité, voir un post précédent


PS3 : un bon exemple de l'abus de langage est donné dans un document de Brain Impact : si l'étude est intéressante en soi, on voit peu les rapport avec les neurosciences, mais plutôt un autre habillage de techniques anciennes en recherche publicitaire, et de l'hypothèse fantasmatique du subliminal. On leur sera gré d'essayer de documenter leur proposition commerciale.


16 mars 2009

Le profit du ciblage individualisé


Les promesses de la personnalisation sont faites depuis longtemps, mais son évidence n'est pas acquise. Si l'on ne remet pas en cause sa vertu à obtenir une meilleure réponse des consommateurs – quoique cette hypothèse doive être aussi discutée - se pose néanmoins la question de sa profitabilité. Plus on personnalise, plus cela coûte, et si les gains en termes de réponse sont faibles alors il y a toute les chances qu'on les dilapide dans un coût excessif de mise en œuvre des opérations. Deux articles dans une récente livraison de Journal of Marketing Research s'attaquent à cette question.

Le premier article de Zhang et Wedel (1) s'intéresse à l'optimisation de la promotion et obtient des résultats remarquables. Le plus général est qu'adopter une stratégie d'optimisation améliore fortement les profits. Cette stratégie consiste à calculer au niveau de l'individu, du segment, ou du marché danss son ensemble, les paramètres d'une fonction de demande, puis sur la base de ces données (sensibilité au prix et à la réduction de prix), à fixer l'offre de manière à optimiser le profit. L'un des résultats est que le gain obtenu par une hypersegmentation ( au niveau individuel) est faible au regard de celui obtenu par une approche par segment et par une approche de masse, principalement dans un contexte off line. Le gain n'est sensible que lorsque les catégories de produit sont très sensibles au promotion. La source de ces résultats mitigés, pour le contexte off-line (par exemple des système Catalina), réside dans le faible taux de redemption des coupons, qui est de 100% dans le cas du on-line, dans le premier cas les coupons obtenus sont utilisés au prochain achat quand dans le second leur utilisation est immédiate. Il en résulte que le ciblage fin n'est véritablement rentable que dans le cadre de l'achat on-line.

Le second article de Dong, Manchanda et Chintagunta (2) concerne le secteur pharmaceutique et s'intéresse au ciblage quand on peut prendre en compte l'action de la concurrence. Ici la variable d'action n'est plus le prix, mais les visites effectuées par les délégués médicaux. Une même approche est entreprise : calculer une fonction de demande individuelle puis simuler les profits réalisables, et comparer une approche individualisée à une approche globale. Ici les résultats sont plus éloquents, les auteurs reportent des gains potentiels de l'ordre de 14 à 23%.

On notera dans les deux cas que les méthodes employées sont extrêmement complexes, et l'on peut se demander quelle est la capacité des firmes à les mettre en œuvre de manière opérationnelle. Dans les deux cas, l'exigence est de mesurer au niveau individuel des fonctions de réponses des consommateurs, la disponibilité des données est essentielle, mais le problème principal n'est pas aujourd'hui dans cette disponibilité, mais dans la routinisation de procédures statistiques lourdes. Le coût de cette mise en œuvre risque d'obérer les gains de profit obtenu, ce qui réserve cette approche aux firmes qui font des profits supérieurs à un ordre de grandeur de plusieurs millions d'euros, si l'on considère que le coût de mise en œuvre est de plusieurs centaines de milliers d'euros. Voilà un élément qui va conforter les marques dominantes !

L'alternative serait d'utiliser des méthodes plus grossières mais plus simples, au risque cependant de voir fondre les gains qui peuvent être obtenus. Une approche par grands segments reste donc toujours d'actualité, même si pour les marques fortes l'individualisation du ciblage promet de meilleures rentabilités.

(1) The effectiveness of Customized Promotion in on-line and off-line stores", Journal of Marketing Research (JMR); May2009, Vol. 46 Issue 2, p190-206, 17p

(2)Dong, X., Manchanda, P. and , Chintagunta, P. K.(2009) "Quantifying the Benefits of Individual-Level Targeting in the Presence of Firm Strategic Behavior" Journal of Marketing Research (JMR); May2009, Vol. 46 Issue 2, p207-221, 15p

13 mars 2009

Les écrans de nos nuits blanches


Si le Mexique est à l'honneur du salon du livre, c'est sans doute le e-book et la numérisation de la chaîne du livre qui retiendront l'attention.

Le premier ajoute un nouvel écran à nos nuits blanches, un de plus pour occuper les précieuses minutes de notre attention, car depuis l'invention de la TV, les fenêtres électroniques colonisent notre temps. Celui du salon, celui de nos marches, les attentes dans les aéroports, les trajets ferroviaires, prenant du temps au papier, du temps à l'attente, du temps au travail, modifiant nos habitudes, nos façons de faire, étendant l'espace aussi, les points que nous occupons deviennent de vastes surfaces.

Aujourd'hui le marché est encore confidentiel, la Fnac aurait vendu 6000 des e-reader de Sony (et 14000 e-book). Et pour 2008, Amazon aurait vendu 189 000 kindles au US, 300 000 pour Sony. Les commentateurs relèvent que l’ i-pod, après deux ans, s'était vendu à plus d'1,3 millions d'exemplaires.

Les choses sont peu comparables, l’ i-pod bénéficiait d'un atout maître, des milliards de morceaux prêts à être transférés sur son disque dur. Prêt à l'écoute, l'économie pirate, puisque c'est ainsi que s'obstine à l'appeler le gouvernement avec la déjà obsolète loi Hadopi, a très certainement nourri la résurrection d'Apple. L'offre de e-book est aujourd'hui encore bien maigre pour qu'on puisse s'attendre à un décollage du produit. Rappelons ce que sont maintenant les vieilles lois de l'économique numérique : celle d'externalité (positive) de réseau, et en l'occurrence le fait que la valeur est essentiellement extrinsèque, elle est liée moins à ce que l'on possède qu'à ce qu'on pourrait posséder. C'est un argument classique qui s'applique aussi au livre (voir les chroniques de Françoise Benhamou ).


On observera à ce propos que cette économie de la diversité est absolument essentielle compte tenu du faible tirage des ouvrages. Les chiffres publiés par Didier Jacob sont éloquents, mais pour donner de simples ordres de grandeur, le marché de l'édition est de l'ordre de 5,5 Milliards d'euros, pour une offre de 500 000 ouvrages, 60 000 étant à moitié édités et réédités chaque année, pour un tirage moyen de 10 000 exemplaires. Ce n'est pas une industrie de blockbuster, mais une industrie de ruisseaux et de petites rivières.


Il convient donc de s'interroger dans le cas du e-book sur les facteurs qui engendreront les externalités positives pour son démarrage. Plusieurs hypothèses peuvent être envisagées.


La première est l'engouement des éditeurs pour ce type de produit ou de distribution, s'ils semblent prudents et même hostiles à ce jour, certains arguments pourraient les convaincre. La durée de vie d'un livre étant courte, la prolonger par une édition électronique pourrait s'avérer une bonne idée, dans le même esprit que les collections de poche poursuivent la vie des éditions originales. Mais il ne faudra pas être pressé.


Une seconde hypothèse est que le fond des ouvrage libres de droit étant important, on peut imaginer que certain s'engouffrent dans la voie, et proposent ces fonds à des prix très faibles. Mais est-ce vraiment ces livres que l'on veut lire ? Ceux que l'on fait acheter à l'école peut-être, ce qu'on aimerait mettre à notre panthéon quitte à n'en lire que quelques pages (au juste, lit-on vraiment les livres que l’on achète ?).


Les éditions professionnelles, celles des guides pratiques, les premières menacées par l'internet, peuvent voir là une opportunité intéressante, d'autant plus que leurs publics peuvent être prêts à s'engager dans l'acquisition de terminaux encore beaucoup trop coûteux pour un vaste public. Et notons que c'est dans ces domaines que les plus grands éditeurs font les plus grands chiffres, un Elsevier, un Pearson, un Springer ont fait leur lait des publications scientifiques, des ouvrages savants, des livres scolaires, en réussissant d'ailleurs une formidable performance dans la numérisation et la distribution digitale, imposant aux bibliothèques du monde un autre modèle économique que celui de l'achat à l'unité : un modèle d'abonnement institutionnel qui oblige tous les acteurs à adhérer, offrant au passage tous les bénéfices des techniques de discrimination par les prix. C'est sans doute la voie la plus raisonnable pour les éditeurs de littérature générale qui s'aventureront sérieusement dans le livres électroniques. Ne plus vendre des ouvrages, mais des bibliothèques.


Une quatrième hypothèse est celle du piratage, les pays du sud pratiquent déjà de manière abondante la photocopie de livres à une échelle industrielle, le papier étant lourd, les étudiants s'équipant largement de portables, grâce au pdf pourraient largement y trouver un usage intensif, et cette offre dérivera certainement vers les cartables de nos écoliers (quoique nous puissions regretter que ce ne sont pas nos étudiants qui lisent et achètent!). A ce sujet, juste un chiffre, en moins d'une dizaine d'année un pays comme le Brésil est passé de 2 millions d'étudiants à presque 6, quand en France elle stagne à 3. Pensons à l'Inde, la Chine, la Russie dans une moindre mesure, l'Iran, l'Egypte, le Mexique, le Vietnam, l'Indonésie, et la liste n'est pas close. Partout le nombre des lecteurs sans ressources s'accroît, ils lisent l'anglais et leur langue nationale, cela pèse des dizaines de millions de nouveaux étudiants qui bricoleront le moyen de lire les bibliographies de leurs enseignants.


La cinquième hypothèse est la plus probable nous semble-t-il. C'est celle de google books (on regardera l'accord innovant ), qui est l'acteur le plus engagé dans la numérisation, partielle et totale. Un billet d'olivier Ertzscheid en donne une bonne introduction. Vous me direz que cela ne concerne qu'Internet, mais les e-readers encore hésitants quant à leur connectique, ont de grande chance d'adopter quelques techniques qui leur permettent d'accéder directement à cette bibliothèque. C'est bien l'esprit du Kindle, et Sony a choisit une compatibilité multiple. Ne doit-on pas s'attendre à ce que certains choisissent Android ?


Dans ces cinq hypothèses on retrouve d'une certaine manière la conclusion du Rapport Patino qui souligne la tension entre les éditeurs et les diffuseurs. On ne sera pas étonné qu'il souhaite mettre la question des droits au centre du débat, même si le point de vue économique justement aurait tendance à la mettre en dehors.


Alors maintenant observons, le marché n'est pas encore là...la technologie est prête, les opérateurs aux aguets. La grande bataille va commencer, et nos écrans promettent de belles nuits blanches - nuits de cauchemar pour certains, nuits de bonheur à lire pour nous...


12 mars 2009

News : appel à com - 8ème journée du e-marketing

8ème journée de recherche sur le e-marketing

Université de Paris I Panthéon Sorbonne- 11 Septembre 2009

APPEL A COMMUNICATION

Avec le soutien de l’Association Française du Marketing (AFM) et de l’Association Information et Management (AIM), le Pôle de Recherche Interdisciplinaire en Sciences du Management (PRISM) organise une journée de recherche sur le e-marketing.

Cette manifestation est l’occasion de s’interroger, d’une part, sur les spécificités comportementales de l’utilisateur d’Internet et, d’autre part, sur la manière dont les entreprises s’y adaptent par une offre commerciale et technologique adéquate. En ce sens, cette journée de recherche se propose d’appréhender le phénomène Internet de manière transversale en privilégiant les apports du marketing et des systèmes d’information.

Les papiers proposés peuvent prendre différentes formes : des états de l’art, des recherches en cours, des résultats d’études empiriques. A titre indicatif, et sans qu’il s’agisse d’une liste exhaustive, il est envisageable de traiter les sujets suivants :

  • Facteurs explicatifs du comportement de l’internaute

  • Marketing stratégique et Internet

  • Acquisition et traitement de l’information sur Internet

  • Les nouvelles formes d’intermédiation électronique (agents intelligents, moteurs de recherche, etc.)

  • L’interface homme – machine en commerce électronique

  • Etudes de marché et Internet

  • Design et e-marketing

  • Conception virtuelle et e-marketing

  • Internet et management du point de vente

  • Internet et automatisation de la force de vente

  • E-logistique

  • Internet et pricing

  • Etc.


Procédure d’évaluation des papiers

Les communications soumises à cette journée de recherche devront respecter les normes de mise en page de la revue Recherche et Applications en Marketing. Elles devront être adressées exclusivement par courrier électronique (format RTF) à Jean-François LEMOINE (jflemoine30@hotmail.com).

Chaque papier fera l’objet d’une évaluation anonyme par 2 lecteurs.

  • Date limite de réception des communications : 21 Juin 2009

  • Retour des avis des lecteurs : 13 Juillet 2009

  • Date limite de réception de la version finale de l’article : 6 Septembre 2009

Marketing

  • Jean Claude ANDREANI (ESCP-EAP)

  • Olivier BADOT (ESCP-EAP)

  • Joël BREE (Université de Caen – ESC Rouen)

  • Christophe BENAVENT (Université de Paris X Nanterre)

  • Sylvain BIARDEAU (Université de Lyon III)

  • Jacques BOULAY (ESSCA Angers)

  • Jean-Louis CHANDON (Université Aix Marseille III)

  • Jean-Marc DECAUDIN (Université de Toulouse – ESC Toulouse)

  • Brigitte DE FAULTRIER (ESSCA Angers)

  • Pierre-Louis DUBOIS (Université Paris II Assas)

  • Jean-Marc FERRANDI (Université de Nantes)

  • Hervé FENNETEAU (Université de Montpellier)

  • Marc FILSER (Université de Bourgogne)

  • Jean-Philippe GALAN (Université de Toulouse)

  • Claire GAUZENTE (Université de Poitiers)

  • Jean-Claude GILARDI (Université de Nancy)

  • Pierre GREGORY

  • Francis GUILBERT (Université de Lille)

  • Jean-Pierre HELFER (Audencia-Nantes)

  • Patrick HETZEL

  • Alain JOLIBERT (ESA Grenoble)

  • Richard LADWEIN (Université de Lille)

  • Jean-Marc LEHU (Université Paris I Panthéon Sorbonne)

  • Jean-François LEMOINE (Université Paris I Panthéon Sorbonne – ESSCA Angers)

  • Jean-Pierre MATHIEU (Audencia – Nantes)

  • Jean-François NOTEBAERT (Université de Bourgogne)

  • Jean-François TRINQUECOSTE (Université de Bordeaux)

  • Bertrand URIEN (Université de Bretagne Occidentale)

  • Eric VERNETTE (Université de Toulouse)

  • Pierre VOLLE (Université Paris IX Dauphine)

  • Monique ZOLLINGER (Université de Tours de Tours)

Systèmes d’information

  • Jacky AKOKA (CNAM-Paris et INT)

  • Serge BAILE (Université de Toulouse-ESC Toulouse)

  • Bernard BALLAZ (ESA Grenoble)

  • Dominique BRIOLAT (ESSEC-Paris)

  • Ludovic LEBART (ENST Paris)

  • Jean-Fabrice LEBRATY (Université de Nice)

  • Moez LIMAYEM (City University of Hong Kong)

  • Rolande MARCINIAK (Université Paris X Nanterre)

  • Frantz ROWE (Université de Nantes)