29 février 2008

Workshop 13 mars 08: Modéliser les données single source - autour de Behaviorscan


Il fût une grande époque du marketing et des marchés test, nous souvenons nous des Assessor et autres Perceptor qui fondaient d’une certaine manière les bases du Marketing Science, dont les travaux abondants se trouvent dans la revue éponyme et font les délices de Journal of Marketing Research. Ce fut les années 70. A l’heure des hippies, le marketing science naissait.

Ce rêve ou ce fantasme, a été pour les chercheurs en marketing, de rassembler toutes les sources de données imaginables, pour mesurer et évaluer une fonction fondamentale du marketing mix.

Cette fonction est relative à la part de marché de la marque i (MSi) qui est fonction de l’effort Ai qu’elle fournit au regard de l’effort fourni par l’ensemble de ses concurrents. Cet effort étant lui-même fonction des différents efforts fournis en termes de qualité de produit, de communication, de promotion, de marketing direct, de prix et de toutes les autres variables d’action Xit, et de leur efficacité relative beta. Ce modèle de base pouvant être complété par les fonctions de réaction, chaque action de l’un entraînant des réactions des autres(Xj, t-k). Il est peu de dire qu’une immense littérature s’est développée autour de cette équation fondamentale, et que celle-ci sans réduire toutes les facettes des problèmes à modéliser en est la matrice fondamentale.

Une des plus grandes opportunités offerte par ce mouvement a été l’apparition dans l’industrie des biens de grande consommation du développement du scanning. Avec les lecteurs de code barre le marketing research a connu une nouvelle époque.

Dans ce contexte, une des sources de données les plus intéressantes de ce point de vue sont les marchés tests « single source » qu’on construit des groupes tels que GfK avec sa filiale MarketingScan qui entretient BehaviorScan, IRI ou Nielsen dans les années 80. Il s’agit d’un double dispositif, à savoir d’un panel de consommateurs combiné avec un outil de mesure de l’audience média qui permet de regrouper des données d'achats et des facteurs d'influence marketing (exposition à tous types de medias, promotions des points de ventes, marketing direct), et d’un panel distributeurs. Le grand intérêt est de permettre théoriquement de mesurer directement les effets et l’efficacité d'actions marketing ou publicitaires sur les comportements d'achat (comportement d’achat individuel, comme les taux de premier achat et achat répété, le switching ainsi que la duplication d’achat, puis le CA, et les part de marchés).
L’intérêt de ce dispositif a été et est bien évidemment inestimable à la fois pour les chefs de produits, responsable marketing ou chargés d’études pour s’assurer du véritable retour sur investissement des campagnes publicitaires, comme pour les universitaires et chercheurs pour comprendre les phénomènes de marché. Ils ne promettaient pas moins qu'un changement révolutionnaire en termes de méthodologie de mesure d’efficacité d’actions marketing. Cependant, ils ont contribué également à des débats les plus controversés entre universitaires et le lobby des publicitaires. On se souviendra des fameuses publications de Leonard Lodish (1995a[1] et 1995b[2]) dans Marketing Science et dans Marketing Science (How TV Advertising Works: A Meta Analysis of 389 Real-World Split-Cable TV Advertising Experiments."), sur l’efficacité publicitaire sur le court et long terme réalisés à partir des données single source BehaviorScan. Lui et son équipe ont été les premiers à utiliser à grande échelle les données single source et de remettre en question des préjugés établis par le lobby des publicitaires. Il contribuera notamment à répondre à la fameuse question “I know that only half of my advertising works; I just don't know which half”.
Malheureusement, l’avenir prometteur de ce type de dispositif a été freiné par une polémique sur la façon dont ces données devraient être employées. Les promoteurs, surtout des universitaires, préconisaient l'utilisation de ces données comportementale pour l'optimisation des campagnes TV, les adversaires, des publicitaires et annonceurs, étaient pour une approche classique de segmentation par l’emploi de données démographiques. L'industrie n'était visiblement pas encore prête à un changement de mesure d’efficacité média au delà d'une quantification de la valeur de leurs produits en termes de variables démographiques.
Et les défenseurs des données de single-source pouvaient seulement voir la valeur intrinsèque des données comme contraste à ce qui pourrait être renseigné sur des assistances de TV par l'analyse seuls des profils démographiques. L'industrie de publicité a finalement voté contre les données single-source à cette époque, préférant la description à l’explication causale. Sans doute ont-il voulu protéger leur business. Cependant, la bouteille a été ouverte et les mauvais esprits s’en sont échappés. Le phénomène panel single source ne pouvait plus être arrêté.

La prolifération de ce type de données est évidente aujourd'hui, débordant les seuls aspects de la publicité : marketing direct, promotion, cartes de fidélité, megabases, une multitude de sources fait sourdre des torrents de données, qui se fondent en un fleuve d’information.

Les annonceurs ainsi que les distributeurs les emploient pour trouver des réponses à toutes les facettes de la planification marketing (i.e. optimisation budget publicitaire, lancement de nouveaux produits, campagne marketing direct, catégorie management). Nous ne parlons pas seulement des universitaires américain, mais de plus en plus européens qui se sont appropriés ces terrains d’études phénoménales pour donner des réponses à des problématiques de recherche en marketing.

Une des entreprises les plus actives dans le domaine est GfK, avec sa filiale MarketingScan qui entretient le panel « single source » BehaviorScan avec un panel de consommateurs (9000 foyers) qui permet de regrouper des données d'achats et des facteurs d'influence marketing (exposition à tous types de medias, promotions des points de ventes, marketing direct) et un panel distributeurs (24 grandes surfaces) à Angers et au Mans. Le marché test BehaviorScan est une méthodologie d’étude, utilisée en Europe aujourd’hui par les plus grands annonceurs de la grande consommation (Coca Cola, Danone, Ferrero, General Mills, Kellogg’s, Kraft Foods, L’Oréal, Nestlé France, Orangina – Schweppes, Procter & Gamble, Unilever, Yoplait pour ne citer que quelques uns) dans trois pays : Etats-Unis, Allemagne et France.
Plus de 700 études, apportant des réponses précises à des problématiques aussi diverses que le lancement d’un nouveau produit, la modification d’un élément du mix marketing d’une marque existante, le test d’une nouvelle stratégie média ou la mesure de l’efficacité d’une opération de marketing direct, témoignent du énorme succès des panels single source.
Des questions telles que :
- une distribution de prospectus permet-elle de recruter de nouveaux clients ?
- quel est l’impact d’une tête de gondole sur le niveau de consommation ?
- un produit gratuit contribue-t-il e à la fidélisation à la marque ?
- une animation en magasin génère-t-elle une anticipation d’achat ou une augmentation durable de la consommation ?
- quel est le potentiel d’un nouveau produit ?
- quelle est l’éventuelle cannibalisation par rapport aux produits existants ?
- quel est l’apport du nouveau produit à la catégorie ?
- quel monitoring de lancement ?

y trouvent une réponse quantifiable.

Cependant, aujourd’hui de nouveaux enjeux d’études de marché se dessinent. La grande vague marketing orienté client avec des programmes de fidélisation distributeurs crée des nouvelles sources de données « micromarketing » à un niveau magasin.

A cela s’ajoute que la communication se fait plus diffuse serpentant dans les méandres du fleuve internet. Moins que la part de marché la valeur client devient de plus en plus l’indicateur de mesure dominant. Et les marchés tests « single source » qui étaient un « laboratoire isolé » devient aujourd’hui une sources de données parmi d’autres.

Quelles sont alors les perspectives pour l’avenir ?

Une évolution méthodologique sera certainement la fusion entre les dispositifs de panel avec les bases de données des magasins et les informations des annonceurs, permettant de compléter les informations panel décrites plus hautes par celles des programmes de fidélisation et des actions marketing. Un projet va dans ce sens aux Etats-Unis, où des entreprises intersectorielles (Kraft Foods, IBM, Information Resources Inc. (IRI), PricewaterhouseCoopers, ACNielsen, quelques distributeurs et Catalina Marketing) se sont regroupées dans un programme pilote, s’appelant Shopper*Direct, qui relie les données d’achat scannérisées du panel consommateurs HomeScan (55.000 foyers américains) à celles provenant des points de ventes des distributeurs.
Une autre projet similaire est la collaboration entre d’un côté le panelist Nielsen, l’entreprise de conseil média Arbitron Inc., et de l’autre côté des annonceurs comme Procter & Gamble, Unilever, Kraft, Johnson & Johnson, SC Johnson, Wal-Mart et Pepsi-Cola. Cependant, ce dernier projet a été récemment abandonné pour des raisons de coûts (investissement jusqu’à présent : plus de 30 millions de $ !!).

L'évolution technique s'inscrit sans doute dans le développement des système d'identification, au code-barre dont le rôle a été essentiel, risque de succéder le RFID dont on peut penser qu'il va systématiser cette culture de la mesure, de la modélisation, et du contrôle de la performance marketing.

Quant à l'évolution du marketing research, il est fort à penser que plus que la part de marché, compte-tenu des changement de stratégies marketing, c'est à dire l'évolution vers un marketing orienté client, ce sont des indicateurs tels que la Life-time value qui risque d'être au centre de l'effort de modélisation. Ce sera l'objet de la scéance du workshop TiM du 13 mars 2008.

Lars Meyer-Waaden, Université Toulouse III.

Références Bibliographiques

[1] Lodish, L.M., Abraham, M, Kalmenson S, Livelsberger J. et al. (1995), “How T.V. advertising works: A meta-analysis of 389 real world split cable TV Experiments ”, Journal of Marketing Research, 32, 2.125-39.
[2] Lodish, L.M., Abraham, M, Livelsberger J., Lubetkin B et al. (1995), “A summary of fifty-five in-market experimental estimates of the long-term effect of TV advertising”, Marketing Science, 14, 3, 2. G133-141.

26 février 2008

Laurent Bravetti : L’implémentation des stratégies CRM dans les PMEs


La problématique de l’échec dans la mise en œuvre des systèmes CRM dans les entreprises (autour de 80% d’échec) nous amène à nous poser la question des causes qui semblent être relativement indépendantes de la typologie ou du secteur d’activités de l’entreprise.


La littérature scientifique est riche d’articles tentant d’apporter des explications à ces causes d’échecs, des solutions potentielles voire des modèles de mise en œuvre visant à faire diminuer le risque.


Plusieurs réponses sont apportées. La première consiste à utiliser le modèle du coalignement des facteurs stratégiques, organisationnels et informationnels cher à Venkatraman. Une seconde explication provient de la résistance au changement induit par l’intégration d’une nouvelle technologie ou d’un nouveau modèle d’organisation lié à un repositionnement du « client » dans l’entreprise et aux modifications de champs de pouvoir qu'il induit. Une troisième voie tente de démontrer que dans les entreprises ayant un modèle organisationnel centré sur le client les échecs d’implémentation sont beaucoup moins nombreux. Une autre option s’expliquerait par le modèle TAM d’acceptation des technologies dans les entreprises. Le comportement des utilisateurs face à un nouveau progiciel CRM serait induit par les deux facteurs que sont « l’utilisabilité » (qu’apporte comme bénéfice la technologie dans mon travail) et la « facilité d’utilisation ».


Le cadre théorique s’organise autour d’un modèle s’appuyant sur les grands facteurs clés de succès de l’implémentation d’une telle stratégie : la capacité à lever la résistance au changement, la maturité technologique, l’alignement stratégie-organisation-IT, l’orientation marché. Ces facteurs clés peuvent être autant de paramètres d’un modèle à tester. Il faudra analyser les interactions entre ces facteurs, les pondérations et la réelle influence.


L’option méthodologique choisie à cet stade de la recherche est principale qualitative, et s'appuie sur l'analyse d'un certains nombre de cas. Dans chacun de ceux-ci, les principales explications mentionnées précédemment sont employées comme grille d'analyse.


Ce travail devrait permettre aux entreprises de mieux se préparer à la démarche d’implémentation d’un système CRM en s’organisant plus efficacement autour du client, de faire le meilleur investissement possible, de démarrer le plus rapidement possible sur le nouveau progiciel et d’obtenir un retour sur investissement le plus rapide possible.


Cette thèse s'inscrit dans une collaboration de recherche entre le CEROS de l’Université Paris Ouest- La défense (ex UPX), avec le groupe de travail TIM et le Centre de Recherche Public Henri Tudor au Luxembourg.


Après un diplôme d’ingénieur à l’Esial de Nancy, Laurent Bravetti a intégré le Centre de Recherche Public Henri Tudor (Luxembourg) où il a débuté ma carrière en menant des prestations de conseil en entreprise sur l’accroissement de la productivité. Il a géré un projet de recherche sur le déploiement des ERP avant de démarrer des réflexions autour du CRM. Il gère ce projet de recherche tout en accompagnant les entreprises dans une réflexion globale sur le positionnement du client au cœur de l’organisation. Il intervient également sur la problématique du Customer Focus au sein de l’administration publique luxembourgeoise.

  • White paper : “ From a political point of view to a constructivist approach of the key success factors in CRM implementations “

25 février 2008

Chercheurs


Nos étudiants, et tous nos lecteurs, sont sont à la recherche de sources et de ressources, voici une liste au fil de l'eau de chercheurs qui à un titre ou à un autre peuvent apporter à une réflexion générale et parfois plus technique, sur les technologies du marketing. Les catégories sont arbitraires, la sélection inachevée..mais on y trouvera assez de points de départ pour laisser la pensée divaguer dans le labyrinthe des pensées. Ce n'est pas une bibliothèque, juste une de ses porte d'entrée...


Marketing ( France)
  • Sylvie Llosa : Une spécialiste des questions de satisfaction et de réclamation, auteur du modèle tetraclasse, Professeur à L'université d'Aix en Provence.
  • Paul Ngobo : un des spécialistes du quantitatif et des effets de la satisfaction en France, professeur à l'Université d'Orléan.
  • Philippe Aurier :
  • Dominique Crié :
  • Lars Meyer-Waarden

Marketing ( International)
  • Parasumaran
  • Berry
  • Tax


Communication


  • Le blog de Danah Boyd est formidable. Il traite des question de Computer Mediated Communication.
  • Dominique Cardon
  • La documentation : Jean-Michel Salaun
  • André Gunthert : il anime une équipe remarquable sur l'histoire visuelle contemporaine, mais sa réflexion est précieuse quant au rapport de l'image, de la technique et de la société.
Economie
Management
  • Le point de vue de Nicholas Carr a défrayé plus d'une fois la chronique.
Technologies

Sociologie

  • Bruno Latour : un des représentant de cette sociologie des objets qui devient nécessaire à la compréhension des rapports entre technologie et action humaine ( Mais la technique n'est-elle pas l'action?)
  • Sherry Turkle: Professeur au MIT elle étudie les relations des hommes aux objets techniques...
  • Manuel Castels
Philosophie :

Droit


21 février 2008

Projet évaluation des coûts et marketing client



L’évolution des méthodes de gestion contemporaines est largement influencée par le développement des technologies de l’information qui aiguisent la nécessité de mesurer, de contrôler, de maîtriser les opérations. Si l’objet du marketing est fondamentalement de développer un pouvoir de marché, de forer les canaux qui mènent au marché, d’ajuster les conditions tarifaires, d’informer justement et complètement, de s’adapter à la demande, il est source de coûts et d’investissements dont le rendement mérite une analyse rigoureuse. Ainsi le marketing propose-t-il au comptable, au contrôleur de gestion des défis intéressants : comment mesurer la valeur d’une marque, celle d’une clientèle, comment allouer des ressources entre des stratégies, des canaux, des produits... créant d’une certaine manière un nouvel horizon de recherche.

Les technologies mais aussi les évolutions des techniques comptables ouvrent aujourd’hui la voie d’analyses de performance financière fines. Les contributions du courant « strategic cost management », liant comptabilité de gestion et création de valeur, doivent aussi être prises en considération. Les travaux s’inscrivant dans ce courant tentent d’opérationnaliser la relation coût/valeur-satisfaction client.

Ces réflexions menées de manière relativement indépendante dans les champs du marketing et de la comptabilité de gestion illustrent l’intérêt des problématiques situées à l’intersection de l’orientation client et de la « customer accounting ». Des réplications et des approfondissements sont indispensables.

Les questions sont multiples :

  • quelles sont les pratiques des entreprises ?
  • comment les informations relatives aux coûts sont-elles utilisées ? Comment sont-elles intégrées aux typologies de clients ? Quel est leur impact sur l’allocation des ressources ?
  • la marge par opération ou par client constituent-elle une approximation satisfaisante du résultat, voire de la rentabilité ?

Pour mener à bien ce projet, nous recherchons :

  • des entreprises ayant déjà une expérience dans l’évaluation des résultats/marges par client ou segments de clients pour dresser un état des pratiques (modalités d’évaluation, utilisation de l’information…) ;
  • des entreprises développant des projets dans ce même domaine, pour comprendre le déroulement de tels projets, leurs objectifs, les ressources engagées, les difficultés rencontrées, les choix technologiques, les modélisations retenues et les informations obtenues ;
  • des étudiants de master recherche qui seraient intéressés par la réalisation d’un mémoire consacré à ces problématiques avant d’envisager un travail doctoral (sous la forme d’une convention CIFRE éventuellement).

Ces réflexions feront l’objet d’une journée de travail (workshop) visant à stimuler les échanges autour des expériences des praticiens et des résultats académiques. Nous ne manquerons de vous tenir informés dans ces pages des évolutions du projet.

Ce projet est développé à L'université Paris X au sein du CEROS, par Christophe Benavent, et à L'IAE de Lille au sein du LEM, par Olivier de la Villarmois, et Yves Levant

19 février 2008

La force des réseaux sociaux : matérialisation, motivation ou oblation ?



Myspace, Facebook, Linkin, Bloglog et de nombreux autres services du net se sont appropriés sans vergogne la qualité de « réseau social ». L’appellation est d’autant plus choquante, que la société n’a pas attendu les technologies de l’information pour tisser entre ses membres et leurs organisations ce que depuis bien longtemps les sociologues appellent des réseaux sociaux. Rendons hommage à des Granovetter, Ronald Burt, et en France Degennes ou Emmanuel Lazega, pour l’effort d’analyse qu’ils poursuivent dans l’élucidation et la compréhension de ces structures fines de la société.

Quand à ces technologies ne les vouons pas aux gémonies pour cet emprunt, il est encore une fois le symptôme du nominalisme. Examinons plutôt quel est le ressort de leur fulgurant développement, et l’importance qu’ils risquent de jouer dans les pratiques marketing.

Leur point commun à tous est de permettre à chacun, avec un effort réduit, de créer une liste de ses collègues, amis, parents, et sans coût supplémentaire plus élevé qu’un clic de les inviter à faire la même chose. De proche en proche on imagine que chacun convoque les siens dans une arithmétique qui relève de la suite. Un ouvrage célèbre ce phénomène au travers de l’expérience à 6 degrés. Comprenons bien, si 20 personnes en contactent 20, qui elles-mêmes font de même, à la fin de cette chaîne de St Antoine 64 millions sont touchées au sixième degré. Au septième ils sont 1,2 milliard et au huitième, chaque habitant de la planète aura été atteint au moins 4 ou 5 fois !

Malheureusement ces chaînes de Saint-Antoine s’éteignent bien avant. L’expérience de Myspace plafonne à 120 millions, et quoique fusse rapide l’expansion de facebook, on espère peu qu’il aille très au-delà. Ceci dit toucher de 10 à 20% de la population du net n’est pas rien, et peu de médias en font autant. La raison en est simple, de proche en proche, les partenaires contactés sont de moins en moins intéressés par cette nouveauté car ils sont de moins en moins concernés, c’est un effet classique de sélection statistique. La proportion d’innovateurs décroît avec la diffusion du réseau. En examinant les choses de plus prés, on s’apercevrait d’ailleurs d’une très grande hétérogénéité. Si quelques-uns affichent plusieurs centaines ou milliers de contacts, une grande majorité se contente d’un deux ou trois. Duncan Watts a bien analysé cette question et s’est en particulier intéressé aux applications publicitaires, en proposant, face à l’échec général des campagnes dites de marketing viral, des stratégies d’essaimage. Reprenant au fond la dynamique du modèle de Bass.

Mais cette observation n’est pas suffisante. Il faut s’intéresser à la question de qui est contacté. De manière générale, la diffusion de ces réseaux virtuels s’appuie sur les réseaux existants. On y met ses amis, ses collègues, ses parents, et l’on matérialise ainsi des liens déjà noués. Très certainement cela a pour effet de renforcer des liens qui pouvaient être auparavant plus lâches, mais cet effet est-il permanent, durable ? Ces réseaux renforcent-ils vraiment les réseaux réels qu’ils matérialisent ? C’est une question de recherche importante. Une seconde question est de savoir si ces réseaux créent de nouvelles relations, et facilitent la création de liens qui ne préexistent pas ? Quelle proportion de ces liens par rapport aux précédents ? Ont-ils un caractère durable, profond, sont-ils faibles ? Très certainement ceci varie en fonction à la fois des populations et des systèmes. Qu’un Facebook qui concerne plutôt une population dont le nombre de contacts est structurellement élevé (l’environnement de l’école ou de l’université le favorise) et dont le caractère technique est l’ouverture, se diffuse rapidement est assez peu étonnant. Les réseaux plus fermés, tels que les réseaux professionnels du type de Linkin, ou plus communautaire comme MyBloglog, et qui touchent une population dont le tissu relationnel est peu étendu, la vie professionnelle ne favorisant pas toujours l’étendue des carnets d’adresses, auront très certainement une diffusion moins rapide. Cela mérite là encore un examen plus précis, plus empirique. Le nombre d’adhérent n’est en aucune mesure la mesure de la vitesse de diffusion. Quiconque a étudié les modèles épidémiologiques (nous renvoyons à un post précédent sur le modèle de Bass), sait que cette diffusion doit être mesurée à l’aune de la capacité de portance, autrement dit le potentiel.

Si les réseaux matérialisent des relations sociales qui pré-existent, en acceptant qu’il offre la possibilité de créer des relations nouvelles, nous n’épuisons pas encore la problématique de leur capacité à structurer l’espace social. Il faut faire intervenir là l’hypothèse de la polarisation. Il est en effet raisonnable que les cliques qui se forment rassemblent ceux qui partagent les mêmes intérêts, les mêmes valeurs ou opinions, et si cette hypothèses se confirment les réseaux sociaux moins que d’unifier, de lisser, un espace social fragmenté, renforceraient cette fragmentation, et créeraient moins de nouveaux continents que réduiraient les anciens à l’état d’archipel. Ce qui poserait de sacrés problèmes aux marketers, dans la mesure où leur tâche serait pour diffuser largement leur message, d’identifier ces archipels et d’y adapter leur communication. Ceci rejoint la proposition de Watts, l’usage des médias de masse pouvant être comparé aisément à la stratégie des cocotiers des îles : pour se reproduire, leurs noix sont disséminées sur le sable, et surtout vont traverser les océans.

Jusqu’à présent nous nous sommes intéressés aux propriétés structurales des réseaux sociaux, soulignant quelques arguments qui en nuancent la force. Moins que de créer un nouveau monde, ils matérialisent l’existant, et le durcissent à plus d’un égard. Il nous reste à nous interroger sur leur réelle dynamique. Celle-ci semble moins tenir dans la magie du réseau, que dans une psychologie et une économie de la motivation. Les exemples de Mybloglog, ou de Facebook sont tout à fait intéressants. La première génération d’instrument de motivation se constitue au travers de ces dispositifs techniques ingénieux que sont les widgets. En proposant aux usagers des services gratifiants, listes de blog, listes des derniers lecteurs, et peu coûteux, il suffit de copier quelques lignes, ils encouragent la diffusion, en devenant par l’installation du gadget, eux même diffuseurs du réseau. Et puisque nous avons utilisé la métaphore d’une graine, qu’importe que sa coque soit dure, poursuivons avec celle des noix de l’arganier, qui sont toute aussi dures, et nourrissent la chèvre qui les déguste pour les semer ailleurs.

Facebook a systématisé cette stratégie, de manière double : en stimulant un grand nombre de développeurs, par l’usage d’un langage simple, et ainsi en offrant des milliers de gadgets aux utilisateurs finaux. Quizz, jeux d’échanges, palmarès, le trait commun de ces applications est d’offrir une gratification immédiate à ceux qui les installent, en échange d’un coût réduit, celui de les renvoyer à ses amis. Juste un souffle d’air suffit pour faire voler les graines aux quatre vents, comme la fleur de pissenlit dont un Larousse s’est fait longtemps le symbole. Ne nous laissons pas tromper par les images, même si leur avantage est de rappeler que les réseaux sociaux tiennent plus de l’écologie de la reproduction, que d’une économie de l’échange. Au cœur de leur diffusion, il y a l’application systématique d’une méthode de motivation, que nous apprécions au regard des enjeux proposés et des compétences acquises, dans la tradition d’une école psychologique à la Bandura, ou à la Ryan et Deci. Pour diffuser largement, ces motivations doivent tenir compte de compétences modestes, et limiter l’enjeu de leurs gratifications. De ce point de vue, Facebook est un modèle. Il nous semble que c’est cet élément motivationnel qui est la principale force des soit disant réseaux sociaux. Elle l’est d’autant plus que l’intérêt de ses membres est faible, que leur volonté d’inventer de nouveaux liens est velléitaire.

On serait tenté de proposer la typologie suivante :


Implication dans l’usage élevée

Motivation à maîtriser les réseaux faible

Propension à créer des réseaux

Mybloglog : offrir aux membres des outils qui structurent et étendent les flux d’informations qu’ils produisent

Linkin : offrir aux membres la capacité de créer de nouveaux liens, et de nouvelles relations

Matérialisation du réseau existant

Myspace : offrir aux membres la capacité d’offrir à leurs partenaires des ressources riches

Facebook : offrir aux membres le moyen de révéler les communautés auxquelles ils appartiennent

Reste à conclure sur un dernier aspect, qui n’est pas le moindre, de l’économie de ces réseaux. En dépit des simulacres de marché qu’il propose, la nature de ces échanges procède bien plus d’une économie du don que de celle de l’offre et de la demande. Du point de vue du membre du réseau, la valeur finale de celui-ci, ne vient pas tant des échanges immédiats, qui l’incitent à en devenir le prosélyte, mais dans le flux continu et abondant d’informations qui lui viennent en retour de ses dons successifs. La satisfaction ne vient pas de la somme des satisfactions procurées par les paires d’échange, mais indirectement du fait qu’il soit sans l’avoir prévu le récipiendaire inattendu d’une information qui lui vaut excessivement et accidentellement. Là est peut être la vraie force des réseaux sociaux. Leur capacité à organiser cette économie du don telle qu’un Caillé tente de promouvoir et de penser dans sa revue du Mauss. Il faudrait alors entrer dans ces distinctions fines, le don est aussi bien une forme de partage, d’autant plus aisé que le partage coûte peu, qu’une forme de compétition. L’enjeu de ses réseaux est leur structuration autour de quelques individus, qui moins que leader d’opinion apparaissent comme de grands donateurs, et deviennent les figures centrales des îles de l’archipel. Des big Men ? Et nous serions tentés à l’instar de Godelier, d’examiner ce qui n’est pas donné. Mais c’est une autre histoire.

Pour le praticien, il y a dans tout cela moins de mystère que la nécessité de penser clairement son action. Peu de magie, mais l’exigence de comprendre la nature de ces structures, l’écologie de son organisation, l’essence de sa dynamique, et par-dessus tout d’en comprendre les mécanismes motivationnels. Nous reviendrons sur les quelques pistes esquissées ici dans de prochains posts.

18 février 2008

Workshop 29 janv 2007 - L'Album On-Line - Eric Vernette

L’album on line© , est une nouvelle méthode pour interpréter les sens d’une expérience de consommation. Cette méthode qualitative est née sur Internet : elle traque le sens d’une consommation au travers du partage d’albums d’image individuels constitués par des consommateurs réels ou potentiels. La méthode s’appuie sur le potentiel fourni par les moteurs de recherche d’image sur le web (type Google image). Eric Vernette, CRG, Professeur à l’ IAE de Toulouse I, son inventeur l'a présentée lors de l'atelier du 29 Janvier 2008.

Chaque membre de groupe sélectionne sur Internet les images qui correspondent le mieux à l’expérience proposée. Tout commence par un scénario d’achat ou de consommation proposé par le modérateur du groupe. Le répondant commence par répondre à différentes questions de type entretien individuel en profondeur, puis il introduit les mots clés qu’il juge les plus pertinents dans un moteur de recherche d’image. Il en sélectionne une vingtaine, puis se focalise sur les 5 préférées. Celles-ci composent son album où il commente (dans une vignette prévue à cet effet) chaque image, explique pourquoi il a l’a choisie, raconte une histoire à son sujet, etc. Puis il renvoie tout cela au modérateur du groupe. Ce dernier réalise l’union des différents albums individuels qu’il renvoie aux membres du groupe.

Dans la seconde évaluation, le répondant a la possibilité de faire siennes les images proposées par les autres membres du groupe, ou de conserver ces premières images. On obtient, à la fin d’un processus itératif, comparable à celui de la méthode Delphi, un album final qui synthétise les différents albums individuels. La méthode met à jour des représentations à la fois stéréotypées, mais d’autres plus riches et porteuses de sens pour le marketing, notamment par le filtre métaphorique. En final, il est possible en se basant sur une analyse des données textuelles (manuelle ou automatisée) de produire un « mapping » des représentations du groupes. La Figure 1 présente une métaphore produite par un groupe pour illustrer la consommation d’un parfum avec les quelques verbatims qui lui sont associée.

«Le parfait par la représentation du papillon ; quelque chose de léger, de pratiquement imperceptible lors de son vol ; associé aux lèvres d’une femme cela donne la représentation d’une caresse douce et légère ».« Evoque le printemps, toutes les fleurs et les différentes senteurs qui se dégagent ; ce papillon a une jolie couleur, la même que le rouge à lèvres ». « Reflète bien le parfum (si l’on n’en met pas des tonnes !), quelque chose de doux. Cet animal si léger pourrait être un bon logo pour une marque de parfum » « Un zeste de parfum, aussi léger qu’un papillon, mais laissant une empreinte, telle que le rouge à lèvres ; le rouge évoque un parfum sensuel, tenace, quasi indélébile ; une touche parfumée, délicate ». « La douceur d’un papillon qui viendrait se poser délicatement sur votre bouche..Que du bonheur !! La couleur des lèvres (rouge soutenu Chanel n°5) me fait penser à une parfum pour femme très chic, organisée, chef d’entreprise. Une senteur envoûtante » « Ce joli papillon qui se pose sur ces lèvres délicates et pulpeuses représente idéalement la fragrance d’un parfum. Le rouge est flamboyant et inspire une certaine pureté. La brillance des lèvres fait penser à une pomme d’amour que l’on aurait envie de croquer. Toute femme devrait associer cette belle couleur à un parfum irrésistible pour faire craquer complètement un homme »

La Figure 2 propose une autre métaphore produite par un groupe de surfeurs réguliers pour représenter leur passion.

« J'aime beaucoup ce tableau, ça peut paraître bizarre de l'associer au surf, mais finalement trouve qu'il évoque bien l'image de vie, de chaleur, de convivialité, de mélange de couleurs jeet de culture associés à la " culture surf " dans mon esprit » « Cette photo je l’ai choisie pour les raisons cités lors de la seconde phase de l'étude. Couleur chaudes, joie, gaîté, tous les ingrédients sont dans ce tableau pour me donner envie de faire du sport et surtout m’y faire penser....Cette image me correspond totalement à ce que je suis et je trouve que les formes ressemblent aux rouleaux fait par les vagues... »

La Figure 3 donne le mapping issu de l’analyse de contenu du groupe Parfum soumis à un scénario affectif de consommation, selon la « Roue » des représentations de l’album final « Parfums , scénario affectif»

E. Vernette.

Pour aller plus loin :

Vernette E. (2007), Une nouvelle méthode pour interpréter le sens d’une expérience de consommation : l’Album On Line (AOL), Actes de la 12ème Journée de Recherche en Marketing de Bourgogne, CERMAB-LEG, (Actes CD-ROM).

Vernette E. (2008), Comprendre et interpréter une expérience de consommation avec « l’Album On-Line » (AOL) : une application au surf des mers, 7ème congrès international sur les tendances du marketing, Paris, EAP-ESCP, (Actes CD-ROM).

Audrey Bonnemaizon – Mise en œuvre de l’orientation-marché : le cas d’EDF

La thèse d’Audrey Bonnemaizon vise à étudier sur la base d’une étude de cas approfondie, celle d’EDF, l’orientation-marché émergeant dans l’entreprise à mesure de la dérégulation du marché, la fonction commercial évoluant d’une logique d’usager vers une logique de client.
Un modèle dominant de la gestion de la relation client est aujourd’hui le modèle technologique, où la relation est médiatisée par les technologies de l’information. Cependant l’intelligence marketing sur laquelle s’appuie le développement de la relation client s’inscrit dans le sillon tracé par un concept classique, celui de l’orientation marché, dont de nombreux chercheurs ont montré qu’elle conduisait à de meilleures performances organisationnelles.
Dès 1930, Converse met en exergue l’idée que le vendeur doit partir des désirs du consommateur pour déterminer les caractéristiques et on se souviendra de Levitt (1960) qui relève la « myopie » des dirigeants et souligne ainsi que seuls les besoins des consommateurs et non les produits imaginés et conçus par les marketers pour les clients sont le point de départ de l’élaboration d’une proposition de valeur. Mais il faudra attendre le début des années 90 pour que les chercheurs s’interrogent sur sa mise en œuvre et son déploiement effectif. Ils mettent en avant la nécessité de diffuser au sein de l’entreprise une philosophie où la satisfaction du consommateur est centrale, le marketing est une fonction transverse à toutes les fonctions de l’entreprise et l’objectif premier est l’établissement de relations à long terme avec les partenaires commerciaux et les clients, exigeant une évolution de la culture d’entreprise en faveur de plus d’attention portée au client ainsi que de nouveaux comportements organisationnels de gestion de l’information. Kohli et Jaworski (1990) notent quinze ans après le peu d’efforts théoriques et empiriques réalisés pour en comprendre le déploiement au sein des organisations modernes. Avec Narver et Slater (1990), ils réactivent ces réflexions en initiant un véritable courant de recherche, l’orientation marché, qui reste une source fertile de questionnements comme en témoignent des publications récentes (eg. Kirca et alii., 2005; Ellis, 2006 ; Gotteland et alii. 2007).
Si la littérature marketing souligne largement le lien entre l’orientation marché et la performance organisationnelle, elle est cependant relativement silencieuse sur les mécanismes qui gouvernent une telle orientation. Plus précisément, ces travaux n’abordent pas la manière spécifique dont les acteurs, qui l’organisent et la mettent en œuvre, actualisent l’orientation marché selon leur contexte commercial. La thématique de sa mise en œuvre, qui constitue notre objet de recherche, soulève ainsi trois questions de recherche : quelles formes, quels modes d’orientation marché conduisent à la performance ? Quels sont les mécanismes à l'oeuvre dans ces modes d'orientation marché? Quels facteurs conduisent à adopter l'une ou l'autre de ces formes?
La dimension culturelle de l’orientation-marché ne se lit pas uniquement dans les conduites, les comportements organisationnels. Une définition forte de la culture, suggère qu’elle est associée à un certain nombre normes positives ou négatives, à des représentations prescriptives du client qui structurent le regard des acteurs. Cette conception dynamique de la culture, comme ensemble de représentations prescriptives attachées à des manières de voir, de penser et d’agir, se rapproche de la modélisation de l’apprentissage chez Weick. Nous proposons un prolongement de l’approche culturelle de l’orientation marché : elle est un processus d’enactement s’appuyant sur des représentations projetées sur le client. Les acteurs s’attachent moins à la découverte de vérités immanentes, qu’à l’atteinte d’une cohérence interne de production d’un sens commun donné au marché. Comment ces représentations se structurent-elles ?
Dans la mesure où au sein des firmes le rapport de l’entreprise à son marché est conçu comme une relation sociale, la manière dont les évènements sont représentés, se traduit et s’organise comme un rapport de rôles. En considérant la relation client, au cœur de l’intelligence marketing, comme un rapport de rôles, ces représentations sont avant tout un système de droits, de devoirs, voire d’interdits attribués au client qui définissent en miroir l’action que se donne la firme.
En dissociant l’information de la connaissance, il est possible d’envisager aussi le déploiement de l’orientation marché comme un processus d’apprentissage organisationnel. En effet, contrairement à ce que laisse sous-entendre la littérature sur l’orientation marché, information de marché et connaissance de marché ne sont pas substituables. L’analyse du déploiement de l’orientation marché et de sa dynamique souffre du manque de reconnaissance du rôle des représentations des acteurs qui les conduisent à filtrer, hiérarchiser, l’information de marché et à reconsidérer les vecteurs de leurs actions. Dans cette logique, l’orientation marché se conçoit aussi comme un ajustement au marché s’appuyant sur des technologies d’apprentissage. Ces dernières forment des réseaux d’instruments, d’outils, d’objets, de méthodes, de techniques, que les acteurs s’approprient : la lecture qu’ils en font induit la façon d’apprécier le client et de s’y adapter.
Ainsi la thèse qui est défendue est que la réussite de la mise en œuvre de l’orientation marché résulte de l’adéquation entre une culture client considérée comme système interprétatif et la pertinence des techniques destinées à renforcer cette capacité de lecture du marché.
Le déploiement d’une recherche exclusivement qualitative se justifie dans le cadre de l’analyse d’un processus phénomène dynamique qu’est la mise en œuvre de l’orientation marché. C’est pourquoi, en immersion dans l’entreprise eDF, au sein du département ICAME division Recherche et Développement pendant 3 ans, nous avons opté pour une étude de cas unique et longitudinale (Yin, 2003): EDF nous est apparue comme une entreprise particulièrement intéressante tant dans sa nature que dans le caractère « extrême » d’adaptation au marché et de ce fait comme un laboratoire pertinent d’analyse de l’introduction et des modalités d’orientation marché. Entretiens dialogiques avec acteurs de niveaux hiérarchiques contrastés, de métiers et de fonctions diverses, documents internes, données collectées en tant que « participant-observateur », « observateur- participant » ou « passif », données collectées au cours de discussions informelles recensées dans un journal de bord ont été analysées puis confrontées pour tenter d’appréhender les caractéristiques d’une orientation marché en construction.

Audrey Bonnemaizon est Doctorante à l’Université de Pau et des Pays de l’Adour, sous la direction de Christophe Benavent Professeur à Paris X –CEROS. Elle est actuellement ATER IUT de Saint-Denis –Université Paris 13. Elle est l’auteur de plusieurs communications et publications.

  • A.Bonnemaizon (2005), La compréhension de l’organisation orientée client : une approche par les représentations sociales, 2ème tutorat collectif en Marketing du réseau ALM, Toulouse, 22 juin.
  • A.Bonnemaizon (2006), La construction du client, une analyse en termes de rôles, 15 ème Colloque International de la Revue « POLITIQUES ET MANAGEMENT PUBLIC », L’action publique au risque du client ? « Client-centrisme » et citoyenneté, Lille, 16 et 17 mars.
  • A.Bonnemaizon, B. Cova, M.-C. Louyot (2006), Représentations européennes du marketing relationnel à l’horizon 2015 : Une analyse Delphi, 5th International Congress on Marketing Trends, Venice, 20 and 21 January.
  • A.Bonnemaizon, B. Cova, M.-C. Louyot (2006), Relationship Marketing in 2015: a Delphi approach, 35th EMAC Conference, Athens, 22-26 May.
  • O.Curbatov, P. Pavlidis, A. Bonnemaizon (2006), Innover avec le Knowledge Marketing : 10ème tendance conceptuelle en mouvement, 11ème Journées de Recherche en Marketing de Bourgogne, 9-10 novembre, Dijon.
  • A.Bonnemaizon, B. Cova, M.-C. Louyot (2007), Relationship Marketing in 2015: a Delphi approach, European Management Journal, vol. 25, n°1, February.
  • A.Bonnemaizon, O.Curbatov, M.-C. Louyot (2007), Knowledge Marketing: a new trend in a flexible world, 36th EMAC Conference, Reykjavik, 22-26 May.
  • B. Cova et M.C-Louyot –Gallicher (2006), Innover en marketing : 15 tendances en mouvement, Lavoisier, Paris.Contribution à l’ouvrage (chapitre 1):

14 février 2008

Projets de Recherche TiM


Derrière l'Atelier TiM et le Blog "Technologies du Marketing", il y a un réseau de chercheurs et de doctorants au sein du Ceros et dans d'autres institutions, qui œuvrent à différents projets de recherche. Cette page aura pour but de les identifier et de les présenter.

Le séminaire est le lieu de discussion et de présentation de leurs travaux, le blog un moyen de les diffuser.

Le rôle de cette page est aussi de créer des opportunités de recherche en suggérant des sujets de thèses, mais aussi en proposant aux entreprises des projets communs.




  • Modélisation et applications de la valeur Client : Ce projet animé notamment par Lars-meyer Waarden de l'Université Toulouse III s'articule autour d'une convention de recherche établie avec MarketingScan. Il mobilise un doctorant : Herbert Casteran, enseignant à l'ESC PAU. Un autre projet de thèse en cours se déroule dans le cadre d'un contrat cifre autour du projet de thèse d’ Edmond Kouadio.
  • Analyse des coûts et Marketing Client : A l'interface de la recherche en comptabilité et du marketing client, ce projet vise à comprendre comment les systèmes d'information, ERP et CRM, intègre l'analyse des coûts et les stratégies client dans les firmes. Ce projet est initié par Olivier de la Villarmois, Professeur à l'Université de Besançon, et Yves Levant, Maître de Conférences à l'UST Lille.
  • Justice, rôle et relation client : Ce projet a été initié par un article de Delphine Baillergeau et C Benavent portant sur le comportement de réclamation. Il associe plusieurs thèses en cours : celle de Lofti Gammoudi, de Zoubir Zarouk, d'Aymeric Javelot, et d'Anne-Marie Champoussin.
  • Mise en oeuvre des stratégies orientées client : Initiée par la thèse de Audrey Bonnemaison, dans le cadre d'un contrat Cifre avec EDF R&D. Ce projet se poursuit au travers du projet de thèse de Laurent Bravetti.
  • Appropriation des technologies de la relation : principalement représenté par le travail d'Eric Barquissau, ATER à l'IAE de Pau, sur la question de la dématérialisation de la relation client. Un projet d'étude est engagé par les étudiants du Master MOI Classique.
  • Web semantique: conduit avec le laboratoire TECSI de l'Université de Sao Paulo, ce projet vise à analyser les conséquences de cette nouvelle technologie de l'internet dans le domaine des applications commerciales.

9 février 2008

Technologies du pouvoir - les machines à noter


Dans un billet précédent, nous prenions le prétexte du lancement d’un site de notation des enseignants, pour réfléchir au phénomène généralisé de la notation et au rôle que peuvent jouer les technologies de l’information.

Notre hypothèse s’appuie sur cette idée qu’il est peut probable que la notation objective réellement une performance, et joue donc un rôle fonctionnel dans les structures sociales. Nous développions un argument différent, celui que la notation est une forme particulière d’institution : un rituel. La valeur de la note résidant moins dans sa véracité, que dans sa légitimité. Et nous pouvions nous demander alors si le rôle des technologies de l’information, moins que d’en assurer l’opérationnalité, n’était pas le lieu nouveau de l’institution. Nous n’étions pas loin de penser qu’elles deviennent l’institution elle-même.

Nous étions incomplets dans l’analyse, en négligeant une analyse en termes de pouvoir. La levée de bouclier des enseignants envers ce site en est la preuve manifeste. Il est d’ailleurs intéressant d’observer comment cette résistance se manifeste : l’action en justice au motif de l’illégalité du procédé, le sabotage assumé, et un effort de dé-légitimation prenant toute les formes de l’ironie, de la contre argumentation, du procès d’intention.

Ce phénomène nous sembler relever parfaitement de la théorie du pouvoir établie par Michel Foucault. Une théorie du pouvoir qui ne s’interroge pas sur la question de sa souveraineté, et par conséquent de sa légitimité, mais envisage la relation de pouvoir. Nombreux sont ceux qui ont commenté cette conception, inutile d’en reprendre l’analyse. Le point qui nous intéresse est qu’en pensant les pouvoirs en termes de relation, l’analyse se déplace sur l’exercice du pouvoir et sur ses dispositifs, ses techniques, la discipline. Dans une littérature courante en gestion, c’est ce qui est appelé communément le contrôle (pensé très exactement comme l’exercice du pouvoir, ce dernier étant une capacité formée par le couplage de la force et de la légitimité). Nous ne résistons à proposer ici un texte de Gilles Deleuze – Post scriptum sur les sociétés de contrôle. Il correspond très exactement à ce dont nous discutons, sa clarté n’a pas besoin de nos commentaires.

Nous voudrions nous concentrer sur deux questions. La première concerne la nature même de la technologie qui par le fait même d’établir une relation entre certains éléments du corps social, relation nouvelle, suscite une nouvelle relation de pouvoir. Les machines ne sont pas neutres. La seconde porte sur le lien entre cette thèse, et notre thèse précédente.

Il suffit, ou suffisait puisque le site susnommé n’est plus accessible, de lire l’annonce des concepteurs, pour comprendre que ce site a été conçu délibérément dans une optique de pouvoir. Et même de renversement de pouvoir, puisque si de manière immémoriale les enseignants notent leurs élèves, ce qui est proposé est une notation inverse. Mais en même temps, les promoteurs n’exerce pas vraiment de pouvoir, et se contentent d’offrir les moyens de l’exercer. Ils offrent un dispositif destiné à ce que les dominés, les élèves, renversent l’ordre du pouvoir. Ceci est bien sûr tout relatif, car les enseignements conservent leur faculté de noter. Naturellement l’aspect subversif du dispositif réside en ce qu’un ordre de pouvoir établi soit brouillé. Le corps des enseignants potentiellement fragmenté par la sérialisation risque de perdre cette légitimité insécable que requiert l’exercice de leur notation. L’étonnant de l’histoire est que dans l’exercice du pouvoir par les dominants suscite des résistances des dominés. Nous sommes ici en face d’une inversion virtuelle de ce rapport. La résistance serait le fait des dominants ! Mais soyons prudent, rappelons encore que le dispositif ne s’est pas déployé, que les protestations des uns et le relatif enthousiasme des autres se construit à l’égard d’une chose potentielle qui est loin d’être actualisée.

Le point important dans ce type de dispositif pour revenir à Foucault est que son anatomie est bien éloignée de ce qu’il appelle la surveillance et qu’il a popularisé au travers du Panopticon de Bentham. Quand quelques uns sans être vus voient, celui qui est vu obéit, il est discipliné. Dans les systèmes de notation du monde de l’Internet, c’est ce qui se produit généralement. Revenons au cas d’Ebay que nous avons évoqué : la surveillance des vendeurs conduit en principe les vendeurs à éviter les comportements opportunistes et par conséquent à assurer un climat de confiance. Ce n’est pas tout à fait le cas, car dans ce type de dispositif, les surveillants sont bien plus nombreux que les surveillés et ne les surveillent pas tous. Pour pallier à une relative désaffection Ebay, vient de prendre la décision de limiter les évaluations négatives, posant au fond le problème de la surveillance des surveillants. Quand peu d’acheteurs notent, et mal, et qu’il y a peu de vendeurs, ce que la note produit est l’absence de confiance et le délitement de l’édifice social. L’exercice du pouvoir n’est pas si évident, et s’il soit se penser en termes de relation, il ne détermine pas l’ordre du pouvoir. Si les machines ne sont pas neutres, elles ne créent pas forcément de l’ordre.

Quant à notre seconde question, elle concerne le fait de savoir si on peut à la fois penser les systèmes de notation comme des rituels et comme des dispositifs de pouvoir. Sans utiliser l’argument que le rituel est un dispositif de pouvoir, interrogeons nous sur les qualités qu’un dispositif de pouvoir nécessite pour créer la relation de pouvoir. Cette qualité est la légitimité. Que la technologie du pouvoir ne soit pas neutre, et engage une relation indéterminée, n’est possible pour autant que cette technologie soit socialement acceptée par l’ensemble des participants, les dominés et les dominants. Que les uns ou les autres dénient cette propriété, le pouvoir s’évanouit.

Cette analyse mérite naturellement d’être poursuivie, le cas Ebay ou celui de Note2b, méritent une analyse plus serrée. L’abondance, et la facilité d’accès dans les forums, les commentaires, les blogs des réactions et des opinions des acteurs en fait un matériau empirique de premier plan. Voilà des idées de recherche immédiates et pratiques.

Elle conduit à une ligne de pensée en matière de technologies du marketing : les penser moins dans leur fonctionnalité, que les penser en termes d’institution et de machine de pouvoir.

6 février 2008

Etre noté ou ne pas être...


Un fait d’actualité récent, sans rien apporter de vraiment neuf, a ceci de spectaculaire, qu’il nécessite d’en faire un objet prioritaire de nos recherches sur les rôles des technologies dans les politiques marketing. Le fait est simple : le lancement d’un site de notation des enseignants, ce 29 janvier 2008 : http://www.note2be.com/.

Le fait n’est pas nouveau, l’invention de ce procédé peut être attribuée à e-bay dans son système de notation, mais cette tendance est universelle comme en témoigne le rôle accru des agences de notation, mais aussi cette initiative du gouvernement qui vise à faire évaluer l’action de ses ministres. A vrai dire, on pourrait penser qu’il ne s’agit que d’une généralisation des sondages d’opinions inventés il y a bien longtemps. Rien de neuf, le seul spectaculaire est que l’initiative devance une commission bien obscure de Xavier Darcos, et généralise une tendance lourde de notre société. L’amusant résidera sans doute dans la levée de bouclier de ses présumées victimes. Rien de neuf mais l’occasion de réfléchir à cet instrument de surveillance que la technologie, si elle ne l’invente pas, généralise.

Ce fait intéressant n’est pas dans la notation elle-même, mais dans la généralisation de sa production. Il y a bien longtemps que l’on note, notamment à l’école, dans l’administration, au sein des entreprises. Mais toujours la notation a été le monopole des experts et sa communication un exercice prudent. La nouveauté, introduite par e-bay – ce qui est a vérifier historiquement- est de faire que la note d’une part soit produite par l’ensemble des participants, et d’autre part communiquée massivement. A l’expertise de quelques uns se substitue l’intelligence des foules.

Avant de poursuivre sur ce thème, revenons sur le principe même de la notation. Noter consiste à évaluer un test par une certaine quantification. La qualité de la note réside dans sa faculté à objectiver une performance et s’appuie sur la pertinence des critères employés et de leur composition, ainsi que sur la capacité des évaluateurs à faire correspondre la performance et la notation. Validité, fiabilité et sensibilité sont ainsi les qualités fondamentales de cet exercice. Inutile de développer ce point, nous renvoyons le lecteur à la riche littérature qui porte sur les échelles de mesure. Attachons nous à la question de l’objectivation. La note n’est pas la performance, et son existence tient finalement à ce que la performance n’est pas si observable que cela. Plus simplement dit s’il existe des agences qui notent le risque, c’est que le risque lui-même est peu perceptible par les acteurs économiques, si les professeurs notent les élèves c’est que leur performance scolaire est finalement assez peu observable, si les clients de e-bay notent les vendeurs c’est que l’honnêteté de ces derniers est difficilement appréciable. Il y a besoin de noter chaque fois que la performance n’est pas observable par ceux qui ont besoin d’en tenir compte. Des agences notent les firmes car les entreprises sont incapables d’en connaître le risque, les professeurs notent les élèves car les parents n’ont aucune idée du talent de leurs enfants, on note les vendeurs car personne n’a idée du degré de confiance que l’on doit leur accorder.

La notation est ainsi une convention sociale qui permet aux différentes parties de s’accorder sur les attributs d’un sujet. Sa valeur (validité, fiabilité, sensibilité) dépend apparemment du procédé de notation. La force de la convention réside dans l’adhésion au procédé. De ce point de vue, il faut remarquer que la notation n’est pas qu’une question de qualité de mesure, mais a la valeur d’un rituel. Les notes délivrées à l’école procèdent en effet plus du rituel que de la méthode scientifique. Chacun sait que tel professeur note généreusement, l’autre sévèrement, cette simple variété met en cause l’objectivité de la note, mais au fond personne ne s’en soucie. Un accord général se constitue autour de la légitimité de la notation, sans que personne ne se soucie de sa scientificité. Pour que les choses soient claires, une mesure est peu valide si elle dépend de celui qui la produit. D’une agence de notation financière a une autre des écarts peuvent être notés, personne n’en tient compte vraiment, seul compte la légitimité de l’agence pour croire que la note est vraie. Les notes fournies par e-bay ont une certaine variance, mais au bout du compte chacun s’accorde à donner à la moyenne une valeur de vérité. Ce qui fait la valeur de la note n’est pas le procédé de notation, mais son caractère rituel : les évaluateurs sont des prêtres, la notation est une liturgie. Ce qui importe au fond n’est pas que la note soit bien construite, mais qu’elle respecte la messe. Dans le système classique, la valeur de la note réside dans l’autorité de celui qui la prononce.

Revenons au changement des procédés de notation. En une image disons que l’on passe d’un rituel à l’autre, de l’or des églises au mouvement charismatique. Ceux qui délivrent la note ne sont plus les prêtres investis de toute la science théologique, et d’un savoir patiemment acquis, mais ce tout un chacun, libre et responsable qui estime avoir une opinion à donner. Chacun peut se tromper et c’est pourquoi dans le nouveau rituel de la notation une importance toute particulière est donnée à l’agrégation. Plus nombreux seront les évaluateurs et plus précise sera la note. Plus légitime. A la légitimité des experts, succède ainsi la légitimité des pairs. Le nombre supplée à la qualité.

Ce que la technologie apporte réside finalement dans cette capacité à faire le nombre. Elle va au-delà aussi. Elle modifie le rituel dans sa temporalité. Quand autrefois la note se constituait dans un événement discret, une cérémonie initiatique (pensons au baccalauréat), la technologie invente un rituel continu. La notation est permanente. A poursuivre l’analogie religieuse on passe de la messe dominicale au Téléshow évangéliste. Le rite demeure, mais plutôt que de se constituer dans la foule en un moment et un lieu discret, répondant aux règles de la tragédie, il devient une prière individuelle qui s’agrège continûment aux flux des autres dans les cathédrales ubiquitaires que sont les plateformes qui les incarnent.

La force des nouvelles notations ne réside pas plus que les anciennes dans leur valeur de vérité (Une correspondance étroite entre la note et la performance notée), mais dans l’adhésion des acteurs au rituel de la notation. Le succès de note2be résidera dans l’adhésion au système. La résistance des notes des enseignants dans leur autorité. Evitons de faire des pronostics !

Je n’ose relever l’ironie de la marque, l’allusion à Hamlet est si explicite, comme tout rituel, la notation ne tend pas réellement à évaluer qu’à faire exister. Bien ou mal noté, qu’importe, être c’est être noté. De ce point de vue l’initiative est remarquable, et finalement répond à un besoin essentiel : l’existence sociale. Et c’est bien le rôle des rituels qui rassemblent en différenciant, associent dans la liturgie, crée le corps social dans l’émotion quelle suscite, mais maintiennent l’existence individuelle dans le corps social en donnant à chacun des places distinctes.

Le remarquable enfin est que ce qui porte le rituel n’est plus l’institution au sens classique, mais une plateforme technique. La médiation sociale s’inscrit moins dans un système de valeurs, de croyances, d’habitude, de convention, que dans des procédures, des techniques, des plateformes, vides de sens, mais capable en liant des masses d’individus, de susciter les mêmes effets que les religions ou des institutions politiques telles que la démocratie.

En conclusion, autour d’un fait anecdotique, on peut se demander dans quelle mesure la technique peut se substituer aux croyances pour réorganiser le corps social. Si cette hypothèse est juste, ses conséquences en termes d’ingénierie sociale et commerciale (Une autre façon de parler de marketing) sont particulièrement importantes. Alors que jusqu’à présent l’effort entrepris par les marketeurs, les publicitaires, et autres acteurs de la communication visait à faire en sorte que des croyances partagées s’établissent et lient les consommateurs à leurs marques (les profs à leurs élèves, les banques à leurs clients….), il suffirait de construire les bonnes plateformes technologiques pour générer de nouveaux rituels et créer ce lien qui est le Graal du marketing moderne.

C'est ce qu'a fait E-bay, ou Amazon. Notre hypothèse forte est que les procédés de notation que ces firmes ont développés ne joue pas tant le rôle d'un substitut de confiance, que de fédérer des communautés, de construire un corps social, autour d'un rituel. Le rituel de la notation.