27 août 2009

Imaginaire et institution - le cas de twitter?


L'imaginaire des technologies de l'information est une chose évidente à première vue. De suite on se souvient de Hal, et plus récemment de Matrix, avec un poil de culture en plus on pensera au Babylone Babies de Dantec, la production de genre est riche en la matière, sans compter leur père à tous Orwell. Qu’elle soit cinématographique ou romanesque la production des images des technologies de l'information est volumineuse, elle dit nos fantasmes, nos espoirs, les peurs, et cette manière dont nous donnons une forme à des idées. Mais qu'est-ce que l'imaginaire ? Un catalogue d'image ? Une sorte de bestiaire ? Un musée rêvé ? Mythologies, archétypes, grammaire, nombreux ceux qui ont tenté d'en mettre à jour les structures : Jung, Eliade, Caillois, Bachelard, Durand pour jeter quelques noms dans le désordre. Et à leur suite on pourrait se demander quel est l'imaginaire des technologies de l'information ?


Ce serait un travail utile dans lequel se sont engagés aux abords du second millénaire plusieurs auteurs. L'un d'eux, Patrice Flichy, dans un ouvrage remarqué (1), réinscrit l'imaginaire du net dans les structures d'un rêve américain que constituent la nouvelle frontière, la communauté et l'individu. La structure du Western reste quand les formes changent.


L'effort de comprendre comment se structure l'imaginaire est sans doute bien utile pour dénoncer ce qu'il y a d'utopique, ou d'idéologique dans les discours produits par les acteurs et les contempteurs des technologies de l'information et de leurs applications à l'économie, mais reste finalement d'un intérêt limité pour le gestionnaire.


Dans l'ouvrage de Flichy, une chose est d'un intérêt plus remarquable : en reprenant les catégories produites par Paul Ricoeur, celle de l'utopie et de l'idéologie, qui sont deux faces du même imaginaire social s'articulant autour de la question de l'autorité, l'une ayant pour fonction de la conforter et l'autre de la contester, il construit un modèle fécond pour comprendre comment l'innovation technique s'inscrit ou non dans la réalité sociale. D'une certaine manière, le réel n'existe pas sans imaginaire social.


C'est ainsi rejoindre Godelier dans son affirmation de la primauté du réel sur le symbolique et dessiner une alternative à la théorie de l'acteur réseau de Latour qui, si elle a l'avantage et l'originalité de placer humains et objets (techniques) sur un même plan, oublie que la réalité ne se confond pas à l'actuel. Le grand mérite de Flichy est finalement de rappeler l'importance de l'imaginaire social dans l'adoption, et mieux encore l'appropriation des technologies de l'information par la société et ses acteurs. Pour aller vite, sans l'utopie du client, de la conversation, de la relation, nous n'aurions pas les technologies du marketing. Sans cette utopie, l'idéologie qui se forge dans les cabinets, les séminaires, les congrès, n'aurait pas construit cette nouvelle réalité des marchés.


Dans la compréhension dont les technologies sont appropriées par la société et par ses acteurs, il faut donc accepter que l'adoption d'une technique ne se fait pas en fonction de son utilité, c'est l'hypothèse rationnelle du TAM, mais en fonction de sa légitimité, laquelle s'enracine dans le jeu des imaginaires. Nous en revenons dans une certaine mesure à la perspective Weberienne. Il n'est pas de pouvoir sans légitimité, et quand bien même Weber a donné à la forme rationnelle légale, la plus forte des légitimités, c'est bien l'idée que la légitimé se fonde dans un imaginaire, utopique et/ou idéologique qu'il a apporté pour comprendre le fondement de l'ordre social.


Voilà qui peut nourrir une réflexion neuve quand au statut des technologies de l'information et leur rôle dans les systèmes de gestion. Elles ne sont pas de purs construits sociaux comme une large littérature le défend, leur réalité se bâtit aussi dans leur matérialité, ces éléments concrets qui au regard des acteurs, munis d'un certain imaginaire, leur permettent de mettre en œuvre ce que l'on appelle des affordances. Ne serait-ce pas le sens profond du slogan de «Vous l'avez rêvé, Sony l'a fait ! » ?


Mais plus encore, elles se constitueraient comme institutions, imposant par la légitimation de leur être, des règles acceptables par tous. Au-delà de la question de la place de la légitimité dans le processus d'appropriation, c'est cette hypothèse qui va au-delà du travail de Flichy que nous devons explorer. L'usage des technologies dépend moins de leurs fonctions et leur performance que de leur caractère institutionnel, c'est à dire d'apparaître de manière légitime comme la manière de faire appropriée dans un contexte donné.


Un bel exemple de cette théorie se manifeste aujourd'hui avec Twitter. Nul ne sait véritablement ce qu'apporte la technique, et même en l'utilisant on peut s'interroger raisonnablement sur son intérêt. Mais on perçoit clairement dans les discours, les commentaires, à la fois ces éléments utopiques d'une communication libérée de presque toutes formes, alternatives aux formats dominants (on revoie aux oppositions entre Twitter et Facebook) mais aussi ces éléments idéologiques qui se concrétisent dans ces multiples livres de recettes et injonctions en tous genres. Voilà qui légitime d'ajouter le bouton t sur de nombreux sites, et qui par un mécanisme de mimétisme (isomorphique au sens de Powell et DiMaggio) construit et renforce l'institution.


Twitter est non seulement un objet technique et fonctionnel qui pénètre les multiples objets du net, c'est aussi une règle de comportement (renvoyer par ce canal ce qui semble intéressant), une règle d'évaluation (la valeur des informations dépend du nombre de RT), mais aussi un signe, disons, de maturité. Quant à l'usage il est encore largement peu déterminé et n'est le fait que du groupe dominant en terme d'activité (10% des usagers génèrent 90% du traffic). C'est la matérialité de la technologie qui le constituera par ce qu'elle offre. La particularité de cette technologie est que ce qu'elle offre n'est pas encore tout à fait défini puisque ces « affordances » se construisent tous les jours par l'arrivée sur le marché de nouveaux gadgets, de nouvelles applications, de nouvelles intégrations. Ce qui est remarquable dans le cas est que l'adoption se produit bien avant que soit réalisée sa véritable utilité.


Même s'il est difficile de conclure, nous n'avons qu'esquissé les points clés du raisonnement et d'autres développements étaient nécessaires, soulignons l'importance de lier la question de l'imaginaire à celle de l'institution, si nous voulons comprendre le rôle des technologies dans les pratiques sociales. Ce faisant, il sera aussi utile de rappeler que cette idée est celle amenée il y a plus de 30 ans par Cornelius Castoriadis. Celle d'un imaginaire instituant, source d'aliénation si l'on renvoie l'imaginaire au-delà de la sphère humaine et sociale, dans l'au-delà d'une raison désincarné, naturelle ou mystique, transcendante, en oubliant qu'aux sources de l'imaginaire il y a l'imagination radicale, la création.


(1) Patrice Flichy, L’imaginaire de l’internet, La Découverte, 2001 et édition du MIT (2007)


20 août 2009

Mass Customization - un mythe moderne


Le sur-mesure de masse (Mass-customization) est sans doute un des mythes les plus persistants du marketing contemporain. La personnalisation se confond souvent avec l'idée qu'il faille ajuster les offres au plus près des désirs des consommateurs. On en oublie au passage que l'idée de personnalisation se satisfait d'offre standardisée, pourvu qu'une attention particulière, unique soit accordée au destinataire. Le sourire de la crémière valorise certainement le panier d'œufs standard que le consommateur vient d'acheter, mais c'est une autre histoire.

Restons-en donc au sur-mesure, dont les technologies de l'information rendent possible la massification et l'automatisation. Il est assez curieux de constater la popularité de cette idée, alors que l'histoire de la consommation nous montre somme toute, que les solutions standardisées ont écarté dans de nombreux domaines les solutions individualisées. Le prêt à porter a anéanti la population des couturières, la grande distribution a presque éradiqué les épiciers traditionnels, il y a bien longtemps que nos apothicaires ne préparent plus dans leur mortiers les médications qui nous conviennent pour nous tendre des doses standards sous blisters.


Naturellement on comprend que les économies apportées par ces solutions, et les coûts abaissés par l'économie d'échelle ont transformé le rapport de valeur entre le standard et le sur-mesure, et que c'est donc l'espoir qu'on puisse produire, avec les mêmes échelles et les mêmes réductions de coût, des solutions sur-mesure qui justifient cet engouement persistant.

Aurélie Merle dans une thèse soutenue en 2007 et un article de 2008 (1), montre que la valeur du sur-mesure tient en grande partie dans la valeur du produit ainsi ajusté, mais ne dépend pas directement de l'expérience participative, même si cette dernière contribue à la valeur du produit individualisé. De ce point de vue, elle soutient cette opinion. L'essentiel tient dans le produit individualisé et celui-ci a plus de valeur que le produit standardisé.


Cependant, dans les détails de la thèse, qui ne sont pas dans l'article, un fait particulier était qu'une fraction minoritaire des sujets étudiés percevait moins de valeur dans la solution individualisée que dans la solution standardisée. Ce résultat partiel et marginal dans la recherche pouvait être compris comme le fait que pour certains consommateurs le bénéfice de l'individualisation était dépassé par le coût du processus. Quand on va chez la couturière, il faut subir le temps des mensurations, cela peut être pénible.


C'est cette hypothèse que confortent deux publications récentes (2,3) en montrant l'une et l'autre que la valeur du sur-mesure est essentiellement liée aux caractéristiques du consommateur : son degré de compétence et plus particulièrement la connaissance qu'il a de ses propres critères de choix, et de son degré d'implication et de motivation.


Sur un plan plus fondamental, on doit rapprocher ces éléments du point de vue moderne de la psychologie cognitive qui rend compte que face à un choix dans lequel les alternatives sont nombreuses, la décision est de piètre qualité et souvent insatisfaisante. C'est la thèse de B. Schwartz sur les paradoxes du choix. Quand le choix est trop difficile, trop coûteux, on s'en remet au hasard! Qui n'a pas connu cette panique face à un rayon trop vaste?


Pour exposé limpide et largement développé de ce point de vue, on ira volontiers suivre la leçon de Barry Schwartz (4), dont des tests empiriques commencent à être fournis dans l'analyse des décisions sur le web. (sur un sujet proche et des voies de solution on s'intéressera à la toute fraîche Collapsed Choice Theory)





Les conséquences pratiques sont importantes. Inutile de faire participer un consommateur qui ne sait pas ce qu'il veut exactement et qui n'est pas prêt à faire un grand effort de recherche, à la conception du produit ou du service qui lui conviendra le mieux. Il risque même de se détourner des plateformes qui lui proposent ces solutions pour leur préférer des options plus frustres, dont le choix est limité. Sauf si l'on peut lui simplifier la tâche, non seulement lui offrir la possibilité d'individualiser son offre mais aussi le prendre par la main et lui prenant le moins de temps possible.


La mass-customization est sans doute une option réservée à des groupes étroits de consommateurs et des secteurs dans lesquels l'implication et la compétence sont élevées. Deux signes sont révélateurs des situations favorables : quel prix est prêt à payer le consommateur? Quel est le statut de la marque? Ainsi ce que peut faire Nike serait interdit aux autres fabriquant de chaussures.

Toute la question est au fond de savoir quelle proportion des consommateurs (d'un marché ou d'une marque) est finalement assez motivée et compétente? Il est probable qu'elle soit faible, laissant de beaux jours encore au marketing de masse. Mais c'est un point de vue à discuter !


(1) Merle A, Chandon J, Roux E. Comprendre la valeur perçue de la customisation de masse. Une distinction entre la valeur du produit et la valeur de l'expérience de co-design. (French). Recherche et Applications en Marketing [serial online]. September 2008;23(3):27-50.

(2)Bharadwaj N, Naylor R, ter Hofstede F. Consumer response to and choice of customized versus standardized systems. International Journal of Research in Marketing [serial online]. September 2009;26(3):216-227.

(3) Franke N, Keinz P, Steger C. Testing the Value of Customization: When Do Customers Really Prefer Products Tailored to Their Preferences?. Journal of Marketing [serial online]. September 2009;73(5):103-121.
(4) Schwartz, B. The Paradox of Choice: Why More Is Less. Harper Perennial, 2005.

____________

A lire aussi ici :

- Le profit du ciblage individualisé

-Le paradis de la customization

18 août 2009

le net hors du temps?

L'internet avec le temps découvre le temps. L'innovation apportée par le microblogging, et plus généralement par les techniques de fil d'information, que ce soit le RSS ou les feeds de facebook, est de ralentir le flux des messages instantanés pour donner le sentiment d'une information en temps réel. C'est d'ailleurs l'expression désormais consacrée : celle du real time search. On peut d'ailleurs se poser la question de ce qu'il a de réel ? Il serait plus correct de parler d'un temps actuel, à moins de ne considérer que les seules choses réelles sont celles du présent.


C'est un temps qui est analogue à celui des dépêches d'agence de presse, et si la technique change, c'est ce même esprit qui anime les nouveaux téléscripteurs. L'espace de cette information est celui d'un relatif immédiat, une couche de quelques heures de messages émis, répercutés, retransmis, redondant dont l'épaisseur reflète en partie l'intérêt.


Immédiateté mais non instantanéité. L'instant appartient à ce qui aussitôt émis se dissout dans l'oubli. C'est la vertu des messageries, dont on ne conserve que rarement les archives. Le temps des fils d'information est aussi celui d'un archivage dont la période est courte mais significative.


Ce temps est bien différent de cette permanence des premiers sites web dont la conception se tenait dans l'idée d'une intemporalité. Même si à mesure du temps qui passe, ils sont améliorés, ces améliorations le sont pour un toujours, et tiennent le passé pour une sorte d'imperfection qu'il faut gommer. L'intemporel est ce qui échappe au temps.


Les blogs ont introduit cette idée de durée, à un rythme assez lent, celui des jours, des semaines et des mois. Ils sont au fil d'information ce que la presse est à la dépêche avec cet avantage cumulatif dont la presse internet n'a pas pris l'avantage. La véritable valeur ajoutée de la presse réside dans ses archives et le potentiel qu'elle a d'introduire dans l'espace du net les premiers éléments d'une histoire véritable.


Voilà qui laisserait à penser que l'internet n'innove pas tant que cela, au moins dans le rapport au temps que nous pouvons concevoir. Le flux des innovations semble juste rattraper l'état des institutions traditionnelles de la connaissance. Ce qui laisse d'ailleurs entrevoir des perspectives pour de nouveaux modèles de médias, et l'idée de quelques lieux de mémoire.


Le passé est sans doute la zone occultée. L'admiration qu'on porte à Google et à son indexation s'atténue quand on réalise que la recherche laisse peu d'importance à la datation. Si l'indexation est puissante, l'archivage est mauvais. Même dans les fonctions avancées de recherche, la gestion du temps est limitée. Notons, au passage, que cette propension à l'atemporalité, à ce mépris du temps, se retrouve aussi chez Amazon, qui contre toute les habitudes bibliographiques confine les dates d'éditions des ouvrages dans des coins d'ombres.


Cette propension à l'atemporalité est un fait d'autant plus curieux, qu'il est peu de monde aussi pénétré par la mesure du temps. L'informatique, l'électronique, date, horodate, avec une précision inouïe le moindre de ses documents. Les bons outils sont d'ailleurs ceux qui gèrent la genèse de la production. C'est ce qui est au cœur du processus d'édition des pages de wikipédia, qui permet de repérer chaque version. Mais cette précision géométrique a peu à faire avec l'histoire, mais beaucoup plus avec l'organisation et la séquentialité des décisions. Si pour chaque page un onglet historique est disponible, la date d'édition n'est pas fournie sur la page consultée. Mais cela reste un des cas uniques qui permet au lecteur d'apprécier les conditions de genèse d'un document.


Si aujourd'hui toute l'attention est portée vers ce prolongement extraordinaire du modèle initial de l'internet, une extension de l'intertextualité à la socialité, autrement dit cette extension du principe de lier les textes les uns aux autres et de tisser entre eux un réseau de signification, à celui de lier leurs auteurs, leurs agents, il reste encore à introduire un ordre particulier, celui du temps, celui d'une histoire. Il s'agit moins de chronologie, même si elle est nécessaire, que d'archivage. Il s'agit moins d'observer des tendances que de marquer des évolutions. Il s'agit moins de calendrier, que de mémoire.

Et qui pour qui douterait de cette observation, proposons un exercice simple : comment avec les outils de recherche et d'agrégation dont nous disposons, faire l'état de l'évolution d'un événement aussi facilement qu'on rassemble de l'information sur l'état actuel de cette information. Cette fonction existe depuis peu dans Google actualité, mais il faut la chercher dans la recherche avancée. En voici un exemple pour le cas de la grippe A sur le mot clé H1N1.







11 août 2009

Fooding or Feeding ? La guerre de l'espace publicitaire


Facebook rachète donc Friendfeed, Publicis vient de reprendre Razorfish au prix de céder 3% de son capital à Microsoft, et peu avant Microsoft s'allie avec Yahoo. Voilà un été actif sur le front de la publicité sur internet qui indique peut-être la nouvelle ligne de front : les publicitaires contre les technologues, ceux qui savent faire valoir les espaces contre ceux qui les créent. L'appétit est grand, reste à savoir ce qui compte : la capacité de nourrir ou la qualité de l'aliment.


Sans aucun doute Google a pris une bonne longueur d'avance, en démontrant, provisoirement, que l'avantage vient à ceux qui créent l'espace publicitaire - le génie de Google est d'avoir su par-dessus les médias déployer la toile qui y donne accès. Mais d'autres, avec d'autres modèles, ont prouvé que l'on pouvait créer d'autres espaces. Facebook en est l'exemple le plus convaincant même si la rentabilisation n'est pas encore au rendez-vous.

Un coup d'œil aux résultats d'audience est de ce point de vue instructif, même si d'un organisme à l'autre ( Nielsen, OJD, médiamétrie..) les mesures sont difficilement comparables ( visiteurs uniques, visites, pages vues...Il faudra revenir sur ce problème de la mesure) et les bases d'études dissemblables, parfois les sites, souvent les groupes. S'y côtoient les différentes générations de producteurs d'espace publicitaires.


Les grands portails d'abord, qu'ils soient fournisseurs d'accès comme Free ou Orange en France ou e-commerçants tel que e-bay, il faudrait d'ailleurs y donner une place distincte aux plateformes de services. Leur avantage est que touchant des marchés de masses, ils produisent par leur contenu une audience plus ou moins captives.

Des médias traditionnels, seul TF1 est présent dans les 10 premiers de Nielsen, encore que s'y fédèrent plusieurs services distincts. La presse est derrière, et pourtant ce fût aussi son métier que de fabriquer de l'audience.

Microsoft maintient sa position sans doute grâce à MSN, les messageries instantanées représentant un espace tout à fait particulier, celui d'une grande intimité.

Les espaces du 2.0 qui travaillent les communautés que ce soit un Dailymotion, ou des fédérateurs de blogs tels que Wordpress ou Skyrock, se sont taillés une belle part en faisant peser la production de l'espace sur les utilisateurs ( la vertu du modèle UGC) et multipliant les occasions de voir.

Enfin aujourd'hui les réseaux sociaux, Facebook s'installant en France à la 5ème position, prennent une part considérable de cette audience, leur force réside dans la répétition des consultations, vive l'addiction!

L'audience rappelons-le se fait au travers de trois paramètres : la capacité à pénétrer une large population (c'est le reach), celle de faire revenir fréquemment (le nombre de visites) et de maintenir longtemps l'internaute dans la session (le nombre de pages et la durée par page). Et toute la question des médias est de savoir comment atteindre ces trois objectifs. Manifestement les professionnels de l'information, qu'ils soient producteur de divertissement ou d'information ont perdu la main. Les grands vainqueurs sont ceux qui se sont installés dans les actes élémentaires de l'internaute : chercher et communiquer avec ses proches. Ces deux activités sont génériques et se reproduisent plusieurs fois, des dizaines de fois par jour, elles exposent à des dizaines de pages. Ne nous étonnons pas des résultats en termes de marché publicitaire.


Mais ce n'est pas tout, si on cherche de l'information, n'importe quelle information, y compris celles que l'on connait déjà (dans le top des mots-clés de Google arrivent les services qu'utilisent déjà les internautes : le moteur sert plus de bookmark que d'outil de recherche!), on la communique aussi. Le plaisir de trouver s'accompagne de celui de partager, c'est sans doute la leçon des médias sociaux.


A ce titre la nouvelle génération d'espace qui n'est pas encore présente au premier rangs des classement mais qui arrive à grande vitesse a toutes les chance de remporter le pompon. C'est celle de twitter, celle de friendfeed aussi, et c'est ce qui nous fait penser, que cette dernière acquisition est plus significative que celle opérée par Publicis.


Dans le nouveau paysage de l'internet, l'information en soi n'est pas ce bien rare de la période de l'ORTF, elle ne vaut plus rien, et ne capte plus personne, ou très rarement. En revanche, elle coûte cher à celui qui la recherche, encore plus cher à celui qui veut la diffuser. Le filtrage compte désormais plus que le contenu, et ce filtrage passe par ces outils multiples, dont le fait social est un moyen, mais l'effet principal est d'amener à chacun sa ration d'information quotidienne.

Le feed compte plus que le food, la pizza vaut moins que le livreur. Que l'information soit fournie par les agrégateurs RSS , les walls de facebook, ou la page de twitter, ces filtreurs ont toutes les chances d'être les écrans les plus consultés. Pendant longtemps la capacité à créer de l'audience a été liée à la capacité de produire l'information, la qualité de la nourriture était essentielle, aujourd'hui elle est définitivement associée à la capacité non pas de l'acheminer mais le la filtrer pour le compte de celui qui va la digérer.



8 août 2009

De la valeur au capital (client)

Une suite à "retour à la valeur"


Et non, nous n'évoquerons pas cette transmutation fondamentale qui est au cœur de la pensée marxiste, ce passage de la valeur d'usage à la valeur marchande, même si cela reste au programme. Nous resterons plus modestes en nous intéressant à ce que comment de l'idée que chaque client est un actif de l'entreprise, on peut imaginer que la valeur de l'entreprise est celle de l'ensemble clientèle. De quoi se constitue le capital client (Customer equity) ?


En posant que le client est un actif, nous allons au cœur du problème. Si la valeur de l'entreprise est bien la somme des cash flow futurs que sa politique actuelle va générer, il est évident que cette valeur est équivalente à celle que l'ensemble de son portefeuille de client va générer en fonction de la politique qu'elle mène. Pour affirmer cela, il faut partager l'idée que dans un temps indéfini, la valeur de la firme dépend des revenus qu'elle génère, de ses investissements, et des coûts qu'elle concède pour les obtenir. Et donc que quels que soient les modèles d'affaires, la valeur de la firme se résout dans sa capacité à obtenir des flux de revenus contre des dépenses de ressources. C'est un point extrêmement discutable, d'une part parce que les revenus peuvent venir d'une autre source que celle qui motive les dépenses, c'est le modèle des marchés à plusieurs faces, mais aussi du fait que les revenus peuvent venir du fait de l'espérance d'un revenu futur, actualisé sur le marché financier, c'est le modèle des ventures Business.


Restons donc dans le cadre traditionnel, de ce qu'à terme le revenu est produit par ceux qui achètent le produit, ou le service, de la firme. Dans l'effort de valorisation des actifs, il est clair qu'il faut comparer ce que l'on investit, ce qu'on dépense, à ce qu'on espère gagner. L'investissement correspond à la dépense actuelle qui peut générer des revenus immédiats et futurs, la dépense est ce que l'on doit consacrer pour servir la réalisation des revenus immédiats. La balance se fait en comparant le cumul de ce qui est investi, plus celui qui est dépensé, au flux cumulé des revenus obtenus. La différence est exactement ce qu'on appelle le customer equity. Le capital client.


Une première intention serait comme nous l'avons analysé, de le définir comme la somme les Customer Life Time values. Mais si le capital client se limitait à cette seule sommation nous n'aurions pas défini de concept nouveau. Il faut aller plus loin. Life time Value et customer equity seraient la même chose à la base de clientèle près.


Mais avant d'aller plus loin réglons le sort d'autres formes de capital. Le premier d'entre eux est le capital de marque, un autre plus fondamental est le capital produit, je n'ose encore parler de capital relationnel, ou pire de capital social. Nous abusons du capital, le capital ne se multiplie pas, sauf dans le temps, il ne fait que s'ajouter. Le capital produit est cette quantité qui fait que les revenus de l'offre mise sur le marché moins les dépenses nécessaires pour le concevoir et le produire, génèrent sur le long terme une accumulation de profit positive. Le capital de marque est dans le même esprit, cette différence qui s'ajoute parce que la marque permet de pratiquer des prix plus élevés ou de retenir l'attention d'un plus grand nombre de consommateurs. Le capital d'innovation est de même nature. Les uns et les autres ne s'ajoutent pas au capital client, ils ne font que le composer. Nous pourrions simplement concéder que dans la nature même de la relation établie avec les clients, il y a une source de valeur qui excède celle que produit la fonction, plus celle que produit le symbole, cet excès représentant la qualité particulière de la relation que la firme établit avec ses clients. En imaginant qu'on apporte les mêmes fonctionnalités que les concurrents, en imaginant qu'on leur apporte la même réputation, le fait de valoir plus que les autres, ne pourra provenir que de ce qu'on a établit une meilleure relation que les autres.


Dans cette conception la valeur client est la valeur de la firme, même si elle peut être décomposée en une valeur de l'offre, une valeur de la marque et une valeur de la relation.


Le capital client est donc clairement égal à la valeur de la firme, en ce sens qu'il représente la somme des cash-flows actualisés. La différence n'est pas de nature, mais dépend du mode de calcul. La valeur de la firme s’évalue à partir d'un indicateur comptable synthétique, celle de la clientèle à partir d'un indicateur agrégé. D'un côté on agrège les profits par unité de temps, de l'autre par unité d'actif productif. Voilà pour une définition générale. Il faut maintenant s'intéresser à la décomposition de ce capital client, généralement désigné par la terminologie de customer equity.


La part essentielle naturellement est constituée de la somme des cash-flow futurs générés par les clients d'aujourd'hui, compte-tenu de la politique menée actuellement. Mais cette politique menée actuellement ne se contente pas de maintenir les clients existants. L'agrégation de leur valeur bien sûr nécessite de prendre en compte des phénomènes de cohorte, les vagues successives de nouveaux clients. C'est un détail technique. Le point principal est que la politique actuelle induit le recrutement de nouveaux clients, élément que les modèles de CLTV ne prennent pas en compte. Le customer-equity se définit donc dans la sommes des cash-flow futurs générés par la base de clientèle actuelle, plus ceux de la clientèle future, compte de la politique actuelle de marketing. Celle-ci comprend la politique d'acquisition, de rétention, de développement, mais aussi de manière fondamentale la politique de création de valeur pour le consommateur.

En distinguant ces catégories nous mettons l'accent sur le fait que les dépenses marketing sont relatives d'une part à une offre de base, qui peut susciter un plus ou moins grand potentiel de demande, et d'autre part à des actions de stimulation qui peuvent accélérer ou ralentir l'accès au potentiel. Les dépenses d'acquisition ou de rétention ne font finalement que déterminer la vitesse à laquelle la firme atteint son potentiel de marché dans la limite de ce que ces dépenses peuvent aussi affecter le potentiel.


Mais ne raffinons pas trop le raisonnement, le capital client est ce flux de cash-flow constitué par les clients actuels, et les clients futurs que la politique marketing actuelle laisse à espérer. Il faudrait simplement ajouter ces clients que les clients actuels et futurs vont par leurs comportements, leurs opinions, leurs recommandations ajouter à la population que l'on gère actuellement. Dans une analyse précédente nous avons refusé d'ajouter leur contribution à la CLTV. Nous pouvons nous en expliquer maintenant. Sur le principe il aurait été assez raisonnable d'ajouter cette contribution à ceux qui en sont les inducteurs, mais cela reviendrait dans notre décomposition à comptabiliser cette contribution dans la valeur créée par les consommateurs actuels. Et donc à sous estimer l'efficience des investissements et des dépenses.

En séparant cette contribution on donne un visage plus réaliste à ce qui forme le capital client : la somme des gains futurs produit directement par les clients acquis aujourd'hui, plus celle des clients que notre politique d'acquisition aujourd'hui va permettent d'atteindre demain, et enfin ceux que l'offre de base, la marque et la qualité de relation, vont produire sans qu'on ait fait d'effort directement vers eux.

Ainsi nous pouvons défendre l'idée que le capital client ne se confond pas avec celle de la somme des CLTV mais la déborde. Et au passage un ratio du type CE/n*CLTV serait un bon indicateur de la capacité à générer des externalités de clientèle.


En étendant cette idée, on pourrait même mieux comprendre des modèles d'affaire moins traditionnels. Autrement dit ceux dans lesquels la valeur de client est quasi nulle, mais par ses effets secondaires, génère des revenus dérivés très élevés comme cela est le cas dans les marchés à plusieurs faces. Si la life time value des usagers de Google est clairement négative, le customer equity à la lecture des résultats est très largement positif.


Mais restons sur notre ligne principale, celle de business-model traditionnels dans lesquels la valeur se constitue dans la différence entre les investissements consentis pour servir une clientèle et les revenus qu'elle génère directement. Le paramètre clé est ici la politique d'acquisition, et de la même manière que nous avons défini une CLTV optimale, nous pouvons définir un CE value optimal, qui sera déterminé par la meilleure combinaison entre les investissements destinés au renouvellement de la base de clientèle et au maintien de l'ancienne.


Mais il n'y a pas d'isomorphisme. Il est raisonnable ainsi de penser que si client par client, nous devions penser qu'il faut mieux investir sur la fidélisation, à l'échelle du portefeuille c'est l'acquisition qui deviennent la priorité. Dépenser beaucoup pour plus que renouveler la base de la clientèle pourrait être compatible avec l'idée de dépenser peu pour acquérir chaque client, un budget d'acquisition élevé est compatible avec une dépense par client actif qui soit faible. Une telle situation se comprend dans la mesure où dépenser peu en moyenne pour acquérir un nouveau client, laisse espérer que celui -ci ait une forte valeur, dépenser beaucoup au total signifierait juste d'élargir considérablement le marché potentiel.


Voilà qui milite pour une idée simple, l'intérêt du concept de customer equity concerne un aspect stratégique du marketing, quand celui distinct du CLTV relève essentiellement d'un problème opérationnel.


Retour vers la valeur du client


La mesure de la valeur client est désormais une chose ancienne. Si l'on datait les choses, peut-être pourrions nous fixer en 1987, il y a plus de vingt, une des formalisations les plus abouties qu'ont proposé Schmittlein, Morrison et Colombo(1). Nos lecteurs proposeront sans doute d'autres références, et des dates plus anciennes. C'est dans les années 90 que cette idée de mesure et de modélisation de la valeur client a pris son envol, dès 2002 des revues de littératures sont proposées(2). Plus récemment on ira voir Gupta, Hanssens et consorts (2006)

La sophistication et le raffinement des modèles est depuis à la mesure de leur floraison. Ils sont aujourd'hui comme les fleurs d'une prairie au printemps, occupant toutes les niches de l'écologie des marchés, même si des lignes de force claires en structure la variété. Entre les modèles de rétention (lost for good), les modèles de migration (always a share), les modèles purement probabilistes, déterministes, autorégressifs, markoviens, ceux en cohortes, les paramétriques et les non-paramétriques, les survies et les semi, les mélanges, la palette complète de l'outillage statistique est employée.


Et pourtant on reste encore dans une certaine confusion, la valeur client, la life time value, le capital client, forment encore une terminologie variée qui s'adressant à une même idée, a des difficultés à rendre compte de la nature des concepts qu'elle désigne. C'est en partie la faute de cette abondance, qui dans un esprit de compétition, a négligé le raisonnement économique et pris parti de la munificence technique.


Revenons donc au concept. L'idée fondamentale est empruntée à la finance sur la base de cette découverte des années 80, c'est la gestion de la relation qui est le véritable objet du marketing plus que celle des décisions d'achat, et cette idée considère que le client est un actif, dont la valeur est mesurable, par la méthode de l'actualisation. Bref, que la valeur d'un client est égale à la somme dans le temps de la valeur qu'on espère qu'il produise à chaque période. Dans ce raisonnement, et cette définition, chaque point est important.


Le premier est l'idée de cash-flow. La valeur vient de la différence entre ce que l'on engage, plus que des coûts mais des investissements, et la liquidité qu'on en obtient. De ce point de vue nombreux sont les modèles qui ont perdu de vue la définition, confondant le cash flow avec le profit, qui est difficilement calculable, mais pire avec le revenu. Nombre des modèles de Life Time Value, ce que nous traduisons par valeur actualisée du client, sont devenu à force des modèles de Customer Life Time revenue. Un comptable aura beaucoup de mal à confondre les deux notions, même si on comprend que dans l'esprit du marketeur les choses peuvent se confondre.


Le deuxième point est celui de l'unité d'analyse. De la même manière que la valeur d'un titre ne se confond pas avec la valeur du portefeuille, la CLTV est une notion propre à chaque actif du portefeuille de clientèle, à chaque client, à chaque relation avec le client. Et chaque actif se caractérise par son espérance de valeur, mais aussi par son risque, mesuré usuellement par la variance de cette espérance de valeur.


Le troisième point concerne justement cette notion d'espérance de valeur. Le gain futur n'est pas assuré. Il n'a de sens qu'au regard d'une politique mise en œuvre aujourd'hui dont on examine les prolongements dans le temps pour les ramener à la date présente. C'est le sens de l'actualisation, qui n'est pas une prévision mais une mise en équivalence. Que valent aujourd'hui les flux de cash dans le futur produit par la politique actuelle? Le financier pour résoudre ce problème corrige la valeur future par un coefficient qui représente soit un arbitrage d'opportunité, le rendement actuel des actifs, soit par une correction de la dégradation de la valeur de la monnaie. Il inclut aussi des espérances de croissance. Dans le cas du marketing, les choses sont un peu différentes dans la mesure où l’on n’espère pas que les actifs se maintiennent dans le temps. Les marketeurs sont pessimistes, ils savent qu'il y a peu de chance qu'un client aujourd'hui le soit encore dans 7 ans. Pour faire simple, si le taux d'attrition de la clientèle est de l'ordre de 30%, au bout de 5 ans la probabilité qu'un client le soit encore est inférieure à 20%. Autrement dit, si en finance l'espérance de gain est une moyenne constante dans le temps, pour le marketing elle est strictement décroissante.


Poursuivons sur ce point, en examinant cette notion d'espérance de gain. D'un point de vue mathématique l'espérance de gain est la somme des différentes éventualités, et chacune d'elle est le produit d'une valeur possible et de la probabilité qu'elle se réalise. Dans le cas de l'espérance de la valeur client, on suppose de la manière la plus large que la probabilité diminue dans le temps, en moyenne, et que le gain qu'on espère réaliser, varie aussi selon des chemins que le modélisateur doit déterminer. Souvent l'hypothèse est que l'espérance (la moyenne) de gain est constante, mais que la probabilité qu'il se réalise est strictement et fortement décroissante. Mais on peut imaginer que l'espérance de gain suive une trajectoire parabolique traduisant dans la vie de la relation qu'un apprentissage conduise à développer le revenu espéré du client, puis que comme toute chose dans ce monde, l'usure et la fatigue érode ce revenu. Et indépendamment, on peut se dire que le risque de n'être plus client s'accroisse dans l'amorce et la constitution de la relation, pour ensuite rester stable, peut être s'affaiblir plus tard, quand l'ennui prend le dessus. Naturellement ces trajectoires sont le propre de chaque individu, de chaque histoire.


Quatrième point, nous avons souligné que ces évolutions correspondaient à l'hypothèse que la politique marketing, autrement dit l'effort pour acquérir d'abord le client, puis pour le maintenir ou le développer, était le même à travers le temps. L'actualisation ne mesure pas un futur, mais un présent, elle vaut ce que l'on fait aujourd'hui et que l'on poursuit obstinément. L'effort d'acquisition conduit à sélectionner un certain type de client. On sait que s'il est important, il y a de fortes chances que ce client soit infidèle et opportuniste, on sait que s'il nous a choisi librement, sans qu'on le force il a de fortes chances d'être fidèle et généreux. De même si l'on ne fait rien pour nourrir la relation, il nous quittera rapidement. On peut donc imaginer des politiques optimales de gestion de ces clients. Les techniques d'optimisation dynamiques sont à notre service. L'idée centrale est donc bien que le CLTV dépend de l'effort d'acquisition, de rétention et de développement. Il y a donc au moins dans le principe l'idée d'une CLTV optimale à laquelle on doit comparer la CLTV actuelle.


La valeur d'un client n'est pas une chose donnée. Elle est la résultante de ce qu'il est, des circonstances, mais surtout de ce qu'on lui fait. C'est sans doute un des points les plus mal compris. Il n'y a pas de client à forte valeur ou à faible valeur, il y a des clients dont on exploite correctement le potentiel en lui attribuant les ressources nécessaires, et ceux que l'on néglige. C'est sans doute le point fondamental.


Ce raisonnement d'ailleurs permet une troisième idée, celle de la CLTV intrinsèque, qui se définit simplement comme la valeur produite par un client pour lequel on n'aurait fait aucun investissement. C'est cette valeur qu'il produit, indépendamment de l'effort marketing. On comprendra aisément que la problématique de la valeur du client tient dans une comparaison de ces trois indicateurs : celui d'une valeur intrinsèque qui ne requiert aucun investissement, celui de la valeur actuelle qui mesure la récompense de la politique d'investissement adoptée au jour du calcul, et celle d'une hypothétique valeur optimale qui correspondrait au meilleur des investissements.


A ce stade de l'analyse, nous avons fait presque le tour de ce que les modèles doivent être capables de rendre compte. Et nous devrions nous intéresser désormais à cette autre notion qui est la valeur du portefeuille, autrement le Customer Equity. Il faudra pour cela garder à l'esprit que si ce dernier est la somme des valeurs individuelles, il n'est pas un concept nouveau, mais se confond avec ce que nous avons analysé. Nous garderons pour un autre post cette discussion.


Il nous reste juste à prendre en compte une idée qui se développe depuis quelques années. Les clients ne sont pas seuls, et parlent à leurs voisins, ils recrutent eux-mêmes de nouveaux clients, ce qui a amené certain chercheurs à vouloir inclure ces gains secondaires dans les calculs de CLTV. Notre point de vue est que ce parti pris est erroné, moins par le principe que par ses conséquences, mais nous y reviendrons plus tard, nous contentant ici de réaffirmer que la force du concept de Customer Life Time Value, est de considérer aujourd'hui les conséquences futures de la politique marketing actuelle, en prenant en compte le plus raisonnablement possible, les trajectoires temporelles de la relation établie avec chacun des consommateurs qui participent la base de clientèle.


Références

(1) Schmittlein D., Morrison D. et Colombo R. (1987). Counting your Customers: Who are They and What will They do Next? Management Science, 33, 1, p. 1-24

(2) Gupta S., Lehman D. R. et Stuart J. A. (2002). Valuing customers. Journal of Marketing Research XLI, p. 7–18

1 août 2009

Social Network Sites : A documentary on Network, Social and otherwise

En prime du post précédent un documentaire de social Ontology, en 5 partie avec Watt, Barabasi et quelques autres, ...

:Part 1


Part 2


Part 3



Part 4



Part 5



Part 6

SNS : physique ou sociologie?

On n’a pas attendu Facebook pour étudier comment les messages se diffusent dans un réseau social, mais l'apparition des médias sociaux stimule depuis une dizaine d'années de nombreuses recherches.


Avant même l'apparition de l'internet, les réseaux sociaux ont recueilli l'attention des sociologues et le résultat s'est manifesté sous la forme de deux idées importantes et le développement de nombreux outils d'analyse. La première idée est que la densité d'un réseau affecte la vitesse de transmission de l'information mais surtout favorise l'homogénéité des opinions. Les réseaux denses sont aussi des réseaux où les liens sont forts, ceux de la famille et ceux du clan. La seconde est que la valeur d'une position dans les réseaux vient de ce qu'on se trouve à l'intersection de plusieurs liens auxquels on est relié par des liens plus faibles. Ronald Burt et Grannoveter sont parmi ceux qui ont développé ces idées dans les années 80 et 90.


Un changement majeur est apparu vers la fin des années 90 incarné notamment par un physicien, Barabasi, avec cette idée essentielle que la topologie des grands réseaux, tels ceux de l'internet, joue un rôle essentiel dans leur dynamique de croissance et de diffusion. Cette topologie est caractérisée par leur distribution du nombre de liens dont dispose chaque nœud du réseau, la proposition de Barabasi est que les réseaux internet répondent à une loi puissance marquée par des propriétés d'attachement préférentiel. Les riches deviennent plus vite riches que les pauvres ne s'enrichissent. La question des grands réseaux est aujourd'hui une affaire de physiciens (visitons http://arxiv.org/list/physics.soc-ph/recent) qui par des méthodes de simulation de champs de particule tentent de comprendre dans quelle mesure un message peut se diffuser dans un réseaux compte-tenu de sa structure.


Dans ce courant, une contribution importante est celle de Duncan Watts, qui démontre que les stratégies de ciblage de leader d'opinion ne conduisent pas, ou rarement, à des phénomènes de Buzz. De manière presque paradoxale, il souligne que communiquer au sein des réseaux nécessite le recours à des tactiques de communication de masse. Voilà qui ravira les agences traditionnelles et irritera les spécialistes du Buzz.

La nature des liens est une chose, la topologie une autre, mais cela n'épuise pas le sujet, un enjeu aujourd'hui porte sur les mécanismes mêmes de transmissions. C'est sans doute l'apport de l'épidémiologie. L'innovation apportée par Facebook ne réside pas dans l'idée de connecter des amis, en France un site tel que Copain d'avant a introduit cette idée bien avant, et à une échelle globale Myspace en fait son facteur de succès. L'élément clé est réside dans la mise à disposition de gadgets et dans la qualité de leur ergonomie. Ces petites applications qui permettent de transmettre en un clic un objet particulier jouent un rôle essentiel. La caractéristique des sites de réseaux sociaux est qu'ils ne véhiculent pas seulement des idées et des opinions, mais des objets.


Le cas de Twitter pose lui un autre défi à la connaissance. Sa force tient notamment dans l'eco-système qu'il suscite. Twitdeck, Twitpic, Twitdom, une communauté d'applications se constitue en un réseau au-dessus du réseau propre de twitter. Plusieurs niveaux de réseaux, des réseaux de réseaux. Cette problématique est celle qu'un certain nombre de sociologues sont en train d'explorer, notamment Emmanuel Lazega avec l'idée de design link. Les sociologues reprendraient-il la main sur les physiciens pour comprendre la nature des réseaux ?

Dans tous les cas, il est évident que la maîtrise des sites de réseaux sociaux passe par l'assimilation d'un quantité impressionnante de connaissances produites dans des domaines divers qui vont de la sociologie à la physique, en passant par l'épidémiologie, et que le rôle des spécialistes de marketing est de mettre en ordre ces acquis pour mieux penser les stratégies de communication sur ces nouveaux médias. C'est un enjeu important qui doit répondre à trois grandes questions.

  • Faut-il favoriser une communication focalisée sur les leaders d'opinion ou massive pour susciter un phénomène de propagation?

  • Est-ce le contenu des messages ou leurs mécanismes de transmission qui sont déterminant dans la diffusion ?

  • Comment gérer la hiérarchie des réseaux?



Lectures :