18 décembre 2007

La relation, une affaire de justice



Nous avons exploré cette idée dans un autre billet.
Les belles relations sont des relations justes. Autant que les partenaires soient engagés, autant qu’ils se témoignent de confiance, aussi attachés peuvent-ils être, aussi satisfaits qu´ils demeurent, c´est ce qui est juste dans leur rapport qui détermine la suite de leur relation.
L´idée profonde est qu’ une relation ne se rompt pas pour une frustration, un détachement, une méfiance, un désengagement, mais au motif que dans ce qui reste de la relation, il n y a plus rien de juste.
Dans l´ordre de l échange ne soyons pas étonné que la justice viennent comme la mesure de ce qui est souhaitable. Au delà de la satisfaction, de la valeur, de la confiance, de l engagement, il y a ce sentiment de justice qui parfois demande réparation. La relation durable est une relation juste.
Il reste à tester cette hypothèse. Voici un beau sujet de thèse.

17 décembre 2007

l´innovation, une appropriation.



On sait depuis longtemps que l’adoption d’une innovation ne se confond pas à son appropriation, l’adoption de l’usage ne dit rien de cet usage. Qu’une technique soit utilisée, ne dit pas comment elle le sera. Le détournement d’usage des innovations technologiques, a conduit certains à concevoir l’innovation comme une traduction . Dénombrer ceux qui adoptent une innovation devient alors moins important que de savoir comment l’innovation est adoptée, de quelle manière les utilisateurs s’approprient l’objet nouveau.

La définition la plus courante de l’appropriation désigne l’action de faire soi ce qui était autre. Elle inclut le transfert de propriété, libre ou forcé, le titre de propriété, mais signale surtout un processus de subjectivisation. L’objet qui appartient à d’autres, ou simplement n’a pas encore de place de l’espace subjectif de nos catégories, nos représentations, nos routines, nos actions, nos fantasmes, va nous être assujetti, jusqu’à parfois devenir une part de nous même.

Ce n’est pas par hasard que l’appropriation de l’espace est une thématique fréquente, on ira voir avec intérêt le travail de Perla Serfaty sur ce sujet. La psychologie de l’environnement est une vieille thématique, mais d’une actualité toujours aussi présente en marketing comme en témoigne Richard Ladwein, Bernard Cova ou Gael Bonnin. Ses modalités sont multiples, de l’espace familier aux territoires du voyage, au bureau comme dans le salon. Elles prennent la forme d’une délimitation du territoire (ces pierres posées autour de la tente au camping), d’une investigation méthodique à l’aide d’une carte (de la ville où l´on vient d´atterrir), d’un rituel d’échange de clés, d´un panorama, de prise de photo, d’un carnet de voyage, de reliques, des souvenirs, une signature, un nid.

L’instance du territoire n’épuise pas le fait de l’appropriation, elle traite de la prise de pouvoir sur les objets, peu de d’identification. L’appropriation en plus d’insérer un objet dans l’espace personnel, construit des liens à soi, qui contribuent à ce que le sujet s’identifie dans ces objets, les investit d’affects, en fait des objets transitionnels, riches de symboliques et devenant parfois si intimes qu’ils deviennent une partie de soi : le tatouage en témoigne de manière éclatante. Irions nous plus loin et c’est du fantasme anthropophage qu’il faudra parler. Le rapport au corps est central.

L’appropriation peut ainsi aussi se définir comme processus de production de sens en connectant l’objet et ses propriétés. L’appropriation se réfère alors comme un rapport à l’abstrait et au complexe, et pourrait s’analyser comme un processus de tangibilisation. Une double stratégie d’accommodation et d’assimilation est mise en œuvre accompagnée d’actions destinées à produire du sens. Tactiques de tests, de cartographie, d´essais, de catégorisation, d’expérimentation, de représentation, d’explorations, vont inclure l’objet dans un tissu de signification tel que certains l´interprètent comme une narration, le sense making devient alors un story telling. On s’approprie bien notre passé ainsi, en en faisant des histoires.

Dans la perspective de Vygotsky l’appropriation est le processus de reconstruction des schèmes d’utilisation lors d une activité. Cette approche met l’accent sur l’action, et principalement sur la répétition. S’approprier une autre connaissance, c’est en répéter l’usage. L’exemple du sport en est la parfaite illustration : s’approprier un geste c’est le répéter à l’infini jusqu’à atteindre une sorte de perfection que les aléas remettent en cause constamment. Cette conception a l’avantage de prendre en compte les objets appropriés au travers des contraintes qu’ils imposent à l’action, manifestant un plus grand pragmatisme. Elle reconnaît aussi dans l’action le fait que les objets soient altérés par les usagers, modification de l’objet lui-même ou de son mode opératoire, de sa destination ou de son environnement de travail, l’appropriation est aussi un ajustement.

Revenons à notre point initial qui portait sur l’innovation. Adoption, Appropriation, Légitimation en sont les trois temps principaux. Si le premier concerne une économie où l’innovation est un bien qui s’évalue en terme de bénéfices attendus et de coûts engagés pour en bénéficier, une économie de l´adoption, et le dernier comme un processus qui rend acceptable et accepté un nouvel objet dans l’écologie sociale, une sociologie de l´institutionalisation. Le temps de l’appropriation est celui d’une subjectivisation. C’est par l’expérience que l’objet nouveau va prendre place dans l’usage jusqu’à devenir une part de soi. Le second temps de l´innovation est celui d´une psychologie de l´expérience.

La communication médiatisée par les ordinateurs (CMC) est un champ ouvert pour l’étude de l’appropriation sous ces différentes perspectives. L’internet peut être considéré comme un espace à s´approprier. Mais cet espace n’est accessible que pour qui s’est approprié les instruments appropriés. Pas de web sans butineur, pas de chat sans messenger, pas de cartes sans geoweb, pas d’amis sans réseaux digitaux, pas de lettre sans mail.

13 décembre 2007

Truchement - comment se parler?

C´est dans un joli roman dont l´ambition littéraire est légère, mais l´histoire stimulante que j´ai adhéré et au procédé et à l idée que la rencontre à l ´autre devait plus à la construction de ponts qu´à l´illumation de l´autre. Le roman est Rouge brésil. L´histoire raconte aussi comment coloniser nécessite de comprendre l´autre et à cette fin d engager des moyens, s ils ne sont pas importants sont au moins déterminés.

Le truchement est cet enfant laissé libre à l’autre civilisation, que l’ on veut soumettre et dont on veut connaitre les codes internes. L’enfant par son appétence à la socialisation apprend langage et coutumes, donnant à ceux qui l´ont envoyé, les moyens de décrypter de l’ intérieur la civilisation qu'ils souhaitent réduire.Fiz confirme


Le truchement est un espion, un de ces jolis modèle qu’ on laisse grandir au cœur de la société adverse, et que l’on réveille un jour pour nous en dire les secrets. Rendons ici hommage au maître, à John le Carré. S il faut étudier ces hommes de l´entre deux, l´ambigüité et son désespoir, lisons le.

Le truchement est celui par lequel nous trouvons le langage commun qui permet d´échanger. C´est un médiateur. Il tient son talent d´un long apprentissage, d´une interpénétration, il fonde dans l’ expérience l´aptitude à passer d’un monde à l´autre.

Dans le roman des enfants de 10 ans. L’âge juste où les acquis ne paralysent pas l´entrée dan un monde nouveau. Le truchement se construit dans la duplicité. Un double visage, un double paysage. Sur la crête du monde, ils canalisent l´échange le plus intime et garantissent que la relation entre les membres de mondes différents, puisse dans la richesse trouver assez de raisons pour oublier que l’ailleurs est un danger dont on doit se défendre.

Les truchements plantent des pavillons. Ce ne sont pas des ports. Ils traduisent.

De ce point de vue on ne peut que souligner le travail d´un Latour. Il faudra en marquer les faiblesses. Quand la traduction tend à dire un ailleurs, le truchement a pour ordre et mission de ramener la traduction à soi.

Dans les grandes navigations du net, quels sont les truchements? Comment dún monde à l´autre, trouver ceux qui dans une double vie, traduisent lún à l´autre. On devine les guides, les interprêtes, les intermédiaires, les médiateurs, les ambassadeurs, des conseillers, des mentors, des informateurs, des parrains, des amis, des proches, une famille, des initiateurs, des go between, des boundary spanners, des douaniers, des contrebandiers, des passeurs . Tous vivent à cheval de la frontière.

Ce sont le truchement, qui dans leur expérience passent d´un monde à l autre. S' il faut en tirer une leçon, elle tient sans doute dans cette idée que connecter directement les gens ensembles, comme le font les réseaux sociaux que si les gens sont aidés quand ils passent d´un monde à l ´autre par des agents compétents. Quels sont les truchements du net?

12 décembre 2007

Pasta do Professor - Un cas de gestion des droits


Bruno De Carli, Directeur Général et initiateur du projet « Pasta do Professor » lancé par l'ABDR, nous a accordé une longue interview, analysant le problème du marché de l’édition universitaire au Brésil, et montrant comment le secteur envisage de lutter contre la copie illégale qui lui cause un tord considérable par cette initiative originale et intelligente.

Commençons d’abord par l’institution. Le « pasta do professor » est un objet simple, un dossier qui renferme les exemplaires des documents qui forment le contenu du cours du professeur, ce que les étudiants doivent lire. Son nom et l’intitulé du cours désignent ce dossier que le professeur dépose dans une des multiples officines qui se chargent de copier les documents qu’ il contient pour le compte des étudiants, à leurs frais, et aux dépens des éditeurs et des autres ayants-droits. Ces officines officient au cœur des campus avec la bénédiction des autorités universitaires.

On comprend mieux le souci des éditeurs quand on observe que depuis 10 ans le nombre d’étudiants brésiliens a plus que doublé passant à près de 5 millions d’étudiants, la création d’une multitude de facultés et d’écoles privées absorbant ce volume d’étudiant jusqu’à représenter aujourd’hui 80% des effectifs. Les frais d’inscription, considérables (De l’ordre de 300 euros par mois pour les bonnes écoles), ne sont pas grevés de charges de photocopies… L’industrie observe que dans la même période, le volume des ventes a plutôt baissé, et pire encore que le nombre moyen de livres achetés est passé de 20 en moyenne à moins de 4. S’agit-il d’un changement du profil des étudiants (plus pauvres, obligé de travailler le jour pour suivre les cours du soir) ou comme le défendent les éditeurs, du résultat d’un pillage systématique et institutionnalisé en dépit de sa profonde inégalité et illégalité.

L’industrie enquête, fait prendre en flagrant délit et poursuit officines et Universités. Mais cette répression n’est pas la seule réponse. Une réponse est en cours de déploiement, c’est une réinterprétation numérique de l´institution du « Pasta do Professor ».
Son principe est simple, il tient en trois éléments. Le premier consiste à donner aux institutions, et aux professeurs, la possibilité d’indiquer sur un site web leurs bibliographies. Le second implique que les éditeurs fournissent les copies numériques des documents souhaités par les professeurs, et le troisième oblige à installer une machine dédiée dans les officines, qui imprime les documents autorisés et les vend aux étudiants. Ces derniers ainsi bénéficient pour un coût pas très supérieur à celui d’une copie illégale, un document dont il a payé les droits et qui correspond exactement à ses besoins. Les manuels employés sont en effet vendu de manière fragmentée, chapitre par chapitre. Ainsi si le professeur ne recommande la lecture que de deux chapitres, l’étudiants n’achètera que ces seuls documents, et se passera de l’entièreté du livre.

A ce jour les éditeurs ont dit banco, et une douzaine d’entre eux ont ainsi investi un montant modique mais significatif dans le projet (près d’un million de dollars). Tout autant d’institutions universitaires de premier plan ont adhéré voyant là un moyen simple de se soustraire à des poursuites judiciaires (toutes les institutions sont en fait susceptibles d’être poursuivies). Les officines qui facturent comme auparavant la copie, mais y ajoutent un droit d’auteur qu´elles perçoivent pour le compte des éditeurs, réduisent le risque de poursuite et augmentent les possibilités de gains. Les librairies sont intéressées par un système qui leur permettrait de vendre plus et de reprendre des parts de marchés aux recopieurs.
Il reste à connaître le comportement des professeurs, et naturellement celui des étudiants. Le potentiel est immense. En supposant que pour chaque cours un étudiant doit avoir besoin de 100 pages de copies (environ 10 dollars), à 8 cours par an, c’est un revenu de l’ordre de 2 à 3 milliards de dollars qui pourrait transiter par ce système. Nous en sommes encore loin.

Ce modèle est particulièrement original à plusieurs titres.

Le premier est que le numérique n’est qu’une composante logistique du système. Les pdf ne sont pas mis à disposition sur une plateforme Internet, ils ne sont accessibles que par les copieurs dédiés, installés dans les échoppes de photocopie, dans les bibliothèques des universités ou les librairies. Le système numérique permet juste aux étudiants de prendre connaissance des dossiers de lecture recommandés par leur professeur et à ces derniers de signaler les textes qu’ils recommandent. Cette originalité prend ainsi en compte la fracture numérique qui traverse la population étudiante : si tous on accès à un mail, peu disposent d’un outil personnel pour y faire leur lecture. Le modèle papier reste encore dominant. Fondamentalement ce modèle économique hybride, est en fait un système de distribution de documents fractionnés à la demande (unbundling).Il est proche d´un i-tunes qui désarticule le modèle de l’album. Il débite des tranches de savoir, que professeurs et éditeurs définissent comme pertinents.

La seconde originalité tient dans la gestion des intérêts mutuels des parties prenantes (stake-holder management): éditeurs, Universités et facultés, professeurs, étudiants, échoppes de copie, librairies... En usant d’une méthode simple faite de carottes offertes et de menace de coups de bâton, un équilibre général se crée, fondé sur la satisfaction mutuelle des intérêts particuliers.
Il est remarquable aussi en cela qu’il propose une solution concrète pour faire passer un marché informel dans le domaine formel, problème lancinant dans nombre de pays du monde. Son concept est au fond une bonne affaire ; choisir entre un modèle légal et un modèle illégal au prix d´une prime modique. L´esprit critique notera que celui qui paye en dernier recours est au fond le plus faible.

C´est la troisième originalité du concept, que de faire reposer le coût du système sur les consommateurs finaux. On est loin d’un système de taxes, de licence globale, d’abonnement institutionnel. Il s’agit en fait de reprendre une part du marché des institutions privées d’enseignement supérieur dont les frais élevés ne couvrent pas le coût de la documentation. Dans une université libérale la documentation est un marché.

Il reste à s’interroger sur le devenir de ce système.

Son point fort est que reprenant le contenu d’une institution bien ancrée et nichée au cœur des établissements, c’est un service profondément légitime. Il ne s’agit pas d’un nouveau service, mais d´une nouvelle manière de l´assurer. La "pasta do professor' reste un élément de l´enseignement. Son accès est moins artisanal, il demeure le même. L´institution n´est pas entamée.

Son point faible réside sans doute dans la coopération avec les éditeurs, ce qui devrait être aisément résolu, mais surtout celle avec les professeurs dont on se demande dans quelle mesure ils pourraient jouer le jeu sans d’autres gratifications que d’entrer dans le monde la légalité. Jouant un rôle de prescripteur, leur intérêt au système serait naturellement d’être rémunérés, ou du moins récompensés pour leur participation. Sans envisager de commission, ce qui pose des problèmes éthiques évidents, on peut au moins imaginer, des services de presse plus systématiques, et la mise à disposition d’outils de facilitation de leurs enseignements (blogs, réseaux sociaux, ressources documentaires…). Pour que le système ait un intérêt certain quelle masse critique atteindre ? Combien de professeurs convaincre à l´utilité d´un tel service ?

On peut s’interroger sur la résistance du système éducatif. Le prix des livres, même allégé par la copie, reste élevé, et peut entrainer une transformation de la pédagogie. Plutôt que de s’appuyer sur des lectures, le cours peut sur un modèle européen s’appuyer sur son énonciation par le professeurs, sur des sources gratuites mises à disposition par de multiples acteurs, et les ressources documentaires dont disposent les institutions avec les abonnements bibliographiques tels que EBSCO ou Proquest. Ce scenario est peu probable, car la langue reste une barrière forte, ces éditeurs ne publient qu’exclusivement en anglais.
Dans tous les cas, ce modèle d´affaire doit retenir l´attention à la fois pour le contexte : le Brésil, la croissance rapide des populations étudiantes dans un environnement social inégalitaire, et la solution, dont le point le plus intéressant réside dans la prise en compte des intérêts variés des parties prenantes.

18 novembre 2007

Intelligence marketing


La maladie du marketing est sans doute le nominalisme. Quand le monde change, et que la vague des modes le submerge, cela arrive à chaque marée, des mots nouveaux prennent le dessus sur des mots anciens. Nous avions eu l’habitude de la recherche marketing, il faudra se faire à l’intelligence et à la veille marketing.

Au fond il ne s’agit que d’étude de marché et de l’importance d’y consacrer un effort accru pour que la firme puisse s’adapter aux variations de son environnement. Et pourtant, en deçà des mots, il y a des transformations plus fondamentales qui peuvent justifier les changements de terminologie, sans pour autant remettre en cause les concepts essentiels.

Le premier d’entre eux reste pour nous celui de l’apprentissage organisationnel. Comment la firme développe des moyens de comprendre, d’analyser, de prévoir les changements de son environnement : qui sont les concurrents ? Quels sont les besoins des consommateurs ? Comment les conditions économiques, technologiques et sociales modifient l’équation de la demande et celle de l’offre ? Ce concept a cela d’intéressant qu’il ne réduit pas l’apprentissage à l’effort formel de représentation du monde mais le considère comme un processus général dans l’organisation qui fait que chacun dans sa partie réactualise son rapport au monde (apprentissage adaptatif) et que l’ensemble puisse le reconsidérer (apprentissage génératif). Cette nécessite échappe au temps, elle est inscrite dans la nature même de la compétition. Elle est une exigence d’autant plus forte que l’environnement se reconfigure rapidement.

Ce qui change est en fait la manière dont la firme apprend, ce qui n’est pas sans conséquences sur les changements dont elle est l’objet. Et dans ce domaine les technologies jouent un rôle essentiel. Le simple fait qu’aujourd’hui l’espace de la compétition est aussi l’espace des représentations, celui de l’Internet, conditionne la nécessité de suivre les mouvements en temps réel. S’il fallait des mois auparavant pour qu’un concurrent fasse connaître ses inventions, il suffit aujourd’hui de quelques jours, ses propositions sont instantanément connaissables dès lors qu’elles sont mises en ligne. Quand autrefois il fallait des années pour qu’une connaissance nouvelle arrive au monde après avoir traversé les barrages des revues scientifiques, quelques pré-print suffisent pour que dès lors que l’équipe inventive soit sûre de sa publication, le monde entier puisse être potentiellement informé. Quant autrefois le consommateur laissait de plus aptes que lui à vérifier la qualité des produits, il peut adopter avant même qu’ils soient lancés les produits nouveaux qu’on lui destine.

Et les technologies, celles de l’information, permettent de détecter tout cela très tôt. Il suffit même de programmer raisonnablement quelques outils pour en avoir sans effort l’information. Quant autrefois on lançait des enquêtes coûteuses et longues, il suffit de brancher quelques microphones sur le bruit du monde pour saisir ses variations. C’est ainsi que l’étude laisse place à la veille. C’est ainsi que la prévision laisse le champ libre à la surveillance.

La grande transformation est que le suivi du marché n’est plus une fonction ponctuelle et réfléchie, mais un contrôle automatique et quasiment industriel qui associe le plus tôt possible les moyens de la régulation. Nous connaissons aujourd’hui dans le domaine du marché ce qui a affecté la gestion de la production dans les années 80. Le temps réel se substitue à la connaissance des structures profondes.

Est-ce un gain ? Pour partie certainement, dans la totalité nous pouvons exprimer un certain doute. La transformation des marchés, fusse-t-elle accélérée, ne répond pas aux mêmes impératifs que les processus industriels. Dans ce dernier les variations les plus fortes sont à forte fréquence. La température d’un four peut varier à la seconde, et les conséquences d’une baisse ou d’une hausse peut être catastrophiques, cela justifie une surveillance constante. Les marchés n’ont pas ce rythme, il faut toujours des années pour que les consommateurs changent et un rythme analogue pour que la concurrence se transforme. Quand les variations de l’une sont conjoncturelles, celles de l’autre sont structurelles. Moins que la surveillance d’un climat, il s’agit de surveiller le changement des structures. Celles-ci méritent moins l’observation de mesures précise, que la construction de théories profondes et pertinentes.

De ce point de vue le succès de l’intelligence marketing réside moins dans la capacité à rendre compte des variations journalières ou hebdomadaires du marché, qu’à révéler des mouvements de fond. Cette intelligence ne réside pas dans la finesse de la mesure, mais dans la capacité à rendre compte d’une certaine architectonique à partir de fait insignifiants, de variations subtiles et d’une compréhension profonde des mouvements sociaux.

On mettra donc à l’actif de la veille et de l’intelligence marketing le fait d’élargir ses modes de surveillance, sur le web d’abord pour ce qui est de la concurrence et de l’écoute client, et dans les systèmes CRM pour un examen fin des variations temporelles de la consommation et des segmentations à grain fin. Mais on lui demandera d’être plus exigeante quant à la manière dont se structurent ses systèmes d’observation, l’intelligence ne pouvant se satisfaire d’une plus grande fréquence d’observations, mais réclamant une plus grande compréhension des mouvements fondamentaux qui anime la société et ses marchés.

L’intelligence marketing ne peut être une question de renseignement, mais de plus en plus la capacité à structurer un flot envahissant d’information, à ségréger le futile et l’essentiel, à construire des filtres, à structurer des tampons, à nourrir des modèles interprétatifs qu’un travail scientifique aura validé.

Si la mode conduit la veille et l’intelligence marketing à envahir les séminaires et les cabinets de conseil, sa victoire comme discipline viendra de l’exigence de ses modèles. En la matière, il y a peu de nouveauté. Il suffit de puiser dans le stock intact des sciences sociales pour en trouver de pertinent.

Nous pouvons en donner un exemple clair : à quoi servirait de mesurer constamment la satisfaction des consommateurs, si nous ne pouvions comprendre que celle-ci dépend moins de ce qu’ils jugent moins les services en fonction de ce qu’ils attendent que de ce qu’ils sont en droit d’attendre. Cela implique que non seulement soit surveillé le niveau de satisfaction mais aussi le niveau des attentes. L’observation du maintien de la première sera d’autant plus informatif qu’on aura observé que les dernières s’accroissent. Si le dispositif qui permet de mesurer les premières est facile à envisager (un questionnement systématique après chaque transaction par le biais d’un mail), le second est plus complexe : il peut passer par une analyse systématique des discours produits dans les commentaires de blogs. Un système d’intelligence réclame ainsi que les concepts soit bien établis (satisfaction et attentes) et que le dispositif idoine soit mis en œuvre (Score de satisfaction, indicateurs d’exigence et tableau de bord comparatif de l’évolution des deux indicateurs).

Un dispositif de veille intelligent nécessite ainsi plusieurs éléments : a) une théorie forte du phénomène qu’on observe b) des mesures pertinentes au regard de cette théorie c) une instrumentation adaptée à la mesure que l’on souhaite faire.

Rien ne change donc sous le soleil de la science que la capacité d’étendre dans le temps et l’espace des méthodes fort bien établies dans le domaine du sondage d’opinion. L’étendue et la continuité en sont les principaux changements.

Mais il faut en ajouter un autre. Quand le résultat des études se confinait à ceux qui en avaient la stricte responsabilité, l’erreur, l’approximation était assumée par les agents qui en appréciaient les résultats. Dans un système de veille et d’intelligence, ces résultats sont amenés sans beaucoup de précaution à tous ceux qui pourraient en avoir un usage. Un risque est grand que pris à la lettre l’information aussi bien traitée qu’elle soit ne soit interprétée par des conventions communes qui ont peu avoir avec les concepts qui la structure. De ce point de vue l’intelligence marketing n’est plus une capacité à comprendre le marché, que celle de donner aux agents opérationnels les moyens de s’approprier des connaissances pour agir justement. L’apprentissage n’est alors plus seulement une question de découvrir de nouvelles connaissances, mais celle de les diffuser et de les faire s’approprier correctement.

Tel est le véritable défi de l’intelligence marketing, non pas de recueillir le renseignement, non pas de l’organiser intelligemment, mais de faire en sorte qu’il soit approprié de manière correcte par ceux qui en ont l’usage. Et cela vient au-delà du vieux concept de marketing research, au-delà de la question de la bonne vieille étude de marché, cela concerne ce que certains auteurs appellent le sense-making.

13 novembre 2007

La logique des canaux



Pour de nombreuses entreprises de services, compagnies de télécom, banques, transports, énergie, la question de la gestion des canaux de distribution est cruciale dans la mesure où elles se diversifient en termes de technologie et de fonctionnalités.


Le web devient un canal incontournable, site, portail, simple blog, il tend à être le pivot d’un faisceaux de canaux soit enraciné dans la réalité spatiale (les agences et les automates), soit projeté dans les canaux interactifs : mail, chat, téléphone.


Le multicanal se construit ainsi dans le fil d’une orientation client authentique, dans le déploiement des technologies, et cette question difficile : faut-il accorder les canaux en fonction de l’utilisateur ou de l’utilisation ? De la conquête où de la défense? Des modèles différents émergent, mais converge aussi vers une intégration plus forte, centré sur les représentations du client.


Voici une question qui mérite une attention plus soutenue, celle des stratégies de distribution multicanales, dont on trouve un reflet dans les préoccupations 360° des publicitaires. Quelques éléments sont esquissés ici - Stratégie à l'horizon 2010 - Une enquête pour Cincom.

L’ombre du monde s’épaissit

Dans un roman de Murakami (Kafka on the Shore), un des personnages qui se présente lui-même comme un idiot, incapable de parler correctement, a cependant comme tout les idiots du monde une faculté secrète, celle de converser avec les chats, auxquels il s’adresse avec une délicate politesse et une subtile douceur. Un des épisodes l’amène Tanaka à rencontrer un Chat qui lui fait remarquer que son ombre est extrêmement fine, se désolant pour lui qu’il ne possède qu’une ombre incomplète.

Agrandir le plan

L’ombre est ici évidemment une métaphore de la présence au monde, cette marque dont l’épaisseur témoigne de notre propre épaisseur. Si notre personnage est capable de dialoguer avec les chats, qui vivent dans l’ombre du monde, il n’existe pas dans le son propre monde, celui des hommes. Le soleil qui fait nos ombres, est naturellement le langage, et l’ombre n’est rien d’autre que nos paroles.

Dans ce monde nouveau que peu à peu nous connaissons, l’ombre du monde s’épaissit, il suffit pour s’en rendre compte de fréquenter l’Internet, et en particulier ces nouvelles applications qui dressant la carte du monde y porte nos parole, nos regards, par les photos que nous y déposons comme autant de traces de nos parcours. Je parle de GoogleEarth, de Flicker et de ces multiples applications qui couvrent les cartes de nos représentations. L’épaisseur prend ici la forme concrète du nombre d’images déposées en chacun de ses points.

Pour poursuivre la métaphore, le soleil, c'est-à-dire ce qui illumine, est cela qui nous permet de produire, et prosaïquement il se constitue de cet ensemble technique complexe qui associe des appareils photo numériques, des ordinateurs, les applications internet, les bases de données cartographiques, et notre liste est loin d’être exhaustive. L’ombre est cette couche produite par les subjectivités accumulées, qui loin de donner à l’objet considéré, le lieu désigné par la carte, une représentation claire, au contraire en forme une image chatoyante, une sorte d’hologramme multidimensionnel.

Pour le spécialiste de communication, cette observation doit susciter de nombreuses réflexions. Quand en charge de créer pour le monde des images claires et peu ambiguës des marques, des institutions, des lieux. Il fera face à des images multiples, les siennes servant de matière à mille retournements, détournements, mélanges. On comprend la tentation d’abandonner la production centraliser de l’image, ce qu’à assuré longtemps la production publicitaire, pour se contenter de coordonner la production éparse et multiforme des sujets de la communication. Dans ce monde à l’ombre épaisse, l’enjeu n’est plus d’en éclairer les objets, mais d’orchestrer les multiples faisceaux qui les balayent, faire que les ombres au moins soient nettes.

28 octobre 2007

Expérience design


Depuis quelques années se développe l’idée que la source de valeur pour les consommateurs ne se trouve pas seulement dans les produits et leurs qualités intrinsèques, ni même dans les qualités extrinsèques qui prennent la forme de la marque et de ses valeurs symboliques, mais dans l’usage même de ces objets, autrement dit dans une mystérieuse interaction du sujet et de l’objet. Cette idée d’interaction est un pis aller intellectuel, une manière de désigner le lieu ou se passe la chose sans être capable de dire ce qui se passe.

L’expérience est ce moment particulier où dans la pratique, l’usage, le sujet donne aux effets de l’objet un sens, une réflexion, un écho à des structures enfouies, une mémoire vive, ce qui dans l’aléa subsiste pour tenir lieu de ce que l’on tient pour être soi. Développons l’idée.

Un premier élément est une pensée du sujet. Le sujet est cet être qui se représentant soi-même, acquiert une idée de soi comme l’on construit l’idée d’un autre. Relisons Paul Ricoeur pour aller plus loin. Il est la chose qui se regarde, et choisit dans ce qu’il voit les éléments qu’il fera soit. Le sujet s’échappe à lui-même en renonçant à certains de ses attributs et se reconnaît en en sélectionnant d’autres. Le regard sur soi conduit à fabriquer une idée de soi dont nous n’avons aucun scrupule à penser qu’elle constitue le sujet. Ces éléments perdurent à travers le phénomène et sont élus comme constituant une identité. Le sujet n’a pas d’essence, il se construit dans les choix d’une intense réflexion. Autrement dit le sujet est moins une chose qu’une histoire, une histoire qui se retourne sur son cheminement, et revendique des éléments qui forge son identité. Le sujet est ainsi une accumulation raisonnée d’expériences particulières.

Ce sujet se confronte sans cesse à des objets nouveaux qu’il éprouve à l’aulne de son identité. Il donne sens aux événements qui martèlent sa vie, se les appropriant en les inscrivant dans sa biographie. Cette appropriation est l’expérience, et l’intensité de l’expérience tient dans la force avec laquelle un acte particulier résonne dans ce que le sujet a retenu de sa propre histoire, dans la mesure où cet épisode répond aux valeurs dégagées du flux de la vie, et signifie l’identité du sujet, ou au contraire l’aliène.

Notre propos est bien abstrait, il demeure cependant la trame d’une méthode d’analyse dont nous avons à défendre la force. Soulageons le lecteur en lui opposant un exemple simple. Une des belles réussites de l’industrie électronique est celle du Blackberry. Une réussite et une addiction.

Elle s’inscrit à notre sens dans l’expérience d’un sujet particulier : le cadre soumis à la dictature des e-mails. Ce cadre brillant qui cependant pour maintenir un statut se doit de répondre vite aux multiples sollicitations dont il est l’enjeu. Ce sujet s’est construit dans l’habileté à répondre aux multiples sollicitations dont il est l’objet, il se maintient dans la capacité à répondre à chacun dans les limites de ses capacités. Il mène une course poursuite contre la pile des mails qui s’accumulent et construit une discipline, celle de répondre à chacun. Ce sujet a une histoire, il a appris douloureusement à utiliser le clavier d’un ordinateur, qu’il retrouve d’ailleurs sur ce terminal, il a souffert pour apprendre à classer ses courriers, s’est fait absorber par la convention de l’urgence, à trouver dans les gares, les hôtels et les aéroports les points de contact avec sa base, il a découvert comment éviter les opportuns, négocier des absences, et justifier son efficacité moins par ce qu’il fait que par l’aptitude à répondre vite et bien.

Le remarquable de cet outil est que par des choix de conception, de design, il répond non seulement au besoin, mais prolonge l’idée de soi, des sujets qui l’emploient. Cela tient au fond à peu de chose : le choix du clavier, la focalisation sur la fonction mail, le ciblage d’un corps social qui partage la même expérience.

De ce cas on apprendra deux ou trois choses : d’abord que l’expérience n’est pas l’émotion d’un instant mais le propre d’une vie ; qu’elle concerne essentiellement l’idée que l’on se fait de soi et les significations que l’on accorde à ce que l’on fait, l’expérience va ainsi au-delà de l’usage ; enfin que la mystérieuse interaction ne l’est pas autant que cela, il suffit de la considérer comme une appropriation, ce processus par lesquels le sujet absorbe les objets, autrement les subjectivise. On comprend alors, que l’expérience terrible est celle où les objets de consommation nous aliènent. Ce beau témoignage sans servir de preuve en donne une remarquable illustration.

14 octobre 2007

Parle avec lui…


Un des enjeux de la communication publicitaire sur le web et de rendre tangible ce qui ne l’est pas et au-delà d'engager une véritable conversation.

D’avoir amené les consommateurs sur le site de la marque reste encore insuffisant, un coup d’œil peut lui suffire, et son exploration s’arrêter à la première page. N’oublions pas que s’il est arrivé là c’est au prix d’un effort minime, juste un clic de curiosité, dont l’effort est largement récompensé par le visuel qu’il découvre. Aller plus loin, alors que son attention est lâche, qu’il n’a pas de but particulier, ni d’envie précise, lui coûtera plus qu’il ne peut espérer.

C’est alors qu’il faut l’inviter à converser, que des réponses à ses questions naturelles doivent être apportées. La structure des pages ne se prête guère à cet exercice, c’est pourquoi il devient nécessaire que la page s’adresse à lui, et l’engage dans un effort plus important. On connaît bien ce processus d’engagement qu’autrefois Kiesler* a parfaitement décrit, et dont la théorie a permis d’éclairer les techniques de pieds dans la porte, de leurre et bon nombre de techniques de vente.

Si le processus est connu, il reste à en comprendre par quel moyen peut-on réaliser cela sur les sites web. Une première réponse réside dans la création d’avatars qui accompagnent le visiteur dans son cheminement, réduise l’effort de la recherche, en suggérant des chemins et des solutions par un jeu de questions habiles, qui laissent au sujet une liberté de choix. On a démontré que leur usage avait un effet favorable, citons l’article de Holzwarth, Janiszewski, & Neumann (Journal of Marketing, Oct 2006).

La force des avatars réside certainement dans leur capacité de tangibilisation et une voie d’étude intéressante peut se situer dans les théories de l’incarnation.

La technologie permet d’aller bien plus loin, les avatars sont aussi des robots et doués de parole, certains Chatterbots sont remarquables, répondant naturellement à des questions en langages naturels, ils semblent doués pour une conversation presqu’en tout point similaire à celui d’un vendeur. Allez voir le cas de George ou de Cybelle, on en aura une bonne illustration. Les technologies qui permettent ces prouesses sont de l’intelligence artificielle, ce n’est pas l’objet ici de les présenter.

On imagine aisément des applications étonnantes en marketing, Microsoft en prépare quelques une, le MSN Messenger pouvant servir de support idoine à la conversation (invitez sur votre liste de contact le bot smarterchild@hotmail.com, pour un exemple élémentaire).

La question qui se pose est finalement de savoir si ces conversations sont de même nature qu’avec un être humain, et en engendre les mêmes effets. Cela nous rappelle le vieux test de Türing, qui établit que l’intelligence est acquise dans la mesure où le sujet de la conversation ne distingue pas la machine de l’homme. Jusqu’à quel point les sujets de ces conversations attribuent de l’intelligence au robot dont ils savent qu’ils le sont, contrairement aux conditions de l’expérience de pensée de Turing ? Attribuent–il une intentionnalité (théorie de l'esprit)? La notion de confiance a-t-elle un sens ? Y a-t-il sympathie ? Affection ? Nos forces de ventes deviendront-elle des AISF (Artificial Intelligence Sales Forces) ?

Voici un beau sujet de recherche, dont on devine aisément la méthode. Comparer des conversations similaires par leurs objets, les unes tenues avec un bot, les autres avec un humain. Mesurer et comparer l’expérience qui en découle.

* C.A. Kiesler, The Psychology of Commitment, Academic Press, New York, 1971. Et pour une réactualisation : Robert-Vincent Joule & Jean-Léon Beauvois, La soumission librement consentie, Presses universitaires de France, 1998. Un texte de Gueguen donnera plus de référence et une jolie application.


5 octobre 2007

Image Mining



Le web devient une source de premier ordre pour les études. Si l’analyse des flux de navigation (fichiers logs), les questionnaires en ligne, et le contenu des commentaires des forums et des blogs soumettent au datamining et au textmining de nouveaux gisements à explorer et de nouveaux enjeux d’analyse, l’image fixe ou animée, sera sans doute la prochaine frontière.

En matière de source de données, les sites web2.0 tels que Flickr, AOL, YouTube, DailyMotion rassemblent un matériau unique. Des images dont la particularité est de ne pas avoir été produite dans une intention commerciale, mais qui représente le regard quotidien et naïf d’une large population, une population internationale, une image globale, une image localisable. On y cherchera volontiers la manière dont les marques y sont représentées. On y trouve aussi un matériau plus habituel, celui qui provient de sources commerciales, et auxquelles ces populations sont exposées, son abondance à l’avantage d’avoir été sélectionnées par ces dernières. La première garde la valeur de l’ingénuité qui rend compte de ce que deviennent les efforts à produire des images.

Quels que soient les buts de l’étude : analyse phénoménologiques, exploration de l’expérience des consommateurs, étude sémiotique, associations d’idées, représentations sociales, images de marques, deux grands problèmes se dégagent. Comment constituer à partir de ces sources un corpus pertinent ? Autrement dit la question de l’échantillonnage. Comment analyser ce corpus ? Quel codage ? Quel traitement ?

Ces questions feront l’objet de la discussion de l’atelier du 31 janvier 2008 à la suite de la présentation d’un travail initiateur d’ Eric Vernette, Professeur à l’Université Toulouse I et par ailleurs Président de l’Association Française du Marketing.

Marketing et comptabilité : de nouvelles relations


Nous ne cesserons pas d’affirmer dans ce blog qu’une des innovations apportée par les technologies de l’information, le système CRM en premier lieux, est de pouvoir mieux compter ce que l’on alloue à chaque client pour l’attirer, le retenir et accroître le chiffre d’affaire qu’on réalise avec lui, où même réduire la dépense qu’on lui alloue.

Si le marketing prête un intérêt particulier à la capacité d’accroître les gains, il doit être attentif aux coûts engagés pour les atteindre. Avant même d’en faire la balance il est nécessaire que l’on compte et les gains et les coûts, et si nous pouvons le faire à l’échelle du segment, ou du client, un progrès est enregistré.

Mais ce progrès nécessite d’explorer ce nouvel espace de la comptabilité, et de comprendre comment le marketing peut adresser à la première des informations qui lui permettent de mieux rendre compte des coûts, des gains et de la rentabilité de l’action. Au-delà d’autres questions peuvent être envisagée : celles du contrôle de la pertinence, de l’efficience et de l’efficacité des plans marketing élaborés dans ce nouvel environnement.

L’objet de cette séance se situera exactement dans cette perspective : l’implantation de système CRM ne contribue pas seulement à une individualisation de la gestion marketing mais aussi à l’individualisation du calcul des charges, de celui des coûts et de celui de la rentabilité. Que ce soit au niveau de l’enregistrement des charges, où à celui du contrôle des opérations, la révolution technologie demande un nouveau dialogue entre les comptables, les contrôleurs de gestions et les responsables du marketing. Des techniques telles que l’ABC, l’ARC, et toutes autres méthodes destinées à mesurer les coûts clients, devront jouer un rôle plus important dans la décision marketing.

Nous opposerons ainsi à nos invités, éminents comptables, Olivier de la Villarmois et Yves Levant, quelques problèmes dont leurs solutions, permettent de nouveaux modes d'allocation des ressources, de nouvelles voies de performance.



25 septembre 2007

Modéliser la valeur client



Depuis les années 90, avec le développement des recherche sur la satisfaction, l’orientation client, et le développement des outils de CRM, la valeur des clients (à distinguer de la valeur pour le client) s’est avérée être à la fois un thème central de recherche, mais aussi un enjeu de gestion pour les firmes. Des auteurs comme Blattberg ou Rust dès les années 2000 ont proposé d’en faire le socle de la gestion marketing.

Un premier problème s’est posé au travers de la mesure du capital client (Customer equity, CE) qui s’est fondée sur la notion de valeur actualisé du client (life time value, LTV), le capital client se définissant comme la somme des LTV. Un premier modèle est sans doute celui de Colombo schmittlein et Morrison en 1987, par la suite une multiplicité d’approches ont été engagées selon que l’on soit dans un cadre contractuel ou non, que l’on soit dan une situation de « perdu pour toujours » (lost for good) ou de « toujours un euro à ramasser » (always a share), que l’approche soit stochastique ou déterministe, la mesure individuelle ou agrégée, Villanueva et Hanssens (2007) donnent une typologie intéressante de ces familles de modèles.

Le sujet reste d’actualité. Parmi les problèmes qui restent posés quatre d’entre eux méritent une attention particulière :

Le premier est celui de la modélisation de la LTV. Le développement considérable d’une famille de modèle stochastiques fondés sur la distribution NBD, dont les différentes formulations correspondent à différentes hypothèses concernant le comportement du client et son hétérogénéité. L’enjeu principal est d’introduire dans ces modèles des variables individuelles par lesquelles non seulement ces modèles permettront une évaluation financière plus fine, mais aussi d’engager une segmentation plus opérationnelle, leur complexité devant être évalué au regard des techniques plus utilisées telles que les modèles logit utilisés pour l’évaluation du churn, les modèles de survie, ou encore le bon vieux RFM.

Un second problème est celui de l’introduction des variables d’actions marketing au sein de ces modèles. La valeur potentielle d’un client en effet n’est pas une chose donnée une fois pour toute, ce n’est pas comme on l’imagine trop souvent un élément exogène, la valeur potentielle du client dépend de l’effort qui lui est consacré. On aurait plus intérêt à considérer dans cet esprit la notion de valeur optimale du client, qui se définit simplement comme une valeur marginale : la valeur future du client produite en dépensant un euro de plus.

Le troisième problème découle des précédents. Il s’agit moins d’une question de formulation de modèle, que de tester les hypothèses courantes de la gestion de clientèle. Les clients qui ont la plus grande valeur sont-il les plus sensibles à l’action comme les praticiens le considèrent ? Quelle est la rémanence des actions de marketing client habituelles ? Dans quelle mesure la valeur future des clients dépend-t-elle de leur mode d’acquisition aujourd’hui ? Les gros clients aujourd’hui seront-il vraiment les plus fidèles ? La diversité des achats (cross et up selling) est-elle liée à l’ancienneté des clients ? Bref il s’agit de considérer comment l’action marketing et les caractéristiques des clients interagissent pour produire une plus ou moins grande valeur.

Il reste enfin un dernier problème qui est celui de la relation entre la valeur de la clientèle (CE) et la valeurs des clients (LTV). Si la LTV est analysée pour les clients en portefeuille, le CE doit prendre en compte la politique de renouvellement des clients, et il est peu probable que maximiser la LTV revienne à maximiser le CE, contrairement aux discours courants, il faut mieux sans doute réserver une part des ressources destinée à fidéliser pour acquérir et sélectionner ceux qui formeront la valeur future du portefeuille. Comment optimiser l’effort d’acquisition, de rétention et de développement de la clientèle ?

Ce sont ces questions qui seront discutées dans la séance du 9 octobre autour de la thèse d’Herbert Casteran, avec Michel Calciu et Lars Meyer-Waarden, Maîtres de conférences à l’USTL et à l’Université Toulouse III.

23 septembre 2007

Implémenter les systèmes CRM



On aura beau affirmer que désormais le marketing est médiatisé par la technologie, encore faut-il que la médiatisation se fasse. La mise en œuvre des systèmes d’information reste un enjeu fondamental pour les firmes, d’autant plus qu’il s’avère qu’elle ne réussit pas aussi fréquemment qu’on pourrait le souhaiter comme en témoigne une étude d’IBM publiée par le Journal du net.

Cette question fondamentale est celle qu’étudie Laurent Bravetti, Doctorant au CEROS et par ailleurs ingénieur de recherche à l’Université du Luxembourg. Différentes réponses ont été proposées dans la littérature scientifique dont il donne un premier aperçu.

Une première explication s’inscrit dans la tradition des modèles d’adoption de l’innovation qui s’appuient sur le montant requis de l’investissement et des bénéfices attendus, et qui a trouvé une nouvelle expression dans le cadre du modèle TAM de l’adoption des technologies de l’information. Le système sera adopté dans la mesure où il fournit un réel service à ceux qui l’emploie et que cet usage est aisé. Dans une optique semblable, essentiellement économique, la littérature stratégique fondée sur l’analyse des ressources propose une explication qui fait de la détention de certaines compétences le facteur clé d’une mise en œuvre réussie de stratégies orientée client. On en trouvera des éléments dans la thèse de Mohamed Bensedik.

L’introduction d’un tel système peut aussi être considérée comme un changement organisationnel auquel s’oppose souvent des résistances. Ces résistances peuvent expliquer l’échec des mises en œuvre, alors qu’une conduite de projet adéquate en explique le succès. C’est une perspective politique qui conçoit l’organisation comme un champ de forces.

Ce point de vue sociologique s’est enrichi des apports de Giddens avec les travaux d’Orlikowski qui développe un point de vue constructiviste de la mise en œuvre du système. Si celui-ci structure les comportements des agents, ceux-ci, car ils conservent des libertés d’interprétation, peuvent à leur tour redéfinir l’élément structurant.

Mais ce qui semble s’imposer dans la littérature s’inscrit dans la perspective de l’analyse contingente des organisations qui suppose que la performance dépend de l’ajustement des facteurs stratégiques, organisationnels, technologiques. Le représentant principal de ce courant de recherche est sans doute Venkatraman, dont le modèle de co-alignement a suscité une très riche littérature. Cette question de l’ajustement ouvre à un problème d’interprétation. L’ajustement signifie –t-il que les éléments s’emboîtent comme les pièces d’un puzzle, ou que certain d’entre eux ont assez de plasticité pour s’ajuster au autres comme un bas sur la cuisse d’une femme ? Ce serait le point de vue fonctionnaliste.

Ce point de vue dynamique, et interactif, connaît avec les travaux de Benavent et De la Villarmois une extension plus raffinée et plus spécifique. Dans la mesure où le système CRM est un générateur d’apprentissage, mais aussi un instrument de contrôle, l’ajustement requis serait celui des deux dimensions de l’organisation modifiée par l’introduction du système : l’organisation comme processus d’apprentissage et l’organisation comme système de contrôle. Il s’agit ici d’un point de vue écologiste qui considère les organismes comme des unités qui satisfassent à la fois une exigence de cohérence interne, et des facultés d’adaptation à l’univers dans lequel ils se meuvent.

Chacun de ces points de vue n’est cependant pas exclusif des autres. L’objet concret de la gestion est rarement un objet pur qui répond à une seule voie causale, il s’impose souvent comme un nœud où des phénomènes d’ordre différents interagissent, exigeant de l’analyse le soin d’en démêler les fils et d’en pondérer les influences, d’en apprécier les interactions. Pour répondre à cette question simple de pourquoi l’introduction de système d’information destiné à gérer la relation client peut réussir ou non, il faudrait certainement répondre par un modèle éclectique qui associe les différentes explications.

19 septembre 2007

L’orientation marché, une question de rôle

Le concept d’orientation marché ou/et client, fait l’objet depuis de nombreuses années d’investigation importantes. Il se présente dans une double approche. Une culture organisationnelle d’une part, un processus informationnel d’autre part. (Narver et Slater ; Kohli et Jaworski). Cette double nature de l’orientation client peut être interprétée dans une perspective constructiviste pour laquelle, elle est une somme de conventions communes relatives à ce qu’est le client. Le rôle qu’on lui attribue, et les statuts qu’on lui confère, en formant la clé de voûte.

La dimension culturelle de l’orientation client se saisit dans l’importance qu’on lui accorde dans les processus d’affaires et dans la définition du contexte organisationnel. Elle se manifeste par un mot d’ordre général « bébé président » pour reprendre un slogan bien connu, elle s’illustre dans de nouvelles présentations des organigrammes en forme de pyramides inversée, ou de cercles concentrique dont le foyer est le client. Elle s’incarne par la constitution de département de la relation client. Mais si l’importance affirmée justifie l’engagement organisationnel, elle n’en explique pas la nature des choix. De manière plus subtile, à l’importance accordée au client, s’associe une certaine représentation de ce dernier. Cette représentation et c’est notre thèse, peut se concevoir comme un système de rôle que l’on attribue au client et qui se défini en termes de droits, d’obligations et de devoirs. Une hypothèse accessoire serait que l’organisation dote le client d’un statut pour lui permettre de jouer ce rôle. En miroir du rôle attribué, la firme définit le sien, et cette définition construit sa culture client.

Par ailleurs, une autre conception de l’orientation client se définit comme un ensemble de processus informationnels (production, dissémination, réactions aux informations du marché) qui sont mis en œuvre par des technologies d’apprentissage, des systèmes qui intègrent des instruments, des objets, des méthodes, de techniques, des représentations, des discours, des visions, de manière plus où moins cohérentes et pertinentes. Ces technologies sont performatives en cela qu’elles orientent l’action marketing et la contraignent mais laissent des possibilités aux acteurs de les « habiter » en fonction de leurs intérêts et de leurs stratégies. Ces technologies, les systèmes CRM en premier lieu, portent par leur conception même une représentation du client, mais ce qu’elle produise, ne prend sens qu’au regard des acteurs qui les exploitent. Le statut du client, et le rôle qui en découle, structurant le regard des acteurs, serait ainsi ce qui donne à l’information une certaine intelligence.

Ces rôles se manifestent assez clairement lorsqu’on énumère les différents termes employés pour décrire celui du bénéficie d’un produit ou d’un service (de manière marchande ou non) : bénéficiaire, adhérent, client, abonné, consommateur, acheteur, usager, membre, …Le vocabulaire donne une intuition juste que chacun ne peut espérer attendre la même choses, ne soit pas soumis aux mêmes obligations, et ne se voit pas interdit les même droits.

Ainsi la dualité de l’orientation marché (à la fois système de rôle attribué au client, et système de technologies d’apprentissage que les acteurs s’approprient) ouvre la voie à une pratique mieux maîtrisée de la relation client, pour autant qu’on y introduisant l’élément structurant qu’est le rôle.


Dans l’interaction et la relation entre la firme et ses bénéficiaires, on se rend compte ainsi que trois sources de conflit peuvent émerger : un conflit organisationnel quand la culture de l’entreprise ne s’ajuste pas au présomptions des systèmes d’information, un conflit externe quand le rôle attribué et mis en acte par la firme ne correspond pas au rôle que le client sait qu’on lui a donné, un conflit interne quand le client se désespère que le rôle qu’on lui donne n’est pas celui qu’il se serait donné

Ce concept de rôle a aussi la richesse de la métaphore. Si le client est acteur, que la firme est l’auteur, la relation est un théatre...

Audrey Bonnemaizon - Doctorante CEROS

16 septembre 2007

Le mobile réapproprié


Une étude réalisée par le GRIP en 2005, commandée par l’AFOM et relevée ces jours-ci par Le Monde*, se donne comme un très bel exemple d’étude d’une technologie de consommation. Le caractère multidisciplinaire et la méthodologie suivie sont remarquables. La bibliographie précieuses.

Nous la relevons d’autant plus volontiers qu’elle pose assez mieux le problème général des technologies de consommation en notant dans ces conclusions : « …les usages, les représentations et les comportements sociaux du mobile aujourd’hui posaient de façon cruciale la question de la maîtrise (de l’outil, des situations communications, des situations sociales) et la question de la singularité (celle de l’objet et celle de l’usager)… ».

Les deux termes pourraient se réduire à la notion d'appropriation. Une expérience.

---
Voir aussi Pas de globalisation pour le mobile
*
© Le Monde.fr

11 septembre 2007

Chercher c'est être recommandé


J'achève la lecture d'une thèse portant sur l'accès aux objets dans les sites marchands* et me remémore celle aussi récente de Fernando Fereira. La co occurence de ces deux travaux, bien différents dans leurs objets et leur méthodes, appelle à une réflexion sur les priorités de recherche.

Si ces deux travaux s'inscrivent dans un champ bien connu du marketing et du comportement du consommateur, celui de la recherche d'information, les contextes qu'ils abordent posent véritablement de nouveaux problèmes.

Depuis les travaux de Bettman, pour ne prendre qu'un repère, l'environnement du consommateur a bien changé, quand autrefois le problème était d'utiliser une information rare et coûteuse, il s'agit pour lui aujourd'hui de traiter la surabondance et la faible valeur de l'information.

Un problème crucial est donc aujourd'hui moins de comprendre comment l'information s'intègre dans la décision, que de décrire, d'analyser les stratégies dont le consommateur dispose pour choisir et structurer dans le flot qui l'abreuve, les éléments d'une décision. Il s'agit aussi de comprendre comment ces stratégies s'accordent aux tâches qu'il exécute et aux buts qu'il se donne.

L'art de naviguer, celui de trouver un chemin, celui de se retrouver est ainsi l'objet essentiel des futures recherches. Comme le marin a sa boussole et le compas, le consommateur aussi dispose d'outils, des instruments multiples dont le trait commun est de lui recommander une direction à prendre plus que de le faire parvenir au but qu'il s'est donné et qu'il reformule le plus souvent au cours de son chemin.

La recommandation, d'autres préfèrent parler de prescription, est au coeur de l'activité de recherche. Se faire bien recommander est le souci de celui qui recherche.


* Ben Mimoun (2007) , dir : R. Ladwein
**F Fereira (2007), dir: C. Benavent

9 septembre 2007

Les marchés du divers


Une des principales nouveautés amenées par l'internet et ses business models réside dans cette capacité à apparier des offres et des demandes extrêmement hétérogènes. Le grand succès du genre est e-bay, mais aussi celui d'autres sites de petites annonces. Cela est bien connu, mais un autre cas nous semble particulièrement intéressant : celui de la co-location.

Les plateformes de co-location ont plusieurs avantages remarquable, le principal est de créer, ou plus justement d'étendre considérablement, un marché dont les offres et les demandes ne correspondent pas aux formats traditionnels de la location : des locations de courtes durées, des sejours partiels, le partage de studio, l'échange de résidence, et qui correspondent à des situations particulières et de besoins très spécifiques : le séjour d'étranger pour de courtes périodes, les stages étudiants, le besoin de pied a terre à temps partiels etc...

L'offre et la demande correspondent assez bien à cette idée de "longue traîne" dejà popularisée depuis longtemps, la mise en relation d'offres et de demandes hautement spécifiques y trouve le moyen d'y être valorisée.

On trouvera aisément d'autres exemples, mais celui-ci peut inspirer les spécialistes de marketing, et donner des idées pour vendre des produits spécifiques, les rossignols et autres séries ultra limitées dont le marché potentiel n'est que de quelques unités.

Au-delà du cas, il y a matière à réflexion sur la notion même de marché dans la mesure où l'internet permet d'obtenir des échelles considérables de mise en relation, ce qui était cantonné à des marchés marginaux, peut trouver une exploitation plus systématique. Le marché n'est plus simplement la rencontre d'une offre et d'une demande qui se réalise à un prix, mais la rencontre d'une multiplicité d'offres et d'une multiplicité de demandes qui se réalisent dans une multiplicité de prix. L'enchère est une des modalités d'actualisation, elle n'en est pas la seule, le véritable modèle étant la négociation de gré à gré. Ces marchés sont les marchés du divers.

Le livre David Weinbergen en développe de nombreux aspects : Everything is miscellaneous. Il reste en en établir l'économie, et à en analyser les techniques.

1 septembre 2007

CRM et transport aérien


Le transport aérien est un des secteurs dans lesquels la numérisation de la distribution a entraîné les conséquences les plus importantes. Quelques chiffres fournis sur le Journal du Net en témoignent : 63% des billets sont vendus en ligne aux US ( 24% en europe), et 40% sont des billets electroniques (35% en europe), l'Asie accusant encore un certain retard.

Cette transformation radicale concerne trois grands domaines : la gestion des transactions, la gestion des opérations et celle de l'expérience de service, et enfin la gestion de la clientèle. Vendre, délivrer et capitaliser sont ainsi les trois verbes majeurs.

Vendre tout d'abord. La compétition, dans un marché largement indifférencié (chaque compagnie emploie les mêmes avions, les mêmes infrastructures, le même service, et vend au même prix - et les low cost ne remettent pas en question ce fait ne faisant qu'actualiser une segmentation de marché fondamentale*) joue essentiellement sur l'accès au consommateur. On vend d'autant plus facilement que l'on est présent le plus tôt possible dans le processus d'achat. Et il faut l'être dès la première question que se pose le consommateur : quand et à quel prix? Le où étant le plus souvent fixé. On comprend ainsi que les calls center, les sites web, les plateformes d'achat sont désormais plus efficaces que les réseaux anciens d'agences de voyages. L'efficacité dans ce domaine résultera d'une bonne adaptation aux technologies de consommation dominantes du marché que l'on cible. L'impératif réside dans la capacité à relier les interfaces de vente aux systèmes de réservation. L'enjeu est de concevoir des interfaces qui absorbent toutes les incertitudes générées par l'hésitation des clients. La contrainte est celle imposée par les techniques de yield management.
Produire ensuite. Que la vente soit réalisée est naturellement souhaitable, il est nécessaire qu'elle le soit au coût le plus faible. La suppression du papier et la dématérialisation de la transaction est un objectif déjà atteint. Un effort remarquable est réalisé dans la réduction des coûts de délivrance du service : l'enregistrement autonome par la délivrance de carte d'embarquement par le net ou sur des bornes, le RFID dans la gestion des bagages en sont quelques exemples. On peut aussi imaginer quelques solutions plus futuristes qui automatisent les passages de frontières par l'enregistrement anticipé des passeports. Sur ce plan peu de progrès ( de productivité) sont envisageables, hormis si les systèmes mis en place débordent le transport pour concerner les activités annexes : réservations d'hêtel, de voiture location, et des autres services.

Mais produire n'est pas que délivrer et gérer un transport, c'est aussi créer de la valeur pour le voyageur et là rien n'est encore fait. Pour en prendre la mesure il suffit d'examiner le contenu d'un avis de délivrance de billet électronique. Souvent difficilement lisible, il ne dit rien des conditions du voyage. Quelle météo? Quelle circulation dans l'aéroport? Comment se connecter à la ville d'arrivée? Quelle suggestion d'achat en duty free? On imagine aisément que la compagnie aérienne qui délivre le ticket électronique donne au voyageur milles informations pratiques qui favorisent son trajet. Et à chaque moment de son trajet, faire que la contrainte devienne un divertissement. On rêve des possibilités offertes à lui délivrer des offres dans le duty free, à réassurer ses proches sur la bonne exécution du voyage. Juste un détail : envoyer aux proches des nouvelles de celui qui voyage, leur dire qu'il est bien arrivé, informer ceux qui l'accueille des retards du vol par un simple sms. Et au-delà l'interroger systématiquement pour en recueillir l'avis. L'enjeu n'est désormais plus dans la réduction des coûts opérationnels de la délivrance, que dans la création de valeur. Et il faudra se souvenir que le transport en lui-même n'a que peu de valeur, il est source d'anxiété, la réduire sera une priorité. Mais le transport est un moyen du voyage, c'est celui là qu'il faudra valoriser.

Conserver enfin. Les programmes de fidélisation de l'industrie du transport aérien sont sans doute les plus sophistiqués de toutes les industries. Ils sont encore embryonnaires. Des segmentations grossières, une inadaptation fondamentale à l'expérience des consommateurs, l'incapacité à anticiper leurs comportements futurs en sont les traits essentiels. Examinons ces trois faiblesses et les moyens d'y remédier.

La première est sans doute la plus facile à améliorer, elle passe par l'abandon de l'idée de valeur de client, pour s'adapter à l'identification des besoins du client. Quand certains demandent du prestige et de la reconnaissance, d'autres souhaitent un avantage économique, ou ne souhaitent que de l'information, ou encore donnent au voyages la valeur de ses à côtés. De nouvelles segmentations sont donc nécessaires pour engager un élargissement des gratifications et de leur gestion. Quand à l'usage des miles, si les barèmes ne peuvent être remis en cause, on peut imaginer un usage élargis et moins systématique à la fois dans leur distribution, mais aussi dans leur rédemption.

La seconde passe par cette idée que rares sont les services promis totalement rendus. La réclamation en est un premier objet elle doit être systématiquement traitée, le premier bénéfice du frequent flyer doit être l'accès à une plateforme de réclamation et aux compensations auxquels il peut prétendre. Mais au-delà on peut imaginer des carnets de notes, des albums de voyages et ce qui devient dans notre monde une exigence essentielle : dire aux autres ce que l'on a aimé et détesté. De ce point vue un enjeu fondamental se dresse : donner du pouvoir au consommateur, recueillir ses avis et le relier aux autres. C'est toute la philosophie du marketing 2.0.

La troisième va dans le sens de notre propos initial, l'accès au consommateur viendra moins du fait d'être sollicité, que de lui proposer avant même qu'il y pense les options qui peuvent le satisfaire. Sans chercher des applications folles du data mining arrêtons nous sur l'habitude, et une nouvelle conception de l'abonnement. Un abonnement sur mesure qui corresponde aux projets du voyageur. Dans l'infinie variété des prix et des conditions, une large proportion des clients est en mesure de prévoir le volume de ses voyages. Ne peut-on pas leur proposer des solutions spécifiques, des deals qui dépassent l'espace d'une simple transaction, des options avantageuses?

Cette industrie a fait des efforts fantastiques pour améliorer ses services, elle a su mieux que d'autres apprivoiser les solutions technologiques, nous lui promettons des bénéfices encore plus grands pour autant qu'elle libère son imagination et considère deux éléments :

- le transport ne commence pas à l'embarquement, mais bien avant dès la commande, et ne s'arrête pas à l'enlèvement des bagages, l'organisation des SI aura ainsi pour but de gérer chaque instant de ce parcours, en s'inscrivant dans la trajectoire du voyage car autant le transport est source d'angoisse et d'humiliation, autant le voyage est une expérience gratifiante.

- La mise en oeuvre de cette politique doit retenir des segmentations plus fines et qualitatives qui ne peuvent s'appuyer que sur un usage systématique des technologies de communication, facilité par le fait que les voyageurs sont aujourd'hui pour la plupart équipé des terminaux appropriés et deviennent experts dans l'usages des techniques de consommation.

----
*L'apparition des compagnies low cost ne représentent pas vraiment une concurrence pour les compagnies aériennes classiques, elles actualisent simplement une segmentation de marché fondamentale : certains voyagent dans un but précis, affaires professionnelles ou privés, et n'ont ni le choix de la destination ni celui de l'agenda; d'autres voyagent pour des raisons touristiques et peuvent varier destination et agenda. Avant l'apparition des low cost, les compagnies classiques confondaient les marchés, elles n'en ont plus le loisir, les deux marchés ont aujourd'hui trouvé deux métiers. Ceci enlève de la liberté aux compagnies classiques les obligeant à plus de rigueur, et oblige les autres à définir de mieux en mieux un métier nouveau dont les formes ne sont pas encore stabilisées. Des charters aux low cost une première mutation s'est produite, la seconde est encore à venir.

**Ce texte a servi de fil conducteur d'une présentation lors d'un séminaire de GlobalFlight

Pas de globalisation pour les usages des outils de communication


Un bref passage en Indonésie m’a permis de noter – d’un point de vue phénoménologique, c'est-à-dire celui de l’observation immédiate et située de quelques comportements renforcée par diverses discussions – que certains modèles communicationnels, autrement dit la suprématie de l’Internet, ne sont pas si universaux.

En effet dans la mesure où les écarts de revenu sont très prononcés et que les infrastructures sont insuffisantes, les coûts de l’Internet sont extrêmement élevés mais pire de mauvaise qualité (21 millions d’utilisateur avec peu de large bande). Le web est une communication acceptable, le web 2.0 qui nécessite plus de bande passante est totalement absent. Par contre la téléphonie est quasi universelle à Jakarta (65 millions d’utilisateurs en Indonésie pour 220 millions d’habitants), et nos consommateurs européens seraient bien surpris de la sophistication moyenne des portables indonésiens : Nokia y a lancé une de ses dernières innovations.

Le coût et la qualité sont importants, mais nous supposons que d’autres facteurs interviennent. La communication ici comme dans ailleurs n’est pas un investissement en termes de connaissance, mais un investissement dans les relations interpersonnelles déjà établies. Ceci affecte la forme, l’on recherche moins à s’abonner à des sources riches en information, qu’à des sources pauvres mais répétées, et renforcées.

Le SMS de ce point de vue est une forme parfaitement adaptée et à la demande sociale et à la contrainte économique. Juste un exemple, dans une ville saturée de bouchon, la communication consiste au fond à donner à ses interlocuteurs une position et un temps d’attente, le sms convient parfaitement à ce but.

Contrairement à ce que l’on pense la technologie n’unifie pas le monde autant que l’on pense, nous ne le pensions pas du tout du point de vue des contenu (hypothèse de la polarisation); il va falloir aussi le penser du point de vue de ses contenants. Très vraisemblablement le déploiement des technologies qui est universel, ne favorisera pas les mêmes combinaisons de techniques. Très probablement et très grossièrement on peut établir la tropique suivante : dans les sociétés riches capables d’investir dans les systèmes, et où les agents individuels peuvent investir dans des terminaux efficients c’est le modèles Internet qui domine, associé à l’ordinateur personnel, dans les autres sociétés c’est le terminal le moins coûteux qui imprime sa marque. Ce facteur de dotation de ressource est insuffisant, il y a aussi un facteur culturel, au sens de l’usage inscrit dans un ensemble d’habitudes et de pratiques, au premier plan duquel il y a le réseau de sociabilité dans lequel on est inséré : les études de Zbigniew SMOREDA sont tout à fait intéressantes à ce propos.

La détermination économique et technique naturellement a toute les chances d’influencer l’appropriation culturelle des modalités d’échange et de communication. Les canaux sélectionnent la nature de l’information, et opter pour un modèle technologique de réception détermine a posteriori les formes culturelles de la réception. Dans le cas de l’Indonésie, où devrions nous simplement dire la région de Jakarta, c’est l’ouverture du marché dans la téléphonie mobile, accompagnée des investissements requis, alors que le monopole d’état s’est maintenu sans investissement dans les infrastructures, qui produit un choix technologique centrée sur le téléphone. Dans l’usage, un grand nombre de cartes pré-payées, cette infrastructure interagit avec l’expression de besoins spécifiques créant un certain nombre de particularités : la dimension ostentatoire de l’objet, une compétence extrême dans la rédaction de SMS, l’usage d’assistants personnels. L’encombrement du trafic ajoute, la disponibilité des chauffeurs aussi (une grande partie de la classe moyenne supérieure emploie un chauffeur personnel). La socialité favorise aussi l’usage photographique alors que la musique ne l’est pas, au contraire du modèle européen.

Il faudrait comparer ce cas à d’autres. Celui du Brésil par exemple, où au contraire l’internet semble s’être imposé structurellement, où encore celui du Maroc où les téléboutiques ont peut être servi de modèle et de support au développement de la téléphonie IP. Dans tous les cas c’est cette interaction subtile entre les forces qui déterminent la nature des infrastructures et celles qui conditionnent les usages qui forment des modèles d’appropriation des télécoms. Et loin de voir émerger un modèle unique, on peut s’attendre à une étonnante diversité.

28 août 2007

Les pairs et les experts, l’amateur et le professionnel.


Une polémique fait rage sur le net et la blogosphère à propos de l’ouvrage de Ted Keen, The Cult of the Amateur: How Today's Internet is Killing our Culture’. Nous n’en donnerons pas de compte-rendu, bien d’autres que nous l’ont déjà fait. Mais en s’appuyant sur l’un des arguments de l’auteur, l’idée de l’océan des bloggers tend à renforcer des points de vue existants plutôt que de s’ouvrir à d’autres - c’est l’hypothèse de polarisation dont nous avons déjà discuté, et dont une des conséquences en marketing, est la potentielle polarisation des attitudes envers la marque – nous voudrions ouvrir la discussion à un thème fondamental pour l’économie de l’information.
Il s’agit de celui de la légitimité et des processus de légitimation. Le concept de légitimité joue dans les sciences sociales un rôle fondamental, il est au cœur de la théorie du pouvoir de Weber, est devenu un des arguments clé de certaines théories des organisations, et pourrait semble-t-il devenir une des explications centrales de la réussite des innovations. Dans une littérature récente, la légitimité est conçue comme l’acceptation sociale d’une idée ou d’une innovation. Acceptation de son utilité au regard des pratiques existantes, acceptation des valeurs qu’elle porte au regard des croyances communes, acceptation des représentations qu’elle véhicule. L’idée légitime, ou légitimée, prend place dans le corps social, et si elle est amenée à le changer, ce changement pourra être plus aisément accepté. C’est ainsi une source de pouvoir, dans le sens de la capacité à influencer (Dans cet ordre d’idée l’exercice effectif du pouvoir est ce qu’on appelle ordinairement le contrôle).
On comprend alors tout l’intérêt de ce concept. Et l’on sera d’autant intéressé par la manière dont elle est obtenue. Si une idée doit être diffusée, et pour qu’elle exerce effectivement son influence sur les sujets auxquelles elle est destinée, il est indispensable qu’elle puisse acquérir celle légitimité. De quelle manière ?

Nous pourrions reprendre la typologie de Weber, qui s’intéresse à la légitimité du pouvoir dans les organisations, et a montré que les organisations modernes et rationnelles s’appuyaient sur une légitimité rationnelle/légale. Choisissons un autre critère qui nous semble plus approprié à l’univers démocratique et hiérarchique qui est le nôtre. En une formule les deux processus principaux de légitimation passeraient par les pairs, ou les experts. La société de l’amateur est bien celle des pairs, celle d’une communauté élargie à ceux qui s’intéressent au sujet en question, y ont adhéré volontairement, y sont reconnus par la vertu de leur engagement, et sur un mode démocratique, soutiennent ou ne soutienne pas la validité de l’idée, l’acceptent ou la refusent par des processus de débats, d’échange ou de vote. La légitimation par les experts, requiers l’avis d’un nombre réduits d’individus dotés d’une autorité transcendantale qu’inflige un parcours initiatique dans l’ordre établi des institutions de la vérité.

Ces deux modes ne sont pas aussi distincts qu’ils semblent, et pratiquement ils se combinent, les pairs élisent des experts, et la parole des experts ne porte que si les pairs la relaient. Le débat de l’amateur tel qu’il fait rage à propos de Wikipédia est au bout du monde un faux débat. L’encyclopédie classique écrite par les experts du domaine, choisis pour leur reconnaissance, ne s’opposent pas vraiment à cette encyclopédie virtuelle que nourrissent d’anonymes amateurs. Et l’une et l’autre sont amenées à mourir ou à se transformer. L’enjeu véritable est de combiner ces deux sources de légitimité pour que le lecteur ne puisse douter de la vérité des notices. Si dans le monde de l’information qui est désormais le notre l’amateur fournit une large part de la capacité de travail, une capacité que tous les expert réunis ne peuvent avoir, leur capacité de jugement et de discernement peut être accrue par le regards des experts, dont le rôle sera plus de contrôler, de surveiller, et d’élire parmi les pairs, ceux qui auront prouver leur expertises.

Une telle situation n’est pas si rare, on la rencontre souvent, l’ornithologie, l’archéologie, l’horticulture en sont quelques exemples fameux. Et au fond, il y a pas tant deux catégories distinctes qu’un continuum entre les pairs et les experts, ce qui importe est la nature et les modalités des institutions qui régulent leurs interactions, et produise ainsi une source de légitimité incontestable.

18 août 2007

Web2.0 : aggréger n'est pas tamponner


Revenant à quelques classiques dans le but de préparer un cours sur "l'environnement des affaires", je retrouve une idée essentielle de la théorie des organisations proposée en son temps par J.D. Thomson, dont la teneur est que pour rationaliser leurs activités centrales, les organisations doivent réduire l'incertitude de leur environnement en le lissant (smoothing) et en le filtrant par des tampons (buffering).

Si aujourd'hui, la logique d'agrégation semble emporter l'adhésion des innovateurs du Web, la multiplication d'outils tels que technorati , Del.icio.us et autres Wikio, sans compter des Netvibes et autres agrégateurs d'information, elle ne doit pas faire perdre de vue que l'intelligence, au sens d'une information qui facilite d'adaptation et la pertinence du comportement, se développe moins par l'accumulation que par le filtrage, la synthèse, et la structuration de l'information.

En ce sens les foules ont peu de chance d'être intelligentes, à moins d'être organisées, comme nous en avons émis l'idée lors d'un précédent billet. Cette organisation, où cette structuration passe d'abord par la distinction entre les composants stables et ceux qui sont plus incertains. L'élément stable réside dans les plateformes et la structuration dont elles font l'objet. De ce point de vue le choix des rubriques est un élément essentiel et la catégorisation ne peut se limiter à des mots clés.

Elle se poursuit par la mise en œuvre de processus de filtrage, les tags en sont une méthode, qui n'est pas forcément la meilleure dans la mesure où ils sont peu structurés. Une innovation majeure dans le domaine serait que les nuages de tags si populaires soient structurés par des techniques proches de l'analyse des similarités (MDS) dont l'intérêt est de représenter spatialement la proximité sémantique de deux tags ( cette proximité se calculant par des scores de co-occurence).

Il reste à mettre en oeuvre des mécanismes de synthèse, ou de tampon. Le lecteur de Wikio peut réaliser immédiatement ce que ça signifie, si l'agrégation des nouvelles à travers un large nombre de blog et d'autres sites de news est une bonne idée, la succession des posts qui répète à l'envie la même information à quelques modifications syntaxiques près, et particulièrement ennuyeuse. Et le système des notations y remédie faiblement (On pourrait au moins imaginer une sélection de la source : en effet la plupart du temps l'information provient d'une source unique les autres médias se contentant de la dupliquer).

Mais au fond cette idée centrale de la théorie des organisations nous ramène à une idée basique de l'éducation : apprendre c'est structurer la connaissance, c'est donner une valeur aux éléments factuels en fonction d'une architecture de concept. Moins que d'agrégation nous avons besoin de sites et de blogs qui affirment ces valeurs, en développant des concepts. C'est la fonction critique. Dans le langage des théories de l'organisation, ces experts d'un type particulier qui tamponnent l'information en la frappant du sceau du concept, sont appelés gate-keeper, ils gardent les frontières mais sont aussi des passeurs et veillent qu'à ce qu'au sein des terres ceux qui décident, consommateurs ou dirigeants, puissent le faire sans être débordés par la masse confuse et incertaine d'une information dont le volume croît exponentiellement en dépit de sa périssabilité.