25 août 2010

Le pari au cœur des modèles statistiques - le principe de Bayes.

Dans les tests des campagnes digitales et des autres opérations, le calcul statistique est un outil incontournable pour statuer sur la fiabilité des résultats constatés. Affirmer dans un test A/B que le taux de transformation de A est supérieur à celui de B, passe par une évaluation statistique.

Presque toutes les disciplines scientifiques ont recours à ces outils pour conforter leurs affirmations. L'utilisation de ces processus sont attachés à de nombreuse méthodes, parmi celles les plus connues on trouve les tests d'hypothèse avec la notion d'intervalles de confiance. Les tests permettent de confronter deux hypothèses: l’hypothèse « Nulle » et « Alternative », en rejetant une au profit de l’autre. Cette pratique a pour objectif de déterminer parmi les deux hypothèses, laquelle est la plus vraisemblable. Les intervalles de confiance ont pour but de fixer des marges qui accordent une certaine confiance aux résultats. Par exemple pour déterminer la proportion d'intention de vote d'une population donnée, on dira que cette dernière se trouve dans un intervalle de [43%; 49%] à 95% de confiance ( la taille de l'intervalle dépend du nombre de personnes interrogée, ici environ 400).
    Ces deux outils s'inscrivent dans le cadre d'une approche dite fréquentiste de l'inférence statistique. Cette dernière manipule des quantités appelées estimateurs pour faire de l'inférence statistique. Ces estimateurs deviennent des composantes sur lesquelles les tests d'hypothèse et intervalles de confiances sont obtenus.
    Pour pouvoir appliquer ces tests ou construire des intervalles de confiance, il essentiel d'avoir un échantillon aléatoire ( sondage) à partir duquel on infère les résultats généraux. Cette inférence est une procédure qui permet à partir des données de remonter aux causes de leur réalisation, en vue de généraliser ses conclusions à l'ensemble de la population; elle prend des formes paramétriques et non-paramétriques.
    • L'inférence paramétrique suppose que le processus de réalisation des données observées est identifiable parmi un ensemble de lois de probabilité indexées par un paramètre θ. L'inférence est effectuée pour cibler le paramètre, et ainsi déterminer la loi de probabilité qui régit le phénomène. Le test en t de comparaison de deux moyennes en est un exemple.
    • L'inférence non paramétrique, comme son nom l'indique ne suppose pas l'existence d'un paramètre d'intérêt, elle raisonne directement sur les lois de probabilité. Le test du Chi 2 en est l'exemple type.
    L'inférence est le cœur du raisonnement statistique, chaque calcul est accompagné par cette dernière. Elle consiste généralement à calculer une statistique de test à partir des données, et d'en induire la probabilité qu'elle prenne cette valeur, alors que le test la présume nulle, pour répondre à la question de savoir si l'écart entre la situation théorique et empirique est du à une cause systématique, ou à une fluctuation de la population sondée.Dans la pratique, l'utilisation de l'inférence paramétrique est dominante. Elle est effectuée généralement dans le cadre fréquentiste, alors que de plus en plus c'est un cadre bayésien qui s'impose dans la littérature technique.

    Une des premières différences dans l’approche bayésienne par rapport au raisonnement fréquentiste réside dans la façon de définir une probabilité. Le raisonnement bayésien définit la probabilité d’un évènement comme un pari sur sa future réalisation. Cette optique est dite subjective car elle est liée à l’individu. De son coté le cadre classique définit la probabilité comme la limite de sa fréquence de réalisation en supposant que les évènements sont répétables et réalisables dans des conditions identiques. La première limite de ce raisonnement est le cas des évènements non répétables (à notre horizon), par exemple qu'un astéroïde percute la terre. Dans ce cas la probabilité ne peut être qu’un pari et non le fruit d'une régularité.

    La deuxième divergence réside dans la façon d’analyser. Contrairement au cadre fréquentiste le calcul bayésien attribue une loi de probabilité sur le paramètre. Implicitement cela signifie que le paramètre d’intérêt θ est vu comme une variable aléatoire. L’intérêt d’une telle loi est de traduire la connaissance disponible avant observations. Cette loi dite loi a priori sur le paramètre, peut résumer un avis d'expert ou encore des anciennes données. Durant l'analyse, Elle se transformera en une loi a posteriori dès que les données seront observées. Cette actualisation est rendue possible grâce à la formule de Bayes.

    Ainsi sachant qu'une clientèle est constituée de 3 segments, et que les taux de réponse dans les trois segments sont de 1%, 2% et 3%, on peut calculer aisément la probabilité qu'un client ayant répondu appartienne au premier segment  est de : 1/3*0.01 /(1/3*0.01+1/3*0.02 +1/3*0.03 ) = 0.17 ( de 0.33 et 0.5 pour les deux autres segments). En revanche si on connait la distribution des clients entre les segment ( 50%, 40% et 10%), le calcul est modifié et la probabilité est de 0.31%. La connaissance a priori de la répartition nous permet d'actualiser le calcul. ( la formule est sur le t-shirt).

    D’après Robert (2006), L'analyse statistique bayésienne se ramène fondamentalement à une inversion. De cette façon elle permet de remonter des effets (données disponibles) aux causes (paramètres). Le grand avantage de cette optique est que les résultats obtenus sont avancés sachant les données et non de façon asymptotique. Ce constat devient très utile pour résoudre les problèmes de décision où peu de données sont disponibles.

    L'approche bayésienne est étroitement liée à la théorie de la décision. Elle utilise des éléments de cette théorie, pour contrôler les résultats de l'inférence. Cette harmonie est rendue possible grâce aux manipulations des lois a posteriori sur les paramètres. Ce cadre décisionnel permet d'effectuer des tests d'hypothèses et construire des intervalles de crédibilité. Néanmoins le cadre bayésien trouve des critiques dans la façon de fixer ses lois a priori. Car l’information introduite via ces lois, est dite subjective et peu perturber les résultats finaux. Une réponse à cette question est partiellement résolue par les a priori non informatifs (loi uniforme, prior de jeffrey, etc...), mais un grand travail reste à faire dans se sens.

    Pour un bayésien toute information disponible est importante, de plus injecter des informations ainsi est en accord avec sa vision de pari probabiliste. Pour lui être objectif, est de bien justifier ses choix dans l’analyse. Même si ce choix de modélisation reste incompris, les lois a priori sont bien utiles aux bayésiens quand on est face à un manque de données, difficulté que le cadre fréquentiste peine à combler, même si les deux approches donnent les mêmes résultats quand il y a abondance

    Le cadre bayésien est une approche qui s'est beaucoup développée grâce aux outils informatiques (il peut être gourmand en calcul), et permet grâce à la mise à jour des connaissances de réactualiser les inférences statistiques. Il contribue à une approche apprenante des systèmes et des modèles telle que chaque nouvelle information permet de mettre à jour l'estimation. Le raisonnement bayésien désormais s'étend à travers de nombreuses applications : méthodes de filtrage de spam, réseaux bayésiens , méthodes d'estimation de régression linéaire et logistique via les modèles hiérarchique bayésien, méthodes de classification. Ces techniques qui permettent de modéliser des phénomènes complexes sont très prisées dans plusieurs domaines touchés par le problème d’incertitudes et les événements rares. Le raisonnement bayésien permet dans ce cas, de quantifier les incertitudes en avançant des les lois de probabilité sur lesquelles le risque peut être supervisé. Le contrôle du risque d’avalanche en est un exemple. Le champs est étendu!  Il peut trouver de beaux terrains en méta-analyse.

    Mais pour clore ce qui n'est qu'une invitation, voici un exemple où l'inférence bayésienne donne des capacités d'apprentissage aux robots.








    Et quelques livres:

    19 août 2010

    Une recommandation pour mesurer la fidélité des clients

    La mesure de la fidélité se satisfait difficilement d'une seule mesure, c'est ce que les critiques du Net promotor score mettent en avant. Et c'est à raison.

    La fidélité a des raisons multiples : la préférence, l'habitude, la satisfaction, la dépendance, la confiance, l'engagement, la pression du groupe, sa gratification.

    Et ses formes sont variées : la recommandation en est un aspect, le réachat un autre, sans compter le taux de nourriture, la résistance à la persuasion, la propension à réclamer, le renforcement des attitudes, la consolidation de la relation, la faible sensibilité au prix, une propension plus forte à se dévoiler et à accepter la communication.

    Un avantage actuel de la mesure de la recommandation tient dans l'importance croissante des médias sociaux qui amplifient la diffusion des messages. Elle est d'autant plus importante qu'au-delà d'une simple mesure en 7 points portant sur l'intention de recommander la marque réalisée par sondage, des dispositifs spécifiques et systématiques sont proposés à la recommandations des visiteurs. 

    Ces instruments de recommandation se présentent sous la forme de nombre d'étoiles à attribuer, de commentaires, de bouton sociaux. Voici un résultat possible : 2234 tweet, 1013 FB shares, 176 thumbs-up, 49 commentaires, un millier de like.


    Le premier mécanisme demande peu d'effort et d'engagement, il induit par effet de sélection très certainement un biais de surestimation de l'appréciation générale, mais le nombre d'avis formulé vient nuancer : c'est moins la note moyenne qui compte que le nombre de réponses données. En voici un exemple issu d'Amazon.com. On appréciera le "84% des clients qui ont regardé cette page ont acheté l'article", est-il un meilleur encouragement?
    Le second est très engageant, il demande un certain degré d'engagement et de ce fait est un dispositif très sélectif. Des opinions tranchée y sont le plus souvent formulées, positive ou négative et quand les opinions sont variées, il peut s'engager un débat passionné. Même si moins de 0,5 % des visiteurs y contribuent, les visiteurs silencieux les lisent aussi. Notons que les commentaires eux-même parfois peuvent être notés. Ils sont parfois aussi important que l'article principal.

    Les boutons sociaux demande un degré intermédiaire d'engagement, mais ils ouvrent à des potentiel s de relais qui peuvent être élevé. Dans un bon réseau twitter, dans le millier de followers que l'on a, si les 1% qui relayent, touche chacun le même nombre, c'est 10 000 contacts supplémentaires qui sont obtenus. Le rendement a un facteur 10, dans notre exemple.

    Dans chacun des cas, il est conceptuellement facile de proposer des indicateurs. La note moyenne, son écart-type, et le taux d'expression ( nombre de notes données/nombre de visiste de l'article) sont les métriques naturelles du premier cas. Les commentaire se prête à une analyse sémiotique. Une simple analyse lexicale peut fournir des éléments précieux. Un taux de commentaire est aussi pertinent.  Le nombre des likes, des partages, est une mesure directe des effets.

    Des notes de sentiments peuvent aussi être élaborées à partir d'une analyse sémantique. Quant aux boutons, des calculs d'audience intégrale ( nombre d'individus uniques touchés par un ensemble de réseaux – réseau propre, twitter, facebook, blogs, Linked in) semblent nécessaires. On peut imaginer aussi que sur le corpus élargi soit comptabiliser le nombre de mention de recommandation. Ceci exige techniquement qu'un lexique de la recommandation soit constitués. Il y a la un joli projet de développement à conduire.

    La simplicité est sans doute l'avantage trompeur du NPS. Mais son idée reste pertinente. La mesure de la recommandation est un critère clé de mesure de la fidélité de nos clients. Les dispositifs sociaux des sites web en facilite le recueil systématique, même si chacun des instruments est sensible au coût de participation. Seule une minorité s'exprime, sans doute la plus engagée. Mais au-delà de l'opinion, qu'elle soit biaisée ou non, ce qui importe est que ces mesures captent directement l'action de recommandation. Si seuls 10 commentaires sont produits pour un article, et qu'ils soient majoritairement enthousiastes, il peuvent générer un nombre de vente substantiellement plus élevés.
    Les limites tiennent d'abord à la réflexivité de l'instrument : Si l'affichage des bonnes recommandations a un effet sur les comportements, cette mesure sera biaisée car reflétant son propre effet, c'est ainsi qu'en accroissant artificiellement ces indicateurs (en mobilisant les militants de la marques) on peut provoquer un engouement qui ne correspond pas forcement aux attitudes de ceux qui ne s'expriment pas.

    Les indicateurs restent en surface de la masse des clients. Une apparente flambée de recommandations peut aussi s'accompagner d'une sourde défiance, il est donc nécessaire de sonder aussi la masse silencieuse par des instruments plus traditionnels de mesure de satisfaction.

    La recommandation peut être une affaire de courtisans, ils forment désormais des foules, une industrie.

    -------------
    A lire aussi : 
    - Du prix à la note – mutations des marchés
    - Les fourmis de Facebook - I like Buttons...

    12 août 2010

    Microdon – vive les requins paisibles!

    En France Madame Chirac a donné l'exemple avec ses pièces jaunes : c'est au marge des budgets de consommation qu'il faut aller chercher la charité. Là où le coût de détention pèse plus que la valeur de l'argent – cette monnaie troue les poches; là où s'en séparer apporte plus de gratifications que de perte - que nous sommes généreux!

    La micro-monnaie, le micro-financement, le micro-paiement, ainsi trouveraient une destination différente de l'ordinaire. Les marges, cette queue de distribution peu épaisse, deviennent ainsi le gras nouveau qui nourrit de nouveaux business.

    On assiste ainsi à une multiplication de plateformes qui se destinent à exploiter ces marges. Flattr en est l'exemple le plus récent, Le SARD développe cette idée en france , tipit.to a peut être lancé le mouvement, microdon ( ce n'est pas un requin) utilise l'idée sur d'autres supports, citons encore MooZar, le défunt fundable, kachingle, ou ulule (n'hésitez pas à ajouter en commentaire d'autres initiatives analogies dont vous avez connaissance). .

    Les formes et les solutions diffèrent, le point commun est d'associer une mise faible à la dissociation de la relation d'échang. On réinvente le don, et son économie, en espérant introduire un cycle de financement, aux marges, qui redistribue la ressource en dehors du paradigme strict de l'échange marchand mais échappe à l'autorité collective. Sans doute le roman de Doctorow, et cette idée du whuffie alimente l'imaginaire de ces systèmes, c'est une forme sans doute différente du Potlach et ce ce que des anthrologues obstinés considèrent comme une des formes les plus fondamentales de l'économie.

    L'homme de marketing, celui qui se nourrit moins d'économie que d'anthropologie, ne sera pas étonné de ces solutions. Le pot à pourboire est une forme ancienne de rémunération, et le freemium en est une variété. Un des défis des technologies posé au marketing est justement cette question de la tarification. Nous l'avons déjà abordée ici. La question est de savoir si ces nouvelles plateformes sociales vont-elle remettre réduire l'espace marchand en étendant l'économie du don?

    Le cas de Flatter est intéressant, car délibérément il s'adresse moins au don, qu'à la rémunération de ces productions publiques qui jusqu'à ce jour ne trouve de compensation que par la fausse monnaie de la réputation (les boutons face-book) ou le marché dual de la publicité. L'innovation est dans la combinaison de ces deux gratifications : symbolique et matérielle, par un seul bouton. Mais aussi dans l'engagement, ceux qui peuvent espérer gagner doivent d'abord donner. La technique semble induire cette triple règle du don : l'obligation de donner, de recevoir et de rendre (sans que la symétrie des actes ne soient engagée).

    S'y esquisse un modèle de financement des œuvres de l'esprit, qui échappe au marché et à l'autorité d'une administation, qui se fonde dans une obligation de don mais une liberté de destination. Il peut être au-delà un modèle de régulation des charités, car au fond il ne s'agit pas seulement de financer des oeuvres de l'esprit, mais de financer le bien commun différemment de l'impot. Nous pouvons imaginer que chacun puisse allouer aux autres une partie de son budget d'autant plus aisément qu'il peut choisir à qui l'allouer.

    Telle est l'économie du don, on peut sacrifier une partie de ses biens aux autres, on aimerait en choisir les destinataire, cette fraction étant marginale, il a été difficile d'en choisir la destination, c'est ce que la technique permet aujourd'hui. Permettra-t-elle d'élargir la marge que l'on est prêt à donner? Permetra-t-elle de réduire l'espace de l'échange marchand et des prélèvement obligatoires? La technique va-t-elle créer un nouveau champ, faire revivre cette économie ancestrale qui substite au sein de nos familles?

    Nous n'en savons rien. Mais il faut observer. Au limite de l'économie, de l'anthropologie, et de la technologie, il va falloir penser des politiques de prix inouïes. Le revenu ne dépend plus de ce que l'on vend.
    _________

    9 août 2010

    Un thermomètre sur mesure ? Des sondages sans instrument.

    Au hasard de l'actualité, deux sondages de l'IFOP posent des questions sérieuses de méthodes dans la presse. Celui présumé mesurer l'opinion des français face aux mesures (encore non formulées) de « lutte contre la délinquance » et celui destiné à apprécier l'efficacité perçue par les français du dispositif Hadopi.

    On pourrait passer en revue les différents points de méthodes :  la méthode de recueil ( CAWI), la détermination de l'échantillon (quotas), et la présentation des résultats. Ce serait une matière à réécrire un manuel de pratique et d'études des sondages. Bien trop long pour un post. Et finalement pas aussi critiquable que ça à quelques points techniques près

    Une seule phrase de Yves-Marie Cann  mérite d'être ici discutée :
    « L’initiative d’un sondage peut revenir soit à l’institut soit au commanditaire de l’étude. Dans les deux cas, le questionnaire est toujours le fruit d’un échange approfondi entre les deux parties. À charge ensuite pour l’institut de mettre ceci en question puis de soumettre à son client un projet de questionnaire. Plusieurs allers-retours peuvent avoir lieu avant d’aboutir à la version finale qui sera administrée à un échantillon représentatif. » d'autant plus qu'elle est éclairée par une interrogation un peu plus loin: « Pourquoi s’en prendre systématiquement au thermomètre ? »

    S'il s'agit d'un thermomètre, celui-ci doit mesurer un fait objectif : un état particulier d'une quantité particulière - le degré d'agitation moléculaire du milieu sondé, autrement dit la température. Il ne mesure pas la chaleur (qui est un transfert d'energie), et plusieurs échelles seront disponibles pour en donner une quantification ( Kelvin, Celcius ou Fahrenheit). Le thermomètre sera valide s'il mesure ce qu'il doit mesurer - l'agitation moléculaire - et si on le retire trop vite du milieu test, il mesurera autre chose, juste un transfert de chaleur.

    En psychologie sociale, c'est ce que les (véritables) spécialistes appellent la validité de contenu : les items (questions)  retenues correspondent-ils à l'idée ( le concept) que l'on souhaite mesurer?

    A l'évidence, ce contenu ne peut être négocié. Ce serait pour prendre une image simple, accepter que le thermomètre soit conçu par une discussion entre le patient, le médecin et la sécurité sociale.  Au lieu de capter la température interne du patient, même si à travers tous les orifices cette mesure est fiable (produit la même mesure), elle ne serait en aucun cas valide car entachée d'un biais systématique. On ne mesurerait qu'un rapport de force ou un consensus, d'autant plus qu'à chaque sondage, même exécuté dans les meilleures conditions, la graduation, et la nature même du thermomètre serait modifiée.

    Si la mesure a pour ambition d'être objective, elle doit se rapporter à un construit bien établi. Quel est ce construit dans ces enquête? Une opinion, mais relative à quoi? Au soutien de la politique sécuritaire de Sarkozy ou à la croyance que la répression est le meilleur moyen de freiner la délinquance? Au soutien d'un dispositif de lutte contre la copie privée ou à l'attitude à l'égard de la copie privée?

    Scientifiquement, même s'il est bien mené techniquement, un tel sondage n'apporte rien, au mieux connaître les intentions de ses commanditaires. De manière marginale, on découvrira des opinions dont la raison reste obscure. On mesurera un vent.

    C'est cette critique de fond qui depuis longtemps a été adressée par Bourdieu et que reprennent de manière pédagogique et amusante les Guignols de l'info.



    Le sérieux d'un institut de sondage tel que l'Ifop serait de fournir sur de tels sujets des instruments de mesure qui se rapportent à des concepts bien établis. Si au travers d'une opinion particulière il s'agit de rendre compte d'une attitude : degré de xénophobie, l'attitude à l'égard de l'autorité, soutien politique, sentiment de victimisation, des instruments valides dans leur contenu, fiables dans leur application, représentatifs des populations qu'ils appréhendent, sont nécessaires. Pour que l'instrument soit valide il lui faut un contenu, sinon les questions posées sont pure rhétoriques et l'interprétation des réponses, des sophismes.

    Pour travailler ainsi les méthodes existent, et de nombreuses échelles de mesures sont disponibles,  pas besoin de R&D avancée, il suffit d'emprunter dans les bibliothèques les manuels adéquats ou de consulter les procédures typiques. Une longue histoire psycho et sociométriques donnent les méthodes adéquates et elle se poursuit, les spécialistes de marketing n'étant pas en reste dans le débat.

    Et sans entrer dans la technique on peut espérer que dans de telles enquêtes les concepts ( la température) soient bien établis et que les items (l'alcool ou le mercure du thermomètre) soient représentatifs de ce qu'on veut mesurer. Si les sondeurs font bien leur travail de sondage ( au sens de recueillir les données), soulignons que le fait même de négocier les questions, leur ôte le thermomètre des mains, il n'y a même pas besoin de le briser, il est simplement absent.

    -----
    Complément : on trouvera ici l'article fondateur (1979) - pour le marketing - de la méthodologie du développement des échelles et quelques ouvrages fondamentaux :


    crédit photo


    5 août 2010

    Un troupeau de livres pour de rares bergers

    Le livre ne vit qu'en troupeau, que ce soit dans les bergeries des bibliothèques ou sur les alpages de l’âme (je parle naturellement d'une sorte de mouton sauvage).

    A l'heure où le livre électronique va prend son élan, il serait sans doute bon de se poser la question de qui lit et comment.

    Dans la profusion des discussions et commentaires à propos du livre électronique, si l'on parle des éditeurs et des nécessaires changements de modèle économique, un peu moins des auteurs, beaucoup de cet objet-livre comme l'on célèbre un fétiche, le lecteur est oublié plus encore que sa lecture et ses lieux. Il est une belle histoire de la lecture.

    Et ce lecteur est rare. Les enquêtes existent, celle du ministère de la culture ou du la CNDL donnent quelques indications. En s'appuyant sur ces indications 85% des livres sont lus par moins de 25% de la population et sans doute les 10 % qui ont achetés 12 livres et plus dans l'année représentent 80% des ventes.

    On comprend le pari de Apple : la tablette n'est pas faite pour le livre, ou incidemment, dans la mesure où ce paysage doit être nuancé par le niveau d'éducation. Les grands lecteurs sont cadres, ont un bac+5 et sont plutôt des femmes.  Ce sont aussi les acheteurs de la tablette. L'argile des babylonien n'était pas un média de masse. Et si la tablette voyait ses prix se réduire, par une stratégie classique d’écrémage, on l'utilisera bien plus pour jouer et s'informer au quotidien que pour lire.Les révolutions souvent se limitent au palais.

    Inutile donc de mettre en concurrence les Kindle, Nook et autre liseuses de Sony. Ces objets s'adressent à un petit marché, celui des lecteurs fréquents. Et ces lecteurs ont de particulier que si le livre est un objet unique , il ne prend sens que dans une bibliothèque déjà richement dotée. Ils sont les bergers d'un petit troupeau.

    Ils ne se contentent pas de lire en silence ( souvenez vous que cette lecture est une pratique somme toute récentes), ils lisent en résonnance. Ils ne lisent pas forcement du début à la fin (il n'y a que les policiers que l'ont lis du début à la fin), mais dans tous les sens, ils annotent, ils encochent, ils cornent. Ils ne lisent pas seuls, ils échangent, se nourrissent de compte-rendu, de critiques, en parlent à leurs amis. La lecture est sociale.Elle pourrait devenir pornographique aussi.

    Si l'on veut vraiment connaître ce marché sans doute vaudrait-il mieux étudier les superlecteurs que les otaries et les phoques assoupis sur les plages. Leurs 3 thrillers de l'été seront leur lecture de l'année. Ils oublierons les volumes dans leurs chambre d'hôtel qui iront peupler la bibliothèque du centre de vacances. Ces lecteurs forment un marché qui reste considérable, les 30 titres les plus vendus représentent 8 000 000 d'unités vendues annuellement, ou 5% du chiffre d'affaires de l'édition (les 1000 premier 20%), sur 450 millions d'exemplaires. 520 000 références ont été vendues au moins une fois et 60 000 nouveautés et rééditions sont publiées chaque année.

    Les super-lecteurs, ceux qui achètent plus de 30 ou quarante livres par an, en lisent le double, sont finalement peu connus. Ces boulimiques peuvent l'être par profession, universitaire ou journaliste, ou par passion. Gageons qu'ils venèrent moins l'objet que la bibliothèque. Une partie d'entre eux sont ces lecteurs de revues scientifiques qui progressivement prennent l'habitude d'aller dans ces bases documentaires géantes telles que ebsco, Elsevier, Scopus, thomson content currents sans compter les ArXviv... en voici un témoignage. Des milliers de revues, des millions d'articles rassemblés en bases qu'on annote, qui fournissent des références, que l'on peut échanger, classer, accumuler. Un rêve labyrinthique, borguesien.

    Les lecteurs ne lisent pas que des livres, les lecteurs professionnels d'ailleurs abandonnent les livres qui n'ont plus de valeur, ils lisent des revues, parfois la presse, le livre ne se limite pas au divertissement littéraire, il est ce moyen d'acquérir une connaissance qui grandit chaque jour aussi vite qu'elle fond.  Le livre change de forme. Comme l'album se réduit au morceau, les livres se réduisent à la nouvelle, à l'article. Mais le lecteur survit, le grand lecteur continue de lire, son addiction est telle qu'il exige moins l'accès au livre qu'à la bibliothèque.

    Le marché des liseuses, est un marché de clés. Qui va ouvrir les portes aux nouvelles tours de Babel?


    A lire aussi ici
    -Le grand livre de l'internet

    et ailleurs (surtout) :  Read/Write Book sous la Direction de marin Dacos
    ___________