23 mai 2011

Big data - un oeil sur les organisations

Big Data : Water Landscape
Il y a un air de déjà vu dans la promesse du Big Data, un quelque chose d'avant les années 2000 quand ont nous faisais espéré trouvé l'or des bases de données relationnelles, plus encore au tournant du siècle avec des systèmes CRM prêt à faire la différence (stratégique) et toute cette battéries d'outils statistiques rhabillée en pelle et pioches du minage de données. Aujourd'hui Big Blue en tête et les société de conseil comme McKinsey reviennent vendre du petaoctet au motif que les grosses données du net sont pleines de ressources, qu'il faut désormais être prêt a accueillir cette munificence recueillies par les milliards de capteurs : PC, laptops, ATM, call center, front-office, terminaux de paiement, mobiles, GSM, tablettes, compteurs divers et variés, TV, et tout ceux qui vont venir bientôt s'encastrer dans nos objets.

Soyons prudent sur les promesse, l'or est peut-être dans les données, mais le difficile c'est de l'extraire, et le nombre pourrait ne pas être suffisant. Les riches alchimistes ne sont pas ceux qui possédaient des mines de plomb, mais ceux qui ont découvert le procédé de la transmutation. Il est nécessaire de réfléchir mieux à ce pourquoi l'information et sa codification en données apporte de la valeur. On a trop souvent défendu un point de vue fétichiste qui attribue à la donnée un pouvoir limitée au placebo. 3 points.

Premier argument : l'avantage de la quantité. Il n'est pas sur du tout que les bases comportementales ont amélioré fortement la connaissance que nous avions des clients. Pour le praticien de la recherche et des études, l'exploitation de la quantité montre que le rendement du volume d'information est rapidement décroissant. S'il faut explorer une consommation, quelques petites dizaines d'interview permettent de se rendre rapidement compte des points clés et d'une grande partie du détail. Les interviews supplémentaire apporteront peu, voire rien. Le corpus obtenu d'un million de signe suffit.

Dans les enquêtes plus codifiées, qui visent à une mesure précision de la fréquence d'un caractère ou du degré d'un opinion, les traits généraux sont saisis à partir de plusieurs centaines d'observation, les milliers permettent de comparer surement des sous-populations, et à l'ordre grandeur de 10000, la précision est bien plus grandes que les erreurs de mesure. La théorie de l'échantillonnage contredit sérieusement les prétentions du big data : il n'y a pas besoin d'un volume très grand d'information pour saisir toute la connaissance, il faut un échantillon bien choisi, représentant correctement la population étudiée. De ce point de vue le big data aussi vaste soit -il, à moins d’être exhaustif, est une source de biais : les information collectées ne couvrent qu'un partie de l'univers et son donc susceptible à des biais.

Ajoutons que sans modèle, les mesures ont peu de chance de devenir connaissance. L'essentiel dans les données ce sont les grilles d'analyse et les modèles issus du raisonnement théorique qui permettent de transformer la donnée en connaissance. Juste un exemple, l'analyse des données de réseau produit aujourd'hui de très beaux graphes, dont les imprimantes modernes peuvent dessiner les plus fines relations. C'est très beau et ça ne nous apprend rien. En revanche disposer d'une théorie et d'un modèle de la structure des réseaux ( par ex : Attachement préférentiel, free scale distribution model) permet d'en calculer des propriétés globales et une partie du comportement. la valeur n'est pas dans les données mais dans le modèle.

Un autre argument justifie l'approche Big data : L'avantage de hétérogénéité. S'il n'y a pas de différence épistémologique entre petites et grandes données. Il y en a une très pratique : les êtres humains sont très différents, et varient dans leurs comportements. Il n'y pas pas une loi d'ensemble, mais des variations fortes. Obtenir des données nombreuses apporte l'avantage de pouvoir dans l'instant de l'action projeter les valeurs des paramètres calculés par les modèles. La valeur de l'information n'est donc pas dans la connaissance mais dans l'exploitation de cette connaissance. 

Et c'est bien là la promesse du big data : l'automatisation de la décision dans des contextes très spécifiques. Là, on comprend mieux la source de cette valeur. Même si on ne dispose que d'un modèle frustre, son adaptation par un seul paramètre (par exemple une élasticité prix qu'on peut individualisée, et qui permet donc d'optimiser individuellement le prix pour tirer tout l'avantage d'une discrimination presque optimale) permet des gains dont l'espérance est sans doute faible unité par unité, mais dont l'accumulation peut sans doute justifier les vastes investissement du Big Data à venir.

Cette automatisation de la décision suppose qu'au-dessus de la couche des capteurs et des dispositifs de stockage et d'échange de l'information, de celle des modèles et des stratégies, se développe une plateforme décisionnelle : une capacité de production de règle de décision, des moteurs d'inférence, des simulateurs. L'exigence c'est le temps réel et l'ubiquité. Pouvoir en quelque seconde comparer les informations contextuelles aux banques de connaissance et de règles pour délivrer une réponse.

Cet avantage de hétérogénéité ne se limite pas à la décision. Nous vivons dans un temps et un espace physique, chacun est soumis à un champs local puissant. Le Big Data permet de produire une information contextualisée de manière continue. Des zones géographique fine et des fenêtre de temps courtes. Nous sommes dans l'échelle du mètre et de la seconde. On imagine la production de tableaux de bord généralisés. Voir dans une banque agence par agence et minute par minute les variation de l'activité, observer les ventes en continu dans le supermarché et détecter les engouement en quelques heures. C'est la possibilité de projeter en temps réel l'information locale aux acteurs locaux pour qu'il prenne de meilleures décisions, aiguise leur connaissance du terrain qui devient la source de valeur.

Le Big Data assurément va remettre en question les organisations. Et proposons une hypothèses : si les système CRM ont centralisé la stratégie et son application, allégeant la charge du réseau physique pour la déplacer sur des plateformes centrales, le Big Data ne sera un succès que s'il s'accompagne d'une décentralisation de la décision et au moins de repenser l'organisation.

12 mai 2011

Pour une université digitale

Jorge in Wonderland
Quelle stratégie dans les médias sociaux pour les Universités?

C'est une question sur laquelle on m'a demandé de plancher pour un séminaire de la FNEGE et à laquelle je répond oui avec enthousiasme. Quelques lignes de réflexions peuvent en résumer les idées essentielles.

  1. Les réseaux sociaux sont efficaces pour ceux qui possèdent une communauté. De ce point de vue les universités sont bien dotées. Avec 30 000 étudiants, celle où j'officie dispose d'une force de frappe potentielle considérable. Au regard du 1/9/90, voilà qui laisse espérer 300 contributeurs, 3000 « recommandeurs », et ces quantités peuvent être largement augmentées avec les anciens étudiants. Sur 10 ans c'est près de 100 000 personnes qui y ont fait un passage. Le nombre n'est cependant pas suffisant, il faut encore que l'attachement à la communauté soit réel. Mais de ce point de vue là, il n'y a guère de souci à se faire, le passage dans une institution académique laisse des marques à vie, les universités sont parmi les rares institutions qui transforment nos vie avec l'église et l’hôpital. On est toujours un ancien de. Et si elle a une histoire, du prestige, une légitimité, cette communauté sera d'autant plus forte, ses membres plus attachés. Il y aura toujours quelque part un de ses représentants. Les réseaux socio-numériques, sont de ce point de vue un levier puissant pour incarner cette communauté silencieuse.Elle a forcement envie de parler et d'entendre les échos d'une jeunesse qui s'éloigne.
  2. Les universités ne sont pas une mais plusieurs communautés . Celle des étudiants, celles des enseignants, de ceux qui les secondent. Les premiers se réunissent dans le passage qui leur donne un élément d'identité pour la vie et on ne comprend pas pourquoi les adresses mails ne sont pas données à vie - quelque fusse leur utilité, elles marquent un lien indéfectible, elles sont le passeport et le contrat. Les seconds sont morcelés par leurs champs, leurs institutions et n'écoutent guère un centre qui est soit un centre administratif ou une arène politique. Ils s'y retrouvent quand la marque Université est forte. La segmentation est donc une étape clé, la construction de marque le moyen d'unifier les communautés. C'est là où se trouve la difficulté pratique : ce n'est pas un réseau social qui suffit, mais différents réseaux, sur différentes plateformes qu'il faut coordonner. Il faut fédérer des dispositifs multiples, intriqués, un tissu de communautés. Sans doute faut-il organiser un marché de ces communautés. Les animer, les encourager, les aider à grandir, les croiser. Rappelons-nous que la communauté est une organisation primaire et que la société est justement cette espace où des communautés superposées cherchent leurs règles. Le fédéralisme est une notion à ré-explorer. Le monde digital le favorise pour la simple raison qui diminue les coûts de coordination. On en conclue quant au rôle des unités de communication : elle doivent orchestrer les réseaux.
  3. Les réseaux sociaux sont d'autant plus forts que le contenu à diffuser est riche. De ce point de vue les universités sont munificentes. Avec plus de 2000 chercheurs, celle où j'officie produit du contenu à un rythme qu'aucune marque n'est capable de produire. Il reste à le mettre en forme, en scène, car souvent ce matériau est illisible, conçu pour n'être entendu que de quelques uns, ésotérique. Mais sans faire de story-telling, juste en dépoussiérant et en dégraissant les pièces sorties de l'atelier on peut faire étinceler une intelligence qui par habitude paresse dans le goût du secret et se couvre de scories, de paille et de boue. Sur un plan plus technique, cela exige une veille interne, la constitution d'un réseau d'informateurs et de retrouver cette belle tradition de la vulgarisation. Il faut communiquer ce sur ce qu'on produit. Chaque jour. Un oeil à Harvard ou au MIT donne un idée claire de ce dont il s'agit. Il reste à faire cette révolution culturelle de penser l'université moins comme une église que comme un média ( c'est d'ailleurs le beau travail fait par le Cleo) . Le réseau social de l'université est un média à part entière qui diffuse, souvent par capillarité, un savoir qui doit rester libre. Cette liberté c'est celle de l'accessibilité. D'un point de vue pratique, cela exige de jouer avec une cascade de médias : les revues scientifiques et leur plateformes de diffusion, les livres, les cours et les conférences: dire jour à jour la science qui se fait. Le volume demande un savoir faire. De ce point de vue on rêverait de fondre les centres de documentation avec les unités de communication. Fédérer des contenus.
  4. Les réseaux sociaux exigent une ligne éditoriale. Dans la continuité, on comprend que la matière doit être éditée. Dans le sens noble et ancien du métier d'éditeur. En respectant la lettre et l'esprit, faire briller le bronze que verdissent les intempéries. Dessiner des jaquettes, composer le texte. Faire du manuscrit une idée prête à affronter l'espace public. Mais plus encore donner au torrent, que dis-je, au fleuve, de la production universitaire, un lit sans trop de méandres, qui s'organise en un grand bassin. C'est là sans doute un point faible des universités. Le désordre que les institutions politiques ont introduit avec leurs grands machins est un ennemi évident. Seul un esprit véritablement scientifique et humaniste peut y remettre de l'ordre. Scientifique car il faut donner un sens qui correspond à une réalité, humaniste car il s'agit aussi de dépasser les bornes des spécialités pour qu'un véritable entendement soit possible. Peu importe les supports. Le portail central et ses réseaux périphériques, les campagnes publiques et le travail microscopique des diplômes. L'utilisation des réseaux sociaux à l'université dépend de la qualité d'un projet éditorial. Nous produisons un journal virtuel de la science, il nous faut le réaliser. C'est une idée difficile : penser l'université comme un média.Une audience qui rencontre une programmation. On oublie parfois que l'université est aussi une industrie culturelle.
  5. Les réseaux sociaux ont besoin d'une équipe éditoriale. C'est la petite découverte des praticiens des réseaux sociaux. Il ne suffit pas de cliquer et de retwitter. Ce n'est pas une équipe de bonne volonté qui fait les choses. L'équipe éditoriale doit être issue du corps productif, la valeur de vérité tient à celà. Qu'une ligne soit donnée, elle doit être alimentée. Les belles histoires de réseaux sociaux numériques sont des questions d'organisation, des équipes de 10 à 100 contributeurs. Une communauté dans la communauté. Il faut des informateurs, des reporters, des rédacteurs, des animateurs., une langue. La technique est secondaire. Une chaine vidéo, une plateforme de slides, des documentations, une radio digitale, il faut tout. Mais il faut surtout ceux qui acceptent de produire. Chacun avec son talent alimentera l'architecture des médias.

Nous avons évoqué les principes, nous n'avons pas discuté de technique. Nous serons court à ce sujet, rappelant simplement une distinction proposer par Christian Fauré entre techniques de la relation et technologiesrelationnelles. Si les universités possède le contenu, peuvent aligner des troupes considérables et disposent en puissance des technologies relationnelles, il lui reste à reconstruire ses techniques de relations. Repenser ses rapports aux étudiants, aux professeurs, aux entreprises, aux médias, aux proches de ses étudiants.

A repenser que l'article de recherche n'est pas que le moyen d'affiner un CV pour obtenir un meilleur poste, mais que leur format donne à l'idée le moyen d'en établir une valeur de vérité. A repenser que le cours n'est pas une obligation statutaire auquel les étudiants satisfont pour le bénéfice d'une note, mais le laboratoire où l'enseignant teste et formalise les idées qui viennent de son travail. A repenser que l'université est un espace public, qui s'il délivre des diplômes, doit ouvrir tous ses espaces à l'ensemble de la société. Que sa mission première est de diffuser la connaissance qu'elle produit. La connaissance est affaire de vérité, sa diffusion est affaire d'attention. Dans cet esprit les réseaux sociaux sont de formidables vecteurs de gains de productivité. Il rendront poreux les murs de l'académie, laissant entrer les questions de la société, laissant naître enfin leurs idées. Soyons décidément optimistes, les réseaux sociaux construisent une autre université quelque soient les stratégies qu'on leurs assignent. 

Ce n'est pas le classement de Shanghai qui règne, mais la société de la réputation. Le meilleur moyen de la construire est d'engager la conversation. Les réseaux sociaux en sont la chance.

8 mai 2011

SoundCloud : une interface pour les nuages

Burning man

Un petit dernier depuis des mois trace dans la capillarité son chemin. Il s'agit de SoundCloud qui vient de la scène Allemande et lancé en juillet 2007. L'interface ne diffère pas que par son esthétique minimaliste mais aussi par des fonctions spécifiques  : l'exportation du lecteur et la possibilité de charger ses créations. C'est une platfeforme de partage pour les musiciens avant tout et on la devine favorisant les créations plutôt que la gestion des discothèques.

Voilà qui attire notre attention sur une propriété de ces plateformes : elles peuvent se définir sur la base de la distribution des rôles dans la population : les contributeurs versus les consommateurs. Certaines sont asymétriques, d'autres le sont moins.Certaines favorisent les listes de contact , d'autres moins. Autre détail la visualisation du morceau sous la forme d'une banque de fréquence, une manière physique d’appréhender la musique en donnant une idée de sa structure. La platerforme est centrée sur les pièces plutot que sur les artistes, ce qui d'ailleurs coincide avec l'ethos de l'electro qui forme le fond de son catalogue : les musiciens adopte des pseudonymes qu'ils varient selon les projets. Cette même bande, qui signe le service, comporte un ourlé : le fil des commentaires. Le titre devient un objet d'information à part entière.

Chico Buarque - Construção (J4ck Sh4rk Remix) by J4ck Sh4rk



Deezer et Spotify s'imposent parmi les premières plateformes musicales, même si SoundCloud aurait dépassé les 4 millions d'auditeurs. Mais le modèle économique n'est pas encore encore établi, et il n'est pas assez diffusé pour redresser un marché déclinant depuis le CD.

Nos plateforme classique ont pour contributeurs le très petit nombre de maisons de disque et leur catalogue exhaustif. Même s'il on annonce des millions de morceaux, ils sont réalisés par une faible fraction de musiciens : quelques dizaines de milliers. L'accès à ce catalogue est défini par un sysytème de douane. Les plateforme espère y fidéliser quelques centaines de milliers d'utilisateurs. Deezer rassemble 500 000 membres payants, reversant 20 millions de droits dans un marché de l'ordre de 500 millions d'euros - le CD existant encore. Spotify ce n'est que 25000 clients en premium, mais un million en europe. Ces chiffres sont à comparer à certaine idée de potentiel. En supposant que 10% des internautes soient destinés à souscrire à un tel service dans l'ordre de prix de 80 euros par an. C'est un potentiel de 5 millions soit 400 million annuel l'ordre de grandeur du CD. Mais le chemin est encore long même si des tendances se dessinent. Pour pénêtrer le marché, l'enjeu des alliances avec les opérateurs sera déterminante :, c'est la voie de la masse car c'est par le mobile qu'on écoute une grande partie de la musique. Qui relie -t-on?  les utilisateurs aux morceaux avec les playlists et les outils de recherche, les outils de découverte telles les similarité d'artistes ? Relie-t-on les utilisateurs entre eux en usant de la panoplie des outils sociaux ? SoundMusic ressemble plus à Flickr qu'à une plateforme de diffusion.


Il y a bien d'autres plateforme. Nous avons négliger ici l'ancien Myspace qui s'est retrouvé dans une fonction de promotion des artistes ; radioblog a décrié en adoptant ce principe de podcast. Mais aussi Last.Fm qui est passé payant rapidement et maintient à un prix de 3euros mais surtout se distingue par son formidable moteur de recommandation : la qualité de l'écoute musicale dépend d'un mix savants entre ce qu'on connait et que l'on veut réécouter, et des titres nouveaux, étonnants, qui nous apportent de nouvelles expériences musicales. Ce balancement entre discothèque et découverte est essentiel dans l'interface qu'elle se fasse sur l'analyse de nos gouts, de nos écoutes, de celles de nos amis, de la similarité des artistes et de leur musique.

La question de la qualité sonore se pose moyennement, même si elle risque de poser à mesure de la diffusion et de l'utilisation de ces services. Pour l'usager c'est le classement de ses titre, la programmation de play-list, rarement l'annotation, la documentation est essentielle avec les biographies et le référencement, les commentaires et les notes.

les plateforme de distribution dont seul celle d'Apple a réussi en s'appuyant sur une architecture fermée de terminaux et de plateforme. Zune de Microsoft, et Quriosity Music Unlimited de sony marchent dans ses pas. On est obligé de mentionner amazon.fr. Mais ces plateformes laissent une place limitée à la socialisation, peu de place au partage. N'oublions pas la défunte période du P2P inaugurée par Napster en juin 1999 ?

Les autres services ne manquent pas : Beezik, Dizzler, Free napster, ILike, Imeem, Jamendo, Jango , Jiwa, Lala, Music me, Musikmesh, Musicovery, Odeo, Pandora, Playlist, Spool FM, Worme et We are hunted, We7, Grooveshark.

Lesquels vont survivre ? Ceux qui ont pris rapidement une emprise de marché assez grande pour faire payer 5% de leur audience ? Ceux qui offrent du contenu et des interfaces adaptées à leurs cibles ? Ceux qui préservent une capacité sociale élevée ?  Il y a matière pour une belle étude de Business model, il y a matière pour mieux comprendre l'importance du design des interfaces.