OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 L’article du futur sera une API http://owni.fr/2011/07/06/larticle-du-futur-sera-une-api/ http://owni.fr/2011/07/06/larticle-du-futur-sera-une-api/#comments Wed, 06 Jul 2011 17:05:27 +0000 Olivier Ertzscheid http://owni.fr/?p=72185 Face.

Face à l’explosion continue des savoirs disponibles. Face à la perméabilité chaque jour plus grande des champs scientifiques, à leur reconfiguration permanente et à la place toujours plus grande de l’interdisciplinarité et de la transdisciplinarité. Face à la crise de l’édition et aux rentes de situation de quelques monopolistiques éditeurs. Face à la babélisation des expertises et à la crise de l’autorité académique qu’elle met en exergue. 

Face au mouvement de l’open access et à l’ensemble de ses dérivés (science commons, archives ouvertes et/ou institutionnelles, sciences citoyennes, etc.). Face à la mise en place de nouvelles énonciations scientifiques, de nouveaux agencements collectifs d’énonciation et face à leur structuration et à leur légitimité grandissante. Face à l’explosion des usages scientifiques de sites, de données, d’API, de corpus non-originellement scientifiques. Face aux interfaces évolutives proposées pour l’accès et pour le traitement des données disponibles pour les chercheurs ou offrant un intérêt scientifique. Face à une transition encore en train de se faire entre la “science” et la “science 2.0″.

Face à tout cela, le monde académique (éditeurs, universitaires, ingénieurs, professionnels de la documentation) cherche et tatônne pour savoir, ce qui dans une transition déjà actée, relèvera demain de la réelle nouveauté disruptive et/ou du simple effet de mode passager.

Pile.

C’est dans cette logique de grand tremblement institutionnel qu’Elsevier (grand éditeur monopolistique qu’engraisse éhontément l’argent public des universités) a lancé, à grands renforts de tambours et de trompettes marketing, son projet pour étudier ce que sera “l’article du futur“. Pile poil. Où l’on apprend que l’article du futur sera :

  • plus interactif
  • plus hypertextuel
  • plus “segmenté” (avec d’un côté les données brutes, de l’autre côté le protocole expérimental, au milieu les résultats)
  • plus interfacé (en lieu et place d’un simple pdf à double colonne aux immuables têtes de chapitres – résumé, description du problème, revue de littérature existante, description du protocole, analyse des données recueillies et méthodologie de recueil, conclusions, prolongements et/ou réplications possibles, bibliographie)
  • variable en fonction des spécificités de chaque discipline
  • plus facilement “partageable”
  • plus facilement visualisable (différentes “vues” du même contenu seront disponibles)

Wow. On a même droit à une jolie vidéo avec des bonnes grosses flèches oranges “powerpoint-like”:

Un ou deux ans de recherche pour inventer un affichage à 3 colonnes avec le sommaire à gauche et les navigations et vues contextuelles à droite (soit ce qui est déjà disponible depuis 6 ou 7 ans dans les templates ou gabarits gratuits des grandes plateformes de blogs, au hasard et de manière non-exhaustive “wordpress” ou “blogger”). On peut même accéder à un exemple “live” d’article du futur. Re-wow. Mais ce n’est pas tout. Sans même parler de “l’article du futur”, figurez-vous, ô révolution numérique, qu’Elsevier vient de rendre possible d’ajouter des cartes Google sur des articles en ligne.

Et là je dis au mieux “WTF” et au pire “no future”. Bon, blague et mauvaise foi à part, il est évident que ce truc là sera toujours préférable à un vieux pdf à double colonnage sans liens hypertextes, mais qualifier ce prototype “article du futur” me semble un peu too much pour être honnête. Pendant qu’Elsevier réfléchit à l’article du futur, le futur de la science s’écrit au quotidien.

Ici, les formidables carnets (= blogs) de la plateforme HYpotheses.org se voient attribuer un numéro ISSN. Authentique (r)évolution :

Cette attribution, exceptionnelle pour une plateforme de carnets de recherche, constitue avant tout la reconnaissance des carnets de recherche comme de véritables publications scientifiques.

Pendant ce temps, , un enseignant-chercheur dépose (pour la première fois dans le monde francophone ?) la concaténation de 5 articles de blogs sur une plateforme d’archive ouverte, non pas pour se la jouer rebelle mais pour s’inscrire dans une très ancienne tradition de préprint initiée par la communauté des physiciens (sur le serveur Arxiv notamment). Et la bonne nouvelle – et la vraie nouveauté – est que cela n’émeut plus personne (à moins naturellement que personne ne l’ait encore remarqué ou n’ait jugé opportun de venir me manifester son outragé mécontentement devant ce dévoiement de l’honorabilité des publications académiques estampillées par la très sainte AERES).

Pendant ce temps-là, les contributions à l’encyclopédie Wikipédia sont prises en compte dans un CV académique.

Pendant ce temps-là, il y a déjà 3 ans, Jean-Max Noyer et 3 collègues universitaires réfléchissaient, non pas à “l’article du futur”, mais à la nécessaire et inexorable déconstruction numérique des modes de publication scientifique et des autorités liées. Voici quelques extraits de leur prose (je souligne) :

Les transformations de la sphère éditoriale scientifique sont à l’œuvre avec vigueur, depuis le début des années 90 et elles sont loin d’être stabilisées. Le passage d’un mode d’édition  « blanchi sous le papier »  avec ses dispositifs de fabrication, (leur sociologie) de financement, de légitimation (critériologie de sélection scientifique), de distribution, vers un mode éditorial numérique, hypertextuel complexe s’est accéléré depuis une dizaine d’années.
La première phase de ce passage est à présent bien avancée et la saturation des formes héritées du papier, toujours présentes au cœur des premières réalisations numériques est en cours. Une seconde phase est en cours de déploiement. Elle consiste à mettre l’édition numérique « au milieu » des conditions de production / circulation des savoirs scientifiques… Il s’agit en effet de penser et de concevoir des dispositifs qui soient l’expression la plus adéquate de ce couplage structurel.
Les mémoires numériques ont mis très rapidement en évidence la complexité des processus d’écritures scientifiques, les chaînes plus ou moins longues de transformations des textes, les morphogenèses documentaires. Bref, face à une exhibition de plus en plus forte  des dimensions processuelles et collectives des textualités scientifiques à travers la mise en mémoire d’un nombre croissant de traces produites par les chercheurs, l’édition scientifique doit repenser la manière dont elle a fondé son efficacité et sa légitimité sur une sélection relativement simple d’objets éditoriaux finis comme hypostases des savoirs scientifiques, comme effacement relatif (du processus de production scientifique lui-même), comme expression de l’imaginaire égalitaire de la redistribution des savoirs.
L’édition scientifique doit aujourd’hui permettre d’habiter les communautés d’œuvres, les agencements qui produisent et font circuler les documents, comme « incomplétude en procès de production ». Il s’agit de prendre en compte les dimensions complexes des procès d’écritures scientifiques et de favoriser le travail de recherche (…) au cœur des pratiques. Il s’agit encore de permettre l’établissement de chemins pertinents, de connexions, entre les hétéro-genèses documentaires, des fragments et des formes courtes les plus labiles aux textes stabilisés et sanctifiés en passant par les « working papers », les corpus de données quelconques… qui sont convoqués au cours du travail de recherche, de lectures-écritures.

De tout cela, de tous ces enjeux, naturellement pas un mot dans la réflexion sur l’article du futur d’Elsevier.

Alors ce sera quoi, l’article du futur ? Et ben je vais vous le dire :-) L’article du futur sera une API.

  • “A” non pas comme “Autorité” mais bien comme “agencements collectifs d’énonciation”. Ce que la recherche n’a par ailleurs – heureusement – jamais cessé d’être.
  • “P” comme “percolation” rendue possible entre différents champs scientifiques (voilà pour le fond), et entre les silos documentaires en reconfiguration permanente (voilà pour la forme)
  • “I”. Triple “I”. “I” comme “inscription”, c’est à dire comme capacité à faire trace. “I” comme “interface”, interface multimodale. Nécessairement multimodale. ”I” comme “indicateurs” : les nouveaux indicateurs de la science, viralité, téléchargements, réels, temps de lecture accordé, réplication, citations. Sur ce dernier point, Elsevier travaille beaucoup pour élaborer les tableaux de bord d’indicateurs scientifiques nécessaires au pilotage de la science, d’un strict point de vue comptable et/ou “valorisation à court terme”. Sur la question des indicateurs, Elesevier travaille (vraiment) beaucoup, et communique (vraiment) très peu. Ce sera peut-être l’objet d’un billet dédié si j’en trouve le temps, mais le monde académique serait très bien inspiré de se mettre rapidement au travail pour définir et fabriquer ses propres tableaux de bord d’indicateurs pour ne pas se trouver, demain, prisonnier de solutions clés en main technologiquement pointues mais méthodologiquement empreintes d’une vision strictement rentabiliste de la chose scientifique.

Et puis littéralement, l’article du futur sera une API. Une interface de programmation (voir le remarquable article d’InternetActu), rendant différentes applications possibles. Un vrai boulot d’éditeur que de réfléchir à ce que seront ces API. Que l’on regarde ce qui se passe du côté du livre numérique. L’édition savante va devoir faire rapidement la preuve de son érudition informatique et logicielle. A moins qu’elle ne préfère réinventer la roue ou l’article d’hier en l’appelant celui de demain.


Article initialement publié sur “Affordance.info” sous le titre “L’article du futur sera une API”.

Crédits photo FlickR CC : by-nc Eric Constantineau / by-sa Reilly Butler

]]>
http://owni.fr/2011/07/06/larticle-du-futur-sera-une-api/feed/ 0
Le datajournalisme: vecteur de sens et de profits http://owni.fr/2011/04/17/le-datajournalisme-vecteur-de-sens-et-de-profits/ http://owni.fr/2011/04/17/le-datajournalisme-vecteur-de-sens-et-de-profits/#comments Sun, 17 Apr 2011 12:32:46 +0000 Nicolas Kayser-Bril http://owni.fr/?p=57351 Ce post reprend les éléments d’une réflexion amorcée avec Mirko Lorenz et Geoff McGhee dans un article intitulé Media Companies Must Become Trusted Data Hubs [en] et présentée à la conférence re:publica XI.

Chaque jour, nous produisons deux ou trois exaoctets [en] de données, soit 1 million de téraoctets. Dans le même temps, Facebook et ses 600 millions d’utilisateurs produisent à eux seuls 70 téraoctets, soit à peine 0.007% du total. Pour comparer, un journal papier traditionnel pèse entre 1 et 50 mégaoctets.

Si l’on veut synthétiser toute l’information produite en quelque chose de digeste pour l’utilisateur final, il faut résumer par un facteur de 100 milliards. Pas facile pour un journaliste.

Pour faire sens de cette hyper-abondance de contenus, les professionnels de l’information doivent adopter de nouvelles techniques. Dans un monde analogique, l’enregistrement et la restitution permettent de rendre compte de manière optimale de la réalité. Dans un monde numérique et connecté, la difficulté ne vient plus de l’enregistrement mais de l’extraction de données pertinentes. Pour les exploiter, il devient indispensable de s’approprier des connaissances en analyse de données et en statistiques.

Une fois équipé des bons outils, faire parler des masses de données devient possible. La plupart des opérateurs téléphoniques, tels Vodafone [pdf/en], China Mobile [en] ou Verizon [en], utilisent les données produites par leurs utilisateurs pour prédire les embouteillages, par exemple. De telles techniques pourraient également être utilisées par les journalistes pour prévoir les manifestations.

Toute information est une donnée

L’aboutissement du datajournalisme reste de penser tout type d’information comme une donnée à mettre en lien et en contexte pour lui donner du sens. Si Vodafone est capable de transformer les informations de communication d’un simple GSM en service de prédiction des bouchons, les professionnels de l’information doivent être capables de réassembler et de manipuler les éléments pris dans l’actualité pour en extraire des tendances et du sens pour le citoyen.

L’information telle qu’on la consomme habituellement, sous forme de textes ou d’images, n’est que très partiellement compréhensible par l’ordinateur. Les masses d’information accumulées par les journalistes restent amorphes une fois publiées, alors qu’elles pourraient être valorisées en fournissant le contexte nécessaire à la compréhension des articles du jour.

Certaines initiatives vont dans ce sens. L’International Press Telecommunications Council (IPTC) vient de publier un format de description des données permettant d’identifier clairement les personnes, les lieux et les organisations impliquées dans un article. Ce standard, rNews, a été dévoilé le 5 avril. L’IPTC compte parmi ses membres l’AFP, la BBC et 27 autres acteurs majeurs des médias. Son pas en avant va peut-être accélérer le passage des médias au web sémantique et aux données liées.

Médias liquides

Pour diffuser sur l’ensemble des plateformes et des écrans, les contenus doivent être capables de prendre différentes formes. Du SMS à l’infographie dynamique, l’information doit pouvoir être consommée dans n’importe quelle situation, y compris celles que nous n’imaginons pas encore.

La plupart des rédactions peuvent certainement prendre à leur charge la distribution de leurs contenus sur le web, via leur site. Une petite partie d’entre elles est capable de faire de même sur l’iPhone, sur Android et sur l’iPad. Et malgré ça, aucun média français (à part 10 minutes à perdre) n’est capable de se positionner parmi les 100 app les plus vendues sur iTunes.

En donnant la possibilité à tout développeur d’accéder à leurs informations, les médias peuvent diffuser beaucoup plus largement leurs contenus, sans se poser la question du support. Tout comme la plupart des titres papier externalisent l’impression et la distribution, les sites web peuvent se débarrasser de la diffusion et laisser les spécialistes – les développeurs – s’en charger.

Les API (interfaces permettant aux ordinateurs d’accéder directement à l’information) du Guardian (Open Platform) et du New-York Times (Developer Network) donnent une idée de ce à quoi pourrait ressembler un média réellement liquide. C’est ainsi que les médias pourront cesser de devenir des répertoires de données pour devenir des points d’échange obligés dans le parcours de l’information.

L’actif des médias, en plus de leur marque, reste leur audience. Sa valeur ne provient plus de sa capacité à être vendue aux annonceurs, mais des possibilités de l’intégrer au processus de création de l’information. Le crowdsourcing permet d’augmenter, d’après l’expression d’Eric Scherer, l’information préexistante. Que ce soit pour compléter une base de données (comme nous le faisons avec prixdeleau.fr) ou pour valider des informations (comme sur InfluenceNetworks), l’apport de l’audience différencie profondément un média, enrichisseur de données, d’une base de données « froide ».

Le marché de la confiance

Les médias ont, jusqu’à présent, évolué sur un marché où ils offraient une information à leurs lecteurs ou spectateurs et une audience à leurs annonceurs. A une époque où l’information était une ressource rare et où les annonceurs ne pouvaient pas toucher directement leur public, les médias créaient de la valeur aux deux bouts de la chaîne.

Aujourd’hui, cette position n’est plus tenable. Les lecteurs peuvent contourner les médias et s’informer via de nouveaux canaux (Wikipédia, Facebook, les sites d’institutions ou d’ONG) et les annonceurs peuvent toucher leur audience sans passer par les médias.

Cette dynamique redessine complètement le marché des médias et de l’information. Pour obtenir l’attention de leurs prospects sur un marché hyper-compétitif, les annonceurs ont intérêt à investir massivement dans la qualité du contenu. Unilever, l’un des plus gros annonceurs traditionnels, pénètre ainsi le marché du divertissement en produisant un jeu vidéo en ligne pour ses glaces Magnum (Pleasure Hunt).

Des ONG, qui se seraient auparavant contenté d’envoyer des communiqués de presse aux médias de masse, publient directement les résultats de leurs études et de leurs actions sur leurs sites. Les ONG sont devenues des médias comme les autres [en]. De nouveaux acteurs de l’info, comme Wikileaks et OpenLeaks, l’ont d’ailleurs reconnu clairement. Le premier en offrant les télégrammes diplomatiques évoquant le traité ACTA à la Quadrature du Net [en], une association militant pour les libertés numériques, le second en faisant en sorte d’accueillir en son sein autant d’ONG que de médias.

Les institutions ne sont pas en reste, même en France. Le Quai d’Orsay prend particulièrement au sérieux son nouveau rôle de média. Sur Twitter, @francediplo compte sept fois plus de followers que @France_Info_Com, par exemple. Le ministère des affaires étrangères publie également sa propre série de web-documentaires, Destinations.

La rareté, aujourd’hui, ne réside plus dans l’accès à l’audience (ce pourquoi les annonceurs allaient vers les médias) ni dans l’accès à l’information (ce pourquoi les consommateurs se tournaient vers les médias). La rareté, aujourd’hui, réside dans la confiance à accorder à une information.

Dans un univers de contenus surabondants, produits par tous, la valeur vient de la relation de confiance que l’on arrive à tisser avec son audience. Un tel changement de paradigme met sur un pied d’égalité tous les producteurs de contenus, média y compris.

]]>
http://owni.fr/2011/04/17/le-datajournalisme-vecteur-de-sens-et-de-profits/feed/ 7
Lykke Li et l’API http://owni.fr/2011/03/04/lykke-li-et-lapi/ http://owni.fr/2011/03/04/lykke-li-et-lapi/#comments Fri, 04 Mar 2011 16:21:46 +0000 Laurent Teissier http://owni.fr/?p=30687 Vous savez que chez OWNImusic nous avons une petite faiblesse pour la suédoise Lykke Li. En fait, ce que nous aimons ce sont ces artistes qui savent se renouveler et s’adapter, passer d’une époque à l’autre tout en gardant un style unique et une notoriété intacte. Ici, Music.Play-Pause met en exergue le choix de l’artiste et du très bon Label Atlantic Records UK pour une stratégie de communication par laquelle ils ont parfaitement su illustrer l’univers de Lykke Li en optimisant les possibilités offertes par le numérique et tout ce grâce à une étroite collaboration entre le Label et sa perle (voir interview réalisée par OWNImusic en novembre dernier).

Ce billet nous est offert par Laurent, responsable de la clientèle musique chez Supergazol, une agence de communication interactive dédiée aux jeux-vidéo, à la musique, au cinéma, à l’édition, à l’audiovisuel et à la mode. Ils ont travaillé pour des artistes tels Chimène Badi, David Guetta, Cheryl Cole ou encore Diam’s.

Pour lancer “Wounded Rhymes”, le nouvel album de Lykke Li, Atlantic Records UK a mis en place un site original et très interactif basé sur les API Google Maps, Earth & Streetview.

Grâce aux API, l’utilisateur peut suivre Lykke Li de par le vaste monde où sont disséminées paroles, vidéos et musiques extraites du nouvel album, ou encore mieux, des version inédites.

Chaque ville/région fait d’ailleurs référence à des thématiques de cet album.

De plus, la découverte des 4 premiers contenus permet à l’internaute de quitter la Terre pour assister à un concert de Lykke Li sur la Lune!

En offrant beaucoup de contenu, et notamment de l’inédit, ce dispositif est non seulement efficace pour faire découvrir de façon ludique et participative “Wounded Rhymes” et mettre en avant son univers mais c’est avant tout un très bon outil de buzz, chaque contenu étant bien entendu partageable sur les réseaux et des hashtags twitter ayant été mis en place si jamais vous vous perdez…

Articles initialement publié sur : Music.Play-Pause

Retrouvez Music.Play-Pause sur Twitter et Facebook

]]>
http://owni.fr/2011/03/04/lykke-li-et-lapi/feed/ 0
David Hyman (MOG) : “YouTube ne m’empêche pas de dormir” http://owni.fr/2011/02/28/david-hyman-mog-youtube-ne-mempeche-pas-de-dormir/ http://owni.fr/2011/02/28/david-hyman-mog-youtube-ne-mempeche-pas-de-dormir/#comments Mon, 28 Feb 2011 16:23:26 +0000 Kyle Bylin http://owni.fr/?p=30576 Kyle Bylin est à l’origine du site américain Hypebot.com, qui se fait l’écho des évolutions de l’industre de la musique. Vous pouvez le retrouver sur Twitter (@hypebot, @kbylin)

Cet article est une réponse à l’article : “Youtube : la musique gratuite rapporte autant que la musique payante

J’ai eu l’occasion d’échanger avec David Hyman, le fondateur et PDG de MOG, un service musical basé sur le “cloud”. Au cours de cet entretien, David et moi-même abordons l’impact de YouTube sur la musique et pourquoi les périodes d’essai gratuites sur les services de musique par abonnement doivent être allongées.

Ce qui suit est une version éditée de notre conversation.

Hypebot : Bonjour Dave, merci de m’accorder un peu de votre temps.

David Hyman : Bonjour !

Commençons doucement, nous passerons progressivement à d’autres sujets. Eliot Van Buskirk, du site Evolver.fm, a récemment publié un article à lire absolument. Il y disait des choses intéressantes sur YouTube. Globalement, ce service a beaucoup apporté à la musique, mais paradoxalement, il lui fait sans doute aussi du tort. Pensez-vous que YouTube, avec toute sa musique en accès libre et le fait que chacun puisse y partager ce qu’il veut, soit néfaste pour MOG ?

Je ne pense pas que nous perdions des abonnés au profit de YouTube. Cette expérience (YT) concerne plutôt les tubes. On ne peut pas y écouter une succession de chansons. Il n’y a pas de programmation passive. Pas de playlists. Pas d’albums. Le principe est plutôt : “un titre à la fois”. Avant 1985 on ne faisait pas de clips vidéo, et pourtant il y a eu beaucoup de BONNE MUSIQUE avant 1985 ! Après cette date, la video a été cantonnée à quelques chansons par album au mieux. Si vous voulez entendre les tubes, écoutez la radio ou allez sur YouTube. Je ne crois pas que nos abonnés soient ce type de consommateurs.

D’accord. L’autre point soulevé par Buskirk dans son papier concerne le fait que la plateforme pousse de nombreux développeurs à intégrer l’API de YouTube, au lieu d’essayer de monter des partenariats avec des services existants comme MOG. Le fait que l’API de YouTube soit disponible porte-t-il préjudice à MOG du point de vue de l’innovation et de l’intégration ?

Je n’ai aucun site séduisant utilisant l’API YouTube pour offrir une expérience d’écoute satisfaisante qui me vienne à l’esprit. Nommez-en un ! Vous voyez, YouTube ne nous rend pas service. Mais il ne nous fait pas vraiment de mal, voire pas du tout. Ca me fait juste un peu mal au coeur. Mais je n’en suis pas non plus à perdre le sommeil en m’inquiétant des projections de MOG par rapport à YouTube !

Et SoundHound alors ? Plutôt que de recommender des streams de 30 secondes depuis MOG, leur app envoit les gens vers Youtube.

C’est vrai. Mais Soundhound veut aussi inclure MOG ! Ce sera bientôt le cas. On peut payer à Soundhound des frais d’affiliation. Qu’est ce que Youtube paie à Soundhound ?

Bien vu. Passons ! Un des sujets qui m’interpellent le plus concerne les périodes d’essais gratuits. Pensez vous qu’elles soient trop courtes ?

Bonne question ! Je ne pense pas qu’on ait suffisamment de données pour le moment. Je dirais que Netflix se débrouille très bien pour ce qui est de proposer des prestations satisfaisantes dans le cadre d’une période d’essai de durée comparable.

Et pour les films, est-ce différent ?

Peut être ! Je crois qu’on va en arriver là. Pour fournir davantage que ce que l’on fournit déjà, cela coûterait davantage aux labels. Et quand bien même, ils restreindront toujours la quantité de contenu gratuit que l’on peut proposer. Les frais associés à la mise à disposition de contenu gratuit au delà de la période d’essai gratuit que nous proposons sont prohibitifs. Les labels exigent des taux plutôt élevés sur la base du “par titre/par stream”. La modélisation qu’on a faite nous apprend qu’on ne pourrait pas compenser les coûts par la conversion et la publicité. Est-il possible qu’on ait tort ? Oui. Les taux sont très élevés, croyez-moi. Si je pouvais donner davantage et faire fonctionner le modèle, je le ferais. Nous passons une bonne partie de notre temps chaque jour à plancher sur ce sujet.

C’est aussi comme ça que je vois les choses. Les coûts sont beaucoup trop élevés, quoi qu’on en dise.

Nous essayons de trouver des solutions pour donner gratuitement de manière restreinte et ce de mieux en mieux et avec succès ! Ma seule inquiétude, c’est qu’une fois qu’on passe de “gratuit” à “gratuit restreint”, cela devient un “essai gratuit” et donc on perd l’intérêt de la vraie gratuité. Avec les coûts auxquels on fait face, on ne peut pas fournir du vrai gratuit.

J’imagine que le “gratuit restreint” au final ce serait une fonction “radio” ou du streaming limité. Pour moi, le bon côté d’un tel arrangement est que cela donne aux amateurs de musique le temps de se construire leur bibliothèque musicale. Plus ils aiment de chansons (chacune étant stockée dans leur bibliothèque), plus il est facile pour eux de devenir “propriétaires” de ces titres et de voir la valeur qu’a le fait de payer pour y accéder.

Je suis d’accord.

De mon point de vue, le cas des films est bien différent de celui de la musique. Je dirais que les gens ne se considèrent pas propriétaires des films qu’ils regardent en streaming sur Netflix parce qu’ils ne sont pas sensés l’être. La musique, ce n’est pas comme le cinéma. C’est plus comme le canapé que vous louez. Une fois qu’il est chez vous, vous avez du mal à voir comment vous allez en faire “votre” canapé. Une fois la période d’essai passée, vous n’aurez plus envie de vous en séparer. En vrai, vous pensiez que vous l’aviez loué, mais en fait, vous l’avez dors et déjà acheté.

Bien vu. Je dirai ceci : ne prenez pas ce qui suit pour argent comptant, ce n’est qu’une question de données… On a testé deux options : barrière de péage contre accès gratuit. Demander aux gens de payer avant d’utiliser l’essai gratuit s’est révélé meilleur en termes de conversion, au même niveau que le revenu net. On a tendance à penser que les choses dépendent davantage de comment le visiteur est arrivé sur site. Dans certains cas, ce serait mieux sans paywall. Et cela dépend aussi de la plateforme utilisée : smartphone, web etc…

Je crois que vous avez raison. Là tout de suite je ne me souviens pas des études faites à ce sujet. Mais globalement, nous échouons à prendre en compte la variable “origine” dans la prise de décision. Alors, comment se séparer du fardeau de la “propriété” sans pour autant enlever les avantages cognitifs ?

Les gens doivent pouvoir accéder à la musique de partout : depuis leur voiture, leur télé, leur téléphone, et leur console de jeu. Partout. Je pense que les bénéfices de la propriété sont déjà morts. Le problème, c’est principalement un manque d’éducation.

Tout à fait. Autre chose : quand on dit (et par “on” je veux dire “je” !) qu’il faut que les utilisateurs assument la propriété de leur musique, ça ne veut pas dire grand chose. Une génération entière de fans n’a absolument aucune idée de ce que signifie “posséder de la musique”, sous quelque forme que ce soit. Cette génération n’a d’ailleurs jamais eu à faire d’effort non plus pour la trouver.

Oui, comme ma fille de 7 ans. Elle a MOG sur un iPod dans une station d’accueil Altec Lansing dans sa chambre. Elle est accro. Elle ne sait pas faire la différence entre le téléchargement et le streaming. Allez, je dois me sauver !

Pas de problème, merci d’avoir pris le temps de discuter !

Article initialement publié sur Hypebot.com et traduit par Loïc Dumoulin-Richet

Illustrations CC FlickR: william couch, orange_beard, samantha celera

]]>
http://owni.fr/2011/02/28/david-hyman-mog-youtube-ne-mempeche-pas-de-dormir/feed/ 0
David Hyman, PDG de MOG: YouTube, la gratuité et le reste… http://owni.fr/2011/02/26/david-hyman-pdg-de-mog-youtube-la-gratuite-et-le-reste/ http://owni.fr/2011/02/26/david-hyman-pdg-de-mog-youtube-la-gratuite-et-le-reste/#comments Sat, 26 Feb 2011 15:28:20 +0000 Kyle Bylin http://owni.fr/?p=48615 Kyle Bylin est à l’origine du site américain Hypebot.com, qui se fait l’écho des évolutions de l’industre de la musique. Vous pouvez le retrouver sur Twitter (@hypebot, @kbylin)

Cet article est une réponse à l’article : “Youtube : un modèle gratuit qui paye?

J’ai eu l’occasion d’échanger avec David Hyman, le fondateur et PDG de MOG, un service musical basé sur le “cloud”. Au cours de cet entretien, David et moi-même abordons l’impact de YouTube sur la musique et pourquoi les périodes d’essai gratuites sur les services de musique par abonnement doivent être allongées.

Ce qui suit est une version éditée de notre conversation.

Hypebot : Bonjour Dave, merci de m’accorder un peu de votre temps.

David Hyman : Bonjour !

Commençons doucement, nous passerons progressivement à d’autres sujets. Eliot Van Buskirk, du site Evolver.fm, a récemment publié un article à lire absolument. Il y disait des choses intéressantes sur YouTube. Globalement, ce service a beaucoup apporté à la musique, mais paradoxalement, il lui fait sans doute aussi du tort. Pensez-vous que YouTube, avec toute sa musique en accès libre et le fait que chacun puisse y partager ce qu’il veut, soit néfaste pour MOG ?

Je ne pense pas que nous perdions des abonnés au profit de YouTube. Cette expérience (YT) concerne plutôt les tubes. On ne peut pas y écouter une succession de chansons. Il n’y a pas de programmation passive. Pas de playlists. Pas d’albums. Le principe est plutôt : “un titre à la fois”. Avant 1985 on ne faisait pas de clips vidéo, et pourtant il y a eu beaucoup de BONNE MUSIQUE avant 1985 ! Après cette date, la video a été cantonnée à quelques chansons par album au mieux. Si vous voulez entendre les tubes, écoutez la radio ou allez sur YouTube. Je ne crois pas que nos abonnés soient ce type de consommateurs.

D’accord. L’autre point soulevé par Buskirk dans son papier concerne le fait que la plateforme pousse de nombreux développeurs à intégrer l’API de YouTube, au lieu d’essayer de monter des partenariats avec des services existants comme MOG. Le fait que l’API de YouTube soit disponible porte-t-il préjudice à MOG du point de vue de l’innovation et de l’intégration ?

Je n’ai aucun site séduisant utilisant l’API YouTube pour offrir une expérience d’écoute satisfaisante qui me vienne à l’esprit. Nommez-en un ! Vous voyez, YouTube ne nous rend pas service. Mais il ne nous fait pas vraiment de mal, voire pas du tout. Ca me fait juste un peu mal au coeur. Mais je n’en suis pas non plus à perdre le sommeil en m’inquiétant des projections de MOG par rapport à YouTube !

Et SoundHound alors ? Plutôt que de recommender des streams de 30 secondes depuis MOG, leur app envoit les gens vers Youtube.

C’est vrai. Mais Soundhound veut aussi inclure MOG ! Ce sera bientôt le cas. On peut payer à Soundhound des frais d’affiliation. Qu’est ce que Youtube paie à Soundhound ?

Bien vu. Passons ! Un des sujets qui m’interpellent le plus concerne les périodes d’essais gratuits. Pensez vous qu’elles soient trop courtes ?

Bonne question ! Je ne pense pas qu’on ait suffisamment de données pour le moment. Je dirais que Netflix se débrouille très bien pour ce qui est de proposer des prestations satisfaisantes dans le cadre d’une période d’essai de durée comparable.

Et pour les films, est-ce différent ?

Peut être ! Je crois qu’on va en arriver là. Pour fournir davantage que ce que l’on fournit déjà, cela coûterait davantage aux labels. Et quand bien même, ils restreindront toujours la quantité de contenu gratuit que l’on peut proposer. Les frais associés à la mise à disposition de contenu gratuit au delà de la période d’essai gratuit que nous proposons sont prohibitifs. Les labels exigent des taux plutôt élevés sur la base du “par titre/par stream”. La modélisation qu’on a faite nous apprend qu’on ne pourrait pas compenser les coûts par la conversion et la publicité. Est-il possible qu’on ait tort ? Oui. Les taux sont très élevés, croyez-moi. Si je pouvais donner davantage et faire fonctionner le modèle, je le ferais. Nous passons une bonne partie de notre temps chaque jour à plancher sur ce sujet.

C’est aussi comme ça que je vois les choses. Les coûts sont beaucoup trop élevés, quoi qu’on en dise.

Nous essayons de trouver des solutions pour donner gratuitement de manière restreinte et ce de mieux en mieux et avec succès ! Ma seule inquiétude, c’est qu’une fois qu’on passe de “gratuit” à “gratuit restreint”, cela devient un “essai gratuit” et donc on perd l’intérêt de la vraie gratuité. Avec les coûts auxquels on fait face, on ne peut pas fournir du vrai gratuit.

J’imagine que le “gratuit restreint” au final ce serait une fonction “radio” ou du streaming limité. Pour moi, le bon côté d’un tel arrangement est que cela donne aux amateurs de musique le temps de se construire leur bibliothèque musicale. Plus ils aiment de chansons (chacune étant stockée dans leur bibliothèque), plus il est facile pour eux de devenir “propriétaires” de ces titres et de voir la valeur qu’a le fait de payer pour y accéder.

Je suis d’accord.

De mon point de vue, le cas des films est bien différent de celui de la musique. Je dirais que les gens ne se considèrent pas propriétaires des films qu’ils regardent en streaming sur Netflix parce qu’ils ne sont pas sensés l’être. La musique, ce n’est pas comme le cinéma. C’est plus comme le canapé que vous louez. Une fois qu’il est chez vous, vous avez du mal à voir comment vous allez en faire “votre” canapé. Une fois la période d’essai passée, vous n’aurez plus envie de vous en séparer. En vrai, vous pensiez que vous l’aviez loué, mais en fait, vous l’avez dors et déjà acheté.

Bien vu. Je dirai ceci : ne prenez pas ce qui suit pour argent comptant, ce n’est qu’une question de données… On a testé deux options : barrière de péage contre accès gratuit. Demander aux gens de payer avant d’utiliser l’essai gratuit s’est révélé meilleur en termes de conversion, au même niveau que le revenu net. On a tendance à penser que les choses dépendent davantage de comment le visiteur est arrivé sur site. Dans certains cas, ce serait mieux sans paywall. Et cela dépend aussi de la plateforme utilisée : smartphone, web etc…

Je crois que vous avez raison. Là tout de suite je ne me souviens pas des études faites à ce sujet. Mais globalement, nous échouons à prendre en compte la variable “origine” dans la prise de décision. Alors, comment se séparer du fardeau de la “propriété” sans pour autant enlever les avantages cognitifs ?

Les gens doivent pouvoir accéder à la musique de partout : depuis leur voiture, leur télé, leur téléphone, et leur console de jeu. Partout. Je pense que les bénéfices de la propriété sont déjà morts. Le problème, c’est principalement un manque d’éducation.

Tout à fait. Autre chose : quand on dit (et par “on” je veux dire “je” !) qu’il faut que les utilisateurs assument la propriété de leur musique, ça ne veut pas dire grand chose. Une génération entière de fans n’a absolument aucune idée de ce que signifie “posséder de la musique”, sous quelque forme que ce soit. Cette génération n’a d’ailleurs jamais eu à faire d’effort non plus pour la trouver.

Oui, comme ma fille de 7 ans. Elle a MOG sur un iPod dans une station d’accueil Altec Lansing dans sa chambre. Elle est accro. Elle ne sait pas faire la différence entre le téléchargement et le streaming. Allez, je dois me sauver !

Pas de problème, merci d’avoir pris le temps de discuter !

Cet article est une réponse à l’article : “Youtube : un modèle gratuit qui paye?

Article initialement publié sur Hypebot.com

Illustrations CC FlickR: william couch, orange_beard, samantha celera

]]>
http://owni.fr/2011/02/26/david-hyman-pdg-de-mog-youtube-la-gratuite-et-le-reste/feed/ 3
Industrie musicale : longue vie aux hackers ! http://owni.fr/2011/01/30/industrie-musicale-longue-vie-aux-hackers/ http://owni.fr/2011/01/30/industrie-musicale-longue-vie-aux-hackers/#comments Sun, 30 Jan 2011 17:56:32 +0000 Massimo Ciociola (musiXmatch) http://owni.fr/?p=44634
Cet article a d’abord été publié sur OWNImusic.
.
.
.
.
.
.
.

J’ai assisté au @Midem les douze dernières années, et il y a un aspect qui ne change pas, Cannes dégage de super vibrations pour le divertissement et la musique et passer deux ou trois jours là-bas, c’est toujours cool. Le soleil aide et j’aime courir sur la Croisette tôt le matin.

Les vibrations de cette édition 2011 étaient particulièrement étonnantes. Je vais essayer d’expliquer pourquoi.

J’ai assisté à très peu de panels. Ils avaient tendance à n’être que des redites ennuyeuses de choses que nous savons déjà. À la place, j’ai passé la plupart de mon temps à parler aux gens, nouer des liens, donner des conseils, assister à des événements et faire des rencontres avec mon équipe. Et vous savez quoi ?

La partie la plus intéressante du Midem maintenant, c’est MidemNet. Aucun doute.

Bien sûr, j’étais vraiment content d’avoir été invité à participer à la session intitulée “Comment exporter votre business musical dans le monde entier”. C’était particulièrement bien pour moi car cela m’a donné l’opportunité de partager mon expérience et mes connaissances avec toutes sortes de gens qui étaient demandeurs de conseils pour que leur service s’étende du local à l’international.

Mais le moment le plus cool de tout le Midem, haut la main, ce fut le MusicHackDay [en]. Laissez-moi présenter la scène. Imaginez une salle envahie par la foule, remplie non seulement de hackers, mais aussi de gens de labels de musique (majors et indépendants), des éditeurs, des artistes, des journalistes et des analystes de l’industrie musicale. Il y avait de l’électricité dans l’air et pendant longtemps les initiés de l’industrie ont été soufflés par les mashups que les développeurs étaient capables de concevoir en seulement 24 heures.

Des sociétés telles que Soundcloud, Last.fm, The Echonest, Bmat, Extension.fm, 7 Digital, SongKick, Musescore and musiXmatch ont participé à cette nuit blanche et ont proposé un étonnant showcase d’apps. Ci-dessous deux exemples, vous pouvez tous les voir ici [en].

Cliquer ici pour voir la vidéo.

Démo “I’m A Big Fan mobile app”, pour Windows Phone 7, présentée par musiXmatch. Cette app pour mobile vous donne pleins de renseignements sur un artiste : bio, concerts à venir aux alentours de chez vous et la setlist la plus probable de leur prochaine prestation. Pour chaque titre de la setlist, l’app vous indique la probabilité qu’il soit joué, les paroles et la piste audio. “Tout pour que vous soyez prêt et deveniez un vrai fan en moins de deux !”

Cliquer ici pour voir la vidéo.

Démo “Six Clicks to Imogen”, de Paul Lamere (Music Machinery, [en]). Cette app ludique vous propose de trouver un chemin musical d’un artiste à Imogen Heap [en].

Après tout ce qui fut dit et fait, je n’avais rien entendu ou vu de nouveau ou d’excitant du show principal du Midem, mais il était clair pour moi et les autres que la nouvelle promesse de l’industrie musicale est apportée par la communauté des développeurs.

La prochaine vague de croissance dans l’économie de la musique numérique sera propulsée par les hackers !

Vous ne me croyez pas ? Demandez à Martyn Davies [en], un hacker de chez hacker, pourquoi il a été embauché par Universal Music. Oui. Universal Music.

L’industrie comprend enfin qu’être ouvert signifie être ouvert d’esprit, ouvert à l’expérimentation et ouvert aux hackers et au développeurs pour mixer les services. Ouvert, ce n’est pas qu’un slogan, c’est l’ingrédient essentiel pour avoir du succès dans un paysage qui évolue très vite.

De leur côté, les développeurs et les hackers, qui dans le passé ont peut-être ignoré les questions de copyright, sont en train de comprendre l’intérêt de travailler avec du contenu sous licence pour propulser leurs apps et leurs services.

Les artistes et les auteurs méritent d’être payés pour leur génie.

Les hackers méritent leur part des revenus s’ils peuvent accroitre la distribution et suivre l’usage grâce aux API’s.

C’est donc mon rêve et l’équation gagnante :

Détenteur de droits + hackers + API’s = industrie de la musique en bonne santé

Longue vie à la musique ! Longue vie aux hackers !

Billet initialement publié sur musiXmatch, traduit et enrichi par OWNI (vidéos) ; image Flickr CC nhussein et thomasbonte

Tous les articles d’OWNImusic sur le Midem


]]>
http://owni.fr/2011/01/30/industrie-musicale-longue-vie-aux-hackers/feed/ 12
Guardian Wordpress Plugin, a step ahead towards future of online news http://owni.fr/2010/12/15/guardian-wordpress-plugin-a-step-ahead-towards-future-of-online-news/ http://owni.fr/2010/12/15/guardian-wordpress-plugin-a-step-ahead-towards-future-of-online-news/#comments Wed, 15 Dec 2010 11:50:20 +0000 Federica Cocco http://owni.fr/?p=21829

There are those who think that in the digital age the newspaper industry can only survive by charging for its content and maximising their advertising footprint (read: Rupert Murdoch), and there are those who try to think beyond this assumption.

When it comes to digital strategy, the Guardian has so far shown to be the most forward thinking and experimental newspaper globally. Recently, it has introduced a plugin that allows Wordpress based blogs to post content directly from The Guardian website’s onto the blog.

The catch? Bloggers must publish the article in full without applying any modifications, and along with the content comes the newspaper’s advertisements. Whatever you may think, it’s a win-win situation: The Guardian doesn’t lose any profit and is actually able to monitise through the API, whilst publishers get free online news content from one of the world’s best newspapers.

It is certainly an interesting and timely move. Recently, Associated Press sent a legal threat to ColoradoPols.com – a blog covering politics in Colorado, USA - for having re-published its content without permission or remuneration. The case has caused shock in the media and in the blogging community.

This syndication tool is part of the newspaper’s Open Platform Program led by their very own Wizard of Oz, Matt McAlister, lead developer and main architect of The Guardian’s online strategy.

In an interview with GigaOm, Matt explained the rationale behind the Guardian’s online experiments:

At a time when newspapers like The Times of London and the Sunday Times are implementing paywalls [...] and other newspaper, such as the New York Times, are working on their own pay restrictions, The Guardian’s move toward creating an open platform is unusual. But despite the newspaper’s losses, Guardian editor-in-chief Alan Rusbridger has said that an open strategy is the key to the newspaper’s future.

For more info, we heartily recommend “The Open Strategy: Or how I stopped worrying about my website and learned to love the Internet” by the aforementioned online whiz.

Despite the best journalistic efforts at being unbiased, in this case we can’t help but give a big thumbs up to this initiative.

Guardian 1 : Competitors 0.

__

Credits Photo CC Flickr : Everydaylifemodern.

Initially published on OWNI july 15th 2010

]]>
http://owni.fr/2010/12/15/guardian-wordpress-plugin-a-step-ahead-towards-future-of-online-news/feed/ 0
L’intérêt de l’OpenApi pour les entreprises http://owni.fr/2010/11/08/l%e2%80%99interet-de-l%e2%80%99openapi-pour-les-entreprises/ http://owni.fr/2010/11/08/l%e2%80%99interet-de-l%e2%80%99openapi-pour-les-entreprises/#comments Mon, 08 Nov 2010 16:33:03 +0000 Serge Soudoplatoff http://owni.fr/?p=34923 Le système d’information des entreprises est généralement un système fermé. Ce n’est pas forcément par crainte d’intrusion, ou de malveillance, mais parce que la philosophie de base du monde industriel est qu’il y a une vie dans l’entreprise, une vie en dehors de l’entreprise, et que la frontière entre les deux doit être simple: fermée, avec quelques points de passage bien surveillés, par exemple par une machine inventée par IBM en 1912 (l’horloge pointeuse) faisant office de système d’information, et une logique basée sur l’horaire qui permet de faire une barrière temporelle entre le dedans et le dehors.

Bien évidemment, le monde a changé. Plusieurs frontières entre l’intérieur et l’extérieur de l’entreprise, entre la sphère privée et la sphère professionnelle, ont explosé. Déjà sur le plan temporel, à part les salariés qui ont un travail posté (à peine 15% du travail actif), plus personne n’est vraiment concerné par la durée comme mesure de la création de valeur (d’où l’absurdité de la loi des 35 heures, non pas à cause du chiffre 35, mais parce que l’heure est de moins en moins une unité pertinente).

Ensuite, la capacité des entreprises à mettre partout des blocages sur leur système d’information, allant de pare-feu à l’interdiction des réseaux sociaux en passant par le blocage de toute vidéo (pire que le gouvernement Chinois…), force finalement les salariés à travailler de chez eux, où ils trouvent de bien meilleures conditions informatiques que sur leur lieu de travail.

Ouvrir les systèmes d’information

Les systèmes d’information, traditionnellement fermés, ont été bouleversés par la philosophie ouverte de l’Internet. Il a fallu quelques années avant que les entreprises ne se mettent à ouvrir partie de leurs informations sur l’extérieur; je me souviens de la révolution engendrée par UPS qui avait été innovant en décidant d’ouvrir son intranet sur le web afin de donner les dates de délivrance de ses paquets.

En 2010, il serait suicidaire pour une entreprise qui s’adresse au grand public de ne pas avoir un site web qui, a minima, offre de l’information, et au moins permet d’effectuer des transactions. Mais ceci va vite devenir largement insuffisant, et je pense que le monde de l’entreprise devrait rendre publiques les API, qui sont des interfaces de programmation, de leur système d’information.

Observons ce qui se passe dans le monde de la politique. Le mouvement de l’Open Data est né de la volonté de certains chefs d’état d’ouvrir au public les données de l’administration; ou plutôt, pour reprendre l’excellent phrase du rapport de Nicholas Gruen remis au gouvernement Australien, de passer d’une logique où « le gouvernement protège ses données, sauf s’il a envie de les diffuser » à une logique où « le gouvernement diffuse ses données, sauf s’il y a une raison impérieuse de ne pas le faire ». C’est ainsi que le gouvernement Américain a ouvert son portail de données, que ce fut aussi le premier geste de Cameron lorsqu’il fut élu, conduisant au portail Anglais, suivi par de nombreux pays ou administrations; même le gouvernement Russe a ouvert un portail rendant publiques les dépenses de son administration.

Lorsqu’un gouvernement ouvre ses données, celles-ci se présentent sous plusieurs formats, allant de simples documents pdf jusqu’à des tableurs excel. Publier des données est intéressant, mais les rendre utiles est encore mieux. La logique a donc été de passer de l’ouverture des données à l’ouverture d’interfaces de programmation permettant à des programmeurs de réaliser des applications dialoguant avec les systèmes d’informations.

Suivre l’exemple du secteur public

Le principe est le suivant: une municipalité ouvre des API sur son système d’information. Ensuite pour amorcer la pompe, elle crée un concours public, récompensant les meilleures applications utilisant ces API. La communauté est alors motivée pour créer de telles applications. L’intérêt pour une ville est multiple: elle se concentre sur son métier qui est de gérer la ville, elle n’a plus de problème de développements informatiques, puisque les applications sont réalisées ailleurs, l’argent du contribuable est finalement mieux dépensé, et les services rendus deviennent très nombreux. De plus, dans le modèle anglo-saxon, non seulement l’administration ne doit pas faire payer ses données, mais il est bien que ces données permettent au monde économique de s’enrichir… Un ensemble de municipalités a d’ailleurs décidé de standardiser ces interfaces de programmation, donnant naissance à Open311, site sur lequel on peut voir la liste des applications développées par des tierces personnes.

Le monde de l’entreprise devrait s’inspirer de ce mouvement. Prenons un cas d’école, en partant du bricolage. Les deux grandes enseignes, Castorama et Leroy-Merlin ont développé des applications iPhone. Ces applications ont coûté de l’argent, et ont forcé les entreprises à faire de l’informatique, ce qui est loin de leur cœur de métier. De plus, aucune de ces deux applications ne permet de passer commande directement des produits concernés.

Imaginons maintenant que les enseignes décident d’ouvrir leurs API. Il y aura sûrement dans la communauté des clients des programmeurs de génie qui développeront des applications orientées usage, puisqu’eux-même sont clients. Ces application pourront alors, au-delà ce que font déjà celles des marques, inventer d’autres usages en laissant cours à l’imaginaire, et surtout, passer directement des commandes au système d’information. Le flux d’achat en sera ainsi augmenté.

Prenons un autre exemple: si les banquiers ouvraient leurs API (en imaginant qu’ils passent d’un mode stock à un mode flux), la communauté pourrait développer des applications innovantes, permettant de mieux gérer leurs comptes, de faire des transactions, etc… Les banquiers y gagneraient des flux, et les clients auraient des services bien plus intéressants.

La rentabilité de l’OpenApi

Est-ce utopique ? C’est déjà ce que fait Amazon dans le retail, avec d’une part les Amazon Web services, dont l’un par exemple permet d’adresser le tunnel de commande, et les widgets qui permettent à chacun de mettre une fenêtre d’Amazon sur son site. C’est aussi la récente innovation de paypal avec paypalX, un ensemble d’API ouvertes associées à un modèle économique de partage de revenu. C’est ce qu’a fait JCDecaux en ouvrant les interfaces des bornes du vélib, fournissant le nombre de vélos et ne nombres de slots disponibles, même si l’on aurait aimé qu’il ouvre ses interfaces du Vélib lui-même, et surtout l’on a regretté qu’il fasse machine arrière. On pourrait penser à d’autres applications, dans le monde de l’automobile, de toutes les industries ou de tous les services.

Le monde Internet est un monde ouvert, basé sur la coopération, l’intelligence collective, et la valeur du flux plus que du stock. Ouvrir ses API représente, pour une entreprise, la compréhension d’où se situe la valeur, et de comment l’exploiter intelligemment. Je reste persuadé que les premières qui le feront auront un avantage compétitif par rapport aux autres.

Le “government as a platform” de Tim O’Reilly deviendrait, à la lumière de ce que j’ai écrit en 2008, « enterprise as a platform ». Auguste Detoeuf, dans « propos de O. L. Barenton, confiseur », le disait lui-même dans un livre écrit en… 1936 :

Ce ne sont pas vos brevets, mais votre rapidité d’exécution, qui vous protégera de la concurrence.

Crédit photos cc FlickR : tuppus, TheGoogly, thecodefarm.

Article initialement publié sur La rupture Internet.

]]>
http://owni.fr/2010/11/08/l%e2%80%99interet-de-l%e2%80%99openapi-pour-les-entreprises/feed/ 3
Quid d’une appliance Twitter pour entreprises? http://owni.fr/2010/10/18/quid-dune-appliance-twitter-pour-entreprises/ http://owni.fr/2010/10/18/quid-dune-appliance-twitter-pour-entreprises/#comments Mon, 18 Oct 2010 18:52:36 +0000 Fabien Grenet http://owni.fr/?p=32004 Twitter est un média d’information qui s’avère être un excellent outil pour partager de l’information au sein d’un réseau, rapidement et simplement. Ce besoin d’échange existe en entreprise et est souvent très mal couvert en terme d’usage par la messagerie, qui n’est pas du tout adaptée. Pourtant, Twitter ne propose pas d’offre pro.

Certes, il est possible d’utiliser la version online en mode « privé », mais comme elle ne s’interface pas avec le SI de l’entreprise, son intérêt est limité. Partant de là, j’ai essayé d’imaginer la killer-offre que pourrait lancer Twitter pour investir ce marché et après moult neurones grillés, je vous présente la twitt’appliance !

Pourquoi pas simplement une offre pro sur le portail online?

Parce qu’interfacer le portail online avec le SI est difficilement faisable, et que c’est l’essentiel de la valeur ajoutée pour une utilisation en interne. Prenons comme exemple Google, qui propose sa google appliance, pour se faire une idée. Une offre pro online reviendrait à faire en sorte que google « online » puisse accéder au SI de l’entreprise et indexer tous ses documents, sites, etc… pour qu’ensuite n’importe quel employé puisse faire ses recherches via google-pro.com.

Au-delà de la complexité technique et des questions de confidentialité, la solution ne parait pas vraiment pertinente non ? En revanche, installer une appliance au sein du SI est plus simple, et apporte des possibilités d’intégration et de personnalisations importantes, en étant plus sûr d’un point de vue sécurité. Et bien c’est pareil pour Twitter. Une offre pro online sera complexe à interfacer avec le SI, et présentera des risques en terme de sécurité plus importants qu’une solution internalisée sous forme d’appliance.

Twitt’appliance, la killer-offre

Comme l’analyse Eric Delattre dans son billet sur l’impact de Twitter sur la gestion de projet, le micro-blogging est un levier de productivité et d’efficacité, qui ne demande qu’à être actionné. Pour répondre à ce besoin, des solutions de « micro-blogging » ont été conçues spécifiquement pour le monde de l’entreprise, qu’elles soient online ou internalisées.

La solution Yammer par exemple est construite sur un modèle online, Sharetronix ou SAP ESME quant à elles sont construites sur un modèle internalisé, plus aisément interfaçable avec le SI. Ainsi, ce secteur n’est pas un nouveau monde à explorer mais est déjà bien investi par des acteurs aux outils bien rodés.

Pour avoir de l’avenir, il faut que l’offre de Twitter ne se contente pas d’apporter un outil de micro-blogging, mais qu’elle dispose d’un fort avantage concurrentiel. Et justement, la Twitt’appliance est bien pourvue de ce coté là, sans que Twitter n’ai à développer ou adapter quoi que ce soit dans son moteur (ou presque) : en effet elle vient accompagnée d’un écosystème riche et déjà rodé, celui de Twitter.com !

S’appuyer sur l’écosystème existant

L’écosystème qui existe aujourd’hui autour de Twitter.com est un formidable levier de différenciation pour cette offre. En effet, une appliance signifie la mise à disposition de l’application sous une forme très proche voire identique de celle online. En l’occurrence, si l’API reste la même, Twitter dispose d’un vivier d’éditeurs tiers dont l’expertise est immédiatement utilisable sur l’appliance. Moyennant quelques toutes petites modifications (adresser l’appliance twitter de l’entreprise au lieu de twitter.com par exemple), un client seesmic ou tweetdeck pourrait donc devenir utilisable en interne ! Et c’est valable pour n’importe quelle application ou service tiers.

En allant plus loin, il n’est pas non plus très difficile d’imaginer d’accéder à cette appliance via un client mobile. Pour les usages personnels le client mobile prend une place de plus en plus importante dans l’accès aux réseaux sociaux (Twitter inclus). Une entreprise qui ouvrirait un accès sécurisé vers cette appliance permettrait sans grande modification des clients mobiles (hormis celle de pouvoir choisir vers quelle URL ou IP pointer) de bénéficier en mobilité de toute la puissance de cette plateforme interne !

Une offre qui dès son lancement et sans avoir besoin de développements  coûteux bénéficie d’un catalogue étoffé de solutions d’éditeur tiers, pas mal non ? On peut même imaginer que Twitter se serve de cette offre pour permettre aux éditeurs tiers de monétiser leur expertise, afin de les fidéliser et peut être de les rassurer par rapport à leur impression de servir de R&D gratuite.

oAuth : s’appuyer sur l’annuaire interne (SSO)

Ajouter une application en entreprise en ajoutant un nouveau mot de passe, il n’y a rien de mieux pour freiner son utilisation. Pour rester une killer-offre, il faut donc que la Twitt’appliance propose de s’appuyer sur l’annuaire interne s’il existe, car ce dernier permet de fédérer les différentes « identités applicatives » du collaborateur

En conservant le protocole oAuth, qui permet la compatibilité avec tout l’écosystème existant, et en le couplant avec l’annuaire interne, on obtient une solution sécurisée et facile d’accès, qui permettrait en plus de rassurer les décideurs quant à leurs peurs récurrentes sur les usages collaboratifs : la perte de contrôle sur les collaborateurs et la fuite d’information stratégique. À partir du moment ou l’inscription ne serait possible qu’aux collaborateurs de l’entreprise (déclarés dans l’annuaire), il est facile de suivre ce qui est dit, et d’éviter les débordements (ou le plus souvent de constater la valeur créée). Par ailleurs, si l’entreprise dispose d’un RSE avec annuaire personnalisé, il est facile d’imaginer les ponts entre le profil Twitter (bio, site, …) et le profil de l’annuaire.

TwitGED et autres idées

Twitpic, tweetphoto, etc… ces services de partage de photographie via Twitter sont tout à fait transposables dans le monde de l’entreprise, et j’imagine que proposer un TwitGED ne serait pas si compliqué que ça et apporterait une forte valeur ajoutée. Je mets à jour mon CR de réunion, et hop, je le tweete. Mes followers sont tous au courant, mais seuls ceux qui sont autorisés dans la GED peuvent le consulter (si le SSO évoqué précédemment est mis en place)

Dans la même veine, un TwitCalendar qui permettrait de suivre ses réunions pourrait être créé, ou bien encore un TwitAnswer pour s’appuyer sur la communauté de talents de l’entreprise pour trouver les réponses à ses questions. Bien sur, le but n’est pas de faire une usine à gaz qui perdrait tout son intérêt, c’est au contraire de capitaliser sur la capacité du micro-blogging à mettre en avant l’information importante et à en simplifier et accélérer sa circulation, en s’appuyant sur l’écosystème existant et en l’enrichissant. Tout cela permettant de modifier les usages en entreprise et aider au passage vers le 2.0.

En bref, qu’attend-tu Twitter?

Comme beaucoup, je suis convaincu que de ne pas proposer une offre pour les entreprises serait une erreur stratégique pour Twitter. Peut être que l’avenir nous donnera tort, mais j’espère que non, et j’espère surtout que cette offre sera sous cette forme qui me parait n’avoir (presque) que des avantages. Et vous, qu’en pensez vous ? Twitter doit il proposer une offre entreprise, sous quelle forme ? Cette idée d’appliance vous paraît elle crédible ou fantaisiste ? Échangeons et débattons dans les commentaires.

Crédits photos cc FlickR : JR_Paris, sea turtle, Cushing Memorial Library and Archives, Texas A&M.

Article initialement publié sur iPad & Cie.

]]>
http://owni.fr/2010/10/18/quid-dune-appliance-twitter-pour-entreprises/feed/ 4
Du contenu roi aux données reines http://owni.fr/2010/07/21/du-contenu-roi-aux-donnees-reines/ http://owni.fr/2010/07/21/du-contenu-roi-aux-donnees-reines/#comments Wed, 21 Jul 2010 07:56:11 +0000 Fred Cavazza http://owni.fr/?p=22505 Souvenez-vous… il y a quelques années, le contenu était considéré comme la matière première du web : celui qui maîtrisait le contenu maîtrisait le web (les portails qui agrégeaient de très nombreuses sources de contenu concentraient également l’audience). Puis, il y a eu MySpace, les Skyblogs, Facebook, Twitter, Foursquare… et maintenant il paraît que c’est la communauté qui est reine. Certes, les plateformes sociales sont indéniablement en haut des tableaux d’audience, mais je reste convaincu que, sans contenus, une communauté n’est pas viable. Comprenez par là que ce sont les contenus qui alimentent les conversations et font tourner les communautés. De ce point de vue là, les plateformes sociales ne sont qu’un intermédiaire entre le contenu et les internautes. Un intermédiaire à valeur ajoutée, mais qui présente tout de même une certaine fragilité dans sa pérennisation (cf. De la qualité des contenus sur Facebook).

Sans rentrer dans la polémique, je pense ne pas me tromper en disant que le contenu reste roi, la communauté se nourrit de ce contenu pour générer des interactions sociales (mais là encore il y a des subtilités : ne confondez plus communautaire et social). La grande question que je me pose est la suivante : qu’est-ce qui alimente les rédacteurs de ce contenu ? C’est là où les données entrent en scène ; non pas les données que les rédacteurs possèdent déjà, mais plutôt les données disponibles publiquement que les internautes peuvent interroger et manipuler à loisir.

Les données à la base du… journalisme de données

Nous parlons bien ici de données brutes en très grande quantité (des chiffres) qu’il serait trop coûteux de traiter. En les exposant publiquement, ce travail de compilation/trituration/interprétation est délégué à la communauté qui va ainsi pouvoir nourrir une réflexion ou appuyer des prises de position. Et à ce petit jeu, certains journalistes en ont fait leur spécialité, cela s’appelle du journalisme de données (datajournalism en anglais). L’idée est d’extraire des informations pertinentes de quantités importantes de données.

Pour vous aider à comprendre l’intérêt de cette pratique, amusez-vous à compter le nombre d’articles qui font référence à Google Trends, les statistiques de recherche sont les données sur lesquelles repose toute l’argumentation de ces articles. Autre illustration avec ce graphique très intéressant qui met en évidence les performances extraordinaires (=suspectes) des coureurs du Tour de France.

Analyse des performances extraordinaires des coureurs du Tour de France

Ces données sont extraites du portail ActuVisu qui permet justement de manipuler des bases de données (cf. Datajournalisme : du nouveau en France avec ActuVisu). Les données sont, dans ce cas de figure, la matière première d’une réflexion, ou plutôt d’une investigation. Les possibilités sont nombreuses et la profession se met en marche pour développer de nouvelles compétences dans ce domaine. Pour mieux comprendre ce phénomène, je vous recommande les trois articles suivants : pourquoi le data-journalisme, c’est l’avenir en marcheQuatre voies du datajournalism et Illusions et malentendus sur le journalisme de données.

Après les portails de contenus, les portails de données

L’exemple français d’ActuVisu illustre une tendance de fond initiée il y a cinq ans avec la fondation Gapminder qui fournit justement un accès à de très nombreuses données et statistiques (leur credo : “Unveiling the beauty of statistics for a fact based world view“).

Mieux comprendre le monde avec Gapminder

Tout l’intérêt de ce portail est d’une part d’agréger le plus grand nombre de données possible (de préférence en les rendant exploitables et compatibles) ainsi que de fournir un outil simple pour manipuler et visualiser ces données. Il existe d’autres initiatives comme Many Eyes d’IBM, Socrata, ou, plus modestement, Worldmapper. Notez que ces interfaces pour données sont une notion chère à Tim Bernes-Lee (cf. ReadWriteWeb Interview with Tim Berners-Lee, part 2 : search engines, user interfaces for data, Wolfram Alpha, and more…), preuve que ce sujet est important.

Un créneau très porteur qui intéresse les moteurs de recherche de Google, qui a racheté en 2007 l’outil de visualisation qui propulse Gapminder et qui propose également Google public data explorer dans son labo. Ce rachat fait sens dans la mesure où Google est très certainement un des mieux placé pour collecter les données éparpillées aux quatre coins du web. Reste encore le problème des données non-publiques.

Libération des données publiques avec Open Data

Les initiatives d’Open Data consiste à libéraliser les données publiques pour apporter plus de transparence (à l’image du portail anglais WhereDoesMyMoneyGo?) et pour nourrir des réflexions et projets sociétaux (lire à ce sujet Open Data : des licences libres pour concilier innovation sociale et économique). L’administration américaine a été la première à se lancer en ouvrant le portail Data.gov, suivie par d’autres pays comme l’Angleterre, l’Australie et la Nouvelle-Zélande (cf. Quel modèle pour le data.gov français ?).

Le portail des données publiques anglaises Data.gov.uk

Il est important de comprendre que ces initiatives ne sont pas tant une manœuvre politique ou un outil de surveillance qu’un levier d’innovation pour accélérer l’émergence de nouveaux modèles sociétaux ou de nouveaux projets relatifs à l’environnement, l’éducation, la santé…

Pour le moment le chantier est toujours en cours en France mais des initiatives locales permettent déjà d’accéder à des poches de données : État des lieux de l’OpenData en France.

Les données comme trésor de guerre des moteurs

Comme nous venons de le voir, les données sont donc une matière première particulièrement convoitée. À partir de ce constat, il n’est pas surprenant de voir que les grands moteurs de recherche s’intéressent de près à ces données et cherchent à les exploiter pour apporter une couche d’intelligence aux résultats de recherche. Illustration avec le tout nouveau Bing Shopping qui propose des pages de résultats structurées.

Les résultats de recherche structurés de Bing Shopping

L’idée derrière tout ça est de proposer non pas un moteur de recherche, mais un outil d’aide à la décision (cf. New version of Bing Shopping). Et pour structurer des résultats, que faut-il ? Des données ! Autant Microsoft a opté pour des partenariats, autant Google est passé à la vitesse supérieure avec notamment l’acquisition d’ITA, un fournisseur de données touristiques spécialisé sur l’aérien qui va permettre à Google de faire de l’intégration verticale sur ce créneau : With ITA purchase, Google now owns the skies.

La vente de billets d’avion en ligne est un business très juteux, il est donc normal que Google casse sa tirelire pour blinder sa position. Il y a par contre des secteurs à priori moins rémunérateurs mais pour lesquels un outil de consolidation/manipulation /visualisation des données offrirait une position dominante à son éditeur : l’immobilier, l’emploi, les loisirs (IMDB est un bon exemple de données structurées à valeur ajoutée) ou encore le sport (citons l’exemple de Footbalistic). Je vous recommande à ce sujet l’article de GigaOm qui détaille ces exemples : Who will Google buy next for structured data ?

L’idée ici est d’investir dans une base de donnée verticale et de monétiser son exploitation. Constituer une base de données de référence est un chantier titanesque, et seuls les acteurs avec les plus gros moyens peuvent y parvenir. Mais une fois le monopole établi, les possibilités sont nombreuses pour rentabiliser cet investissement. Google Maps est un autre exemple intéressant d’une gigantesque base de données (géographiques) dont nous avons maintenant beaucoup de mal à nous passer et dont le propriétaire a tout le temps pour trouver des solutions de monétisation viables.

Plus intéressant, un article de GigaOm nous révèle que ITA ne se restreint pas au secteur du tourisme aérien mais édite également une solution de manipulation de données accessible sur Needlebase.comMeet the web database company Google just bought. Cette solution ne permet pas de manipuler des données publiques mais de groupes de données dont l’utilisateur a les droits. Toujours est-il que cette solution est à la fois puissante et intuitive, tout ce dont nous avons besoin pour faire du journalisme de données.

Manipulation de données avec Needlebase

Tout récemment, Google a fait une acquisition qui va dans ce sens, en mettant la main sur Metaweb, une gigantesque base de donnée “ouverte” où sont répertoriés douze million d’entités sémantiques (visibles sur Freebase.com) : Google acquires ‘open database’ company Metaweb to enrich search results.

Cliquer ici pour voir la vidéo.

Vers des systèmes auto-alimentants

Voici donc la stratégie de Google : acheter des données avec l’idée de la monétiser une fois que le marché sera devenu dépendant de leur exploitation. Mais sommes-nous réellement dépendant des données ? Vous particulièrement, probablement pas, mais de nombreux aspects de votre quotidien reposent sur une exploitation fine de données. Nous pourrions même aller plus loin en disant que l’exploitation des bonnes données pourrait améliorer votre quotidien (cf. Nos vies gérées par les données) ou la productivité d’une entreprise.

Les objets de notre quotidien pourraient ainsi capter un grand nombre de données vous concernant et fournir ainsi des statistiques très précieuses sur votre mode de vie et la façon d’optimiser votre alimentation, vos trajets, votre budget, votre suivi médical… Imaginez alors l’intérêt d’un coach qui serait à même d’interpréter ces données et de vous offrir de précieux conseils pour améliorer votre quotidien. Ces conseils, et les données qui en sont à l’origine deviendraient rapidement une drogue pour des hommes et des femmes soucieux de leur bien-êtreThe upcoming Internet pandemic : data addiction.

Reste encore à régler le problème de la collecte : seule une minuscule minorité des habitants de cette planète serait d’accord pour s’équiper des outils de mesure de son quotidien (sommeil, alimentation, exercices physiques, trajets, dépenses…). Une minorité de geeks, sauf si un acteur industriel avec de gros moyens décide de fournir gratuitement les outils de mesure et de collecte en faisant un pari sur l’avenir (et sur la monétisation de ces données). Et cet industriel avide de données, encore une fois c’est Google avec son projet de compteur intelligent PowerMeter.

Suivi de votre consommation quotidienne avec Google PowerMeter

Et même si Google ne peut pas remplacer tous les compteurs électriques des pays occidentaux, il peut fournir la plateforme pour consolider les données et les re-publier : Google releases API for energy tool PowerMeter. La promesse de Google est simple : vous aider à mieux comprendre vos habitudes de consommation pour optimiser vos dépenses… Tout en revendant les statistiques aux industriels pour qu’ils puissent développer des appareils ménagers plus en phase avec le mode de vie de leurs clients.

Loin de moi l’idée de jouer les paranoïaques et de dénoncer ces pratiques, car si tout le monde y trouve son intérêt il n’y a pas de raison de s’en priver. Il n’empêche que si je fais la somme de tout ce que Google peut potentiellement savoir sur moi, ça commence à faire beaucoup :

  • Mes contacts avec Gmail ou Android (carnet d’adresse + historique des appels) ;
  • Mon profil (âge, parcours…) avec Google Me ;
  • Mes achats avec Checkout ;
  • Mes centres d’intérêt avec l’historique de mes recherches ;
  • Mes déplacements avec Latitude ;
  • Mes loisirs (les programmes TV que je regarde) avec Google TV ;
  • Mes lieux de vacances avec Picasa…

Et ce n’est qu’un début, car avec la sémantisation progressive du web, le moteur d’indexation pourra consolider toujours plus de données sur les internautes, mobinautes et même tvnautes. Les données seront donc la matière première à une nouvelle génération d’outils, services et prestations en rapport avec l’amélioration du quotidien de chacun. Des données qui seront l’objet d’une bataille acharnée pour en contrôler la possession, la collecte ou l’exploitation.

J’anticipe donc un web, dominé par les contenus et données, où Google jouera un rôle prépondérant. Facebook ou Twitter peuvent-ils prétendre à un rôle important dans ce tableau ? J’en doute car il faut des moyens considérables et surtout des appuis industriels et politiques, tout ce qui leur fait défaut actuellement. Longue vie au couple royal !

Billet initialement publié chez Fred Cavazza ; image Loguy /-)

Consultez nos articles sur les données et le datajournalisme, dont nos productions en la matière, et l’opendata

]]>
http://owni.fr/2010/07/21/du-contenu-roi-aux-donnees-reines/feed/ 5