OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Le livre numérique cherche ses bibliothèques http://owni.fr/2012/01/03/le-pret-numerique-cherche-sa-place-sur-letagere/ http://owni.fr/2012/01/03/le-pret-numerique-cherche-sa-place-sur-letagere/#comments Tue, 03 Jan 2012 16:47:34 +0000 Bibliobsession http://owni.fr/?p=92288

En 2012 il reste une idée reçue gênante : un livre emprunté dans une bibliothèque est soi-disant un livre qui n’est pas acheté. Que l’on ajoute numérique et l’idée reçue est toujours là, empoisonnant les relations entre éditeurs et bibliothécaires.

Dans l’article “Les bibliothèques pourront-elles être le freemium de l’édition?”, je soulignais l’importance de réinsérer les bibliothèques dans la chaîne de valeur de l’édition, de manière explicite, partant de l’idée qu’il faut nous rendre nécessaires dans un monde d’abondance des données et que les emprunteurs de livres dans les bibliothèques sont aussi acheteurs. C’est ce qu’a commencé à faire la New York Public Library avec Librarybin :

“Un bouton “acheter” a été mis en place dans l’application de prêt, pour rediriger vers le site de l’éditeur. Le programme LibraryBin par Overdrive propose aux usagers que chaque achat de fichier permette de soutenir (sous forme de don financier) les bibliothèques partenaires du programme.”

Bien sûr, cela soulève de nombreuses questions sur le rôle des bibliothèques. Parmi ces questions, celle de leur place dans l’économie de marché. Eric Hellman du blog Go to Hellman publie un retour d’expérience de la Douglas County Library sur l’ajout d’un bouton d’achat pointant vers Amazon ET un libraire local faisant de la vente en ligne de livres. Attention on parle ici de livres et non pas de livres numériques. En onze jours, plus de 700 clics ont été enregistrés, dont 389 pour Amazon et 262 pour le libraire local. En extrapolant ces chiffres au pays, plus de 6 000 livres par jour seraient achetés soit plus de 2,1 millions de livres par an ! S’il semble un peu facile d’extrapoler ainsi, ces chiffres sont confirmés par une étude menée aux États-Unis relayée par cet article de INA global :

Une étude publiée en octobre 2011 par le Library Journal met en évidence la valeur que représentent les bibliothèques pour le monde de l’édition. L’étude rassemble des données et des enquêtes collectées auprès des usagers des bibliothèques dans tout le pays. Elle affirme que les bibliothèques peuvent jouer un rôle prépondérant pour doper les ventes de livres, en adoptant une posture de partenaire – et non de menace – vis-à-vis des éditeurs.

“Nos données établissent que 50 % de l’ensemble des usagers des bibliothèques affirment acheter des livres écrits par un auteur qu’ils ont connu par le biais de la bibliothèque, déclare Rebecca Miller, rédactrice en chef du Library Journal. Voilà de quoi briser le mythe selon lequel quand une bibliothèque acquiert un livre, l’éditeur perd de potentielles ventes pour le futur ».

Bien sûr il s’agit des États-Unis, d’un contexte différent. On se demandera volontiers de ce côté-ci de l’Atlantique si c’est le rôle des bibliothèques de rendre ce lien économique explicite en ajoutant des boutons menant vers la vente de livres. Et pour cause, pour le livre imprimé, en France il existe depuis 2003 une loi encadrant le droit de prêt qui socialise le service d’emprunt des bibliothèques en compensant son impact sur le marché. J’avais noté la proximité de ce système avec les propositions de la licence globale. Pour le livre imprimé, pas besoin d’aller plus loin, me semble-t-il, dans un contexte français où bon nombre d’élus et de professionnels sont attachés (pour le meilleur comme pour le pire) à une frontière étanche entre le marchand et le non-marchand.

Soumission aux libres forces du marché

Pour le livre numérique en revanche, la situation est différente. Pourquoi ? Parce que les bibliothèques ne sont pas perçues et reconnues comme nécessaires pour accéder à des livres numériques aujourd’hui alors qu’elles représentaient avant Internet une alternative historiquement soutenue à ce titre par les pouvoirs publics pour le livre imprimé. Faute d’un soutien politique qui reconnaitrait l’intérêt général auquel peuvent répondre les bibliothèques dans l’accès au livre numérique, nous risquons d’être soumis aux libres forces du marché qui décideront de proposer une fenêtre d’accès à des contenus par les bibliothèques si les acteurs économiques y ont intérêt… ou pas.

En réalité, le marché français va certainement se dessiner par ce qui va se passer aux États-Unis dans les prochains mois (année ?). Si le prêt numérique s’impose véritablement et si les éditeurs (les big six) d’abord réticents suivent, alors on peut légitimement penser que ces offres finiront par arriver en Europe. Le succès des liseuses et notamment de celles d’Amazon plaide en ce sens et le précédent d’Apple a montré que les réticences françaises sont bien souvent des manières d’instaurer un rapport de force de nature à influencer la découpe des parts du gâteau de la distribution/diffusion numérique avec des acteurs qui disposent d’un écosystème touchant le client final. Que ferons-nous alors face à des offres très puissantes arrivant dans la poche du lecteur ?

L’exemple américain en repoussoir

Si notre objectif est de diffuser largement et massivement le livre numérique, faudra-t-il ici aussi non seulement se plier au prêt numérique (donc à des DRM chronodégradables à grande échelle) et en plus accepter qu’un tiers comme Amazon se positionne à ses conditions entre les éditeurs et les bibliothèques ? Dans l’état actuel, voici ce que des milliers de bibliothèques américaines ont accepté, et le diable est dans les détails. Récit de l’emprunt d’un livre numérique chez Amazon, c’est édifiant. Extrait traduit par Marlène:

Ma première expérience d’emprunt d’un ebook pour Kindle à la bibliothèque m’a laissé comme un mauvais goût dans la bouche. Ca ne donnait pas l’impression d’emprunter un livre à la bibliothèque. J’ai plutôt eu l’impression qu’un commercial m’avait proposé un ebook avec une “offre d’essai gratuite et sans engagement” et me harcelait pour l’acheter à la fin de la période d’essai.

Quand l’ebook est rendu, il ne s’évapore pas purement et simplement. Le titre, la couverture, etc, restent visibles sur mon Kindle, exactement comme si l’ebook était toujours disponible, sauf que derrière la couverture il n’y a rien d’autre qu’une notice qui signale que l’ebook a été rendu à la bibliothèque – et un juste bouton, qui ne nous propose pas de renouveler [le prêt]. La seule possibilité est d’acheter l’ebook chez Amazon. [...]

Autant je milite contre le contrôle des fichiers à l’unité et ces satanés DRM, provoquant ce genre de détestable expérience, autant je crois qu’un contrôle d’accès par l’abonnement avec des usages illimités dans une base globale est un modèle acceptable. Modèle que l’on pratique depuis des années dans les bibliothèques, sur lequel on peut construire, comme je l’avais esquissé dans cet article. Pour la musique, c’est d’ailleurs le modèle le plus intéressant en l’absence d’une licence légale publique. Avec le prêt numérique sauce Amazon on part de très loin : contrôle par fichier, monstrueuse notion d’exemplaire numérique, opacité de la gestion des données personnelles, dépendance…

L’appétit d’Amazon et les craintes de cannibalisation des éditeurs nous orientent pourtant vers ces solutions de “prêt numérique” qui font craindre que la conception parfaitement libérale de l’action publique s’exporte très vite des États-Unis où les bibliothécaires sont littéralement pris en étau :

L’American Library Association (ALA), association américaine représentant les bibliothèques, a condamné la décision de Penguin : selon elle, l’opposition entre les éditeurs et Amazon “rend les bibliothèques esclaves d’un conflit portant sur des modèles économiques” et ce sont les usagers des bibliothèques qui en pâtissent.

Une offre propre aux bibliothèques mais peu visible

La vraie question est : quelle marge de négociation entre des bibliothèques publiques et des géants comme Amazon ou Overdrive alors même qu’on peine en France à négocier avec des éditeurs et des fournisseurs de contenus numériques ?

Faut-il  donc plutôt promouvoir des offres propres aux bibliothèques comme c’est déjà le cas, au risque d’avoir une visibilité très faible dans un marché qui sera dominé par des écosystèmes propriétaires couplant catalogues de contenus et objets nomades ? J’insiste sur ce point. On peut légitimement penser que dans quelques années, ne pas être dans l’App Store ou dans le catalogue d’Amazon ou celui de Google sera équivalent à une disparition de la surface lisible du web pour les éditeurs comme pour les bibliothécaires et le service de prêt ou de médiation qu’ils prétendent fournir.

Quelles alternatives alors ? Vous remarquerez que j’exclus de fait les libraires qui n’ont ni la volonté ni les moyens de développer des offres adaptées aux besoins d’usages collectifs dans les bibliothèques. Des initiatives existent ça et là, en Espagne, aux Etats-Unis, au Québec en France aussi ! Peut-être même que l’évolution des liseuses vers des tablettes plus ouvertes que les écosystèmes verrouillés qu’on propose aujourd’hui”hui permettront à des offres/catalogues innovants de coexister dans des écosystèmes liés aux objets nomades, après tout Apple n’a pas censuré la présence d’un Spotify dans l’App Store… C’est une voie à ne pas négliger me semble-t-il.

Les éditeurs français endormis

Peut-être les éditeurs français vont-ils finir par se réveiller et prendre véritablement en main une diffusion numérique de leurs catalogues à des prix bas dans des conditions respectueuses des droits des lecteurs en faisant évoluer leurs modèles économiques. Ils seraient bien inspirés de positionner de telles offres à grande échelle vers le grand public via des bibliothèques dans des conditions meilleures qu’aujourd’hui (Numilog, t’es moche aujourd’hui, mais tu peux évoluer !) plutôt que de se livrer, tels la presse il n’y a pas si longtemps aux griffes de l’aval de la chaîne… Au final nous avons tous à perdre d’une domination trop forte d’Amazon, mais j’ai bien peur qu’il ne soit déjà trop tard.

Il faut bien en avoir conscience, pour le livre numérique, l’alternative est au prix d’une marginalisation forcée, dans un marché qui se concentre sans acteurs publics, dans un contexte où les bibliothèques ne sont pas forcément nécessaires.

Difficile période de transition dans laquelle une stabilité existe : celle du besoin d’une médiation active, au risque de la découpler cette médiation du document primaire. L’avenir sera-t-il au local, à la recommandation, à l’expérience communautaire en ligne et in situ ? Je le crois.


Billet initialement publié sur Bibliobsession sous le titre “Livre numérique : 2012 une année charnière ?”

Photos et illustrations via Flickr : Pedrik [ccbyncsa] ; titom.ch [ccbyncsa] ; ownipics [ccbyncsa] ; Mike Licht [ccby]

]]>
http://owni.fr/2012/01/03/le-pret-numerique-cherche-sa-place-sur-letagere/feed/ 16
Quels enjeux pour les bibliothèques et l’open data? http://owni.fr/2011/06/10/quels-enjeux-pour-les-bibliotheques-et-lopen-data/ http://owni.fr/2011/06/10/quels-enjeux-pour-les-bibliotheques-et-lopen-data/#comments Fri, 10 Jun 2011 11:04:59 +0000 Bibliobsession http://owni.fr/?p=67300

En plus des traditionnels open source et open access, les bibliothèques vont être de plus en plus confrontées à l’avenir à un troisième Open, l’Open data. Il faut bien entendu commencer par des fondamentaux. Rassurez-vous je ne vous propose pas de longs discours, mais une seule présentation, à consulter avant d’aller plus loin. Elle vient de très bons spécialistes de la question : Libertic qui animent un blog de veille de très grande qualité sur le sujet.

L’Open Data c’est quoi ?

En complément, voici la définition proposée dans cet excellent Guide pratique de l’ouverture des données publiques territoriales proposé par Amandine Brugière et Charles Népote dans le cadre de la FING et accessible ici si vous voulez y contribuer.

Comme toute organisation aujourd’hui, un acteur public utilise l’informatique pour préparer toutes ses décisions, produire tous ses services, évaluer toutes ses actions. Et l’informatique traite des données : par exemple, des fonds de cartes et des informations attachées aux cartes, des statistiques, des descriptions de services et de lieux publics, des mesures, des études et rapports, des barèmes, des textes réglementaires, des informations temps réel, et de bien d’autres choses. Ces informations sont la matière première de l’action publique. Mais elles pourraient aussi bénéficier à d’autres acteurs publics, ainsi qu’à des entreprises innovantes, des associations, des chercheurs, des citoyens. C’est l’idée qui sous-tend la directive européenne sur la “réutilisation des données publiques” (2003), transcrite en droit français en 2005 sous la forme d’une révision de la loi du 17 juillet 1978 sur l’” amélioration des relations entre l’administration et le public” : les ”données publiques”, financées par l’impôt, doivent pouvoir être réutilisées par d’autres acteurs, au service de la qualité des services sur le territoire, de la croissance économique, de la connaissance et du débat démocratique.

Vous aurez compris qu’il s’agit de favoriser l’innovation par la mise à disposition de données réutilisables, selon une définition assez maximaliste de la notion de données ouvertes. Pour qu’une donnée soit ouverte au sens du groupe de travail “Open Governement Data” en 2007, elle doit être :

  • complète
  • primaire
  • opportune
  • accessible
  • exploitable
  • non discriminatoire
  • non propriétaire
  • libre de droit

Pourquoi s’y intéresser ?

L’ouverture des données publiques n’est pas une option pour les acteurs publics : elle est rendue obligatoire par des directives européennes et une législation française qui en a fait un droit opposable. Citoyens, associations, entreprises, sont en droit d’exiger que les “données publiques” leur soient délivrées pour qu’ils en fassent leur propre usage, y compris commercial.

Mais cette ouverture constitue également une chance. En s’y engageant, les acteurs publics ont l’occasion de gagner en efficacité, en mutualisant leurs propres bases de données : combien de départements d’une même administration, combien d’administrations d’un même territoire, dupliquent-ils les mêmes bases de données, les mêmes cartes, les mêmes statistiques, évidemment pas tout à fait cohérentes entre elles ?

L’ouverture des données publiques peut également contribuer au développement économique et à l’amélioration de nombreux services aux habitants comme aux entreprises : en permettant à des acteurs de proximité de mieux répondre aux besoins particuliers de tel quartier, de telle catégorie de population, de tel bassin d’emploi, on crée de l’activité tout en améliorant la qualité de vie.

Bon mettre à disposition des fichiers, ça ne fait pas hurler les foules, il faut bien entendu rendre tout ça concret en laissant percevoir quels services à valeur ajoutée il est possible de créer à partir de données ouvertes. Dans la présentation ci-dessus, une des premières illustrations concrète de l’Open Data est un service lié aux… bibliothèques ! Il s’appelle Bookzee, c’est un service américain (New-york) de géolocalisation de livres à partir des données des bibliothèques. Voilà qui montre clairement l’intérêt d’accéder aux données d’un catalogue de bibliothèques. En réalité ce mouvement de l’open data est à connecter avec un enjeu que nous connaissons bien : l’échange de données et l’accès à des catalogues de données.

Damiano Albani, jeune informaticien indépendant et non-bibliothécaire avait il y a deux ans conçu un service à partir des données bibliographiques des bibliothèques françaises. Il s’agissait d’un script greasemonkey, qui, ajouté à Firefox permettait d’afficher en temps réel la disponibilité en bibliothèque d’un titre affiché sur Amazon ou Alapage ou d’autre libraires. Le site n’existe plus aujourd’hui. Concrètement ça donnait ça :

Que manquait-il à Damiano pour proposer un service fiable et efficace, et éventuellement créer une entreprise sur un service innovant ? Il ne lui manquait pas des données mais un accès à des données structurées. Dans cette présentation proposée lors du Bookcamp1 il avait exprimé les difficultés rencontrées. Le besoin d’il y a deux ans est toujours le même et il tient en un mot : Interopérabilité c’est-à dire selon les propres recommandations de Damiano : respect des normes ISO 2146:2009 (modèle) et ISO 8459:2009 (vocabulaire) ISO 20775:2009 (schéma XML), compatible avec SRU/SRW, norme Utilisée par WorldCat pour leur API.

Autant dire que le besoin n’est pas nouveau. Ce qui change en revanche c’est à la fois la sensibilité politique sur ces questions ainsi que les moyens techniques d’échanges de données qui s’améliorent à grande échelle.

Quelles bases sont disponibles ?

Intéressons-nous d’abord à ce qui existe. En France, très peu de collectivités ont entrepris une démarche “open data”. À Rennes (ville pionnière) où vous pouvez voir concrètement à quoi ressemble une telle démarche. Sur ce répertoire de données, on ne trouve aucune donnée concernant les bibliothèques. :-( Nuls doute que la situation est transitoire…

Le répertoire des données de la Ville de Paris propose l’intégralité des statistiques de prêt, régulièrement mise à jour. Voilà qui peut intéresser des gens souhaitant faire une étude sur les bibliothèques… Sur opendata.paris.fr on trouve la Liste des ouvrages (notice bibliographique et localisation) dans les bibliothèques parisiennes au 02/01/2009. Notons que ces données sont proposées sous la forme : Fichier au format texte délimité contenant 3 617 596 entrées. Au début, je me suis demandé ce qu’on peut faire d’un tel fichier, sachant que les données des bibliothèques sont constamment mises à jour par des achats et des retraits du catalogue, tout au plus cela peut-il servir à évaluer un fonds ? Mais pour qui ? En réalité, la démarche d’ouverture des données suppose que nous autres fonctionnaires arrêtions pour une fois de penser services, pour penser données et laisser d’autres penser aux services à partir de ces données. Voilà qui ne manque pas de me laisser perplexe. Pour autant, quand je vois les innombrables difficultés à innover pour le secteur public, je me dis que la souplesse des PME peut être une vraie solution, à certaines conditions, bien entendu. Voilà pour les deux villes qui sont les plus avancées dans ce type de démarche. Vous trouverez ici une carte collaborative vous permettant de signaler un projet de ce type le cas échéant.

Mais une question se pose : une démarche d’open data doit-elle seulement se manifester par un dépôt de fichier dans un répertoire ou plutôt porter sur l’interopérabilité des systèmes d’information des services publics ? Le cas des web services est effectivement pris en compte dans un projet de place de marché des données publiques comme Data Publica qui annonce un catalogue de web services :

Découvrez ici très prochainement une sélection de web services permettant d’accéder aux données d’éditeurs partenaires de Data Publica. Ces services, exposés avec leur API, sont “prêts à intégrer” dans vos nouveaux développements d’applications.

C’est là qu’on se prend à imaginer que le mouvement de l’Open data force que les bibliothèques à ouvrir leurs données et que puisse se construire un catalogue commun de grande qualité, un catalogue géant des bibliothèques publiques agrégeant des données enrichies de plusieurs sources accessibles sur n’importe quel plateforme, dont les données seraient largement disséminées…

Et les contreparties ?

En réalité, cela fait déjà des années que les bibliothèques, pratiquent l’ouverture des données comme M. Jourdain, en considérant par exemple les données bibliographiques et les données d’autorité de la Bnf comme un bien commun. Les conditions d’utilisation des notices de la Bnf ne sont certes pas celles d’une licence adaptée… justement parce qu’il s’agissait d’une démarche entamée avant que le champ de l’Open Data se structure autour de “bonnes pratiques”. La démarche mérite bien sûr d’être amplifiée et l’on peut rêver de voir appliquer une licence plus élaborées pour les données bibliographiques…

Cela est pourtant loin d’être suffisant en matière d’Open data pour les bibliothèques. D’abord parce qu’il faut relativiser l’importance des données bibliographiques aujourd’hui alors même que l’enjeu stratégique (et donc la valeur économique) s’est déplacé vers des données enrichies voire des données collaboratives. Pour les commentaires de lecteurs et/ou de bibliothécaires, nous avions souligné les dangers d’une appropriation par le privé de données proposées et financées par le public. Ouvrir oui, mais si on ouvre pour alimenter en données publiques des prestataires qui vont ensuite revendre des produits et services à ces mêmes acteurs publics, n’y a-t-il pas là un problème ? Voilà qui pose la question des contreparties.

Nombreux sont les archivistes qui s’interrogent sur le problème politique d’une mise à disposition sans conditions des données publiques pour construire des monopoles privés. Pour comprendre ces enjeux, je vous renvoie à cet excellent article de La Gazette des communes. Il ne faudrait pas qu’à travers la mise à disposition de données publiques se joue ce qui n’est rien de moins qu’une privatisation sur le mode de ce qui s’est passé autour des réseaux autoroutiers : au public l’investissement et au privé l’exploitation commerciale et la rentabilité sans contreparties. La question est bien sûr plus complexe sous couvert d’ouverture et de collaboratif à la mode c’est bien l’éternel question de l’équilibre entre privé et public qui se redessine. A cet égard la position de Bruno Ory-Lavollée, conseiller maître à la Cour des comptes, auteur du rapport « Partageons notre patrimoine » me semble à nuancer :

Dans l’économie publique, l’investissement est récupéré sous forme d’externalités. Pour reprendre l’exemple de la route rénovée : chaque fois qu’un automobiliste l’emprunte, il gagne en qualité de communication, en vitesse et en sécurité, le département a donc créé une valeur. Si le conseil général fait bien son travail, avant les travaux il a évalué ces gains pour voir si son investissement est socialement rentable.

Cette position est défendable, dans certain cas (concernant notamment la gratuité d’accès aux bibliothèques ou aux transports publics) mais elle cesse de l’être si les externalités deviennent l’occasion de construire des rentes privées (songez aux péages autoroutiers pour reprendre l’exemple ci-dessus). Autre exemple : les documentalistes juridiques ont bien raison de s’inquiéter quand on constate les dérives monopolistiques de la constitution de bases de données complémentaires à Légifrance (Dalloz, Jurisclasseur etc.), service public d’accès au droit financé par l’impôt. Des acteurs privés enrichissent très largement ces données publiques auxquelles ils accèdent gratuitement (ou presque) pour les revendre ensuite aux bibliothèques publiques, elles-mêmes financées par l’impôt qui sont forcées à faire des acrobaties budgétaires pour fournir des services… dans les bibliothèques, jusqu’à ce que l’état lui-même envisage à grande échelle des Licences Nationales pour rendre la situation viable !

Qu’on ne s’y trompe pas, pour une large part, le relais politique de l’Open Data est le fruit d’une coalition public/privé qui se résume à elle seule dans le slogan de l’APIE : Les richesses de l’immatériel sont les clés de la croissance future. Au final que se passe-t-il ? Les externalités positives produites par un investissement public sont re-facturées au secteur public avec un différentiel que est loin d’être aussi positif que les externalités l’étaient au départ… Le gagnant est le secteur privé sans aucune garantie d’usages collectifs qui constituent le service public d’accès à l’information. Car un phénomène de concentration bien connu pose toujours, sans régulation, de nombreux problèmes et force par exemple les bibliothèques à s’organiser en consortium…

Question de fond, question politique : au nom de la croissance, est-ce défendable de parier systématiquement sur une efficacité plus grande du secteur privé qui a pour conséquence un sous-investissement chronique dans le secteur public ? Quels impacts cette extension du domaine du privé a-t-il sur les biens communs propres à une société et sur la définition même du service public ?

Attention, il ne s’agit pas d’être pour ou contre et je suis le premier à penser que l’ouverture est utile dans certaines conditions. Je dis simplement qu’il faut être prudent et que l’ouverture des données peut-être une occasion de poser le problème de la régulation. L’IABD a toujours traité ces questions dans un esprit d’équilibre et de contreparties. D’où l’importance cruciale des licences accompagnant ces données, avec des dérives qui ne viennent pas toujours du privé, mais également du secteur public. Nous avions été les premiers avec Lionel Maurel à pointer les dérives des organismes publics ajoutant des droits d’auteurs à des ouvrages numérisés pourtant tombés dans le domaine public… Lionel Maurel explique bien mieux que je peux le faire le droit de la réutilisation des données publiques.

Pour résumer, on pourrait dire que deux philosophies s’opposent en matière de licences de mise à disposition : d’un côté la licence IP qui permet toute réutilisation à des fins commerciales par défaut et sans contrepartie, et de l’autre la licence ODbL (Open Database Licence) proposée par la Ville de Paris qui me semble une solution bien plus prudente et adaptée parce qu’elle impose ce qui est au coeur de la démarche qui a fait le succès des logiciels libres : le partage à l’identique, c’est-à-dire le fait d’ouvrir à nouveau ce qui a été produit avec une la valeur ajoutée. Sans être une solution idéale (encore faut-il qu’un marché soit concurrentiel et régulé même à partir de données ouvertes) il me semble, du point de vue du secteur public, plus efficace de jouer sur des contreparties consubstantielles à une licence que de vouloir contrôler en amont la réutilisation des données en imposant des barrières financières d’accès aux données. De ce point de vue, je partage l’approche de B. Orry Lavollée lorsqu’il plaide pour une mise à disposition quasi gratuite. A cela s’ajoutent les enjeux propres à l’exception “données culturelles” pour lesquelles la loi de 1978 ménage une exception qui est complètement obsolète aujourd’hui comme le démontre brillamment Lionel Maurel.

Des services publics facilitateurs d’innovation

Dans cette démarche, je trouve très intéressant de considérer que des données ouvertes sont également un premier pas vers une médiation des contenus sur un mode collaboratif. J’aime bien la métaphore proposée dans ce billet :

Si vous achetez de beaux divans et fauteuils neufs et changez la décoration de votre salon, cela ne signifie pas nécessairement que les gens afflueront chez vous. Vous devrez les convier dans votre nouvel espace. Et une fois assis sur votre mobilier, vous devrez leur parler: vous les engagerez dans une conversation. Si vous ne parlez que de vous, et ne vous intéressez pas à vos interlocuteurs, les gens se fatigueront. Si vous souhaitez en plus que vos invités repeignent les murs de votre salle à manger ― si vous souhaitez qu’ils collaborent à vos projets ― vous devrez faire preuve de reconnaissance et les traiter avec respect. Peut-être même que vous songerez à leur payer une pizza ou à leur offrir des petits fours en gratitude.

Un des intérêts pour les acteurs publics est ainsi de se positionner comme des facilitateurs d’innovation. Il est en effet nécessaire et même indispensable d’accompagner l’ouverture des données, c’est par exemple ce que fait Rennes en organisant un concours doté de prix. Il s’agit là me semble-t-il d’un élément assez nouveau qui peut permettre au secteur public de renouer avec des dynamiques d’innovation et développement économique pour un tissu de PME au delà d’une stricte logique de subventionnement.

Étendre ces principes aux opérateur privés !

Cet article récemment publié sur Owni.fr et d’abord sur Framablog m’a brusquement fait comprendre le déséquilibre fondamental qu’il y a dans cette histoire. Quand on parle d’Open data, on focalise toujours sur les données publiques et les contreparties de leurs usages, avec bien souvent une position de surplomb des opérateurs privés, voire des associations citoyennes critiquant la lenteur et de la frilosité des administrations (ah ces fonctionnaires!). Comment, vous traînez à fournir des données payées par l’impôt alors même qu’il s’agit d’un sacro-saint “levier de croissance” et d’un “enjeux citoyen” ! Oui, bien sûr, il faut encourager ces démarches ! Met-on autant d’énergie à imposer aux opérateur privés qui collectent infiniment plus de données personnelles un principe simple qui pourrait-être :

Si une entreprise commerciale collecte électroniquement les données des utilisateurs, elle devrait leur fournir une version de ces informations facile à télécharger et à exporter vers un autre site Web. On peut résumer cette démarche ainsi : vous prêtez vos données à une entreprise, et vous en voudriez une copie pour votre usage personnel.

Bien sûr la loi française garantie déjà une forme de protection via la CNIL, mais elle porte sur le traitement des données et non pas sur la propriété et la mise à disposition des données pour l’utilisateur…

Au -delà de la stricte question de l’open data, la régulation mondiale du web dans les nuages est un enjeu essentiel, bien mal engagé quand on constate la présence exclusive des multinationales à l’Eg8 ! Bertrand de La Chapelle, diplomate, directeur des programmes de l’Académie diplomatique internationale, membre du board des directeurs de l’ICANN explique dans le dernier Place de la toile consacré à la diplomatie de l’Internet que le véritable enjeu de cette réunion a été une gouvernance de l’Internet pensée comme une lutte industrielle entre l’Europe et les USA. Il s’agit de rééquilibrer la situation causée par l’absence de champions européens face à des Facebook et des Google… J’aurai souhaité avec d’autres qu’une telle réunion de chefs d’états s’inscrive dans une démarche de régulation mondiale d’Internet pensée comme un bien commun et régulé à parité avec les acteurs de la société civile. Là encore l’enjeu est de taille : trouver des modes de gouvernance qui ne soient ni des traités, ni des lois nationales par nature inadaptés à un univers déterritorialisé aux évolutions très rapides…

En somme, si la loi impose de libérer des données publiques, pourquoi n’impose-t-elle pas aussi aux entreprises de libérer les données privées alors même que l’informatique dans les nuages est sur le point de prendre une ampleur jamais vue ? Signe des temps, cette redéfinition des rapports publics-privés en matière de données ne s’accompagne pas suffisamment d’une politique de régulation et de gouvernance partagée, enjeu majeur du siècle qui s’ouvre.

Article publié initialement sur Bibliosession sous le titre Bibliothèques publiques et Open Data : quels enjeux ?

Illustrations Flick PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales C.O.D. Library et PaternitéPartage selon les Conditions Initiales jwyg

]]>
http://owni.fr/2011/06/10/quels-enjeux-pour-les-bibliotheques-et-lopen-data/feed/ 4
Ressources numériques : des trésors derrière des forteresses http://owni.fr/2011/04/20/ressources-numeriques-des-tresors-derriere-des-forteresses/ http://owni.fr/2011/04/20/ressources-numeriques-des-tresors-derriere-des-forteresses/#comments Wed, 20 Apr 2011 10:26:43 +0000 Bibliobsession http://owni.fr/?p=58020
Je suis frappé par l’énergie considérable requise pour la gestion des “ressources numériques” dans les bibliothèques publiques. Attention je ne parle pas ici des bibliothèques universitaires où la problématique est différente.

À l’attention des non-bibliothécaires qui lisent ce blog, il s’agit de contenus payants, payés par les bibliothécaires pour leurs usagers qui sont a minima identifiés comme adhérents de la bibliothèque.

Nous pensons avec des mots : là où les bibliothécaires ont des “ressources numériques” le reste du monde a le web et des contenus…

C’est bien pour ça, soit dit en passant, qu’il ne s’agit pas de “valoriser des ressources numériques” (via des brochures imprimées “attractives”) mais plutôt de répondre à tel ou tel besoin documentaire (par ex. que recommandez vous pour apprendre l’anglais ?)

Un vrai far-west fatigant et des résultats décevants

De fait, ces “ressources numériques” sont un vrai far-west qui oblige les bibliothèques à d’incroyables acrobaties de gestion pour des résultats très décevants. Le bibliothécaire est censé tous les jours rendre séduisants des trésors derrière les murs de forteresses…

Pourquoi est-ce un domaine aussi complexe à gérer pour nous ? Parce que ces offres (chères) de contenus ne sont absolument pas pensées pour les destinataires finaux et oublient quasi systématiquement les droits fondamentaux des usagers en faisant une croix sur l’ADN du web : l’accès libre, le streaming et l’interopérabilité.

Vous en doutez ? Vous vous dites que j’exagère ? Voici un point proposé par Annie Brigant, de la direction des Bibliothèques de la Ville de Grenoble (merci à elle). Ces informations ont été proposées dans le cadre d’une réunion sur le sujet des “ressources numériques”. Extraits :

La bibliothèque municipale de Grenoble propose une offre :

  • sur place : Pressens, le Kompass, Vodeclic, la Cité de la Musique (désormais disponible au conservatoire) les films documentaires de la BPI,
  • à distance : Numilog, ArteVod, Cairn sur le portail Lectura et le patrimoine numérisé.

Sur le plan des usages, on observe :

  • la faiblesse chronique, la stagnation voire la baisse des usages. Pour plusieurs ressources, les usages sur place sont difficiles à mesurer en raison de l’insuffisance du modèle statistique d’Ermès.
  • En 2010, 8500 articles ont été consultés sur Pressens, il y a eu 200 téléchargements sur Numilog. Les livres audio de Numilog se sont révélés décevants en raison d’un problème de format (pas de mp3).
  • ArteVod pose le problème du paiement à l’acte : pour garder la maîtrise de leur budget, les bibliothèques doivent mettre en place des quotas qui détournent les usagers de la ressource et provoquent une baisse des usages.

Pour expliquer cette faiblesse des usages, on pointe souvent une insuffisance de communication, de formation des équipes, et surtout de médiation vis-à-vis des usagers. Il n’en demeure pas moins que des difficultés réelles viennent compliquer le travail de valorisation des équipes, qui se heurtent à la complexité du sujet. Ces difficultés sont liées :

  • aux modalités d’usage : ressource disponible sur place / à distance, en streaming / en téléchargement (les deux possibilités étant parfois offertes) ;
  • aux modalités d’identification : accès anonyme pour la consultation sur place, inscription préalable au service ou non pour les ressources à distance (ArteVOD et Numilog, mais pas CAIRN) ;
  • aux modalités d’accès : l’accès peut être illimité (éventuellement dans la limite d’un nombre d’accès simultanés) ou restreint, mais avec divers types de restrictions : limitation du nombre de consultations à un instant T (Numilog), du nombre de consultations sur une période (ArteVOD), durée de consultation limitée (Numilog sur place) ;
  • aux supports de consultation : ex. les livres numériques sont lisibles sur un micro-ordinateur mais aussi sur un type de tablette de lecture (Sony Reader), l’iPad et l’iPhone à condition de récupérer l’application sur l’Applestore ; les livres audio sont accessibles en WMA sur les baladeurs compatibles avec ce format, etc. ;
  • aux DRM : limitation du nombre d’accès sur X supports de consultation (Numilog), limitation du nombre de pages imprimables (variable selon le document sur Numilog) ;
  • aux contraintes techniques : la possibilité d’accéder au service varie selon l’ordinateur (PC/Mac), le système d’exploitation (Windows/Linux), le player (Adobe Digital Editions et non Adobe Reader pour Numilog, Windows media Player 11 pour ArteVOD), la version du navigateur, etc.
  • aux contenus eux-mêmes : ex. la durée d’archivage varie selon les titres de presse sur Pressens.

Que doivent en outre savoir les équipes pour pouvoir renseigner les usagers ? Il leur faut connaître :

  • les ressources acquises en bouquets et celles pour lesquelles la bibliothèque a opéré une sélection dans un choix de titres,
  • les modalités d’acquisition : abonnement (Kompass), acquisition (Numilog), acquisition pour une durée limitée (CineVOD),
  • le type de limitation d’accès : nombre d’accès simultanés (Vodeclic), nombre d’usagers (CinéVOD), nombre de documents (Pressens : restriction de 10.000 articles sur un an, avec limitation du nombre d’articles consultables par session), forfait annuel de téléchargement (ArteVOD),
  • les modalités d’identification : pour les ressources sur place, il y a un délai de 24 heures après inscription, d’où l’utilisation de cartes collectives en attendant.

Toutes ces contraintes font de l’utilisation des ressources numériques – notamment à distance – un véritable parcours du combattant pour les usagers dont seuls les plus motivés vont au bout de la démarche.

Avec un peu de recul, la situation actuelle revient à acheter pour d’autres des accès rares pour des contenus “naturellement” cachés derrière des murs payants, qu’on s’épuise ensuite à valoriser. “Le web” a compris depuis bien longtemps que le meilleur moyen de “valoriser” (faire connaître) des contenus est de laisser l’accès libre quitte à vendre des services ensuite (= freemium). Faire le contraire a des conséquences lourdes : difficulté d’accès à un monde clos, hétérogène, exclusif à certains moyens techniques et sélectionnés par un bibliothécaire inconnu (là où sur le web la confiance se construit, bien au-delà du statut de bibliothécaire)…

Entrer dans des flux, hétérogènes et instables, mais riches et ouverts

Pourquoi cette situation s’est-elle développée ? Je pense que nous sommes victimes du tropisme propre à la profession : la constitution de collections dans l’univers numérique. Aujourd’hui, le bibliothécaire est celui qui “donne accès” à des bases comme on achète un livre. Il fournit un accès légitimé par ses soins au risque de confondre la valeur marchande de l’achat au nom de la collectivité avec la vraie valeur d’usage : celle du libre accès, de la circulation et de l’appropriation des contenus par le plus grand nombre. Il me semble que, trop souvent, au nom de l’idée séduisante et rassurante d’une collection, pour “donner accès à”, nous acceptons des restrictions d’usages insupportables pour bon nombre d’internautes ! Le résultat est éclatant : partout on constate que ces offres ne “marchent pas” et coûtent très cher.

Dans les flux, j’ai de plus en plus de mal à croire à cette notion de collection et de plus en plus tendance à croire que la recommandation fine et la propulsion valent sélection, font collection. C’est bien là le changement de paradigme le plus profond pour des bibliothécaires qui doivent, pour le numérique, abandonner l’idée de mondes clos, de collections cohérentes, de communautés stables et territoriales pour entrer dans des flux nécessairement hétérogènes et instables, mais riches et ouverts.

Alors que faire ? Qu’on ne m’oppose pas svp l’instabilité des modèles économiques des fournisseurs de ces contenus. Rien n’oblige les acheteurs publics que nous sommes à accepter les conditions de prestataires qui cherchent à séduire leur clientèle à eux : les bibliothécaires. L’enjeu est bien d’élaborer avec eux des offres dans lesquelles l’usager final est respecté, dans lesquelles les bibliothécaires trouvent leur place le tout avec un modèle d’affaires viable. C’est possible si on s’en donne la peine. Nous avons quelques outils de mutualisation pour ça qui restent j’en conviens largement à améliorer. Nous avons très clairement besoin de les renforcer, nous y travaillons activement.

Dire non aux offres qui ne respectent pas à minima les droits des usagers ?

Toute la gestion des “ressources numériques” absorbe un temps de travail, des compétences, des énergies précieuses qui de fait, ne sont pas consacrées à la médiation de contenus en accès libre très souvent reléguée dans des sélections de sites hors des flux de passage…

Ne rêvons pas, la situation restera hétérogène, je n’ai bien sûr pas de solution ultime à vous proposer. Mais trouvons des réponses en posant des questions fondamentales : faut-il, pour les “ressources numériques”, continuer à construire des mondes clos au risque d’oublier la médiation de l’océan infini des pépites de contenus en accès libres sur le web ? Les contenus payants et payés pour d’autres, si intéressants nous semblent-ils, pour lesquels nous dépensons autant d’énergie, valent-ils vraiment la peine d’être proposés derrière des forteresses ? Ne faut-il pas tout simplement arrêter de proposer des offres qui n’ont pas des caractéristiques minimales respectueuses des droits des usagers ? A-t-on forcément besoin de “donner accès à” pour recommander, pour propulser ? Comment repenser ces équilibres ?

Au moment où l’on déclare les droits des lecteurs de livres numériques, où les amateurs de films s’engagent à ne plus pirater en échange d’offres acceptables, n’est-il pas temps de se regrouper et de proposer une charte de l’usager des ressources numérique en bibliothèque ?

Billet initialement publié sur Bibliobsession

Images PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales Fr Antunes et PaternitéPas d'utilisation commerciale Shakespearesmonkey

]]>
http://owni.fr/2011/04/20/ressources-numeriques-des-tresors-derriere-des-forteresses/feed/ 0
Bibliothèques: streaming et services en ligne pour se renouveler http://owni.fr/2011/03/13/bibliotheques-streaming-et-services-en-ligne-pour-se-renouveler/ http://owni.fr/2011/03/13/bibliotheques-streaming-et-services-en-ligne-pour-se-renouveler/#comments Sun, 13 Mar 2011 11:30:17 +0000 Bibliobsession http://owni.fr/?p=51068 [Ce billet fait partie d'une série sur le livre numérique et les bibliothèques, retrouvez les épisodes précédents dans l'ordre sur le blog Bibliobsession sous le tag : Livre numérique et bibliothèques]

J’avais émis il y a quelques jours le constat suivant : Les bibliothèques ne seront perçues comme des intermédiaires utiles que si elles combinent une valeur ajoutée en terme de médiation, de services, voire de contenus exclusifs par rapport à une offre commerciale grand public. Comment cela peut-il se traduire dans un modèle d’affaire ?

C’est le pari tenté par les médiathèques Alsaciennes. Voici la présentation du projet qui a bénéficié du soutien du Ministère de la Culture dans le cadre de son appel à projet culturel numérique innovant.

La dématérialisation progressive de la musique amène les bibliothèques de lecture publique à revoir leur manière d’assurer leur rôle de diffusion et de pédagogie autour de la musique. Plutôt que le téléchargement qui impose de nombreuses contraintes à l’usager, les bibliothèques alsaciennes souhaitent mettre en œuvre une offre légale d’écoute en ligne (streaming) afin d’offrir un accès facile et rapide à une offre musicale dématérialisée via un simple navigateur. Ainsi les adhérents des bibliothèques alsaciennes participant à UMMA bénéficient d’un accès privilégié à une version dédiée de musicMe dont les pages et les services sont entièrement réservés à UMMA.

Cette version spécifique de musicMe donne accès à l’écoute en streaming d’un catalogue de 6 millions de titres (4 majors et 780 labels), des discographies complètes, des photos et vidéos d’artistes ainsi que des radios thématiques et des radios intelligentes (musicMix).

Une plateforme de découverte musicale entièrement gérée par les bibliothécaires musicaux. Par ailleurs, les fonctionnalités de radios permettent aux bibliothèques de construire des parcours de découvertes musicales en lien avec leurs missions pédagogiques. Courant juin 2010, les bibliothécaires musicaux pourront en outre modifier toute la partie éditoriale du site : gestion des albums en page d’accueil, gestion des rubriques « nouveaux talents » et « albums à découvrir », programmation de vos canaux radios, intervention dans les rubriques de recommandations d’artistes similaires, dans la gestion des genres musicaux et modification dans les biographies d’artistes. Une API permet aussi de proposer, quand c’est possible, l’écoute d’un extrait lors de la visualisation d”une notice sur le catalogue en ligne de la bibliothèque.

Quels résultats pour cette expérimentation ? Selon Xavier Galaup, son initiateur :

“Avec presque 300 inscrits sur les deux sites, 36 radios créées et 1500 Euros de coût lié à la consommation, je peux déjà dire que l’expérience est réussie au-delà des objectifs fixés au départ à savoir réussir à attirer un public significatif, maîtriser les budgets et s’approprier la plate-forme pour la médiation numérique. La collaboration avec musicMe est très bonne même si en utilisateur exigeant nous aurions aimés quelques évolutions plus rapidement. D’un autre coté, musicMe a développé la possibilité de personnaliser les albums à la Une et dans tous les genres musicaux ainsi que de modifier le contenu de certaines parties du site. Ce qui n’était pas prévu dans le cahier des charges initial… Rappelons que nous avons à faire à une petite entreprise d’une douzaine de personnes gérant plusieurs marchés en même temps…

J’attends maintenant avec impatience l’ouverture des deux autres sites pour voir l’écho auprès du public et les réflexions apportées par d’autres expérimentateurs. Fort de ces premiers mois, musicMe prépare et ajuste pour 2011 son offre aux bibliothèques. Nous vous tiendrons au courant.”

L’exemple illustre que la médiation numérique peut en soi-même constituer une valeur ajoutée monétisable auprès d’un fournisseur de contenus. Plutôt que de vendre des contenus à l’acte, on propose aux usagers un accès illimité et on vend aux bibliothèques des services leur permettant de mettre en œuvre une médiation numérique efficace.

Même si ici le modèle est hybride puisque le fournisseur tarifie l’accès aux contenus et la consommation à l’acte en amont de l’écoute par l’utilisateur, on peut tout à fait imaginer creuser ce modèle vers la fourniture de services permettant une médiation efficace, de nature à conserver l’attractivité du modèle et la soutenabilité de l’offre pour les budgets des bibliothèques. Le modèle montre en outre qu’il est tout à fait possible de quantifier et de tarifer chaque écoute ou chaque accès en streaming depuis une plateforme en maintenant une illusion d’illimité pour l’usager sur le modèle du “buffet à volonté” où les usagers s’auto-régulent.

Ajouter du service autour de contenus libres

Autre exemple, celui de Revues.org très bien expliqué par Pierre Mounier :

nous avons élaboré un modèle économique et une proposition commerciale permettant de soutenir la diffusion en libre accès sur le web des résultats de la recherche en sciences humaines et sociales. Ce modèle, baptisée OpenEdition Freemium, déconnecte l’accès à l’information, qui reste libre, de la fourniture, payante cette fois,  de services supplémentaires. Conséquence  : les contenus (livres, revues, carnets, programmes scientifiques) restent diffusés en libre accès pour tous dans le format le plus universel et le plus accessible : celui du web. Mais nous vendons des services supplémentaires qui permettent par exemple de télécharger des fichiers pdf ou epub à partir de ces contenus (pour les lire plus confortablement ou les enregistrer plus facilement), d’accéder à des statistiques de consultation, de bénéficier d’alertes personnalisées sur ces contenus, ou encore d’ajouter facilement les titres au catalogue.

Qui sont les destinataires de ces services payants ? Les bibliothèques bien sûr, en priorité, qui retrouvent par ce moyen la possibilité d’acquérir (des services) pour des contenus en libre accès et peuvent donc réintégrer le circuit documentaire. Qui sont les bénéficiaires des revenus ainsi obtenus ? Les producteurs de contenus en libre accès, les revues et leur éditeur particulièrement, qui trouvent ainsi un soutien dont ils ont très souvent besoin pour pérenniser et développer leur activité.
Qu’essayons-nous de faire ? Nous tentons de reconstruire une alliance stratégique entre éditeurs et bibliothèques pour soutenir la publication en libre accès au coeur même du Web. Nous ne pensons pas du tout que ces acteurs historiques de la communication scientifique et de la diffusion des savoirs doivent être balayés par Google ou bien restés cantonnés derrière les murailles stérilisantes des plateformes à accès restreint. Nous voulons leur permettre au contraire d’être bien présents et d’apporter toute leur compétence accumulée au coeur du nouvel environnement qui se développe à grande vitesse.

On le voit le modèle mise sur l’idée que notre valeur ajoutée soit la diffusion et pas l’exclusivité des contenus, mais celle des services. Voilà une piste intéressante non ?

>> Article publié initialement sur Bibliobsession

>> Photo FlickR CC by-nd Telmo32

]]>
http://owni.fr/2011/03/13/bibliotheques-streaming-et-services-en-ligne-pour-se-renouveler/feed/ 0
Le numérique bouleverse l’acquisition des livres au sein des bibliothèques http://owni.fr/2011/03/11/le-numerique-bouleverse-laquisition-des-livres-au-sein-des-bibliotheques/ http://owni.fr/2011/03/11/le-numerique-bouleverse-laquisition-des-livres-au-sein-des-bibliotheques/#comments Fri, 11 Mar 2011 14:58:22 +0000 Bibliobsession http://owni.fr/?p=50885 [Ce billet fait partie d'une série sur le livre numérique et les bibliothèques, retrouvez les épisodes précédents dans l'ordre sur le blog Bibliobsession sous le tag : Livre numérique et bibliothèques]

Le flux, l’abondance, l’accès libre financé en amont. Ebrary (l’un des principaux fournisseurs de contenu numérique récemment racheté par Proquest), tente de concilier ces modalités. J’en avais parlé dans ce billet en présentant le modèle : les usagers peuvent rechercher et consulter l’un des ebooks au sein d’une offre de dizaine de milliers de titres pendant cinq minutes sans faire encourir de frais à la bibliothèque. Après cinq minutes, une fenêtre apparaît, demandant à l’usager s’il souhaite continuer à accéder au livre numérique. Si l’usager le souhaite, la bibliothèque est créditée d’une utilisation de livre numérique, mais c’est transparent pour l’usager. Il peut continuer à utiliser le livre pendant 10 jours sans frais supplémentaire pour la bibliothèque. A la quatrième utilisation d’un titre, un “achat” automatique est fait, et livre numérique est ajouté à la collection permanente de la bibliothèque, il devient alors accessible à tous les usagers. Ce modèle se nomme Patron-Driven Acquisition que l’on pourrait traduire par “acquisition conduite par les usagers”.

Les résultats sont spectaculaires. Selon cette étude (pdf) menée sur 11 bibliothèques utilisant ce service entre 2006 et 2009 sur une offre d’environ 30 000 livres numériques et plus de 200 000 accès il est démontré que l’offre constituée par les usagers

  • est 2 à 5 fois plus utilisée que l’offre pré-sélectionnée par les bibliothécaires
  • génère une audience 2 à 3 fois plus large que celle constituée par les bibliothécaires (en visiteur unique par titre)
  • propose une répartition des sujets similaire à celle constituée par les bibliothécaires

Impressionnant non ? Il faudrait nuancer le dernier point en précisant qu’il s’agit d’un contexte universitaire où les enseignants sont fortement prescripteurs et dans ce cas sûrement acheteurs également, ce qui peut expliquer la proximité de la répartition des sujets avec une offre présélectionnée.

Une complémentarité entre l’usager et le bibliothécaire

Avantage : les coûts d’acquisition sont bien moindres pour les bibliothèques et le modèle est de nature à rendre lisible l’usage collectif en utilisant les usagers comme co-créateurs d’une sélection au sein d’une abondance présentée comme illimitée. Cette “illusion d’illimité” est fondamentale puisqu’elle permet de reconnecter une offre légale à des pratiques d’accès ancrées dans l’univers numérique. L’avantage principal en terme budgétaire peut néanmoins nous poser un sérieux problème : dans ce modèle tous les contenus de la collection ont été demandé et donc on donne la priorité absolue à ce qui est utilisé par les usagers, exit tout le reste. Voilà qui heurte le modèle républicain de la bibliothèque comme outil d’émancipation proposant des contenus dont le besoin est reconnu d’utilité publique qu’ils soient utilisés, ou pas (je force le trait).

Ce modèle fera bondir certains bibliothécaires de leur chaise parce qu’il auront l’impression d’être dépossédés de leur traditionnelle prérogative : la sélection dans l’abondance pour constituer une offre. En rendant transparent et immédiat l’acte d’acquisition, son sens est en effet profondément questionné. Pour les objets tangibles il symbolisait l’entrée progressive dans l’espace commun socialisé de la bibliothèque par le truchement d’un professionnel apte à “valider” la légitimité de tel ou tel contenu pour l’intérêt général… On mesure le bouleversement avec le fait que dans un tel système, une acquisition c’est “juste” le changement automatique de droits d’accès autour d’un fichier ou d’un ensemble de flux que n’importe quel usager peut effectuer en échange de son attention. Qui ne voit que cet aspect ne peut qu’être effaré du mécanisme, de sa froideur versus l’humanité du bibliothécaire dont la qualité de l’attention est pourtant validée par des compétences, oui monsieur ! En réalité, les usagers sont tout aussi humains, la sagesse de la foule leur confère une variété et une diversité de compétences que n’auront jamais les bibliothécaires…

Quelle est alors la légitimité de l’institution à donner accès à tel ou tel contenu ? Que devient la sacro-sainte “politique d’acquisition” si les usagers deviennent acquéreurs et peuvent prendre le contrôle de la collection ? Qu’est-ce qu’une collection dans ces conditions ? (Grandes et belles questions !)

Au fond, les deux étapes de la politique documentaire traditionnelle : construction d’une offre par anticipation de besoin collectifs puis ajustement de cette offre à des demandes grâce aux statistiques de prêt ou à des demandes ponctuelles d’usagers sont ici fusionnées. Ici l’ajustement se fait en temps réel entre une offre et une demande de contenu, la bibliothèque n’est plus un espace d’accès à des contenus exclusifs mais joue le rôle d’un “tiers de confiance” à distance dont le rôle est a minima de rendre pérenne en sortant du flux un certains nombre de contenus jugés importants parce qu’un nombre d’usager fixé à l’avance y aura consacré suffisamment de temps d’attention… La collection ici devient une enveloppe virtuelle extraite du flux.

On le voit, les frontières se brouillent entre l’offre publique et l’offre privée. Si le rôle de la bibliothèque se borne à la pérennité des contenus qu’elle propose, alors elle ne tardera pas à être un intermédiaire inutile dans un monde ou la mémoire publique sera (en dehors du dépôt légal et des Centres d’acquisition et de diffusion de l’information scientifique et technique CADIST) de plus en plus dure à justifier et dans lequel le critère de valeur c’est l’attention.

Si l’on imagine la combinaison des deux systèmes : associer une pré-sélection de contenus exclusifs choisis par des bibliothécaires avec une partie de l’offre constituée par les usagers, on voit que ce qui reste important n’est plus tant de répondre à une demande puisque celle-ci s’exprime et trouve naturellement satisfaction, mais de propulser telle offre, telle pépite auprès de tel type d’usager pour permettre une rencontre. Demeure ainsi le besoin de sélection dans une offre par le bibliothécaire mais pas dans la même perspective… Je m’explique : en se déchargeant de la velléité de pleinement satisfaire une demande mainstream le bibliothécaire peut libérer son énergie à sélectionner et à propulser tel ou tel contenu de niche associé à telle demande exprimée tout en continuant à anticiper des besoins collectifs. Un tel bouleversement amène à modifier notre pratique des politiques documentaires.

En somme il s’agit d’inverser la perspective des deux plans : construire une offre autour d’une demande exprimée en la tirant vers des besoins collectifs au lieu d’anticiper des besoins collectifs puis de les ajuster à une demande exprimée.

Pour rendre “acceptable” un tel modèle sans heurter un “fondamental du métier” un fournisseur habile devrait donc le présenter non pas comme la bibliothèque crée par les usagers, mais comme un équilibre à trouver entre une pré-sélection par des bibliothécaires enrichie par une post-sélection par des usagers… Voilà un modèle qui me semble tout à fait prometteur : co-acquisition avec les usagers et illusion d’abondance sur fond de promesse de maîtrise des coûts… Intéressant non ? A bon entendeur !

>> Article initialement publié sur Bibliobsession

>> Photos FlickR CC by-nc-nd : Aalain (1) et (2)

]]>
http://owni.fr/2011/03/11/le-numerique-bouleverse-laquisition-des-livres-au-sein-des-bibliotheques/feed/ 3
Presse en ligne : faire payer le contribuable… et les bibliothèques http://owni.fr/2010/09/22/presse-en-ligne-faire-payer-le-contribuable-et-les-bibliotheques/ http://owni.fr/2010/09/22/presse-en-ligne-faire-payer-le-contribuable-et-les-bibliotheques/#comments Wed, 22 Sep 2010 14:40:12 +0000 Bibliobsession http://owni.fr/?p=28869 C’est un truisme de dire que la presse va mal. Matthieu de Vivie (cité par Narvic) a écrit une thèse sur la question du financement de la presse. Il en arrive à la conclusion suivante :

“il ne semble pas aujourd’hui envisageable qu’une diffusion sur internet, à elle seule, soit en mesure de financer la production d’information de grandes rédactions de plusieurs centaines de journalistes, telles que celles du Monde ou du Figaro. Si la version papier de ces médias fait défaut, leur survie apparait bien menacée.”

Et d’évoquer deux pistes, pas très efficaces, pour le secteur :

  • La diversification à partir de gros sites (rachat de petits sites par des plus gros comme le figaro.fr)
  • Des sites “de niche” à l’audience plus restreinte et aux sources de revenus diversifiées (vente de services, abonnement, publicité, etc.)

Pourtant, il y a une source de financement qui n’est jamais évoquée : cette source, c’est vous et moi c’est le contribuable !

D’abord ce n’est pas nouveau mais ça mérite d’être souligné : tout simplement au moyen des subventions. Vous trouverez sur le site du Ministère de la Culture une synthèse de toutes les aides à la Presse. Je ne développe pas ici, à ce sujet je vous renvoie à l’enquête édifiante menée par Owni.fr :

Durant les huit premières années de son existence, le fonds d’aide à la modernisation de la presse quotidienne et assimilée d’information politique et générale (FDM) a distribué ses substantielles subventions sans qu’une évaluation précise n’ait été mise en place pour contrôler la pertinence et l’efficacité de ces investissements. C’est en substance ce que conclut le Rapport de la commission de contrôle du fonds d’aide à la modernisation de la presse quotidienne. Ce rapport, évaluant 65 des 260 projets financés entre 2004 et 2007, pose en effet de nombreuses questions sur ces subventions, dont nous avons publié le détail le 9 août dernier.

Subventions pas très efficaces quand on voit la santé économique du secteur… Mais la Presse peut aussi compter sur les contribuables via les bibliothèques, qui sont des services publics comme chacun sait. De puissants agrégateurs comme Europresse proposent la presse et ses archives en intégralité, sous forme de base de données accessible aux gens qui s’y déplacent (en général) j’y reviendrai.

Bibliothécaires, vous allez me dire que ça fait longtemps que ça existe ce genre d’offre pour les bibliothèques. Oui, mais le contexte vient de changer radicalement et vous allez voir que l’ensemble n’augure rien de bon pour l’information sur le web…

Tout est parti de l’annonce de Murdoch :

« Qu’il soit possible de faire payer pour des contenus sur Internet est une évidence, vu l’expérience du Wall Street Journal » a indiqué Rupert Murdoch lors de la dernière présentation des résultats trimestriels de son groupe News Corp”

De fait, ce point de vue est désormais une stratégie progressivement appliquée par les quotidiens français. N’avez-vous pas remarqué qu’il est de plus en plus rare de trouver un article gratuit en intégralité sur le site de Libération ?

Lemonde.fr en accès libre c’est fini, comme l’explique cet article de Rue89 daté de mars 2010 :

Le Monde fait un des plus grands paris de son histoire. Le quotidien du soir a annoncé la fin de l’accès gratuit aux articles du journal papier, et une offre payante complexe pour ceux qui voudraient continuer à les lire sur le site du journal et sur iPhone (et demain sur iPad). Un modèle de plus dans l’éventail des offres payantes dans la presse, et aucune certitude sur l’appétit des internautes pour payer… A partir de lundi, et de manière progressive, les articles publiés dans Le Monde ne seront plus disponibles pour les lecteurs gratuits du site LeMonde.fr. A la place, ils auront le flux classique de dépêches, la production de l’équipe du site, mais aussi vingt contenus originaux produits par la rédaction du quotidien pour le Web. La nuance est de taille et sera examinée à la loupe, les articles du quotidien étant malgré tout le principal produit d’appel de la marque Le Monde.

Nous sommes entrés dans une ère où l’accès libre à l’information de la presse d’actualité sera de plus en plus rare. Concrètement ? J’ai longuement évoqué l’Ipad dans mon récent billet. C’est assurément un moyen d’habituer les gens à accéder de manière payante à l’information. Apple a réussit à vendre l’idée aux patrons de presse (ou l’inverse mais bon qui de la poule ou de l’oeuf…) que les gens allaient massivement s’abonner à des applications permettant l’accès à des journaux-pdf. Rien ne dit que cette stratégie va fonctionner, rien ne dit que les gens ne préfèreront pas payer pour des interfaces plutôt que pour de l’information. D’ailleurs, les gens ont-ils jamais payé pour autre chose que pour un support (le papier) et non pas pour l’information elle-même ? Quoi qu’il en soit, pour l’Ipad, il est encore trop tôt pour tirer la moindre conclusion.

Qu’on ne s’y trompe pas, la démarche de la presse pour le grand public sur l’Ipad est le début d’une stratégie plus globale qui entraîne TOUTES les bibliothèques et non plus seulement celles des universités dans une voie financièrement très risquée pour les budgets publics et pour le rôle des bibliothèques !

Europresse, l’accès des bibliothèques à la presse

Cette stratégie, c’est celle de l’enfermement dans des modèles payants qui monétisent ce qui relevait il n’y a pas si longtemps du web en accès libre financé par la publicité. Ce modèle ne fonctionne pas, il est en train de changer et les bibliothèques sont partie prenantes. Autrement dit, il va falloir payer, encore plus qu’avant. Pas convaincu ? Pour mieux comprendre, prenons un exemple bien concret. Europresse vous connaissez ? Surement si vous êtes bibliothécaires, pas forcément. Petit rappel : Europresse est une base de donnée vendue en particulier aux bibliothèques. Elle permet un accès au texte intégral aux contenus de journaux et de magazines francophones. C’est une base assez gigantesque :

Europresse.com pour Bibliothèques est une base de presse qui donne un accès numérique à environ 2 500 sources d’information. Europresse.com est riche de plus de 80 millions d’articles en archives et près de 100 000 nouveaux documents vient enrichir la base quotidiennement. Europresse.com pour Bibliothèques permet d’offrir aux usagers des bibliothèques publiques, universitaires ainsi qu’aux lycées, un accès simple et rapide à la presse française et internationale.

Alors Europresse c’était déjà pas donné et le “Nouveau europresse” sous couvert de changement de modèle de tarification sera encore plus cher, même si des négociations sont en cours avec le consortium Couperin, les bibliothèques essayant tant bien que mal de se regrouper pour peser sur ce marché où elles sont par nature en position de faiblesse.

Des contrats d’exclusivité qui bloquent les bibliothèques

La nouveauté c’est que Le Monde.fr a signé un contrat d’exclusivité avec Europresse. La conséquence est directe et violente : soit vous payez Europresse pour proposer le Monde et ses archives dans votre bibliothèques, soit vous refusez de payer et vous privez vos usagers d’une source incontournable qui n’est plus accessible librement sur internet.

Questions :

  • Comment expliquez-vous au collégien du coin qui veut faire un exposé qu’on a pas Le Monde à la bibliothèque parce que c’est trop cher ?
  • Comment les bibliothèques vont-elles prendre en charge ces coûts croissants de fourniture d’information ?
  • Sur quels autres services va-t-on prendre ces ressources financières ?

Mais plus fort encore : Europresse justifie son changement de modèle par l’augmentation de son offre en nombre de sources agrégées. Désormais, vous en avez pour votre argent chers contribuables avec plus de 3000 sources fiables dont un millier de blogs et des sites web !

Des blogs ? des sites web ? Mais lesquels ? Ben il suffit d’aller voir sur le petit moteur de recherche et de filtrer par langue (français) et par type de source : blogue. On obtient… 7 résultats !

La question n’est pas tant celle du volume, qui va certainement augmenter que celle de la démarche. En réalité la source “libération blogues” recouvre tous les blogs crée sur la plateforme, de même que les blogs du Monde diplomatique. Il s’agit ici de revendre du contenu crée non pas par des journalistes, mais par des blogueurs volontaires qui ont accepté les conditions générales d’utilisation de la plateforme (vous savez ces choses en petits caractères que personne ne lit). Je ne suis pas certain, par exemple qu’Hervé Le Crosnier qui anime un blog sur la plateforme du Monde Diplomatique soit ravi de voir ses articles “revendu” aux bibliothèques sans contrepartie !

Si l’on creuse encore un peu dans les sources, on s’aperçoit qu’il y a aussi une catégorie “twitter”. On n’y trouve non pas une liste de comptes, mais une fiche descriptive relative à twitter :

“Une sélection de tweets en anglais dans les domaines de la culture, de l’économie des finances et de la consommation”. Mais qu’est-ce que ça peut bien vouloir dire ?

Dans les sites web on trouve 91 sources en français dont rue89 et Marianne ainsi que tous les blogs de libé… En plus, c’est vous dire si l’offre est ciblée, on a droit à une belle sélection de sites internet d’actualité locale … au Québec !

Europresse joue donc sur deux tableaux : d’un côté des exclusivités incontournables et des sources gratuites “sélectionnées” (et puis sur quels critères ? ah bon c’est pas le bibliothécaire qui sélectionne ? ) qui assurent un volume justifiant des prix élevés ! Il s’agit de  revendre aux bibliothèques les contenus payants exclusifs de la presse agrémentés de contenus qui sont librement accessibles sur le web tout ça avec une valeur ajoutée technique à examiner…

Et si demain cette stratégie de la part de la presse s’étendait au web et à d’autres plateformes des infomédiaires comme Wikio ou Paperblog par exemple ? Et si demain les bibliothèques étaient un des rouages essentiels de la stratégie de balkanisation du web à laquelle on assiste ?

Je ne peux ici me retenir de vous proposer, oui vous Bibliothécaires, un rapide rappel historique. Tout ça ne vous rappelle rien ? Si vous êtes abonnés à Electre vous savez que cette entreprise revend elle aussi à prix d’or, une matière première (des informations bibliographiques) faiblement augmentée d’une “valeur ajoutée” (résumés mal foutus, premières de couv’). Matière première obtenue gratuitement après des éditeurs et qui est aussi disponible librement auprès d’autres fournisseurs : la Bibliothèque Nationale de France.

Les conséquences de la stratégie de repli défensif de la presse et plus largement des fournisseurs de contenus me semblent à moyen terme assez catastrophiques pour les bibliothèques :

  • Nous sommes en quelque sorte piégés dans nos propres missions par les fournisseurs de contenus qui s’adressent à nous en jouant sur le volume d’information que nous offrons à nos publics et négocient des exclusivité que nous n’avons pas le choix d’accepter sous peine de ne pas remplir nos missions de manière satisfaisante;
  • Malgré le formidable travail d’un consortium comme Couperin, nous ne pesons pas lourd face à ce qui est une stratégie de sauvetage de tout un secteur, celui de la presse et des contenus numériques dans un contexte de crise économique;
  • Nous sommes embarqués contre nous-mêmes dans une voie inverse à celle du libre accès à l’information et à la circulation de la culture;
  • Nous devenons des lieux d’accès à un web payant (payé par le contribuable), au risque de n’avoir à l’avenir que cette seule valeur ajoutée d’autant plus que nous persistons à proposer du contenu payant dans de beaux systèmes informatiques sécurisés et à filtrer l’accès au web gratuit

Un peu d’optimisme ? Pas aujourd’hui, non.

Article initialement publié sur Bibliosession

Illustration FlickR CC : campra

]]>
http://owni.fr/2010/09/22/presse-en-ligne-faire-payer-le-contribuable-et-les-bibliotheques/feed/ 2
l’Ipad, ce pharmakon http://owni.fr/2010/09/02/l%e2%80%99ipad-ce-pharmakon/ http://owni.fr/2010/09/02/l%e2%80%99ipad-ce-pharmakon/#comments Thu, 02 Sep 2010 16:55:22 +0000 Bibliobsession http://owni.fr/?p=26773 Cet été, j’ai acheté un Ipad, si, si. Déjà, on ne manque pas de me demander pourquoi. Alors voici quelques points de vues, l’occasion de mettre mes idées au clair, de m’agacer de certains raccourcis et de prôner une approche complexe sans pour autant défendre Apple ! (sacré programme, article nécessairement long!)

J’ai souvent pris des positions dans ce blog contre les DRM, pour l’open source, l’open access, pour la défense des libertés numériques. Rassurez vous je n’ai pas changé d’avis. Le choix d’un Ipad peut donc sembler paradoxal, voire contradictoire puisqu’il s’accompagne de l’écosystème fermé et propriétaire que propose Apple. Mais les choses sont plus complexes, en réalité je n’ai pas acheté un Ipad, j’ai acheté une tablette tactile, des interfaces. J’ai acheté un appareil à partir duquel on peut accéder à des informations de manière ergonomique, j’ai acheté la possibilité de m’informer, d’échanger, d’apprendre sur un appareil personnalisé.

De la diversité des outils et des usages

Une des critiques portée vers cet appareil et l’écosystème qu’il propose est la suivante : l’Ipad est un “Minitel 2.0″ comme l’écrit Marin Dacos dans cet article de Libération.

“Pour entrer dans le système, dans l’iPhone en particulier, l’utilisateur est obligé de devenir un consommateur abonné. Ce système induit une verticalité, un contrôle, alors que le Web est très horizontal, sans centre. L’iPad est un peu le minitel 2.0… qui fait enfin miroiter un retour financier. Chaque organe de presse peut fabriquer ses propres applications, encore plus performantes, et entrer dans une logique de navigation qui permet de fermer sur le contenu qu’il veut vendre. Pour garder le lecteur chez soi.”

Olivier Ertzscheid aussi dans ce billet, à propos de l’écosystème Apple :

Le choix à faire est binaire. Ouvert contre fermé. Interopérable contre propriétaire. Le cœur stratégique du web est celui de l’interopérabilité. Le rêve fondateur du client-serveur contre le modèle économique d’Apple, celui du client-captif. Le rêve fondateur du web : permettre à chacun, indépendamment de son équipement logiciel ou matériel d’accéder à l’ensemble des ressources disponibles. A l’exact inverse, le paradigme de la boutique Apple : permettre à ses seuls clients (= acheteurs du hardware / matériel) d’accéder aux seules ressources disponibles chez les seuls fournisseurs de sa boutique, et seulement consommables sur son matériel. Idem, mais à une autre échelle pour le Kindle d’Amazon : le kindle c’est comme le caddy ; ça ne va qu’avec un seul magasin et on ne part pas avec.

Devenir un consommateur abonné? Faire un choix binaire? Et si on changeait de point de vue ? Et si pour une fois on partait du point de vue de l’expérience-utilisateur et non du point de vue de l’adhésion supposée d’un utilisateur (supposé sans libre-arbitre, j’y reviendrai) à un système (vertical, fermé, c’est absolument vrai) du simple fait qu’il utilise un appareil et y développe des usages ?

En premier lieu, ce qui me gêne (bien au delà de l’Ipad), c’est que cette critique suppose un lien logique très puissant (dans l’argumentation) entre utiliser une technologie et cautionner l’ensemble de la philosophie de l’entreprise qui la crée, sans prendre en compte que la réalité des usages est bien plus complexe. Il faut être Linux, ou Mac, ou Windows, sans même parler de Facebook. Moi je les utilise tous les trois, depuis des années, tous les jours, j’apprends à m’en servir j’expérimente, je teste des outils, je développe des usages qui me conviennent et si ce n’est pas le cas, j’en change (ou pas).

L’informatique est un outil, ce qui est le moteur de mon action, c’est bien plus son efficacité que l’adhésion ou non à une démarche commerciale ou à une philosophie. Attention, cela n’empêche pas d’avoir des positions critiques. Par exemple, il est clairement insupportable de ne pas pouvoir exporter et manipuler mes propres données d’annotation des livres numériques de l’ibookstore (imposé par Apple) ni de pouvoir partager un livre acheté à cause des DRM (imposées par les éditeurs) !

Ce que je veux souligner ici, c’est que l’ipad est un objet technique. Dans le vocabulaire d’Ars indutrialis (inspiré d’Heidegger) il est un pharmakon :

En Grèce ancienne, ce mot désigne à la fois un remède, un poison, et un bouc-émissaire. Tout objet technique est pharmacologique, à la fois poison et remède. C’est une autre manière de dire avec Hölderlin que là où croit le danger, croit aussi ce qui sauve. Toute technique, originairement, est ambivalente : l’écriture alphabétique, par exemple, a pu et peut encore être aussi bien un instrument d’émancipation que d’aliénation. Raisonner pharmacologiquement c’est, autre exemple, comprendre que pour lutter contre les effets néfaste du web, il convient non pas de ne plus se servir du web (ce qui n’aurait pas de sens) mais de s’en servir autrement. Si le web peut être dit pharmacologique c’est qu’il est à la fois un dispositif technologique associé permettant la participationi et un système industriel dépossédant les internautes de leurs données pour les soumettre à un marketing omniprésent et individuellement ciblé (user profiling)

A la fois poison et remède, j’aime cette complexité là. Ce qui frappe quand même depuis deux années que l’Iphone est arrivé c’est la manière dont les utilisateurs n’ont de cesse de détourner les usages officiels autorisés de l’Ipad ou de l’Iphone pour les adapter à leurs propres pratiques en faire ce qu’ils veulent! A voir les chiffres du téléchargement, j’ai la faiblesse de penser que les films visionnés sur l’Ipad ne sont pas tous achetés sur itunes avec DRM, tout comme les livres sur l’ibookstore…

Songez aussi à l’impressionnant jeu du chat et de la souris entre Apple et les hackers créateurs du jailbreak, cela suffit à démontrer que la fermeture d’un système entraîne AUSSI toute une série d’innovations à la fois interne (la créativité des créateurs d’application) et externe, pour le contourner (je pense à cydia). C’est bien ça qui est fascinant, c’est ce que système produit d’innovations en terme d’interfaces et d’outils de manipulation des informations.

Et puis, aujourd’hui, est-ce encore juste de dire qu’Apple propose un système de lecture verrouillé quand vous pouvez acheter et lire sur ces appareils des contenus aux formats pas forcément libres, mais devenus standards, (mp3, pdf, doc, divx, etc.), à l’exception (temporaire) du flash en les y transférant sans passer par itunes sans même jailbreaker votre appareil ? Contrairement à ce que déclare Olivier Ertzscheid ci-dessus, L’Ipad est bel et bien un outil qui permet de lire et de manipuler une multitude de formats et de contenus protégés ET non protégés, bien au delà de ceux fournis par Apple.

Il s’agit d’un outil éminemment personnalisable, adaptable, transformable et c’est ça, bien au delà du hardware, qui est le cœur de l’écosystème. Et puis, cette vision du Minitel 2.0 oublie aussi une chose : il s’inscrit dans un ensemble d’appareils numériques connectés, il n’est pas conçu pour un usage exclusif, mais il s’inscrit dans un environnement où ses acheteurs sont déjà connectés avec d’autres appareils. Dès lors, on assène que parce que l’outil n’est pas un outil de “production d’information” que ses utilisateurs sont des “consommateurs” ?

C’est oublier que, si le clavier tactile ne permet pas d’écrire de longs textes, encore faut-il croire qu’écrire est la seule manière de produire une information. Le nombre d’applications dédiées à la retouche d’images, à la construction de film ou de Bd, suffit à le démontrer. C’est oublier aussi que sur internet, alors que les gens sont massivement usagers d’outils qui permettent cette production d’information (le fameux crowdsourcing) 90% des gens ne sont pas producteurs d’informations. Ceux qui souhaitent l’être le seront, Ipad ou pas.

Diversité des usages, des stratégies d’appropriation. L’ipad peut tout à fait être un excellent outil de lecture, ou pas. Encore faut-il savoir de quelle lecture on parle, pour qui et pour quoi. Mais que sait-on au juste des pratiques ? A lire l’excellent article d’Hubert, on se rend vite compte que le sujet est émergent, le recul manque, les usages sont très différents d’un groupe à l’autre, sans même parler du fait que les études portent bien trop souvent sur des usages universitaires liés à la recherche. En fait, tout le monde a un avis sur la lecture numérique, mais rares sont ceux qui ont observé la réelle diversité des usages (et ceux-là même sont perplexes!).

Quant au web, les sociologues qui se sont penchés sur les pratiques d’usagers face à l’information démontrent que l’audience est fragmentée. Par exemple, l’étude sur « les usages sociaux de l’actualité » (lien payant), de Fabien Granjon et Aurélien Le Foulgoc, (cité par Narvic ici) montre que :

« L’écosystème médiatique et informationnel se complexifie ainsi notoirement, tant en amont (production diffusion), qu’en aval (réception) et se trouve structurellement fragmenté. A la profusion des programmes et des contenus mis à disposition, viennent se greffer de nouveaux usages (multi-écrans, délinéarisation, agrégation de contenus, etc.) qui tendent à déplacer les routines et les expériences informationnelles et à faire bifurquer les trajectoires d’usage des individus. »

C’est bien ce qui permet de dire que la condamnation d’UN outil (l’Ipad) au nom d’UN usage (celui de la consommation d’information supposée passive) manque singulièrement de complexité.

L’ipad = interfaces

Qu’est-ce qui change vraiment alors avec l’Ipad ? Josselin Raguenet de Saint Albin dans l’article pré-cité :

Actuellement, les versions web des journaux par exemple n’apportent que peu en terme d’ergonomie du contenu, certes on y a gagné en transversalité de l’information, mais les moyens d’interagir restent basiques. Les pages d’accueil sont d’immenses fourre-tout où chaque section bataille pour des pouces carré de pixels à l’écran, il semble qu’il soit impossible de voir tous les contenus produits, sans parler des bannières Flash qui viennent littéralement polluer la lecture… comptez avec ça qu’il faut naviguer à la souris, passer son temps sur les boutons “précédent”/”suivant” du navigateur, ajuster la taille des polices (par défaut basée sur une résolution de fenêtre de 800×600 ce qui correspond aux écrans du millénaire précédent !), jouer de l’ascenseur constamment… (…)

Si l’engouement Internet a fait exploser les embauches d’informaticiens — à tort et à travers, chaque journal, entreprise, association, personnalité… avait son site web et ses défauts — demain ce sont surtout les interface designers qui seront prisés pour leur expertise dans la conception d’univers manipulables cohérents où l’agencement de l’information et des données devra plus que jamais faire sens

Pour moi le vrai point important est celui-ci, c’est ce déplacement, ce besoin d’interfaces, d’ergonomies, de graphismes. On commence à peine à imaginer ce qu’on peut faire avec une tablette tactile capable de reconnaître de la matière et du papier en particulier.

Dans une économie de l’attention ce qui compte c’est la liberté d’interagir des données dans l’ensemble des écosystèmes et d’y organiser des contre-pouvoirs. Ce qui importe c’est la liberté de construire la qualité de ma relation aux informations. C’est de liberté d’expression et d’utilisabilité dont on parle. Je crois que le “journalisme de données” a un avenir très prometteur, qui ne se limitera pas aux journalistes…(heureusement).

Outils libres ou idées libres ?

De ce point de vue la critique d’un Cory Doctorow devient risible :

Je suis intimement convaincu de la pertinence du Manifeste du constructeur (NdT : Maker Manifesto) : « Si vous ne pouvez pas l’ouvrir, alors ce n’est pas à vous ». Il faut préférer les vis à la colle. Le Apple ][+ d’origine était fourni avec le plan schématique des circuits imprimés, et a donné naissance à une génération de hackers qui bidouillaient leur matériel informatique ou leurs logiciels et ont bousculé le monde dans le bon sens. Mais, avec l’iPad, il semblerait que pour Apple le client type soit la maman technophobe et simplette, celle-là même dont on parle si souvent dans l’expression « c’est trop compliqué pour ma mère ».

Je ne relève pas la "maman technophobe", mais voilà typiquement le genre d'argument agaçant d'un prosélyte du logiciel libre qui veut transformer la terre entière en développeurs informatiques. Je déteste cette vision parce qu'elle présuppose que l'épanouissement de tous les utilisateurs d'un appareil passe d'abord par la maitrise des méandres du code ou des circuits imprimés et non pas ce que l'outil permet en terme de rapidité d'accès, d'appropriation, de découvertes et de partage de l'information.

Oui le logiciel libre porte une philosophie très intéressante et utile, mais faut-il affirmer que c'est l'efficacité qui prime lorsqu'il s'agit d'outils ? Oui on peut avoir des chocs esthétiques, déplacer ses horizons d'attentes, accéder au "dévoilement de l'être" (Heidegger), rencontrer des gens importants, échanger et s'épanouir, s'engager politiquement dans des activités déconnectées au moyen de dispositifs techniques, que ce soient Ipad, Ubuntu, Mac, Windows !

Hypothèse : dans le web des nuages, la bataille pour des logiciels libres s'atténue et se confond avec celle pour la liberté d'expression et l'accès libre au savoir. Je sais que cela peut sembler paradoxal, mais il faut se rappeler que dans la définition d'un logiciel libre donnée par le Free software fondation, lorsqu'on parle de la liberté de l'utilisateur, c'est celle qui fait référence à sa liberté d'utiliser un programme.

La nuance est essentielle par rapport à la liberté d'expression qui a pour objet non pas l'outil mais l'information, les données, les pensées, les œuvres. Attention, je sais bien que la libération du code est une libération de données, fruit d'un travail intellectuel de codage, mais l'essentiel pour moi ce sont bien les informations créent à partir des logiciels. Une partie du mouvement du logiciel libre a tendance à oublier que c'est de biens informationnels dont on parle, pas seulement d'outils. Je m'inquiète plus, au final, des brevets sur le vivant ou sur les œuvres que ceux sur le code des logiciels. Je suis contre les restrictions techniques et juridiques à la circulation des œuvres, contre les DRM et contre les logiques propriétaires d'accès aux données. Ce qui m'importe, c'est que les œuvres circulent et qu'elles puissent être lues, disséminées, recommandées.

Les bibliothécaires sont très bien placés pour connaître le danger des monopoles des fournisseurs de contenus. Ce combat là (open access notamment) prend une importance toute particulière quand tout passe par le navigateur, quand on passe des logiciels aux services comme c'est le cas dans le web d'aujourd'hui. Au fond, est-ce important qu'une œuvre ou une idée soit crée ou reçue à partir d'un outil comme l'Ipad à partir du moment où elle existe et qu'elle peut circuler ? C'est peut-être ça finalement le changement, dans le web dans les nuages, à l'exception cruciale du navigateur, nous avons besoin de données libres, ET de logiciels ou d'outils libres.

Si l'on essaie d'avoir une vision globale, très loin de la défense d'un appareil d'une marque, ou de la généralisation de mes pratiques à l'ensemble du monde, la question est : que cherche donc à faire Apple ? Dans un article intitulé Digital Media : La Guerre des Trois a déjà Lieu…, Josselin Raguenet de Saint Albin propose cette réponse. Apple tout comme Amazon et Google cherchent à résoudre rien de moins que :

"La quadrature du cercle qui veut rendre la consultation des contenus agréable, charnelle et mobile comme peut l’être le papier, offrir un mode de partage, d’interactivité, de transversalité propre au monde de l’information du XXIème siècle, tout en restant viable financièrement"

Quelle ambition et quel magnifique projet pharmacologique ! Dès lors, jouer, comme souvent, le libre contre le propriétaire, le méchant Apple fermé contre les gentils développeurs Linux n'est pas sérieux. Rappelons que les engagements pro-libres d'un Google avec son Android market n'ont rien de philanthropique. Comme le rappelle le même dans ce commentaire du billet d'Olivier :

Google comme Apple soutiennent plus qu’activement le développement des nouveaux standards et investissent dans l’open-source (HTML 5, OpenCL... et consort). Pourquoi ? parce que les “bonnes pratiques” du développement communautaire (décrites dans l’analyse de Linux par E.S. Raymond) sont la souche de leur viabilité et vitalité technologiques, les grandes sociétés privées doivent beaucoup au monde du libre et ne cherchent pas à s’en “affranchir”, elles continueront à en tirer le suc parce que c’est un régime d’excellence, et elles continueront à y injecter des millions.

Bien sûr, cela ne règle en rien la question suivante : "Pourquoi alors Apple souhaite-t-elle faire des profits dans une logique “propriétaire” et contrôler drastiquement les applications ? Le même Josselin Raguenet de Saint Albin propose une réponse que je ne trouve pas convaincante, mais qui a le mérite de souligner le projet d'Apple.

Aussi incongrue que ça puisse sembler Apple le fait pour ses consommateurs. Le développement des nouveaux terminaux nécessitait cet “enfermement”, ce contrôle, parce que ces nouvelles machines ont besoin d’être appréhendées de façon optimale par le développeur qui souhaitera proposer son contenu : adieu les dispersions de mémoire, bannis les process énergivores, haro sur les interfaces inadaptées. La documentation fournie avec le SDK iPhone OS (téléchargement gratuit, certes nécessite Mac OS X) insiste constamment sur ce point, et de façon litanique ! Les “Big Brothers” de l’App Store qui valident les applications ont pour objectif premier de renvoyer aux développeurs les appli plantogènes, buggées, inutilement lourdes, à la sécurité de passoire... bien avant de traquer du mamelon. Le souci est avant tout de ne délivrer que du contenu “qualifié”, sur des critères techniques et non pas moraux. Toute entreprise responsable rompt ses contrats avec un fournisseur peu fiable, il n’y a pas de raisons que ça change sous prétexte qu’on est connecté au nuage. Les nouvelles “gated communities” du web ne sont qu’une version “safe” d’accès à un contenu (ouvert ou fermé) motivée par un souci d’adéquation optimale entre les applications pour l’afficher et les spécificités du terminal sur lequel tournent ces applications. C’est la philosophie d’Apple depuis le début, lier le hardware et le software pour une meilleure expérience utilisateur (/consommateur).

On pourrait lui opposer que l'app store n'a pas besoin d'être fermé pour être efficace, le modèle ouvert de Google et l'Android Market suffit à le démontrer. C'est d'ailleurs souvent l'ouverture du code source qui favorise l'efficacité des applications, sans que ce soit pour autant automatique. Non, la stratégie commerciale d'Apple est incontestablement celle de l'articulation de la vente d'appareils et de softwares proposant des interfaces ergonomiques, il ne fait aucun doute que la valeur de l'innovation produite dans cet écosystème revient à Apple. Soit.

Mais pourquoi la stratégie d'Apple est-elle efficace, en particulier auprès des étudiants ? Du point de vue de l'utilisateur, le web dans les nuages abaisse considérablement le degré d'exigence sur les performances hardware des ordinateurs. Pour une majorité de gens, ce qui est essentiel, c'est que l'ordinateur me permette de développer des usages sur le web à travers un navigateur et/ou depuis des bases de données de contenus stockées dans les nuages.

Ce qui compte ce n'est plus la taille du disque dur ou la richesse des logiciels, mais l'efficacité de mes interactions avec le meilleur des interfaces à partir de contenus web (l'utilisabilité en fait). Bon nombre des applications de l'App store n'ont AUCUNE utilité sans les contenus ou services issus du web qu'il soit ouvert ou pas (que l'on songe à des Drop box, des googles docs, des IMDB, Wikipédia, etc.). Rappelons que la licence d'utilisation d'un des symboles du web ouvert, Wikipédia, permet les usages commerciaux, donc la réalisation d'interfaces d'accès innovantes à son contenu, donc son intégration dans ce genre d'écosystème au bénéfice de l'utilisateur, faut-il s'en plaindre ?

En fait un Ipad déconnecté, c'est un ipad presque inutile, sauf à en faire une console de jeux ! L'écosystème vertical d'Apple est en réalité consubstantiel aux contenus et services du web dans les nuages. Dès lors, l'opposer au "web ouvert" au nom de sa défense ne me semble pas pertinent sauf à penser que le potentiel d'innovation des sociétés occidentales existe en quantité limitée, ce qui ne me semble pas crédible un instant.

Vigilance, contres-pouvoir et viralité

Pour autant, tout cela pose AUSSI la question de censures de nature clairement politiques comme celle qui a récemment touché le Prix Pulitzer dans cet article du Monde :

Mark Fiore, caricaturiste américain, a beau avoir remporté le prix Pulitzer du dessin de presse, Apple lui interdit de mettre ses animations sur l'Apple Store. Certaines de ses réalisations multimédias entreraient en violation avec les conditions d'utilisation de la plate-forme.

Sur Rue89 on apprend que :

Aux Etats-Unis (pas en France), cette nouvelle a déclenché une fronde contre Apple. L'entreprise s'est donc sentie obligée de proposer à Mark Fiore de soumettre à nouveau son application [Steve Jobs lui a même, fait rare, présenté des excuses,ndlr].

A la censure doit répondre la mobilisation, d’autant plus facilitée par la nature virale de la circulation des informations dans l’immense communauté des utilisateurs des produits Apple. Oui mais en dehors de cette communauté ? Concrètement ? Récemment, est apparue une extension firefox (prochainement disponible sur d’autre navigateurs) CensorCheap.

L’idée est de détecter (automatiquement) de répertorier et de dénoncer les sites bloqués par les fournisseurs d’accès : La sagesse des foules au service de la lutte contre la censure. C’est un paradoxe contemporain : l’atteinte à l’image d’une entreprise a une efficacité proportionnelle à sa taille et c’est un levier de changement bien plus efficace que la mobilisation pour une régulation de nature politique surtout lorsqu’elle se situe à l’échelle mondiale… Belle illustration : “Là où croit le danger, croit aussi ce qui sauve.” (Hölderlin)

De la nécessaire dissémination des contenus

Parlons des contenus et de la presse en particulier : la vision Minitel 2.0 présuppose que les usagers de l’Ipad utiliseront massivement les applications presse dédiées payées à prix d’or. Les producteurs de contenus ont identifié l’Ipad comme une machine de guerre contre la diffusion gratuite de leurs contenus sur le web. Je pense au contraire comme Narvic que l’intérêt de beaucoup d’utilisateurs va se tourner vers des agrégateurs :

Ce que n’ont pas compris non plus les éditeurs de presse, c’est que si leurs applications iPhone (puis iPad) ne donnaient accès qu’à leur seul site, labellisé sous leur propre marque (reconstituant la formule du « paquet » qui avait fait leur succès dans l’univers du papier), d’autres applications ne manqueraient pas, également, de permettre la consultation de leurs sites de manière transversale et fragmentée, comme le permettent les agrégateurs de toutes sortes sur le web. Je citais déjà, en février, l’application LeNewz, « un GoogleNews pour mobiles », en imaginant que d’autres, plus ergonomiques, plus sociales, plus personnalisables, etc., ne manqueraient pas d’arriver avec l’iPad. Et bien ça y est, elles arrivent ! Pulse News etFlipboard, pour commencer. On attend déjà la suite.

Narvic sera content d’apprendre que depuis la sortie de l’Ipad en avril, selon cette étude menée en aout en Australie, sur les 6 premières applications payantes pour la presse sur l’Ipad, 5 sont des agrégateurs ! L’Ipad est d’abord une révolution en terme d’interface homme-machine, c’est bien en cela que c’est un objet attractif, nouveau, fascinant. Ce que propose Apple ne sauvera pas les producteurs de contenus (y compris les éditeurs) qui n’accepteront pas d’y disséminer leur valeur ajoutée et qui continueront à jouer le contenu contre l’interface, le contenu contre l’expérience-utilisateur exactement comme l’exprime Narvic. C’est bien tout le problème des éditeurs et des patrons de presse qui n’ont pas compris qu’ils devaient libérer leurs contenus pour tirer plein avantage du potentiel d’innovation des interfaces. Il est certain qu’il ne pourront le faire qu’à condition d’expérimenter de nouveaux modes de financement de la création. C’est la quadrature du cercle du web d’aujourd’hui. Des pistes existent, comme le souligne Lionel Maurel qui en détaille quelques unes dans ce billet.

Le danger est bien entendu qu’Apple contrôle les contenus, exerce une censure de nature politique, et AUSSI que les contre-pouvoirs ne soient pas à la hauteur. Je ne nie pas une seconde que le contrôle de l’offre soit d’inquiétant, mais, au fond, dans un modèle qui est celui de la longue traîne, Apple n’a-t-il pas plutôt un intérêt commercial à ce qu’un maximum de contenus se disséminent pour voir éclore des interfaces d’accès rentables à ces contenus ?

Dans ce modèle, les fournisseurs de contenus ont intérêt à proposer une masse de contenus la plus large possible. Les contenus académiques gratuits présents en masse sur Itunes U ne sont-ils pas aussi présents sur internet ? De plus, le danger de monopole repose sur le présupposé d’un guichet unique qui nie la diversité des offres et des pratiques considérant le fournisseur de contenus comme exclusif alors que dans les faits, à l’échelle micro-sociale, à l’échelle des croisements entre des pratiques connectées et déconnectées, c’est loin d’être aussi évident !

Force est de constater qu’aujourd’hui, sur le web comme sur l’appstore, ce ne sont pas les moyens de diffusion qui manquent à quiconque souhaite s’exprimer… Entendez-moi bien, je ne nie pas les dangers d’une transformation de l’idée d’une licence globale en licences privées, mais je ne peux me résoudre à y voir le même danger qu’avant le web social. Je n’arrive pas à me dire qu’avec de telles tailles de catalogues, un internet qui permet à bas coûts de produire et de diffuser de l’information l’utilisateur va être muselé, perdant, formaté par une offre contrôlée.

Alors on va me dire que l’enjeu ne semble plus tant être au niveau du contrôle de l’offre que de celle de l’influence des marchands à attirer notre attention sur tel ou tel contenu. Là aussi il y a des peurs excessives.

En finir avec la seringue hypodermique !

Jean-Marc Manach (qu’on ne peux décemment pas accuser d’optimiste ni de naïf) dans Place de la Toile affirme avec raison beaucoup plus s’inquiéter de l’explosion des fichiers nominatifs mis en oeuvre par le pouvoir politique et du développement de la vidéo-surveillance que du marketing d’un facebook, d’un google ou d’un Apple. Cela ne veut absolument pas dire qu’il ne faille pas s’en préoccuper. J’ai moi aussi tendance à vraiment m’inquiéter des (més)usages politiques des informations personnelles et définitivement du mal à croire aux effets surpuissants du marketing au sens où l’entend Olivier :

In fine, c’est le contrôle et l’instrumentation totale de la part de pulsionnel et d’impulsivité (au sens d’achat impulsif en sciences de gestion : voir cet article .pdf) de chaque comportement connecté qui sous-tend l’ensemble de l’offre aujourd’hui disponible dans les boutiques du web : nous dire quoi acheter, quoi aimer, contre quoi se révolter, nous dire ce qui est bien ou mal, ce qui est moral ou ne l’est pas.

La dénonciation de la captation marchande de la libido et de l’aliénation par la consommation s’inscrit dans la tradition critique issue de l’Ecole de Francfort. Pour les médias, elle s’incarne dans la théorie de « la seringue hypodermique », qui postule que le comportement des humains répond aux stimuli informationnels. Il suffirait donc d’injecter une bonne dose d’information, de communication, de propagande ou de séduction pour obtenir l’effet recherché par le locuteur.

En réalité, cette théorie a été remise en cause dès les années 50 par les travaux de Paul Lazarsfeld sur les leaders d’opinion et la two step flow theory, et bien d’autres ensuite. Les travaux de MacLuhan, en particulier l’adage “le médium c’est le message” ont parfois été compris comme un déterminisme de l’outil qui déplace l’influence du côté des appareils.

C’est bien là ce qui me gêne : les médias, comme le marketing, comme les outils N’ONT PAS une influence directe et massive sur les individus. Si j’admire beaucoup les brillantes analyses d’Olivier sur les rapports de forces globaux qui se dessinent aujourd’hui, il me semble qu’on ne peut se contenter de dénoncer l’aliénation produite par des systèmes techniques en dehors de leur contexte de réception.

J’aime beaucoup la métaphore de Kim Christian Schröder dans cet article de 1990 de la revue Réseaux : intitulé : Vers une convergence de traditions antagonistes ? Le cas de la recherche sur le public :

“Si le contenu des productions des médias commerciaux peut-être un “aliment pour l’esprit”, il nous faut alors penser l’étape de la réception comme une étape de digestion progressive plutôt que d’injection instantanée. Et, pour rester dans la métaphore, les prédispositions psychologiques de chaque spectateur individuel font qu’il est susceptible de métaboliser la nourriture, de même, d’ailleurs, et, différemment, les stimulants les plus équivoques. En allant toujours plus loin, le téléspectateur ne peut désormais plus être considéré comme une cible atomisée et sans défense devant l’arsenal des médias mais doit être appréhendé comme un être social pourvu d’une identité culturelle spécifique formée par les relations interpersonnelles de la communauté ou des communautés dont il relève.

Passionnant article qui retrace l’opposition, le rapprochement et l’imbrication des deux paradigmes opposés de la recherche sur les mass-médias (la télévision en particulier). D’un côté le paradigme sociologique empirique (effets mesurables des médias) et de l’autre le paradigme critique (inspiré de l’Ecole de Francfort). La recherche sociologique sur les médias et la publicité s’est orientée depuis 1980, dans une voie mixte qui s’efforce de limiter le réductionnisme de l’effet mesurable quantitativement par l’usage des appareils interprétatifs issus de la linguistique et de la sémiologie. L’ensemble permet de redonner du sens aux pratiques individuelles sans nier pour autant l’influence réelle globale des messages des médias. Un monde complexe nécessite une approche complexe, on parle de sociologie pragmatique.

Alors bien sûr on pourra m’objecter que la critique est plus subtile en convoquant Foucault et Deleuze : les dispositifs de contrôle sont insidieux.

Ce qui se joue aujourd’hui avec tout ce maillage systémique planétaire, ce déploiement du méga-réseau matriciel à vocation ubiquitaire, c’est un processus de globalisation des « sociétés de Contrôle » , fluides, ouvertes, modulaires, multipolaires et à géométrie variable comme installation d’un nouveau régime de domination qui remplacent peu à peu les « sociétés disciplinaires » (Foucault) avec la crise généralisée des milieux d’enfermement en système clos (familles, écoles, armée, usines, prisons, hôpitaux, etc.) ainsi que l’avait bien vu à la même époque Gilles Deleuze, et où, entre autres choses, les individus deviennent peu à peu des entités « dividuelles » encodées comme multiplicité de données dans un macro-système d’information. « Ce sont les sociétés de contrôle qui sont en train de remplacer les sociétés disciplinaires. (..) On ne se trouve plus devant le couple masse-individu. Les individus sont devenus des « dividuels », et les masses, des échantillons, des données, des marchés ou des « banques ». (..) les sociétés de contrôle opèrent par machines de troisième espèce, machines informatiques et ordinateurs (..). Ce n’est pas une évolution technologique sans être plus profondément une mutation du capitalisme. » plus loin :

“Le marketing est maintenant l’instrument du contrôle social, et forme la race impudente de nos maîtres » affirmera ainsi sans détours Gilles Deleuze.”

Franchement, je reste perplexe devant ceux qui d’un côté déclarent l’éclatement du sujet et donc sa soumission pieds et points liés à des forces incontrôlables (on est pas si loin de la seringue non ?) et de l’autre glorifient le pouvoir des individus en réseaux, des hackers-bidouilleurs comme chevaliers de ces temps post-modernes. Et les auteurs de cet article paru sur Framablog de dénoncer le web 2.0 comme une ruse du capitalisme, au lieu d’y voir un facilitateur d’expression et d’exercice de la liberté de parole des individus…

La question est à la fois philosophique et politique, est-ce qu’on considère que le sujet atomisé se décompose en “dividuels” sous contrôles ou est-ce qu’on pense que le sujet a une autonomie (et laquelle?) par rapport aux influences culturelles économiques et sociales ? Grande question, qui est une question d’équilibre !

En somme, il me semble qu’il ne faut pas se tromper de combat. Dénoncer le “consumérisme” des acheteurs d’Ipad au nom de la défense d’un “web ouvert” est une manière pratique de nier la complexité des usages, une manière de trouver dans Apple un coupable idéal qui n’est, au fond qu’un producteur d’interfaces, un diffuseur de contenus et l’architecte d’un écosystème très rentable basé sur l’innovation à partir de contenus de ce même web !

L’Ipad, c’est un bout de tuyau ergonomique, le vrai enjeu, il me semble, c’est celui de la possibilité d’y mettre tous les contenus que l’on veut. Force est de constater qu’aujourd’hui c’est politiquement et concrètement possible. Demain ? Nous avons besoin d’une libre circulation de données, de contenus accessibles et d’un Internet neutre, conditions de possibilités de la libre expression de chacun et de la construction de la connaissance.

L’Ipad, ce pharmakon.

Cet article a été publié initialement sur Bibliobsession

Illustrations FlickR CC : Amadeusz Jasak, Richard Giles

]]>
http://owni.fr/2010/09/02/l%e2%80%99ipad-ce-pharmakon/feed/ 7
Publish. Wait. Spray. Spray again http://owni.fr/2010/06/15/publish-wait-spray-spray-again/ http://owni.fr/2010/06/15/publish-wait-spray-spray-again/#comments Tue, 15 Jun 2010 17:46:09 +0000 Bibliobsession http://owni.fr/?p=18811

J’écrivais ça il y a deux ans et c’est toujours vrai : “Tenir un blog est très frustrant ! Pourquoi ?  Parce que cette forme est intrinsèquement centrée sur “le billet le plus récent”.  Les autres disparaissent dans l’abîme des archives... Il faut donc trouver des moyens de naviguer dans la longue traîne des anciens billets. Ceci est d’autant plus important que ce blog traite des bibliothèques, où certes une actualité existe, mais elle n’est pas forcément obsolète très vite… :-)

Il me semble donc essentiel de pouvoir proposer des parcours de lectures dans les divers thèmes que j’ai abordés depuis plus de deux ans. J’ai donc pris le temps de mettre des tags (ou d’indexer pour les puristes, avec une liste validée) pour l’ensemble des 750 articles de bibliobsession (voir ci-contre, le nuage)”. Une autre manière efficace de susciter des parcours est l’utilisation du plugin Linkwithin qui favorise les rebonds à la fin de chaque billet.

Sauf que les tags et les rebonds c’est utile pour une navigation lorsqu’on est déjà sur le site. Or le web d’aujourd’hui est un web des flux, un web en temps réel. Mais qu’est-ce que ce “web en temps réel” peut bien vouloir dire ?

  • Est-ce le fait d’accéder à aux mêmes informations en même temps que d’autres gens ? Non, ça c’est l’audience, le buzz, l’actualité. La fonction de mise à l’agenda propre aux médias existait bien avant le web (inventée en 1972 !). Même si les sources, les outils, les dispositifs et les acteurs changent, la logique d’un champ d’actualités par nature saturé et son corolaire, la fonction d’agenda sont toujours là.
  • Est-ce le fait de pouvoir échanger en temps réel ? Non, ça c’est le clavardage, et c’est pas nouveau. Bon c’est vrai que Twitter a apporté quelque chose de ce point de vue, mais Twitter, ce n’est pas l’ensemble du web…
  • Est-ce le fait de pouvoir d’envoyer en temps réel et en situation de mobilité des informations avec d’autres ? Peut-être, mais je ne vois pas en quoi ce temps qui serait plus réel qu’avant… tout ça ne serait-il qu’un effet de masse ?
  • Est-ce le fait que ces informations soient indexées immédiatement dans les moteurs de recherche ? Peut-être, mais alors pourquoi faire de tout ça une tendance alors qu’il ne s’agit que d’une accélération de quelques heures du passage des robots d’indexation… D’ailleurs, Google (et Bing aussi) a annoncé il y a un moment déjà qu’il indexe Twitter “en temps réel”.
  • Est-ce le fait de publier de l’information sur le web facilement et rapidement ? Non, ça existe depuis que les outils du web 2.0 existent, je vois pas ce que Twitter change par rapport au fait d’appuyer sur le bouton “publier” d’un blog…

Le web en temps réel… pas très clair comme expression ! Mon hypothèse : le “temps réel” du web indique un double sentiment :

  • l’accélération de la vitesse à laquelle s’échange l’information, notamment en situation de mobilité
  • l’accentuation de la pression exercée par le nouveau au détriment de l’ancien

C’est ce qui fait dire à Paul Virilio que nous vivons dans une tyrannie du temps réel (via Narvic) ce qui me semble inutilement catastrophiste et pessimiste (c’est le cas de le dire pour Virilio) là où les technologies sont des pharmaka, c’est à-dire à la fois le poison et le remède et où il nous faut mettre en œuvre une pharmacologie de l’attention. Il nous faut je crois proposer  des sérendipités permettant de mettre en avant des contenus pertinents, des trouvailles, des pépites avec la part de subjectivité que cela comporte, renforcer les signaux faibles que sont les contenus dérivés des fonds des bibliothèques enfermés dans le web caché ou (même combat) dans un web hors flux.

Alors d’où vient cette omniprésence de l’actualité dans les flux ? À mon avis, en grande partie du fait suivant : sur les médias sociaux on assimile trop souvent la publication et la propulsion. Propulser écrit Thierry Crouzet, c’est bien plus que diffuser :

Comment s’y prennent les propulseurs ? Ils se connectent les uns avec les autres. Ils se passent le mot de bouche à oreille. Ils se passent l’info de la main à la main. « On propulse en se connectant. On se connecte en propulsant. » Pour propulser, il faut pouvoir transmettre à des destinataires, être connectés avec eux, être un des fils qui sous-tend le Flux, une ligne de vie. Il ne suffit pas d’injecter des contenus dans le Flux et de les laisser vivre seuls. Ils auraient toutes les chances de se scléroser. Mais pour se connecter, taper sur l’épaule de quelqu’un n’a pas beaucoup d’effet. Mieux vaut lui apporter quelque chose, au moins un bonheur passager. « Tiens, lis ça. C’est absolument génial. »

Un service comme Twitterfeed incite en effet à l’assimilation entre publication et propulsion puisqu’il pousse un flux RSS dans Twitter. Il agrège au flux global des nouveaux items d’un flux RSS, en temps réel. L’analogie est parfois poussée à l’extrême au point que certains abandonnent carrément leur agrégateur au profit du filtre social qu’est Twitter. Diffusion de fils RSS et rediffusion en temps réel de veilles à partir des agrégateurs avec un outil comme ping.fm (Read it, feed it) voilà qui explique que Twitter soit considéré comme le champion du temps réel… au détriment de la longue traîne des contenus.

Pourtant, si l’on accepte de séparer publication et propulsion, la question qui se pose n’est plus seulement comment je m’organise pour publier de l’information fraîche pour la mettre dans le flux, ni même sur quels canaux je dissémine mes contenus, mais bien COMMENT et QUAND je propulse dans les flux des informations pertinentes, éventuellement déjà publiées, pour m’adresser à une audience et engager des conversations.

Mais pourquoi est-ce aussi important important de rester dans le Flux ? Thierry Crouzet écrit :

Collectivement, nos amis forment le comité de rédaction de notre média personnalisé. Par le passé, nous avions tous le même rédacteur en chef. C’est terminé. Plus personne ne lit le même journal. La diversité des propulseurs garantit la diversité des informations qui nous parviennent.

Si l’on ajoute à cela qu’en mars dernier pour la première fois sur une semaine complète Facebook a devancé Google en trafic, devenant ainsi le site web le plus visité aux États-Unis, nous sommes en quelque sorte appelés à devenir des mini-médias à fabriquer notre mise à l’agenda pour le public de nos amis (ou followers).

Il devient dès lors essentiel de désynchroniser publication et propulsion et de proposer des Re-flux, manière de réinjecter des contenus en différé sur le front du temps réel (belle idée non ?). C’est une manière de se jouer de la pression de l’actualité sur le temps réel présent.

Ok c’est bien joli mais comment faire ? Deux écoles existent pour remettre dans le flux (i.e. principalement Twitter et Facebook) d’anciens billets : de manière automatisée, ou pas. Grâce à Fabien (merci !), j’ai découvert ce plugin Wordpress : tweet old post qui permet de propulser vers Twitter un ancien billet de manière automatisée. Voilà l’interface de configuration :

Il est possible de définir l’intervalle de publication, l’âge maximum des billets remis en scène et leur catégorie. Attention, il ne faut pas abuser de ce genre d’outil… au risque de perdre la confiance de vos followers si vous proposez une fréquence trop importante. Il s’agit là d’un subtil équilibre qui vise à provoquer la sérendipité sans tomber dans un recyclage excessif. Ainsi, un tel dispositif ne peut fonctionner que sur un volume de billets importants et l’on pourrait même imaginer de consacrer une catégorie à ces billets re-publiables parce que DEliés (ou déliables) d’une actualité dominante. N’oublions pas non plus qu’il s’agit toujours de concevoir Twitter et Facebook, non pas seulement comme des canaux de diffusion, mais comme des outils interactifs. De manière générale, s’il n’y avait qu’un seul billet incontournable à citer sur les usages professionnels de Twitter, ce serait celui-ci. Loic Hay a publié un intéressant diagramme trouvé chez Useo qui indique bien les différents degrés d’engagements qui peuvent être mis en œuvre :

Si l’on considère qu’une diffusion efficace de contenus rédigés est un préalable indispensable à une stratégie d’engagement permettant de dialoguer avec des utilisateurs, alors il s’agit alors de trouver des outils permettant par exemple de programmer des tweets. Pourtant tous ces outils ne sont pas automatisés et obligent à programmer chaque tweet, ce qui est pour le moins fastidieux. Je n’en ai trouvé aucun qui permette de déterminer les meilleurs intervalles et les meilleurs moments pour pousser des billets en fonction de l’analyse de l’activité des followers donc de la probabilité qu’ils accèdent à l’information… (si vous en connaissez, je suis preneur). L’outil statistique le plus abouti que j’ai trouvé permet bien de savoir QUI vous RT le plus mais pas QUAND : il s’appelle Twoolr. Tout au plus ce logiciel, Tweetadder, permet de programmer des tweets aux heures de fréquentation du réseau. Avec Tweetoclock, vous pourrez savoir pour une personne le meilleur moment pour la contacter.

Alors que les bibliothèques investissent beaucoup de temps à rédiger des contenus sur leurs sites/blogs/univers Netvibes, si elles veulent vraiment construire des audiences et engager des conversations elles doivent travailler AUSSI sur la propulsion des contenus en différé.

Pour ma part, j’ai donc choisi d’utiliser tweet old post et d’indiquer les re-publications avec le tag : #REflux. Testé depuis plusieurs jours, la méthode est efficace et permet de pousser des billets vers le haut de la longue traîne de la consultation de mon site, tout en glanant des commentaires et des RT. Combiné à ping.fm, il est possible d’automatiser une publication simultanée sur Twitter et sur Facebook grâce à l’ajout d’un tag #fb.

Alors que la synchronisation de données les plus récentes dans les nuages est une sorte de Graal, on peut susciter la sérendipité et subvertir la forme même du blog en re-publiant d’anciens billets dans les flux communautaires. Sortir des rails de l’actualité, apporter des pépites, du recul et de la perspective en sérendipité dans le flux voilà pourquoi il me semble qu’il faut différer la propulsion de contenus dans le web du temps réel.

Billet initialement publié sur Bibliobsession ; image CC Flickr Stéfan

]]>
http://owni.fr/2010/06/15/publish-wait-spray-spray-again/feed/ 0
Livre numérique: ça va saigner ! http://owni.fr/2010/06/01/le-livre-numerique-ca-va-saigner/ http://owni.fr/2010/06/01/le-livre-numerique-ca-va-saigner/#comments Tue, 01 Jun 2010 12:43:41 +0000 Bibliobsession http://owni.fr/?p=17188 Cette fois c’est parti, comme l’explique Hervé Bienvault qui commente l’interview du Pdg d’Hachette dans le Nouvel Obs :

Avec l’entrée aujourd’hui du catalogue Hachette sur l’iBookStore d’Apple, Hachette exclut le schéma de rester maître de ses propres fichiers, les déversant massivement sur la plateforme d’Apple. Le modèle déporté est abandonné concernant Apple, on voit mal comment il pourrait en être différemment pour Amazon dans les prochains mois. Ce que Sony (on se rappelle qu’Hachette avait initié l’offre avec la Fnac il y a deux ans) et Amazon (qui faisait le siège des éditeurs depuis aussi longtemps) n’avaient pas pu imposer, Apple a bien réussi à le faire en quelques mois de négociation avec un guichet unique d’entrée. Ne va t’on pas assister à un marché à deux vitesses, les fichiers chez les géants américains qui assureront un service-client optimum (authentification, paiement, livraison) sur leurs propres lecteurs et un marché de deuxième zone avec des libraires qui devront se débrouiller avec les plateformes, les hubs, les DRM et les SAV clients qui en découlent?

Hachette est le premier éditeur français à se lancer, nul doute que les autres vont suivre, l’Ipad est lancé, le marché est sur le point de naître. M. Nourry a obtenu ce qu’il évoquait en mars dernier, lors du salon du Livre : un contrat de mandat permettant à l’éditeur de conserver sa politique tarifaire. Alors hop on y va, partout où c’est possible ! En réponse à l’interrogation ci-dessus, je pense que le marché à double vitesse ne fonctionnera pas. Ce qui fonctionnera, ce sont des communautés de niches, des audiences qualifiées d’amateurs, sans intermédiaires. Pourquoi ? Citation du blog Mon Iphone m’a tuer.

Gallimard, Nourry et compagnie raisonnent dans le domaine numérique comme ils raisonnaient dans le domaine papier : la concentration de l’édition industrielle, les moyens importants de production, de diffusion et de promotion y permettaient une politique arrogante de l’offre. L’auteur se mettait à genoux pour obtenir un contrat léonin lui concédant 8 % de droits en moyenne, pour huit semaines d’espérance de vie en librairie (et en moyenne aussi). Le lecteur devait accepter les prix des étals de libraire, où 80 % des titres provenaient de 20 % des producteurs. Tout cela était vanté comme un modèle de diversité, de qualité et d’équité… par ceux qui avaient intérêt à entretenir cette légende. Le livre numérique change la donne. Les contrats directs de diffusion proposés aux auteurs par Apple, Amazon et autres distributeurs accordent 70 % de royalties sur les ventes, soit huit fois plus que le contrat d’éditeur standard dans le monde papier. De surcroît, comme les éditeurs français développent des usines à gaz en diffusion, ils ne garantissent même pas à leurs auteurs d’être présents sur toutes les grandes plateformes existantes ou à venir dans l’année, dont celle de Google en procès avec plusieurs d’entre eux.

Apple, Amazon et Google proposeront des modalités d’affiliation efficaces et disséminées à ces communautés ce qui laissera quelques miettes a des gros sites comme fnac.com et cie, avant que les DRM sautent pour qu’elles aient un peu d’air. Ah oui, j’oubliais, dans quelques mois le piratage va exploser, encouragé par un prix unique du livre homothétique suicidaire.

Plutôt que de donner votre précieux temps de cerveau à lire la prose communicationnelle de M. Nourry, je vous conseille cet excellent décryptage sur le blog Mon iphone m’a tuer. Brosser les libraires dans le sens du poil revient en effet à ce que décrit l’auteur :

C’est un peu comme si l’on prétendait en 2000 que le disquaire est indispensable pour aider le client à choisir dans l’offre pléthorique de musique. Ou que le magasin de vidéo en DVD sera irremplaçable pour aider le pauvre spectateur face à l’abondance de la VOD. Matériellement, le libraire est incapable de lire les 60.000 nouveautés annuelles (ou 600.000 livres disponibles), ce qui rend la valeur de son conseil très relative. Ce n’est pas le cas de la communauté des internautes prise dans son ensemble : celle-ci peut et pourra au contraire produire des commentaires, des conseils et des critiques sur tous les livres, même les plus confidentiels. C’est une des conséquences très intéressantes de la révolution numérique du livre : les lecteurs prennent la parole, se libèrent des « experts » ou des « intermédiaires », permettent éventuellement de faire connaître des auteurs n’ayant pas le chance de plaire aux médias centraux (ou… aux libraires).

Et la conclusion, cinglante et tellement vraie :

Nourry comme Gallimard n’ont pas un mot pour le lecteur, et à peine un demi pour l’auteur, qui sont pourtant l’alpha et l’omega de l’édition. La « chaîne du livre » mérite son nom : si elle n’a d’autre discours que la défense de ses profits parasites, elle doit être brisée.

Je constate, j’observe comme d’autres. Il y a un côté très excitant à tout ça parce plein d’innovations (comme celle-ci) vont arriver et un côté triste aussi. Ce qui est clair, c’est que ça va saigner !

__

Billet initialement publié sur Bibliobsession sous le titre “Le livre numérique, c’est parti et ça va saigner !“.

Crédit photo CC Flickr : Florian_b.

]]>
http://owni.fr/2010/06/01/le-livre-numerique-ca-va-saigner/feed/ 1
Mainstream: une critique, un extrait, une carte et la conclusion http://owni.fr/2010/05/11/mainstream-de-frederic-martel-une-critique-un-extrait-une-carte-et-la-conclusion/ http://owni.fr/2010/05/11/mainstream-de-frederic-martel-une-critique-un-extrait-une-carte-et-la-conclusion/#comments Tue, 11 May 2010 07:30:12 +0000 Bibliobsession http://owni.fr/?p=15223 [Billet publié initialement sur Bibliobsession, le blog de Silvère Mercier, bibliothécaire]

Intéressant livre que j’ai eu la chance de recevoir en Service de Presse. (Merci !). Mainstream, Enquête sur cette culture qui plaît à tout le monde de Frédéric Martel (animateur de l’émission Masse critique sur France Culture) est une vaste enquête sur la culture mondialisée, constituée d’une série d’entretiens commentés et remis en contexte. L’ensemble est à la première personne ce qui est un choix peu habituel sur un tel sujet, mais qui a le mérite de rendre la lecture moins fastidieuse qu’une analyse géopolitique des industries créatives… (car tel est bien le sujet de ce livre).

Attention, amis de la culture avec un grand C passez votre chemin (ou pas) on ne parle pas ici d’œuvres ni d’artistes, mais bien de produits, de stratégies, de marketing, de luttes d’influence entre multinationales pour occuper notre temps de cerveau ! Ces préalables posés, il est intéressant je trouve de prendre la mesure de ces phénomènes massifs, même si nous sommes ici du côté de l’offre ce qui comporte des limites certaines au projet, exposées dans ce résumé du livre de J-P Warnier : La mondialisation de la Culture (2003) :

J.-P. Warnier considère que les théories de la convergence culturelle se sont révélées fausses. Toutes les visions macrosociologiques sont victimes d’un contresens méthodologique : leur objet d’étude étant la production de biens culturels au niveau mondial, elles privilégient l’étude de l’offre. Or, si l’analyse se concentre sur la réception au niveau local de ces biens, on constate alors que cette offre mondiale est « décodée, recodée, domestiquée et réappropriée ». L’auteur critique ainsi toutes les théories globalisantes, qu’elles soient culturalistes, comme celle d’Huntington (qui privilégie les revendications culturelles comme facteur explicatif des conflits), ou politiques, comme celle de Ramonet (dont la géopolitique mondiale expliquerait les phénomènes culturels). Il faut privilégier une approche anthropologique, qui permet une lecture du fait culturel local : l’auteur se rattache ouvertement à la thèse de J.-F. Bayart selon laquelle la dynamique sociale et les conflits qui en découlent « mobilisent et structurent les identifications culturelles » en fonction des intérêts des groupes sociaux. Finalement, l’américanisation est, pour l’auteur, un faux débat : la modernité aurait plutôt à faire face à « l’éclatement des référents culturels ». La tradition locale, le terroir sont encore des leviers puissants de différenciation culturelle.

Quoi qu’il en soit, on comprendra mieux par exemple la vivacité de la lutte de la MPAA contre le piratage aux USA en considérant la place du copyright dans l’écosystème économique des industries créatives! Pour autant, il me semble que ce livre est bien trop léger sur les impacts du numérique sur les stratégies des industries créatives.

Et pour cause, les entretiens ont déjà quelques années et le secteur évolue à vitesse grand V, l’ensemble donne l’impression d’une photographie déjà jaunie. On peut se demander par exemple si l’enjeu n’est pas plus aujourd’hui dans le contrôle des data centers que dans le nombre de multiplexes implantés sur un territoire…

Malgré tout, on apprendra comment Murdoch s’est cassé les dents en Chine dans les années 90 et comment l’Inde représente le nouvel Eldorado pour les industries créatives Américaines. Très intéressant aussi de voir comment les pays émergents essaient de construire leur propres industries créatives face aux Américains.

On se rend compte que l’impérialisme US est bel et bien à relativiser (en même temps on le savait déjà…) ! Les USA sont en effet bien moins idéologiques qu’on ne le pense, à voir leur capacité d’adaptation à des marchés étrangers, on se rend vite compte qu’il s’agit bien plus de capitalisme en bonne et due forme qu’une volonté d’imposer une domination culturelle (même si l’un est étroitement lié à l’autre).

Voilà en passant, un instantané des industries créatives dans la Chine d’aujourd’hui qui m’a intéressé, extrait :

“En discutant avec un marchand de CD et de DVD à Shanghai, j’ai compris pourquoi les DVD de contrefaçon ressemblaient tellement aux véritables DVD : “Ne soyez pas stupide, m’a dit le vendeur (sous condition d’anonymat, et traduit par mon interprète). Ce sont bien sûr les mêmes usines qui fabriquent les DVD légaux et ceux qui sont illégaux. c’est exactement comme pour les stylos Montblanc et les montres Rolex.” Et dans le magasin, il m’a montré les DVD “vrais” mêlés aux “faux” – et vice versa. Les Américains, eux aussi, ont compris la ruse et ils ont trouvé cela moins drôle que moi. Ils ont même constaté, en se livrant à un petit exercice d’espionnage, en modifiant certaines images d’un film test, que les longs métrages qu’ils soumettaient à la censure chinoise se retrouvaient au marché noir même lorsqu’ils étaient refusés – détournement ahurissant qui en dit long sur l’état de la corruption dans la Chine communiste. Du coup ils ont attaqué la Chine devant l’OMC pour atteinte aux lois internationales du copyright et pour dénoncer son laisser-faire en matière de piratage sauvage. (Plusieurs de mes interlocuteurs font également l’hypothèse que les Américains diffusent délibérément leus films sur le marché noir pour habituer les Chinois aux blockbusters qu’ils ne peuvent pas diffuser légalement.) “On ne peut pas arrêter le piratage, relativise cependant, à Hong Kong, Gary Chan Chi Kwong, le patron d’East Asia Media, l’une des plus importantes maison de disque en Asie. C’est la même usine qui fabrique les CD légaux et les autres. On sait ça. On garde un œil ouvert et un œil fermé : on essaie de lutter mais on laisse faire aussi, car c’est absolument impossible d’arrêter la contrefaçon.”

Ce passage me semble révélateur des ambiguïtés de la lutte contre le piratage, entre sauvegarde d’un modèle économique inadapté, nouveaux usages massifs, mais aussi (et on l’oublie souvent dans les discours sur le piratage) enjeux géopolitiques de conquête de nouveaux marchés de la culture mondialisée.

Pour conclure, un livre intéressant, mais qui sera vite dépassé… Je vous propose cette petite carte heuristique faite par mes soins à partir de la conclusion de ce livre, soyez indulgents, il s’agissait d’être vraiment synthétique et de fixer quelques idées !

Enfin, la bonne nouvelle, c’est que vous pouvez lire en intégralité ici la conclusion du livre:

Illustration CC Flickr par Express Monorail

]]>
http://owni.fr/2010/05/11/mainstream-de-frederic-martel-une-critique-un-extrait-une-carte-et-la-conclusion/feed/ 3