OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Le prix de l’information http://owni.fr/2012/11/22/le-prix-de-l-information/ http://owni.fr/2012/11/22/le-prix-de-l-information/#comments Thu, 22 Nov 2012 11:56:24 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=126458

Without a Face, a portrait of the Soul - Photo CC by familymwr

“Information wants to be free”, vous vous souvenez ?

C’est sans toute l’une des phrases les plus célèbres prononcées à propos d’Internet. En 1984, l’auteur américain Stewart Brand lance au cours de la première Hacker’s Conference organisée en Californie :

Information wants to be free.

Ces mots deviendront l’un des slogans les plus forts du mouvement de la Culture libre et ils rencontrent encore aujourd’hui des échos importants, avec l’affaire WikiLeaks par exemple, les révolutions arabes ou le mouvement de l’Open Data. L’idée de base derrière cette formule consiste à souligner que l’information sous forme numérique tend nécessairement à circuler librement et c’est la nature même d’un réseau comme internet de favoriser cette libération.

Mais les choses sont en réalité un peu plus complexe et Stewart Brand dès l’origine avait parfaitement conscience que la libre circulation de l’information était une chose qui engendrerait des conflits :

D’un côté, l’information veut avoir un prix, parce qu’elle a tellement de valeur. Obtenir la bonne information au bon endroit peut juste changer toute votre vie. D’un autre côté, l’information veut être libre, parce que le coût pour la produire tend à devenir continuellement de plus en plus bas. Nous avons une lutte entre ces deux tendances.

Ce conflit latent traverse toute l’histoire d’Internet et il atteint aujourd’hui une forme de paroxysme qui éclate dans une affaire comme celle de la Lex Google.

Encapsuler l’information

Pour obliger le moteur de recherche à participer à leur financement, les éditeurs de presse en sont à demander au gouvernement de créer un nouveau droit voisin à leur profit, qui recouvrira les contenus qu’ils produisent et soumettra l’indexation, voire les simples liens hypertexte, à autorisation et à redevance.

Il est clair que si de telles propositions se transforment en loi dans ces termes, la première tendance de Stewart Brand aura remporté une victoire décisive sur l’autre et une grande partie des informations circulant sur Internet ne pourra plus être libre. La Lex Google bouleverserait en profondeur l’équilibre juridique du droit de l’information.

En effet, c’était jusqu’alors un principe de base que le droit d’auteur protège seulement les oeuvres de l’esprit, c’est-à-dire les créations originales ayant reçu un minimum de mise en forme. Cette notion est certes très vaste puisqu’elle englobe toutes les créations “quels qu’en soient le genre, la forme d’expression, le mérite ou la destination”, mais elle ne s’applique pas aux idées, aux données brutes et à l’information qui ne peuvent pas faire l’objet d’une appropriation et demeurent “de libre parcours”.

Une presse sans copyright

Une presse sans copyright

Les articles de presse doivent-ils être protégés par le droit d'auteur ? Ce n'est pas l'avis d'un récent arrêt d'une ...

Ces éléments forment un “fonds commun”, comme le dit le professeur Michel Vivant, dans lequel chacun peut venir puiser librement sans entrave pour alimenter ses propres réflexions et créations. Tout comme le domaine public, ce fonds commun joue un rôle primordial dans l’équilibre du système, afin que le droit d’auteur n’écrase pas d’autres valeurs fondamentales comme le droit à l’information ou la liberté d’expression.

Créer un droit voisin sur les contenus de presse reviendrait à “encapsuler” l’information dans une carapace juridique et à anéantir une grande partie de ce domaine public informationnel. L’information en elle-même, et non son expression sous forme d’articles, passerait subitement en mode propriétaire, avec même une mise en péril du simple droit à la citation.

À vrai dire, cette tendance à l’appropriation existe depuis longtemps. Elle s’est déjà manifestée par la création d’un droit des bases de données dans les années 90, dont l’application soulève de nombreuses difficultés. Des signes plus récents montrent qu’un revirement plus profond encore est en train de s’opérer dans la conception de la protection de l’information.

Les dépêches de l’AFP ont ainsi longtemps bénéficié d’une sorte de statut dérogatoire, comme si l’information brute qu’elle contenait et qu’elles étaient destinées à véhiculer primait sur le droit à la protection. Les juges considéraient traditionnellement que ces dépêches n’étaient pas suffisamment originales pour qu’on puisse leur appliquer un droit d’auteur, ce qui garantissait leur libre reprise. Mais l’AFP s’est efforcée de renverser le principe, en attaquant dès 2005 Google News devant les tribunaux, ce qui préfigurait d’ailleurs très largement les débats autour de la Lex Google.

Or en février 2010, le Tribunal de commerce de Paris a reconnu que les dépêches pouvaient présenter une certaine forme d’originalité susceptible d’être protégée :

[...] Attendu que les dépêches de l’AFP correspondent, par construction, à un choix des informations diffusées, à la suite le cas échéant de vérifications de sources, à une mise en forme qui, même si elle reste souvent simple, n’en présente pas moins une mise en perspective des faits, un effort de rédaction et de construction, le choix de certaines expressions [...]

L’affaire a été portée en appel, mais en attendant, l’information brute se trouve bien à nouveau recouverte par le droit d’auteur.

Demain, tous des parasites informationnels ?

Une affaire récente, qui a défrayé la chronique, va encore plus loin et elle pourrait bien avoir des retentissements importants, puisqu’elle tend à faire de chacun de nous des parasites en puissance de l’information, attaquables devant les tribunaux.

Jean-Marc Morandini vient en effet d’être condamné à verser 50 000 euros au journal Le Point, qui l’accusait de piller régulièrement la partie Médias 2.0 de son site, afin d’alimenter ses propres chroniques. Le jugement de la Cour d’Appel de Paris qui a prononcé cette condamnation est extrêmement intéressant à analyser, car il nous ramène au coeur de la tension autour de l’information libre formulée par Stewart Brand.

L’AFP peut-elle survivre au web et aux réseaux?

L’AFP peut-elle survivre au web et aux réseaux?

Institution de l'information, l'AFP traverse, comme beaucoup de médias, une phase de remise en question de son modèle ...

En effet, le juge commence logiquement par examiner si les articles repris sur Le Point peuvent bénéficier de la protection du droit d’auteur. Et là, surprise, sa réponse est négative, en vertu d’un raisonnement qui rappelle la position traditionnelle sur les dépêches AFP. La Cour estime en effet que les brèves figurant dans cette rubrique Medias 2.0 constituent des articles “sans prétention littéraire, ne permet[tant] pas à leur auteur, au demeurant inconnu, de manifester un véritable effort créatif lui permettant d’exprimer sa personnalité”. C’est dire donc qu’elles ne sont pas suffisamment originales pour entrer dans le champ du droit d’auteur, le journaliste qui les rédige (Emmanuel Berretta) se contentant de diffuser de l’information brute.

Nous sommes donc bien en dehors de la sphère de la contrefaçon, mais les juges ont tout de même estimé que Morandini méritait condamnation, sur la base du fondement de la concurrence déloyale et du parasitisme. La Cour reconnaît que le journaliste imite Le Point “avec suffisamment de différences pour éviter le plagiat, notamment en modifiant les titres des brèves et articles repris”, mais elle ajoute qu’il tend ainsi ainsi “à s’approprier illégitimement une notoriété préexistante sans développer d’efforts intellectuels de recherches et d’études et sans les engagements financiers qui lui sont normalement liés”. Plus loin, elle explique qu’ “il ne suffit pas d’ouvrir une brève par la mention “Selon le journal Le Point” pour s’autoriser le pillage quasi systématique des informations de cet organe de presse, lesquelles sont nécessairement le fruit d’un investissement humain et financier considérable”.

On est donc en plein dans la première partie de la citation de Stewart Brand : “information wants to be expensive, because it’s so valuable”. L’avocat du Point commentait de son côté la décision en ces termes :

Qu’il y ait une circulation de l’information sur Internet, du buzz, des reprises…, c’est normal, c’est la vie du Web, reprend Me Le Gunehec. Nous l’avions dit franchement à la cour d’appel, et elle le sait bien. Mais elle a voulu rappeler qu’il y a une ligne jaune : se contenter de reprendre les informations des autres, sous une forme à peine démarquée, avec quelques retouches cosmétiques pour faire croire à une production maison, cela ne fait pas un modèle économique acceptable. Et on pourrait ajouter : surtout quand cette information est exclusive.

Cette dernière phrase est très importante. Ce qu’elle sous-entend, c’est que celui qui est à l’origine d’une information exclusive devrait pouvoir bénéficier d’un droit exclusif sur celle-ci pour pouvoir en contrôler la diffusion et la monétiser. La logique du droit jusqu’à présent était pourtant exactement inverse : pas de droit exclusif sur l’information elle-même…

Sans avoir aucune sympathie particulière pour Morandini, il faut considérer qu’un tel raisonnement peut aboutir à nous rendre tous peu ou prou des parasites de l’information, car nous passons notre temps à reprendre des informations piochées en ligne sur Internet. Certains commentaires ont d’ailleurs fait remarquer à juste titre que cette jurisprudence heurtait de front le développement des pratiques de curation de contenus en ligne.

Revendiquer un droit exclusif sur l’information brute elle-même, différent du droit d’auteur sur son expression, c’est d’une certaine façon courir le risque de permettre l’appropriation de la réalité elle-même. Qu’adviendrait-il d’un monde où l’information serait ainsi protégée ? Un monde où l’information est copyrightée ?

Paranoia - Photo CC byncsa perhapsiam

Science-fiction

Il se trouve que la science-fiction a déjà exploré cette possibilité et la vision qu’elle nous livre est assez troublante et donne beaucoup à réfléchir sur cette crispation que l’on constate à propos du droit de l’information.

Dans sa nouvelle d’anticipation “Le monde, tous droits réservés” figurant dans le recueil éponyme, l’auteur Claude Ecken imagine justement un mode dans lequel l’information pourrait être copyrightée et les conséquences que cette variation pourrait avoir sur les médias et la société dans son ensemble.

L’information « papier » est hors de prix

L’information « papier » est hors de prix

Quelles sont les offres payantes en France tant en papier que sur le web et sont-elles attractives ? Marc Mentré nous livre ...

Dans un futur proche, l’auteur envisage que la loi a consacré la possibilité de déposer un copyright sur les évènements, d’une durée de 24 heures à une semaine, qui confère un droit exclusif de relater un fait, empêchant qu’un concurrent puisse le faire sans commettre un plagiat. A l’inverse de ce qui se passe aujourd’hui avec la reprise des dépêches des agences AFP ou Reuters, les organes de presse se livrent à une lutte sans merci pour être les premiers à dénicher un scoop sur lequel elles pourront déposer un copyright.

L’intérêt de la nouvelle est de développer dans le détail les implications juridiques et économiques d’un tel mécanisme. Les témoins directs d’un évènement (la victime d’une agression, par exemple) disposent d’un copyright qu’ils peuvent monnayer auprès des journalistes. Lorsqu’une catastrophe naturelle survient, comme un tremblement de terre, c’est cette fois le pays où l’évènement s’est produit qui détient les droits sur l’évènement, qu’elle vendra à la presse pour financer les secours et la reconstruction.

Et immanquablement, cette forme d’appropriation génère en retour des formes de piratage de l’information, de la part de groupuscules qui la mettent librement à la disposition de tous sous la forme d’attentats médiatiques, férocement réprimés par le pouvoir en place, ce qui rappelle étrangement l’affaire WikiLeaks, mais portée à l’échelle de l’information générale.

Si Claude Ecken s’applique à démontrer les dangers d’un tel système, il laisse aussi son héros en prendre la défense :

Avant la loi de 2018, les journaux d’information se répétaient tous. Leur spécificité était le filtre politique interprétant les nouvelles selon la tendance de leur parti. Il existait autant d’interprétations que de supports. Le plus souvent, aucun des rédacteurs n’avait vécu l’évènement : chacun se contentait des télex adressés par les agences de presse. On confondait journaliste et commentateur. Les trop nombreuses prises de position plaidaient en faveur d’une pluralité des sources mais cet argument perdit du poids à son tour : il y avait ressassement, affadissement et non plus diversité. L’information était banalisée au point d’être dévaluée, répétée en boucle à l’image d’un matraquage publicitaire, jusqu’à diluer les événements en une bouillie d’informations qui accompagnait l’individu tout au long de sa journée. Où était la noblesse du métier de journaliste ? Les nouvelles n’étaient qu’une toile de fond pour les médias, un espace d’animation dont on ne percevait plus très bien le rapport avec le réel. Il était temps de revaloriser l’information et ceux qui la faisaient. Il était temps de payer des droits d’auteur à ceux qui se mouillaient réellement pour raconter ce qui se passait à travers le monde.

Dans un commentaire de la décision rendue à propos de Morandini, on peut lire ceci : “Même sur Internet, le journaliste se doit d’aller chercher lui-même l’information !”. Vous voyez donc que l’on n’est plus très loin de l’histoire imaginée par Claude Ecken.

Eye of the Holder - Photo CC by familymwr retouchée par Owni

JO 2012 © : cauchemar cyberpunk

JO 2012 © : cauchemar cyberpunk

Dans la littérature cyberpunk, de grandes firmes ont supplanté l'État, qui leur a octroyé des pouvoirs exorbitants. Ce ...

Information wants to be free… c’était le rêve qu’avait fait la génération qui a assisté à la mise en place d’internet, puis du web, et ce rêve était beau. Mais la puissance de la pulsion appropriatrice est si forte que c’est une dystopie imaginée par la science-fiction qui est en train de devenir réalité, à la place de l’utopie d’une information libre et fluide. Avec l’information brute, c’est la réalité elle-même que l’on rend appropriable, ce qui rappelle également les dérives dramatiques que l’on avait pu constater lors des derniers Jeux Olympiques de Londres, à l’occasion desquels les autorités olympiques avaient défendu leurs droits exclusifs sur l’évènement avec une férocité alarmante.

Il existe pourtant une autre façon de concevoir les choses, à condition de quitter le prisme déformant des droits exclusifs. Au début de la polémique sur la Lex Google, j’avais en effet essayé de montrer que l’on peut appliquer le système de la légalisation du partage non-marchand aux contenus de presse et que si on le couple à la mise en place d’une contribution créative, il pourrait même assurer aux éditeurs et aux journalistes des revenus substantiels tout en garantissant la circulation de l’information et la liberté de référencer.

L’information veut être libre, mais il nous reste à le vouloir aussi.


“Without a Face, a portrait of the Soul”Photo CC [by] familymwr ; “paranoia”Photo CC [byncsa] perhapsiam ; “Eye of the Holder” – Photo CC [by] familymwr, retouchée par Owni.
Image de une : “La Gioconda avec Paper Bag”Photo CC [bync] Otto Magus.

]]>
http://owni.fr/2012/11/22/le-prix-de-l-information/feed/ 13
L’Espagne lève le voile de l’information http://owni.fr/2012/04/10/l%e2%80%99espagne-leve-le-voile-de-linformation/ http://owni.fr/2012/04/10/l%e2%80%99espagne-leve-le-voile-de-linformation/#comments Tue, 10 Apr 2012 13:26:01 +0000 Emmanuel Haddad http://owni.fr/?p=105055

Les pouvoirs publics faciliteront, de préférence par des moyens électroniques, l’information dont la divulgation s’avère d’importance majeure pour garantir la transparence de leur activité, en tenant compte des limites présentées dans cette loi.

Huit ans qu’ils l’attendaient ! Huit longues années à mendier la concrétisation d’une promesse électorale du socialiste José Luis Zapatero, une première fois en 2004, puis réitérée en 2008, après sa réélection comme président du gouvernement espagnol… En vain. Jusqu’à ce Conseil des ministres du 23 mars, où le gouvernement conservateur dirigé par Mariano Rajoy a annoncé que l’avant-projet de loi sur la transparence serait mis en œuvre.

Cancre européen

C’est le soulagement dans les rangs de ceux qui ont soutenu ce projet, comme Jesús Lizcano, professeur d’économie financière à l’université autonome de Madrid et président de Transparency International en Espagne :

Mieux vaut tard que jamais. C’est absolument nécessaire pour améliorer la qualité de notre démocratie et la participation citoyenne… Et pour nous élever au niveau de nos voisins.

Car l’Espagne était le dernier pays d’Europe de plus d’un million d’habitants à ne pas disposer de loi sur la transparence. Reste Chypre, Malte et le Luxembourg. De quoi faire dire à un journaliste d’El Pais :

Le manque de transparence semble être quelque chose d’instauré dans la culture politique espagnole.

Les militants du droit d’accès des citoyens à l’information publique voient leurs efforts récompensés. Victoria Anderica, coordinatrice de la campagne d’Access Info Europe, une des entités pionnières de la coalition raconte :

En 2006, il y avait sept organisations dans la Coalición Pro Acceso [Coalition Pro Accès, ndlr]. Aujourd’hui, on compte 56 membres qui demandent une loi d’accès à l’information publique, parmi lesquels Access Info Europe, Amnistie International ou Ecologistas en Accion.

Six années de silence administratif et de promesses non tenues. “En 2010, nous avons fait une expérimentation, la campagne des 100 questions pour mesurer le niveau de transparence des administrations”, poursuit-elle. Les requêtes ne sont pas anodines : le nombre de soldats tués en Irak et en Afghanistan, les dépenses de la Présidence de l’UE ou de la candidature de Madrid aux JO 2016, ou encore les déplacements à l’étranger du maire de la capitale. Chaque fois, la même réponse qui ne vient pas : silence administratif. Victoria a calculé :

Au total, 50% de nos demandes ne reçoivent pas de réponse et parmi les réponses, seules 20% sont recevables.

Malgré les défauts du projet, l’important est d’aller de l’avant. Jesús Lizcano se montre optimiste :

Je pense, comme beaucoup d’observateurs, que le projet de loi ne met pas en place les instruments nécessaires pour instaurer une vraie transparence. Au niveau de la bonne gouvernance par contre, les progrès sont notables. Nous pouvons améliorer ce projet de loi grâce à la consultation publique.

Car l’Espagne a beau avoir du retard, elle tient à se placer à “l’avant-garde mondiale”, martèle-t-on au gouvernement. Les citoyens peuvent donc envoyer leurs propositions au législateur pendant quinze jours, lequel les prendra en compte pour le texte de loi final. Promet-on.

Droit à savoir

Les citoyens espagnols ont du pain sur la planche, tant les lacunes demeurent. Une pétition en ligne vient même d’être lancée pour obliger le gouvernement à proposer une nouvelle loi plus aboutie. Victoria est rebutée par les nombreuses exceptions prévues :

La Coalition Pro Accès propose dix principes minimum pour garantir le droit à l’information publique et le projet est loin de les inclure. En particulier le droit à l’information publique n’est pas défini comme un droit fondamental et il n’y a pas d’organe indépendant pour le défendre.

L’Agence espagnole de protection des données devient d’un coup de baguette magique l’Agence espagnole de protection des données et d’accès à l’information. C’est elle qui répondra aux réclamations. Le projet de loi [pdf] prévoit que :

En cas d’absence de résolution au bout de deux mois, la réclamation sera considérée comme rejetée.

Le directeur de l’actuelle Agence de protection des données, dite indépendante, est nommé par le gouvernement sur conseil du ministre de la Justice [pdf]. Le président de Transparency International en Espagne prévient :

Seul le Parlement peut refuser cette nomination à la majorité absolue. Ce qui est impossible actuellement. La politisation du projet est donc une entrave à la transparence. Mais ce n’est pas la seule. Au sein de l’administration, les fonctionnaires ont l’impression de trahir leurs supérieurs en livrant une information au citoyen, d’où cette inertie qui domine. Dorénavant, ils vont devoir changer pour respecter la loi.

La formation des fonctionnaires sera un des deux défis pour faire de cette loi un succès. L’autre tient à l’envie des citoyens de s’informer. Là-dessus, tous les yeux sont tournés vers le Royaume-Uni, pionnier de l’open governement en Europe. La plateforme whatdotheyknow a beaucoup inspiré tuderechoasaber (“ton droit à savoir”, ndlr), un outil créé par les membres de la Coalición Pro Acceso pour que les citoyens puissent exercer leur droit à l’information de la manière la plus simple et rapide possible.

Contre l’opacité, le journalisme de données

Tout reste à faire et l’optimisme de Jesús Lizcano, combiné aux initiatives de la coalition des militants du droit à l’information fera peut-être taire les critiques. Reste un regret. Que l’accent soit porté sur le code de bonne gouvernance est un moyen d’insuffler la crédibilité dont l’Espagne, réputée pour la corruption de sa classe politique, a besoin sur les marchés. Le gouvernement instrumentalise en effet cette loi pour plaire à Bruxelles, inquiet de voir la dette publique espagnole à son plus haut niveau depuis 22 ans, et culpabiliser le PSOE d’avoir truqué les chiffres du déficit en quittant le pouvoir.

Mais vu de l’intérieur, on craint un effet d’annonce. C’est ce qui s’est passé avec la loi de 2006 sur l’accès à l’information sur l’environnement. Malgré l’obligation administrative de livrer toute information environnementale, l’ONG Oceana a attendu cinq ans avant de recevoir le rapport de l’Institut Espagnol d’Océanographie révélant la pollution au mercure de plusieurs espèces de poissons, de l’espadon au thon rouge en passant par le requin.

Pour éviter qu’un tel silence ne se reproduise, Victoria a une recette à l’accent indigné :

Ne pas avoir peur du paternalisme de l’État espagnol, qui pense trop souvent que les citoyens ne sont pas capables de manier l’information qui les concerne.

En ajoutant, en guise de première pierre, à la naissance de la Loi sur la transparence celle d’un premier groupe de journalisme de données.

Photos CC Flickr Attribution ‘Playingwithbrushes’ et Attribution jenny downing

]]>
http://owni.fr/2012/04/10/l%e2%80%99espagne-leve-le-voile-de-linformation/feed/ 7
Penser le futur du web http://owni.fr/2011/10/25/futur-web-moteur-recherche-donnees-reseau/ http://owni.fr/2011/10/25/futur-web-moteur-recherche-donnees-reseau/#comments Tue, 25 Oct 2011 16:41:02 +0000 Olivier Ertzscheid http://owni.fr/?p=84609

Qu’y aura-t-il demain sous nos moteurs ? Moteurs de recherche et réseaux sociaux occupent une place chaque jour plus prépondérante dans nos accès à l’information et à la connaissance. Ils suscitent également de vives interrogations, notamment dans leur capacité à rendre indexables des informations relevant indistinctement des sphères publiques, privées et intimes des contenus disponibles en ligne.

Enfin, inaugurés par le “like” de Facebook, les systèmes de recommandation se multiplient, venant concurrencer ou remplacer l’établissement de liens hypertextes et suscitant de nouveaux usages, de nouvelles métriques. Par ailleurs, la famille documentaire s’est agrandie : les encyclopédies sont devenus collaboratives, d’immenses silos documentaires sont apparus (YouTube, Flickr, etc.), les profils humains sont devenus des objets de “collection”.

Ce qui a réellement changé : capter l’attention

Question d’économies. Dans le contexte d’une abondance de contenus informationnels, prévaut une économie de l’attention hypothéquée par la capacité à mettre en place une économie de la confiance (Trust economy) avec la foule comme support (crowdsourcing), la modélisation de la confiance comme vecteur, et de nouvelles ingénieries relationnelles comme technologie.

La force des métadonnées. Pour les moteurs mais aussi pour les réseaux sociaux, toutes les données sont ou peuvent devenir des métadonnées, qui dessinent des comportements (pas uniquement documentaires) en même temps qu’elles permettent de caractériser la motivation de ces mêmes comportements. Chaque clic, chaque requête, chaque comportement connecté fait fonction de métadonnée dans une sorte de panoptique global.

Le web invisible ne l’est plus vraiment. Le défi technologique, après avoir été celui de la masse des documents indexés, devient celui de la restitution en temps quasi-réel du rythme de publication propre au web (“world live web”). Pour accomplir ce miracle, il faut aux outils de captation de notre attention que sont les moteurs et les réseaux sociaux, une architecture qui entretiennent à dessein la confusion entre les sphères de publication publiques, intimes et privées.

Rendre compte de la dissémination et du mouvement

La naissance de l’industrie de la recommandation et des moteurs prescripteurs. La recommandation existe de toute éternité numérique, mais elle est désormais entrée dans son ère industrielle. Moteurs et réseaux sociaux fonctionnent comme autant de prescripteurs, soit en valorisant la capacité de prescription affinitaire des “proches”, des “amis” ou des “collaborateurs” de l’internaute (boutons “like” et “+1″), soit en mettant en avant les comportements les plus récurrents de l’ensemble de leurs utilisateurs.

De nouvelles indexations. Après l’indexation des mots-clés, des liens hypertextes, des images, de la vidéo, des profils, il faut maintenant apprendre à indexer, à mettre en mémoire, la manière dont circule l’information, être capable de rendre compte de cette dynamique virale, capable de prendre en compte la dissémination, l’écho, l’effet de buzz que produisent les innombrables “boutons poussoir” présents sur chaque contenu informationnel pour lui assurer une dissémination optimale.

Navigation virale ou promenade carcérale ? L’approche fermée, propriétaire, compartimentée, concurrentielle, épuisable de l’économie du lien hypertexte que proposent les systèmes de recommandation, ne peut mener qu’à des systèmes de nature concentrationnaire. Des écosystèmes de l’enfermement consenti, en parfaite contradiction avec la vision fondatrice de Vannevar Bush selon laquelle la parcours, le chemin (“trail”) importe au moins autant que le lien. Les ingénieries relationnelles des systèmes de recommandation – de celui d’Amazon au Like de Facebook – ressemblent davantage à une promenade carcérale qu’à une navigation affranchie parce qu’elles amplifient jusqu’à la démesure la mise en avant de certains contenus au détriment de la mise au jour d’une forme de diversité.

Brassage des données dans un “jardin fermé”

Un nouveau brassage. La recherche universelle, désignant la capacité pour l’utilisateur de chercher simultanément dans les différents index (et les différentes bases de données) proposés par les moteurs de recherche, ouvre un immense champ de possibles pour la mise en œuvre d’algorithmes capables de prendre en charge les paramètres excessivement complexes de la personnalisation, de la gestion des historiques de recherche, de l’aspect relationnel ou affinitaire qui relie un nombre de plus en plus grand d’items, ou encore du brassage de ces gigantesques silos de donnés. Un brassage totalement inédit à cette échelle.

Le mirage des nuages. De rachats successifs en monopoles établis, l’extrême mouvement de concentration qui touche la médiasphère internautique fait débat. D’un immense écosystème ouvert, le web mute aujourd’hui en une succession de ce que Tim Berners Lee nomme des “walled gardens”, des “jardins fermés”, reposant sur des données propriétaires et aliénant leurs usagers en leur interdisant toute forme de partage vers l’extérieur. L’enjeu n’est alors plus simplement celui de l’ouverture des données, mais celui de la mise en place d’un méta-contrôle, un contrôle accru par la migration de l’essentiel de nos données sur les serveurs des sociétés hôtes, grâce à la banalisation du cloud computing : l’essentiel du matériau documentaire qui définit notre rapport à l’information et à la connaissance étant en passe de se retrouver entre les mains de quelques sociétés marchandes

Et tout ça pour quoi ? Il s’agit de porter à visibilité égale des contenus jusqu’ici sous-utilisés ou sous-exploités, pour augmenter leur potentiel marchand en dopant de la sorte le rendement des liens publicitaires afférents. Un objectif qui ne peut être atteint sans la participation massive des internautes.

La marchandisation de toute unité documentaire recensée

Le web personnel. La pertinence et la hiérarchisation d’un ensemble de contenus hétérogènes n’a de sens qu’au regard des intérêts exprimés par chacun dans le cadre de ses recherches précédentes. La condition sine qua non de la réussite d’une telle opération est le passage au premier plan de la gestion de l’historique des recherches individuelles.

Algorithmie ambiante. A la manière de l’informatique “ambiante” qui a vocation à se diluer dans l’environnement au travers d’interfaces prenant la forme d’objets quotidiens, se dessinent les contours d’une algorithmie également ambiante, c’est à dire mettant sous la coupe de la puissance calculatoire des moteurs, la moindre de nos interactions en ligne.

Marchands de documents. Derrière cette algorithmie ambiante on trouve la volonté déterminée d’optimiser encore davantage la marchandisation de toute unité documentaire recensée, quelle que soit sa sphère d’appartenance d’origine (publique, prive, intime), sa nature médiatique propre (image, son, vidéo, page web, chapitre de livre, etc…), sa granularité (un extrait de livre, un billet de blog, un extrait de vidéo …) et son taux de partage sur le réseau (usage personnel uniquement, usage partagé entre « proches », usage partagé avec l’ensemble des autres utilisateurs du service).

Une base de données des intentions

La recherche prédictive. Les grands acteurs du web disposent aujourd’hui d’une gigantesque “base de donnée des intentions” (concept forgé par John Battelle), construite à l’aide de nos comportements d’achats, de l’historique de nos requêtes, de nos déplacements (géolocalisation), de nos statuts (ce que nous faisons, nos centres d’intérêt), de nos “amis” (qui nous fréquentons). Une base de donnée des intentions qui va augmenter la “prédictibilité” des recherches. Et donc augmenter également leur valeur transactionnelle, leur valeur marchande.

Recherche de proximité et moteurs de voisinage. A l’aide de moteurs comme Intelius.com ou Everyblock.com, il est possible de tout savoir de son voisin numérique, depuis son numéro de sécurité sociale jusqu’à la composition ethnique du quartier dans lequel il vit, en passant par le montant du bien immobilier qu’il possède ou l’historique de ses mariages et de ses divorces. Toutes ces informations sont – aux États-Unis en tout cas – disponibles gratuitement et légalement. Ne reste plus qu’à les agréger et à faire payer l’accès à ces recoupements numériques d’un nouveau genre. Surveillance et sous-veillance s’affirment comme les fondamentaux de cette nouvelle tendance du “neighboring search.

Pourquoi chercher encore ? Le nouvel horizon de la recherche d’information pose trois questions très étroitement liées. Demain. Chercherons-nous pour retrouver ce que nous ou nos “amis” connaissent déjà, permettant ainsi aux acteurs du secteur de vendre encore plus de “temps de cerveau disponible” ? Chercherons-nous simplement pour acheter, pour consommer et pour affiner le modèle de la base de donnée des intentions ? Ou pourrons-nous encore chercher pour dmoteuécouvrir ce que nous ne savons pas (au risque de l’erreur, de l’inutile, du futile) ?

Les risques d’une macro-documentation du monde

Le web était un village global. Son seul cadastre était celui des liens hypertexte. Aujourd’hui, les systèmes de recommandation risquent de transformer le village global en quelques immeubles aux incessantes querelles de voisinage.

Un web hypermnésique et des moteurs omniscients. Aujourd’hui le processus d’externalisation de nos mémoires documentaires entamé dans les années 1980 avec l’explosion des mémoires optiques de stockage est totalement servicialisé et industrialisé. L’étape suivante pourrait ressembler à l’hypermnésie. Celle dont souffre Funès dans la nouvelle de Borges. Mais cette hypermnésie est aujourd’hui calculatoire, algorithmique, ambiante. Elle est massivement distribuée, ce qui lui confère cette impression de dilution, de non-dangerosité. Mais quelques acteurs disposent des moyens de l’activer et de tout rassembler. Pour l’instant ce n’est que pour nous vendre de la publicité, du temps de cerveau disponible. Mais que deviendrait cette arme hypermnésique entre les mains d’états ? Nous avons tendance à oublier l’importance de se souvenir puisqu’il est devenu possible de tout se remémorer.

Des enjeux de politique … documentaire. La deuxième question c’est celle de l’écosystème informationnel que nous souhaitons pour demain. Ne rien dire aujourd’hui, c’est consentir. Il est aujourd’hui absolument nécessaire d’ouvrir un débat autour de l’écosystème non plus simplement documentaire mais politique que les moteurs représentent, il est vital de s’interroger sur la manière dont cet écosystème documentaire conditionne notre biotope politique et social … Or toutes ces questions sont par essence documentaires, ce sont les questions que posent une macro-documentation du monde. Voilà pourquoi le rôle des professionnels de l’information est et sera absolument déterminant.


Billet initialement publié sur affordance.info, sous le titre “Qu’y aura-t-il demain sous nos moteurs ?”. Article de commande pour la revue Documentaliste, sciences de l’information, publié ici dans sa version longue. Article également déposé sur ArchiveSic.

Ertzscheid Olivier, “Méthodes, techniques et outils. Qu’y aura-t-il demain sous nos moteurs ?” in Documentaliste, sciences de l’information. Vol. 48, n°3, Octobre 2011, pp. 10-11. En ligne

Olivier Ertzscheid est également auteur d’un récent ouvrage sur l’identité numérique et l’e-reputation

Illustrations CC FlickR eirikref (cc-by), hawksanddoves.

]]>
http://owni.fr/2011/10/25/futur-web-moteur-recherche-donnees-reseau/feed/ 15
Recherche sérendipité désespérement [2/3] http://owni.fr/2011/08/14/recherche-serendipite-desesperement-sciences-information/ http://owni.fr/2011/08/14/recherche-serendipite-desesperement-sciences-information/#comments Sun, 14 Aug 2011 15:38:57 +0000 Ethan Zuckerman http://owni.fr/?p=76211 Suite de l’article d’Ethan Zuckerman autour du concept de sérendipité, qui peut être définie comme la capacité à découvrir des choses par hasard. Après s’être attardé dans la première partie sur les liens entre urbanité et sérendipité, l’auteur analyse ici la manière dont nous cherchons l’information en ligne et revient sur les origines du terme “sérendipité”.

Les liens de cet article sont en anglais.


Information en ligne: une chambre d’échos?

En 1993, Pascal Chesnais, chercheur au laboratoire Médias du MIT, a conçu un logiciel appelé “Freshman Fishwrap”. Utilisant un ensemble de sources en ligne disponibles à l’époque, Fishwrap permettait aux individus de produire un journal numérique personnalisé, comprenant la mention de leur ville d’origine ou leur sport préféré et filtrant les nouvelles moins intéressantes. Nicholas Negroponte encensa le projet dans son livre Being Digital, le considérant comme partie intégrante du futur personnalisé envisageable dans l’ère du numérique.

L’universitaire Cass Sunstein considérait le “Daily Me” comme une menace plutôt qu’une promesse [PDF]. Dans son livre, Republic.com, il redoute qu’Internet fonctionne comme une chambre d’échos où les individus ne rencontreraient que des vues en accord avec les leurs. Sunstein s’inquiète que dans un tel environnement nous puissions assister à une polarisation politique accrue et à un déplacement des opinions modérées vers les extrêmes.

Beaucoup des réponses académiques à la critique de Sunstein ne se sont pas efforcées de contredire l’argument selon lequel l’isolation mène à la polarisation, mais ont plutôt essayé de démontrer qu’Internet n’est pas aussi polarisant qu’il ne le croit. Matthew Gentzkow et Jesse Shapiro ont étudié les lectures en ligne de milliers d’internautes américains et ont conclu que même si certains sites sont très partisans, les sites d’information les plus visités par les internautes (Yahoo ! News, CNN, AOL News, MSNBC) le sont à la fois par des utilisateurs de droite et de gauche. Leur conclusion tend à démontrer qu’Internet est peut être plus polarisé que la plupart des médias mais suggère que cette polarisation est moins importante que ce que l’on pourrait craindre, et moins importante que ce que l’on rencontre dans nos communautés physiques.

Je m’intéresse moins à la polarisation droite/gauche américaine qu’à la polarisation nous/eux au niveau mondial. À partir des données collectées par Gentzkow et Shapiro, l’équipe de Slate a développé une infographie qui montre la polarisation partisane des petits sites, alors que les plus grands ciblent un public plus large. Je l’ai complétée avec quelques légendes et des cadres jaunes qui montrent quelles sources d’information proviennent d’autres pays que les États-Unis. Vous noterez qu’il n’y a pas beaucoup de jaune sur cette image – la plus grande source d’information internationale, en nombre de pages vues, est la BBC, qui est probablement le site d’information le plus visité sur tout le Web. (Vous noterez aussi que la BBC attire surtout des lecteurs de gauche – avec 22% de lecteurs conservateurs pour 78% de libéraux.)

Les Américains ne privilégient pas particulièrement les sources d’informations locales aux sources internationales. J’ai analysé les préférences médiatiques de 33 pays en utilisant les données de Doubleclick Ad Planner et j’ai découvert que la préférence américaine pour les sources d’informations domestiques (93% contre 7% lorsque en mai 2010) est en réalité assez basse comparée aux 9 autres pays avec le plus grand nombre d’internautes. Les pays avec plus de 40 millions d’internautes ont généralement un biais très important pour les sources d’informations locales – en moyenne 95% des gens les préfèrent. En comparaison, les Américains ont presque l’air cosmopolites.

Ces données ne disent rien de notre appétit pour les informations traitant de l’international mais montrent plutôt notre préférence pour des contenus pensés pour nous et nos compatriotes. Il est possible que nous recevions énormément d’informations sur l’international par Yahoo ou CNN, même si nous avons de bonnes raisons de penser le contraire. (Ces 30 dernières années, l’organisation anglaise Media Standards Trust a observé une forte baisse dans le pourcentage de journaux anglais spécialisés sur des sujets internationaux, et une recherche menée par Alisa Miller de Public Radio International suggère que les médias américains se concentrent bien plus sur les sujets de divertissement que sur l’actualité internationale.)

Cliquer ici pour voir la vidéo.

Ce qui me frappe dans ces données c’est que des sites d’informations internationaux comme la BBC, le Times of India ou le Mail and Guardian sont faciles d’accès (il suffit de cliquer) et ne posent pas le problème de la barrière de la langue. Le biais “local” pour des supports d’informations nationaux semble donc très fort.

Les réseaux sociaux comme mécanismes de sérendipité?

Le risque de ce genre d’isolation est de passer à côté d’informations importantes. J’ai la chance, grâce à mon travail sur Global Voices, d’avoir des amis tout autour du globe, et j’entends souvent parler d’actualités importantes, soit grâce à notre travail sur le site, soit au travers des préoccupations de mes amis sur les réseaux sociaux. Fin décembre 2010, il devint clair que quelque chose de très inhabituel se produisait en Tunisie – des amis comme Sami Ben Gharbia couvraient les manifestations qui se déroulaient à Sidi Bouzid et se propageaient dans le reste du pays. Ces amis s’interrogeaient sur les raisons pour lesquelles aucun média extérieur à la région ne couvrait la révolution en cours. Je suis entré en action avec l’un de mes article de blog publié au moment le plus opportun – le 12 janvier, j’ai écrit “Et si la Tunisie vivait une révolution, alors que personne n’y prête attention ?” (“What if Tunisia had a revolution, but nobody watched ?“)… beaucoup de personnes m’ont appelé après que Ben Ali a fui le pays deux jours plus tard.

La révolution tunisienne a pris par surprise les services secrets et diplomatiques autour de la planète. Ça n’aurait pas du être le cas – une multitude d’informations avait été publiée sur les pages Facebook tunisiennes, et rassemblées par des groupes comme Nawaat.org et diffusée sur Al Jazeera (d’abord sur ses services en arabe). Mais ce passage d’un monde où l’information est dominée par des super-puissances à un monde multi-polaire est difficile à assimiler pour les diplomates, les militaires, la presse et les individus. Et si je suis honnête quant à ma vision du monde, je doit reconnaître que je n’aurais jamais entendu parler de cette révolution naissante si je n’avais pas eu des amis tunisiens.

Comme tout le monde, je vis un changement dans ma façon de m’informer sur le reste de la planète. Avant Internet et pendant ses premières heures, les nouvelles internationales provenaient surtout des médias traditionnels – télévision, presse quotidienne et magazines. Il y avait – et il y a toujours – des raisons de se méfier des “curateurs” , mais il y a un aspect fondamental de leur travail qui, à mon sens, doit être préserver alors que nous inventons de nouveaux modèles d’organisation de l’information. Implicitement, les “curateurs” décident de ce que nous devons savoir sur le monde. Les très bons “curateurs” ont souvent une vision du monde plus ouverte que la plupart des individus, et les médias dirigés par de bons “curateurs” nous forcent souvent à nous intéresser à certaines personnes, certains lieux et problèmes que nous aurions autrement ignorés.

D’un autre côté, les “curateurs” sont forcément biaisés, et la possibilité de trouver des informations qui correspondent à nos centres d’intérêts et à nos préférences est l’une des choses que le Web moderne a rendu possible. Les moteurs de recherche me permettent d’apprendre beaucoup de choses sur des sujets qui m’intéressent – le sumo, la politique africaine, la cuisine vietnamienne – mais il est fort possible que je ne prenne pas connaissance de sujets importants parce que je prête plus attention à mes intérêts qu’aux informations sélectionnées par des professionnels. Il nous faut des mécanismes qui permettent d’ajouter de la sérendipité à nos recherches.

Une nouvelle tendance est apparue. Celle de créer des outils qui nous guident vers des nouveaux contenus selon les intérêts de nos amis. Des outils tels que Reddit, Digg et Slashdot forment des communautés autour d’intérêts communs et nous dirigent vers des sujets considérés comme intéressants et valant le coup d’être partagés par la communauté. Twitter, et surtout Facebook, fonctionnent à un niveau bien plus personnel. Ils nous montrent ce que nos amis savent et ce qu’ils considèrent important. Comme l’explique Brad DeLong, Facebook offre une nouvelle réponse à la question “Que dois-je savoir ?”; à savoir : “Tu dois connaître ce que tes amis et tes amis d’amis savent déjà et que tu ignores.”

Le problème, bien entendu, est que si vos amis ne savent pas qu’une révolution a lieu en Tunisie ou ne connaissent pas de super nouveau restaurant vietnamien, vous n’en entendrez probablement pas parler non plus. Connaître ce que vos amis connaissent est important. Mais à moins que vous ayez un réseau d’amis remarquablement divers et bien informé, il y a des chances pour que leur intelligence collective ait des failles. L’éditorialiste du Guardian Paul Carr a raconté une anecdote intéressante qui s’est produite lors d’un séjour à San Francisco. Alors qu’il rentrait à son hôtel il fut stupéfait de voir que sa chambre, comme le reste de l’immeuble, n’avait pas été
nettoyée. Les employés de l’hôtel protestaient contre la loi sur l’immigration SB1070 en Arizona. Alors que le sujet était largement couvert sur Twitter, Carr n’en avait pas eu vent par son flux. Cela lui fit réaliser qu’il vivait dans “[sa] propre petite bulle Twitter composée de personnes comme [lui] : ethniquement, politiquement, linguistiquement et socialement.” On peut se demander si cette bulle est capable de nous apporter la sérendipité que nous espérons rencontrer sur le Web.

Aux origines de la sérendipité

D’où vient le terme de “serendipité”? Robert K. Merton lui a dédié un livre, écrit avec sa collaboratrice Elinor Barber et publié après sa mort. Cela peut sembler  étrange pour un sociologue de renom de s’y intéresser, mais il faut se souvenir que l’une de ses contributions à la sociologie a justement été l’examen des “conséquences inattendues”. Au premier abord, la sérendipité semble être le côté positif de ces conséquences : l’heureux accident. Mais ça n’est pas ce que ce terme voulait dire à l’origine. Le mot a été forger par Horace Walpole, un aristocrate britannique du 18e siècle, 4e comte d’Oxford, romancier, architecte et célèbre commère. On se souvient surtout de lui pour ses lettres, rassemblées en 48 volumes, qui donnent une idée de ce à quoi ressemblait le monde à travers les yeux d’un aristocrate.

Dans une lettre écrite en 1754, Walpole raconte à son correspondant, Horace Mann, comment il fit une découverte inattendue mais utile, grâce à sa grande connaissance de l’héraldique. Pour expliquer son expérience, il fait référence à un conte perse, Les Trois Princes de Serendip, dans lequel les trois principaux personnages “faisaient continuellement des découvertes par accident et grâce à la sagacité, de choses qu’ils ne cherchaient pas.” Le néologisme de Walpole est un compliment – il se congratule à la fois pour son ingénieuse découverte et pour la sagacité qui a permis cette trouvaille.

Bien que le concept soit utile, le terme “sérendipité” n’est devenu courant que ces dernières décennies. Jusqu’en 1958, d’après Merton, le mot n’est apparu que 135 fois sur papier. Durant les quatre décennies suivantes, il est apparu à 57 reprises dans des titres de livres et il a été utilisé 13 000 fois par des magazines rien que dans les années 1990. Une recherche Google fait apparaître 11 millions de pages avec ce terme. Des restaurants, des films et des boutiques de souvenirs arborent ce nom. Mais très peu de pages sur les découvertes inattendues faites grâce la sagacité.

Merton était l’un des plus grands promoteurs du mot, décrivant “le schéma de la sérendipité” en 1946 comme une façon de comprendre les découvertes scientifiques inattendues. La découverte de la pénicilline par Fleming en 1928 a été provoquée par une spore de champignons Penicilium qui avaient contaminé une boîte de Petri dans laquelle se développaient des bactéries de Staphylococcus. Si l’apparition de spores de moisissure dans la boîte était un accident, la découverte, elle, était le fait de la sérendipité – si Fleming n’avait pas cultivé les bactéries, il n’aurait pas remarqué les spores de moisissure isolées. Et si Fleming n’avait pas eu une connaissance approfondie du développement des bactéries – la sagacité – il est fort peu probable qu’il aurait relevé les propriétés antibiotiques des Penicilium et ainsi générée l’avancée la plus importante de la première moitié du 20e siècle dans le domaine de la santé.

Selon Louis Pasteur, “dans les champs de l’observation, le hasard ne favorise que les esprits préparés.” Pour Merton la sérendipité émerge à la fois d’un esprit préparé et de circonstances et structures qui mènent à la découverte. Dans le livre The Travels and Adventures of Serendipity , Merton et Barber explore les procédés de découverte dans un laboratoire de General Electric dirigé par Willis Whitney qui encourageait un environnement de travail fondé autant sur l’amusement que sur la découverte. Un mélange positif d’anarchie et de structure apparaît nécessaire à la découverte et une planification exagérée devient une abomination puisque “la règle de ne rien laisser au hasard est vouée à l’échec.” (L’analyse du livre de Merton et Barber par Riccardo Campa est conseillée à ceux intéressés par les questions de sérendipité et de structure.)

L’idée que la sérendipité est un produit à la fois d’un esprit ouvert et préparé et des circonstances qui mènent à la découverte se retrouve dans l’histoire racontée par Walpole en 1754. Les trois princes étaient très instruits sur les questions de “moralité, de politique et sur toutes les connaissances convenues en général” mais ils ne firent pas de découvertes inattendues avant que leur père, l’Empereur Jafar, ne les envoyât “parcourir le Monde entier pour qu’ils puissent apprendre les manières et les coutumes de chaque nation.” Une fois que ces princes bien préparés rencontrèrent les circonstances favorisant la découverte, ils firent des trouvailles sagaces et inattendues. (Pour plus d’informations sur la traduction de 1722 en anglais des Trois Princes de Serendip vous pouvez lire ce post de blog.)

Lorsque nous utilisons le terme “sérendipité” aujourd’hui c’est souvent pour parler d’un “heureux accident”. La partie de la définition qui se concentre sur la sagacité, la préparation et l’aspect structurel a sombré, du moins en partie, dans l’obscurité. Nous avons perdu l’idée que nous pouvons nous préparer à la sérendipité à la fois personnellement et structurellement.

J’ai peur que nous comprenions mal comment nous préparer. Et comme mon amie Wendy Seltzer me l’a fait remarquer, si nous ne comprenons pas les structures de la sérendipité, le phénomène devient aussi peu probable que le simple hasard.


Article initialement publié sur le blog d’Ethan Zuckerman

Traduction : Marie Telling

Illustrations CC FlickR par Truk, estherase, atoach
Image de Une Loguy

]]>
http://owni.fr/2011/08/14/recherche-serendipite-desesperement-sciences-information/feed/ 7
[Labo] Enlarge your DSK http://owni.fr/2011/05/27/labo-enlarge-your-dsk/ http://owni.fr/2011/05/27/labo-enlarge-your-dsk/#comments Fri, 27 May 2011 10:14:56 +0000 Media Hacker http://owni.fr/?p=64345 « L’affaire DSK » : matin midi et soir, dans les journaux, à la télévision, à la radio, sur Twitter, sur les blogs, sur Facebook, vous en avez mangé, nous avons mangé, à toutes les sauces, à tous les angles, de l’annonce de son arrestation samedi 14 mai par un tweet d’un jeune militant UMP à celle de son inculpation vendredi 20 mai 2011.

Face à cette séquence médiatique d’une rare intensité, nous avons fait le choix de ne rien produire : pas par consigne mais parce que nous n’en avions pas envie. Que dire qui apporte une réelle plus-value made in OWNI ? Que faire lorsque “l’information” provient d’une source unique, impossible à recouper dans le tempo imposé par la procédure judiciaire ?

Alors que les rédactions commençaient à redécouvrir le monde , nous avons eu envie de revenir sur cette première phase, en mode vidéo augmentée, prolongeant ainsi l’expérience réalisée sur la mort de Ben Laden. Au départ, nous avions pensé à vous proposer un montage mixant des unes parmi les 150.000 produites, sur un extrait d’une interview d’André Gunthert, diffusée dimanche dernier sur France Culture dans Place de la Toile. Le chercheur en histoire visuelle, qui a abondamment commenté l’information, y résumait le sentiment général de la rédaction sur cette affaire.

Nous avons finalement supprimé la piste audio car cela faisait trop d’informations envoyées en même temps. Exactement ce qui provoquait notre malaise dans les premiers jours de cette affaire. Voici, pour mémoire, l’extrait de l’intervention d’André Gunthert:

Quant aux couvertures, au mimétisme caricatural, ne croyez pas que nous avons passé des heures à en chercher qui se ressemblaient, que ce soit par le titre – Alerte cliché a dû s’affoler – ou la photo. Ce montage a été «augmenté» d’une sélection de citations, de tweets, de vidéos qui courent du samedi 15 au vendredi 20 mai, ainsi que de graphiques comparant les données, essentiellement produites par la base de données LexisNexis (qui ne concernent donc pas la presse de manière exhaustive), sur le traitement médiatique de l’affaire DSK: le nombre d’articles, la comparaison entre certains titres, etc.

Enfin, et pour profiter pleinement de l’expérience, nous vous conseillons de naviguer directement dans l’application :

http://app.owni.fr/augmented/enlarge-your-dsk/

Nous avons constaté des bugs sous Safari et Firefox 4.0 : l’application ne se lance pas toujours.

Pour mémoire quelques citations à graver dans le marbre :

Jean-Pierre Chevènement (Mouvement républicain et citoyen) sur son blog, jeudi 19 mai :

C’est comme ça qu’a commencé l’affaire Dreyfus.

Jean-François Kahn, dans les matins de France Culture, lundi 16 mai :

Je suis certain, enfin pratiquement certain qu’il n’y a pas eu une violente enfin une tentative violente de viol. Je ne crois pas à ça, je connais le personnage. Je ne pense pas. Qu’il y ait eu une imprudence on peut pas le … , je ne sais pas comment dire… un troussage… qu’il y ait eu un troussage de domestique c’est pas bien mais… voilà, c’est une impression.

Jack Lang (PS), dans le 20h de France 2, lundi 16 mai :

Depuis deux jours il y a une sorte d’acharnement, de lynchage contre Dominique Strauss-Kahn [...] de la part du système juridictionnel américaine et du système médiatique en général [...]. Ne pas libérer quelqu’un, alors qu’il n’y a pas mort d’homme. Ne pas libérer quelqu’un qui verse une caution importante ça ne se fait pratiquement jamais.

Christine Boutin, présidente du Parti chrétien-démocrate, dimanche 15 mai :

Je pense que vraisemblablement on a tendu un piège à Dominique Strauss-Kahn et qu’il y est tombé. [...] Cela peut venir du FMI, ça peut venir de la droite française, ça peut venir de la gauche française… Ça me semble tellement énorme, cette affaire ! On sait qu’il est assez vigoureux, si je puis m’exprimer ainsi, mais qu’il se fasse prendre comme ça me semble ahurissant, donc je pense qu’il est tombé dans un piège.

La député PS et ancienne Garde des Sceaux, Elisabeth Guigou est révoltée sur RTL, mercredi 18 mai :

La présumée victime est davantage protégée que le présumé innocent!

A contrario, Clémentine Autain, ex-adjointe du maire de Paris, estime sur son blog lundi 16 mai que la décence, ce serait d’avoir au moins un mot pour cette femme. Olympe, blogueuse féministe pointe du doigt les soupçons portés sur la victime :

Si vous portez plainte pour viol vous pouvez vous attendre à ceci : qu’on se demande bien comment c’est possible parce que  vous êtes un thon avec  “Les avocats auraient été surpris, lors de la comparution, de voir arriver une jeune femme très peu séduisante.”, qu’on mette en doute votre professionnalisme et qu’on se demande ce que vous foutiez là.

Cette application est le fruit d’un labo, de fait, n’hésitez pas à faire vos retours d’utilisateurs en commentaires, il nous permettront d’améliorer ce nouvel outil. Nous avons d’ores et déjà ajouté la possibilité de partir d’un player audio.

Sabine Blanc, Claire Berthelemy et Marie Coussin ont réalisé ce travail. Nous remercions Erwann Gaucher, André Gunthert et Patrick Peccatte qui ont mis leurs archives photos à disposition, Xavier de la Porte, producteur de l’émission Place de la Toile. Sans oublier nos précieux geeks, Tom et Aurel, pour l’aide technique.

Image Flickr CC AttributionShare Alike Sundve

]]>
http://owni.fr/2011/05/27/labo-enlarge-your-dsk/feed/ 4
[LABO] Oussama Ben Laden, augmenté http://owni.fr/2011/05/20/labo-oussama-ben-laden-augmente/ http://owni.fr/2011/05/20/labo-oussama-ben-laden-augmente/#comments Fri, 20 May 2011 14:33:49 +0000 Andréa Fradin et Olivier Tesquet http://owni.fr/?p=63703 Près de trois semaines après sa mort, que reste-t-il d’Oussama Ben Laden? Médiatiquement, la disparition du fondateur d’Al-Qaida, ennemi numéro un des Etats-Unis depuis dix ans, a fait l’effet d’une déflagration. Sans précédent? Pas vraiment. Quelques jours avant, le mariage princier entre William et Kate Middleton a atteint un pic d’attention similaire, avant de s’éroder à la même vitesse que le terroriste islamiste, comme le montre cette courbe établie sur Google Trends (en rouge le mariage, en bleu Ben Laden):

Dans la volonté d’être un laboratoire de R&D, OWNI s’est demandé comment redonner du sens à cet épisode, vécu sur le mode de l’ultra-temps réel. Nous avons donc développé un module de vidéo “augmentée” qui, en plus du flux principal, ajoute du contenu relatif, qu’il s’agisse d’images, de vidéos, de pages web, ou même de GIF animés.

Le prototype repose sur une base de code préexistante, ajustée à nos besoins – ajaxification des éléments connexes synchronisés sur la vidéo principale (sic).

Pour en savoir plus sur ce qu’est l’hypervidéo (pour “hyperlinked video“, ou vidéo cliquable en VF), vous pouvez également lire le billet qu’en avait fait Tristan Nitot, ou encore regarder ce qu’en avait fait Upian et Arte pour Notre poison quotidien, le documentaire de Marie-Monique Robin. Et n’hésitez pas à envoyer un mail à tech@owni.fr pour plus de précisions.

Enfin, et pour profiter pleinement de l’expérience, nous vous conseillons de naviguer directement dans l’application:

http://app.owni.fr/augmented/benladen/

L’élimination d’OBL marque la chute d’un symbole, remarquablement décrite par l’essayiste américain Greil Marcus dans L’Amérique et ses prophètes, publié en 2006. Dans un climat post-11 Septembre déjà bien consommé, il dressait ce constat sans appel:

La nation américaine: une invention qui pouvait être détruite comme elle avait été construite.

Sur le même postulat, l’administration Obama a défiguré le visage de la peur d’une balle en pleine tête, avant de jeter son corps à la mer depuis le pont d’un porte-avions stationné en mer d’Oman. Dans les heures et les jours qui ont suivi l’opération menée par les Navy Seals dans la petite bourgade pakistanaise d’Abbottabad, les États-Unis ont mis en branle un storytelling jamais effrayé par la contradiction. Ben Laden aurait été tué parce qu’il cherchait à se défendre, ce qui a été démenti; il se serait servi d’une femme comme bouclier humain, ce qui a été démenti; la photo de son cadavre devait être montrée à la presse et au grand public, ce qui a été refusé.

Avec la disparition de l’icône wahhabite, la culture populaire s’est immédiatement réappropriée l’événement, à grand renfort de détournements. Les médias ont dû gérer l’afflux d’information primaire, qu’elle provienne de la Maison-Blanche ou de Twitter. Les théories du complot ont repris du poil de la bête. C’est tout ce que nous avons essayé de visualiser, en 3 minutes – et quelques digressions.

N’hésitez pas à nous faire parvenir vos retours, à tech@owni.fr


Illustration CC FlickR: swanksalot

]]>
http://owni.fr/2011/05/20/labo-oussama-ben-laden-augmente/feed/ 12
The Atavist, XXI sur Internet? http://owni.fr/2011/04/01/the-atavist-xxi-sur-internet/ http://owni.fr/2011/04/01/the-atavist-xxi-sur-internet/#comments Fri, 01 Apr 2011 06:35:28 +0000 Benoit Raphaël http://owni.fr/?p=54679 Et pourquoi pas ? On a tellement l’habitude de dire que sur le réseau les articles doivent être courts et gratuits, que le contraire doit certainement avoir un sens. De la même manière que le magazine XXI s’est construit en contraste avec le flux du web (un magazine papier, payant, avec des articles de 30.000 signes, vendu en librairie, pour arrêter le temps réel et retrouver le sens du récit), on se dit qu’il est possible de proposer un produit plus dense, présenté dans un emballage agréable, et le faire payer.

C’est ce propose The Atavist [en], une application iPhone, iPad, Android (également sur Kindle). Créée par Etan Ratliff, auteur pour le magazine Wired qui s’était fait connaître en tentant de disparaître aux yeux du monde et des réseaux [en].

Cliquer ici pour voir la vidéo.

The Atavist ne propose que des reportages longs (10 à 15.000 signes), qui se lisent comme des petits livres, mais avec de nombreuses options multimédia, ce qui rend l’interface un peu incompréhensible :

Depuis la barre de menus mais aussi à partir de certains mots soulignés, le lecteur peut sortir de sa lecture pour voir un diaporama (plutôt agréable), une note avec photo (très pratique), une vidéo (marche assez mal), un son, ou un lien (il faut être connecté !). Il peut même écouter une musique d’ambiance…

Bref, un bel objet éditorial, qui part un peu dans tous les sens, mais qui laisse une impression agréable de haut de gamme. Il se rapproche finalement plus du format du livre que du magazine. Jusqu’ici 40.000 exemplaires de l’application ont été téléchargés. Mais pas d’indications sur le nombre d’articles vendus.

Chaque reportage est proposé à 1,99 dollars. The Atavist paie les frais du reporter puis partage les revenus avec les ventes du reportage [en]. On verra si la formule fonctionne, mais elle valide une tendance : le réseau a rendu les moments de contact avec l’info plus nombreux, ce qui complexifie les modes de lecture. Tant mieux.

À côté du livre, moment solitaire et méditatif, forcément long, et de l’article web vite consommé, il y a sans doute une place pour un contenu entre l’article court et le livre long, que l’on peut consulter dans le bus, le métro, en attendant le médecin, ou simplement lorsque l’on est hors-ligne avec 30mn devant soi (c’est rare, je sais…).

Après Instapaper et Longread, et maintenant The Atavist, c’est la revanche des contenus longs sur Internet.

Billet initialement publié sur la social NewsRoom de Benoit Raphaël

Crédits photo Flickr CC Rodrigo Galindez

]]>
http://owni.fr/2011/04/01/the-atavist-xxi-sur-internet/feed/ 3
#3 – Les sacrifiés de Fukushima n’appartiennent déjà plus à ce monde http://owni.fr/2011/03/16/les-sacrifies-de-fukushima-appartiennent-deja-plus-a-ce-monde/ http://owni.fr/2011/03/16/les-sacrifies-de-fukushima-appartiennent-deja-plus-a-ce-monde/#comments Wed, 16 Mar 2011 17:23:51 +0000 Loic H. Rechi http://owni.fr/?p=51776 A l’aube de la seconde décennie du XXIe siècle, suivre l’évolution de l’information minute par minute  est devenu la cocaïne du peuple. Depuis samedi matin et les premières alertes en provenance de la centrale nucléaire de Fukushima, une sorte de communion informationnelle s’est opérée, minute après minute. Dans les heures qui ont suivi les premières annonces, à un moment où il était encore impossible de mesurer toute la dimension du drame en train de s’écrire, la peur et l’incrédulité ont rapidement fait place à des considérations tristement terre à terre et manichéennes. Les uns – opportunistes – se sont ainsi accaparés la pièce en train de se jouer pour dénoncer les sempiternels risques liés à l’utilisation du nucléaire, là où les autres – monomaniaques – n’ont pu s’empêcher de tacler leurs petits camarades, simulant de s’offusquer qu’ils puissent instrumentaliser une catastrophe. En réalité, tout ce petit monde plongeait la tête la première dans leurs travers traditionnels et autocentrés, ramenant la marche du monde à leurs petites querelles merdiques et quotidiennes.

Les jours passant et l’apocalypse perdurant, les saines craintes initiales de l’individu lambda – à commencer par les miennes – ont progressivement changé de visage, migrant vers un sentiment moins avouable, probablement qualifiable de curiosité morbide. Le séisme japonais cristallise en fait à lui tout seul l’égoïsme, cette fange dans laquelle on se complait tous. A la différence du séisme survenu un an plus tôt en Haïti, l’empathie dont on fait preuve atteint des niveaux ridiculement bas, explosant par contre sur la jauge du jemenfoutisme. Le Japon est un pays qu’on s’est toujours plu à observer comme un cabinet de curiosités. Mais en raison de sa qualité de nation économiquement prospère, l’emprise des bons sentiments judéo-chrétiens a été nettement moins forte, en témoigne l’absence de matraquage pour l’appel aux dons. Et puis soyons honnête, en vivant dans un pays quasiment insensibilisé aux catastrophes sismiques, il nous apparait bien difficile encore une fois d’assimiler la douleur qui secoue le pays du soleil du levant.

Indéniablement pourtant, le facteur nucléaire est venu bouleverser la donne. Dans un premier temps, la classe politique a été  prompte à récupérer le drame à des fins personnelles. Comment reprocher aux écologistes de profiter de la situation quand on sait que c’est autour de la crainte que surviennent ces atroces évènements qu’ils se sont constitués? Je comprends également que le gouvernement veuille rassurer la population en surfant sur la vague d’émotion et en se lançant dans un grand audit de nos centrales. Je méprise évidemment ce crétin Sarkozy quand il joue les populistes assertant que nous possédons la centrale la plus sûre du monde avec l’EPR, quand on sait qu’une centrale toujours en service comme celle de Fessenheim dans le Haut-Rhin a été mise en  service en 1977. Et comment ne pas mésestimer encore encore plus cet individu quand il ramène cette tragédie sur le plan économique, reprochant insidieusement ces derniers jours à des pays comme le Qatar de ne pas avoir acheté des centrales françaises, jugées trop chères.

Toujours est-il que c’est sur ce ressort précis, cette hantise du cataclysme nucléaire que l’empathie du grand public est venue se figer. La raison en est éminemment simple. Si l’on est relativement à l’abri d’un tremblement de terre ou d’un tsunami en France, il en va autrement dans le cas où une masse inodore, incolore mais salement radioactive se mettait en tête de faire le tour du monde pour venir nous emmerder et se fixer sur nos petites thyroïdes de Français.

Surtout, l’empathie a complètement explosé quand le drame de la centrale de Fukushima a fini par s’humaniser. On aura beau nous matraquer le cerveau à coups de schémas, de vocabulaire technique, d’explications simplifiées à base de millisieverts par heure et de turbines dans le cul, tout ça ne restera que des concepts plus ou moins opaques au service de la compréhension collective. Si on n’a aucune idée de ce à quoi ressemble concrètement une barre de combustible nucléaire, il en va autrement de l’humain. Un humain employé dans une centrale nucléaire, on arrive tous à intégrer sans mal qu’il s’agit d’une tête, de deux bras, de deux jambes, de tout un tas d’organes et d’une famille derrière. Quand cinquante d’entre eux ont pris le parti de laisser partir plusieurs centaines de collègues, décidant de rester pour tenter d’arrêter les caprices de cette folle construction humaine, au péril de leur vie, l’histoire a pris un tour homérique. Le récit d’une minorité qui se sacrifie pour la majorité, voilà ce que le monde a envie de retenir dans cette affaire.

Pourtant, à l’heure où on a encore le nez en plein dedans, il est difficile d’en juger les motifs tant les éléments viennent à manquer. Au courage indéniable se mêle peut-être également un sentiment de culpabilité, celui de ne pas avoir écouté le sismologue Ishibashi Katsuhiko qui avait lancé une alerte en 2006 sur le risque d’un scénario similaire en cas de tremblement de terre ravageur. Mais c’est sans doute aussi le désespoir et le sens du devoir qui disputent à cette culpabilité. La désolation qui confine à la folie. Ces volontaires expérimentent une malformation du syndrome de Stockholm, prisonnier volontaire d’un geôlier de béton, d’une centrale qui deviendra probablement leur tombeau moral si ce n’est physique. Les cinquante hommes qui se relaient au chevet de la machine, le teint blanchi par l’insomnie, les mains tremblantes du stress qui les emplit, ne sont déjà plus des hommes comme vous et moi. En raison du taux de radiation qu’on peut supposer qu’ils ont déjà encaissé, on se doute que dans le meilleur des cas, ils passeront les mois qui viennent confinés dans des hôpitaux, les organes internes dégoulinant de sang et la moelle osseuse disparaissant de leurs colonnes, irradiés comme un glaçon fond irrémissiblement au soleil. Dans le pire des cas comme le martelait, emprunt d’une horreur palpable, le professeur Patrick Gourmelon, directeur de la radioprotection de l’homme (DRPH) face à une Laurence Ferrari dépassée – comme nous tous – devant le drame qui s’écrit minute après minute, ils perdront sans doute la vie, dans des conditions atroces, réduits en poussière par la puissance des éléments. Mais quand bien même ils en sortiraient indemnes, ces hommes ne seront plus jamais comme vous et moi. Ils auront expérimenté le poids de jouer à Dieu, de choisir de sacrifier leur vie, de briser leur famille, dans l’espoir de sauver le plus grand nombre. Ces cinquante hommes ont déjà éprouvé le dilemme ultime, celui que personne ne souhaiterait jamais, celui qui sous-tend l’histoire même de l’humanité. Non, définitivement, ils ne sont plus de notre monde.

C’est désormais vers l’infamie des images des liquidateurs de Tchernobyl que se tournent tous les regards, c’est le poids du désarroi de l’échec humain à dompter la nature qui flotte aujourd’hui au dessus de toutes les consciences.  L’issue de ce scénario calamiteux demeure encore incertain. Quelqu’en soit l’acte final, l’inconscience ne pourra être brandie pour justifier l’héroïsme de ces cinquante être humains disposant d’instruments pour mesurer les taux d’émissions radioactives et de facto les risques auxquels ils s’exposent. Leur libre-arbitre, lui, restera pour longtemps le symbole de la grandeur de leurs actes, celui d’individus ordinaires s’étant sacrifiés pour le bien collectif.

Crédits photos CC FlickR par Eudoxus, BBCWorldService

> Retrouvez nos articles autour de la catastrophe nucléaire de Fukushima:

Areva au cœur du réacteur de Fukushima

Un AZF nucléaire est possible en France

> Retrouvez aussi“le Big Picture sur Fukushima”

> Retrouvez également l’ensemble des “Chroniques de Rechi”

]]>
http://owni.fr/2011/03/16/les-sacrifies-de-fukushima-appartiennent-deja-plus-a-ce-monde/feed/ 0
L’AFP peut-elle survivre au web et aux réseaux? http://owni.fr/2011/02/22/lafp-peut-elle-survivre-au-web-et-aux-reseaux/ http://owni.fr/2011/02/22/lafp-peut-elle-survivre-au-web-et-aux-reseaux/#comments Tue, 22 Feb 2011 12:16:20 +0000 Erwann Gaucher http://owni.fr/?p=47937 C’est une vénérable maison qui s’ouvre petit à petit au nouveau monde numérique. Après des débuts timides, l’AFP a donc décidé de s’intéresser de près au web communautaire. Emmanuel Hoog, président de l’agence depuis un peu moins d’un an, part même à la rencontre des journalistes, blogueurs et autres twitteurs de la place pour échanger avec celles et ceux qui observent de près le web communautaire. C’est dans le même but qu’il participera cette semaine à l’excellente émission de RFI, l’Atelier des médias.
Le 8 février, j’étais ainsi convié, avec une dizaine d’autres à déjeuner à l’AFP (pas de name dropping ici, ceux qui étaient présents le diront d’eux-mêmes… ou non !).

Autour de la table, outre les bloggeurs et Emmanuel Hoog, se trouvaient entre autres Philippe Massonnet (directeur de l’information), Juliette Hollier-Larousse (Deputy Global News Director), Sylvie Vormus (Communication and Brand Director) ou encore François Bougon, le nouveau “Monsieur réseaux sociaux” de la maison. La rencontre de deux univers, parfois méfiants l’un envers l’autre, souvent curieux et qui ont forcément beaucoup de choses à se dire.

Et d’abord un constat : les réseaux sociaux, et le web communautaire en général, bousculent l’AFP. Présente dans 165 pays et forte de 2 900 collaborateurs de 80 nationalités différentes, l’AFP est une véritable institution qui a du mal à trouver sa place dans une cartographie médiatique qui ne cesse de changer. Et s’interroger sur sa place dans les médias version 2011 tient un peu de la quadrature du cercle.

Copiée par tous, payée par personne ?

C’est l’un des plus grands risques qui guette l’agence. En 2011, une info qui “tombe” depuis l’AFP sur les sites de ses clients est immédiatement reprise par l’ensemble des médias et circule en quelques minutes sur d’autres sites d’infos, sur les réseaux, sur les blogs. La part de ceux qui utilisent l’info de l’AFP en l’ayant payée se réduit ainsi de jour en jour avec le risque, au final, de voir les clients historiques se demander s’ils ne payent pas pour les autres.

Face à ce danger, l’AFP ne peut pas faire grande chose… Impossible d’interdire la reprise de l’info par des médias qui ne sont pas ses clients, cela reviendrait à interdire le droit de citation, difficile de partir à la chasse aux contrevenants réguliers et de mauvaise foi. Jusqu’ici, l’agence était à l’abri de ce danger car tous ses clients, ou presque, vivaient sur la même temporalité et ne pouvaient donc pas se passer du fil AFP, sous peine d’être toujours en retard face à leurs concurrents. Mais en 2011, l’exclusivité du client payant de l’AFP ne dure, au mieux que quelques minutes. Pire, les sources officielles sont chaque mois un peu plus nombreuses à ne plus utiliser l’AFP et les grandes agences comme canal de diffusion de leurs infos, à l’image de Herman Von Rompuy, le président de l’Union Européenne qui tweete l’info directement.

À l’heure où la presse va mal, où chaque journal scrute ses dépenses pour dénicher le moindre euro à économiser, la tentation pourrait devenir forte de ne plus payer son abonnement AFP, sans pour autant se passer de ses infos en mettant en place une veille web et réseaux efficaces.
Cette tentation est d’autant plus forte dans la presse régionale. L’AFP n’y alimente “que” les pages nationales et internationales dont les directeurs de rédaction savent pertinemment qu’elles ne constituent pas le cœur de leur offre éditoriale print et web. Et si sur le sujet Emmanuel Hoog se veut rassurant, affirmant que le coût de l’abonnement AFP reste marginal pour les quotidiens régionaux, il est pourtant évident qu’ils sont de plus en plus nombreux à y penser.

Histoire de corser le tout, l’AFP ne dispose pas de toutes les armes pour lutter efficacement contre le “pillage” potentiel de ses richesses. Une réponse intéressante pourrait consister à faire de l’agence un média à part entière, installé sur le web et les réseaux et s’adressant directement au public pour maîtriser le flux de son info. Mais l’AFP risquerait alors de couper l’herbe sous le pied de ses propres clients. Que diraient Le Monde, Libé, Les Échos et tous les autres si le grand public avait accès gratuitement à une partie des infos de l’agence qui composent, entre autres, leur propre offre éditoriale ?

Indispensable, mais elle doit muter en profondeur

Et pourtant, l’AFP est indispensable. Par le fait même que ses infos sont reprises partout en quelques minutes, elle prouve combien son rôle est important dans le paysage médiatique hexagonal et international. Son implantation, son réseau, son savoir-faire de vérification et de contextualisation de l’info sont ses atouts les plus précieux à l’heure d’une info qui circule de plus en plus vite sans toujours prendre le temps d’être recoupée.
Et c’est sans doute là sa planche de salut, comme on a pu le vérifier lors des événements de Tunisie. À plusieurs reprises, des infos en apparence sérieuses ont circulé très rapidement sur la toile et les réseaux, bientôt reprises par d’autres agences concurrentes de l’AFP. Sous pression, l’agence a pourtant pris le temps, parfois long, de les vérifier, quitte à être en porte-à-faux vis-à-vis de certains clients. Bien lui en a pris puisque, par deux fois au moins selon Emmanuel Hoog, les infos en question se sont avérées fausses.
L’impossibilité faite à l’AFP de travailler en direct à destination du grand public est un handicap dans la course à l’info en temps réel ? Elle peut en faire un atout vis-à-vis de ses clients, à condition de faire grandement muter son offre.

Agence de fact checking à la demande ?

En Iran, il était difficile de vérifier certaines informations pendant la révolution de 2009.

La nouvelle temporalité médiatique est en train de faire naître une nouvelle demande, un nouveau besoin pour les clients de l’agence : le fact checking à la demande. Alors que les rédactions disposent souvent de moins en moins de temps et de moyens pour vérifier l’info et la contextualiser, l’AFP pourrait tenir ce rôle. Elle le fait aujourd’hui naturellement sur ses propres infos, une piste intéressante pourrait être de le faire à la demande, sur des infos dont elle ne serait pas forcément à l’origine. Ses clients achèteraient alors moins sa capacité à produire de l’info que son savoir-faire à vérifier et certifier celles qu’on lui soumettrait.

En somme, passer d’une économie entièrement centrée sur l’offre, à un modèle mixte dans lequel la réponse à la demande précise et ciblée des clients prendrait une place de plus en plus importante. Passer d’une agence de production à une agence certifiant l’info. Plus facile à dire qu’à faire dans une maison aussi grande, mais les grandes échéances médiatiques françaises de 2012 pourrait constituer un terrain d’expérimentation formidable.
Sans oublier, enfin, que l’AFP dispose d’un laboratoire en ligne qu’elle n’utilise encore que très timidement : Citizenside, dont elle est l’un des principaux actionnaires. Mais là encore, le changement culturel est de taille, l’AFP osera-t-elle l’entreprendre ?

Billet initialement publié sur Cross Media Consulting

Image CC Flickr expertinfantry et John McNab

]]>
http://owni.fr/2011/02/22/lafp-peut-elle-survivre-au-web-et-aux-reseaux/feed/ 0
L’information « papier » est hors de prix http://owni.fr/2011/02/21/l%e2%80%99information-%c2%ab-papier-%c2%bb-est-hors-de-prix/ http://owni.fr/2011/02/21/l%e2%80%99information-%c2%ab-papier-%c2%bb-est-hors-de-prix/#comments Mon, 21 Feb 2011 09:00:39 +0000 Marc Mentré http://owni.fr/?p=42229 Rendre de nouveau l’information payante sur le web, c’est le rêve de tous les éditeurs. Mais des études récentes, et le résultat d’expérimentations comme celle du Times montrent qu’il y a loin de ce rêve à la réalité. La France, est aussi un terrain d’expérimentation dans ce domaine. L’occasion d’examiner les offres payantes existantes en France — quelles soient papier, papier et web et web seul — et leur attractivité, en adoptant le point de vue d’un simple consommateur d’information. Donc, un post en deux temps : d’abord un état des lieux et ensuite un comparatif des offres payantes existantes en France [pour des raisons pratiques, je me suis limité aux quotidiens nationaux], c’est-à-dire pratiquement tous les sites des quotidiens d’information.

L’idée de ce post m’est venue à la lecture de plusieurs informations distinctes : le constat que de plus en plus de sites français proposait des offres payantes ; les résultats d’un sondage du Pew Research, un institut de recherche américain, qui montre que 65% des internautes américains ont déjà payé pour du contenu online ; la publication des résultats du Media and Entertainment Barometer britannique qui montre que seul 2% des internautes seraient prêts à payer pour de l’information, les résultats controversés de l’instauration d’un mur payant « étanche » par le Times de Ruport Murdoch (et aussi celui de News of the World du même Murdoch) et en France la création prochaine d’un « kiosque numérique » auquel participeront les principaux quotidiens nationaux, à l’exception du Monde, et de trois news magazine (L’Express, Le Point et le Nouvel Observateur). Il faut ajouter à cela les résultats décevants de téléchargement d’applications sur l’iPad relevés en fin d’année 2010, et la longue grève des ouvriers du Livre, liée à la restructuration de SPPS, une filiale de Presstalis, qui a fait vaciller un peu plus le réseau de distribution de la presse écrite en France.

Toutes ont un rapport entre elles : l’affaiblissement de la presse papier minée en France notamment par un réseau de distribution de plus en plus mité, le fait que l’iPad (et les tablettes) qui était vue comme l’une des bouées de secours de la presse notamment magazine, l’érection de murs payants pour faire payer les contenus et faire oublier ce « péché originel » que fut l’instauration de la gratuité des sites de presse.

1. Le payant sur le web, un chemin semé d’embûches

Mais détaillons un peu :

L’enquête du Pew Research Center [pdf, en] montre effectivement que 65% des internautes américains ont déjà acheté du contenu payant sur Internet que ce soit pour avoir accès à un site payant ou à sa partie payante [Premium], télécharger ou contenu, ou encore utiliser la fonction de streaming. Ce pourcentage correspond grosso modo au nombre d’internautes de ce pays ayant accès à l’ADSL. Concernant l’information, le niveau de consommation est faible, puisque seuls 18% des internautes américains disent avoir payé. Le rapport ne distingue d’ailleurs pas entre l’information « news », « magazine » et l’accès aux sites payants. Les diplômés [college graduates] et ceux disposant d’un revenu supérieur à 75.000$ par an [56.000€], sont les plus importants consommateurs d’information payante.

Le niveau des dépenses engagées est aussi très faible : en moyenne 10$ par mois (7,5 €). Ici, le rapport ne distingue pas selon les types de contenu, mais il est à noter que près de la moitié des internautes (43%) paient de 1 à 10$, 25% de 10 à 30$ et une frange de 7% 100$ et plus.

En fait, il semblerait (mais c’est à confirmer) que la stratégie de contenus Premium soit… payante, à condition remarque Amy Gahran [en] de l’Online Journalism Review qu’elle soit « précisément ciblée —ce qui est une bonne nouvelle pour l’information de niche, les ‘special package‘ ou les services d’information spécialisés. »

La lecture du Media and Entertainment Barometer, publié sous l’égide de la société de conseil britannique KPMG, n’est guère plus revigorante. D’abord, il constate que 13% seulement des internautes britanniques ont déjà payé pour du contenu en ligne et qu’ils ne sont que 9% « à envisager de le faire dans l’avenir ». Mais surtout, il indique que seul 2% des internautes sont prêts à payer « pour un accès illimité [unrestricted access] à un site qu’ils utilisent actuellement régulièrement si un ‘mur payant’ était introduit, tandis que pratiquement 80% rechercheront du contenu gratuit ailleurs. »

Le vrai espoir viendrait des « apps. » pour mobiles et tablettes. Un quart des consommateurs britanniques en a déjà téléchargées des payantes sur leur mobile, un chiffre qui atteint 44% pour la tranche d’âge « stratégique » 18-34 ans.

Ces deux études récentes corroborent les résultats d’une autre plus ancienne (2009) de Gfk Custom Research, menée sur 16 pays européens et les États-Unis. Il en ressortait que seulement 13% des internautes acceptaient de payer pour des contenus. Les Français estimant, pour 89% d’entre eux que « les contenus et les informations devaient être gratuits sur Internet ».

Le mur payant « étanche » n’est pas la solution miracle…

Il paraît donc nécessaire de distinguer sites et applications pour mobiles et tablettes.

Concernant les sites, le « mur payant étanche » ne semble pas être une solution miracle, tant il suscite de réticences et s’adresse à un bassin d’internautes réduit. Plusieurs sites viennent d’ailleurs de l’abandonner comme l’américain  Editor & Publisher [en] : « Le seul nom de ‘mur payant’ a une connotation péjorative, reconnaissait son PDG Duncan McIntosh le 210 décembre 2010 (…) nous l’avons retiré pour attirer plus de trafic et faire en sorte qu’une plus grande part de notre contenu soit disponible pour nos visiteurs. »

C’est le cas aussi d’un site généraliste d’information locale, émanation d’un journal paraissant deux fois par semaine en Californie, le Sonoma Index-Tribune [en] qui après 3 mois d’expérimentation a cessé de demander à ses visiteurs de payer 5$ par mois en raison de l’apparition d’un site d’information gratuit —Patch d’AOL— sur le secteur [en]. Ce renoncement illustre le fait qu’un site payant n’est pas concurrentiel face à un site qui propose le même type de contenu gratuitement.

À une toute échelle, qu’advient-il des sites britanniques du Times et de News of the World rendus payant par Rupert Murdoch ? Pour le second, le retour d’expérience est encore faible [il n'est payant que depuis le 14 octobre 2010], mais ce que l’on peut constater, selon ComScore [en] est que l’on est passé d’un chiffre d’1,5 million de visiteurs uniques en septembre 2010 à 634.000 en novembre, et que le « temps passé sur le site et par page vue est une forte décroissance, signifiant que les visiteurs ne font que s’arrêter sur la page d’accueil payante pour ensuite chercher ailleurs pour du contenu gratuit. »

Même cause, même effet pour le site du Times de Londres. Selon une étude [en] d’Experian Hitwise, commandité par le Guardian, le site aurait 54.000 souscripteurs (en novembre) auquel il faut ajouter 100.000 abonnés au « papier » qui aurait activé leur abonnement couplé « papier+web ». Tout aussi significatif, le fait que les trois quart de ces souscripteurs (41.000 sur 54.000) seraient basés en Grande-Bretagne. Une formidable régression, car les sites d’information britannique, du type Guardian, Daily Mail ou Daily Telegraph, ont grosso modo, un public divisé en trois parties sensiblement égales: un tiers britannique, un tiers américain et un autre tiers « reste du monde ». Bref, la question se pose réellement de savoir si ce modèle de mur payant étanche est viable sur le long terme.

[Lire la critique au vitriol [en] que fait de ce modèle Clay Shirky, ou celle d’Eric Hippeau, le patron du Huffington Post, un site qui a trouvé son modèle économique, en restant gratuit, puisqu’il est à l’équilibre cette année tout comme l’est celui de The Atlantic [en] qui est aussi resté gratuit — attention, il faut être inscrit pour accéder au site du NYT].

À l’évidence, passer au payant, signifie trouver des systèmes plus fins —pour les sites d’informations générales—. C’est ce sur quoi travaille le New York Times, qui compte s’appuyer sur le « cœur » de son lectorat, c’est-à-dire les 15% de visiteurs qui consulte chaque mois plus de 20 pages du site [lire l'article [en] de PaidContent sur ce sujet], mais n’entend pas pour entend construire un mur « étanche ».

… ni l’iPad

Reste donc les applications téléchargées sur mobile et sur les tablettes (pour l’instant essentiellement sur l’iPad). Il ne faut pas trop se bercer d’illusions comme le remarque Esther Vargas, de Perù.21, dans Reflexiones sobre Periodismo, un petit ouvrage collectif publié sous l’égide la FNPI [es] (Fondación Nuevo Periodico Iberoamericano) :

L’iPad ne fournira pas assez d’essence pour réinventer le journalisme tel qu’il doit et devrait être.

En dépit d’avertissement de prudence de ce type, tous les grands éditeurs se sont engouffrés sur ce support, car avec l’iPad, ce serait le retour du payant. Cela correspond aussi à un changement de mode de consommation de l’information qui se fait « en mobilité » et non plus sur un ordinateur fixe. Sans surprise, Rupert Murdoch est en pointe. Son groupe News Corp. va lancer en ce début d’année 2011 le Daily [en], un quotidien spécialement conçu pour les tablettes. Il est suivi par Richard Branson, qui prépare Project [en], un magazine destiné à l’iPad et aux tablettes.

La mobilité un coin de ciel rose? Sans doute, mais le retour au réel est brutal. Les statistiques de novembre du nombre d’apps de magazine vendues sur iPad aux États-Unis ont sonné comme un rappel à l’ordre. Wired est le cas le plus spectaculaire. Le journal consacré à la high tech américain avait vendu près de 100.00 apps en juin 2010 lors de son lancement pour ne plus en vendre qu’un peu plus de 20.000 en novembre. Faible, lorsque l’on sait qu’il s’agit pratiquement d’un achat « au numéro »

Bref, l’effet de nouveauté ne dure pas et ensuite, comme le remarque Mashable [en] les ventes d’apps suivent la même courbe que celle des ventes en kiosque. Surtout, il semble que les utilisateurs soient déçus. Susan Currie Sivek de Mediashift [en] remarque :

Aujourd’hui, les apps de magazine ont tendance à être ternes, à être des répliques maladroites des pages des magazines imprimés et ne laissent pas les lecteurs partager le contenu via les réseaux sociaux, voire par e-mail [cette impossibilité de partager est sévèrement critiquée sur son blog [en] par Bradford Cross]

Le kiosque numérique, une solution à la française ?

C’est dans ce contexte que des éditeurs français, réunit dans un GIE, baptisé e-Presse Premium, veulent lancer un kiosque numérique. Il y a du village gaulois d’Asterix dans ce projet. Les éditeurs de quotidiens —L’Équipe et Le Parisien, Le Figaro, Les Échos— et de news magazines —L’Express, Le Point et le Nouvel Observateur— ont décidé de s’unir pour, dixit Le Figaro, « renverser le rapport de force créé par Google, Apple et Facebook ».

Le projet repose sur deux idées fortes :

  1. sortir du rapport de force financier imposé, par exemple, par Apple qui prélève 30% du prix final du contenu vendu et revenir à des marges de distribution inférieur à 20% ;
  2. permettre à chaque éditeur de rester pouvoir continuer à fixer le prix de ses propres abonnements ainsi que le prix de ses contenus (articles) vendus à la pièce.

Nul doute, que les résultats de ce GIE, qui est piloté par Frédéric Filloux seront scrutés à la loupe car ce projet pour séduisant qu’il paraisse sur le papier semble, malgré tout, comme l’écrit Guillaume Champeau dans Numerama

apporter une mauvaise réponse à un problème qui est mal posé. La question est d’abord moins de savoir comment faciliter le paiement des différents journaux que de savoir si les journaux dans leur forme actuelle peuvent encore donner l’envie d’être achetés.

Car l’information à un prix. Soit gratuite et dans ce cas, c’est la publicité, et/ou l’impôt via la redevance qui paie la fabrication du contenu, soit payante et dans le cas le consommateur paie tout ou partie du contenu [lire "Personne ne pense un seul instant qu'il devrait payer pour son journal"].

2. Le journal vendu en kiosque n’est plus concurrentiel

Avec en tête donc, le fait qu’un faible pourcentage d’internautes étant prêt à payer pour obtenir de l’information sur le web, je me suis livré à une étude comparative sur les différentes offres disponibles sur le marché français, concernant les quotidiens nationaux français. J’ai regroupé ces offres [je n'ai pas inclus dans cette étude les quotidiens dont le site est gratuit, c'est-à-dire L'Équipe, L'Humanité et France Soir] proposées par les différents quotidiens nationaux dans un GoogleDocs [ce doc est amendable et peut être complété].

Je m’en suis tenu à la seule approche par les prix sans m’interroger sur la qualité de l’information produite par tel ou tel titre ou marque. Il est donc possible d’obtenir un information (ou un article) selon 5 formules différentes :

  1. l’achat du journal papier au numéro (en kiosque),
  2. l’abonnement papier (qui peut-être délivré soit par La Poste soit par portage),
  3. l’abonnement mixte papier + web, qui inclut selon les formules le seul accès au site, ou l’accès au site —à sa partie payante— et aux applications smartphone et tablette. Etrangement, la presse quotidienne française semble avoir un très fort tropisme pour les produits Apple, iPhone et iPad.
  4. l’abonnement web, qui inclut souvent les applications smartphone et tablette.
  5. les applications smartphone et tablette.

À ce petit jeu comparatif, il existe un grand perdant : la vente en kiosque. Comparée à toutes les autres formules, et quel que soit le quotidien, l’information papier vendue en kiosque est hors de prix, ou en tout cas n’est plus concurrentiel. Acheter un quotidien coûte (sur 5 jours) de 10 euros (France Soir) à 30 euros (Le Monde, Les Échos) mensuellement. Ce coût mensuel est encore plus élevé si l’on achète son journal sur 6 (Libération, Le Monde, Le Figaro) voire 7 jours (Le Parisien, L’Équipe) car, dans ce cas s’ajoute le prix de suppléments « obligatoires » comme les mensuels Next pour Libération, Enjeux pour Les Échos, ou hebdomadaires comme Le Monde Magazine, L’Équipe Magazine, Le Figaro Magazine et Madame pour (dans ce dernier cas existe toujours la possibilité d’acheter L’Aurore, qui est Le Figaro du samedi vendu sans ses magazines).

Si l’on calcule le coût annuel de l’achat en kiosque d’un quotidien, l’addiction à l’information coûte de 336 euros pour Le Parisien, à 484 euros pour Le Monde, quasiment le prix d’un iPad !

D’un strict point de vue de consommateur, le jeu en vaut-il la chandelle ? Qu’apporte réellement de plus le journal papier ?  Il est — pour des raisons inhérentes à son processus de fabrication— en retard sur l’information produite sur le web, par les radios et les chaînes télévisées d’information en continu. Il faudrait donc pour que l’achat en kiosque perdure, que les journaux apporte une très forte valeur ajoutée en terme d’analyse, de réflexion et de profondeur. Est-ce le cas ? Le fléchissement continu des ventes, montre que le lectorat n’en est pas vraiment convaincu. C’est sans doute l’un des principaux défis que doivent relever les éditeurs et les rédactions.

L’acheteur en kiosque n’a pas accès aux infos payantes du site

À cela s’ajoute un deuxième handicap : acheter un journal implique trouver un kiosque en particulier pour les éditions du dimanche. C’est cette difficulté qui, entre autres, à conduit Amaury a construire son propre réseau de distribution distinct de Presstalis, pour Le Parisien, afin de densifier le nombre de points d’accès.

Et puis, il y a aussi le fait que l’acheteur d’un quotidien en kiosque est pénalisé par rapport aux abonnés, puisqu’il n’a pas accès aux sites payants (ou à la partie payante des sites), alors même qu’il paie plus cher ! Pire, sur certains sites comme celui de Libération, celui qui achète le journal en kiosque se voit interdire la consultation des mêmes articles sur le site, la plupart d’entre eux étant en zone payante pendant les 24 heures de vente du quotidien. Il existe pourtant des solutions techniques très simples, comme les codes QR, qui permettraient à ces consommateurs d’avoir accès au site pendant, par exemple, une journée. Visiblement, l’imagination n’est pas vraiment au pouvoir dans les services marketing.

Côté abonnement, désormais pratiquement tous, à l’exception du Figaro et du Parisien, qui maintient un abonnement pure print, incluent l’accès au site et à sa partie payante. Certains comme La Tribune, ajoute des bonus, comme une édition numérique du quotidien le samedi, qui n’est accessible que pour les abonnés.

L’abonnement couplé, papier+web, fait-il baisser le coût de l’information ?

On pourrait penser que cette formule d’abonnement couplé aurait l’avantage d’abaisser le coût d’accès à l’information. Ce n’est pas toujours le cas: aux Échos, par exemple, si l’on adopte le Pack Premium, il en coûte 168 euros de plus sur une année que le seul achat du quotidien au numéro. Il est vrai que l’offre est particulièrement complète avec l’accès au site et à ses archives et des solutions de mobilité pour les smartphones et l’iPad. Par le jeu des réactualisation (pour l’iPad) et des alertes (smartphone), c’est une forme d’information en continu qui est ainsi proposée. Mais, question: cela vaut-il 168 euros. Il faut si l’on pratique ce genre de formule que l’information produite sur le web apporte une réelle valeur ajoutée par rapport au seul papier.

C’est le cas aussi pour Le Figaro qui fait payer légèrement plus cher son offre bundle, baptisée Global Club, par rapport au seul abonnement papier : 366 euros par an, contre 319. Une offre « cassée » (la différence est de  47 euros) en ce qui concerne le web, puisque l’abonnement « pure web » équivalent, Digital, coûte 180 euros. Elle a le mérite de la logique, on fait payer un peu plus cher l’abonné papier pour les services offerts sur le web, archives, etc., et en mobilité (smartphone et iPad compris).

Mais donc en règle générale, l’abonnement couplé est moins cher que le seul achat du journal en kiosque, c’est le cas pour Libération avec son Offre intégrale, qui comprend l’accès aux archives, au PDF du quotidien et les apps pour mobile et iPad, le tout pour 228 euros. On peut considérer que si l’on adopte cette offre, le prix du journal papier à l’unité est ramené à environ 28 centimes ! Explications: il existe l’offre Première qui est un abonnement pure web à 144 euros par an. La différence entre l’Offre intégrale à 228 euros et Première à 144 euros est donc de 84 euros. En comptant quelques 300 numéros par an, on obtient un prix par numéro papier de… 28 centimes. Une telle proposition ne peut signifier autre chose que : le papier ne vaut rien. Les partisans du papier pourront soutenir que c’est la partie web qui ne vaut pas grand chose.

Plus on paie, plus on a de services

Les abonnements pure web offrent une grande variété, et leur logique semble plus évidente : plus vous payez plus vous avez accès à un grand nombre de services. Mais, il existe de très fortes disparités de prix : le plus coûteux est l’abonnement aux Échos, 360 euros, mais il offre ce service d’information en continu dont je parlais plus haut. Ensuite, pour pour rester dans le registre strictement comparatif, on remarque que La Tribune casse les prix avec son abonnement à 120 euros, suivi par Libération à 144 euros, les autres proposant des abonnements de 180 euros.

La différenciation —outre la qualité d’information proposée par le site— peut se jouer sur les services et par exemple sur les archives, dont l’accès pour certains sites est limité —90 articles pour Le Figaro (pourtant Le Figaro parle d’accès à l’intégralité des contenus !), 25 pour Le Monde, par exemple— et pour d’autres comme Le Parisien, La Croix ou La Tribune, illimité. Un facteur qui pourrait être pris en compte au moment de choisir son abonnement à un site d’information.

Ces offres, pour certaines d’entre elles, comme celle Figaro Digital, comprennent un grand nombre de services [j'en ai compté 20] qui vont de l’abonnement à des newletters spécialisées à des services de conciergerie, et l’inscription dans la communauté du journal, grâce à des cercles de discussion, la possibilité de créer son propre réseau, etc. Pour Le Parisien ce sera des conseils juridiques, des offres promotionnelles sur d’autres produits, etc.

Le problème est que ces avantages supplémentaires ne sont guère valorisés sur les sites (Le Figaro fait un effort avec une vidéo de présentation) où ils se présentent souvent sous forme de listing sans que l’on sache précisément ce que recouvre chacun de ces services potentiels et quelle est leur réalité. Ainsi, si l’on rejoint la communauté du Figaro, ou celle de Libération, il semblerait intéressant de savoir combien de membres en font partie, par exemple, pour savoir ainsi si l’on peut bénéficier d’un effet de réseau ou si l’on se risque de se retrouver dans un désert. Bref, ces offres donnent souvent l’impression qu’il faut d’abord payer pour savoir.

Reste la question des apps. Elles sont pour la plupart gratuites pour l’iPhone, à l’exception de celle du Monde qui est payante (0,79 euros) et celle de Libération, (0,79 euros également et elle offre l’accès à 6 numéros pour 3,99 euros). Pour l’instant, le journal Les Échos est allé le plus loin dans la logique du « payant mobilité » en proposant deux offres : l’une étant un abonnement « mobile » et l’autre un abonnement au seul iPad.

Après ce rapide tour d’horizon, quelques remarques :

- le prix de l’information est lié au support, le moins coûteux étant le mobile et le plus onéreux le journal papier vendu en kiosque. De telles distorsions sont-elles soutenables à moyen et long terme ?

- l’information est beaucoup moins chère sur le web que sur le papier et ce quel que soit le titre. L’écart est grosso modo de 1 à 2. Cet écart peut se justifier par des différences de coût de production et de distribution. Cela rend encore plus intenable sur le long terme l’information papier.

- l’achat d’information « à l’article » est difficile voire impossible. En tout cas, l’offre n’est guère apparente, à l’exception des archives. Le kiosque numérique e-Presse Premium devrait résoudre ce problème. Mais la situation est pour le moins étrange : pour s’informer sur un sujet précis il est nécessaire d’acheter soit la totalité de l’information du jour (quotidien papier) soit de s’abonner pour au minimum un mois. Il y a longtemps que l’on est plus obligé en musique (merci iTunes) d’acheter un album complet si l’on ne souhaite écouter qu’un seul morceau.

- l’information brute, la hot news est désormais gratuite. Elle est considérée par la totalité des éditeurs comme une commodity, comme disent les Anglo-saxons, c’est-à-dire qu’elle n’a pas de valeur, ou en tout cas une valeur très faible. Mais cela pose une question, pour les sites web : pourquoi une information bascule-t-elle du côté du payant ? Ce choix qui n’est pas réellement un choix éditorial mériterait d’être plus expliqué. Là encore sur aucun des sites, je n’ai trouvé d’explication, si ce n’est le fait qu’une « vieille information » basculait dans le payant dès lors qu’elle devenait archive. Un peu court pour un consommateur d’information.

Article initialement publié sur Media Trend

Crédits Photos Flickr : Just Luc / Franck Munari / DubyDub2009 / Yago1.com /

]]>
http://owni.fr/2011/02/21/l%e2%80%99information-%c2%ab-papier-%c2%bb-est-hors-de-prix/feed/ 10