OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Médiamétrie, les docteurs Mabuse de l’audience dans le collimateur http://owni.fr/2010/03/01/mediametrie-les-docteurs-mabuse-de-l%e2%80%99audience-dans-le-collimateur/ http://owni.fr/2010/03/01/mediametrie-les-docteurs-mabuse-de-l%e2%80%99audience-dans-le-collimateur/#comments Mon, 01 Mar 2010 15:21:24 +0000 Emmanuel Torregano (électron libre) http://owni.fr/?p=9237 arton624

La mesure de l’internet est loin encore de faire l’unanimité. Médiamétrie a durci sa méthode dernièrement. L’institut prépare aussi une révolution avec des audiences de la radio mesurées par un enregistreur automatique en 2011.

La mesure d’audience, c’est le nerf de la guerre entre les médias. Ces derniers ne sont pas tous logés à la même enseigne, loin de là. Entre la télévision, la radio, la presse ou l’internet, rien n’est égal, et les mesures sont soit précises, soit fantaisistes, voir carrément mensongères. Depuis déjà longtemps les soupçons sur la méthodologie utilisée pour mesurer les chaînes de télévisions par Médiamétrie ont disparu, et la bataille se fait principalement sur le terrain des programmes. Il n’en est pas de même pour la radio, mais surtout de l’internet. Pour le premier, les audiences sont évaluées à partir de sondages téléphoniques, alors que l’internet requiert l’utilisation de mouchards.

Les raisons qui expliquent ces différences de traitement n’ont rien à voir entre elles. D’un côté, la radio ne s’est jamais entendu pour passer au niveau supérieur : l’utilisation d’un appareil portatif qui enregistrerait l’environnement sonore. Tandis que l’internet est un média jeune, et Médiamétrie continue d’améliorer chaque mois ses méthodes en association avec Nielsen. Ne parlons même pas de la presse, dont les seuls chiffres disponibles sont déclaratifs, et malgré la certification de l’OJD, ils n’ont qu’une fonction d’affichage, mais guère plus.

Cela dit, et en attendant une mesure unifiée des médias, sur des critères comparables, les prochaines évolutions planifiées par Médiamétrie vont très certainement représenter un virage important, et permettre d’améliorer sensiblement leur fiabilité. Ainsi l’étude Nielsen NetRatings sur l’internet a subi depuis juillet des modifications drastiques. Les résultats ne se sont pas faits attendre, et dès le mois de novembre certains des sites mesurés ont montré une fâcheuse tendance baissière, signe que pour eux, l’audience était aussi largement gonflée aux stéroïdes.

Ces dégringolades sont nuisibles à plus d’un titre pour l’ensemble du marché. Les envolées de TF1.fr, LeFigaro.fr ou NRJ.fr sont toxiques. Elles mettent le doute dans l’esprit des annonceurs, et perpétuent une vision mafieuse des mesures pratiquées par Médiamétrie. Avec comme conséquence plus inquiétante encore, une baisse des revenus publicitaires sur l’ensemble du marché. Un long travail est certainement nécessaire dès à présent pour regagner la confiance. Et comme toujours, cela passera par un consensus des éditeurs de sites pour travailler dans la même direction. C’est le sens du dernier message de Médiamétrie expliquant par le détail les dernières modifications introduites à partir de novembre dernier dans la méthodologie du Nielsen NetRating.

Atypique

En voici quelques extraits :

« En avril 2009, Médiamétrie a mis au point une méthode d’exclusion de ces panélistes. Si elle a permis d’améliorer la situation, elle restait perfectible, d’autant que son efficacité s’est dégradée au fil des mois »

- comprenez que les vilaines combines mises en place pour attirer de l’internaute n’avaient pas abdiqué, et que les digues bâties par Médiamétrie pour exclure les internautes au « comportement atypique » avaient été submergées, une fois de plus.

Il s’agit essentiellement d’internautes répondant massivement aux mailing de jeux concours, et qu’il devient très aisé d’attirer sur un site, pour en augmenter artificiellement l’audience. Le lien entre l’internaute captif et la matière traitée sur le site n’a alors plus aucun rapport, si ce n’est que le passage du premier est comptabilisé par Médiamétrie. Bref, il fallait sévir, et une fois le coup de balai passé, Médiamétrie affirme qu’« ainsi, d’un mois à l’autre, on compte une base d’exclusion commune de près de 70%, contre 35% avec l’ancienne méthode ».

La différence se ressent, puisque le site du Figaro, qui pédalait très largement devant ses concurrents, maillot à pois sur les épaules, a d’un coup perdu 20% de son audience pour finir par être rattrapé par le premier peloton.

Alors où se situe la véritable audience de ces sites ? Est ce que le Monde, le Figaro réunissent véritablement entre 5 et 6 millions d’internautes par mois – le Figaro a d’ailleurs communiqué sur une audience de 6 millions en janvier ? La vérité est certainement en-dessous. Comme on l’a vu, il suffit que Médiamétrie évince les internautes « atypiques » pour que les audiences baissent instantanément dans le NetRatings suivant. Il est aussi certain que cette lutte de l’épée contre le bouclier est loin d’être terminée. Comme cela se voit dans le sport de haut niveau, les docteurs Mabuse ont toujours quelques coups de Jarnac d’avance.

On peut donc estimer que l’audience actuelle de ces sites est encore gonflée de 20 à 30%, sans trop de crainte de se tromper. Cependant, les pratiques ne sont pas les mêmes selon les sites. Et si le Figaro est un Pantani reconnu du Web, Le Monde n’a pas usé des mêmes méthodes. Alors que les audiences d’un site comme NRJ, ou celui de TF1 par exemple montrent des profils assez variables. La Une affiche pour janvier 8,679 millions de visiteurs uniques – Overblog n’étant plus compté, plus question d’annoncer 15 millions de Vu comme par le passé. Pour le coup, TF1.fr est en passe de perdre sa place dans la sacro-saint Top 30 du Nielsen NetRatings. Une descente que les services concernés expliquent par la sortie du périmètre de mesure de plusieurs sites.

La mesure d’internet est encore convalescente, mais celle de la radio est aussi un cas particulier sur lequel il n’est jamais inutile de se pencher à nouveau. Les audiences sont obtenues par Médiamétrie après moulinage des chiffres bruts découlant d’une enquête téléphonique menée sur 126 000 personnes tout au long de l’année. Ce procédé relativement efficace pour ce qui est des grosses radios, celles qui drainent le plus d’audience n’est pas très précis dans les autres cas. Notamment parce que les personnes interrogées se souvient en premier des marques fortes, comme RTL, Europe 1 ou France Inter. Il est très difficile pour une station nouvelle de se faire une place. Ce phénomène se traduit par une prime d’audience aux médias installés de longue date dans les résultats communiqués par Médiamétrie. Cette méthode possède aussi d’autres défauts importants, mais elle a un vrai gros atout : elle prouve que l’auditeur a écouté la station, qu’il en a gardé un souvenir même si parfois, il se trompe de bonne foi sur le nom.

Agenda

Or depuis près de 15 ans, Médiamétrie et les membres du collège radio s’interrogent sur l’opportunité de passer à une mesure automatique de l’audience. En 1995 une première batterie de tests avaient été menée, mais rapidement arrêtée. En fait, l’utilisation d’un petit boitier qui enregistrait tous les sons posait des problèmes, car les cobayes ne le gardaient pas tout au long de la journée sur eux. Une société suisse proposait aussi une montre avec les mêmes capacités d’enregistrement, mais tout le monde ne porte pas de montre… Bref, les expériences ont été stoppées jusqu’en 2005. Sans que les nouveaux essais n’aient démontré un mieux.

Il fallait reprendre à zéro et c’est bien ce que compte faire Médiamétrie et les acteurs de la radio en France. Une série de réunions a eu lieu depuis quelques semaines, la prochaine étant prévue pour dans une quinzaine de jours. Aucune solution n’est écartée, ni même pour Médiamétrie de concevoir de A à Z un procédé de mesure automatique du champ sonore des auditeurs témoins. Un agenda a été décidé. L’année en cours permettra de définir le cahier des charges de cette nouvelle mesure. Tandis que les premiers essais sont prévus pour 2011 en région parisienne. Ensuite, seulement les radios décideront de valider ou non la méthodologie.

Les enjeux ne sont pas minces. D’après certaines études, une mesure de ce type, adossée à un enregistrement automatique des sons, comparés ensuite à une base de données pour identifier les programmes avec précisions, entrainerait des variations de plus ou moins 20% des audiences par rapport aux sondages téléphoniques. Les éditeurs radiophoniques préfèrent bien sûr ne pas se presser trop, et envisagent aussi de tout arrêter si cela tournait trop vinaigre. Europe 1 empile les études pour connaître les implications de ces mesures automatiques ; NRJ est plutôt favorable ; RTL n’est pas contre ; Skyrock se tâte mais se rangerait plutôt dans le camp des opposés, etc. Cela dit, il faudra pour Médiamétrie dégager un consensus, car au moment de payer pour mettre sur les rails le nouveau système de mesure, c’est aux éditeurs radiophoniques de mettre l’argent sur la table. C’est la règle…

» Article initialement publié sur Électron Libre

]]>
http://owni.fr/2010/03/01/mediametrie-les-docteurs-mabuse-de-l%e2%80%99audience-dans-le-collimateur/feed/ 0
Apple, un nouveau contrat de civilisation http://owni.fr/2010/02/24/article-choisi-apple-un-nouveau-contrat-de-civilisation/ http://owni.fr/2010/02/24/article-choisi-apple-un-nouveau-contrat-de-civilisation/#comments Wed, 24 Feb 2010 17:07:59 +0000 Emmanuel Torregano (électron libre) http://owni.fr/?p=8986 arton576

Un jour cette expression aura tout d’une lapalissade : « Apple est le microsoft de la culture et de la connaissance ». Et de ce jour Microsoft connaîtra un déclin, inéluctable. Ce jour n’est pas si loin. Nul besoin de se demander dès maintenant s’il faut s’en réjouir, car la domination d’une entreprise est en soi un problème pour le reste du marché, et plus inquiétant encore pour la société tout entière.

Microsoft n’avait finalement été qu’un galop d’essai. Une timide percée du virtuel dans nos vies ; rien de vraiment capital. La société de Redmond n’a finalement contrôlé qu’un marché de la boîte à outil informatique, celle qui permet d’écrire, d’échanger ou de regarder des sites Web. Des éléments essentiels, mais sans signification majeure, ni fondements pour établir une civilisation. L’empire de Microsoft s’appuie sur des bidouilles informatiques érigées en éco-système.

Apple n’appartient pas du tout à cet ordre là. La différence est importante, immense entre les deux sociétés. Steve Jobs, son patron et créateur avec Steve Wozniak, l’a toujours affirmé, il s’agit pour lui de changer le monde, pour en bâtir un nouveau. Cette antienne était celle de ses débuts dans l’euphorie des années 1970 de la Silicon Valley, mais elle reste plus encore d’actualité aujourd’hui, alors que la firme en a enfin les moyens…

Et comme toutes les grandes aventures, Apple a commencé doucement à l’abri des regards pour changer en profondeur les choses. L’histoire a commencé par une décision drastique, prise alors que Steve Jobs revenait aux commandes d’Apple au milieu des années 90. L’ordinateur ne devait plus être un outil, gris, beige, moche pour tout dire, que l’on cantonnait au bureau, pour être enseveli sous le courrier en retard… Steve Jobs a mis le design de ses produits au cœur de son process de conception et de réalisation. L’iMac, premier ordinateur né de cette exigence neuve, a permis de sortir l’ordinateur de son no man’s land de la bureautique.

pomme

Cafetière

L’étape suivante est plus étonnante. Apple n’avait pas prévu que l’iPod allait connaître un tel succès. Et comme un bonheur n’arrive jamais seul, ce petit appareil destiné à écouter de la musique est devenu en quelques mois le meilleur agent de publicité de la marque ; bien que bénéficiant d’une forte notoriété, Apple n’avait jamais réellement vendu en dehors d’un cercle d’initiés. L’iPod fut la révélation pour le grand public qu’autre chose était possible en dehors de la tarentule Windows.

Depuis ce coup d’éclat, Apple s’est pris à rêver de sa toute puissance. Et, plus étonnant, le monde lui a tendu un miroir complaisant. L’iTunes Store a ainsi totalement transformé l’idée que l’on pouvait se faire d’une boutique en ligne. Les Apple Stores en dur ont réussi ce même tour de force. Que dire aussi de l’iPhone, dont la progression des ventes tient du miracle pur et simple en ces temps de crise économique !

Le cas iPhone mérite que l’on s’y attarde. Son succès mondial sous-tend la victoire totale de l’ordinateur sur le reste des objets. Le téléphone mobile n’était pas sexy avant l’iPhone, car sa conception tenait plus de la cafetière… Apple a introduit l’intelligence au cœur de la téléphonie mobile. Oubliant volontairement, au passage, qu’un téléphone était vendu jusque-là pour ses caractéristiques techniques. En se déterminant sur d’autres critères, comme l’interface, le mode opératoire ou bien l’accès à un catalogue d’applications, Apple a changé le paradigme du secteur, et l’a préempté aussitôt. Il n’y a pas de concurrent aujourd’hui. iPhone est dans une catégorie à part. Et cela va durer.

3923538334_af6a930592

Gutenberg

L’Ipad agit comme un concentré de tous les atouts du jeu d’Apple : l’interface sans pareille, l’ordinateur au cœur de la vie ordinaire, la simplification d’accès aux univers de la connaissance et du divertissement, tout ça dans une ambiance cool et décontractée. Apple est d’ailleurs la victoire dans le domaine de la technologie de l’âge du « teenager américain », qui a déjà sévi dans d’autres secteurs, comme le cinéma ou la musique.

L’armature est en place donc, les voiles gonflées, mais où va-t-on ainsi ? Apple n’est pas une société inoffensive, comme l’a été Microsoft. L’ogre de Redmond n’a été qu’un jouet pour enfants, ou adultes attardés. Cette entreprise n’a aucune envergure, à l’image de son fondateur. Elle a procédé sur son marché naturel avec une stratégie de rouleau compresseur, et s’est peu souciée du destinataire, en clair de satisfaire les clients. Dans sa version grand public Windows n’est pas un produit destiné à être vendu, mais à être adopté par l’utilisateur sans autre alternative. C’est très différent.

Apple doit séduire – et certainement agacer aussi, mais c’est le contrepied du premier. Car la firme de Cupertino va dans les années qui lui reste, celle de son hégémonie, de son climax industriel, avant l’inévitable déclin, déterminer les principes d’un nouvel accès à la culture, à l’information et au divertissement. L’effet sera forcément tellurique. On le comparera avec le recul nécessaire à ce que l’imprimerie de Gutenberg fut à l’aube de la renaissance. Ni plus, ni moins. Et, il serait honnête dès aujourd’hui d’éviter les erreurs sans cesse répétées par le passé d’encenser les grands créateurs, une fois passés de vie à trépas.

> Article initialement publié sur Electronlibre

]]>
http://owni.fr/2010/02/24/article-choisi-apple-un-nouveau-contrat-de-civilisation/feed/ 5
Jacques Toubon, la mission Zelnik c’est lui http://owni.fr/2010/02/04/jacques-toubon-la-mission-zelnik-c%e2%80%99est-lui/ http://owni.fr/2010/02/04/jacques-toubon-la-mission-zelnik-c%e2%80%99est-lui/#comments Thu, 04 Feb 2010 16:58:28 +0000 Emmanuel Torregano (électron libre) http://owni.fr/?p=7669 Hier soir se tenait une réunion du club parlementaire audiovisuel. Les invités de cette session très attendue étaient Jacques Toubon et Patrick Zelnik, pour discuter du rapport remis il y a quelques semaines maintenant au ministre de la Culture et de la Communication Frédéric Mitterrand. Parmi les invités, beaucoup de producteurs, des représentants de la radio, des opérateurs internet et Google France. Le débat promettait d’être chaud, ce fut brûlant.

Depuis que le rapport de la mission dite Zelnik a proposé d’instaurer une gestion collective pour la musique sur l’internet, le monde de la culture est en ébullition. À peine les préconisations exposées, le syndicat des majors de la musique, le SNEP, avait attaqué bille en tête, accusant Patrick Zelnik, producteur et fondateur du label Naïve, d’instrumentaliser cette mission pour des raisons personnelles. L’attaque n’était pas très fair-play mais elle a touché. Et depuis, Patrick Zelnik s’évertue à calmer les esprits en expliquant, dès qu’il en a l’occasion, que la gestion collective n’est pas une obligation, à condition de trouver une solution d’ici là – le rapport donne un an pour trouver un accord.
Bref, c’est dans ce contexte où pleuvent en coulisse les noms d’oiseau, que le club parlementaire de l’audiovisuel se réunissait à l’initiative de ses créateurs, Emmanuel Hamelin, Frédéric Lefebvre et le nouveau venu Franck Riester. Patrick Zelnik est à l’heure. Mais alors que les convives et les journalistes trouvent une place dans la salle du dernier étage de l’immeuble Jacques-Chaban-Delmas, ses acolytes ne sont pas encore arrivés ; Guillaume Cerutti ne viendra pas, et comme à son habitude, Jacques Toubon est en retard. C’est à Frédéric Lefebvre que revient le privilège d’ouvrir les débats. Le porte parole de l’UMP se contente de répéter l’importance du sujet : le financement de la création. Enfin, Jacques Toubon fait son entrée, alors que l’ex-député des Hauts-de-Seine finit son allocution en évoquant la gestion collective, et sa volonté de trouver un financement durable pour la culture.

Tribun

Patrick Zelnik hérite du micro. « On m’avait promis une soirée chaude », lance t-il, et embraye sur Hadopi. La loi sur la riposte graduée est qualifiée de « médecine douce », car la « gratuité sur internet, c’est très dévastateur ». On se demande bien alors où est passé celui qui au tout début des années 2000, alors que la vague Napster déferlait, s’était levé, seul face aux majors de l’IFPI (Fédération internationale de l’industrie musicale), pour dénoncer les carences de la production et dédouaner le piratage naissant… Après cette mise en bouche, Patrick Zelnik entame ce refrain déjà entendu sur la gestion collective : « la gestion collective est l’un des moyens et pas le seul. Il y en a d’autres. Et des plus efficaces ». Reste donc à les trouver.
Dans la salle, on opine du chef, sûr d’avoir mis en échec cette mesure si controversée – sont présents les pros du lobbying au regard d’aigle. Peine perdue, voilà que Jacques Toubon rentre dans l’arène, et le show peut enfin commencer. Le tribun est toujours en vie. Vivace même, prêt à dégainer et interpeller les pleutres et les planqués ! Le ton est donné d’emblée : « On ne peut régler les problèmes qui se posent que par et avec le marché ». Voilà qui est clair, le plus libéral des deux c’est bien Jacques Toubon, l’ancien ministre de la Culture, et ex-député européen ; Guillaume Cerutti n’est pas présent, mais cela ne change rien, Jacques Toubon est dans la place ! Son intervention s’articule autour d’un axe fort : « Changer la grille de lecture du marché », comprenez le point de vue des producteurs et créateurs n’est plus l’alpha et l’omega de l’action politique. Les aigles se changent en faucons…
Le temps suivant fut celui de l’intermède. Marie-Françoise Marais, juge à la Cour de cassation, et nouvellement promue présidente de l’Hadopi prit la parole. Avec un vrai talent et pas mal d’humour, celle qui devient la nouvelle tête de turc des internautes a souligné qu’elle garderait sa porte ouverte. « Nous ne ferons pas le monde de l’internet sans vous », dit-elle. On ne sait pas si elle voulait ainsi s’adresser aux futurs récidivistes du piratage ou bien aux ayants-droit réunis en ce lieu. Et comme c’est le jour des piques, Marie-Françoise Marais s’est permis d’en glisser une sur le fauteuil vide du ministre, car les décrets d’application de la loi “création et internet” font toujours défaut. En attendant leur publication, Hadopi n’existe pas.

Pipeaux

Et puisque le temps tournait à l’orage pour le gouvernement, Jacques Toubon, que l’on ne peut alors soupçonner d’avoir un agenda caché personnel, s’en est également pris aux pouvoirs publics en des termes crus : « Je ne sais pas ce que fout le gouvernement », a t-il lancé, à propos de la saisine à l’encontre de Google et plus largement du marché de la publicité sur l’internet – à ce propos, il serait bon de répéter que la première régie qui aura à payer sa dîme sera celle d’Orange. Le député a bien fait savoir que les textes rédigés par la commission dont il a fait partie sont prêts. Qu’ils sont suffisamment argumentés pour que l’action du gouvernement soit rapide, ajoutant : « Je suis absolument ébahi que Bercy n’ait pas fait son travail » sur ce dossier.
Comme il est pratique d’avoir un ennemi commun, qui plus est lorsqu’il a le bon goût d’être américain, avec une filiale basée en Irlande, un pays où les joueurs de pipeaux font carrière. Google, puisqu’il s’agit de lui, est d’ailleurs dans la salle. Courageusement, le directeur juridique va expliquer, la langue lourde d’échardes remâchées de longue date, qu’il ne faut pas entraver le marché , « que ce serait mettre en péril les relations entre les opérateurs du Net et les ayants-droit » ; bref, artistes circulez, y a rien à prendre ! Voilà qui n’est pas fait pour calmer Jacques Toubon. Alors que personne ne le lui a demandé, le voilà qui défend la fameuse taxe Google. Selon lui, rien ne s’y oppose dans la loi européenne.
On l’a souvent connu dans le rôle du pyromane, le voici pompier. Frédéric Lefebvre a cela de surprenant que les caméras de télévision absentes, plus de raison de provoquer. Le co-fondateur du Club explique donc qu’il serait fondé de réfléchir à « des modes de répartition des recettes publicitaires ». Le monde de la création aurait tout à y gagner, et les opérateurs internet aussi. Un secteur artistique en pleine santé, c’est la garantie d’avoir un contenu de qualité, et une appétence des internautes.
Cette histoire se joue en trois actes, et le second est tout entier consacré à la gestion collective. La commission Zelnik a repris là une proposition faite par l’Adami, l’une des sociétés de perception et de répartition des droits du monde de la culture. Pour lancer le débat que tout le monde attend, c’est à Emmanuel Hoog, président de l’Ina et tout juste désigné médiateur, que l’on tend le micro. La patate est suffisamment brûlante pour que l’intéressé précise aussitôt que, bien que l’on lui ait octroyé un an pour réussir, il souhaiterait en finir au plus vite, « sinon avec le temps on va tomber dans la répétition, nécessairement ». Voilà pour la forme. Et sur le fond, on n’en apprendra pas beaucoup plus. De toute façon, il n’a pas été retenu dans le casting du duel à la fin.

Carcan

Patrick Zelnik non plus, mais il prend tout de même le temps de préciser sa pensée. La gestion collective ne mérite pas que l’on « cristallise » le débat, car « c’est une solution faute d’en trouver d’autres » – depuis le Midem, le patron de Naïve n’en finit pas de se dédouaner dans cette affaire. Ce n’est pas le cas de Jacques Toubon, dont la conviction sur le sujet dépasse largement la portée du rapport. Osons le dire, Jacques Toubon sait. Les autres non. Jacques Toubon a vu. Les autres sont restés aveugles, planqués derrières les frontières de leur marché national. Jacques Toubon a vu les anglo-saxons faire. Petit à petit, ils ont grignoté le droit d’auteur pour, sans trop le dire, chercher à imposer le copyright sur le Vieux Continent. Heureusement, Beaumarchais s’est trouvé son porte-parole, comme Diotime soufflant les mots de Socrate…
« Je ne suis pas idiot. Je sais bien ce que ça peut représenter pour les producteurs, la gestion collective », s’écrie l’ancien député européen PPE. « Il est faux de dire qu’elle représente un carcan », souligne t-il aussi, faisant ainsi référence aux évolutions modernes de ce modèle de redistribution des droits. Car, pour lui, la gestion collective est le meilleur terreau de l’innovation, celui qui garantit que les droits seront payés, pour tous, mais aussi que les projets avant-gardistes pourront se bâtir sur des modèles économiques sains. Enfin, aux producteurs présents dans la salle, il assène cette vérité : « On ne peut pas, du jour au lendemain, raconter que le marché se porte bien, parce qu’une proposition ne va pas dans le sens de votre intérêt ».
Cette soirée n’aurait pas été complète sans un dernier coup d’éclat. Il est venu de Vivendi. Le groupe français avait été évoqué précédemment. Comparé à Google, il serait une PME, avait-on entendu, ce qui avait déclenché l’hilarité générale. Sylvie Forbin prend la parole et interpelle les membres de la commission. Ce qu’elle leur reproche est simple : ne pas avoir donné toute la place qu’elles méritent aux propositions du groupe. Que n’avait-elle dit ! Piqué au vif, ou bien vieux roublard de la joute, Jacques Toubon réplique : « Vous venez de vous discréditer ! C’est justement parce que nous ne voulions pas travailler sous l’influence des lobbies, et votre attitude le démontre parfaitement ». Le coup est rude, mais Sylvie Forbin, lobbyiste en chef de Vivendi en a vu d’autres, et pas démontée pour un sous, elle continue sa démonstration. L’idée maîtresse de son intervention tient dans la mise en place d’une plateforme regroupant l’ensemble des producteurs pour répondre à la demande des distributeurs de musique en ligne. En sortant, Patrick Zelnik lui a glissé à l’oreille que bien sûr, ils prendraient le temps d’en reparler…


Le rideau tombe sur une dernière intervention. Celle de Nicolas Seydou, le président de Gaumont, qui pose la bonne question : « Que faisons nous pour innover ? ». Les esprits sont déjà fatigués. Il est temps de fermer.

» Article initialement publié sur Electron Libre

» Illustration de Une par _ambrown sur Flickr

]]>
http://owni.fr/2010/02/04/jacques-toubon-la-mission-zelnik-c%e2%80%99est-lui/feed/ 0
La mission Zelnik distribue les baffes et des bonbons http://owni.fr/2010/01/07/la-mission-zelnik-distribue-les-baffes-et-des-bonbons/ http://owni.fr/2010/01/07/la-mission-zelnik-distribue-les-baffes-et-des-bonbons/#comments Thu, 07 Jan 2010 12:20:51 +0000 Emmanuel Torregano (électron libre) http://owni.fr/?p=6770 Jeudi, Nicolas Sarkozy présente ses voeux au monde de la culture. Il devrait alors dévoiler ses choix concernant les recommandations de la mission Zelnik. Le rapport a été remis cet après-midi au ministre Frédéric Mitterrand.

cultureisnotacrime

Branle-bas de combat rue de Valois. Dans la précipitation de ce début d’année, le foie gras à peine digéré, voilà qu’il faut présenter en toute hâte les conclusions de la mission Zelnik sur les nouveaux modes de financement. La raison de cet empressement : demain Nicolas Sarkozy présente ses voeux au monde de la culture et il entend bien avoir quelque chose de concret à annoncer aux artistes réunis.

Patrick Zelnik, patron de Naïve, Guillaume Cerutti, ancien du cabinet de la culture, et l’ancien ministre, Jacques Toubon ont su répondre présent pour une explication de texte rapide devant un parterre clairsemé de journalistes et de dignitaires des industries culturelles. On remarquera cependant l’absence des patrons de maisons de disques, comme des grands studios de cinéma. En revanche, le monde du Web 2.0 était bien présent, avec en porte étendard, Martin Rogard, le directeur de DailyMotion France, arborant un sourire satisfait, mais on y reviendra…

Le rapport (à télécharger ici) commandé par Frédéric Mitterrand, le ministre de la Culture a connu plusieurs retard, et ne devait être dévoilé qu’à l’occasion du Midem, mais finalement, la volonté présidentielle s’est faite impératif. Bref, il est composé de 22 propositions dessinants une vision d’ensemble des différents secteurs : la musique, la video, et l’édition.

Carte jeune

La plupart des recommandations, disons les principales, étaient connues, plus ou moins précisément, éventées qu’elles ont été par les médias depuis plusieurs semaines.

La musique va pouvoir profiter d’une sorte de crédit à la consommation, sous forme de “carte jeune, utilisable avec les plateformes de vente en ligne partenaires – l’Etat aidera à hauteur de 50% et lancera une campagne de communication.

Le crédit d’impôt devrait être élargi, comme l’avait demandé la filière musicale. Une demande en ce sens sera faite à Bruxelles. La commission garde la main sur le sujet. La commission préconise un relèvement du plafond par entreprise pour l’amener à 3 millions d’euros, et propose de supprimer la clause de progression de 25% des oeuvres éligibles l’année suivante. Mais le plus intéressant, c’est la volonté très nette affichée par les membres de la mission de vouloir généraliser le régime de licence légale aux webradios, et d’autre part d’imposer une gestion collective des droits pour les services de streaming non-linéaires.

Il ne s’agit aucunement d’une licence globale, ou même d’une amorce de ce principe. Il s’agit en fait des simplifier pour les portails de type DailyMotion – ce qui fait évidemment la joie de son directeur -, ou Deezer, l’accès aux catalogues des maisons de disques. Cette proposition globale, licence légale et gestion collective, ne fait pas du tout l’affaire des majors de la musique, qui vont tout faire certainement pour qu’elle n’aboutisse pas… Et peut-être qu’elle disparaîtra entre aujourd’hui et demain – Patrick Zelnik est confiant, lui.

100cassettes

Revoir la chronologie

Le cas de la musique réglé, la commission s’est attaqué au cinéma et à l’édition. Mais sur ces deux autres dossiers, on ne peut pas dire que la mission ait fait preuve de la même hargne.

L’industrie du cinéma est d’emblée considérée par les membres de la commission comme un secteur déjà très bien “organisé”, dans lequel les acteurs savent parler d’une seule voix, lorsque le besoin s’en fait sentir. Une belle union lorsque c’est opportun, qui tranche avec le spectacle que la musique a offert durant les auditions. Jacques Toubon devant les journalistes présents cette après-midi ne s’est pas privé d’en faire la remarque.

Ceci-dit, la mission a souhaité approfondir les conditions actuelles de la video à la demande (Vod). La chronologie des médias est ainsi à nouveau remise en question, notamment les fenêtres de Vod par abonnement – qui est à 36 mois après la première exploitation et qu’il faudrait abaisser à 22 voire 10, à condition de ne pas gêner les chaînes qui ont financé l’oeuvre – et la Vod gratuite, qui bénéficie d’un financement par la publicité – fixé à 48 mois.

Encore une fois, cette mesure si elle est suivit par la présidence de la République va déclencher l’ire des chaînes de télévision comme des studios… Drôle d’union sacrée. Certainement qu’il faudra s’y tenir pour que les choses avancent et que la fluidité des droits, seule garante d’une consommation légale, s’affermisse. Pareil pour le livre, avec une mesure phare : l’extension du prix unique du livre à son ersatz dématérialisé.

dvd

Vient ensuite, les moyens de financement de ces travaux d’Hercule du numérique. Là encore, l’objectif est autant de garder les finances publiques à l’abri que d’injecter l’argent comme il se doit, si possible, en rééquilibrant le rapport des forces en présence. Armé donc de son arc, la commission Robin des Bois, ou si vous préférez après une bonne rasade de potion magique, a choisi de taxer Google, mais aussi de déclencher les foudres de l’autorité de la concurrence ! La nouvelle n’a rien de surprenant.

Elle était attendue. Et Jacques Toubon a souligné qu’il était tout à fait possible de s’attaquer ainsi à Google et les autres grosses régies en ligne, même si elle batte pavillon américain. Autre solution de financement, la commission propose d’abaisser de quelques points le taux de TVA sur les services d’abonnement ADSL triple play. Là aussi, la commission est en terrain connu, et cela lui permet d’éviter l’épineuse question de la taxation des FAI.

Dans les conclusions de cette commission on peut aisément voir la patte de chacun des membres. Patrick Zelnik a ainsi largement travaillé en faveur des aides à la musique, et se paie aussi le plaisir d’imposer par la loi, une gestion collective que ses homologues de majors refusent depuis des années. Guillaume Cerutti a su au mieux se positionner dans un débat où ses convictions libérales lui ordonnaient d’aller certainement plus loin, mais pas d’imposer une taxe aux FAI. Enfin, Jacques Toubon a usé de tous les tours du politique pour savoir trouver entre des propositions et des avis contradictoires, un consensus nécessaire.

» Article initialement publié sur Electron Libre

Illustrations :

» Une >Culture is not a crime par Dawn Endico sur Flickr

» Article

> 100 Cassettes par Marc Arsenault (wow cool)

>365 Days, day 169 par Byronface

]]>
http://owni.fr/2010/01/07/la-mission-zelnik-distribue-les-baffes-et-des-bonbons/feed/ 3
CitizenSide, l’avenir de l’AFP http://owni.fr/2009/12/04/citizenside-l%e2%80%99avenir-de-l%e2%80%99afp/ http://owni.fr/2009/12/04/citizenside-l%e2%80%99avenir-de-l%e2%80%99afp/#comments Fri, 04 Dec 2009 17:58:45 +0000 Emmanuel Torregano (électron libre) http://owni.fr/?p=5938

CitizenSide est une agence de presse d’un genre nouveau. Destinée aux reporters amateurs, elle se propose de récolter images et vidéos pour les revendre à des médias. L’AFP est entrée au capital, flairant la bonne affaire, et plus si affinités.

La vérité avance sur des pattes de colombes. C’est aussi valable pour les avancées technologiques. Certaines sont discrètes, marginales par leur volume, mais elles possèdent néanmoins en elles tous les ingrédients pour s’affirmer bientôt comme maîtresses du jeu. CitizenSide est de celle-ci.

CitizenSide est une abomination pour tous les journalistes de l’agence française de presse. Le principe repose sur le constat simple de la surveillance globalisée par les citoyens. Chacun peut en effet être confronté à un événement, et en saisir l’essence, ou du moins une trace, un témoignage au mieux, à l’aide d’un appareil photo, le plus souvent planqué dans un téléphone mobile. Une fois le cliché dans la boite, il peut être redistribué par le réseau CitizenSide. Et comme l’indique le site en ouverture, il est même possible d’être rémunéré pour ses photos. Car CitizenSide a passé des accords avec quelques médias qui sont prêts à payer pour ces images “big brotheriennes” – Voici, Public, BFM TV, RTL, Le Parisien, Metro et 20 Minutes. Les prochains partenariats du genre viendront de l’international ont indiqué les fondateurs du site.

Information amateur

Plusieurs questions se posent évidemment, comme celle de la modération des contributions, ou encore de la vérification de la véracité des clichés ou vidéos proposés par les internautes. Et c’est là que CitizenSide devient un outil, ou pour tout dire, une plateforme d’avenir pour l’AFP. D’ailleurs, le président de la vénérable institution, Pierre Louette, dont le parcours dans les nouveaux médias plaide en sa faveur, si l’on veut bien excepter son court passage à la tête d’Europ@web, ne s’y est pas trompé. L’AFP a ainsi pris 34% du capital, “quelques dizaines de milliers d’euros“, confie Pierre Louette. Pas de quoi fouetter un chat en effet, mais tout de même suffisamment pour faire la démonstration que le site possède du potentiel.

En fait, celui-ci ne réside pas forcément dans le réseau d’internautes membres de CitizenSide, mais dans la présence de l’outil EditorSide. Comme son nom l’indique, celui-ci permet d’éditorialiser, de trier et de redistribuer l’”information amateur“. Il est donc le pendant Web, léger, facile à connecter et totalement multiplateforme, du service AFP. Alors que ce dernier en est encore à l’âge de la console austère et propriétaire, CitzenSide apporte la souplesse du Web dans la machinerie d’agence de presse. Et comme souvent, dans ces cas-là, les jeux sont déjà faits, mais cela ne se verra que dans quelques années…

Bien sûr, il n’est pas question de remplacer les journalistes de l’AFP par des Web-journalistes, ou journalistes citoyens, un terme que rejette d’ailleurs CitizenSide. On l’a suffisamment répété, mais le métier de journaliste requiert du temps et de la technique, ce qu’un citoyen ordinaire n’a pas forcément, et ne veut surtout pas apprendre forcément. La spécialisation est gourmande, elle implique un investissement de temps et de vie que chacun n’est pas prêt à faire, tout bonnement. Ceci dit, CitizenSide montre bien qu’elle sera la structure future de l’AFP : un rhizome technologique de récolte de l’information, ouvert ensuite à la vente de cette matière au combien volatile.

Le client est roi

D’où viendra cette information ? Voilà tout le travail qui reste à faire pour les équipes de Pierre Louette, mais cela ne pourra se faire sans une étroite collaboration avec les fondateurs du site : Matthieu Stefani, Philippe Checinski et Julien Robert. Xavier Gouyou-Beauchamps, ancien patron de France Télévisons est aussi de la partie en tant que président de la structure, et actionnaire via la société IAM.

Le mélange des genres entre citoyens et journalistes pourrait être simplement marginal. Le décloisonnement des genres entre amateurs et professionnels de l’information devrait ainsi être réorganisé et planifié, d’une certaine manière, par les petites mains de CitizenSide. Pour ceux qui cherchaient un avenir au métier de secrétaire de rédaction, il est tout trouvé : sélectionner la meilleure information, avec si possible une concurrence acharnée entre pros et amateurs, notamment sur la photo ; l’éditer et enfin, la passer au service de vente… à moins que ce ne soit l’inverse. Le client est roi, et ce serait donc aux médias clients, situés en bout du rhizome, que reviendrait la demande. Le média ferait enfin l’information, celle qu’il veut, adaptée à son lectorat, et non plus suiveur d’une bulle journalistique de l’actualité, comme on la voit bien trop se former encore aujourd’hui. Voilà qui sonnerait enfin le glas du journaliste analogique. Avec l’avénement du témoignage de rhizome, l’information passe dans l’ère de l’abondance. Renversant ainsi les paradigmes, comme on a l’habitude de dire dans pareil cas.

» Article initialement publié sur Electron Libre

]]>
http://owni.fr/2009/12/04/citizenside-l%e2%80%99avenir-de-l%e2%80%99afp/feed/ 1
Massive Media Attack http://owni.fr/2009/11/12/massive-media-attack/ http://owni.fr/2009/11/12/massive-media-attack/#comments Thu, 12 Nov 2009 17:01:16 +0000 Emmanuel Torregano (électron libre) http://owni.fr/?p=5402 Massive Media Attack

TF1, NRJ, CBS, Channel 4, The Times, New York Times, Le Figaro, Die Welt, etc., ces marques ne règnent plus sur la planète média. En quelques années, d’autres acteurs ont capté plus d’audience, se jouant des frontières, des langues, et des modes de fonctionnement. Ce sont les Massive Media.

En fait, on n’avait pas rien vu venir. La signification profonde était restée incomprise, car les liaisons avec les concepts usuels n’étaient pas encore établies. Puis, maintenant que cela vient heurter notre pratique du quotidien, l’image en devient instantanément plus nette. Les médias classiques ont cru qu’il ne s’agissait que d’une petite lame, une vague un peu forte, mais les fondations n’étaient pas atteintes. C’est faux. Pire, il y a là une erreur totale. Fini, les médias, place aux Massive Media. Pourquoi en anglais ? Parce qu’ils sont nés là-bas, il faut le reconnaître. Et Massive, mais pour cela pas besoin de plus d’explications, cela tombe sous le sens.

L’histoire débute avec une affirmation d’un autre temps. Pour prendre la défense des chaînes de télévision, et plus particulièrement des fleurons du petit écran, celles dont les audiences sont au-dessus de la moyenne, il est d’usage d’affirmer que l’internet n’est pas fédérateur. Au sens où regarder une chaîne de télévision, tous, au même moment, à une heure de grande écoute, l’est. Il est vrai qu’Internet n’est pas un média, en ce sens. Il ne captive pas des millions de personnes devant un programme donné, et ceux qui ont tenté cette expérience n’ont eu que des chiffres pitoyables à présenter.

Pourtant, Internet est fédérateur, comme jamais la télévision, ou la radio, ou la presse ne l’ont été et ne le seront jamais. Sur internet, on se rassemble devant un protocole, pas une chaîne. C’est plus massif. Et justement cela s’adresse aux masses. Facebook, Google, Twitter, YouTube, Daily Motion sont des Massive Media.
Les chiffres sont vertigineux. 330 millions d’utilisateurs pour Facebook ; une croissance de plus de 100% pour Twitter, ou encore les milliards de vidéos distribuées par YouTube. Voilà qui appartient déjà à une autre sphère. Incomprise, décriée parfois, mais qui n’est plus à nier. Il n’y a plus qu’à attendre que les autres s’écroulent enfin, et que leur pouvoir de nuisance s’effondre aussi. Entendez par là, que les vieux médias ont encore pour eux l’affection des annonceurs et de leurs agences conseils. Cela ne devrait plus durer trop longtemps.

Pas Zapping, mais rapt

La force de ses massive médias est de réussir à résoudre l’équation des infinies. Ils sont à la fois globaux, mondiaux, immédiats, continues, mais aussi personnels, locaux, à la demande, asynchrones, etc. Leur géométrie n’a plus aucun point commun avec ceux de la génération précédente. Leur mode de dissémination est, elle aussi, hors normes. Ils ne font pas de publicité, ou très peu. Pas de promotion, ni même d’auto-promotion, ou encore très peu – d’ailleurs la sortie des spots publicitaires pour Yahoo ! en dit long sur le retard pris par ce portail, sans parler dans un autre registre des tentatives d’Orange ou SFR de mettre en avant leurs propres services.
Caractéristiques intéressantes, ils réinventent à chaque fois qu’un nouveau Massive Media émerge ce qu’est le Massive Media. Ainsi, il n’existe pas de matrice continue entre Twitter et Facebook, et encore moins Google. La grammaire des sites est différente, le but aussi, bien qu’ils soient abusivement décrits tous comme des médias sociaux. Ce n’est qu’une petite part de leur nature. Les ponts existent en revanche. Ils sont indispensables, au nom de la sacro-sainte interropérabilité horizontale, dont nous avons déjà tracé les grandes lignes.
Néanmoins, il semble qu’après un certain temps, l’un finisse toujours par supplanter les autres. On l’a vu avec la fin programmée de MySpace, incapable de réagir à la montée en puissance de Facebook. Car, en définitive, il n’y a pas concurrence, mais vol d’utilisateur. Il n’y a pas zapping, pour reprendre une analogie avec l’ancien monde, mais rapt. Utiliser un protocole requiert une adhésion, un moment de la vie.
Cela rend, encore une fois, la prédiction bien difficile et hasardeuse. Ainsi, il n’est pas suffisant de vouloir concentrer les Massive Media dans un meta-Massive Media pour réussir le coup parfait. FriendFeed en est la plus parfaite illustration. Il n’est pas non plus pertinent de vouloir faire mieux, en améliorant tel ou tel point, ou aspect et fonctionnalité, comme avec Pownce, ou un autre.
Dans le même registre, Twitter est un aboutissement. Facebook est un aboutissement. Entre YouTube et Daily Motion, la différence est plus succincte, c’est juste, mais la bataille n’est pas terminée. Ces deux sites ne seraient pas à proprement parler des Massive Media. Ils sont une transition entre Google et autre chose qui est encore à définir, et reste finalement à inventer. Fermons cette parenthèse.

Effroi des politiques

Le Massive Media parle de nous. A une nuance près. Il n’est pas un artefact de foule, mais le rassemblement dans une dimension virtuelle de singularités inédites. Et bien souvent leur rapport avec un existence réelle, entendez par-là, hors du monde virtuel, n’est pas une obligation ; les identités virtuelles, celles dont on se sert sur le Massive Media, ne sont pas un corollaire d’un état civil, d’une appartenance à une nation, ou à une culture. Cela explique en grande partie l’effroi des politiques lorsqu’il s’agit de réglementer, surveiller ou punir les agissements sur les Massive Media. D’ailleurs, sans aller jusqu’à faire de la politique fiction, il faudra tout de même bien un jour que soit posée la question des frontières du virtuel. La création d’une géographie ad-hoc devra forcément passer par une remise en cause des délimitations actuelles – repenser à ce sujet l’affaire Twitter en Iran.
A suivre …

» Retrouvez l’article et ses commentaires sur Électron Libre

]]>
http://owni.fr/2009/11/12/massive-media-attack/feed/ 1
La fin du Web http://owni.fr/2009/11/10/la-fin-du-web/ http://owni.fr/2009/11/10/la-fin-du-web/#comments Tue, 10 Nov 2009 17:04:19 +0000 Emmanuel Torregano (électron libre) http://owni.fr/?p=5341 Episode 1

Le Web fut une plaie. Les temps changent, et bientôt l’influence du navigateur, du site web auront décliné de la surface du réseau. Voilà l’histoire presque contemporaine que nous allons essayer de relater dans ce feuilleton journalistique. Pour tenter d’en comprendre un peu en avance les implications économiques.

La détonation de l’explosion annoncée (lire ici et ) du Web 2.0, celui qui a vu fleurir des sites comme YouTube ou Facebook, va aussi emporter le Web tout entier. Pour voir surgir un nouveau paradigme, plus complexe encore à appréhender, mais dont on devine les contours déjà, avec l’émergence de comportements inédits dans l’univers numérique. L’AppStore, Twitter, la synchronisation des données, le jeux en ligne, sont les prémices de ce nouvel âge, que l’on pourrait nommer “Digital-me”.
Depuis la fin des années 90, le réseau des réseaux s’est conjugué essentiellement à l’aide du “WWW”, ces trois initiales placées au début de chaque adresse d’un site internet. Le World Wide Web était devenu pour le grande public le symbole même de ce qu’était Internet. Et le navigateur, Netscape tout d’abord, puis Internet Explorer, et maintenant Firefox, Chrome, Opera, ou Safari, s’était installé comme la fenêtre idéale, le transcodeur zélé, bref, la matrice indispensable pour profiter de l’Internet. Or, depuis quelques mois, cette suprématie du couple WWW/navigateur s’est vue brutalement concurrencée par de nouvelles pratiques. A tel point que l’on peut pressentir combien désormais le numérique s’oriente vers la fin du Web.

Bannissement des Start-up

Et il ne serait pas vraiment bienvenu de regretter ou encore de pleurer le Web, car celui-ci a été en grande partie un fléau pour les industriels et les nouveaux explorateurs en tout genre. En fin de compte, l’on doit au Web deux bulles financières successives. Une qui éclata en 2001 et une autre qui montre des signes inquiétants de surchauffe.
Car l’une des caractéristiques marquantes du Web a toujours été le manque absolu de monétisation des sites. Le champ de ruines est immense, et s’étend à perte de vue si l’on regarde bien, et d’ailleurs, le massacre continue. A tel point que la dénomination de start-up, des années 2000, a définitivement était bannie pour ne pas rappeler trop de mauvais souvenirs. Les plus grands s’y sont laissés prendre. Certains, comme Vivendi, ou Bertelsmann et, bien sûr, Time Warner ont failli être emportés, et ne furent sauvés qu’au prix d’une rude restructuration des actifs. Autrement dit, tout ce qui était de près ou de loin apparenté au Web fut vendu, voire bradé. La liste des belles idées jetées par-dessus bord serait d’ailleurs trop longue, et rappellerait bien des mauvais souvenirs.
Ce ne sont pas quelques réussites brandies comme des étendards sacrés qui changeront quoi que ce soit. Pour un Google, combien en effet de sociétés mort-nées, réduites en poussières, et d’argent dilapidé ? Pis, une fois Google arrivé, tous les autres cadors de la catégorie n’ont eu que leurs yeux pour pleurer, ce qui signifie voir le cours de bourse plonger et prier pour une reprise à bas prix, au poids du serveur. Bref le Web fut un massacre de concepts innovants, d’idées enthousiasmantes…

La marque du W

Pour être encore plus clair, la nouvelle économie, celle du virtuel, qui déchaîne les passions parce qu’elle fait les fortunes comme d’autres plantes les “business model”, s’est en grande partie construite sur deux piliers : la piraterie et l’accès à ces ressources illicites. Avec comme principaux bénéficiaires, pour tout dire, comme unique profiteur de ce marché noir, les opérateurs de télécommunication. Et par extension, tous les métiers de cablage, serveurs, et fabrications d’ordinateurs. Mais à la source de tout ça, du haut-débit, de l’Adsl, des fortunes faites par ses entrepreneurs malins, comme Xavier Niel, le patron de Free, il y a toujours un même service, pour lesquels les gens ont été prêts à payer instantanément : l’échange en tout genre de fichiers gratuitement. Aujourd’hui, ce paradigme de l’offre s’est déplacé, le P2P, le téléchargement n’est plus autant à la mode, il a été remplacé par le diffusion en streaming gratuite. Les audiences sont flagrantes. En France Dailymotion, YouTube et Deezer sont dix fois plus fréquentés que les sites P2P.
Malheureusement, cet appétit pour les sites du Web 2.0, ceux de la diffusion et de l’échange gratuit, a fait revenir comme une ombre maléfique, ce “W”. Et avec lui, son cortège de catastrophes en tout genre. Comme nous l’avons largement expliqué (ici et ), ces sites n’ont pas les rentrées d’argent que leurs audiences mériteraient. Pis, elles n’ont peut-être pas les actionnaires qui conviendraient…
Tout cela touche heureusement à sa fin. Car survient un nouveau type d’objets numériques, dont les qualités sont justement de compenser les tares des précédents.

» Voir les commentaires liés à cet épisode sur Electron Libre

Episode 2


Résumé de l’épisode précédent. Le Web tel que nous le connaissons dans sa forme la plus répandue n’a été que le tombeau des ambitieux. Fort heureusement, tout change. Le réseau est en pleine mutation, et le couple URL/navigateur est tout proche enfin de marquer le pas, dépassé par des idées plus en avance, plus rentables aussi peut-être.

Le décor planté, avançons sûrement sur les traces de ces nouveaux objets virtuels. Pour donner une idée simple et concrète de cette mutation des paradigmes du virtuel, il suffit de se pencher sur l’utilisation ordinaire d’un appareil mobile de type iPhone. L’accès à des services en ligne, soit la consommation des “data”, ne se fait désormais plus en majorité par le navigateur, qui s’avère peu évident, voire encombrant, mais via des “applicatifs” spécifiques connectés au réseau. Pour les puristes, disons le tout de suite, c’est la fin du surf. Glisser d’un site à un autre, par un lien judicieusement placé devrait devenir une pratique moins courante, voire complètement dépassée. L’accès à un site n’étant plus seulement une question de “lien hypertexte” mais plutôt le fruit d’un processus de recommandations sociales ou affinitaires – nous expliquerons un peu plus loin ce que cela signifie dans l’univers du “Digital-Me”.

Twitter, à suivre

En cela, les sites comme Facebook, ou surtout Del.icio.us ont été des pionniers, qui ont su parfaitement déblayer le terrain, certes, et permis l’installation de quelques fondations nécessaires à ces nouveaux comportements. Néanmoins, le passage au “Digital-me” implique la prise du pouvoir par de nouveaux outils, comme Twitter, par exemple, ou encore la version mobile de Facebook, ou d’autres, basés sur la géo-localisation. On penchera toutefois en faveur de la plate-forme de micro-blogging. Elle est sans doute bien plus à même de réorganiser à son profit ce nouvel espace, où le surf disparaît pour laisser place au “picorage”.
Twitter présente en effet l’intérêt indéniable pour le sujet qui nous intéresse d’être un service plus efficace en tant qu’applicatif que dans sa version Web. Ce qui n’est pas encore le cas de Facebook, dont les raffinements du site n’ont pas encore vraiment d’équivalents sur Facebook mobile. Sans parler des autres outils du Web 2.0, tels que Dailymotion ou YouTube, qui tardent encore à saisir l’opportunité du “Digital-me”. Aujourd’hui, l’application YouTube sur iPhone n’est qu’un bon “reader”, incapable de laisser l’utilisateur gérer son compte. Cela pourrait toutefois changer bientôt, avec la prochaine version sur iPhone OS 3.0, dont la vidéo sous toutes ses formes sera un atout. Sans oublier les travaux de Google sur son système d’exploitation Android, qui met en avant justement les fonctionnalités de partage du site de vidéo.
Nous n’allons pas énumérer toutes les applications qui sont nées sur l’AppStore et qui dès maintenant proposent sous un mode “presse bouton” une consommation nouvelle du réseau. Sauf à dire que leur généralisation sur ces plates-formes mobiles connectées fait chaque jour reculer l’importance du navigateur et de son corollaire, le site Web. Et c’est tant mieux.
Dans le Digital-Me en effet, l’important n’est plus d’avoir une fenêtre sur le Web mais de posséder un panel de services bien à soi – mon choix d’applicatifs, et leur manière de les organiser n’appartient qu’à moi, et il est donc différent du votre. A partir de là, le courant s’inverse. L’information – la data – n’est plus organisée dans un mouvement network-centric, mais devient user/device-centric. L’utilisateur ne va plus chercher les informations, elles viennent à lui, et il en prend connaissance via des vecteurs personnifiés – qu’il a choisi en connaissance de cause. Ce paradigme n’est pas une nouveauté. L’idée d’un “Push” informationnel, plutôt que le “Pull” actuel, est né dès les premiers temps du réseau, mais sans vraiment s’incarner dans un service à succès. Désormais, cela semble possible. Et surtout, accessible au grand public, avec, cerise sur le gâteau, son assentiment à payer pour en profiter. Une promesse d’un avenir différent pour les entrepreneurs qui en saisiraient l’opportunité, mais aussi un crève-coeur pour ceux qui voient dans cette évolution une “minitélisation” du Net.

Google inversé

L’inversion des flux pose cependant un certain nombre de problèmes majeurs. Le premier est évidemment la place du moteur de recherche. Dans le Digital-Me, Google n’a plus le rôle central qui est le sien sur le Web. Car, ce dont l’utilisateur est à la recherche, il va non plus aller le trouver sur le Web, mais sur d’autres profils avec lesquels il est relié dans le “Digital-Me” – d’où toute l’importance des processus de recommandations inter-personnels. Google en tant que portail de recherche serait alors voué à disparaître pour être remplacer dans les faits par une simple brique logiciel totalement transparente. C’est aussi ce qui est en train de se passer à une autre échelle pour les navigateurs internet dont le code est désormais au coeur même des systèmes d’exploitation – webkit notamment est un bon exemple.
Autre problème, qu’advient-il de la publicité ? Celle-ci a été la béquille, souvent peu rassurante, d’à peu près tous les sites Web, avec un constat des plus intéressant : la publicité ça ne marche pas ou si peu. Voilà, l’illusion à laquelle les chaînes de télévision et les radios avaient échappé, mais qui malheureusement a heurté le Web de plein fouet, avec une conséquence évidente, la chute des prix des annonces. La place de ces messages commerciaux sur le Digital-Me paraît plus délicate à définir. Dans sa forme, fini les bandeaux agressifs, conçu avec la jugeote d’un communiquant de chez Pampers, la publicité doit apprendre à se faire discrète, mais utile – si possible. Entre deux messages informationnels, les annonceurs ont tout juste le droit à un espace interstitiel pour vanter leur produit, ou plutôt pour retenir l’attention de l’internaute.
Reste maintenant à déterminer sur quelle super-structure de distribution des “data” ce nouveau paradigme va prendre son assise. Le cloud computing devrait évidemment jouer un rôle, mais ce n’est pas suffisant pour englober un phénomène aussi radical que le Digital-Me. Deux piliers sont aussi importants pour comprendre cette mécanique, il s’agit de la synchronisation globale, et l’interopérabilité horizontale. Mais cela sera l’occasion d’une troisième partie.

» Voir les commentaires liés à cet épisode sur Electron Libre

Episode 3

Résumé des épisodes précédents. L’auteur pris de vertiges avait accusé le Web d’être un assassin en puissance : exterminateur des inventeurs téméraires, qui à l’épreuve de la gratuité ont subi de trop nombreuses fois la défaite. Péché de jeunesses, car bien vite, la réalité d’une nouvelle forme du virtuel était identifiée dans l’épisode suivant. Baptisé “Digital-Me”, ce paradigme inédit, ancré dans une consommation mobile ou à partir d’applicatifs des ressources du réseau, méritait quelques explications supplémentaires – le lecteur ayant été abandonné attaché à un monolithe double : la synchronisation globale et l’interopérabilité horizontale.

Le présent de l’internet, c’est le “Digital-Me”. Il convient maintenant de déterminer les structures qui le soutiennent. Ce qui saute en premier aux yeux, c’est la mise en place progressive de vecteurs de communication puissants. Ce sont eux qui vont nous permettre de donner une idée simple et évidente de ce nouveau territoire virtuel.
Le premier d’entre eux est la synchronisation globale, ou complexe virtuel du bernard l’hermite. Il s’agit ni plus ni moins qu’une approche multi-locale des données. Elle permet de se trouver partout chez soi – comme un bernard l’hermite qui trouve une coquille et chaque fois en fait sa maison -, dès qu’on se connecte à un réseau. On retrouve ainsi, les indispensables de son existence virtuelle : adresses, calendrier, signets, mais aussi contacts et mails. La synchronisation globale en est encore à ses balbutiements avec un développement orienté essentiellement vers les tâches de type “professionnel” ou “bureautique”. Bientôt, elle étendra au grand public ses ailes pour mettre à portée de doigts, de clics, voire de voix les bons restos, programmes radios, TV, vidéos préférées, playlists, informations privées, sociales, médicales, l’actualité etc. Google est bien avancé sur ce terrain, la firme de Mountain View a misé sur Android, son système d’exploitation développé sous licence open-source. Tandis qu’Apple ou Microsoft ont évidemment intégré dans leur cahier des charges des services de ce genre – je ne suis pas un spécialiste, mais quel est le potentiel des systèmes libres de type Linux sur ce terrain ?

Network Computer

La synchronisation globale a des traits de caractère communs avec ce que certains avaient prédit à la fin des années 90’ dans la description du concept de “network computer”. Cette vision revient à voir dans le réseau des réseaux le reflet d’un ordinateur mondial, à l’efficacité globale, hyper-distribuée. L’idée maîtresse consiste à déporter les organes essentiels d’un ordinateur de salon, une machine familiale, dans un lieu accessible à travers une connexion avec le réseau. Ainsi, l’accès à un applicatif quelconque se fait par le réseau et non plus par les circuits internes de l’ordinateur sur lequel on travaille. Le logiciel serait littéralement téléporté sur la machine de l’utilisateur. Jusqu’à présent ce type d’applicatif à distance n’a pas encore vraiment trouvé une voie vers la grand public.
Autre exemple, plus intéressant encore, est la machine mise au point par Michael Robertson – certainement le plus honorable des pirates du Web – avec MP3.com. Elle possédait un potentiel certain pour s’inscrire dans la synchronisation globale. Cette fois, il n’était pas question de guichet virtuel pour traitement de texte ou autre, mais de mettre en commun des contenus culturels. Plus de MP3 enregistrés sur son ordinateur, mais l’accès universel – à partir de n’importe quel appareil connecté – à une discothèque. Outre les complications que cela pouvait entraîner avec les métiers concernés, comme producteurs ou éditeurs de musique, MP3.com ne pouvait réussir alors que les terminaisons du réseau, celles qui arrivent dans les foyers, n’étaient pas encore haut-débits, et pis, il était impossible d’en profiter en situation de mobilité, sauf à enregistrer le fichier MP3…
Aujourd’hui, les structures techniques sont là pour que ce pari soit gagnant, mais les intentions ont glissé vers d’autres objectifs. Le “network computer” n’est plus à la mode.

Priorités

L’important n’est plus de déporter sur le réseau les fonctions vitales des ordinateurs mais de rationaliser le plus possible l’accès à des services essentiels, en fonction des terminaux utilisés. Passons par l’épisode 2 de cette saga pour le comprendre. En premier, il y a la fin de l’hégémonie du couple url/navigateur et l’apparition d’interfaces “presse boutons” capable de simplifier et d’objectiver l’accès aux ressources du réseau. D’autre part, l’inversement des flux majoritaires, qui ne sont plus “network-centric”, mais “user-centric”. Ce sont alors tous les aspects de sa propre vie – Me -, autant loisirs que sociaux et professionels qui sont concernés par la synchronisation globale. Dans ce rapport à une existence connectée, possédant le dont d’ubiquité, l’important est alors de déterminer des priorités.
La synchronisation globale peut être en effet passive, ou active. Pour la première, il s’agit de se connecter à un terminal qui est transformé par le truchement d’un login et d’un mot de passe en un ordinateur personnel, identique à celui qu’on a laissé à la maison. La seconde fait entrer en jeu un nouveau concept : la notification. Cette fois, des messages relatifs à la synchronisation de ses données personnelles avertissent l’utilisateur à chaque fois qu’il y a une modification. Le degré acceptable d’alerte peut alors être fixé par l’utilisateurs – le crash d’un avion dans un fil de news aurait par exemple la priorité sur l’anniversaire de la grand tante. L’organisation d’un ordre par priorité sera l’un des problèmes qu’il faudra résoudre, et qui entraînera forcément une concentration des usages. Disons que l’on est abonné à un service de vidéo à la demande, émanation d’un grand groupe de télécommunication. Quelle sera sa place dans ce système d’avertissement, devenu aussi média de communication et de promotion ? Dans lequel l’usager a forcément le dernier mot…
Prochain épisode, l’intéropérabilité horizontale. Promis.

» Voir les commentaires liés à cet épisode sur Electron Libre

Episode 4

Le Web était un rhizome, fait de liens s’interconnectant, le Digital-Me est un océan, avec à sa surface des plis et des replis, des vagues pour continuer de filer la métaphore maritime. Pour que tout tienne en place, cette nouvelle matrice a besoin d’un ciment universel, nous l’appellerons l’intéropérabilité horizontale. Il ne s’agit pas d’un standard au sens où l’est le W3C – un ensemble de règles édictées pour la construction des sites internet. L’intéropérabilité horizontale est la nécessité pour les acteurs du Digital-Me d’être compatible entre eux, de s’entendre, bref de bâtir une nouvelle Babel.

“Je” n’existe que dans le rapport à l’autre, dans la manière où l’autre l’envisage. Pour ce nouvel âge du réseau, ce paradigme psychologique s’applique pleinement. La réalité, la satisfaction que l’on tire d’un service n’est fonction que de sa capacité à être le reflet du monde en ligne. Le pionnier du Digital-Me ne choisit pas un service sur ce qu’il lui apporte, mais sur la capacité que ce dernier a de lui permettre d’interagir sur le réseau. Plus ce service est capable d’inter-opérer et plus grande est sa valeur.
Aujourd’hui la force de Facebook tient essentiellement à cet avantage concurrentiel. En étant inscrit sur Facebook, l’internaute a accès à toutes sortes de contenus disponibles sur les autres sites, ou services. Il est possible tout autant d’aller sur YouTube pour sélectionner et visionner une vidéo, mais aussi de la faire partager, que d’aller sur iLike pour écouter de la musique et recommander des titres à ses amis. Tout comme il est possible depuis un simple site Web 2.0, ou même à partir d’une application comme iPhoto de poster une image sur Facebook, sans se poser plus de questions ou entrer dans des complications techniques. Les langages ne sont pas les mêmes et pourtant, ça se parle. Bienvenue dans l’intéropérabilité horizontale ! Les systèmes d’exploitation ont beau être différents, radicalement incompatibles, l’expérience de l’utilisateur plongé dans le Digital-Me ne souffre d’aucune barrière infranchissable, ou presque. L’échange des contenus est à la base de cette symphonie virtuelle.

Finie la logique de la page vue

Cette nouvelle loi de la communication électronique signe la fin des monopoles d’exploitation. Il n’est plus question désormais de se la “jouer perso”. Un service qui serait hors du jeu de l’échange n’a que peu de chance d’exister. L’isolement est fatal dans le Digital-Me. Pis, il serait une erreur stratégique et un pari trop risqué, même pour un acteur aux visées monopolistiques. Il suffit d’observer pour cela les tentatives navrantes des opérateurs de télécommunication dès qu’il s’agit de proposer un contenu comme, par exemple, de la musique. La quasi totalité de ces services ne sont pas ouverts et ne jouent pas le jeu de l’intéropérabilité horizontale, et d’ailleurs n’ont pratiquement pas d’existence dans le monde connecté. Ils ne sont là que par le dopage incessant pratiqué par leurs géniteurs qui dépensent sans compter en communication et promotion. Et cela en pure perte. Un autre indice est par exemple le lent déclin d’un service comme Hotmail de Microsoft, qui n’a pas joué ce jeu de l’intéropérabilité tant qu’il pouvait écraser la concurrence, et a décidé de changer son fusil d’épaule depuis janvier dernier pour éviter de se faire marginaliser. A condition qu’il ne soit pas déjà trop tard pour l’ogre de Redmond…
Cette circulation des contenus sans entrave modifie en profondeur les critères de réussite d’un service. Ainsi, il n’est plus impératif de détenir l’internaute dans son filet le plus longtemps possible en le baladant d’une page à une autre sur son site. La logique de la page vue multipliée au maximum a vécu, dans le Digital-Me l’important est la fidélisation de l’utilisateur avec, comme arme principale de séduction, la possibilité de lui offrir toutes les raisons de partir. Et pourtant, toujours il reviendra. Le paradoxe est là, au creux d’une pratique qui tient plus de la plate-forme de lancement que du Web-toile d’araignée tendu comme un piège pour internaute. L’affinité que l’on développe pour un service agit comme un aimant. On est très loin, encore une fois, de l’essence d’un site Web qui est de se rendre incontournable, au sens propre du terme.

Une vie en accès sur le réseau

Le service estampillé Digital-Me est la forme extérieure de l’identité virtuelle ; la coquille façonnée à coup d’interactions avec les autres internautes. Cette renommée virtuelle est déterminée par autant de facteurs que nécessaire, à condition qu’ils soient lisibles, qu’ils trouvent leur bonne transcription, pourrait-on dire, sur le Net. Les goûts en matière de musique, de cinéma, de livre, ou simplement les choix de vie sont facilement identifiés et exposés sur les sites du Digital-Me, mieux, ces derniers ont été très largement développés dans les premiers temps comme des bases de données personnalisées autour de différentes thématiques. Dans un second temps, le Digital-Me permet de développer une dimension supplémentaire : l’histoire. La renommée virtuelle ne sera plus arrêtée comme saisie dans une photographie, figée, ou suite de photogrammes, mais le récit d’une vie en accès sur le réseau – et c’est d’ailleurs, à partir de cette trajectoire visible que les marqueteurs auront à travailler. La continuité de l’activité en ligne, avec ses particularités, ses aspérités, pourra être désignée comme une ligne de vie virtuelle. Là, il deviendra intéressant de savoir comment cette agitation électronique incarnée enrichit l’existence.
Mais, laissons cela, l’enrichissement sera bien le sujet de l’épisode 5 de cette série, mais elle parlera modèle économique et monétisation dans le Digital-Me. Et le lecteur saura enfin si le meutre symbolique du Web aura sa justification dans l’annonce d’un univers mercantile.

» Voir les commentaires liés à cet épisode sur Electron Libre

Episode 5, final

L’argent c’est le nerf de la guerre. Et dans le Digital-Me, il est la contre-partie logique d’un retour en force des besoins à assouvir de l’internaute. Enfin, le Web éliminé, le réseau n’est plus le champ du possible ouvert à toutes les élucubrations pour “geeks”, mais un territoire commercial, ordonné, marketé, où le sens de l’équation “offre vs demande” revient hanter les business plans.

Finie l’errance. Place à la thune. Le Digital-Me est en rupture brutale avec le Web, dès qu’on parle business model. La porte d’entrée était symbolisée, jusque-là, par le fournisseur d’accès. C’est avec les meilleures intentions du monde, et la tournure d’esprit d’un douanier, que ces grands groupes prélèvent l’internaute avant de lui ouvrir les portes du réseau mondial. Derrière ce large portail c’est le règne de la gratuité. On est ainsi dérangé par quelques insectes publicitaires, plus ou moins accrocheurs. L’impression de gratuité qui transpire du réseau est la plus forte, et on entend d’ailleurs énormément de voix expliquer doctement qu’il n’existe pas d’autres voies. Comment pourrait on leur donner tort, lorsque l’on fait une énumération rapide des services proposés ? Tout compte fait, le Web en entier ne vaut pas plus de 30 euros par mois. Avec un inconvénient de taille, si l’on applique une méthode de type licence globale, prélevée sur les factures des FAI pour rémunérer les contenus dématérialisés, les sommes à distribuer seront d’autant plus faibles qu’il y a aura de demandeurs. Bref, le Web, c’est la paupérisation à courte échéance, voire la précarisation des petits au profit d’une nouvelle classe dominante capable d’engranger des audiences et une consommation maximum de ses contenus. Google est là encore pour en apporter la preuve concrète chaque jour.

Tu veux quoi ?

L’âge du Digital-Me rompt avec le principe du portail d’entrée. il est basé sur la multiplication des points d’accès. Et à chaque point correspond un paiement, même minimal, ou presque indolore, mais réaliste. Ce qu’on appelle le micro-paiement est destiné à prendre une place conséquente avec la mutation des usages sur l’Internet. Il est d’ailleurs possible de le rapprocher de cette prophétie de la fin du Web, et le succès de services comme iTunes, qui est un exemple réussi de micro-paiement, face aux échecs des modèles successifs de consommation de musique contre publicité. Reste qu’il faut bien convaincre l’utilisateur de payer…
Là aussi, il y a une des grandes différence entre le Web et le Digital-Me. Il n’est plus question de s’interroger ou de gloser sur le concept proposé par tel ou tel site, mais de répondre à une question primaire : de quoi avez vous besoin ? En échange de quoi il faut payer pour avoir droit d’utiliser le dit service. Cependant la migration reste à effectuer pour la grande majorité des services vedettes du Web. Aujourd’hui, un site comme Facebook propose une version gratuite de son service, y compris sur iPhone, pareil pour Twitter, ou d’autres sites estampillés Web 2.0, pour lesquels le passage au Digital-Me pourrait représenter une bonne part du business model. Et la publicité reste l’unique source de revenus pour des sites qui n’ont pas encore osé franchir le pas. D’autres, comme Deezer, sont plus téméraires, et clament qu’ils vont bientôt sauter le pas en abandonnant la gratuité, notamment sur les mobiles. Toutefois, la peur de se faire souffler le marché par un autre site, dont le positionnement resterait centré sur la gratuité, est encore trop présente.

Abonne-toi mon fils

Très bien, vous avez payé une fois, et bien ne partez pas, ce n’est qu’un début ! Ce glissement du paradigme monnayable vers une accalmie de la relation entre le réseau et sa valeur commerciale, devrait tout aussi bien être l’avénement de l’abonnement. Et oui, quand on aime on ne compte pas, c’est bien connu… En instaurant ce lien de valeur, les services du Digital-Me, essentiellement ceux qui seront disponibles sur les plates-formes mobiles, pourront très bien être payés par échelonnement, mois après mois, ou à chaque nouvelle version. La refonte d’une application ça se paie ! Tout comme un accès à un bouquet de services inégalé par sa qualité ou, plus prosaïquement, totalement incontournable. Comme le préfigure l’arrivée progressive des systèmes de cloud-computing, dans lesquels une ferme de serveurs chauffés à blanc permet un accès à une série de comptoirs informatiques dotés d’applications ou de services accessibles depuis un ordinateur ou un appareil mobile. Microsoft, Apple, Google sont encore présents sur ce terrain, bien conscients de la manne qui s’ouvre à eux en liant durablement le client à des services mondiaux campés sur deux piliers : l’interopérabilité horizontale et la synchronisation globale. Les maîtres des OS ne sont pas les seuls à avancer sur ce terrain. D’autres projets sont dans les tuyaux, si l’on peut dire, pour installer sur le réseau ces super-structures informationnelles. Le P2P est certainement appelé à y tenir une place importante – un projet comme Spotify, par exemple, utilisant ces protocoles, pourrait bien en profiter. Plus largement, les services distribution et de vente de contenus culturels dématérialisés sont les mieux placés pour venir à courte échéance s’installer sur les ondes du Cloud-Computing.

Nouvelle intégration verticale

L’astuce tient en fait dans la délocalisation de l’offre. Avec le Digital-Me, les futurs acteurs forts de l’économie digital renouvelée, seront ceux qui auront réussi à éloigner le client de l’objet de son désir. La musique, les jeux vidéos, la vidéo, mes applications, etc., tout doit être hors de portée, retiré du disque dur de la machine pour être soigneusement entreposé ailleurs. Dans un ailleurs virtuel évidemment, non situé, et pourtant toujours là, accessible à un clic de distance. Voilà un changement de paradigme dont on n’est encore loin d’avoir envisagé toutes les conséquences. D’un point de vue très terre à terre, les fournisseurs d’accès devront faire des progrès importants pour assurer la connexion, car, aujourd’hui, il n’est pas question de bénéficier d’un tel service en dehors des villes. Idem pour les sociétés qui investiront dans le Digital-Me, il faudra certainement encore des dépenses d’infrastructure de serveurs bien plus massives pour soutenir la demande, et garantir la qualité de service, comme l’on dit. Mieux, à bien y réfléchir, ces deux activités ont toutes les chances de fusionner pour se consolider et amortir les coûts d’investissement dans un avenir plus ou moins proche. Ainsi à l’avenir, Apple, Google, ou Sony pourraient très bien s’unir avec un opérateur de télécommunication afin de réaliser une nouvelle sorte d’intégration verticale plus colossale que toutes celles qu’on avait connues jusqu’ici. Cela poserait certainement des problèmes de compatibilité entre ces nouveaux géants des services. Aux autorités d’y mettre de l’ordre à bon escient, bien qu’il y ait fort peu de chance pour que ces nouveaux univers soient hermétiques les uns aux autres. Ils auront en effet tout intérêt à s’entendre sur des tarifs de “roaming data” mondiaux et multi-réseaux. Merci à l’interopérabilité horizontale !
Le moment est venu de conclure cette série. Il n’y était pas tant question que ça de jouer au futurologue, laissons cela aux spécialistes. L’enjeu était plutôt de s’essayer, à un tâtonnement, à l’aveugle, à saisir le présent, le plus actuel. Regardez-vous, que faites-vous, que voulez-vous du réseau là, maintenant, et comment le réalisez-vous ? La réponse tient à ce nouvel âge qui fuit sous nos clics et nos claviers.

» Voir les commentaires liés à cet épisode sur Electron Libre

]]>
http://owni.fr/2009/11/10/la-fin-du-web/feed/ 7
Le Conseil constitutionnel valide l’essentiel des dispositions d’Hadopi 2 http://owni.fr/2009/10/22/le-conseil-constitutionnel-valide-l%e2%80%99essentiel-des-dispositions-d%e2%80%99hadopi-2/ http://owni.fr/2009/10/22/le-conseil-constitutionnel-valide-l%e2%80%99essentiel-des-dispositions-d%e2%80%99hadopi-2/#comments Thu, 22 Oct 2009 17:59:25 +0000 Emmanuel Torregano (électron libre) http://owni.fr/?p=4874 Elle est tombée, la décision du Conseil constitutionnel n° 2009-590 DC du 22 octobre 2009 sur la Loi relative à la protection pénale de la propriété littéraire et artistique sur internet, dont elle valide l’essentiel des dispositions.

Les Sages ont rejetté l’ensemble des griefs faits par la soixantaine de députés signataires du recours dont ils avaient été saisis, à l’exception de ceux qui portaient sur l’article 6.II de la loi, c’est à dire sur la disposition relative au prononcé de dommages et intérêts civils par le juge de l’ordonnance pénale.

Il s’agit d’une contestation a minima, qui ne remet absolument pas en cause le recours à la procédure simplifiée de l’ordonnance pénale, qu’il s’agisse de statuer sur la coupure de l’accès à Internet ou sur des demandes de dommages et intérêts de la part des ayant droit. Le Conseil rappelle avoir déjà eu l’occasion de juger cette procédure conforme à la Constitution (Décision n° 2002-461 DC du 29 août 2002).

Il a simplement jugé que dans le cas des demandes de dommages et intérêts, si rien ne s’opposait à cette orientation, “il incombait alors au législateur de fixer dans la loi les règles applicables et non de les renvoyer au décret.” En clair, le mode de calcul de ces dommages et intérêts ne peut constitutionnellement être fixé par décret.

“L’article 34 de la Constitution réserve en effet à la loi le soin de fixer les règles de procédure pénale”, précise le Conseil. “En l’espèce, ajoute-t-il, le législateur a méconnu sa compétence en ne fixant pas lui-même les précisions nécessaires à l’application de la loi.” Il semble que le Conseil constitutionnel et l’Elysée aient négocié jusqu’au bout pour parvenir à un accord. L’industrie musicale a eu ce qu’elle voulait.

» Suivez les réactions à l’adoption d’Hadopi 2 sur http://electronlibre.info

]]>
http://owni.fr/2009/10/22/le-conseil-constitutionnel-valide-l%e2%80%99essentiel-des-dispositions-d%e2%80%99hadopi-2/feed/ 1
La musique numérique se porte bien, merci pour elle (mission Zelnik) http://owni.fr/2009/10/16/la-musique-numerique-se-porte-bien-merci-pour-elle-mission-zelnik/ http://owni.fr/2009/10/16/la-musique-numerique-se-porte-bien-merci-pour-elle-mission-zelnik/#comments Fri, 16 Oct 2009 13:14:59 +0000 Emmanuel Torregano (électron libre) http://owni.fr/?p=4680 Ne croyez pas les Cassandres, la musique vendue sur les réseaux se porte comme un charme. Malgré la concurrence du gratuit, des échanges P2P, ou de la doxa populaire qui pérore qu’acheter des fichiers musicaux c’est n’avoir rien compris à la révolution numérique… Et pourtant l’industrie du disque n’en finit pas ces dernières années de voir son chiffre de ventes fondre comme neige au printemps. Traduction d’un désamour profond du public pour le CD, au profit de ces fichiers que l’on glisse si facilement dans son baladeur.

L’un meurt, l’autre nait. C’est une loi de l’existence. Pour l’industrie de la musique, la fin du support physique, comprenez le CD, fut synonyme de plongée en enfer, d’auto-questionnement mais aussi de réinvention des métiers de la filière. Cette phase touche à sa fin, aujourd’hui. Et l’industrie attend maintenant du gouvernement qu’il prenne les bonnes mesures pour préserver un certain niveau de recettes, suffisant pour endiguer les faillites à répétition. L’action principale de la force publique sera très certainement orientée vers un rééquilibrage entre les filières culturelles et les opérateurs de télécommunication. Ces derniers sont directement accusés d’avoir profité des échanges illicites de contenus culturels pendant des années, sans jamais rétrocéder d’argent aux ayant droit. La mission confiée à Patrick Zelnik, Jacques Toubon et Guillaume Cerutti par le ministre de la culture et de l’information Frédéric Mitterrand, devrait aussi multiplier les mécanismes d’aides à la production, tout en revalorisant les rémunérations perçues sur la diffusion de musique. Le tout ficelé dans une nouvelle loi prendra l’allure d’un plan de sauvetage d’une filière qui souffre et obtient ce qu’elle demande, à force d’hurler tel l’avare auquel on a dérobé un sou dans sa cagnotte.
Voilà qui est certainement dans l’ordre des choses, mais si l’on en restait là, les objectifs de la mission seraient loin d’être atteints. Car, une taxe ou une rémunération sur le chiffre d’affaires des FAI, et l’élargissement du crédit d’impôt ne créent aucune valeur sur le marché de la musique enregistrée. Pire, cela pourrait bien entretenir les acteurs de ce marché dans une situation de sécurité financière qui nuise à son dynamisme.

ipod

Création de valeur

Or, le point important, crucial, de la mission Zelnik, ne consiste pas à trouver les leviers pour soutenir le marché, mais à mettre en place les conditions d’une véritable création de valeur dans la musique enregistrée. Sans elle, les maisons de disques auraient plus intérêt à devenir des gestionnaire de fond de catalogues ou des bureaux d’exploitation des droits, et délaisser par simple calcul l’investissement dans de nouveaux modèles ou des projets d’artistes, par nature risqués.
Aujourd’hui, où se crée la valeur sur le marché de la musique dématérialisée ? Principalement sur les plates-formes de vente de musique. Pour le reste, les expérimentations d’un Deezer, d’un Spotify ou d’autres font en fait bien plus figure d’ovni économique qu’autre chose. Deezer est ainsi toujours enlisé dans l’ornière de la gratuité. Or la publicité ne permet pas de répondre aux exigences des ayant droit. Et pour finir une version payante du service n’a toujours pas été proposée aux internautes, de peur certainement que ceux-là migrent brutalement sur un autre site. Alors en attendant des jours meilleurs, Deezer a réussi à lever 6,5 millions d’euros de plus. Spotify est un autre cas, bien différent du premier. D’emblée, le service s’est présenté comme payant, avec un abonnement mensuel de 10 euros. Il s’est très vite imposé sur ce segment avec quelques fonctionnalités d’échange et un catalogue relativement dense de titres. Et pourtant comme le note l’un de ses fondateurs récemment, les objectifs ne sont pas encore remplis loin de là. L’adoption de ce service par une frange importante de la population semble de toutes les manières bien illusoire. Les dépenses en matière de musique des ménages n’ont jamais dépassé 2 CD, soit un peu moins de 35 euros par an en moyenne. Qui plus est ce chiffre correspond à une époque où l’industrie du disques était à son sommet, vers l’année 2002 ; aujourd’hui les français dépensent à peine 17 euros par an pour s’acheter de la musique.

Echoppes en ligne

Les plates-formes de vente sont aujourd’hui le creuset de la nouvelle économie de la musique. Elles seules créent une valeur inédite, qui n’existait pas jusque là, et qui renouvèle un marché laissé pour comateux depuis la fin annoncée du CD. Tout serait au mieux, si le volume d’affaires réalisé par ces échoppes en ligne était conséquent et servait ainsi d’amortisseur à la déflation du marché physique. Il n’en est rien encore, les plates-formes en ligne ne participent qu’à un faible pourcentage au marché de la musique enregistrée, la France fait d’ailleurs figure sur ce point de retardataire. Cela tient à une composante bien souvent trop sous-estimé du marché de la musique dématérialisée : le niveau d’équipement des foyers.
Attention il ne s’agit pas de prendre comme base le nombre de Français possédant un ordinateur, mais de regarder attentivement quel appareil provoque chez le consommateur l’envie d’acheter de la musique en ligne. Et sur ce point, la réponse est simple : iPod, et maintenant iPhone. Aucun autre baladeur sur le marché n’a réussi cette mutation subtilisant l’accès gratuit à un contenu acquis par un acte d’achat. Pour le dire simplement, l’iPod est aux années 2000 ce que la chaîne hifi était aux décennies précédente. C’est pour lui, et par lui, que les gens achètent de la musique, comme avant on chérissait ses disques pour les écouter dans le salon familial ou seul dans sa chambre.

Résistance

Apple a vendu dans le monde entier 250 millions d’iPod, et 30 millions d’iPhone, pour 8,5 milliards de titres sur iTunes. Cela fait une moyenne de 34 titres par baladeur ce qui n’est pas très élevé, mais a le mérite d’exister. D’autant que sur les derniers mois une forte accélération se fait sentir. Ainsi en France, iTunes a vendu plus de 5000 albums de Muse “Resistance” par semaine lors de son lancement. L’opus c’est évidemment classé en tête sur la plate-forme d’Apple. Ce n’est pas la première fois que les maisons de disques remarquent une percée d’iTunes dans leurs comptes des ventes. En moyenne un titre classé premier sur la plateforme se vend aujourd’hui près de 50% de plus qu’il y a un an. Bref, la montée en puissance est inexorable, mais il manque sûrement encore des concurrents sérieux pour rivaliser et booster plus encore le marché de la musique en France. A noter par ailleurs que les pro-Hadopi devraient très bientôt se féliciter de la vigueur du marché en ligne, attribuant surement ce réveil à l’application de la loi. Alors qu’il n’en est rien. Tout est fonction de la pénétration dans la population des équipements. L’iPod a fait son oeuvre, mais iPhone est une arme bien plus puissante dans les mains d’Apple. La vitesse d’adoption du mobile multi-touch dans les foyers est plus rapide que celle de l’iPod. Une bonne nouvelle pour la musique, pour Apple, pour les producteurs mais aussi les artistes, qui perçoivent des ventes réalisées sur iTunes bien plus d’argent que ne leur rapporte la diffusion de leurs oeuvres sur Deezer, Daily Motion ou Spotify.
Bref, si l’objectif est de créer de la valeur, et que messieurs Zelnik, Toubon et Cerutti ont les moyens d’agir, plutôt que de penser à la meilleure manière de ponctionner les FAI, il serait urgent de repenser les relations entre les artistes et les plateformes de vente de musique, afin de définir un plan d’aide ciblé capable d’encourager les français à consommer la musique dématérialisée.

> Article initialement publié sur electronlibre.info

]]>
http://owni.fr/2009/10/16/la-musique-numerique-se-porte-bien-merci-pour-elle-mission-zelnik/feed/ 1
Le journalisme à l’épreuve du réseau http://owni.fr/2009/10/12/le-journalisme-a-l%e2%80%99epreuve-du-reseau/ http://owni.fr/2009/10/12/le-journalisme-a-l%e2%80%99epreuve-du-reseau/#comments Mon, 12 Oct 2009 16:45:48 +0000 Emmanuel Torregano (électron libre) http://owni.fr/?p=4557 La multiplication des informations achèvera l’information ! Depuis que la presse écrite investit internet, le journalisme s’apparente à un puissant mutant on line qui propulse l’information en un clic aux quatre coins du web, donnant lieu à toutes les interprétations possibles.

Aux oubliettes l’époque où le journaliste papier réalisait, armé d’un carnet d’adresses béton et en contact avec « gorge profonde », le travail de recherche et de vérification d’une information brûlante et difficile d’accès. Place désormais au web et à son optique inversée : l’information déborde, il suffit d’aller faire un tour sur la toile pour s’en rendre compte.
Le boulot du journaliste s’adapte. Il lui revient maintenant la tâche de trouver les bonnes infos, au bon moment, de les vérifier et de les trier pour les servir à ses internautes. Il y a encore quelques exceptions évidemment, mais aujourd’hui n’importe qui peut dénicher la majeure partie des informations qu’un journaliste aura utilisées pour écrire un article rien qu’en surfant avec un peu de jugeote sur le web… Des quotidiens aux hebdos en passant par les sites spécialisés en sport, économie ou sujets de société, internet est le lieu d’une récolte régulière de l’information dans l’unique but de mettre à jour des sites, rechercher les infos et de créer de nouvelles rubriques.
Autant de contraintes technologiques face à un journalisme rentabilisant le « bâtonnage » de dépêches au dépend du reportage ou l’agrégation d’informations au détriment de l’enquête, faute de temps… et bien sûr d’argent ! Ces nouvelles « rédactions online », véritables machines de guerre du réseau, répondent à des délais de production et de publication souvent plus courts impliquant un travail de vérification des sources mais aussi une écriture concise dont l’efficacité tire parti du foisonnement d’informations diffusées sur le net. Les acteurs et les enjeux s’entrechoquent et voient pointer du côté des journalistes purs et durs une petite révolution systémique mettant en question les intérêts économiques de la presse web face aux valeurs du travail de journaliste.

Déclin

Le journalisme d’investigation est moribond, son déclin s’est amorcé dans les années 9O. Ce serait un raccourci de prétendre qu’un système de livraison de l’information tel que le web en serait l’unique déclencheur. Indépendamment du canal diffuseur de l’information, le journalisme d’enquête est d’ores et déjà sur le point de quitter le champ professionnel pour se replier vers le livre, comme avec « Notre métier a mal tourné. Deux journalistes s’énervent » où Philippe Cohen (rédacteur en chef de Marianne2.fr) et Elisabeth Lévy dénoncent une enquête journalistique ayant déserté la presse française depuis longtemps et se réfugiant dans l’édition. Un monde où le lecteur lirait plus volontiers Pierre Assouline plutôt que Le Monde, Philippe Cohen plutôt que Marianne2.fr… Les journalistes qui surnageront seront appelés à devenir leur propre marque, paraît-il. Ce journalisme appelé à faire cavalier seul ressemble alors beaucoup à l’écrivain enquêteur qui construit sa propre crédibilité à l’écart des rédactions.

Course à l’audience

Alexis Delcambre, rédacteur en chef du Monde.fr, défend néanmoins la qualité des reportages d’investigation présents sur son site : «  Le lectorat sera toujours friand d’articles de fond malgré la profonde mutation que connaît actuellement le journaliste. Le web n’est qu’un outil complémentaire qui permet d’étendre sa base de données, de rechercher des témoins en s’adressant aux bloggers, par exemple…L’investigation est atemporelle et n’entre pas en concurrence avec le raccourcissement du cycle de l’info ». A base de quatre à cinq web documentaires diffusés à l’année sur le “premier site d’information en ligne“, Le Monde.fr garde un discours policé sur le raccourcissement du cycle de l’info sur la toile. Si les dépêches de l’AFP sont incontournables sur le web et « sont offertes » aux internautes via les flux RSS défilant à la minute en rafale, elles ne remplaceront jamais un reportage d’investigation sérieux qui nécessitent des semaines d’enquête pour se rendre au coeur du sujet !
Et si la déontologie du journalisme d’investigation implique une indépendance vis-à-vis des pouvoirs politiques ou économique où la course à l’audimat est méprisée au profit de l’intégrité, c’est loin d’être la posture adoptée aujourd’hui par la presse web. Erwan Cario, rédacteur en chef du site Ecrans de Libération.fr, n’est pas plus optimiste sur le sujet. Selon lui, l’enquête aura sa place sur le net compte tenu de la demande des lecteurs. Mais « sa survie dépendra d’un paramètre sournois auquel est astreint la presse en ligne : les audiences. » Or, l’audience d’un site d’information comme lefigaro.fr par exemple, mesurée par Médiamétrie, peut prendre en compte une foule de sites adjacents commerciaux ou du même groupe ! Une entourloupe à l’audimat qui attirait jusqu’ici les annonceurs mais qui, à terme, ne doit pas compter sur la fidélité de son lecteur. Car si un internaute passe en moyenne 20 minutes de son temps sur un grand site d’information, les annexes et autres liens font uniquement figure de « lieux de passage à l’information ».

Journalisme de liens

Face à la surabondance d’informations mises à disposition sur le web, un nouvel outil fait son apparition pour opérer le filtrage : «  le journalisme de liens ». Suivant les traces des grands sites américains, cette «  agrégation éditorialisée » fait timidement son entrée en France, récemment sur le figaro.fr. Le principe : une page dédiée à une recommandation de liens attenants aux articles traités dans le même temps. Les journalistes se mettent enfin à placer des liens externes dans leurs propres articles, vers les sites concurrents, mais aussi vers toutes les autres ressources du web, et notamment les blogs. Ils proposent aussi, depuis peu, des « revues de web » sur les pages d’accueil de leurs sites, et des pages de liens sur un thème ou sur un sujet particulier.
L’enjeu est clairement économique : transformer les sites web en points de passage, bien placés sur le circuit de l’information en ligne, augmentera leur audience ainsi que leurs revenus publicitaires. C’est un grand pas pour les sites d’informations qui espèrent briser le monopole de Digg ou Google, jusqu’alors passage obligé du web. Ce nouveau pouvoir de recommandation de liens hypertextes par les grands sites d’information enclencherait à terme le contrôle de l’information de la part de ces médias. Mais la presse internet reste encore sous le joug d’une exigence web marketing et tout en donnant libre circulation à l’information, elle reste la clé de l’audience sur internet et de sa monétisation. Une mise à disposition de l’information qui favorise le flux à son contenu mais ne concerne finalement que 20% du journalisme web selon le rédacteur en chef du Monde.fr !
L’ambition de cet hybride sera d’en assurer un tri, une sélection et une hiérarchisation pour en permettre l’accès au plus grand nombre. Pour autant il devra respecter le processus déontologique « online » de ces nouveaux médias d’ information : informer les citoyens. Et sur ce sujet, le web réserve au journalisme un avenir risqué qui annonce la mise à mort de l’éthique d’une profession devenue produit marketing au centre d’une web économie gouvernée par la communication.

> Article initialement publié sur Electronlibre.info (bienvenue à eux!)

]]>
http://owni.fr/2009/10/12/le-journalisme-a-l%e2%80%99epreuve-du-reseau/feed/ 1