l'information circule dans l'entreprise, je l'ai souvent croisée devant la ... machine à café

Translation

Powered by Google

Enjeux et perspectives de l'Intelligence Economique - Forum IES 2010
L'évènement est à l'initiative de la Commission de l'Information pour l'Entreprise de l'Association Aéronautique et Astronautique de France (3AF).

Il regroupe l'ensemble de la communauté de l'intelligence économique (experts, universitaires, institutionnels mais surtout les professionnels de l'IE en entreprise)
 
Vous y trouverez : des retours d'expérience, des témoignages, des analyses et réflexions sur les évolutions qui impactent les secteurs de la veille, de l'analyse et de la sécurité informationnelle.

                              du 6 au 8 octobre 2010 à Reims

L'appel à communication est en ligne et s'adresse plus particulièrement à tous les acteurs de la communauté de l'intelligence économique.

Date limite de dépôt des propositions d'intervention : 15 avril



 
Avec l'émergence des pratiques d'externalisation de la production et de l'hébergement des données sur des applications distantes, les entreprises commencent à envisager le jeu des contraintes qui ne manquent pas de se superposer à celui des opportunités (voir le billet du 22.02.09 l'informatique dans le nuage à l'épreuve des usages professionnels).

Quelques éléments de l'actualité récente viennent étayer le débat sur l'intégrité de ces données et leur portabilité :

1) du point de vue de l'accessibilité des données, l'hétérogénéité des nuages qui se constituent actuellement permettra t-elle pour une entreprise de pouvoir porter l'ensemble de ses données d'un environnement à l'autre ? Ce qui revient à poser la question de l'interaction entre les nuages et l'opportunité (certains diront la nécessité) de développer un protocole d'interopérabilité

2) l'intégrité de ces données sera t-elle assurée ? Alors que les serveurs Google sont en proie à des cyberattaques massives (les serveurs de messagerie Gmail). On l'a vu précédemment, l'enjeu de l'intégrité des données est de taille puisque tout le système d'externalisation des données repose sur la confiance que les internautes vouent au prestataire. On peut penser que la collaboration qui se met en place entre Google et la NSA (National Security Agency) répond à cette volonté de restaurer la confiance.

A suivre ...

____________________

Ressources :

UK Government to set up own cloud computing system (in The Guardian - 27.01.01)

We have the internet: now we need the intercloud, says Vint Cerf (in The Guardian - 05.02.10)

Google to enlist NSA to help it ward off cyberattacks (in The Washington Post - 03.02.10)

Rédigé par ludovic bour le 07/02/2010 à 14:36 | Commentaires (0) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
Les nuages s'amoncellent au-dessus de Mountain View : Google hot news

 
Alerte météo au-dessus du Googleplex.

Une série de dépressions venant d'Asie et d'Europe vient perturber la mécanique jusqu'alors bien huilée du Moteur de recherche.

Résumé (chronologique) des faits :

1) News corp (1er groupe média au monde) engagé dans un bras de fer avec le moteur de Mountain View au motif que celui-ci ne redistribue pas la manne financière de la vente d'espaces publicitaires. Où il est question de déférencement dans le moteur de recherche de tous les contenus produits par les entités et titres du groupe. Il y en a ! (Wall Street Journal, the Times entre autre). Le contentieux médiatisé fin 2009 a même été jusqu'à envisager un rapprochement Microsoft / News corp pour que les contenus de ce dernier soient rétribués pour apparaître dans le moteur du premier (Bing) pour se faire un coin de place au soleil à l'ombre du géant de Mountain View. Le monde à l'envers ! (1)

2) une décision (du 18 décembre 2009) du Tribunal de Grande Instance de Paris qui condamne Google pour contrefaçon au motif que la société incriminée numérise et diffuse des oeuvres sous droits sans l'autorisation de l'éditeur. Pour mémoire : le litige oppose le moteur à l'éditeur La Martinière. Les conséquences d'une telle décision peuvent être lourdes pour l'industrie des contenus numériques en général (qu'il s'agisse de contenus culturels, informatifs ou encore à usage professionnel) compte tenu de la stratégie affichée par Google depuis quelques temps d'assurer la numérisation de l'ensemble des savoirs. Ce jugement apporte un sérieux revers à cette stratégie adossée à une implacable logique qui veut que "la raison du plus fort est toujours la meilleure." Il n'est pas dit que cette décision ne fasse jurisprudence et impose à Google de (re)venir à la table des négociations dans le cadre des diverses actions intentées à son égard par les éditeurs et groupements d'éditeurs qui entendent bien au final faire respecter le droit de la propriété intellectuelle

3) les serveurs Google en proie à des attaques informatiques massives en provenance de Chine : les serveurs de messagerie Gmail visés par ces cyber-attaques avec en ligne de mire les comptes de dissidents chinois. L'affaire prend un tour diplomatique avec l'administration US qui demande des explications aux dirigeants de l'Empire du milieu. L'enjeu pour la firme de Mountain View n'est pas anodin : car derrière cette attaque massive c'est l'intégrité des serveurs de données que maîtrise Google qui est visée par les hackers. Or faut-il le rappeler, Google est souvent assimilé à un "Big brother" qui collecte, cumule et agrège des masses de données considérables sur les individus qui passent par le moteur de recherche pour entrer sur le net. Ces données sont ensuite croisées avec les interactions que ces individus ont avec les applications proposées par Google. Il y en a beaucoup pour ceux qui ont créé un compte Google ! Bref, casser l'intégrité du système c'est mettre à mal la confiance que les internautes ont envers l'écosystème numérique proposé par Google. Pour les entreprises, on imagine le chemin qu'il leur reste à parcourir pour ne serait-ce qu'envisager d'envoyer leurs données dans le nuage informatique (voir à ce sujet :
l'informatique dans le nuage à l'épreuve des usages professionnels )

4) le débat initié par le rapport de la commission Zelnik (remis le 6 janvier 2010) sur l'opportunité d'une "taxe Google" destinée à financer un fonds de soutien aux industries de contenus. Cette taxe s'appliquerait sur les revenus publicitaires engrangés par les sites qui génèrent les plus fortes audiences : le nom était tout trouvé !

5) le rapport de la commission Tessier (remis le 12 janvier 2010) à mettre en perspective avec les quelques 750 millions d'euros issus du grand emprunt destinés à financer la numérisation du fonds patrimonial culturel français. Où il est question de (re)définir le cadre contractuel des récents accords passés (et ceux à venir) entre les acteurs privés et publics. Comprendre : revoir les termes de l'accord passé entre Google et la BnF ainsi que l'ensemble des bibliothèques pour la numérisation de leurs fonds.

6) Last but not least : quand Google s'essaie à occuper la scène médiatique pour annoncer le lancement d'un produit et rétablir une communication corporate toute orientée à la valorisation d'un groupe innovant, c'est la concurrence qui prend l'initiative et noie l'annonce de Google dans un continuum informationnel incessant (le Buzz !). Le Nexus One autrement désigné sous le nom de Google Phone a été officiellement lancé le 5 janvier dernier avec pour ambition (
clairement ) affichée de modifier les modalités d'usages en matière de téléphonie mobile. Pas moins de 3 semaines après, Apple lance l'offensive médiatique sur le terrain des nouveaux usages mobiles avec son booklet PC : le iPad !

A n'en pas douter si la décennie précédente a été marquée par l'épopée Google et son insolente emprise sur le monde de l'internet, celle qui commence semble non pas inverser le rapport de forces, mais tout du moins rétablir celui-ci dans des proportions qui laissent supposer que Google se devra d'engager des négociations avec les producteurs de contenus pour le partage des revenus publicitaires notamment.


A suivre ...
_______________

Ressources :

Microsoft and Newscorp eye web pact (in FT.com - 22.11.2009)

German news publishers file complaint against Google (in DW-World.de - 17.01.2010)

French court rules against Google over book copying (in Reuters - 18.12.2009)

A new approach to China (in The official Google blog - 12.01.2010)


(1) On fera, par ailleurs, le lien avec la récente initiative de la fédération allemande des éditeurs de presse d'information qui assigne (17.01.2010) Google devant la cour fédérale en charge des questions liées à la concurrence pour exploitation sans autorisation des dépêches émises par ses membres
.






2010, l'odyssée de la recherche temps réel
 
 
Au début du 20ème siècle, Proust invitait ses contemporains à partir "à la "recherche du temps perdu". Au crépuscule de ce même siècle, R. Zemeckis nous emmenait dans un voyage "retour vers le futur". Nous voilà revenu - à l'aube de ce nouveau millénaire à des considérations plus en rapport avec l'instant présent.

Dans le continuum des évolutions technologiques permanentes et des usages qui en résultent, l'homo numericus cherche. Il cherche non plus le Saint Graal, mais l'information. Comme pour mieux exorciser la crainte de passer à côté de l'information, il développe toutes sortes de stratégies qui vont lui permettre de filtrer le flot continu de données qui le touche au quotidien. Il tente aussi de réduire l'espace temps qui sépare la production de la donnée, de sa diffusion et au final de sa capture. Bienvenu dans l'odyssée de la recherche temps réel.

Etat des lieux :


  • la recherche dans l'actualité chaude : c'est bien sur ...
Twitter qui comme le précise son accroche vous permet de : partager et découvrir ce qui se passe en ce moment, partout dans le monde. Oui le Monde !
  • la recherche "fédérée" (celle qui inclut le web classique) avec les contenus émis depuis les réseaux sociaux : l'actualité "chaude" met en avant les projets Google avec son Google Real-Time Search qui intègre dorénavant outre les résultats de Twitter, les mises à jour depuis les plateformes MySpace et Facebook entre autre. Pour apprécier cette nouvelle fonction, il faut repérer dans l'ensemble des résultats que remonte le moteur la ligne : Latests results for ... (la requête effectuée). Encore à l'état de démonstration
  • on citera aussi le projet Google Wave (l'actualité Google est intarissable !) qui permet de capitaliser sur une information originale à partir des ajouts, commentaires et autres contributions. Soit l'application temps réel qui permet de communiquer et de collaborer dans un environnement ouvert. Avec la "vague", Google vise au -delà de la recherche temps réel pour amener l'utilisateur à la collaboration temps réel
  • et puisqu'on est dans la recherche fédérée où l'agrégation des contenus permet de balayer divers environnements, il n'est pas vain d'aller voir du côté des agrégateurs. Pour n'en citer que quelques uns, on retiendra : Collecta où la recherche temps réel plurimédia avec une système de filtrage qui consiste à fouiller les contenus dans les média sociaux, les commentaires de blogs, les articles, les images photos et les vidéos. Le tout dans une interface très épurée, donc facile d'usage
  • Yauba qui ouvre davantage le champ des formats de restitutions avec des documents word, powerpoint, Pdf, etc...
  • enfin, on peut citer pour le fun almost.at dont l'interface graphique permet de suivre en live l'actualité chaude du moment. Des thèmes à suivre sont suggérés. Il est possible de soumettre, par ailleurs, des thèmes.
______________________  
 
Ressources :

Google Real-Time Search Is Now Live in RWW (10/12/09)

Twitter Search


Rédigé par ludovic bour le 12/12/2009 à 20:02 | Commentaires (0) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
Où en est la diffusion et la recherche dans les contenus multimedia ?
 
Peut-on lire l'avenir est-il dans les étoiles ?

Je ne sais pas, mais il y a pas mal de mouvements dans le domaine de la recherche en ligne qui laissent supposer que l'avenir est certainement du côté des images et des sons ! Bref du côté de la recherche multimédia.

Etat des lieux :

Le projet Quaero

Pour ce faire, il n'y qu'à observer ce qui se passe du côté des principaux partenaires du projet. A la lumière des démonstrateurs aujourd'hui disponibles, on note :
  1. la mise en place d'une logique de délinéarisation des contenus quelque soit leur format (texte, son, image). C'est ce que propose le service produit par Orange 2424actu qui agrège des contenus news en provenance des grands média presse, TV et radio. On peut rapprocher cette initiative de ce que propose la BBC dans son offre iPlayer. Soit, mêler des contenus produits pour divers média (TV et radio en l'occurrence) dans des bouquets thématiques diffusés en ligne
     
  2. la recherche dans les contenus audiovisuels proposée par Voxalead (Exalead) à partir de la technologie de reconnaissance vocale (speech-to-text) dans un environnement multilingue développée par le LIMSI
    L'intérêt de l'interface de recherche réside - aussi - dans ses fonctionnalités additionnelles, dont la transcription en texte du contenu audio. On comprend l'intérêt de cette solution qui ne fouille pas les métadonnées attachées au fichier multimédia, mais l'ensemble du contenu audio dans le fichier en question et offre donc la capacité de parvenir directement à la séquence souhaitée sur la base du terme de la requête. Autre fonction proposée : l'extraction des entités nommées dans le contenu audio et donc la navigation par liens dans un univers sémantique cohérent. Last but not least : une barre du temps qui permet de naviguer sur une requête donnée en fonction de sa popularité dans le temps

Autre initiative : France 24 Lab expérimente en HD la VOD avec contrôle du direct, chapitrage automatique et technologie de speech to text. Voir demo

 
Si on étend le spectre de l'analyse, il faut aussi aller chercher du côté de la communauté du renseignement qui n'est pas en reste sur ce thème de la recherche dans les contenus plurimédia. On peut faire référence au projet IARPA (pour Intelligence Advanced Research Projects Activity). Placé sous la responsabilité de l'ODNI (Office of the Director of National Intelligence US). L'objectif est d'investir des champs de recherche qui procureront à la communauté du renseignement US un avantage déterminant dans un état continu de guerre de l'information. A ce titre, l'un des programmes que mène le centre de recherche porte sur la capture et l'analyse des signaux, notamment dans les contenus vidéos diffusés en ligne. Nom code du projet : ALADDIN (pour Automated low Level ANalysis and Description of Diverse Intelligence Video)

Le but recherché est d'améliorer significativement la capacité et la vitesse d'analyse des experts qui scrutent ces contenus vidéo produits dans des environnements complexes et hétérogènes.

A suivre ...

______________________

Ressources :

Pourquoi Quaero n'est pas Google

Will all information be video in the future ? in ExaleadBlog - 05.11.09

Description du programme ALADDIN



Rédigé par ludovic bour le 20/11/2009 à 23:18 | Commentaires (0) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
 
Dans un billet récent il était question de la crise quant aux modalités de monétisation de l'accès à l'information en général (presse en particulier) avec la stagnation, voire la diminution des recettes publicitaires engrangées par les supports.

Si il est entendu que l'ensemble de l'offre d'espaces publicitaires (tout média confondu) disponible dépasse la demande d'achat des annonceurs, il faut cependant observer dans le détail les tendances de fond qui se dessinent dans le secteur de la publicité.

Pour illustrer le propos, voici une information déterminante relevée sur le marché britannique (l'un des plus importants en volume) : les dépenses d'achat d'espaces publicitaires en ligne viennent de dépasser(1) les dépenses affectées à la TV.
 
 


On savait la presse en grande difficulté, on sait maintenant que l'ensemble des média traditionnels (TV et radio inclus) n'échapperont pas au mouvement général qui voit un transfert massif des dépenses publicitaires vers le média Internet. Le développement de la Télévision Numérique Terrestre (TNT) en France a passablement perturbé le modèle économique des acteurs historiques dans le paysage audiovisuel, mais on peut déjà penser que les enjeux sont ailleurs. Notamment sur la capacité de ces acteurs à envisager des offres multimedia matinées de média sociaux. Et ce sur ce point, je vous renvoie vers cette idée avancée dans un billet récent :

Dans les média traditionnels (TV et radio notamment), on peut se risquer à penser que les acteurs du service public ont tout intérêt à imaginer les modèles de demain, n'ayant pas à gérer la contrainte de la rentabilité du court terme. Alors que les autres acteurs se doivent d'imaginer le passage à d'autres modèles tout en s'assurant le niveau de revenus immédiats que leur assurent la vente d'espaces publicitaires.


Sur ce point précis, avantage certain à la BBC qui est engagée dans une "délinéarisation" de son offre de contenus ; soit la possibilité de mêler des contenus produits pour divers média (TV et radio en l'occurrence) dans des bouquets thématiques diffusés en ligne.

Pendant ce temps Google semble miser sur la croissance irrésistible du marché publicitaire sur les smartphones (voir l'interview de E. Schmidt CEO de Google)


________________________

Ressources

Internet overtakes television to become biggest advertising sector in the UK - Guardian .co.uk (30/09/09)

BBC to relaunch websites with focus on social media - Guardian.co.uk (29/09/09)

Pour suivre l'actualité des nouvelles modalités de diffusion de l'information, en temps réel : le Twitt de la Machine à café


(1) Chiffres à l'appui : Internet capte 23,5 % dépenses publicitaires quand la TV ne représente plus que 21,9%. A noter que sur les 23,5 % captés par internet, le segment du search advertising est le grand gagnant avec 60 % des sommes collectées.
 

De la compatibilité entre papier et support numérique - Google aussi !
 
Il n'est pas si loin le temps de la bulle (celle de la nouvelle économie) qui organisait le monde en 2 hémisphères imparfaitement dessinées : celle de l'internet lieu de tous les fantasmes et celle du brick and mortar pour mieux préciser qu'il y avait un avant et un après. Puis vint l'idée que ces 2 mondes pouvaient converger en diverses occasions (notamment dans une perspective de monétisation des contenus proposés en ligne, soit de e-commerce), c'était le click and mortar. Depuis ces temps pionniers et épiques, la bulle s'est évaporée dans les vicissitudes de l'économie réelle, Google est devenu le principal point d'entré dans la masse des contenus (visibles) et la numérisation des fonds et des contenus s'est accélérée au plus grand bénéfice du moteur de recherche éponyme.

On connaissait la propension de Google à investir tous les champs de la culture et de l'information numérique pour devenir au final l'acteur incontournable de la diffusion, de la transmission et plus généralement de l'accès aux savoirs (1). On avait peine à imaginer que ce pure player de l'internet puisse un jour investir le monde du papier. C'est chose faite ! Bienvenu dans le monde du clik and mortar version Google.

L'information :

En date du 17 septembre dernier, la firme de Mountain View signe un accord de coopération avec la société On Demand Books. En vertu de cet accord, Google permet à la dite société de piocher dans un fonds de recueils numérisés (soit plus de 2 millions de livres tombés dans le domaine public) pour effectuer des impressions papier avec la qualité des ouvrages que l'on trouve dans les circuits classiques de distribution de la littérature.

L'intérêt du partenariat est de mettre en rapport la capacité du moteur de recherche à fouiller dans les contenus numérisés et une technologie brevetée par ODB : Espresso Book Machine®.

EBM est un système de micro-édition qui permet d'automatiser la fabrication de recueils en un temps très court (dans sa dernière version EBM permet d'imprimer 105 pages noir et blanc par minute). Le matériel (l'imprimante qui assure aussi le façonnage) est couplé à un logiciel (EspressNet) qui assure la gestion des droits (éditeurs, auteurs), qui trace l'ensemble des travaux d'impression pour rétribution des parties concernées (éditeurs notamment).

On l'aura compris, les avantages d'un tel système sont divers :

1) apporter une réponse à l'édition à compte d'auteur et permettre à ces auteurs d'adresser le marché
2) permettre une rétribution des diverses parties (auteurs, éditeurs, intermédiaires de vente)
3) obtenir le paiement du produit avant sa fabrication
4) décentraliser la fabrication au niveau du point de vente (le Graal du marketeur)
5) permettre de fluidifier et donc raccourcir le circuit de l'édition entre la demande et la restitution de l'ouvrage
6) permettre aux revendeurs potentiels (librairies, bibliothèques, centres de formation, universités, etc…) de dégager de nouvelles sources de revenus  
7) éliminer la gestion des stocks et autres taches fastidieuses liées aux inventaires

On peut aussi penser qu'un tel système donne corps au principe de la longue traine appliqué au monde de l'édition et permet de la sorte à des ouvrages jugés peu intéressants pour l'édition classique d'adresser le marché.

Dernière précision, le fonds Google (plus de 2 millions de titres) vient s'agréger à celui d'ODB (1,6 million).

Attention cependant : pour ceux qui ont tendance manifester un enthousiasme par trop communicatif, vous risquez de faire naître un espoir déçu. En effet, il n'existe à travers le monde (oui le Monde !) qu'une vingtaine de machines. Et pour les mordus de lectures "confidentielles" le point de distribution le plus proche (de Paris s'entend, puisque ce billet est rédigé depuis Paname) est à …

… Charing Cross (le plan). Mais pour les inconditionnels d'une certaine littérature, l'Eurostar ne met finalement Londres qu'à 2 heures 15 de Paris !

____________________

Ressources :

Le communiqué de presse ODB

(1) Organize the world's information and make it universally accessible and usefull (Google's mission statement)

Rédigé par ludovic bour le 22/09/2009 à 23:12 | Commentaires (0) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
 
Il n'y a qu'à suivre l'actualité en quasi temps réel pour mesurer combien le thème des modalités d'accès aux contenus numériques tient le haut de l'affiche.

Le débat s'est depuis longtemps installé selon 2 logiques :
  1. celle de la loi Hadopi (version2) qui a pour objectif de cadrer le volet répressif qui vise le téléchargement illégal de contenus, ou protection de la création
     
  2. celle de la recherche du modèle économique qui assurera la remontée des revenus nécessaire à l'ensemble de la chaîne de valeurs pour les acteurs de la filière numérique (soit de la création de contenus à leur diffusion)
S'il est convenu de noter que les usages dans un contexte de vie privée tendent à orienter ceux de la sphère professionnelle, on peut néanmoins considérer que l'information à usage professionnel n'est que peu ou pas impacté par le volet répressif à date.

Faisons donc un focus particulier sur le second point : les tendances récentes observées quant à la production, la diffusion et la monétisation des contenus.

Le rebond sur l'actualité "chaude" passe par une interrogation : quel devenir pour le gratuit ?

La question se pose avec d'autant plus d'acuité que la crise aidant, les budgets des annonceurs dédiés à l'achat d'espaces publicitaires ont fondu réduisant du même coup les recettes publicitaires de l'ensemble des média. La presse professionnelle et technique - qu'elle soit papier ou en ligne - n'échappe pas à cette tendance. C'est aussi affirmer sans détour que l'idée jusqu'alors répandue que l'ensemble des revenus publicitaires allait définitivement permettre de diffuser et d'adresser les contenus gratuitement était un leurre.

Hors effets conjoncturels, c'est admettre que structurellement, le marché publicitaire (tout média confondu) est caractérisé par un déséquilibre croissant entre l'offre d'espaces disponibles et la demande des annonceurs. Dit autrement : c'est  reconnaître que l'ensemble des média vit au-dessus d'une bulle "publicitaire" qui fait que l'offre d'espaces croit régulièrement avec le développement de nouveaux média (internet et téléphonie mobile notamment), alors que dans le même temps la capacité des annonceurs à investir dans ces espaces stagne, voire diminue.

Pour pallier à la diminution des revenus publicitaires, nombre d'acteurs revoient leur modèles économiques. Le fait que le groupe de média News Corp (qui possède entre autre le Wall Street Journal et Fox Broadcasting Company) ait décidé de monter un consortium des principaux éditeurs de presse pour réfléchir et organiser la monétisation de l'accès aux contenus est un signe de revirement des stratégies mises en place ces dernières années (voir le billet suivant sur la stratégie de R. Murdoch) révélateur de cette nouvelle donne.

La cause semble entendue ou est en passe de l'être. Reste cependant à trouver le modèle économique qui viendra réinstaller dans l'inconscient collectif l'idée que tout à un coût. A n'en pas douter, le client cherchera un niveau d'acceptabilité satisfaisant pour supporter ce coût d'accès aux contenus.

Côté fournisseurs, on peut penser que le chemin est encore long vers les cimes de la rentabilité et qu'en chemin certains s'égareront.

A suivre ...

_________________________

Ressources
 
News Corp. pushing to create an online news consortium (in LA Times - 21/08/09)

L'information payante cherche un avenir désespérément (l'Expansion - 08/09/09)

Ainsi qu'une présentation effectuée le 10 septembre 2009 lors de l'Université d'été du Groupement français de l'Industrie de l'Information




 
Dans la suite des réflexions menées par le GFII sur les modèles économiques de diffusion de l'information, il peut s'avérer opportun de faire un point d'étape, notamment à l'aune de l'expérience acquise sur d'autres secteurs impactés par la diffusion de contenus en ligne.

Pour ce faire, on partira des réflexions émises lors de la dernière édition d'i-expo. En voici donc les éléments de synthèse qui permettent d'apprécier à la fois les enjeux qui se dessinent sur le marché de l'information professionnelle, mais aussi l'ensemble des contraintes qui régissent aujourd'hui encore ce marché.

Résumé :

Il s'agit en premier lieu de revenir sur l'idée largement répandue que l'accès aux contenus numériques est gratuit. Nonobstant, la publicité permettra de financer les coûts de diffusion (à défaut de couvrir les coups de production de ce contenu). La raison s'impose par la force du constat : l'offre d'espaces publicitaires (en ligne et hors ligne) disponibles est très largement supérieure à l'offre des annonceurs qui souhaitent diffuser de la publicité. La crise actuelle aggrave bien évidemment le phénomène, mais il s'agit - au delà des aléas liés à la conjoncture - de casser le mythe qui consiste à faire croire que les revenus publicitaires permettront de financer la production et la diffusion de l'ensemble des contenus numériques.

Faut-il dès lors opposer systématiquement la diffusion en ligne au papier ? Assurément non : même si les fournisseurs reconnaissent que la numérisation des contenus est la tendance de fonds qui organisera le marché de l'information de demain, il n'en reste pas moins vrai que la "rentabilité" d'un client qui achète du "papier" demeure de loin largement supérieure à celle d'un client qui consomme en ligne. La recherche d'un modèle économique de diffusion efficace ne peut s'affranchir de cette réalité immédiate. Dans ce contexte, la complémentarité des contenus papier et numérique est à rechercher.

Il s'agit de produire le modèle économique de demain de façon à assurer la convergence des intérêts entre les producteurs de contenus (continuer à produire et retirer des bénéfices de la diffusion) et ceux des consommateurs de ce contenu (augmenter la qualité du service et diminuer les coûts d'acquisition). Si il est difficile d'avancer vers un équilibre stable autour d'un juste prix de l'information, il peut s'imposer une autre logique qui consiste à revisiter ce marché à partir d'une segmentation beaucoup plus fine autour des attentes de consommation.

Ce faisant, on peut imaginer l'émergence de services de diffusion de l'information réputés "lowcost" ou dégradés qui permettent d'adresser une nouvelle catégorie de consommateurs jusque là peu ou pas acheteurs sur ce marché (type TPE, PME, professionnels, groupements, etc...). A partir de cette hypothèse, on peut (re)penser des logiques de
tarification à la demande (pay per view). A titre d'illustration, on devrait voir émerger des offres de services qui selon le principe de la "longue traîne" (long tail ) permettront de faire tester cette offre d'information à une nouvelle catégorie de clients. L'arrivée de nouveaux distributeurs devrait permettre de proposer ces services "dégradés" et de développer ces segments de marché à côté des éditeurs et distributeurs actuels qui privilégient les effets de volume. D'ailleurs, ces nouveaux segments de clientèles exploités offrent une nouvelle opportunité pour les éditeurs et diffuseurs classiques de voir une partie du segment monter en gamme et acquérir leur offre de services plus élaborée selon le principe que l'usage alimente le besoin. 

Cette notion de services "dégradés" pose cependant la question - non résolue à date - de la simplification des modalités de paiement dans les entreprises pour acquérir ces contenus numériques.
 
Reconnaître la valeur d'une information, c'est accepter d'en payer le prix pour la récupérer et l'exploiter. Du point de vue de son usage dans un contexte professionnel, il convient d'en garantir le service de la diffusion selon les critères suivants :
  1. l'exhaustivité,
  2. la sélection et la fiabilité des sources d'information, leur vérification et mise en perspective,
  3. la réactivité, ce qui revient à faire la part des choses et préserver son objectivité
A cela, viennent s'ajouter d'autres services qui vont favoriser l'acquisition de l'information tels que le multilinguisme et la traduction des contenus, la capacité d'intégration des données dans le SI, etc...

Repenser les modalités de diffusion de l'information en ligne, c'est aussi poser la question de la relation client fournisseur et identifier précisément le coeur de métier (au sens anglo-saxon du terme Core Business) des acteurs du marché. Ce qui revient à s'interroger sur l'intermédiation de la relation client. On devrait dès lors
voir se positionner de nouveaux acteurs sur le marché de l'information professionnelle numérique tels que les opérateurs de téléphonie, d'accès à internet et de TV payante. Ceux-ci ont en effet acquis une expérience certaine dans la facturation de services "on demand" mais aussi sur la fourniture de bouquets de contenus numériques.  A charge pour les éditeurs et diffuseurs actuels d'accepter le principe de voir une partie de leurs revenus rétribuer ces nouveaux opérateurs, avec cependant la double opportunité de voir diminuer les coûts de la diffusion et ce faisant de la gestion de la relation client et la possibilité d'adresser une nouvelle clientèle.

On peut d'ailleurs penser que l'o
pportunité aujourd'hui de voir se développer des offres forfaitaires de bouquets d'information par l'intermédiaire d'opérateurs de téléphonie (tout du moins) est réelle, car ceux-ci sont confrontés à un phénomène de saturation sur leur marché de par :
  1. un taux d'équipement élevé en téléphonie mobile (1)
  2. une concurrence accrue entre opérateurs qui se traduit par une pression forte sur les prix ce qui à terme risque d'entamer la rentabilité de ces opérateurs
Ce faisant, il est légitime de penser que les opérateurs mobiles ont besoin aujourd'hui de trouver des relais de croissance. Pour ce faire les alternatives sont de 2 sortes : soit se transformer en éditeur de contenus par croissance externe (cependant peu d'opérateurs ont a priori la capacité de faire évoluer leur coeur de métier), soit de proposer de nouveaux services aux abonnés avec le savoir faire nécessaire pour facturer tout type de services. Dans ce registre, il est intéressant d'observer le modèle mis en place par Apple et sa plateforme de diffusion dédié à l'IPhone : AppStore. Il restera malgré tout à envisager les voies de convergence entre des applications et services fournis au grand public et ceux dédiés aux usages professionnels.

Au final, on résumera le dilemme qui s'impose aujourd'hui à l'ensemble des acteurs du marché en posant l'équation à plusieurs inconnues en ces termes :
Quel(s) modèle(s) de diffusion de l'information faut-il envisager sans déstabiliser le modèle actuel  ?
Et comme il est fait état d'incertitudes dans le titre, voici matière à réflexion suggérée par un des principaux acteurs du marché : la difficulté de trouver le bon modèle est d'autant plus grande qu'on part d'un existant éprouvé pour ne pas dire installé de longue date dans nos schémas de penser (acheter de l'information produite par un éditeur). Alors que nul n'est capable de prédire demain tant du point de vue de l'évolution des comportements de consommation de cette information que des technologies qui permettront de la traiter. L'accélération du cycle des innovations technologiques qui engendrent de nouveaux usages fait que demain c'est déjà maintenant ! (2)

_____________________________

(1)
Le taux de pénétration (en France) au regard de la population est de 91,8%, soit 58,9 millions de cartes Sim en circulation à fin juin 2009 (Source : ARCEP)

(2) pour paraphraser l'auteur de science fiction William Gibson : "The future is already here. It is just unevenly distributed"



 
Alors que demain jeudi 18 juin est programmée une conférence sur le thème : "Les nouveaux modèles économiques de l'information professionnelle à l'ère du numérique ", voici 2 idées forces proposées lors de la conférence inaugurale par un expert des média pour imaginer les modèles de demain :
  1. "délinéariser" l'offre de contenus à l'image de ce que propose la BBC dans son offre iPlayer En d'autres termes, mêler des contenus produits pour divers média (TV et radio en l'occurrence) dans des bouquets thématiques diffusés en ligne
  2. organiser ces contenus autour d'une marque forte gage de crédibilité au moment où les UGC mélangent sans distinction information et désinformation
Pour extrapoler les propos de l'expert, on peut s'interroger sur le rôle des acteurs publics par rapport aux acteurs privés dont les ressources (publicitaires) sont structurellement appelées à se rétrécir sous l'effet d'une multiplication des supports de diffusion.

Dans les média traditionnels (TV et radio notamment), on peut se risquer à penser que les acteurs du service public ont tout intérêt à imaginer les modèles de demain, n'ayant pas à gérer la contrainte de la rentabilité du court terme. Alors que les autres acteurs se doivent d'imaginer le passage à d'autres modèles tout en s'assurant le niveau de revenus immédiats que leur assurent la vente d'espaces publicitaires.

C'est aussi remettre en perspective l'innovation dans les process de production, de diffusion et de monétisation de l'information : entre adaptation pour ne pas perdre trop aujourd'hui et rupture pour exister encore demain.

Rédigé par ludovic bour le 17/06/2009 à 22:11 | Commentaires (0) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
1 2 3 4 5 » ... 23
Syndication
RSS ATOM RSS comment PODCAST Mobile

Add to Netvibes

Abonnement Bloglines

Add to Google

/a_la_une

Subscribe in NewsGator Online



Vous n'utilisez pas d'agrégateur de flux RSS Vous pouvez recevoir - dès parution - les billets de ce weblog sur votre outil de messagerie en vous inscrivant ci-dessous


entrez votre adresse e-mail :