l'information circule dans l'entreprise, je l'ai souvent croisée devant la ... machine à café

Translation

Powered by Google

Pour les professionnels, chefs d’entreprises, experts, institutionnels, universitaires de tout secteur d’activité concernés par les domaines de la veille, l'analyse, l'intelligence économique, la stratégie, la communication, le lobbying et de la sécurité


De l'urgence à l'anticipation : les défis de l'intelligence économique - Forum IES 2012
Pour cette 11ème édition, l’organisateur : la Commission de l'Information pour l'Entreprise de la 3AF (Association Aéronautique Astronautique de France) a souhaité placer la manifestation sous l’intitulé : « de l’urgence de l’anticipation ; les défis de l’intelligence économique »

Lors de la dernière édition, ce sont plus de 250 professionnels issus des principaux secteurs de l’industrie et des services qui ont pu échanger et partager leurs expériences lors de réunions plénières et de groupes de travail.

Le programme et les modalités de participation :

http://www.ies2012.com/index.html

Le 11ème forum européen IES 2012 se déroulera du 10 au 12 octobre prochain à Lille

Voici un résumé (partie 1) du livrable réalisé par le Groupement Français de l'Industrie de l'Information sur les nouvelles tendances dans les pratiques de veille et de gestion des connaissances



Des ruptures en cours

L’internet (en tant que réseau des réseaux) tel que nous le connaissons et le pratiquons aujourd’hui n’a qu’une vingtaine d’années. C’est peu au regard de ce que représentent les cycles économiques et beaucoup si on considère la masse d’expériences acquise. Le marché de l’information d’aujourd’hui n’est plus celui d’il y a 20 ans. Il s’est construit - et continue de se construire - sous l’effet des ruptures technologiques qui s’y produisent et qui elles-mêmes engendrent les ruptures dans les usages.

De la fonction documentation centralisée dans les organisations pour permettre l’accès à la donnée informationnelle, nous passons à une logique de décentralisation des processus de collecte et d’automatisation des tâches de surveillance. Le GFII, en réalisant ce guide, a souhaité apporter à l’ensemble des acteurs de l’information des éléments de réponse quant aux nouveaux usages de la veille qui se dessinent dans les organisations. Ce travail est le fruit de l’observation des pratiques de veille et des attentes exprimées par les utilisateurs (des auditions ont été réalisées sur l’année 2011), mais aussi d’une recherche documentaire et de retours d’experts qui se sont exprimés dans divers colloques. Et comme le GFII porte dans son ADN l’échange permanent entre l’offre et la demande, les fournisseurs de services et de solutions de veille ont apporté leur propre vision, tenant compte des attentes exprimées par les utilisateurs.

Des fiches présentées dans ce document, on retiendra donc plusieurs thèmes récurrents qui permettront au lecteur d’appréhender les tendances qui se dessinent et d’émettre des hypothèses sur les voies possibles de ce que pourrait être une activité de veille d’ici quelques années.

consultez le livrable

Rédigé par Ludovic Bour le 16/06/2012 à 19:58 | Commentaires (0) | Permalien

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest

Une présentation réalisée en novembre 2010, mais toujours d'actualité
La pratique des réseaux sociaux en usages professionnels :
entre opportunités et menaces



Rédigé par Ludovic Bour le 09/11/2011 à 16:28 | Commentaires (0) | Permalien

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest

"L'information peut tout nous dire. Elle a toutes les réponses. Mais ce sont des réponses à des questions que nous n'avons pas posées, et qui ne se posent sans doute même pas." Jean Beaudrillard in Cool Memories


Information On Demand : année 0
Que de chemin parcouru depuis les autoroutes de l'information - lorsqu'il s'agissait d'assurer la convergence des réseaux de transmission des données - à l'émergence de la société de l'information qui place les technologies de l'information et les usages numériques au centre de nos rapports en société.

A t-on, pour autant, gagné en efficacité dans la gestion de ce rapport que nous entretenons avec l'information ?

Retour sur quelques sujets qui alimentent la (ma) réflexion :

l'"info pollution" est entretenue. Sous couvert de favoriser et optimiser l'accès à l'information jugée utile, on complexifie les modalités d'accès à cette information.

On s'attache à faire émerger de nouvelles pratiques : la curation - allez voir à ce propos ce billet qui fixe les limites de l'exercice au point où la fonction copier / coller serait plus valorisée que la production même de contenus. La démultiplication des contenus dans leur forme initiale participe au processus déjà connu de surcharge informationnelle (information overload). L'absence de contextualisation de ces contenus déplacés et de mise en perspective avec une autre information, avec un environnement sémantique qui lui confère un sens nouveau, ne fait que saturer l'espace informationnel.

On développe de nouveaux outils, de nouvelles plateformes de production telles que les fermes de contenus (voir les ressources de ce billet) dont la seule motivation consiste à produire des masses de contenus en adéquation avec les requêtes les plus populaires dans les moteurs de recherche. On déploie de nouvelles fonctions qui fédèrent des corpus de données et de formats tels les agrégateurs de flux.

En quelques années, nous sommes passés d'une culture du stock (des contenus hébergés dans des logiques de silos, l'expertise appartenant à ceux qui ont accès à ces silos pour les scruter) à une culture du flux (le pouvoir est à celui qui est en capacité d'organiser ces flux, soit l'influenceur compris comme nœud de communication). Cette logique de flux induit naturellement une nouvelle technicité : la valeur ajoutée se mesure à la capacité à trier, agréger les données entre elles, définir les circuits de diffusion. Ce qui nécessite une information en quantité. Des effets de masse sont recherchés. On augmente la complexité du processus en augmentant mécaniquement la quantité d'inputs à traiter. L'influenceur devient l'élément agile qui trie et redirige ces flux. Il y va de son intérêt d'accroître cette complexité en augmentant la quantité à traiter.

L'accélération du cycle de production, diffusion de l'information concoure dans le même temps à cet état qui perturbe le cycle. Comme pour conjurer la contrainte liée à la quantité d'inputs à capter, on réduit le temps dédié au traitement. La donnée devient évanescente et perd de sa valeur au point qu'une information est chassée par une autre plus fraîche. Il n'y a qu'à reprendre l'un des thèmes les plus exposés du moment pour s'en convaincre : la veille temps réel où la réduction de l'espace temps entre capture et diffusion. La veille temps réel s'est imposée parce le web est devenu un espace de prise de parole qui aplanit l'espace temps. Il y a donc un intérêt objectif à entretenir et développer ce niveau de complexité pour ces experts du "temps réel".

InternetActu parlait en 2008 de "temps de cerveau disponible et de gestion de l'attention" et préconisait le retour à une écologie informationnelle. On le voit aujourd'hui, les outils n'ont pas permis de simplifier les modalités d'accès à l'information. D'ailleurs n'ont-ils pas vocation à accompagner la gestion croissante de cette complexité informationnelle ? Poser la question en ces termes, c'est déjà chercher les voies de cette nouvelle écologie informationnelle dans nos pratiques, attentes et comportements. Au final, revenir à l'essentiel pour trouver la réponse à la question que nous posons.

Les opportunités ne manqueront pas à l'avenir pour rétablir une hygiène informationnelle qui fait défaut. Le gavage de stimuli numériques agit comme une forme d'addiction dans laquelle on se rassure : on finit toujours par trouver une information. Sauf qu'on en oublie l'essentiel : la question initiale. Cette hygiène est peut-être à trouver du côté des tendances qui se dessinent dans le monde de l'information numérique, comme la délinéarisation des modes d'accès à l'information. Le pull qui permet au consommateur internaute de sélectionner et définir le (son) temps de la consultation (en mode différé) versus le push qui impose une lecture linéaire et séquencée des contenus. Mais il ne faut pas attendre des outils qu'ils fassent ce qui les distingue de l'intelligence humaine : poser le problème par le questionnement. That is the question !


________________

Ressources

Tous éditeurs ? Les promesses incertaines de la "curation" in C/blog culture & numérique] - 18.03.11
 
Fermes de contenus : Google va t-il faire le grand ménage ? in ZDNet - 01.03.11
 
Pour une écologie informationnelle in InternetActu - 24.04.08

Référencement : Google étend son nouvel algorithme de recherche in ZDNet - 13.04.11
Information On Demand : année 0

Quelques initiatives récentes menées par la firme de Mountain View laissent présager une mutation de l'information brevets vers de nouveaux services et modèles de diffusion


Google et les bases d'information brevets
 
L'Office européen des brevets (OEB ) et Google ont signé un partenariat pour améliorer l'accès à l'information sur les brevets via l'utilisation de la technologie de traduction de Google.

L'accord passé doit permettre d'améliorer l'accès aux traductions des brevets. Alors qu'actuellement, les brevets européens sont disponibles uniquement en allemand, anglais et français, le partenariat prévoit d'utiliser la technologie Google Translate pour traduire dans les langues des 38 Etats membres de l'OEB, des brevets délivrés en Europe, mais aussi ceux provenant d'Asie, des Etats-Unis, du Canada, d'Australie, de Russie et d'Inde bénéficiant d'une protection en Europe. Selon Benoît Battistelli, Président de l'OEB : « le partenariat avec Google, qui vise à développer les outils de traduction automatique pour les brevets, aidera les inventeurs, les ingénieurs et les équipes de R&D à accéder efficacement - dans leur propre langue - aux documents pertinents de notre vaste collection de documents brevets publiés…»

Quelques analyses émergent depuis cette annonce. Pour résumer :

  1. Google a déjà pris dans un passé récent des initiatives dans l'information brevet avec en 2007 le lancement de Google Patent Search qui donne accès librement à un fonds de plus de 7 millions de brevets versés dans l'USPTO*, complété mi 2010 par un accord en vue de la numérisation de l'intégralité du fonds. L'accord avec l'OEB est donc une suite logique et peut être interprété comme de nature à déstabiliser le marché des agrégateurs et diffuseurs d'informations brevets. Cependant cette offre de services dégradés laisse penser que ces prestataires vont se concentrer sur la fourniture de services à valeur ajoutée qu'ils pourront monétiser auprès des entreprises. C'est la voie suivie par Questel qui annonce le développement d'une nouvelle offre pour la fourniture de flux de données d'information enrichis sur les brevets
     
  2. l'initiative - à mettre sur le compte de Google - peut être interprétée comme une stratégie pour devenir l'acteur de référence en matière de traduction technique et scientifique. Pour ce faire, la technologie utilisée par Google repose sur la statistique d'occurrence (voire le principe de la traduction automatique statistique ). L'accès aux bases de l'OEB ouvre un corpus de près d'1,5 millions de documents publiés en plusieurs langues complété des 50 000 nouveaux brevets délivrés chaque année et permet à Google d'enrichir mécaniquement sa base vocabulaire spécialisée multilingue
     
  3. cet accord est à rapprocher de la directive européenne sur la réutilisation des données du secteur public, notamment pour stimuler la recherche et l'innovation. Si on considère que le cadre réglementaire existe, les conditions financières ne permettent pas à date d'assurer dans les meilleures conditions l'ouverture des données. Les agences et administrations pourraient donc trouver dans des accords de ce type un moyen d'ouvrir leurs gisements de données. C'est semble t-il le cas de l'OEB, qui n'ayant pas les moyens financiers de supporter la traduction automatique des brevets européens, trouve en Google le seul acteur a priori capable de réaliser cette tache sans bourse délier. On pourra ensuite s'interroger sur l'hégémonisme de Google dans l'ensemble des secteurs de l'information alors que la Commission européenne a ouvert fin 2010 à son encontre une enquête pour abus de position dominante. Mais ceci relève d'un autre débat qui s'écrit en continu….

Google et les bases d'information brevets
 








_____________________

Ressources :

La recherche de brevets, c'est aussi ... Google (in la Machine à café - 18.12.06)

Breaking the language barrier for Europe’s innovators (in Google European Public Policy Blog - 28.03.11)

USPTO Teams with Google to Provide Bulk Patent and Trademark Data to the Public (Press Release - 22.10.10)

Questel announces the creation of a new "Patent Data Licensing" Business Unit (Press Release - 25.03.11)



* United States Patent & Trademark Office

Comment construire la communauté autour d'un projet. Règles de base et conditions de la réussite de l'animation de communautés



Lire / Télécharger la publication : http://fr.calameo.com/books/0000155184f5133b1dd9b

Rédigé par ludovic bour le 23/11/2010 à 16:37 | Commentaires (4) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest

La détection des signaux faibles demeure une valeur sûre de la veille. La croissance exponentielle des pratiques conversationnelles sur les média sociaux aidant, l'équation recherche temps réelle + analyse de la tonalité est devenue le Graal de la recherche en ligne.


De l'analyse de la tonalité et des opinions
On sait que depuis le rachat de Datops par Lexis Nexis, l'agrégateur propose une offre intégrée, notamment le service "RiskMetrix" en mode alerte push mail activé dès que la tonalité d'un corpus de sources surveillées change anormalement.

Toujours dans le domaine de l'analyse linguistique et sémantique, l'éditeur Lingway propose quant à lui une offre à destination des institutions financières à partir d'une bibliothèque de termes spécifiques au secteur. Les opinions sont "traquées" dans les pages surveillées pour en extraire les éléments de langage qui expriment une tonalité ensuite analysée.

L'éditeur Temis a quant à lui construit autour de sa technologie de text-mining une application pour l'analyse de contenus générés par les consommateurs et clients de grandes marques : Luxid® for Sentiment Analysis.

L'actualité récente (voir plus bas les ressources de ce billet) ouvre une nouvelle voie de la réflexion sur le Traitement Automatisé du Langage : peut-on envisager le développement de modèles prédictifs à partir de l'analyse des sentiments et des opinions ?

Il n'est pas sûr que le traitement automatisé du langage puisse s'affranchir des structures de la langue qui évoluent entre un discours normé comme la communication financière et des modalités d'expression plus "libres" comme le développement des espaces de conversations plus spontanées tels les réseaux sociaux, le micro-blogging. Ce qui revient à souligner les limites d'une telle démarche : une lecture "à plat" d'un texte donné efface toute pertinence à l'analyse ; on perd ainsi nombre d'informations qui permettent de lier le contenu à un contexte lui-même porteur de sens (la nature de l'émetteur, ses motivations, la nature du destinataire visé, l'objet du message, ...)


________________________

Ressources :

L'analyse sémantique devient sentimentale (in 01net.com - 03/07/2008)
 
Une étude de vocabulaire débusque les PDG qui mentent sur leurs résultats (in La Dépêche - 20/10/2010)

Twitter mood predicts the stock market (Université de Bloomington, Indiana - 14/10/2010)

Le datamining appliqué aux réseaux sociaux pour l'élaboration de modèles prédictifs
 
En plein débat sur la question du droit à l'oubli et du maintien de la vie privée sur internet, il convient de s'interroger sur une tendance qui émerge quant aux enjeux de l'analyse qui se structure autour des réseaux sociaux.

Alors que le débat sur la vie privée est focalisé sur la sécurisation des espaces vis à vis des intrusions extérieures, il convient d'ouvrir le champ de l'analyse au risque inhérent à l'appartenance affichée (celle-ci) aux communautés. La construction d'un réseau relationnel est tout autant porteur de sens que la nature des informations contenues dans un profil.

La connexion à d'autres individus relève d'un acte volontaire qui répond à un principe simple : qui se ressemble s'assemble ! Le fait d'appartenir à des réseaux relationnels selon des affinités proches et des centres d'intérêts partagés est en soi porteur de sens. Nul besoin d'entrer dans l'intimité d'un individu en particulier pour en faire un profilage plus ou moins précis et au final deviner ses intentions diverses et variées. C'est en substance ce que se propose d'appliquer certains acteurs du datamining en matière d'extraction de données depuis des corpus constitués autour des réseaux sociaux. Il s'agit d'établir les corrélations à partir des interactions sociales entre les individus appartenant à ces réseaux.

Bienvenu dans le monde de la social intelligence !
 
Les informations sensibles peuvent être déduites de la liste des personnes avec qui les individus et les groupes sont connectés. Il ne s'agit pas dès lors de construire l'ADN de l'individu, mais de prédire des comportements. Les professionnels du marketing l'ont bien compris et sont pour beaucoup déjà entrés dans une nouvelle approche de l'analyse : le reality mining qui permet d'identifier et analyser des schémas d’interactions sociales entre des entités pour prévoir des tendances sur le comportement d'achat et de consommation de ces entités. Soit un modèle dynamique de l'analyse des comportements sociaux pour prédire des schémas à venir.

En matière d'intelligence, demain appartient aux modèles prédictifs.

Autant dire que les services et agences de renseignement suivent de près les évolutions sur ce sujet.

Big Brother is watching you ! mais vous ne le saviez pas...

____________________

Ressources associées :

Reality mining - Sandy Pentland is using data gathered by cell phones to learn about human behavior - in Technology review april 2008

Project ‘Gaydar’ - At MIT, an experiment identifies which students are gay, raising new questions about online privacy

Your privacy is no laughing matter. Go to InsideGoogle.com and watch Times Square video : don't be evil ! - in Boston Globe september 2009

NB. Dans la même veine, on mentionnera le programme Google flu trends pour dresser une estimation en temps réel de la propagation du virus de la grippe sur la base des requêtes effectuées. Le principe repose sur une corrélation constatée entre le nombre de requêtes effectuées sur des termes liés à la grippe et le nombre de personnes qui présentent les symptômes de la grippe.


Rédigé par ludovic bour le 12/09/2010 à 21:52 | Commentaires (0) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
L'information vient du New York Times. Où il est fait état de négociations engagées par Google avec le fournisseur d'accès à Internet et opérateur Verizon afin d'obtenir que ses contenus soient distribués prioritairement aux internautes par ce dernier.

Bien que l'information ait été démentie par Google, on ne peut s'empêcher de reprendre "l'hypothèse" du NYT et d'en analyser les conséquences pour l'écosystème informationnel.

Le principe de neutralité du web - sans cesse réaffirmé - veut que quel que soit le contenu et l'émetteur qui en est à l'origine, la vitesse de transmission des données sur le réseau (indépendamment des serveurs à l'émission et à la réception) est la même. Derrière ce principe de neutralité : il s'agissait dès l'origine du web de garantir le trafic des données sans caractère discriminatoire quant à la source émettrice, le destinataire ainsi que le contenu ; et assurer de la sorte un accès universel à l'information. On comprend mieux la réaction immédiate de Google qui se défend de vouloir contrevenir à ce principe de neutralité quand on relit le code génétique de la firme de Mountain View contenu dans le Google's Mission statement(1).

Maintenant si on extrait l'hypothèse de toute référence réglementaire, force est de constater que la somme des enjeux qui président à une remise en cause (partielle ou  totale) de ce principe lui est aujourd'hui supérieure. Les enjeux sont de nature économique et donnent un relief nouveau au débat. Ils impactent l'ensemble des acteurs de la chaîne de production et de diffusion des données sur le net (producteurs de contenus, fournisseurs des tuyaux, opérateurs télécom) et remettent en perspective la question de la monétisation des contenus et services délivrés en ligne, soit l'émergence de nouveaux modèles économiques de diffusion d'information.

Il est probable qu'à terme (si ce n'est déjà le cas !), des producteurs de contenus et des fournisseurs d'accès, des opérateurs aient un intérêt commun à proposer des services d'information réputés non dégradés. En d'autres termes, on assisterait à un l'émergence d'un Internet à deux vitesses avec la co-existence de services premium destinés à des consommateurs qui accepteraient de supporter un surcoût pour accéder de façon optimale à ces services versus des services dégradés dont la qualité de la distribution serait soumise à la bonne volonté des fournisseurs d'accès.  



_____________
Ressources

Google and Verizon Near Deal on Web Pay Tiers - NYTimes.

De l'évolution des services d'information professionnelle : quelques pistes et des ... incertitudes

Les nouveaux modèles économiques de l'information professionnelle à l'ère du numérique (i-expo 2009) - la conférence vidéo

(1) "Organize the world's information and make it universally accessible and useful"

Rédigé par ludovic bour le 11/08/2010 à 21:28 | Commentaires (0) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
Prévention des risques informationnels et e-réputation
Dans un contexte de guerre de l’information, l’organisation se doit de définir la nature des réponses à apporter pour protéger son identité numérique. Une analyse de la typologie des risques informationnels permet d'identifier les facteurs qui favorisent les attaques sur la notoriété de l'organisation :

  • l'accélération du cycle de l'information
  • la numérisation croissante des contenus
  • le développement des données produites par les individus
 
Le traitement peut être de nature juridique. Cependant l’échelle temps n’est pas la même entre la propagation de l’attaque et la mise en branle de l’arsenal judiciaire. Il peut être technique et viser à neutraliser les ressources de l’attaquant. Il peut être organisationnel avec la mise en place d’une « war room » qui agrège l’ensemble des ressources présentes dans l’organisation susceptibles de traiter l’attaque. Cependant le traitement – aussi impératif soit-il – ne peut occulter la nécessaire réflexion sur l’anticipation de la crise. Selon le principe « mieux vaut prévenir que guérir », on retient que les organisations qui maîtrisent leur identité numérique sont celles qui ont adopté une démarche structurée. Il s’agit :

1. de cartographier les risques potentiels
2. de définir les règles déontologiques internes via la mise en place de chartes d’utilisation pour les collaborateurs quant à l’usage des réseaux ouverts
3. de repérer les relais d’information nécessaires à toute procédure de prévention des risques informationnels
4. d’optimiser la communication avec son premier cercle de sous-traitants, fournisseurs et principaux clients
5. et au final de mettre en place un système de capteurs pour la détection des signaux.

Pour tout savoir sur : la surveillance de l'identité numérique, le "personal branding", approche de la gestion de crise, rendez vous le 15 avril prochain à la Maison de l'Europe (Paris) :

e-réputation et gestion de l'identité numérique des organisations

Séminaire organisé par le Groupement Français de l'Industrie de l'Information en partenariat avec le Club des Directeurs de Sécurité des Entreprises et l'Association Nationale du Marketing. Tout savoir sur l'évènement

Télécharger le guide : e-réputation et identité numérique des organisations - Typologie des menaces et identification des modes de traitement applicables

1 2 3 4 5 » ... 23
Syndication
RSS ATOM RSS comment PODCAST Mobile

Add to Netvibes

Abonnement Bloglines

Add to Google

/a_la_une

Subscribe in NewsGator Online



Vous n'utilisez pas d'agrégateur de flux RSS Vous pouvez recevoir - dès parution - les billets de ce weblog sur votre outil de messagerie en vous inscrivant ci-dessous


entrez votre adresse e-mail :