l'information circule dans l'entreprise, je l'ai souvent croisée devant la ... machine à café
|
||||
Ludovic Bour
Catégories
Mots clés les plus utilisés dans ce site
bases de données
brevets
capital risque
confidentialité
firefox
google
influence
information
information numérique
information professionnelle
information électronique
innovation
intelligence économique
internet
interopérabilité
logiciels
microsoft
moteur de recherche
navigateur
open document
open source
presse
propriété industrielle
prospective
renseignement
réseaux sociaux
search engine
sécurité
veille
web 2.0
|
15/04/2011
"L'information peut tout nous dire. Elle a toutes les réponses. Mais ce sont des réponses à des questions que nous n'avons pas posées, et qui ne se posent sans doute même pas." Jean Beaudrillard in Cool Memories![]()
Que de chemin parcouru depuis les autoroutes de l'information - lorsqu'il s'agissait d'assurer la convergence des réseaux de transmission des données - à l'émergence de la société de l'information qui place les technologies de l'information et les usages numériques au centre de nos rapports en société.
A t-on, pour autant, gagné en efficacité dans la gestion de ce rapport que nous entretenons avec l'information ? Retour sur quelques sujets qui alimentent la (ma) réflexion : l'"info pollution" est entretenue. Sous couvert de favoriser et optimiser l'accès à l'information jugée utile, on complexifie les modalités d'accès à cette information. On s'attache à faire émerger de nouvelles pratiques : la curation - allez voir à ce propos ce billet qui fixe les limites de l'exercice au point où la fonction copier / coller serait plus valorisée que la production même de contenus. La démultiplication des contenus dans leur forme initiale participe au processus déjà connu de surcharge informationnelle (information overload). L'absence de contextualisation de ces contenus déplacés et de mise en perspective avec une autre information, avec un environnement sémantique qui lui confère un sens nouveau, ne fait que saturer l'espace informationnel. On développe de nouveaux outils, de nouvelles plateformes de production telles que les fermes de contenus (voir les ressources de ce billet) dont la seule motivation consiste à produire des masses de contenus en adéquation avec les requêtes les plus populaires dans les moteurs de recherche. On déploie de nouvelles fonctions qui fédèrent des corpus de données et de formats tels les agrégateurs de flux. En quelques années, nous sommes passés d'une culture du stock (des contenus hébergés dans des logiques de silos, l'expertise appartenant à ceux qui ont accès à ces silos pour les scruter) à une culture du flux (le pouvoir est à celui qui est en capacité d'organiser ces flux, soit l'influenceur compris comme nœud de communication). Cette logique de flux induit naturellement une nouvelle technicité : la valeur ajoutée se mesure à la capacité à trier, agréger les données entre elles, définir les circuits de diffusion. Ce qui nécessite une information en quantité. Des effets de masse sont recherchés. On augmente la complexité du processus en augmentant mécaniquement la quantité d'inputs à traiter. L'influenceur devient l'élément agile qui trie et redirige ces flux. Il y va de son intérêt d'accroître cette complexité en augmentant la quantité à traiter. L'accélération du cycle de production, diffusion de l'information concoure dans le même temps à cet état qui perturbe le cycle. Comme pour conjurer la contrainte liée à la quantité d'inputs à capter, on réduit le temps dédié au traitement. La donnée devient évanescente et perd de sa valeur au point qu'une information est chassée par une autre plus fraîche. Il n'y a qu'à reprendre l'un des thèmes les plus exposés du moment pour s'en convaincre : la veille temps réel où la réduction de l'espace temps entre capture et diffusion. La veille temps réel s'est imposée parce le web est devenu un espace de prise de parole qui aplanit l'espace temps. Il y a donc un intérêt objectif à entretenir et développer ce niveau de complexité pour ces experts du "temps réel". InternetActu parlait en 2008 de "temps de cerveau disponible et de gestion de l'attention" et préconisait le retour à une écologie informationnelle. On le voit aujourd'hui, les outils n'ont pas permis de simplifier les modalités d'accès à l'information. D'ailleurs n'ont-ils pas vocation à accompagner la gestion croissante de cette complexité informationnelle ? Poser la question en ces termes, c'est déjà chercher les voies de cette nouvelle écologie informationnelle dans nos pratiques, attentes et comportements. Au final, revenir à l'essentiel pour trouver la réponse à la question que nous posons. Les opportunités ne manqueront pas à l'avenir pour rétablir une hygiène informationnelle qui fait défaut. Le gavage de stimuli numériques agit comme une forme d'addiction dans laquelle on se rassure : on finit toujours par trouver une information. Sauf qu'on en oublie l'essentiel : la question initiale. Cette hygiène est peut-être à trouver du côté des tendances qui se dessinent dans le monde de l'information numérique, comme la délinéarisation des modes d'accès à l'information. Le pull qui permet au consommateur internaute de sélectionner et définir le (son) temps de la consultation (en mode différé) versus le push qui impose une lecture linéaire et séquencée des contenus. Mais il ne faut pas attendre des outils qu'ils fassent ce qui les distingue de l'intelligence humaine : poser le problème par le questionnement. That is the question !
________________
Ressources Tous éditeurs ? Les promesses incertaines de la "curation" in C/blog culture & numérique] - 18.03.11 Fermes de contenus : Google va t-il faire le grand ménage ? in ZDNet - 01.03.11 Pour une écologie informationnelle in InternetActu - 24.04.08 Référencement : Google étend son nouvel algorithme de recherche in ZDNet - 13.04.11 ![]()
Rédigé par ludovic bour le 15/04/2011 à 23:02
|
Commentaires (0)
|
Permalien
|
Trackbacks (0)
Comment construire la communauté autour d'un projet. Règles de base et conditions de la réussite de l'animation de communautés
29/10/2010
La détection des signaux faibles demeure une valeur sûre de la veille. La croissance exponentielle des pratiques conversationnelles sur les média sociaux aidant, l'équation recherche temps réelle + analyse de la tonalité est devenue le Graal de la recherche en ligne.![]()
On sait que depuis le rachat de Datops par Lexis Nexis, l'agrégateur propose une offre intégrée, notamment le service "RiskMetrix" en mode alerte push mail activé dès que la tonalité d'un corpus de sources surveillées change anormalement.
Toujours dans le domaine de l'analyse linguistique et sémantique, l'éditeur Lingway propose quant à lui une offre à destination des institutions financières à partir d'une bibliothèque de termes spécifiques au secteur. Les opinions sont "traquées" dans les pages surveillées pour en extraire les éléments de langage qui expriment une tonalité ensuite analysée. L'éditeur Temis a quant à lui construit autour de sa technologie de text-mining une application pour l'analyse de contenus générés par les consommateurs et clients de grandes marques : Luxid® for Sentiment Analysis. L'actualité récente (voir plus bas les ressources de ce billet) ouvre une nouvelle voie de la réflexion sur le Traitement Automatisé du Langage : peut-on envisager le développement de modèles prédictifs à partir de l'analyse des sentiments et des opinions ? Il n'est pas sûr que le traitement automatisé du langage puisse s'affranchir des structures de la langue qui évoluent entre un discours normé comme la communication financière et des modalités d'expression plus "libres" comme le développement des espaces de conversations plus spontanées tels les réseaux sociaux, le micro-blogging. Ce qui revient à souligner les limites d'une telle démarche : une lecture "à plat" d'un texte donné efface toute pertinence à l'analyse ; on perd ainsi nombre d'informations qui permettent de lier le contenu à un contexte lui-même porteur de sens (la nature de l'émetteur, ses motivations, la nature du destinataire visé, l'objet du message, ...) ________________________ Ressources : L'analyse sémantique devient sentimentale (in 01net.com - 03/07/2008) Une étude de vocabulaire débusque les PDG qui mentent sur leurs résultats (in La Dépêche - 20/10/2010) Twitter mood predicts the stock market (Université de Bloomington, Indiana - 14/10/2010) Avec l'émergence des pratiques d'externalisation de la production et de l'hébergement des données sur des applications distantes, les entreprises commencent à envisager le jeu des contraintes qui ne manquent pas de se superposer à celui des opportunités (voir le billet du 22.02.09 l'informatique dans le nuage à l'épreuve des usages professionnels). Quelques éléments de l'actualité récente viennent étayer le débat sur l'intégrité de ces données et leur portabilité : 1) du point de vue de l'accessibilité des données, l'hétérogénéité des nuages qui se constituent actuellement permettra t-elle pour une entreprise de pouvoir porter l'ensemble de ses données d'un environnement à l'autre ? Ce qui revient à poser la question de l'interaction entre les nuages et l'opportunité (certains diront la nécessité) de développer un protocole d'interopérabilité 2) l'intégrité de ces données sera t-elle assurée ? Alors que les serveurs Google sont en proie à des cyberattaques massives (les serveurs de messagerie Gmail). On l'a vu précédemment, l'enjeu de l'intégrité des données est de taille puisque tout le système d'externalisation des données repose sur la confiance que les internautes vouent au prestataire. On peut penser que la collaboration qui se met en place entre Google et la NSA (National Security Agency) répond à cette volonté de restaurer la confiance. A suivre ... ____________________ Ressources : UK Government to set up own cloud computing system (in The Guardian - 27.01.01) We have the internet: now we need the intercloud, says Vint Cerf (in The Guardian - 05.02.10) Google to enlist NSA to help it ward off cyberattacks (in The Washington Post - 03.02.10)
21/01/2009
Pour faire suite à cette synthèse des nouvelles tendances sur le marché de l'information numérique, voici un article paru sur InternetActu qui s'inscrit dans un exercice de prospective où il est grandement fait état de web sémantique. Pour résumer : comment rendre intelligible par la machine ce qui n'est pas structuré, soit trouver le sens dans un contenu en établissant des relations entre les divers éléments de ce contenu. La question n'est pas vaine alors que la surabondance informationnelle guette l'usager jusqu'à produire des effets de stress informationnel (1). Ajoutons à cela, le développement exponentiel de briques technologiques toutes plus participatives les unes que les autres dans un périmètre sémantique labellisé "2.0". Le web structure t-il l'espace informationnel ? Surement, il est cependant de rigueur de constater que le web créé un désordre informationnel (le "bruit") et augmente ce faisant la complexité d'accès aux données. Pour mémoire, voici un schéma (qui n'engage que son auteur) pour retracer très grossièrement les diverses étapes (4) du web et admettre qu'il est avant tout un média tout dédié à l'interconnexion des 1) machines, 2) des individus, 3) des contenus. ![]()
Cliquez sur le schéma pour l'agrandir
Face à cette complexité croissante, les "gros" acteurs du marché de l'information cherchent. Une des tendances les plus fortes actuellement porte sur ce qu'il est convenu d'appeler le web sémantique. Nous y voilà donc ; et s'il fallait citer une initiative parmi d'autres, retenons le projet mené par le groupe Thomson Reuters. Nom de code : OpenCalais
Résumé : le projet OpenCalais permet d’appliquer à un texte donné des métadonnées catégorisées automatiquement. Cette plateforme d’indexation automatique est développée sur l’outil d’analyse sémantique ClearForest L’initiative est menée par Reuters : acteur majeur s’il en est dans le domaine de la production de contenu à usage professionnel. Un indice qui laisse apprécier la convergence en cours entre les producteurs de contenus et les fournisseurs de solutions de recherche. 2009 : l'année du web sémantique ? ____________________ Ressources : Reuters wants the world to be tagged (ReadWriteWeb - 06/02/2008) (1) le stress informationnel est lui même entretenu par une pression permanente liée à l'usage des outils et technologies de communication qui assure aux individus une connexion quasi continue (lire cet article)
30/12/2008
La période de fin d'année c'est aussi le temps des bonnes résolutions pour celle à venir. Crise oblige, les éléments de contexte viennent perturber l'exercice. On est donc à la recherche des instruments de pilotage qui vont réduire les risques et ce faisant limiter l'écart entre ces bonnes résolutions et le probable ou encore le réalisable compte tenu de l'incertitude ambiante. Et puis, il y a l'exercice qui dépasse la formulation des bonnes résolutions et qui se situe sur le long terme. L'anticipation et la prospective permettent d'élaborer des scénarii probables. Voici donc pour entrer dans cette nouvelle année un univers Netvibes dédié à la prospective : ProspectiveWorld Où il est grandement question d'innovation envisagée du point de vue du management de la créativité dans les organisations "intelligentes" Les ressources proposées dans cet univers offrent une lecture intéressante qui permet de lier management, organisation, information, connaissance et technologie. Des témoignages collectés à l'occasion du 63ème congrès des experts comptables (des historiens, prospectivistes, chefs d'entreprises) viennent apporter des éclairages circonstanciés et offrent une lecture de la crise actuelle sans concessions. Pour résumer : on retiendra que Small is beautiful ! et que l'avenir est aux réseaux. Ce qui - pour reprendre les dires d'un interviewé – revient à repenser l'entreprise en ces termes : "il s'agira d'être à la fois de petite taille et dans un grand réseau"
05/12/2008
L'édition 2008 d'Online Information vient tout juste de s'achever. Voilà donc le moment propice de s'interroger sur les tendances qui se dessinent sur le marché de l'information numérique. En voici une synthèse qui retrace les diverses évolutions du secteur. L'impact du web y est manifeste au point que certains professionnels du secteur parlent aujourd'hui d'information 2.0. Il y est question de :
Le document : Les nouvelles tendances sur le marché de l'information numérique _________________________ Ressources : L'information numérique professionnelle : confirmation des tendances
23/10/2008
En relisant l'article intitulé "Pour une écologie informationnelle " produit sur InternetActu en avril dernier, soit au moment même où les premiers signes annonciateurs de La Crise se manifestaient, il m'est apparu opportun de dresser une analogie entre la crise financière actuelle et la "crise informationnelle" qui se profile. L'idée étant que les flux d'information tout comme les flux financiers font partis de l'économie de l'immatériel. Ce faisant, ils suivent des modes de diffusion qui peuvent être rapprochés. Et pour mieux fixer la périmètre de l'exercice, j'ai utilisé le mindmapping pour tenter une explication par la recherche des proximités linguistiques entre une crise financière installée et une crise informationnelle latente. A noter qu'à l'heure où le politique s'émeut des dérives d'un système financier hors de contrôle, du débat émergent sur la question d'une régulation de ce marché, des polémiques récurrentes sur la mise en place d'un système de contrôle pour faire face à l'absence d'auto régulation, du plus d'interventionnisme versus plus de libéralisme, voici un article qui jette un pavé dans la mare des tenants de l'accès universel au savoir et ce faisant à l'information. Où il est dit que 99,9 % des 2,5 millions d'articles produits en anglais sur Wikipedia sont ... ... imprécis, mal rédigés, biaisés pour ne pas dire qu'ils avancent des erreurs volontaires ou non ; bref un mélange d'inexactitudes et de verbages qui induisent le lecteur (l'internaute) en erreur. Bref de quoi suralimenter la machine à faire du bruit et accroître la crise informationnelle qui se dessine. L'exercice qui suit n'est pas figé, la cartographie proposée est une première étape qui sera complétée en fonction de l'actualité.
23/06/2008
![]() Qui n'a pas goûté au plaisir de l'interrogation sur des serveurs de bases de données professionnelles ? (quelques indices) Alors que les interfaces d'interrogation en langage naturel se développent, la question peut paraître incongrue. Cependant il n'est pas si loin le temps où j'ai pu assisté à une démonstration de ce type sur le serveur Dialog. La personne qui avait d'ailleurs formulé la requête depuis un PC m'avait fermement dissuadé de m'y coller au prétexte que je n'étais pas un ... ... professionnel de la documentation. J'avais touché du doigt les limites de mes compétences pour accéder à l'information (professionnelle) ! Depuis, le flot continu et croissant d'information numérique a (presque) fini d'emporter le monde de la documentation traditionnelle. Le professionnel de l'information s'est recyclé en travailleur du savoir et de la connaissance. Les producteurs de services d'information ont opté pour de nouveaux modèles de diffusion de l'information qui en favorisent l'accès au niveau des utilisateurs finaux. L'approche métier est privilégiée pour au final fournir au professionnel - dans sa sphère d'activité - l'ensemble des données et outils qui optimisent le traitement de l'information. C'est dans cette logique de verticalisation des processus de traitement de l'information que le (nouveau) groupe Thomson Reuters s'est lancé ces dernières années dans le développement de plateformes adaptées plus spécialement à des métiers : Thomson Innovation en est l'exemple le plus récent. Ce n'est donc pas un hasard si le dit groupe annonce la cession de son entité Dialog à ProQuest. Pour les nostalgiques de l'avant internet, il est intéressant de rappeler que Dialog a été en 1966 le premier système d'interrogation en ligne de serveur de banques de données et que le service est né d'une initiative du complexe militaro-industriel US en pleine guerre froide associant la NASA à Lockheed Missiles Space Company. source de l'info : la dépêche du GFII (sur abonnement exclusivement) ________________________ Ressources : le communiqué de presse ProQuest Dialog: Predictions and Reactions (un avis sur le devenir de Dialog) ![]() Le titre peut prêter à confusion. Il n'est pas de moi. Je l'emprunte à un article paru dans le dernier numéro de GQ* du mois d'avril rubrique EGO (1) Quand à l'été 2006, j'ai décidé de renommer ce site ressources "La machine à café ", je me satisfaisais à l'idée de transmettre un message subliminal à ses lecteurs. Soit celui d'ouvrir la réflexion à tous les moyens de collecte et de diffusion de l'information (dans un cadre professionnel). Comprendre : pas uniquement les données numériques que nous renvoient les technologies de l'information et du web en particulier. Après 2 ans de production sous cette signature, je reste persuadé que le message est d'actualité ; voire plus évident devant l'excroissance des données numériques. Et ce n'est pas les quelques égarés à la recherche de filtres à café et autres marques d'arabica qui visitent ce site (il y en a, je les évalue à environ 5 à 10 % du visitorat) qui me feront changer d'avis. Comme le précise l'article sus référencé, l'individu est aujourd'hui supposé se fondre dans une intelligence collective qui reste à construire. En réaction, il cherche à retisser un lien social qui se dilue dans les nouvelles technologies de la communication. Pour l'anecdote, il y a encore peu, j'ai eu écho de cette histoire où un résauteur social invitait par l'intermédiaire de sa plateforme d'échange en ligne un autre résauteur à partager un café "virtuel". J'ai quelques doutes sur la spontanéité des échanges en question :
L'article de GQ est judicieusement construit autour d'un ouvrage (2) qui nous renvoie vers une construction narrative de notre société dans laquelle "la réalité est désormais enveloppée d'un filet narratif qui filtre les perceptions et stimule les émotions utiles." Ou l'art et la manière de raconter des histoires parce que, nous ne demandons qu'à croire aux belles histoires. Ce "nouvel ordre narratif" organise nos schémas de perception. L'article avance l'idée que la machine à café - au delà de sa fonction première qui est de distribuer un breuvage - participe à la construction du lien social dans l'organisation. Elle fonctionnerait comme un "terminal relationnel" pour distribuer des informations de quelque nature que ce soit. Entre bavardages, rumeurs et dénonciations, les histoires se font et se défont devant la machine à café. A charge pour l'amateur de robusta de filtrer et trier les signaux captés pour ne retenir que ce qui lui assurera une ... bonne journée de travail. A se demander si l'intelligence économique ne revient pas à céder au rituel du "petit noir" chaque matin devant "la machine à café". Alors la prochaine fois, que vous introduisez les pièces dans la machine, pensez y « Alors vous imaginez ma surprise, au lever du jour, quand une drôle de petite voix m'a réveillé. Elle disait : S'il te plaît... raconte moi une histoire» Avec ou sans sucre ?... _____________________ Ressources : Le sommaire de GQ N°2 * prononcez Djikiou. Le magazine qui parle aux hommes sur un autre ton (1) Le site de la machine à café y est cité (et pour cause : j'ai été interviewé par le journaliste) (2) Storytelling - La machine à fabriquer des histoires et à formater les esprits / C. Salmon (Ed. la Découverte) |
|||
Ce site est édité par Ludovic Bour © 2005-2013
|