l'information circule dans l'entreprise, je l'ai souvent croisée devant la ... machine à café

Translation

Powered by Google

Voici un résumé (partie 1) du livrable réalisé par le Groupement Français de l'Industrie de l'Information sur les nouvelles tendances dans les pratiques de veille et de gestion des connaissances



Des ruptures en cours

L’internet (en tant que réseau des réseaux) tel que nous le connaissons et le pratiquons aujourd’hui n’a qu’une vingtaine d’années. C’est peu au regard de ce que représentent les cycles économiques et beaucoup si on considère la masse d’expériences acquise. Le marché de l’information d’aujourd’hui n’est plus celui d’il y a 20 ans. Il s’est construit - et continue de se construire - sous l’effet des ruptures technologiques qui s’y produisent et qui elles-mêmes engendrent les ruptures dans les usages.

De la fonction documentation centralisée dans les organisations pour permettre l’accès à la donnée informationnelle, nous passons à une logique de décentralisation des processus de collecte et d’automatisation des tâches de surveillance. Le GFII, en réalisant ce guide, a souhaité apporter à l’ensemble des acteurs de l’information des éléments de réponse quant aux nouveaux usages de la veille qui se dessinent dans les organisations. Ce travail est le fruit de l’observation des pratiques de veille et des attentes exprimées par les utilisateurs (des auditions ont été réalisées sur l’année 2011), mais aussi d’une recherche documentaire et de retours d’experts qui se sont exprimés dans divers colloques. Et comme le GFII porte dans son ADN l’échange permanent entre l’offre et la demande, les fournisseurs de services et de solutions de veille ont apporté leur propre vision, tenant compte des attentes exprimées par les utilisateurs.

Des fiches présentées dans ce document, on retiendra donc plusieurs thèmes récurrents qui permettront au lecteur d’appréhender les tendances qui se dessinent et d’émettre des hypothèses sur les voies possibles de ce que pourrait être une activité de veille d’ici quelques années.

consultez le livrable

Rédigé par Ludovic Bour le 16/06/2012 à 19:58 | Commentaires (0) | Permalien

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
Hype Cycle for Emerging Technologies - version 2008
(Cliquez sur le schéma pour l'agrandir)


C'est un exercice mené chaque année par le Gartner Group et pour cette livraison 2008, pas moins de 27 technologies émergentes sont analysées. 8 d'entre elles devraient se déployer durablement dans les 10 ans à venir.

Il y est dit notamment que :
  1. l'avenir est aux réseaux sociaux (même dans les entreprises) dans une société de plus en plus interconnectée via les réseaux informatiques et une acculturation à cet environnement technologique
  2. le microblogging corrélé au développement des réseaux sociaux devrait suivre le mouvement
  3. le développement du Cloud Computing ou une autre modalité d'accès aux applications hébergées type Saas. Soit une nouvelle forme de dématérialisation d'applications, stockées sur des serveurs distants accessibles en ligne depuis un navigateur. Une nouvelle génération de bureau virtuel
  4. le thème du développement durable favorise l'émergence des Green IT ou tout processus qui optimise et concoure à l'efficacité écologique des technologies de l'information
Bref, tout ceci confirme - si besoin était -  que nous sommes irrémédiablement entrés dans une société de l'information ; et que la majorité des technologies émergentes qui vont impacter  dans un proche avenir nos organisations sont pour l'essentiel dédiées à l'optimisation des flux d'information.

_______________________________

Ressources :

le communiqué de presse du Gartner
 
le Hype Cycle for Emerging Technologies, c'est quoi ?

Gartner Special Report (sonnore)

Rédigé par ludovic bour le 01/09/2008 à 21:39 | Commentaires (0) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
Livre blanc de l'intelligence économique du Medef Paris
 







Voila un document très tendance :

Le MEDEF Paris publie son livre blanc de l'intelligence économique. Il se veut un guide des bonnes pratiques de l'IE destiné à tous les dirigeants de PME qui veulent accroître leurs performances et la protection de leur entreprise. Conçu à partir des savoir-faire des PME qui mutualisent leurs expériences dans le cadre du Cercle d'intelligence Economique (CIE) du MEDEF Paris, ce document est décliné en 5 thèmes d'analyse et s'organise de la façon suivante : un constat (forces et faiblesses), des objectifs à atteindre suivis de recommandations.

Les thèmes analysés :
  1. comprendre son environnement
  2. créer son système d'IE
  3. développer l'intelligence collective de l'entreprise
  4. se protéger
  5. conduire des actions d'influence
Ce livre blanc est le résultat de travaux d'observation et d'analyse du CIE du MEDEF Paris. Il renvoie, par ailleurs, à une liste de contacts sur l'Ile de France. Pour la partie acteurs privés, on peut penser que la liste est loin d'être exhaustive.

On peut retenir que l'intelligence collective doit permettre de diffuser une nouvelle culture du partage et de la diffusion de l'information ; qu'elle favorise l'innovation.

On y retrouve un certain nombre de concepts développés par une étude menée par le cabinet Forrester Research en août dernier (synthèse à venir) qui met notamment en avant celui d'intelligence organisationnelle (travail en réseau suivant un mode projet)

En conclusion, ce livre blanc peut être considéré comme un outil d'«éveil» aux enjeux de l'IE à destination des dirigeants de PME.

Pour accéder au livre blanc

Rédigé par La machine à café le 11/12/2006 à 22:36 | Commentaires (1) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
Chercher, c'est trouver !


C'était le mois dernier : SearchEngineWatch nous révélait la parution de deux études parues simultanément sur l'analyse des comportements des internautes lorsqu'ils effectuent une recherche sur les moteurs.

La première étude est co-réalisée par Jupiter Research et iProspect. Elle propose une analyse des tendances observées sur 3 années (2002 – 04 et 06). Intéressant de constater l'évolution des comportements et des attentes sur une période donnée. Et là l'étude tend à démontrer que le niveau d'exigence des personnes qui cherchent augmente en même temps que leur aptitudes à développer des stratégies de recherche plus ou moins complexes.

Résultats :
  1. 62 % des utilisateurs de moteurs de recherche cliquent sur un résultat remonté sur la première page de retour ; 19 % de plus vont jusqu'à la seconde page de retours et 9 % de plus sur la troisième. Au final, 9 de ces utilisateurs sur 10 ont cliqué sur un résultat apparu dans les 3 premières pages de retour que remonte le moteur. En tendance (sur la période considéré), les utilisateurs tendent de plus en plus à limiter leur recherche aux 2, voire 3 premières pages
  2. après une recherche jugée infructueuse, 41 % des utilisateurs révisent leur stratégie de recherche (le ou les termes de la requête), voire change de moteur lorsqu'ils ne trouvent pas de résultats satisfaisant dès la première page de retours ; 27 % font de même à la seconde page de retours et 20 % supplémentaires pour la 3ème. Au final, ils auront été 88 % d'utilisateurs à avoir modifié la recherche initiale pour ne pas avoir trouvé de réponse satisfaisante dans les 3 premières pages de retours. En tendance, les utilisateurs sont de plus en plus nombreux à modifier leur stratégie de recherche si les résultats des moteurs ne sont pas jugés satisfaisants dès les premières pages
  3. pour poursuivre dans le registre de la recherche infructueuse, 82 % des utilisateurs optent pour une modification des termes de la requête initiale ; quand 13 % changent de moteurs. En tendance, il semble que les utilisateurs demeurent de plus en plus fidèles au moteur initialement utilisés

NB. l'enquête a été réalisée en janvier 2006 sur un panel d'internautes US

La seconde étude a été menée par Harvest Digital en partenariat avec Metro Research et s'intéresse plus particulièrement aux utilisateurs «expérimentés» de l'internet (au Royaume-Uni) dans leur stratégie de recherche d'informations sur les moteurs de recherche (est considéré par l'étude comme «expérimenté», l'internaute qui navigue sur le net depuis au moins 3 ans et y consacre au minimum 10 heures hebdomadaires)

Résultats :
  1. la moitié de ces utilisateurs avisés passent au moins 3 heures par semaine a effectuer des recherches en ligne et ils sont 69 % à déclarer trouver réponse
  2. 94 % des répondants déclarent utiliser … Google (que reste t-il aux autres ? la réponse est en partie dans la rubrique La vie en Google de ce site. Je peux cependant vous dire que selon l'étude les 3 suivants Yahoo, Ask Jeeves et MSN tournent à environ 40 % de déclarants) …
  3.  … mais (parce que leur avenir n'est pas aussi bouché qu'il n'y paraît) l'espoir demeure. Pour preuve, seulement 24 % des répondants déclarent n'utiliser qu'un seul moteur. 30 % en utilisent 2 ; 26 % utilisent 3 moteurs ; il y en a même 9 % qui utilisent plus de 4 moteurs
  4. dans le même temps les répondants reconnaissent que si les résultats ne sont pas à la hauteur, c'est que souvent les termes de la requête sont inadéquates ou que la requête même est jugée trop spécifique et que l'information n'est peut être pas disponible dans les moteurs. La présence de liens sponsorisés est avancée dans un cas sur quatre comme cause de recherche infructueuse
  5. 5 % des répondants utilisent 1 mot seul dans la requête ; 27 % d'entre eux utilisent 2 mots ; 40 % 3 mots
  6. 43 % cliquent sur un résultat de la première page
  7. 32 % cliquent sur un résultat parce que la description qui remonte du moteur est en adéquation avec leur attente
  8. la moitié des répondants estime devoir améliorer leur technique de recherche
Conclusion : mieux vaut apparaître dans le haut des résultats ou tout du moins sur les premières pages. Au-delà les résultats deviennent quasi invisibles pour les utilisateurs des moteurs de recherche. CQFD (mais qui en doutait encore ?)

iProspect Search Engine User Behavior Study (Avril 2006)
attitude to search amongst experienced internet users (Avril 2006)

Pour compléter ce billet, je vous invite à consulter le billet que j'ai réalisé il y a peu sur une étude comparative sur 6 moteurs


Rédigé par la machine à café le 06/06/2006 à 21:55 | Commentaires (0) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest



medium_univers_provence.gif










L'Université de Provence a conduit fin 2005 sous la responsabilité de J. Véronis (l'auteur du site Technologies du Langage qui propose une approche statistique de la linguistique) une étude comparative sur 6 moteurs de recherche.

Les moteurs analysés sont :

    - 3 français (Exalead, Dir.com du groupe Iliad et Voila)
    - 3 américains (Google, MSN et Yahoo)

Le protocole de recherche est précisé dans un document de synthèse, ainsi que l'évaluation des résultats.

Justement côté résultats, le tiercé gagnant est :

Google et Yahoo en tête avec des indices de "pertinence perçue" de 2,3 chacun sur une échelle d'appréciation qui va de 0 à 5. On notera que les 3 français font la course en queue de peloton, mais que globalement (l'honneur est sauf) aucun des moteurs analysés n'atteint la moyenne.

Pour aller plus loin, l'analyse sur ce critère de "pertinence perçue" montre que les résultats qui obtiennent la note 0 (et donc jugés comme totalement inutiles par rapport aux termes de la requête) sont nombreuxpour ne pas dire inquiétants. Ainsi, la prime du nombre de résultats sans intérêts revient à Voila (leur proportion y serait de 53,1 %,autant dire un résultat sur 2 jugé sans intérêt), le meilleur taux étant réalisé par Yahoo avec 27,7 % (ce qui représente tout de même un "déchet" de 1 sur 3)

Pour résumer, c'est pas terrible et certains y verront là un signe encourageant pour développer l'idée qu'il y a la place pour d'autres moteurs (à base d'analyse sémantique, moteur collaboratif ou communautaire, vertical search, etc ...)

Cependant, attention à ne pas tirer de conclusions trop hâtives. Comme le précisent les auteurs de l'étude, il s'agit d'un instantané des performances de moteurs de recherche à un instant donné (fin 2005) qui plus est dans un usage courant non professionnel (voir les termes des requêtes effectuées).

Enfin, rien - au terme de cette étude - ne permet d'expliquer le goût immodéré des internautes français pour le moteur Google avec 82,2 % du trafic (source Xiti) capté par l'ensemble des moteurs.

Dans ce contexte quasi hégémonique d'une marque par rapport aux autres, on peut dire que le projet Quaero n'entame pas une partie de plaisir (étant considéré que son objectif affiché - tout du moins par les pouvoirs publics - est de venir concurrencer Google sur son terrain de jeu). On peut déjà se demander quel sera l'avantage comparatif que le projet en question pourra mettre en avant pour faire que les internautes modifient leurs habitudes bienétablies et viennent effectuer leurs recherche sur le dit moteur dont soit dit en passant l'algorithme repose- sauf erreur de ma part - sur celui d'un des 6 moteurs analysés (devinez lequel ? il n'est pas dans le tiercé gagnant).

Mais comme le dit un proverbe chinois : "Quand le doigt montre la lune, l'imbécile regarde le doigt"

Et pour ceux qui en redemandent : "Quand tu es arrivé au sommet de la montagne, continue de grimper"

Pour consulter l'étude

Son résumé


Rédigé par la machine à café le 18/05/2006 à 22:05 | Commentaires (0) | Permalien

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest


Voilà la livraison de l'étude annuelle menée par IDP - Archimag pour le compte du GFII (Groupement Français de l'Industrie de l'Information) sur l'IEP en France.

Si on devait résumer, on prendrait le raccourci déjà pris par la société Outsell Inc. qui dans son étude réalisée en septembre 2005 définit l'information professionnelle comme étant celle consommée par les "knwoledges workers" (travailleurs du savoir) et on y ajouterait la nécessité que cette information soit restituée sous format numérique.

Attention : bien que l'étude soit datée de décembre 2005, les données remontées concernent les années 2003 et 2004. Cependant, dans la mesure où il était demandé aux répondants d'émettre des prévisions sur 2005, quelques tendances ont été dégagées sur l'année passée.


Dans ce contexte exclusivement B to B, on observe :

  1. le chiffre d'affaires en 2004 du marché de l'information électronique professionnelle aurait été de 1,05 milliard d'euros, soit une croissance de 8 % par rapport à 2003
  2. le segment de l'information financière demeure le premier avec 19,3 % de parts de marché, il est toutefois "talonné" par celui de l'information presse (18,1 %), viennent ensuite l'information juridique (15,9 %), l'ISTM - Information Scientifique Technique et Médicale (12,2 %), l'information de solvabilité (10,5 %), l'information multisectorielle (8,7 %), l'information marketing (8,7 %), l'information économique (4,3 %) et l'information sur la propriété intellectuelle (2,2 %)
  3. l'IEP n'échappe pas à la logique de globalisation du marché et on assiste à un phénomène de concentration des principaux acteurs (producteurs de contenus, éditeurs de solutions, agrégateurs, diffuseurs, serveurs de bases de données, courtiers en information) qui visent à atteindre une masse critique qui les positionne favorablement sur un marché en voie d'internationalisation
  4. le développement d'une tendance de fond quant au libre accès à l'information scientifique et technique avec pour objectif de faciliter l'accès aux résultats de la recherche. Ce qui pose la question de la chaîne de la valeur entre sa production (les chercheurs) et sa diffusion dans le public et donc de son coût d'acheminement (rappelons que la part de marché de l'ISTM dans l'IEP représente 12,2 %). A ce sujet, on se référera au billet daté du 07.12.05 intitulé "Partage des données scientifiques"
  5. la convergence des outils et des contenus
Le résumé de l'étude


Rédigé par lamachineacafe le 22/03/2006 à 19:20 | Commentaires (0) | Permalien

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest



Savez vous quelle différence y a t-il entre un site internet et un weblog (plus communément
appelé blog) ? Si on se réfère à la définition qu'en donne Wikipédia (l'Encyclopédie Libre), on dira qu'un weblog est un site internet dans lequel le mode de présentation des informations et leur fréquence de mise à jour sont organisés suivant un schéma défini.

Au-delà de la définition, il est intéressant de s'interroger sur les usages qu'en font les internautes et plus particulièrement sur les modalités de recherche d'information. C'est ce que nous propose une étude réalisée en mai 2005 par l'Université d'Amsterdam.

Dans le cadre d'une approche statistique, les chercheurs se sont attachés à analyser diverses données liées à la recherche d'information sur les weblogs (thèmes des requêtes, fréquence de ces thèmes, temps dédié à la recherche, et comportements observés lors des remontées de résultats).

L'analyse s'est faite sur un mois complet (mai 2005) à partir des requêtes effectuées sur le moteur Blogdigger.com (moteur de recherche sur les weblogs et fils d'information). Ces observations ont ensuite été rapprochées de données externes pour dresser quelques éléments de comparaison entre recherches effectuées sur des weblogs et recherches sur des sites internet.

Résultats :


  1. en premier lieu, la majorité des recherches effectuées sur les weblogs portent sur des noms de personnes, de produits, d'organisations et / ou de sociétés, viennent ensuite des requêtes sur des concepts ou des thèmes génériques (islam, humour, etc...)
  2. il y a, par ailleurs, une forte corrélation entre les termes des recherches effectuées sur les weblogs et l'actualité couverte dans les média au moment de le recherche, d'où l'idée émise que les weblogs sont perçus comme des sources d'information et de commentaires sur l'actualité "brûlante"
  3. du point de vue des centres d'intérêts manifestés lors des recherches effectuées sur les weblogs, les questions liées aux technologies, à la politique et aux divertissements sont prépondérantes
  4. quant à l'analyse des résultats que remontent les moteurs de recherche, les comportements des internautes diffèrent peu qu'il s'agisse d'une recherche sur les weblogs ou sur les sites internet. Dans une très large majorité (95 % des requêtes sur les weblogs et 85 % des requêtes sur les sites internet) les internautes ne consultent pas les résultats au-delà de la première page que remonte le moteur de recherche.

A l'heure où l'on parle - entre autre - du développement de blog de marque, de marketing alternatif, de marketing viral, d'utilisation de flux RSS comme outil de fidélisation ou de vente, voilà à n'en pas douter quelques éléments d'appréciation à l'usage des marketers.


source de l'info : ResourceShelf

Pour consulter l'étude



Rédigé par lamachineacafe le 06/03/2006 à 22:40 | Commentaires (3) | Permalien

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
Comment les universités ont assuré la diffusion d'internet

Au delà des chiffres relatifs à Internet (nombre de connectés au réseau des réseaux, modes de connexion, profil des connectés, usages constatés sur la toile, etc...), il est aujourd'hui considéré qu'Internet est la principale innovation technologique de ces 15 dernières années (les technologies sans fil ou wireless peuvent à mon avis y prétendre aussi). C'est à se demander d'ailleurs comment était le monde avant l'internet ?

Si Internet s'est imposé aujourd'hui dans les usages quotidiens, ainsi que dans l'environnement professionnel, il est intéressant d'observer son mode de diffusion dans la société sur la dernière décennie.

D'un usage à vocation militaire à son origine (1), le réseau des réseaux s'est étendu à toute la société. Une étape déterminante dans cette diffusion nous est révélée par un billet d'InternetActu qui nous renvoie à une étude canadienne.

Focus : l'Université de Toronto a mené en juillet 2005 une étude qui met en évidence la corrélation entre adoption de la technologie internet par le monde universitaire et dissémination de l'internet dans la société nord-américain au cours des années 90.

Où il est fait état du rôle déterminant joué par la communauté universitaire (étudiants et enseignants) dans la diffusion de la technologie internet dans toutes les couches - ou presque - de la société à partir du milieu des années 90. Or, contrairement aux schémas classiques de diffusion des avancées technologiques d'origine universitaire (par voie de publications scientifiques et / ou par l'intermédiaire de partenariats entre centres de recherche et industriels), la diffusion de cette technologie de communication novatrice s'est faite par les usages (internet utilisé pour l'échange de fichiers et comme outil de communication). La technologie internet rapidement adoptée par la communauté universitaire - qui prenait de ce fait le statut de "early adopter" - s'est répendue dans la société suivant le principe de sensibilisation et prescription dans une logique de contacts interpersonnels et du réseau d'influence constitué par ces "early adopters" auprès de leur entourage (familial au premier chef). En résumé d'après l'étude, la valeur d'usage perçue par la communauté universitaire a été le principal vecteur de diffusion de la technologie dans le reste de la société.


Décision d'adoption, diffusion technologique, n'est-ce pas finalement le juste retour de la théorie de la diffusion des innovations d'Everett Rogers ?

The (Teaching) Role of Universities in the Diffusion of the Internet

____________________________________________________
(1) début années 60 : mise en place à l'initiative du Département de la Défense US de l'Advanced Research Project Agency pour étudier l'amélioration de la transmission d'informations d'ordinateur à ordinateur, avec pour objectif de créer un réseau de communication invulnérable à toute attaque nucléaire éventuelle


Tags : internet
Rédigé par lamachineacafe le 03/03/2006 à 19:55 | Commentaires (0) | Permalien

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest


Septembre 2005, la société Outsell Inc. (spécialiste des études sur le marché de l'information) publiait une analyse sur l'industrie de l'information au niveau mondial. L'étude a été menée par récupération de données, enquêtes et interview auprès de 4 000 acteurs du secteur de l'information (producteurs, éditeurs de contenu, agrégateurs, diffuseurs, éditeurs de logiciels dédiés à l'information) et d'environ 40 000 utilisateurs (knowledge workers).

Au-delà des chiffres avancés sur l'année 2005, l'intérêt de l'étude porte notamment sur les prévisions faites par Outsell sur la période 2006-2008. Y sont identifiés les tendances d'un marché en forte croissance, ainsi que le suivi des principaux acteurs sur ce marché. Le titre du communiqué de presse qui accompagne l'étude est suffisamment évocateur et révèle la domination croissante des grands acteurs de la recherche en ligne sur cette industrie : "Forecast 2006 Developments for Information Industry, powered by companies like Google, Yahoo and Knight Ridder"

Pour résumer :
  1. le marché de l'information professionnelle (celle consommée par les "knowledges workers") pèserait 283 milliards de dollars us pour 2005
  2. le taux de croissance annuel sur ce marché serait de l'ordre de 8 % jusqu'en 2008 (étant entendu que l'environnement conjoncturel demeure stable sur cette période)
  3. l'industrie de l'information analysée par segment sur la période 2005-2008 :
  4. - le recherche, l'agrégation de contenu et la diffusion serait le segment (SADS) au taux de croissance le plus élevé (17 % sur les 4 ans). Attention, l'étude comptabilise dans ce segment les revenus publicitaires engendrés par les moteurs de recherche (doit-on alors parler d'information ?)
    - l'information marketing et études de marché (MRRS) en croissance de 11,6 % sur cette période
    - les contenus liés à la formation (E&T) en croissance de 9,3 %
  5. - les autres segments (information financière, juridique et réglementaire, scientifique et technique, annuaires et pages jaunes) devraient connaître une évolution positive comprise entre 3 et 8 % sur la période
On retiendra au final, que d'après l'analyse faite pas Outsell :
  1. l'industrie de l'information sera principalement tirée par le segment des services d'agrégation et de diffusion des données (dont la recherche en ligne) sous l'impulsion de Google et Yahoo (dans une moindre mesure). A noter une "rupture" dans la chaîne de la valeur de l'information puisque les revenus publicitaires viendront a priori modifier l'économie de l'information professionnelle qui repose aujourd'hui sur des frais d'accès (que ce soit par abonnement à des banques de données et services de diffusion ou l'achat ponctuel de données)
  2. le marché sera marqué par l'évolution des comportements utilisateurs qui "utilisent spontanément les technologies disponibles ..." Le parallèle est fait avec l'échange de données et de fichiers entre particuliers et notamment le Peer to Peer. L'information devient "sociale" et partagée grâce aux applications notamment issues des technologies ouvertes de type Web 2.0 (échange de données entre knowledge workers, développement des weblogs et du social publishing, etc... ). De nouvelles pratiques de consommation de l'information apparaîtront telles la vérification de l'information éditée en quasi temps réel, l'émergence d'une nouvelle crédibilité en tant que contenu issu de sources autres que celles "autorisées".
Enfin, à ce stade de l'étude menée par Outsell, on ne peut s'empêcher de faire le lien avec le billet daté du 16.01.2006 "Google et l'information professionnelle". L'étude révèle, en effet, que le moteur est de loin devenu la référence du marché des moteurs de recherche puisqu'il est adopté par près de 70 % des "knowledge workers" avec un taux de satisfaction déclaré de 75 % (soit 3/4 des déclarants qui ne souhaitent pas changer d'outil)

Assiste t-on à une rupture sur le marché de l'information professionnelle ?

Les 7 scénarii d'évolution proposés par Outsell semblent l'attester.

A suivre ...

Pour télécharger l'étude complète

Rédigé par lamachineacafe le 22/01/2006 à 22:25 | Commentaires (0) | Permalien

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest


Cornell University lance un programme de recherche dont l'objectif est l'étude des processus de diffusion de l'innovation à partir de l'analyse des archives d'Internet.

Seront entre autres analysés les impacts sociologiques, les modalités de cette diffusion, les transformations managériales induites, l'évolution des pratiques marketing, l'évolution des normes, etc...

Ce projet pluri-disciplinaire intitulé "Getting Connected : Social Science in the Age of Networks" sera mené par des chercheurs en sociologie, économie, communication et informatique.

Pour en savoir plus

Source : The Institute For The Future

Tags : innovation
Rédigé par la machine à café le 17/10/2005 à 14:05 | Commentaires (0) | Permalien

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
Syndication
RSS ATOM RSS comment PODCAST Mobile

Add to Netvibes

Abonnement Bloglines

Add to Google

/a_la_une

Subscribe in NewsGator Online



Vous n'utilisez pas d'agrégateur de flux RSS Vous pouvez recevoir - dès parution - les billets de ce weblog sur votre outil de messagerie en vous inscrivant ci-dessous


entrez votre adresse e-mail :