l'information circule dans l'entreprise, je l'ai souvent croisée devant la ... machine à café

Translation

Powered by Google

 
En relisant l'article intitulé "Pour une écologie informationnelle " produit sur InternetActu en avril dernier, soit au moment même où les premiers signes annonciateurs de La Crise se manifestaient, il m'est apparu opportun de dresser une analogie entre la crise financière actuelle et la "crise informationnelle" qui se profile. L'idée étant que les flux d'information tout comme les flux financiers font partis de l'économie de l'immatériel. Ce faisant, ils suivent des modes de diffusion qui peuvent être rapprochés.

Et pour mieux fixer la périmètre de l'exercice, j'ai utilisé le mindmapping pour tenter une explication par la recherche des proximités linguistiques entre une crise financière installée et une crise informationnelle latente.
 
A noter qu'à l'heure où le politique s'émeut des dérives d'un système financier hors de contrôle, du débat émergent sur la question d'une régulation de ce marché, des polémiques récurrentes sur la mise en place d'un système de contrôle pour faire face à l'absence d'auto régulation, du plus d'interventionnisme versus plus de libéralisme, voici un article qui jette un pavé dans la mare des tenants de l'accès universel au savoir et ce faisant à l'information. Où il est dit que 99,9 % des 2,5 millions d'articles produits en anglais sur Wikipedia sont ...
... imprécis, mal rédigés, biaisés pour ne pas dire qu'ils avancent des erreurs volontaires ou non ; bref un mélange d'inexactitudes et de verbages qui induisent le lecteur (l'internaute) en erreur. Bref de quoi suralimenter la machine à faire du bruit et accroître la crise informationnelle qui se dessine.

L'exercice qui suit n'est pas figé, la cartographie proposée est une première étape qui sera complétée en fonction de l'actualité.




Rédigé par ludovic bour le 23/10/2008 à 23:27 | Commentaires (1) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
 
Le 2 juillet dernier, le Groupement Français de l'Industrie de l'Information organisait un séminaire sur le thème : comment mettre en place une veille internationale dans une organisation.

Au-delà des aspects organisationnels qui pèsent sur les entreprises multinationales, un thème abordé parmi d'autres était celui de l'exploitation des sources et informations multilingues.

L'optimisation des méthodes et outils de traduction est devenue primordiale pour toute organisation qui vise une information exhaustive (dans un environnement ouvert) et la moins altérée possible.

La société d'investissement In-Q-Tel (1) ne s'y est pas trompée. La société vient, en effet, de conclure un partenariat financier "stratégique" avec le fournisseur de plateformes et solutions de traduction Lingotek. Pour reprendre les termes de l'accord, In-Q-Tel participe au financement du développement de nouveaux outils de traduction, notamment une plateforme de traduction collaborative.

On savait la communauté du renseignement particulièrement attentive aux évolutions sur les technologies de traduction, à tel point que In-Q-Tel a déjà dans son portefeuille :
  1. Basis Technology pour l'extraction de données non-struturées dans des corpus multilingues
     
  2. BBN Technologies qui au travers de sa gamme Automatic Speech Recognition solutions explore les technologies de reconnaissances vocales appliquées à la traduction
     
  3. Language Weaver qui propose une plateforme de traduction automatique adossée à une méthode statistique. Les algorithmes d'apprentissage apprennent à traduire automatiquement à partir de traductions existantes. Plus la bibliothèque des traductions effectuées par l'outil est importante, plus l'outil gagne en pertinence. A noter que LW dispose d'une représentation commerciale en France depuis fin 2007.
     
Mais pour revenir à l'information relative à Lingotek, il est intéressant de constater le positionnement retenu qui se distingue de celui des principaux acteurs sur le segment de la traduction assistée par ordinateur. Lingotek propose une interface de traduction collaborative dont l'originalité est de fusionner tous les systèmes utiles au process de traduction tels que : les mémoires de traduction, dictionnaires, etc... et de permettre - au final - à l'ensemble des traducteurs de bénéficier de l'expérience acquise par la communauté sur ces systèmes.

 
_________________________

Ressources :

Le communiqué de presse


________________________________
(1) créée en 1999 par la CIA pour aider les éditeurs de solutions technologiques à développer et diffuser leur savoir faire dans la communauté du renseignement US


Rédigé par ludovic bour le 15/09/2008 à 22:27 | Commentaires (0) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
 
Rentrée des classes oblige, cette semaine, les professionnels de l'industrie de l'information à usage professionnel faisait école. Les universités d'été organisées par le Groupement Français de l'Industrie de l'Information (GFII) planchaient sur :
  1. les modèles économiques qui émergent sur l'Information Scientifique Technique et Médicale (ISTM)
  2. les tendances qui se dessinent sur les outils de valorisation de l'information
  3. la croissance des plateformes intégrées où l'utilisateur final trouve contenu et services à valeur ajoutée
  4. les mutations en cours dans l'industrie de l'information professionnelle quant aux modes de production des contenus
Bref, pour résumer un exercice de prospective dans lequel il a été abondamment fait référence :
 
  • aux nouveaux modèles économiques pour la diffusion de l'information,
  • de gratuité (financée par la publicité) versus la vente par abonnement ou licence,
  • le développement des portails métiers notamment sur les segments de l'information juridique et celui de l'ISTM,
  • l'excroissance des données non structurées qui modifie le rapport à l'accès à l'information. Phénomène, par ailleurs, accentué par le développement des données multimédia,
  • les modalités d'accès à l'information depuis un navigateur internet,
  • la question de la validation des informations diffusée dans un cadre professionnel,
  • le développement des plateformes qui intègrent la capture, le traitement, la représentation (sous forme cartographique), la diffusion de l'information pour au final proposer non plus au professionnel de l'information, mais à l'utilisateur devenu "travailleur du savoir ou de la connaissance" les outils qui vont réduire le délai et optimiser le processus de prise de décision.
Voilà donc tout un programme entièrement dédié à la recherche d'une meilleure productivité dans la gestion et le traitement de l'information.

Mais toute réflexion ne serait pas aboutie s'il n'avait été proposé un thème directeur qui devrait occuper les esprits pour les mois, voire les années à venir. Et pour ce, les américains n'ont pas leur pareil pour donner le LA des tendances à venir. Le représentant de la Software Information Industry Association (SIIA) s'y est collé en insistant sur le fait que l'avenir du secteur est au développement des réseaux sociaux (dans un cadre professionnel s'entend) et du "User Generated Content" (UGC), soit la production de contenu informationnel par les utilisateurs.

Les échanges sont riches sur le thème de la production de contenu par les utilisateurs du service. Il sont même passionnés, parce qu'au final, personne aujourd'hui ne détient la vérité sur la question en l'absence de retours d'expérience quantitativement significatifs. Les principes érigés - avec l'émergence du web 2.0 - comme universels par certains apôtres du web collaboratif et selon lesquels nous serions entrés dans une phase vertueuse de la gestion et de la transmission du savoir ne résistent pas à l'analyse critique. (Le "chaos culturel" dénoncé par A. Keen en est une illustration parmi d'autres).

Sur ce thème, une posture semble se dessiner dans l'environnement professionnel : wait and see !

C'est aussi reconnaître que la technologie seule ne créée pas l'usage et que dans l'environnement professionnel le poids de la culture ne saurait être négligé, tout comme celui de l'organisation. Une entreprise est avant tout une organisation productive. Toute organisation se définie par les codes qui lui sont propres et leurs combinaisons.

L'arrivée des "Digital Natives " est un élément favorable au développement des logiques participatives et contributrices dans les organisations parce qu'elle modifie le rapport à l'information et sa production. Le choc culturel est en cours : il n'est pas si loin le temps où l'enfant qui "demandait" la parole, devait lever le doigt.

Au-delà des évolutions culturelles en cours, il ne faut pas négliger cependant certains freins (notamment dans le cadre professionnel) à la généralisation du "User Generated Content" dont celui de la "trace numérique" ou des empreintes que nous laissons sur le réseau des réseaux. L'UGC pose - entre autre - le problème de la spontanéité de la chose produite : l'information. L'information ainsi produite et diffusée ne sera t-elle pas reprise à l'insu de celui qui la produite, déformée, interprétée, manipulée ? Quelle valeur aura t-elle dans plusieurs années alors qu'elle sera toujours accessible ? Gageons que le développement des fichiers à des fins de collecte d'information sur les personnes n'incite pas au développement de ces pratiques.

"User Generated Content" : entre réalité, utopie ou coup marketing de l'industrie du logiciel et de la net économie ? L'avenir nous le dira, mais peut-être pas demain.
 
Alors en attendant, on pourra toujours se rassurer avec l'idée que "pour vivre heureux, vivons caché !"

__________________________

Ressources :

Le programme des Universités d'été

Hype Cycle for Emerging Technologies - version 2008
(Cliquez sur le schéma pour l'agrandir)


C'est un exercice mené chaque année par le Gartner Group et pour cette livraison 2008, pas moins de 27 technologies émergentes sont analysées. 8 d'entre elles devraient se déployer durablement dans les 10 ans à venir.

Il y est dit notamment que :
  1. l'avenir est aux réseaux sociaux (même dans les entreprises) dans une société de plus en plus interconnectée via les réseaux informatiques et une acculturation à cet environnement technologique
  2. le microblogging corrélé au développement des réseaux sociaux devrait suivre le mouvement
  3. le développement du Cloud Computing ou une autre modalité d'accès aux applications hébergées type Saas. Soit une nouvelle forme de dématérialisation d'applications, stockées sur des serveurs distants accessibles en ligne depuis un navigateur. Une nouvelle génération de bureau virtuel
  4. le thème du développement durable favorise l'émergence des Green IT ou tout processus qui optimise et concoure à l'efficacité écologique des technologies de l'information
Bref, tout ceci confirme - si besoin était -  que nous sommes irrémédiablement entrés dans une société de l'information ; et que la majorité des technologies émergentes qui vont impacter  dans un proche avenir nos organisations sont pour l'essentiel dédiées à l'optimisation des flux d'information.

_______________________________

Ressources :

le communiqué de presse du Gartner
 
le Hype Cycle for Emerging Technologies, c'est quoi ?

Gartner Special Report (sonnore)

Rédigé par ludovic bour le 01/09/2008 à 21:39 | Commentaires (0) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
 
Le format de fichiers ouvert Open XML en route vers la normalisation ISO.

Retour sur l'information
  1. Acte 1 : mai 2006 l'Organisation Internationale de Normalisation adopte le format ODF (OpenDocument) comme norme ISO. Traduction : ODF devient le premier format standard ouvert de données pour les applications bureautiques. Par ouvert, il faut entendre un format  publié et librement exploitable. Le consortium qui contrôle la spécification du format est indépendant de tout éditeur de logiciel
     
  2. Acte 2 : Microsoft engage en mars 2007 une procédure de normalisation ISO pour son  format Open Office XML (OO XML)
     
  3. Acte 3 : Septembre 2007, la firme de Redmond essuie un refus de l'ISO (l'info )
      
  4. Acte 4 :  avril 2008, l'ISO accepte le format OO XML. Des recours sont alors émis auprès de l'ISO qui suspend la validation de la norme pour OO XML
     
  5. Acte 5 : mai 2008, Microsoft annonce que la prochaine version d'Office 2007 (prévue pour 2009) assurera la compatibilité avec le format ODF et que pour les versions antérieures d'Office il faudra recourir à un connecteur (traducteur) comme le plug in OpenXML Translator
     
  6. Acte 6 : mi-août 2008, le recours formulé à l'encontre d'OO XML est rejeté par l'ISO
Au-delà des enjeux stratégiques qui se dessinent autour des normes sur les fichiers bureautiques, voilà donc venu le temps de dissocier le format de fichier de l'application ou pour faire simple, il ne sera plus nécessaire de disposer de Microsoft Word pour lire un .doc

Mais puisqu'il est question de stratégie, entre influence et contre-influence, la suite relève des hypothèses : la coexistence de 2 normes ou la convergence à terme des technologies.

A suivre ...

__________________________________
Ressources

Demain : les formats de fichiers ouverts (suite) (05/02/2007)
 
Demain : les formats de fichiers ouverts (28/01/2007)

La rubrique Open Source de ce site

 
Alors que Google Inc. s'apprête à célébrer ses dix ans d'existence, le monde du web en est encore à guetter la prochaine "killer application" susceptible d'enfoncer l'hégémonie de Google (1). L'enjeu est de taille, puisqu'il consiste à se tailler la part du lion sur un marché en forte expansion : celui des revenus publicitaires en ligne. Et là il n'y a pas photo, la firme de Mountain View est devenue la "Régie publicitaire" du web avec un modèle économique désarmant pour l'ensemble des compétiteurs qui tentent d'exister ou plutôt de co-exister sur ce marché du "search".

On peut penser que la force du modèle Google tient à sa capacité à anticiper les tendances sur l'internet et construire sur la durée un système de services intégrés en ligne qui permette aux internautes de produire des contenus (texte et multimédia), les diffuser et au final les retrouver via une interface de recherche simple. Soit une offre globale toute dédiée à la génération de trafic. Or aujourd'hui, le trafic (soit les pages vues sur le net), c'est le nerf de la guerre économique qui se joue sur l'internet. Comprendre : l'espoir de générer pour un éditeur de contenus des revenus publicitaires est proportionnel au trafic qu'il suscite.

Les acteurs du web cherchent, recherchent et développent. Aux "pure players" sur le marché de la recherche en ligne viennent s'ajouter d'autres producteurs de services en ligne. Pour ne citer que les acteurs les plus médiatisés, retenons Exalead, le projet  Quareo et plus récemment WikiaSearch. Mais comme l'avenir appartient à ceux qui ... savent communiquer, voici un nouveau venu qui n'est pas avare dans sa communication. Son nom : Cuil (prononcez Cool ! véridique, c'est du Gaëlic)

Première analyse :
  1. le premier effet d'annonce porte sur le nombre de pages indexées évalué par ses concepteurs à 3 fois celui de Google (soit environ 120 milliards de pages). Histoire de ne laisser personne en chemin, on se reprend à penser que finalement "big is beautiful !"
      
  2. le moteur est organisé selon le principe que plus que l'analyse quantitative des liens hypertextes qui détermine un indice de popularité, mieux vaut s'attacher à analyser le contenu des pages et la nature des liens entre elles compte tenu de leur contenu. Soit une analyse contextuelle qui permet, par ailleurs, au moteur de proposer une navigation par catégorisation des résultats et ouvre le champ d'une navigation assitée dans des univers sémantiques cohérents. A titre d'exemple, d'une recherche sur le terme "Business Intelligence", le moteur peut vous proposer de restreindre la remontée des résultats à l'univers de l' "entreprise performance management", puis de poursuivre la navigation par éditeurs de solutions
     
  3. une assistance à la formulation d'une requête qui permet à l'internaute de se voir proposer (par l'intermédiaire d'un menu déroulant) des thèmes et concepts associés à la requête initiale. Pour exemple, d'une recherche sur le terme "weather", le moteur propose diverses déclinaisons pour affiner et limiter la recheche à un univers sémantique tels que weather forecast, weather reports, weather maps, ...

  4. mais là où Cuil pourrait organiser une risposte efficace à Google et agréger se faisant nombre de ses détracteurs, c'est sur sa politique de collecte des données : AUCUNE. Parce que pour Cuil, "nous analysons le web, pas ses utilisateurs". CQFD. Mais est ce un argument suffisant pour renverser la logique financière implacable qui préside aux destinées de Google Inc ? Ce qui pose a contrario la question du modèle économique vers lequel tend Cuil ?
     
Bref, voilà une arrivée sur le segment de la recherche en ligne qui n'est pas sans rappeler qu'à la fin des années 90, le moteur AltaVista (2) - alors dominateur sur la recherche en ligne - intégrait déjà nombre des fonctionnalités que propose Cuil aujourd'hui. Comme la recherche assistée par troncature. De même que l'algorithme de recherche était conçu pour optimiser l'expérience de recherche des utilisateurs à partir d'une analyse contextuelle des pages indexées.

Voilà donc remis au devant de la scène le débat qui semblait être clos au début de la décennie lorsque Google supplanta AltaVista : la pertinence est -elle dans le Page Rank ou dans le contenu des pages indexées ?

A suivre...
___________________

Ressources :

Le communiqué de presse Cuil

La rubrique "moteurs de recherche" de ce site

La rubrique "La vie en Google" de ce site

______________________________________________________

(1) d'après le baromètre mensuel de mai 2008 produit par comScore, Google poursuit son irrésistible course en tête sur le marché de la recherche en ligne en France avec une part de marché de plus de 82 % (excusé du peu, d'autant que le second est relégué à 2,7 %)

(2) aujourd'hui tombé dans l'escarcelle de Yahoo : coïncidence ou hasard Yahoo et Google viennent de sceller en juin dernier un partenariat qui permet au premier d'utiliser la technologie du second pour la monétisation des liens publicitaires.


Rédigé par ludovic bour le 07/08/2008 à 22:59 | Commentaires (0) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
Wikis à usage professionnel
 


Si l'idée de créer des wikis dans les entreprises et les organisations commence à se répandre, il n'en demeure pas moins vrai que leur usage reste anecdotique.

Quelques groupes et PME ont opté pour ces outils avec l'idée d'organiser et stimuler le travail collaboratif ainsi que la transmission des savoirs internes à l'entreprise. On peut penser à division R&D d'EDF qui a intégré à sa plateforme de gestion des connaissances des fonctionnalités de wikis pour favoriser le tranfert de connaissances.

Qu'en est-il des plateformes wikis proposées par des prestataires à destination du public ou tout du moins une communauté de praticiens ?

2 cas d'application intéressants :

1) la plateforme AlacraWiki

Son principe : proposer un portail pour les professionnels qui produisent et manipulent de l'information stratégique. On y trouve notamment nombre de ressources sur le secteur de l'information électronique professionnelle :
 
  • l'actualité du secteur
  • les évènements à venir
  • des infos sur les principaux acteurs du marché (éditeurs de contenus, agrégateurs, sources de financements, consultants, organisations proefssionnelles repésentatives du secteur, ...)
  • et près de 70 secteurs d'activité sont recensés dans la rubrique Alacra Spotlights avec pour objectif d'identifier les pincipales sources en ligne disponibles
 
La plateforme se veut une ressource collaborative pour tous les acteurs de l'industrie de l'information professionnelle. Les contributions sont ouvertes, wiki oblige !
 
Pour mémoire, Alacra est un agrégateur US de bases de données à vocation écnomique et financière.


2) le site du CRVS (Centre Régional de Veille Stratégique) de la CCI de Colmar - Centre Alsace

Son principe : proposer un portail à usage pratique sur les outils open source à l'usage des "travailleurs du savoir" plutôt engagés dans une démarche d'intelligence économique.

On y trouve répartis selon 6 thématiques (communication, multimédia, navigation internet, outils en ligne, protection de systèmes d'information et veille) :
 
  • une liste d'outils (gratuits), leur actualité
  • des tutoriaux et didacticiels
  • des forums d'échanges
 
Les contributions à la plateforme, ainsi que la participation aux forums se font sur la base d'une inscrition. A priori, les espaces forums ne sont pas encore actifs.

L'intérêt de la plateforme tient à sa vocation de boite à outils aux services des TPE - PME pour l'usage d'applications gratuites principalement dédiées à l'optimisation du cycle de l'information.

Pour ouvrir de nouvelles perspectives dans ce domaine des wikis dédiés aux organisations, il est opportun de rappeler l'initiative menée par le Director of National Intelligence américain de doter la communauté du renseignement US d'une plateforme d'échanges et de diffusion d'informations entre les divers agents répartis sur l'ensemble des agences de renseignement américaines (il y en a 16 !).

Nom de code : Intellipedia

Mais pour en parler, quoi de mieux que cette animation assurée le 9 juin dernier lors de "Enterprise 2.0 conference" à Boston par les ingénieurs qui au sein de la CIA l'ont développée.

_________________________

Ressources :

Les Intellipedians

Intellipedia Marks 2nd Anniversary

De l'évolution des modalités d'accès à l'information professionnelle et des métiers de l'information
 



Qui n'a pas goûté au plaisir de l'interrogation sur des serveurs de bases de données professionnelles  ? (quelques indices)
 
Alors que les interfaces d'interrogation en langage naturel se développent, la question peut paraître incongrue. Cependant il n'est pas si loin le temps où j'ai pu assisté à une démonstration de ce type sur le serveur Dialog. La personne qui avait d'ailleurs formulé la requête depuis un PC m'avait fermement dissuadé  de m'y coller au prétexte que je n'étais pas un ...

... professionnel de la documentation.

J'avais touché du doigt les limites de mes compétences pour accéder à l'information (professionnelle) ! 

Depuis, le flot continu et croissant d'information numérique a (presque) fini d'emporter le monde de la documentation traditionnelle. Le professionnel de l'information s'est recyclé en travailleur du savoir et de la connaissance. Les producteurs de services d'information ont opté pour de nouveaux modèles de diffusion de l'information qui en favorisent l'accès au niveau des utilisateurs finaux. L'approche métier est privilégiée pour au final fournir au professionnel - dans sa sphère d'activité - l'ensemble des données et outils qui optimisent le traitement de l'information. C'est dans cette logique de verticalisation des processus de traitement de l'information que le (nouveau) groupe Thomson Reuters s'est lancé ces dernières années dans le développement de plateformes adaptées plus spécialement à des métiers : Thomson Innovation en est l'exemple le plus récent. Ce n'est donc pas un hasard si le dit groupe annonce la cession de son entité Dialog à ProQuest.

Pour les nostalgiques de l'avant internet, il est intéressant de rappeler que Dialog a été en 1966 le premier système d'interrogation en ligne de serveur de banques de données et que le service est né d'une initiative du complexe militaro-industriel US en pleine guerre froide associant la NASA à Lockheed Missiles Space Company.


source de l'info : la dépêche du GFII (sur abonnement exclusivement)

________________________

Ressources :

le communiqué de presse

ProQuest Dialog: Predictions and Reactions (un avis sur le devenir de Dialog)

Vers une bibliothèque virtuelle
 



 
C'est l'éternel débat entre la part des contenus numériques et le reste. Sachant que le reste décroit au profit du premier, encore faut-il s'entendre sur ce que représente le reste.

Resituer le débat dans un environnement professionnel (mais pas seulement) où l'expertise utilise diverses voies et média pour irriguer le travailleur du savoir, c'est admettre que la littérature (au sens premier sens du terme) est une des voies d'accès encore privilégiée de l'accès au savoir et à la connaissance.

Se pose alors la question de la gestion du classement des ouvrages, des notices associées, et de la recherche sur des fonds plus ou moins importants. Voilà des thèmes approchant ce qui prévaut dans le domaine des contenus numériques, autrement appelés : indexation, requêtage, notices, extraction, etc...

Et puisqu'il est question de 2.0 pour la plupart des applications qui touchent aux contenus numériques, voici une déclinaison intéressante de fonctionnalités collaboratives appliquées au monde des bibliothèques :

Library Thing - catalog your books online

Il s'agit d'une bibliothèque personnelle qui permet de :
  1. héberger jusqu'à 200 références bibliographiques (dans sa version gratuite)
  2. annoter les références
  3. évaluer les titres selon une échelle de 1 à 5
  4. affecter aux références des mots-clés
  5. effectuer une recherche multi-champs à l'intérieur d'une bibliothèque
  6. partager une référence
  7. repérer une communauté d'intérêt sur la base des références cataloguées
  8. obtenir tous les détails sur un titre
  9. engager une discussion sur un titre
  10. détecter des tendances quant à la popularité des titres, ...
Ce service est d'autant plus intéressant, qu'il est simple d'utilisation. Pour preuve, une fois le compte utilisateur créé, le rapatriement des références bibliographiques se fait par l'intermédiaire d'un moteur de recherche (la requête porte sur un titre, un nom d'auteur ou encore un numéro ISBN) qui va - par défaut - fouiller dans Amazon.com ou .fr ou encore dans la base de la bibliothèque du Congrès (1). Une fois la référence détectée, un simple clic permet de rapatrier l'ensemble des données la concernant dans votre bibliothèque.

C'est redoutable d'efficacité et permet au final de partager les références (enrichies) de votre bibliothèque sans contraintes d'espaces et de temps. Bref un service virtuel à consommer sans modération !

voir la bibilothèque de la machine à café

___________________
(1) 686 autres sources peuvent être requêtées



Rédigé par ludovic bour le 07/06/2008 à 15:33 | Commentaires (0) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
 
i-expo  2008 sous le signe de la continuité (voir le billet suivant), c'est le verdict des prix décernés pour cette édition. Mais une remise des prix ne serait rien sans un coup de projecteur, et cette année les professionnels de l'information numérique ont porté sous les Sunlights de la porte de Versailles une solution de veille proposée pour les éco-entreprises.

La plateforme est proposée par le Centre Régional de Veille Stratégique de la CCI de Colmar et du Centre Alsace. Elle a été développée par la société Neotia.

Le principe :
Il s'agit d'un Webservice avec accès réservé (donc accessible sur abonnement) à une plateforme de veille personnalisable au niveau de l'utilisateur.

Les informations collectées sont catégorisées selon 8 items (air, bruit, déchets, eau, énergie, management environnemental, risques, sols) et concernent les principaux thèmes de la filière, soit l'actualité, les évènements, les appels d'offres, les brevets, les opportunités technologiques, les textes réglementaires et les normes.

La surveillance des sources est effectuée automatiquement par un crawler. Un tri est ensuite assuré par une équipe d'experts de la filière pour au final être adressé sous flux RSS via un service d'agrégation de flux. Le tableau de bord que fournit la plateforme à l'utilisateur abonné est personnalisable par ce dernier. On y retrouve des interfaces de visualisation avancées.

Un module de publication permet à l'utilisateur du service de générer automatiquement des documents de publications sous divers formats.

Les avantages : une ergonomie simple, un tableau de bord personnalisable, des interfaces graphiques qui simplifient l'accès à l'information (notamment pour la consultation des appels d'offre), un tarif d'abonnement particulièrement adapté pour les PME qui souhaitent s'engager dans démarche de veille sur cette filière.

L'avenir : probablement l'intégration de sources étrangères, l'ajout de services (l'avenir nous dira lesquels ?)

Pour résumer et porter un point final à l'édition 2008 d'i-expo, on dira que la solution de veille à destination des éco-entreprises constitue un compromis intéressant pour toutes les entreprises qui n'ont pas encore adopté une démarche de veille. Et pour boucler avec le billet précédent, on peut dire que cette solution offre un compromis intéressant des points 2 à 5.

Nul doute que cette plateforme dédiée aux éco-entreprises a vocation à se décliner pour d'autres filières.

La plateforme de veille des éco-entreprises

1 2 3 4 5 » ... 23
Syndication
RSS ATOM RSS comment PODCAST Mobile

Add to Netvibes

Abonnement Bloglines

Add to Google

/a_la_une

Subscribe in NewsGator Online



Vous n'utilisez pas d'agrégateur de flux RSS Vous pouvez recevoir - dès parution - les billets de ce weblog sur votre outil de messagerie en vous inscrivant ci-dessous


entrez votre adresse e-mail :