l'information circule dans l'entreprise, je l'ai souvent croisée devant la ... machine à café


Translation

Powered by Google

  
Suite à l'article (alerte aux espions dans les labos français) paru dans le Monde daté du 26 octobre dernier, on peut s'interroger sur le degré de confidentialité qui doit entourer tout projet innovant et notamment ceux qui se trouvent être intégrés aux pôles de compétitivité. Où il est question de : pillage, d'intelligence avec une puissance étrangère, d'espionnage économique, de vol d'ordinateur, etc...

Bref, on comprend la nécessité de définir une politique de sécurité économique au niveau national et de commencer par les projets les plus mis en avant actuellement dans le cadre des pôles de compétitivité.

Soit mais comme le précise l'article, l'enjeu de la sécurité économique et de la préservation des informations qui circulent à l'intérieur d'un pôle n'est pas le même suivant que les partenaires sont un grand groupe, ou une PME qui aura plutôt tendance à craindre que le précédent et néanmoins partenaire ne lui dérobe son savoir-faire, ou encore un centre de recherche dont l'objectif est la publication des données produites.

Suivant le principe éprouvé (mais pas toujours suivi) selon lequel on teste avant de déployer, le pôle Elopsys (pôle européen des hautes technologies micro-ondes, photoniques, et réseaux sécurisés en Limousin) mène actuellement un programme qui vise à garantir la confidentialité des échanges à l'intérieur du pôle entre les différents acteurs. Cette expérimentation s'appuie sur des technologies de cryptage et de mise en place de procédures de sensibilisation des divers acteurs à ces pratiques de non divulgation d'informations réputées sensibles.

A suivre, notamment avec la production d'un guide de bonnes pratiques en matière de sécurité globale.

Rédigé par La machine à café le 01/11/2006 à 21:53 | Commentaires (0) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
Exercice de prospective
  
Prosodie Corporate  fête ses 20 ans d'existence. Pour l'occasion, la société a fait réaliser par Markess International (spécialiste de l'étude de la modernisation et de la transformation des organisations avec les TIC) un livre blanc intitulé «Prospective TIC 2026». Il s'agit d'une enquête réalisée auprès de DSI, d'experts et de personnalités du monde politique, économique et juridique. Cette enquête a été croisée avec une recherche documentaire pour émettre au final des hypothèses sur le développement des nouvelles technologies de l'information et les usages des TIC pour les 20 prochaines années. Il s'agit d'un exercice qui n'engage que ses auteurs, mais qui a cependant le mérite de donner des axes de réflexion, notamment :
  1. sur la puissance évolutive des systèmes d'information (loi de Moore qui stipulait en 1965 que la puissance des microprocesseurs doublait tous les ... 18 mois), ses limites et son impact certain sur les usages et les organisations.
    Où il est fait état d'une démultiplication de la puissance informatique 8.000 fois supérieure à ce qu'elle est aujourd'hui (à condition que la loi énoncée au-dessus se vérifie ; certains émettent déjà des réserves sur le processus de refroidissement des processeurs qui reste à résoudre et les limites de fabricatio
    n de ces processeurs en dessous de l'échelle atomique)
  2. la puissance supplémentaire ainsi dégagée devrait permettre aux individus d'optimiser le processus décisionnel dans les organisations
  3. sur les usages, l'étude avance l'idée - déjà présente dans les esprits d'aujourd'hui - qu'il y aura une explosion des identités numériques et que ce phénomène engendrera des questions liées à la sécurisation et à la régularisation des échanges (pas uniquement transactionnels)
  4. l'étude avance, par ailleurs, l'hypothèse d'un développement de la traduction vocale simultanée au langage  
  5. sur l'évolution des missions des DSI, on devrait assister à un fort développement (ce qui est déjà la cas) des applications "on demand" dont le principe est "je ne paie que pour ce que je consomme". Le modèle ainsi proposé est celui de la location d'applications et non plus le modèle exclusif de l'achat de licences d'exploitation. Conséquence pour l'organisation, le rôle de la DSI évolue d'un environnement technique vers un système de gouvernance et de gestion, avec un appauvrissement de la compétence technique. Cette tendance sera cependant à nuancer : les applications jugées stratégiques pour l'organisation ne seront pas externalisées
  6. sur le poids de l'open source dans les applications futures, l'étude avance qu'il sera croissant. Cependant, il restera au niveau des couches applicatives de base (et donc standards) dès lors que toute innovation susceptible de procurer un avantage comparatif devrait être brevetée pour maintenir cet avantage. Dans ce contexte, on peut penser que l'open source sera un moyen de pression supplémentaire sur les éditeurs de logiciels qui vendent de la licence et que la tendance est à la baisse des coûts
  7. enfin, l'étude se risque à émettre la fin de "l'utopie internet" comme réseau ouvert et interconnecté. Devant les initiatives des états pour en réglementer les usages sous couvert de combattre la cybercriminalité et d'assurer des échanges "sécurisés", on devrait assister à un interventionnisme croissant de la part des états
Pour conclure, il est dit que le champ des possibles techniques est vaste et incertain.

Pour information, le MINEFI a réalisé un exercice d'analyse des tendances et des technologies émergentes pour les 5 à 10 prochaines années intitulé "Technologies clés 2010 "


Cette liste serait incomplète sans mention de l'initiative que mènent conjointement la Fing et l'Irepp (Institut de Recherche et Prospective Postale) qui a pour nom ProspecTIC 2010 avec pour objectif de réfléchir au devenir des TIC à 2010. Dans cette étude, l'approche sociétale, économique, sectorielle et culturelle est privilégiée pour comprendre l'impact de ces nouvelles technologies sur nos modes de vie, notre environnement professionnel, etc...

pour télécharger l'étude

Rédigé par La machine à café le 14/10/2006 à 21:31 | Commentaires (0) | Permalien | Trackbacks (0)

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
Rien de tel pour se remettre dans l'exercice de la logique éditoriale qu'une revue de presse sommaire des principaux évènements de l'intelligence économique et de l'innovation qui ont agité (de mon point de vue) la période estivale :
  1. Google lance un nouveau service : Archives sur Google News. Où la firme de Mountain View s'est associée aux principaux agrégateurs de sources presse (Factiva, Lexis Nexis) ainsi qu'à certains fonds de presse des éditeurs pour couvrir 200 ans d'archives. L'interface de requêtage est simple et permet pour les initiés d'effectuer des recherches à partir d'opérateurs booléens, de dates, de langues, etc ...
    Pour accéder à des artcicles contenus dans les serveurs de banques de données, on bute sur la barrière de l'identifiant et du mot de passe que possèdent les abonnés (normal). Par contre, c'est moins clair pour les fonds archives des éditeurs qui ont entre autre une logique pay per view (ou paiement à l'acte pour faire simple). J'ai fait le test sur une requête qui m'a remontée l'intégralité d'un article d'un quotidien de la presse financière, alors que dans le même temps le site du quotidien en question propose l'artcicle - via son service d'archives - moyennant paiement d'un droit de consultation. A suivre ...        
    Pour consulter l'interface d'interrogation
     
  2. Suite logique du premier point : Google (encore et toujours, j'en profite pour vous rappeler que ce site propose un recensement de tous les billets qui traitent de près ou de loin de Google - nom de code : rubrique "La vie en Google "

    Google n'aime pas les histoires belges !
    Retour sur les faits : début septembre, Google est condamné par la justice belge pour contrefaçon. Les principaux éditeurs de presse belges obtiennent ainsi gain de cause en interdisant au moteur de recherche de référencer "sans autorisation" et de remonter dans ses résultats des extraits limités d'œuvres protégées par ailleurs. On devine derrière cette condamnation les enjeux financiers pour les éditeurs de presse qui au final devraient négocier, soit individuellement, soit dans le cadre de regroupements avec Google le reversement de droits. 
    C'est aussi, pointer plus précisément le problème des copies caches html que remonte le moteur en texte intégral.  
    Pour conclure sur ce point, on notera que la justice belge applique ni plus ni moins la directive européenne sur le droit d'auteur et les droits voisins dans la société de l'information (plus connue sous l'acronyme DADVSI). Reste à savoir ce qu'il en sera côté français. Pour mémoire, l'AFP engageait en 2005 une procédure devant les tribunaux US et que le GESTE (qui regroupe les principaux éditeurs de presse en ligne) n'a pas à ce jour (à ma connaissance) engagé d'action contre Google. 
     
  3. les entreprises françaises s'orientent vers un nouveau modèle organisé autour des réseaux d'innovation. Conséquence, celles-ci sont engagées dans une tendance vertueuse et gagnent en compétitivité. Ce n'est pas moi qui le dit mais une étude de

    Forrester Research intitulée : "A French Revolution In Innovation Is Unfolding"

    Où il est question de modèles d'innovation et de culture d'innovation plutôt que de données statistiques sur la R&D, de réseaux d'innovation dans lesquels les PME deviennent partenaires des grands groupes (dans une logique de win-win)

    L'étude repose sur des entretiens menés auprès de décisionnaires et responsables IT de grandes entreprises françaises

    Pour en savoir plus : le résumé de l'étude Forrester Research

Alors à nouveau bienvenu sur Veille et Innovation année 2 ou plutôt : La machine à café année 1 !

PS. le premier billet de Veille et innovation, c'était le ...
 
... 5 octobre 2005 !!!


Rédigé par la machine à café le 06/10/2006 à 21:27 | Commentaires (0) | Permalien

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest

Il fait chaud, très chaud, voire moite.

Je vous passe les prévisions météo de la semaine. Juste pour dire qu'il est temps - pour moi - de jeter l'éponge !

Tout du moins jusqu'au prochain round. Donc pour prendre un raccourci qui devrait me mener tout droit vers ...

... les rives de la méditerranée, je pars en congés.

Retour courant août, période que je souhaite mettre à profit pour réfléchir à l'organisation de ce site tant sur le contenu, la forme que sur les fonctionnalités proposées.

Vous avez été (à fin juin) 38 602 visiteurs, soit une moyenne de 211,51 visiteurs jour sur les 6 premiers mois. Merci pour votre fidélité !

Si vous souhaitez remettre le couvert dès la rentrée, n'oubliez pas quevous avez la possibilité de vous abonner à la newsletter de Veille et Innovation (c'est dans la colonne de droite rubrique souscription par e-mail) et être informé de la reprise du service.
 
Pour ceux qui ne partent pas en congés, voici une énigme que je vous propose : quel a été le terme le plus employé dans l'ensemble des billets proposés par Veille et Innovation ? Un indice : il s'agit d'un nom propre.

Réponse à la rentrée ...


Rédigé par La machine à café le 06/07/2006 à 11:20 | Commentaires (0) | Permalien

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
les 10 technologies émergentes en 2006






Alors que l'année 2006 est déjà pas mal entamée (un quart du parcours est effectué), la revue Technology Review(an MIT enterprise) - comme chaque année - nous délivre dans son numérode mars-avril sa liste des 10 technologies émergentes sur l'année. Quelque soit leur domaine d'application, la revue note que ces technologies auront un impact rapide sur la culture, le monde des affaires et la médecine.
La liste :

  1. la nanomédecine (le développement des nanoparticules pour amener directement au sein de la cellule cancéreuse le traitement
  2. les "nanobiomechanics" (la mesure des forces microscopiques qui agissent sur les cellules)
  3. l'épigénétique (l'analyse des modifications du gène qui ne sont pas codées par la séquence d'ADN utilisée dans la détection précoce des cancers)
  4. "Nuclear reprogramming" (l'action sur la cellule souche)
  5. l'authentification universelle (le développement d'un système standard d'authentificationqui sécurise toute action sur le net tout en simplifiant les procédures d'identification)
  6. la radio cognitive (l'optimisation du spectre des radio fréquences en fonction des comportements utilisateurs et de l'état du réseau)
  7. l'interactomie comparative (la biologie moléculaire utilisée pour créer des cartes complexes d'interaction entre molécules et obtenir de nouveaux médicaments)
  8. "Diffusion Tensor Imaging" (le recours à l'image à résonance magnétique dans la compréhension de la schizophrénie)
  9. "Pervasivewireless" (le développement d'une plate-forme de communication pour des protocoles sans fil d'appareillages hétérogènes)
  10. "Stretchable silicon" (le développement de nouveaux composants électroniques pour de nouveaux usages)
PS. certains termes cités dans la revue ne sont pas traduits, n'étant pas expert dans ces domaines, j'ai préféré ne pas prendre le risque d'émettre une traduction érronée ; de même que les résumés entre paranthèses sont - je l'espère tout du moins - les plus fidèles possibles au texte d'origine. En cas d'erreur, la partie commentaires de ce billet est ouverte, n'hésitez pas à me la faire savoir

source de l'information : InternetActu

The 10 emerging technologies

voir le billet du 03.11.05 ("Technology Review en français")

On complétera enfin ce billet avec celui du 06.02.06 ("Les tendances technologiques pour 2006") qui présentait l'exercice équivalent (bien que davantage orienté technologies de l'information) mené par le Mercury News

Rédigé par la machine à café le 28/04/2006 à 11:00 | Commentaires (0) | Permalien

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest

Voilà un thème qui - sans être nouveau - revient régulièrement sur le devant de l'actualité des média économiques et financiers. Tantôt envisagé par des "futurists" patentés (ou futurologues auto-désignés), tantôt par des consultants en stratégie, management du changement amélioration des process et autres experts en marketing de l'innovation, le thème de l'innovation de rupture est souvent opposé à celui de l'innovation incrémentale (ou amélioration continue).

Le point de départ serait de considérer qu'aujourd'hui, la recherche de l'avantage concurrentiel est déterminante pour assurer la pérennité d'une entreprise (contexte de globalisation et de compétition exacerbée oblige). Seul un processus d'innovation globale et permanente est à même de maintenir cet avantage concurrentiel. On touche là les fondements du Kaisen, soit l'amélioration des processus et structures de production qui vise à éliminer toute tâche inutile et à augmenter cela faisant la productivité (soit un progrès linéaire et continu).

On le devine déjà : à cette logique qui consiste à bâtir sur de l'existant, développer des solutions auparavant éprouvées et réputées stables, vient s'opposer aujourd'hui un nouveau paradigme qui propose "un système d'innovation capable de se confronter à l'incertitude, au risque, à la turbulence" (dixit G. Hamel). Où il est fait état d'innovation de rupture.

Un article ("L'innovation de rupture, un impératif mal intégré par les entreprises") paru dans le quotidien La Tribune daté du 11.04.06 vient rappeler la nécessité de repenser l'innovation dans cette perspective de rupture. Où la rupture est abordée moyennant un subtil arbitrage entre la contrainte de gestion du court terme (amener les produits innovants sur le marché pour maintenir ses parts de marchés) et l'impératif d'anticipation (des besoins du marché) sur le plus long terme.


L'enjeu devient organisationnel : où il est question de décloisonnement des fonctions entre d'une part la recherche développement et d'autre part les marketeurs, ainsi que de transversalité des compétences dans le cadre du pilotage pluridisciplinaire de projets. Soit parvenir à une vision partagée de la stratégie d'innovation.

Bref, pour reprendre le titre d'un autre article (daté du 05.07.06) du même quotidien : "L'innovation est l'affaire de tous"




Tags : innovation
Rédigé par la machine à café le 24/04/2006 à 08:05 | Commentaires (0) | Permalien

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest


C'est dans l'air du temps. On en parlait dans le billet du 22.03.06 "La marché de l'information électronique professionnelle (IEP) en 2005"

Où il est question de convergence des outils et des contenus dans le domaine de l'information électronique professionnelle. On observe deux tendances marquées qui se retrouvent dans une logique de convergence entre d'un côté les acteurs qui détiennent la technologie (éditeurs de logiciels) et de l'autre ceux qui produisent la matière première l'information (les éditeurs de contenus, producteurs de bases de données, groupes de presse et autres agrégateurs de données).

Vu sous l'angle des éditeurs de solutions techniques, diverses stratégies sont envisageables : de partenariats négociés avec les producteurs d'information et de bases de données professionnelles, aux acquisitions par croissance externe. Celle qui cependant semble mener et organiser le marché de l'information est celle initiée par ... Google.

A propos de Google : où l'on constate que dans son objectif avoué de faire du moteur de recherche le point d'entrée pour toute information numérisée (rappelons la devise de la firme de Mountain View : "Organize the world's information and make it universally accessible and useful"), Google est engagé dans une logique d'acquisition, d'agrégation de contenus et au final d'indexation de sources d'informations diverses. Cette stratégie ne se mène pas sans heurts (cf. l'initiative Google News attaquée par les éditeurs de presse qui ont allumé la contre-offensive - dixit "légale" - sur le marché français en mai 2005 avec le lancement d'AlerteInfo qui n'est autre qu'un agrégateur de flux d'informations temps réel sur les principaux titres de la presse nationale, technique et professionnelle). Elle peut aussi prendre une forme plus "apaisée" avec notamment Google Scholar qui permet au moteur de recherche d'indexer des contenus et sources documentaires issus du monde académique.

Du point de vue des producteurs de contenus, le mouvement est lui aussi engagé vers une convergence croissante des données et des outils. Le cas de Factiva Search 2.0 (interface de recherche proposée par l'agrégateur éponyme) envisagé dans un billet récent démontre la volonté croissante des professionnels du contenu de se placer sur le terrain de jeu des éditeurs de solutions techniques. Ces producteurs d'information (la matière première) proposent des fonctionnalités techniques additionnelles (restitution de requêtes sous forme graphique, modules d'analyse, intégration des résultats dans une gestion dynamique des flux d'information dans l'entreprise, etc...) qui leur confèrent un élément de différenciation qui doit être perçu positivement par les "knowledge workers". Certains y verront une réaction à l'action des premiers et de Google en particulier.

Force est de constater que les solutions proposées deviennent globales : le contenu est accessible depuis une interface de recherche qui intègre des extensions vers des applications et outils d'aide à la prise de décision. On parle de "business intelligence" et on constate que le poste client ou le réseau de l'entreprise est devenu l'enjeu pour organiser l'environnement de travail des "knowledge workers".

A suivre ...

On complétera avec le billet du 01.03.06 ("Google et la recherche d'information presse")


Rédigé par lamachineacafe le 27/03/2006 à 19:25 | Commentaires (0) | Permalien

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest


Aujourd'hui, c'est de notoriété (cf le billet daté du 16.01.2006 "Google et l'information professionnelle") : les entreprises utilisent de plus en plus les moteurs de recherche - et Google en particulier - pour repérer des contenus presse.

On peut penser que dans ce contexte les acteurs classiques de "l'information professionnelle" ne resteront pas sans réagir. D'ailleurs, la réaction s'organise déjà :
  1. d'un point de vue légal, du côté des éditeurs qui intentent des actions en justice à l'égard du moteur de recherche au motif que ce dernier permet à tout internaute d'accéder gratuitement à un contenu commercialisé par ailleurs par ces mêmes éditeurs et leurs intermédiaires
  2. d'un point de vue marketing, avec le développement de plates-formes d'agrégation de fils d'information, de dépêches et plus largement de contenus presse, voire de rumeurs.
Premier élément d'appréciation : jusqu'à récemment l'information produite par les éditeurs était diffusée sur le marché par l'intermédiaire de services d'agrégation. Les principaux étant proposés par les sociétés Lexis Nexis, Thomson Business Intelligence et Factiva.
Arrêtons nous quelques instants sur cette dernière (filiale de Reuters et Dow Jones) dont le positionnement est on ne peut plus clair : réorienter les recherches en environnement professionnel effectuées par les "iWorkers" vers des solutions professionnelles qui garantiront un accès à une information non accessible depuis des sites internet gratuits.

Dans ce contexte, Factiva développe via un livre blanc ("The Hidden Costs of Information Work" - avril 2005) un argumentaire déjà servi par d'autres acteurs de l'information professionnelle (c'est de bonne guerre) sur les coûts cachés en matière de recherche et de gestion de l'information suivant le principe que mieux vaut souscrire à un service d'agrégation qui remonte des informations validées que de rechercher sur le "web ouvert" (nonobstant gratuit) des informations que l'on ne trouve pas et qui engendrent des coûts (temps homme) non négligeables.

La solution proposée par l'agrégateur a pour dénomination : Factiva Search 2.0. L'interface de recherche est proche de celle que propose les principaux moteurs de recherche et la partie résultat est agrémentée de filtres qui permettent d'organiser plus efficacement l'information remontée par catégorisation de celles-ci, le tout dans un contexte de navigation simple. Cette interface balaie un fonds constitué de près de 9.000 sources de presse et plus de 3.500 sites d'actualité en ligne. Des alertes sont paramétrables par ailleurs.

Précision : ce type de service - qui à l'origine s'adresse à des veilleurs et documentalistes en entreprise - est proposé aujourd'hui dans un contexte d'ouverture de la cible à des non-professionnels de l'information avec l'idée que ces personnes retrouveront une interface déjà connue (celle des principaux moteurs de recherche). Attention cependant le droit d'accès indique clairement que ce service s'adresse aux entreprises (compter plus de 2.800 euros par mois pour 15 utilisateurs). A ce prix là, pas sûr que l'argument des coûts cachés en "open web" soit suffisant pour recruter de nouveaux clients. La plate-forme est proposée depuis janvier en version bêta. A suivre ...


Deuxième élément pour étayer la réflexion : on peut penser que la réaction ne relève pas que du seul fait des intermédiaires et diffuseurs d'information professionnelle, mais aussi des éditeurs eux-mêmes. Force est de constater que ces derniers - les gros éditeurs tout du moins qui fondent leur notoriété sur des titres de presse reconnus dans leur domaine - sont engagés dans une tendance qui consiste à reprendre la maîtrise de la relation directe avec le client final (l'entreprise).


Assiste t-on sur le marché de l'information professionnelle à un match tripartite avec d'un côté les moteurs de recherche, de l'autre les éditeurs de contenus et les diffuseurs ou agrégateurs qui eux-mêmes jouent leur match ?


On peut aussi se demander si au final, Google n'est pas l'arbitre - pas franchement neutre - qui organise la confrontation et le marché au demeurant ?

Pour télécharger le livre blanc "The Hidden Costs of Information Work"

Rédigé par lamachineacafe le 01/03/2006 à 07:50 | Commentaires (0) | Permalien

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest


On parle de plus en plus de "nouveaux modèles économiques" pour la diffusion de l'information (au sens large du terme). L'actualité récente (voire les difficultés financières de certains quotidiens de la presse nationale ou régionale) montre que l'accès du public à l'information ne se fait plus exclusivement par l'intermédiaire des média traditionnels (télévision, radio, presse écrite).

Avec la propagation croissante d'internet au sein du grand public (notamment grâce aux offres d'accès haut débit des FAI) l'internet est aujourd'hui considéré comme un média à part entière.

Cependant peut-on assimiler internet à un média ? Rien n'est moins sur.

Pour reprendre une définition du terme média, on considère qu'il s'agit d'un ensemble de moyens de diffusion de masse de l'information. Une lecture stricte de cette définition laisse penser que par média il faut entendre un moyen impersonnel de diffusion d'informations adressées uniformément sur l'ensemble d'une cible sans retour escompté. En termes marketing, on parle de "one-to-many".

Avec le développement des applications de nouvelle génération (tendance Web 2.0), l'interactivité devient la règle à tel point que le consommateur est invité à devenir acteur.
La forme de participation peut varier :
  1. chroniqueur (pour reprendre un terme régulièrement employé) qui émet régulièrement des billets via les weblogs
  2. agrégateur dans le sens où l'utilisateur peut agréger un certain nombre de sources d'information et les restituer à la communauté sous forme de bookmark partagé, de partage de flux RSS, etc ...
  3. éditeur où l'utilisateur peut faire remonter des nouvelles soumises à une communauté qui va elle-même se prononcer sur l'intérêt que ces nouvelles constituent en vue d'une "publication" (ce que propose un outil de "Peer Production News" ou d'édition sélective et collaborative de dépêches du type Digg)
  4. modérateur, rôle que certains "experts" peuvent assurer depuis leurs weblogs en organisant le débat sur un sujet d'actualité à partir de la fonctionnalité commentaires
On peut d'ailleurs penser que ce phénomène n'est pas lié uniquement à l'écrit et qu'avec le développement du Podcasting , l'interaction mêlera divers modes de communication : voix, images (animées ou non) et écrit.

Mais alors si Internet n'est pas ou n'est plus un média, qu'est-ce ?

Les adeptes de l'internet collaboratif (tendance Web 2.0) avancent déjà l'idée qu'Internet est devenu une plate-forme d'échanges de données où l'information circule de poste en poste et s'enrichit au fur et à mesure des échanges.

Cela me rappelle étrangement le schéma de Shannon Weaver - Théorie des systèmes de communication (voir le billet du 09.01.2006 sur la validité de l'information) et le principe de rétroaction (ou feedback). Pas vous ?




Rédigé par lamachineacafe le 10/02/2006 à 14:05 | Commentaires (0) | Permalien

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest


C'est Noël après l'heure !

Le 25 décembre dernier le Mercury News annonçait les 10 principales tendances en matière de développement technologique de l'année à venir : "Top 10 tech trends for 2006"
Résumé :
  1. le développement des connexions et réseaux sans fil
  2. des téléphones mobiles multi-usages
  3. le développement de la téléphonie sur internet
  4. le développement des web services qui permettent le transfert du bureau personnel (documents et applications utilisés) sur internet
  5. des avancées significatives en matière de recherche sur les cellules souches
  6. des progrès dans l'élaboration de vaccins anti-grippe
  7. l'accès croissant de start up innovantes au marché mondial en voie de globalisation
  8. le développement du vidéo blog (appelé "vlog")
  9. le développement de la vidéo à la demande indifféremment de l'appareil de réception (TV, PC, téléphone mobile, lecteurs numériques divers, consoles de jeux)
  10. le développement de "technologies propres"
Pour lire l'article

Tags : innovation
Rédigé par lamachineacafe le 06/02/2006 à 15:00 | Commentaires (0) | Permalien

Facebook Google + Twitter LinkedIn Del.icio.us Google Furl Y! Technorati Viadeo Pinterest
1 2 3 4 5
Syndication
RSS ATOM RSS comment PODCAST Mobile

Add to Netvibes

Abonnement Bloglines

Add to Google

/a_la_une

Subscribe in NewsGator Online



Vous n'utilisez pas d'agrégateur de flux RSS Vous pouvez recevoir - dès parution - les billets de ce weblog sur votre outil de messagerie en vous inscrivant ci-dessous


entrez votre adresse e-mail :