Je me sauve pour 2 semaines de vacances au pays basque.
Aussi, je vous "laisse les clefs", fidèles lecteurs de mes divagations, en vous plaçant à la une de Media & Tech pour les 15 j qui viennent.
Vous êtes plus de 1'500 à me lire régulièrement: c'est plusieurs fois plus que ce que je pensais trouver au mieux comme camarades de dialogue en lançant ce blog. Merci!
Rien donc de plus logique que de vous mettre en avant à travers les "bobines" que vous voulez bien publier sur MyBlogLog qui est le seul service (à ma connaissance - merci de me signaler d'autres) qui me permet actuellement de placer une image sur vos pseudos (pour autant que nous n'utilisiez pas des icônes ésotériques...)
PS: Je ne connais que 70+ d'entre vous à ce moment via MyBloglog. Les autres, mettez-vous sur MyBloglog laisser des traces de vos passages et contributions dans la blogosphère. Pour voir l'évolution en direct de cette communauté MyBlogLog, allez dans la colonne de droite de ce blog.
Bon courage à ceux qui bossent et bonnes vacances à ceux qui comme moi partent
Source: blog Media & Tech (par didier durand)
jeudi, août 16, 2007
Commentaire du jour [23] - Evolution de l'accès à l'information (par Dominique)
[Commentaire du jour sur Media & Tech: quoi et pourquoi - Les autres commentaires du jour]
A propos de mon billet sur la nouvelle concurrence pour l'audience à travers une indexation toujours plus rapide du web par Google, Dominique nous fait passer des réflexions pleines de conséquences sur l'évolution de l'accès à l'information
"Google News reste l'agrégateur de sites d'information, le portail d'accès à l'actualité pour un grand nombre d'utilisateurs, je pense notamment aux très nombreuses personnes n'utilisant pas de lecteur RSS.
Rapidité d'indexation : il faut donc s'attendre à des positionnement de plus en plus éphémères.
Fréquence de mise à jour : si c'est le trait majeur des blogs, ça n'en est pas le privilège. Tout gestionnaire de contenu (CMS) dont les blogs sont une catégorie permet la mise à jour aisée de sites Web.
David n'est peut-être pas celui qu'on croit. Regardons Wikipedia et son excellent positionnement dans les résultats de Google. S'il est là c'est parce que globalement, Google juge la réponse Wikipedia pertinente pour l'internaute. S'il y a des places à occuper ce sont bien les 10 de la première page, et cela par des sites importants et de référence.
Je crois beaucoup à la professionnalisation des sites medias - dont des blogs - bâtissant des ensembles de millions de documents, un peu sur le modèle des comparateurs de prix et e-commerçants qui occupent littéralement des univers sémantiques entiers sur les 3 premières pages de Google.
Les blogs en se multipliant sont autant de poissons rouges dans un aquarium pas lavé, on les voit de moins en moins. A eux bientôt la longue tr.. énumération des pages suivantes de résultats.
Bref pas de mise à mort ni de miracles, mais une sélection naturelle (ou sponsorisée ;)) qui se poursuit... "
Une autre vision de la sélection darwinienne des contenus / dépêches sur le web. Merci dominique!
Source: blog Media & Tech (par didier durand)
A propos de mon billet sur la nouvelle concurrence pour l'audience à travers une indexation toujours plus rapide du web par Google, Dominique nous fait passer des réflexions pleines de conséquences sur l'évolution de l'accès à l'information
"Google News reste l'agrégateur de sites d'information, le portail d'accès à l'actualité pour un grand nombre d'utilisateurs, je pense notamment aux très nombreuses personnes n'utilisant pas de lecteur RSS.
Rapidité d'indexation : il faut donc s'attendre à des positionnement de plus en plus éphémères.
Fréquence de mise à jour : si c'est le trait majeur des blogs, ça n'en est pas le privilège. Tout gestionnaire de contenu (CMS) dont les blogs sont une catégorie permet la mise à jour aisée de sites Web.
David n'est peut-être pas celui qu'on croit. Regardons Wikipedia et son excellent positionnement dans les résultats de Google. S'il est là c'est parce que globalement, Google juge la réponse Wikipedia pertinente pour l'internaute. S'il y a des places à occuper ce sont bien les 10 de la première page, et cela par des sites importants et de référence.
Je crois beaucoup à la professionnalisation des sites medias - dont des blogs - bâtissant des ensembles de millions de documents, un peu sur le modèle des comparateurs de prix et e-commerçants qui occupent littéralement des univers sémantiques entiers sur les 3 premières pages de Google.
Les blogs en se multipliant sont autant de poissons rouges dans un aquarium pas lavé, on les voit de moins en moins. A eux bientôt la longue tr.. énumération des pages suivantes de résultats.
Bref pas de mise à mort ni de miracles, mais une sélection naturelle (ou sponsorisée ;)) qui se poursuit... "
Une autre vision de la sélection darwinienne des contenus / dépêches sur le web. Merci dominique!
Source: blog Media & Tech (par didier durand)
mercredi, août 15, 2007
Commentaire du jour [22] - la vision de Tim Berners-Lee et le web sémantique (par Nicolas)
[Commentaire du jour sur Media & Tech: quoi et pourquoi - Les autres commentaires du jour]
L'objectif de mon billet "Web 3.0,...,N.0 : vie online, transparence et publicité" n'était pas d'aborder le Web sémantique et sa technologie (je l'ai déjà fait) ni la vision de Tim Berners-Lee. Je voulais seulement essayer de mieux comprendre les modèles économiques qui sous-tendent les évolutions technologiques actuels.
Dans sa suite, j'ai cité la traduction de l'article de N. Carr par Jean-Marie dans laquelle le web sémantique était abordé.
Cette citation a généré le très long commentaire de Nicolas sur le web sémantique et la vision de Sir Tim Berners-Lee.
Vu la longueur et la qualité de ce commentaire, je me devais de le republier. Le voici donc:
(PS @Nicolas: j'enmènerai le long article dont tu parles à la fin dans mes lectures de toutes prochaines vacances...)
"Parce que je pense que beaucoup de monde fait fausse route, je vous propose une vision différente de ce qu’est le web 2.0. Tout d’abord j’aimerais lancer un pavé dans la mare en proclament clairement que le web 2.0 n’existe pas, nous sommes actuellement toujours au web 1.0 et je vais m’expliquer. Il y a un fossé énorme entre ce « pourquoi le web a été initialement crée » et « comment le web a été utilisé ». Le web a été réellement créé suivant la vision d’un homme : Tim Berners Lee. Et on ne peut décemment pas parler de web sans parler de Tim. Lire « Weaving the web », le livre ou Tim relate la création du web a été une expérience importante pour moi, il montre comment la technologie peut servir une idéologie. Malheureusement son rêve d’un web « où nous aurions un choix illimité car nous n’aurions pas à suivre ce qu’un producteur de télé a décidé de nous montrer » n’a pas été au début partagé et compris. Il a fallu attendre 10 ans pour que la masse comprenne réellement la vrai nature du web : l’interactivité, le partage, l’échange, le dialogue, bref tout ce qui définit le web 2.0 et qui a en réalité toujours existé. Je ne dis pas que nous sommes stupides, je dis seulement qu’il faut parfois laisser le temps aux choses. Je vous propose une traduction d’un passage du livre : (J’ai fait ce que j’ai pu) « Mon espoir et ma foi est que nous sommes entrainés naturellement à interagir avec les autres tout en faisant partie d’un plus grand système. Si nous arrivions à produire un système qui nous permet de travailler harmonieusement, ce serait une vraie métamorphose. Je pense, et j’espère, que cela va arriver progressivement, et il en résulterait une importante restructuration de la société.
Une société qui pourrait avancer de façon interactive en suivant la voix des communautés, et cela serait un changement majeur. Si nous établissons une base viable et essayons de nouvelles façons d’interagir sur le web, nous pourrions trouver le moyen le définir de nouvelles structures financières, éthiques, culturelle et gouvernemental auxquelles nous pourrions choisir d’appartenir, plutôt que de choisir des structures physique qui nous entourent. Ces structures deviendront importante dans le monde actuel et de nouveaux systèmes démocratiques prendrons place à différent niveaux ». Tim Berners Lee, Weaving the web L’idée de Tim a passé la 1ère bulle, attendu plus de 10 ans, et finalement le web 2.0 est apparu. Qui au passage ne devrait pas s’appeler le web 2.0 mais simplement « LE web ». Pas de doute, les idées que véhicule le web 2.0 sont sur la bonne voie, le web n’a jamais été autant démocratisé et les habitudes des surfers sont plus proches que jamais de la vision de Berners Lee. Pour moi et pour beaucoup, la prochaine grande étape sera l’émergence d’une nouvelle technologie. Et non ce ne sera pas les RIAs ou la 3D, ou n’importe quel interface utilisateur complexe et bizarre. Internet a encore besoin de plus d’accessibilité et d’interopérabilité avant de devenir plus complexe. Les pages web sont suffisamment riches, on ne doit pas augmenter le fossé séparant les gens en bonne santé des personnes handicapés (20% de la population). Alors quel est l’avenir du web ? Et si Tim avait la réponse (sacré Tim, toujours lui) … Le Web Sémantique pourrait nous faire entrer dans une nouvelle ère, une ère des données, une infinité de base de données connecté, un web compréhensible par la machine, un meilleur web pour un meilleur monde, le web de Tim. Le web sémantique est un domaine de recherche principalement encadré par le W3C, malheureusement je ne connais pas d’article en français faisant un bon résumé pas trop technique. C’est l’un des problèmes actuel du web sémantique, c’est un domaine encore très académique et pas vraiment « grand public ». Cependant si vous parlez anglais et que vous avez un peu de temps (25 pages). Je vous conseil de lire l’article suivant: Nova Spivack - The Meaning and Future of the Semantic Web"
Source: blog Media & Tech (par didier durand)
L'objectif de mon billet "Web 3.0,...,N.0 : vie online, transparence et publicité" n'était pas d'aborder le Web sémantique et sa technologie (je l'ai déjà fait) ni la vision de Tim Berners-Lee. Je voulais seulement essayer de mieux comprendre les modèles économiques qui sous-tendent les évolutions technologiques actuels.
Dans sa suite, j'ai cité la traduction de l'article de N. Carr par Jean-Marie dans laquelle le web sémantique était abordé.
Cette citation a généré le très long commentaire de Nicolas sur le web sémantique et la vision de Sir Tim Berners-Lee.
Vu la longueur et la qualité de ce commentaire, je me devais de le republier. Le voici donc:
(PS @Nicolas: j'enmènerai le long article dont tu parles à la fin dans mes lectures de toutes prochaines vacances...)
"Parce que je pense que beaucoup de monde fait fausse route, je vous propose une vision différente de ce qu’est le web 2.0. Tout d’abord j’aimerais lancer un pavé dans la mare en proclament clairement que le web 2.0 n’existe pas, nous sommes actuellement toujours au web 1.0 et je vais m’expliquer. Il y a un fossé énorme entre ce « pourquoi le web a été initialement crée » et « comment le web a été utilisé ». Le web a été réellement créé suivant la vision d’un homme : Tim Berners Lee. Et on ne peut décemment pas parler de web sans parler de Tim. Lire « Weaving the web », le livre ou Tim relate la création du web a été une expérience importante pour moi, il montre comment la technologie peut servir une idéologie. Malheureusement son rêve d’un web « où nous aurions un choix illimité car nous n’aurions pas à suivre ce qu’un producteur de télé a décidé de nous montrer » n’a pas été au début partagé et compris. Il a fallu attendre 10 ans pour que la masse comprenne réellement la vrai nature du web : l’interactivité, le partage, l’échange, le dialogue, bref tout ce qui définit le web 2.0 et qui a en réalité toujours existé. Je ne dis pas que nous sommes stupides, je dis seulement qu’il faut parfois laisser le temps aux choses. Je vous propose une traduction d’un passage du livre : (J’ai fait ce que j’ai pu) « Mon espoir et ma foi est que nous sommes entrainés naturellement à interagir avec les autres tout en faisant partie d’un plus grand système. Si nous arrivions à produire un système qui nous permet de travailler harmonieusement, ce serait une vraie métamorphose. Je pense, et j’espère, que cela va arriver progressivement, et il en résulterait une importante restructuration de la société.
Une société qui pourrait avancer de façon interactive en suivant la voix des communautés, et cela serait un changement majeur. Si nous établissons une base viable et essayons de nouvelles façons d’interagir sur le web, nous pourrions trouver le moyen le définir de nouvelles structures financières, éthiques, culturelle et gouvernemental auxquelles nous pourrions choisir d’appartenir, plutôt que de choisir des structures physique qui nous entourent. Ces structures deviendront importante dans le monde actuel et de nouveaux systèmes démocratiques prendrons place à différent niveaux ». Tim Berners Lee, Weaving the web L’idée de Tim a passé la 1ère bulle, attendu plus de 10 ans, et finalement le web 2.0 est apparu. Qui au passage ne devrait pas s’appeler le web 2.0 mais simplement « LE web ». Pas de doute, les idées que véhicule le web 2.0 sont sur la bonne voie, le web n’a jamais été autant démocratisé et les habitudes des surfers sont plus proches que jamais de la vision de Berners Lee. Pour moi et pour beaucoup, la prochaine grande étape sera l’émergence d’une nouvelle technologie. Et non ce ne sera pas les RIAs ou la 3D, ou n’importe quel interface utilisateur complexe et bizarre. Internet a encore besoin de plus d’accessibilité et d’interopérabilité avant de devenir plus complexe. Les pages web sont suffisamment riches, on ne doit pas augmenter le fossé séparant les gens en bonne santé des personnes handicapés (20% de la population). Alors quel est l’avenir du web ? Et si Tim avait la réponse (sacré Tim, toujours lui) … Le Web Sémantique pourrait nous faire entrer dans une nouvelle ère, une ère des données, une infinité de base de données connecté, un web compréhensible par la machine, un meilleur web pour un meilleur monde, le web de Tim. Le web sémantique est un domaine de recherche principalement encadré par le W3C, malheureusement je ne connais pas d’article en français faisant un bon résumé pas trop technique. C’est l’un des problèmes actuel du web sémantique, c’est un domaine encore très académique et pas vraiment « grand public ». Cependant si vous parlez anglais et que vous avez un peu de temps (25 pages). Je vous conseil de lire l’article suivant: Nova Spivack - The Meaning and Future of the Semantic Web"
Source: blog Media & Tech (par didier durand)
MySpace annonce ses premiers profits: 10 M$ sur 550 M$
MySpace vient d'annoncer ses premiers profits: 10 millions de dollars sur un chiffre d'affaires de 550 millions de dollars pour son année fiscale qui se termine au 30 juin. Le cap des 800 millions de dollars est prévu pour l'année 2008 qui commence. Il y a ici clairement une influence super-positive du deal à revenus garantis avec Google
Certains trouveront la marge faible mais ce n'est - à mon avis - qu'un début: dans ce genre de business UGC ("User Generated Content") où ce sont finalement les utilisateurs qui font le boulot (!...). la courbe des revenus a le plus souvent une pente bien plus élevée que la courbe des coûts. Donc, dès que l'on passe le point mort, c'est ensuite l'explosion des bénéfices!
Un point intéressant autour de ces 550 millions de dollars déjà réalisés par un seul site, certes phare dans le monde de l'UGC: ne rendent-ils pas la prédiction de eMarketer à 4.3 milliards de dollars pour 2011 bien trop pessimiste? (selon cette même analyseMarketer, MySpace c'est 50%+ du marché publicitaire UGC 2007 puisqu'ils l'évaluent à 1.04 milliards)
En tout cas, il a vraiment eu le nez creux, Ruppert Murdoch en achetant le site (seul contre le reste de la planète....), cela s'avère déjà une super bonne affaire!
Source: blog Media & Tech (par didier durand)
Certains trouveront la marge faible mais ce n'est - à mon avis - qu'un début: dans ce genre de business UGC ("User Generated Content") où ce sont finalement les utilisateurs qui font le boulot (!...). la courbe des revenus a le plus souvent une pente bien plus élevée que la courbe des coûts. Donc, dès que l'on passe le point mort, c'est ensuite l'explosion des bénéfices!
Un point intéressant autour de ces 550 millions de dollars déjà réalisés par un seul site, certes phare dans le monde de l'UGC: ne rendent-ils pas la prédiction de eMarketer à 4.3 milliards de dollars pour 2011 bien trop pessimiste? (selon cette même analyseMarketer, MySpace c'est 50%+ du marché publicitaire UGC 2007 puisqu'ils l'évaluent à 1.04 milliards)
En tout cas, il a vraiment eu le nez creux, Ruppert Murdoch en achetant le site (seul contre le reste de la planète....), cela s'avère déjà une super bonne affaire!
Source: blog Media & Tech (par didier durand)
mardi, août 14, 2007
Google = 100 milliards de pages vue par mois - Youtube approx. 20 milliards
Même si la page vue ne veut plus dire vraiment grand chose à cause de la technologie AJAX, Michael Arrington reprend quand même des chiffres intéressants sur ce thème en provenance de Comscore:
Je note aussi la croissance de ce trafic: +30% . Clairement à corrélér à la croissance des revenus de Google et à ceux de l'industrie publicitaire en ligne (normal vu l'hégémonie googlienne...) en général!
PS: Cela me rappelle un ancien billet sur des chiffres aussi impressionnants chez Ebay
Source: blog Media & Tech (par didier durand)
- Google approche les 100 milliards d'impressions de pages chaque mois. C'est plus de 38'000 pages/seconde en moyenne. On voit mieux pourquoi il faut 1 million de serveurs pour faire ceci....
- sa filiale Youtube est autour des 16 milliards. Pour elle, vu la forme d'utilisation de ce contenu (vidéo), c'est plutôt la durée de visite qui importe!
Je note aussi la croissance de ce trafic: +30% . Clairement à corrélér à la croissance des revenus de Google et à ceux de l'industrie publicitaire en ligne (normal vu l'hégémonie googlienne...) en général!
PS: Cela me rappelle un ancien billet sur des chiffres aussi impressionnants chez Ebay
Source: blog Media & Tech (par didier durand)
lundi, août 13, 2007
iPhone: 104 pages de facture détaillée pour un montant de 0.00 dollars!
Un peu plus d'un mois après le lancement de l'iPhone, les premières factures arrivent.
Ben Kuchera sur Ars Technica détaille les siennes: 104 pages de facture détaillée sur 52 feuilles de papier comme celle ci-dessous.
La raison: chaque transfert de données est décrit en détails alors que cette activité est facturée de manière forfaitaire. Ce n'est pas forcément la faute de AT&T car la réglementation à suivre par les opérateurs mobiles impose ce genre de choses.
Dans un monde où les constructeurs comme Apple ou Blackberry font tout pour rendre les transactions avec Internet de plus en plus transparentes, donc de plus en courtes et nombreuses, il paraît suranné de continuer à (devoir) livrer le pédigrée de chacune de ces micro-interactions sur le papier. Ces téléphones disposent d'un bonne interface web...
Qui les regarde vraiment ? D'ailleurs quand on essaie, c'est incompréhensible: les informations unécessaires (vers quel site web, etc...) manquent! Je parle par expérience personnelle... (voir aussi la page ci-dessus)
Il y a vraiment des arbres qui doivent se retourner dans leurs tombes à voir comment ils finissent 100% gaspillés ....
PS: la réputation d'"élégance épurée" d'Apple ne va-t-elle pas en prendre un coup par assimilation?
[Via juerg@namics]
Source: blog Media & Tech (par didier durand)
Ben Kuchera sur Ars Technica détaille les siennes: 104 pages de facture détaillée sur 52 feuilles de papier comme celle ci-dessous.
La raison: chaque transfert de données est décrit en détails alors que cette activité est facturée de manière forfaitaire. Ce n'est pas forcément la faute de AT&T car la réglementation à suivre par les opérateurs mobiles impose ce genre de choses.
Dans un monde où les constructeurs comme Apple ou Blackberry font tout pour rendre les transactions avec Internet de plus en plus transparentes, donc de plus en courtes et nombreuses, il paraît suranné de continuer à (devoir) livrer le pédigrée de chacune de ces micro-interactions sur le papier. Ces téléphones disposent d'un bonne interface web...
Qui les regarde vraiment ? D'ailleurs quand on essaie, c'est incompréhensible: les informations unécessaires (vers quel site web, etc...) manquent! Je parle par expérience personnelle... (voir aussi la page ci-dessus)
Il y a vraiment des arbres qui doivent se retourner dans leurs tombes à voir comment ils finissent 100% gaspillés ....
PS: la réputation d'"élégance épurée" d'Apple ne va-t-elle pas en prendre un coup par assimilation?
[Via juerg@namics]
Source: blog Media & Tech (par didier durand)
Web 2.0, 3.0., N.0: l'article complet de Nicholas Carr en version FR
Dans mon billet "Web 3.0,...,N.0 : vie online, transparence et publicité", je n'ai cité qu'une partie de la réflexion de Nick Carr sur l'évolution actuels des modèles de fonctionnement / d'affaires de l'Internet.
Jean-Marie lui, l'a totalement repris, traduit et publié son blog.
On y trouve des passages comme:
"Dans la culture du Googleplex, l’évolution des générations Web doit ressembler à quelque chose du genre :
Source: blog Media & Tech (par didier durand)
Jean-Marie lui, l'a totalement repris, traduit et publié son blog.
On y trouve des passages comme:
"Dans la culture du Googleplex, l’évolution des générations Web doit ressembler à quelque chose du genre :
- Web 1.0 : le Web comme une extension des disques durs de nos PC (et de nos Mac...)
- Web 2.0 : le Web comme une plateforme applicative complémentaire aux systèmes d’exploitation et aux disques durs
- Web 3.0 : le Web comme l’informatique universelle en grille destinée à remplacer systèmes d’exploitation et disques durs
- Web 4.0 : le Web comme intelligence artificielle complémentaire à la race humaine
- Web 5.0 : le Web comme intelligence artificielle se substituant à la race humaine"
Source: blog Media & Tech (par didier durand)
vendredi, août 10, 2007
Web 3.0,...,N.0 : vie online, transparence et publicité
J'aime beaucoup ce récent billet de Nicholas Carr, mon "poil à gratter" favori, sur le business model en vogue du Web 2.0 qu'il étend d'ailleurs aux futures autres générations (3.0, 4.0, ....N.0)
N. Carr attribue ce modèle à Google mais au vu des récentes annonces de Microsoft, on peut sûrement dire que c'est celui des titans de GYM (Google, Yahoo, Microsoft).
C'est une version caustique de la stratégie annoncée pour Microsoft par Ray Ozzie
On peut le synthétiser en "faire vivre en ligne en transparence pour sponsoriser"
Selon Carr, tous les combats que mènent Google actuellement (wifi gratuit, fréquences mobiles, open source, services à la Feedburner, Google Maps & Google Mail rendus gratuits, etc...) sont destinés à détruire toutes les barrières économiques, technologiques et légales afin d'enchaîner 3 étapes:
Cette analyse de Carr me fait par contre percevoir le "SaaS" sous un angle nouveau: l'architecture infomatique idéale pour forcer la réalisation de 1. et 2. ci-dessus. 3. découle ensuite naturellement....
la définition qui en découle: "Web 3.0 involves the disintegration of digital data and software into modular components that, through the use of simple tools, can be reintegrated into new applications or functions on the fly by either machines or people."
On va donc désintégrer nos systèmes informatiques en leurs services les plus élémentaires et les recombiner en temps réel et sans effort pour réaliser des applications de plus en plus personnalisées et personnelles.
Encore un peu ésotérique et lointain, certes! Mais, il semble bien que cette évolution vers un Linternux unifié et global soit le sens de l'histoire (actuelle...)
Conclusion de Carr: mettez tout cela dans votre (Yahoo) pipe pour le fumer!
Source: blog Media & Tech (par didier durand)
N. Carr attribue ce modèle à Google mais au vu des récentes annonces de Microsoft, on peut sûrement dire que c'est celui des titans de GYM (Google, Yahoo, Microsoft).
C'est une version caustique de la stratégie annoncée pour Microsoft par Ray Ozzie
On peut le synthétiser en "faire vivre en ligne en transparence pour sponsoriser"
Selon Carr, tous les combats que mènent Google actuellement (wifi gratuit, fréquences mobiles, open source, services à la Feedburner, Google Maps & Google Mail rendus gratuits, etc...) sont destinés à détruire toutes les barrières économiques, technologiques et légales afin d'enchaîner 3 étapes:
- nous faire passer la majeure partie de notre vie online
- rendre cette actitivité virtuelle traçable et transparente
- sponsoriser les services gratuites utilisés lors de cette activité par de la publicité (voir la fin de ce billet)
Cette analyse de Carr me fait par contre percevoir le "SaaS" sous un angle nouveau: l'architecture infomatique idéale pour forcer la réalisation de 1. et 2. ci-dessus. 3. découle ensuite naturellement....
la définition qui en découle: "Web 3.0 involves the disintegration of digital data and software into modular components that, through the use of simple tools, can be reintegrated into new applications or functions on the fly by either machines or people."
On va donc désintégrer nos systèmes informatiques en leurs services les plus élémentaires et les recombiner en temps réel et sans effort pour réaliser des applications de plus en plus personnalisées et personnelles.
Encore un peu ésotérique et lointain, certes! Mais, il semble bien que cette évolution vers un Linternux unifié et global soit le sens de l'histoire (actuelle...)
Conclusion de Carr: mettez tout cela dans votre (Yahoo) pipe pour le fumer!
Source: blog Media & Tech (par didier durand)
jeudi, août 09, 2007
SEO: Goldorank - A quel rang êtes-vous sur les moteurs?
En commentaire à mon billet d'hier sur l'indexation temps réel du Web par Google, mon camarade blogosphérique Luc m'a fait connaître une extension très utile de Firefox: Goldorank.
Elle permet de savoir à quelle position on se trouve sur les divers moteurs pour une requête de recherche par mots-clefs.
Exemple ci-dessous: avec "User Generated Content" pour ce billet de Media & Tech: je suis (fièrement...) 2ème derrière Wikipedia, la machine à Pagerank.[Cliquez l'image pour zoomer si besoin]
Vraiment un outil à mettre dans sa musette du spécialiste SEO. Luc, un grand merci! Goldorank va m'être très utile - aussi professionnellement.
Source: blog Media & Tech (par didier durand)
Elle permet de savoir à quelle position on se trouve sur les divers moteurs pour une requête de recherche par mots-clefs.
Exemple ci-dessous: avec "User Generated Content" pour ce billet de Media & Tech: je suis (fièrement...) 2ème derrière Wikipedia, la machine à Pagerank.[Cliquez l'image pour zoomer si besoin]
Vraiment un outil à mettre dans sa musette du spécialiste SEO. Luc, un grand merci! Goldorank va m'être très utile - aussi professionnellement.
Source: blog Media & Tech (par didier durand)
mercredi, août 08, 2007
Le "grand" index de Google à jour en temps réel! L'accès à l'audience nivelé?
Quand j'ai mis cet avant-dernier billet en ligne sur le hack du iPhone, j'ai eu a surprise d'avoir déjà des "hits organiques" en provenance de google.fr moins de 20 minutes après.
J'ai crû que c'était un "coup de chance". Et bien, pas du tout, c'est maintenant le standard!
Matt Cutts, le gourou des moteurs de recherche, confirme les progrès (les rendant ainsi publics...) de Google, son employeur, en la matière:
Conséquences:
Conclusion: nous entrons dans l'ère de la publication et de l'information universelles et instantanées. Plus besoin de savoir sur quels sites chercher pour avoir la primauté d'une information et pouvoir l'exploiter tant qu'elle n'est pas reprise par les moteurs...
PS (intéressant quand même...): à propos de Pagerank, une conséquence qui aura peut-être ses effets pour l'accès à l'information. C'est en général la homepage d'un blog qui a le plus fort Pagerank( j'ai un PR 6 pour Media & Tech - c'est très honorable). Cela veut dire que tous mes billets en homepage ont les mots les composants positionnés à PR6 chez Google. Cela leur donne une bonne chance de sortir en haut des résultats organiques de Google tant que le mois n'est fini.
L'impact:
Source: blog Media & Tech (par didier durand)
J'ai crû que c'était un "coup de chance". Et bien, pas du tout, c'est maintenant le standard!
Matt Cutts, le gourou des moteurs de recherche, confirme les progrès (les rendant ainsi publics...) de Google, son employeur, en la matière:
- début 2000, c'était une mise à jour du contenu des index tous les 3-4 mois
- mi-2000, on passait à la mise à jour mensuelle
- en début 2003, c'était la mise à jour quotidienne partielle
- en 2005, Google Blogsearch était très rapide mais seulement pour les blogs surveillés en temps quasi-réel via leur feed RSS
- en 2006, la mise à jour globale durait moins de 3 jours
- en 2007, les documents peuvent être trouvés par une recherche sur Google après seulement quelques minutes selon le billet de Matt Cutts.
Conséquences:
- tout le monde va s'y habituer et d'ici quelques mois il paraîtrat scandaleux de ne pas trouver dans Google une page publiée il y a 2 heures...
- Google Blog Search et Google News perdent de leur intérêt sauf pour qualifier la provenance de la recherche
Conclusion: nous entrons dans l'ère de la publication et de l'information universelles et instantanées. Plus besoin de savoir sur quels sites chercher pour avoir la primauté d'une information et pouvoir l'exploiter tant qu'elle n'est pas reprise par les moteurs...
PS (intéressant quand même...): à propos de Pagerank, une conséquence qui aura peut-être ses effets pour l'accès à l'information. C'est en général la homepage d'un blog qui a le plus fort Pagerank( j'ai un PR 6 pour Media & Tech - c'est très honorable). Cela veut dire que tous mes billets en homepage ont les mots les composants positionnés à PR6 chez Google. Cela leur donne une bonne chance de sortir en haut des résultats organiques de Google tant que le mois n'est fini.
L'impact:
- un potentiel d'augmentation de trafic pour les blogs face aux sites de médias sur des mots-clefs correspondants à l'actualité récente.
- en conséquence, un nivellement des chances pour l'accès à l'audience entre blogs et sites traditionnels. Encore un mauvais épisode dans le "Je t'aime, moi non plus"....
Source: blog Media & Tech (par didier durand)
lundi, août 06, 2007
l'iPhone d'Apple 100% hacké: utilisable avec une puce européenne
Guillaume apporte l'épilogue d'une opération de hack planétaire lancée dès la sortie du nouveau téléphone portable d'Apple:
"Le téléphone d'Apple s'est finalement fait hacké, et c'est à hakint0sh.org que l'on doit cette performance apprend-on sur le journal du geek. La team est en effet parvenue à rédiger un crack permettant d'utiliser une carte SIM européenne pour passer des appels et envoyer des SMS via le réseau EDGE (utilisé par Bouygues Telecom ou en complémentarité de l'UMTS par Orange). Il faut pour cela disposer d'un lecteur de carte SIM (Infinity USB Unlimited par exemple), d'une carte SIM v1, et télécharger les deux codes fournis sur le site où vous trouverez un tutorial."
Pour Apple, je reste dans la doute:
En tout cas, affaire classé pour le hack lui-même. On verra pour les conséquences...
Source: blog Media & Tech (par didier durand)
"Le téléphone d'Apple s'est finalement fait hacké, et c'est à hakint0sh.org que l'on doit cette performance apprend-on sur le journal du geek. La team est en effet parvenue à rédiger un crack permettant d'utiliser une carte SIM européenne pour passer des appels et envoyer des SMS via le réseau EDGE (utilisé par Bouygues Telecom ou en complémentarité de l'UMTS par Orange). Il faut pour cela disposer d'un lecteur de carte SIM (Infinity USB Unlimited par exemple), d'une carte SIM v1, et télécharger les deux codes fournis sur le site où vous trouverez un tutorial."
Pour Apple, je reste dans la doute:
- c'est bien parce que - d'une manière ou d'une autre - on parle d'Apple. Du buzz à gogo!
- c'est mal parce que les ingénieurs d'Apple "se sont faits cassés" en moin de 40 jours
En tout cas, affaire classé pour le hack lui-même. On verra pour les conséquences...
Source: blog Media & Tech (par didier durand)
Mais où va le trafic de Google?
Hitwise publie un graphique très intéressant: celui des 20 premières destinations vers lesquelles ses visiteurs (américains) vont en cliquant sur l'un ou l'autre des résultats de recherche.
[Pour revenir à des chiffres de base, les américains ont fait 8 milliards de recherches sur les divers moteurs en Juin 2007 - Google en accapare un bon 60%!]
A noter:
Le Web 2.0 est certes communautaire et participatif mais ceux qui en tirent les marrons (financiers) du feu ne partagent pas vraiment....
Source: blog Media & Tech (par didier durand)
[Pour revenir à des chiffres de base, les américains ont fait 8 milliards de recherches sur les divers moteurs en Juin 2007 - Google en accapare un bon 60%!]
A noter:
- MySpace, Ebay et Wikipedia sont très hauts. Normal, ils ont tous par leur activités des dizaines de millions de pages référencées dans l'immense index de Google. En utilisant la directive "site:", on trouve 20 millions de pages pour MySpace, 115 millions pour Ebay et 12.1 millions pour Wikipedia. Ce que leur donne cet abondant contenu, c'est une probabilité (très) élevée d'avoir une page qui contient les mots-clefs utilisés dans une requête par un Internet. Et ce, au moins dans leurs domaines de spécialité respectifs: produits de consommation pour Ebay, vie quotidienne pour MySpace et culture / science pour Wikipedia. Ensuite, ils manient tous 3 très la "devise monétaire de l'internet" (i.e. le lien intersite) que ce soit par des liens organiques (Wikipedia, MySpace) ou publicitaires (Ebay, MySpace). Leurs pages ont donc les 2 caractéristiques essentielles pour bien manipuler (aussi au sens "abusif" du terme...) l'algorithme Pagerank de Google. Conséquence: les pages de ces sites sortent hauts (c'est critique! Voir ces chiffres) et souvent dans les résultats organiques de Google. Et donc, tout naturellement, ils reçoivent beaucoup de visiteurs
- Concernant spécifiquement Ebay, ce volume de trafic envoyé du moteur vers les enchères montre bien que les tensions avec Google sur Paypal/Checkout et l'embargo correspondant ne pouvaient pas durer longtemps. Trop d'enjeux e-commerce!...
- Concernant le trafic vers MySpace, c'est bien pour Google: le deal à revenus garantis signé avec le site de R. Murdoch est ainsi facile à équilibrer!
- Google Image Search se porte maintenant bien: la conséquence de l'Universal Search lancé récemment ? Même constant pour Youtube depuis qu'il est (mieux) intégré dans les résultats de recherche de la maison-mère.
- Google News reçoit beaucoup de trafic: le "je t'aime, moi non plus" avec les éditeurs n'est pas prêt de cesser....
- Google Mail: Google serait-il en train de lui envoyer du trafic (d'inscriptions) pour combler le retard sur Yahoo Mail?
- pour les nostalgiques de l'Internet 1.0, LE site de l'époque, Geocities(acquis par Yahoo) , pour qui voulait faire sa première homepage se porte toujours plutôt bien puisqu'il reste dans le top20!
Le Web 2.0 est certes communautaire et participatif mais ceux qui en tirent les marrons (financiers) du feu ne partagent pas vraiment....
Source: blog Media & Tech (par didier durand)
jeudi, août 02, 2007
SaaS: Microsoft comme Amazon "dans le nuage"
A l'occasion de l'Analyst Day 2007 de Microsoft qui vient d'avoir lieu, il est intéressant de revenir sur la mise en pratique par la firme de Redmond de la stratégie pronée par Ray Ozzie quand il a pris le pouvoir en tant que CTO il y plus de 18 mois:
Tout d'abord, tout le monde est dans le "nuage": après l'Elastic Cloud Computing (EC2) de Amazon, on a les "Cloud Infrastructure Services" de Microsoft lancés par R. Ozzie.
[On parle de "nuage" (cloud) car on ne sait pas précisémment où se trouve la donnée que l'on stocke ni où se trouve exécuté le traitement que l'on demande - C'est juste "quelque part" sur Internet...
Eh bien, conformément à sa vision initiale, Ray Ozzie dans sa présentation a mis en avant l'importance stratégique de ces services d'infrastructure vendus à la carte pour les mashups et autres "services multiplicatifs" du Web 2.0 qui formeront mon (bientôt...) célèbre Linternux et qui ne veulent investir dans l'infrastructure mais juste payer leur consommation d'énergie informatique chaque mois. Reste à savoir où Microsoft en est dans son plan de 800'000 serveurs installés pour 2011 (alors que Google a déjà dépassé la barre du million de serveurs en activité....)
Sur ce domaine CIS, la concurrence avec EC2 et S3 d'Amazon sera chaude même si la firme de Jeff Bezos a un bon cran d'avance en termes de vision et de chiffres bruts: Microsoft part en général plutôt tard mais sait rattraper son retard: elle avait "fait la peau" à Netscape en son temps et plus récemment, elle a su combler son retard en publicité online via l'acquisition de AQuantive. Belles passes d'armes en perspective!
Par ailleurs, lors de ce séminaire, Microsoft a aussi accentué l'importance du SaaS (Software as a Service) exécuté dans le nuage et combiné à la puissance de calcul locale du téléphone mobile, de la console de jeu pour délivrer une expérience complètement nouvelle.
Enfin, un long passage lors de la journée sur le nerf de cette guerre: la publicité supposée alimenter en ressources financières ces services et contenus du web 2.0 majoritairement gratuits donc sponsorisés par des annonceurs. Microsoft - qui part de loin - veut se tailler la part du lion dans un marché publicitaire en ligne global qu'il voit passer de 26 milliards en 2006 à plus de 60 milliards en 2010 (plus haut que les estimations Yahoo ... qui datent un peu maintenant)
La boucle est bouclée ... au moins en termes de mise en chantier: Ray Ozzie a bien lancé les chantiers qu'il avait annoncé prioritaires à son arrivée! On regardera les progrès opérationnels réels dans les mois qui viennent...
PS: Ce qui précède n'est que ma sélection personnelle de cet Analyst Day, si vous voulez voir tout ce qui s'est dit: les webcasts et les powerpoints sont là.
Source: blog Media & Tech (par didier durand)
- une infrastructure informatique qui fonctionne à la demande et sans limite
- le logiciel (majoritairement) en tant que service sur Internet et plus (uniquement) installé exclusivement sur son PC
- la publicité pour financer tout cela.
Tout d'abord, tout le monde est dans le "nuage": après l'Elastic Cloud Computing (EC2) de Amazon, on a les "Cloud Infrastructure Services" de Microsoft lancés par R. Ozzie.
[On parle de "nuage" (cloud) car on ne sait pas précisémment où se trouve la donnée que l'on stocke ni où se trouve exécuté le traitement que l'on demande - C'est juste "quelque part" sur Internet...
Eh bien, conformément à sa vision initiale, Ray Ozzie dans sa présentation a mis en avant l'importance stratégique de ces services d'infrastructure vendus à la carte pour les mashups et autres "services multiplicatifs" du Web 2.0 qui formeront mon (bientôt...) célèbre Linternux et qui ne veulent investir dans l'infrastructure mais juste payer leur consommation d'énergie informatique chaque mois. Reste à savoir où Microsoft en est dans son plan de 800'000 serveurs installés pour 2011 (alors que Google a déjà dépassé la barre du million de serveurs en activité....)
Sur ce domaine CIS, la concurrence avec EC2 et S3 d'Amazon sera chaude même si la firme de Jeff Bezos a un bon cran d'avance en termes de vision et de chiffres bruts: Microsoft part en général plutôt tard mais sait rattraper son retard: elle avait "fait la peau" à Netscape en son temps et plus récemment, elle a su combler son retard en publicité online via l'acquisition de AQuantive. Belles passes d'armes en perspective!
Par ailleurs, lors de ce séminaire, Microsoft a aussi accentué l'importance du SaaS (Software as a Service) exécuté dans le nuage et combiné à la puissance de calcul locale du téléphone mobile, de la console de jeu pour délivrer une expérience complètement nouvelle.
Enfin, un long passage lors de la journée sur le nerf de cette guerre: la publicité supposée alimenter en ressources financières ces services et contenus du web 2.0 majoritairement gratuits donc sponsorisés par des annonceurs. Microsoft - qui part de loin - veut se tailler la part du lion dans un marché publicitaire en ligne global qu'il voit passer de 26 milliards en 2006 à plus de 60 milliards en 2010 (plus haut que les estimations Yahoo ... qui datent un peu maintenant)
La boucle est bouclée ... au moins en termes de mise en chantier: Ray Ozzie a bien lancé les chantiers qu'il avait annoncé prioritaires à son arrivée! On regardera les progrès opérationnels réels dans les mois qui viennent...
PS: Ce qui précède n'est que ma sélection personnelle de cet Analyst Day, si vous voulez voir tout ce qui s'est dit: les webcasts et les powerpoints sont là.
Source: blog Media & Tech (par didier durand)
Commentaire du jour [21] - Genium: une extension Firefox top pour les microformats!
[Commentaire du jour sur Media & Tech: quoi et pourquoi - Les autres commentaires du jour]
Vraiment super la blogosphère pour trouver des réponses à ses questions.
En effet, sur mon billet d'hier à propos des microformats poussés parGoogle, Genium m'a proposé l'extension Operator qui va plus loin que Tails que j'utilise actuellement.
J'ai testé et je suis convaincu: par exemple, quand Operator voit un microformat hCalendar, il permet de l'intégrer directement dans Google Calendar sans aucune resaisie. De plus, elle annonce en permanence via la barre d'outils le nombre de microformats trouvés (par catégorie) dans la page courante.
J'abandonne donc Tails pour Operator que je vous recommande à mon tour.
Merci à toi, genium!
PS [a fuir pour les technophobes ;-)]: si vous relisez le commentaire de genium, il y parle de des "robots logiciels de Google" comme d'une expression Restful. A propos de "restful", je vous recommande aussi la lecture du bouquin "Restful Web Services" récemment sorti. Si vous êtes dans la construction de web services à la sauce 2.0, c'est une mine d'information sur REST et la première "mise en musique" concrète de la dissertation de PhD "Architectural Styles and the Design of Network-based Software Architectures" de Roy Fielding que je vois.
Source: blog Media & Tech (par didier durand)
Vraiment super la blogosphère pour trouver des réponses à ses questions.
En effet, sur mon billet d'hier à propos des microformats poussés parGoogle, Genium m'a proposé l'extension Operator qui va plus loin que Tails que j'utilise actuellement.
J'ai testé et je suis convaincu: par exemple, quand Operator voit un microformat hCalendar, il permet de l'intégrer directement dans Google Calendar sans aucune resaisie. De plus, elle annonce en permanence via la barre d'outils le nombre de microformats trouvés (par catégorie) dans la page courante.
J'abandonne donc Tails pour Operator que je vous recommande à mon tour.
Merci à toi, genium!
PS [a fuir pour les technophobes ;-)]: si vous relisez le commentaire de genium, il y parle de des "robots logiciels de Google" comme d'une expression Restful. A propos de "restful", je vous recommande aussi la lecture du bouquin "Restful Web Services" récemment sorti. Si vous êtes dans la construction de web services à la sauce 2.0, c'est une mine d'information sur REST et la première "mise en musique" concrète de la dissertation de PhD "Architectural Styles and the Design of Network-based Software Architectures" de Roy Fielding que je vois.
Source: blog Media & Tech (par didier durand)
mercredi, août 01, 2007
Google Maps pousse le web sémantique: microformat vCard pour les PDA, mobiles, etc....
Le blog Google Maps API annonce que dorénavant les adresses (d'entreprises) publiées sur Google Maps le sont selon le microformat hCard qui est le format officiel des adresses du web 2.0.
Un microformat, kesako? Selon Wikipedia: "Les microformats sont un langage de balisage qui permet l'expression de la sémantique dans une page web HTML (ou XHTML). Les programmes peuvent extraire du sens à partir d'une page web qui est balisée avec des microformats." Pour tous les détails, et les microformats officiels (contact, évènement, critiques, relations sociales, CVs, etc...) , voir microformats.org
En gros, les microformats, ce sont les premiers pas "dans le grand public" du web/internet sémantique.
Eh bien, par le respect de ces microformats, on peut penser que Google va commencer à pousser l'émergence de ce web sémantiques. Il y a d'ailleurs tout intérêt puisque la tâche de ses robots logiciels visitant nos sites sera d'autant plus facile et à plus forte valeur ajoutée si nos sites, sous la poussée du géant de Mountain View, se mettent eux aussi à publier des microformats.
En effet, les robots Google comprendront alors mieux et plus efficacement le contenu de nos sites. D'où une meilleure valorisation de la "base de données des Intentions" qui est la pierre angulaire des 10 milliards de revenus de Google en 2006.
Concrètement, les microformats, c'est un petit morceau d'HTML formaté spécialement et inclus dans la page: voir ici pour un exemple concretde hCard.
Maintenant, comment les exploiter depuis son navigateur? Dans Firefox, il suffit d'installer une extension comme Tails. Cette extension "allume un bouton" en bas de l'écran pour signaler quand elle détecte un microformat dans une page.
Il suffit ensuite, plutôt que de le resaisir, de l'exporter via l'extension pour le réimporter dans son logiciel (bureautique) favori: par exemple Outlook (qui supporte aussi hCard/vCard) .
Exemple pratique avec Tails:
1) je fais une recherche sur "restaurants Jougne" dans Google Maps
2) Google me propose des réponses et le bouton Tails s'allume en bas (cercle rouge)
3) je clique ce bouton et Tails me propose dans la barre latérale de Firefox les réponses (voir les carrés orangés) que je peux ensuite exporter en hCards sur mon disque avant de les réintégrer ailleurs.
Question à vous: je suis à la recherche des 2 extensions à Firefox plus rapide (sans fichier intermédiaire à réimporter "à la main") que Tails pour l'intégration des hCard dans mes 2 suites bureautiques:
PS (comme ce sont les vacances...): si vous passez par Jougne, je vous recommande le restaurant cité sur ma page : l'hôtel de La Couronne. Bonne cuisine et accueil super-sympa! Disclaimer: j'habite à 2 pas ;-))
Source: blog Media & Tech (par didier durand)
Un microformat, kesako? Selon Wikipedia: "Les microformats sont un langage de balisage qui permet l'expression de la sémantique dans une page web HTML (ou XHTML). Les programmes peuvent extraire du sens à partir d'une page web qui est balisée avec des microformats." Pour tous les détails, et les microformats officiels (contact, évènement, critiques, relations sociales, CVs, etc...) , voir microformats.org
En gros, les microformats, ce sont les premiers pas "dans le grand public" du web/internet sémantique.
Eh bien, par le respect de ces microformats, on peut penser que Google va commencer à pousser l'émergence de ce web sémantiques. Il y a d'ailleurs tout intérêt puisque la tâche de ses robots logiciels visitant nos sites sera d'autant plus facile et à plus forte valeur ajoutée si nos sites, sous la poussée du géant de Mountain View, se mettent eux aussi à publier des microformats.
En effet, les robots Google comprendront alors mieux et plus efficacement le contenu de nos sites. D'où une meilleure valorisation de la "base de données des Intentions" qui est la pierre angulaire des 10 milliards de revenus de Google en 2006.
Concrètement, les microformats, c'est un petit morceau d'HTML formaté spécialement et inclus dans la page: voir ici pour un exemple concretde hCard.
Maintenant, comment les exploiter depuis son navigateur? Dans Firefox, il suffit d'installer une extension comme Tails. Cette extension "allume un bouton" en bas de l'écran pour signaler quand elle détecte un microformat dans une page.
Il suffit ensuite, plutôt que de le resaisir, de l'exporter via l'extension pour le réimporter dans son logiciel (bureautique) favori: par exemple Outlook (qui supporte aussi hCard/vCard) .
Exemple pratique avec Tails:
1) je fais une recherche sur "restaurants Jougne" dans Google Maps
2) Google me propose des réponses et le bouton Tails s'allume en bas (cercle rouge)
3) je clique ce bouton et Tails me propose dans la barre latérale de Firefox les réponses (voir les carrés orangés) que je peux ensuite exporter en hCards sur mon disque avant de les réintégrer ailleurs.
Question à vous: je suis à la recherche des 2 extensions à Firefox plus rapide (sans fichier intermédiaire à réimporter "à la main") que Tails pour l'intégration des hCard dans mes 2 suites bureautiques:
- une qui me permette de sauver directement le microformat dans Google Mail - usage personnel.
- une autre pour la sauvegarde directe dans Outlook - usage professionnel
PS (comme ce sont les vacances...): si vous passez par Jougne, je vous recommande le restaurant cité sur ma page : l'hôtel de La Couronne. Bonne cuisine et accueil super-sympa! Disclaimer: j'habite à 2 pas ;-))
Source: blog Media & Tech (par didier durand)
Inscription à :
Articles (Atom)