vendredi, septembre 30, 2005

blogs: quand 1 consommateur sur 10 les lit régulièrement , les grandes marques s'y intéressent....

TechWeb rapporte les derniers chiffres de Forrester autour des blogs:
  • 10% des consommateurs (i.e. du grand public) lisent des blogs au moins 1 fois par semaine. C'est le double d'il y a un an!
  • L'usage de RSS a triplé sur 12 moins pour passer de 2% à 6%
Tout compte fait, ces 6% ne sont pas si différents des 11% récemment publiés par Nielsen. (la mesure n'est pas strictement faite sous le même angle et quand le secteur est aussi jeune, une erreur de quasiment 100% n'est - pour moi - pas trop choquante...)

L'Atelier définit les blogs marketin
g ainsi " un outil de communication à la portée de toutes les entreprises .....Le blog marketing est le moyen d'un dialogue entre l'entreprise et le consommateur ...... Le blog marketing est un moyen de toucher le consommateur, de le faire adhérer à la marque. Il permet à l'entreprise d'entendre les critiques immédiatement et de créer un dialogue. Il pourrait devenir un vecteur essentiel de la communication d'une firme"

En tout cas, avec cette barrière des 1-sur-10 maintenant franchie, beaucoup de firmes du marché de la grande consommation vont entamer ou poursuivre leurs expériences (décrites par Le Monde - plus ou moins éthiques pour certaines....) dans la blogosphère. En effet, les blogs deviennent ainsi et paradoxalement un média de masse!

Revenus des réseaux blogs: après les stakhanovistes, les humanistes (déguisés et tardifs .....)

[Via Blog Herald]

Dans mon précédent billet, j'évoquais les conditions financièrement peu engageantes - et sans rapport avec le niveau d'engagement demandé - auxquelles la collaboration avec Weblogs était soumise.

Eh bien, aujourd'hui, c'est le contraire: deux nouveaux réseaux de blogs qui se lancent offrent des conditions financières beaucoup plus avantageuses

  • Le réseau Finefools (!!) de Paul Scrivens propose les conditions suivantes: "We promise that you will receive 100% of the Google Adsense or Yahoo! Publisher Network revenue that your individual articles produce as long as you maintain an account with either service. If you do not have an account with either Google or Yahoo! we promise to provide you with a channel on our account and you will receive 80% of the revenue that your individual articles produce."
[Cette formulation laisse quand même la place au non-partage avec le blogger des revenus issus d'autres sources publicitaires que Google ou Yahoo]
  • Le réseau Webby Media de Omar Al-Hajjar voit les choses ainsi: "Why are you doing 100% revenue to the blogger? It gets people talking and bloggers listening. We’re brand new on the blog publishing scene so we need a ‘brand new’ payment scheme. So far the idea has been well received :)"

[Là, c'est l'humanisme total....]

Donc, ces plates-formes sont prêtes à tout pour recevoir des bloggers et leurs articles même à n'en obtenir aucun revenu (en tout cas, au début....): La devise "Content is King" de 1996 de Bill Gates a donc toujours de beaux jours devant elle!

Malgré tout, une vraie question: héberger la plate-forme technique des blogs, c'est une infrastructure qui coûte. Donc, on fait comment pour survivre à long terme? (Google avec son Blogger gratuit et ses poches bien garnies peut lui se permettre de dépenser sans revenus surtout quand il pousse ses bloggers vers AdSense où il perçoit de toute façon sa commission.

Je ne vois qu'un business model viable: croître au maximum et au plus vite sans se soucier des revenus. Cependant....

.... quand on voit - sur le graphique ci-dessus (source: Alexa) - la taille et la fréquentation d'un site comme Blogger (comparativement au site du NY Times), on se dit qu'il est déjà bien trop tard pour une telle démarche....

Je ne transporterai donc pas mon blog chez eux: j'aurais trop peu de devoir déménager à nouveau sous peu pour "liquidation ou changement" de propriétaire! De plus, comme j'ai déjà Adsense (et qu'il me rapporte une vraie fortune.... ;-), que m'apporteraient-ils de plus?

jeudi, septembre 29, 2005

Podcast: Bob Lutz (GM) et Alain Carignon (UMP) s'y mettent

Le podcast (diffusion de discussion & interviews par fichiers MP3 sur Internet) est jeune mais il attire déjà les pionniers de la blogosphère des entreprises et institutions (partis politiques):
Le parlement européen vient d'interroger sur le thème "blogs, amis ou ennemis du journalisme". Nos penseurs bruxellois peuvent maintenant mettre à l'agenda "podcasts, amis ou ennemis de la radio" et un peu plus tard "videoblogs, amis ou ennemis de la télévision". Puisque Podcast et vidéoblogging semblent être considérés comme l'avenir des blogs, les grands média électroniques et les instititutions qui les "pratiquent" abondamment vont devoir apprendre à vivre avec ces nouvelles formes d'expression personnelles et populaires....

[PS: je cite dans ce billet des hommes politiques. Il n'est cependant pas le moyen d'exprimer des idées politiques personnelles]

Taille des index: la guerre des trois n'aura pas lieu

Pour paraphraser la pièce de thèâtre, la guerre des trois (Google, Yahoo, MSN) n'aura plus lieu au sujet de la taille sur le thème "le mien est plus gros que le vôtre". [Attention: on parle de l'ndex de chaque moteur - si vous pensez à autre chose, ce n'est pas le bon blog...]

pour son 7ème anniversaire, Google a décidé de ne plus publier la taille de son index sur sa page d'accueil.

La guerre des communiqués et échanges par blog de collaborateurs faisait rage depuis Août. Fin des courses! (non sans une dernière pique dans le billet de Google sur le sujet: "notre index est à priori à ce jour 3 fois plus gros que notre meilleur compétiteur")

On passe maintenant à un message plus soft: "nous laissons nos utilisateurs juger". Cela ne vous rappelle pas les opérateurs de téléphonie mobile qui a un moment ont distillé le même message quand les chiffres techniques (couverture, qualité, etc....) finissaient à chaque fois par embarasser l'un ou l'autre...

Le jugement sur la qualité des réponses (fraîcheur, pertinence, etc...) devient maintenant subjectif et sera la vision personnelle de chacun! Il est vrai que, comme l'a récemment démontré J. Veronis, le nombre de pages comptées peut être absolument du n'importe quoi!

En conclusion, J. Véronis a sûrement raison (lire cet excellent post): c'est un seul minuscule post de Yahoo sur son blog qui a gâché la fête d'anniversaire prévue pour le 7 Septembre et a transformé le feu d'artifice prévu en pétard mouillé...

La puissance de la blogosphère encore une fois à l'oeuvre!

PS: ce billet de Yahoo aura sûrement coûté plus cher à Google que celui qui a entraîné la débâcle de Kryptonite mais on ne le saura jamais.

Le dossier 01Net sur les technologies de blog: Blogger 5ème sur 6

[Via G. Frat]

01Net vient de publier un dossier comparatif sur les offres de blogs hébergés:

  • Le gagnant: Haut et Fort. Je ne le connaissais même pas. Mea culpa!
  • Blogger (mon choix) est "bon" 5ème sur 6 plates-formes testées
Je partagerais assez la vision 01Net de Blogger:

www.blogger.com
Une interface partiellement traduite, des fonctions avancées compliquées... ce site rebutera les débutants. A son crédit on note qu'il offre beaucoup d'espace et est gratuit !

J'ai par contre la chance de pouvoir dépasser les 2 barrières annoncées (langue et complexité) par 01Net - et valides à mon sens - pour profiter en retour de pas mal de ces avantages.... Non des moindres est celui d'une évolution rapide depuis le lancement de Google Blogsearch.: le quartier général donne visiblement des moyens pour maximiser la monétisation.

Je vais donc rester sur mon pari initial par rapport au choix de Blogger...

mercredi, septembre 28, 2005

Google et les éditeurs: après le rédactionnel, le prochain combat autour des annonces classées!

[Via N. Weinberg]

Google et le monde de l'édition sont en bagarre depuis longtemps à travers de multiples sujets:
Les formes de la polémique sont diverses mais le fond reste toujours le même: c'est la violation des droits d'auteur sous une forme ou une autre qui est à chaque fois en question. Systématiquement, malgré tout, les éditeurs sont partagés. En effet, le revers de la médaille est toujours positif: être bien référencé sur Google amène toujours beaucoup d'audience sur son site! (et donc des revenus supplémentaires...)

Ce flirt avec la "ligne jaune des droits d'auteurs" est inéluctable: la mission de l'entreprise Google est ainsi décrite sur google.fr: "Google a pour mission d'organiser à l'échelle mondiale les informations dans le but de les rendre accessibles et utiles à tous".

Pour remplir cette mission, il faut au minimum copier ces données présentes sur le Web afin de pouvoir les indexer et les structurer pour retourner ensuite les meilleures réponses aux internautes en quête d'informations de qualité. Il est pas nécessaire de leur montrer directement cette copie a but d'indexation mais seulement les URLs des pages intéressantes.

Mais, Cette copie cachée existe et qu'elle représente potentiellement une violation de droits d'auteurs. Associée à un référencement parfois peu clair (absence de photos, de crédit clair, etc...) dans Google News , cette copie a donc déjà été utilisée à de multiples reprises par les éditeurs pour "tenir Google en respect".

Le plus offensif des médias traditionnels est à ce jour, l'AFP qui a engagé une action judiciaire contre Google sur ce thème du "pillage de contenu rédactionnel".

Ensuite, quand Google, toujours fidèle à sa mission cherche à transférer en ligne des livres "du monde physique" en les numérisant, la riposte des éditeurs est massive: c'est en effet le "core business" historique qui est en jeu!

La fronde a donc vite grondé, s'est amplifiée pour arriver à son apogée il y a quelques jours: un autre procès par la Guilde des Auteurs toujours sur le thème des droits d'auteurs ("violation massive")

Non content de cette situation, selon le site PaidContent, Google ouvre aujourd'hui la bataille sur un autre front: celui des annonces classées qui est un business très lucratif. Il représente en effet en général plus de 40% des revenus d'un journal papier traditionnel et quasiment le 100% des revenus d'une plate-forme d'annonces classées en ligne.

Il s'en prend donc maintenant au "nerf de la guerre". Mais, il a tiré les leçons de l'expérience Google Print où il a appris à faire des concessions et à "être poli". Selon le site PaidContent, Google se limite pour l'instant à "demander" leur contenu(par transfert de fichiers) aux grands sites d'annonces classées.

Bien sûr, vu le "climat" (cf. ci-dessus), les éditeurs semblent initialement - toujours selon PaidContent - plutôt enclins à refuser! La coupe serait-elle pleine?

Donc, on pourrait voir très prochainement Google enclencher "de force" ses robots aspirateurs de contenus (en fait, ils sont déjà actifs) pour collecter -"crawler" selon le terme consacré - de toute façon ces annonces sur les pages où elles sont initialement publiées afin de les structurer en un nouveau service vertical qui pourrait fort bien s'appeler "Google Classifieds" (selon le précédent choix du nom, "Google News", je prends peu de risques...).

Aux Etats-Unis, il ne serait pas le premier: Yahoo a déjà dopé son Hotjobs de cette manière il y a quelques temps, Indeed est leader de cette "centralisation du contenu" pour les offres d'emploi, Oodle se développe à vitesse explosive sur l'ensemble des segments d'annonces classées, etc....

Si Google "passe en force", on verra si un procès lui est intenté (alors que les pionniers US ci-dessus ont été "autorisés" même implicitement) pour ce futur Google Classifieds. Je parierais que oui! Ce sera l'occasion de tester définitivement le sujet sur le terrain juridique.

Dans les pays francophones, le sujet du crawling et la centralisation sur un seul site des annonces classé d'un marché a été testé au moins 2 fois ces dernières années:
  • En France, le "collecteur" Keljob a été déclaré coupable face au "collecté" (contre son gré) Cadremploi. Le "pillage illicite de contenu" a été retenu.
  • En Suisse où le Tribunal Fédéral a été plus favorable début 2005. Il a permis à la (petite) société Nexpage de continuer à centraliser les annonces immobilières en ligne du marché suisse à la condition qu'elle contine à leur apporter une valeur ajoutée par enrichissement du contenu original.
Donc, on voit que la vision juridique sur ce sujet n'est pas encore unifiée et que des batailles juridiques aux formes diverses et aux résultats multiples et incertains se préparent en cas de "passage en force"...

Mais, finalement y aura-t-il jamais une bataille juridique sur le sujet?

En effet, la différence entre les articles éditoriaux et les annonces classées est que ces dernières mettent en jeu une tierce partie, l'annonceur, dont le seul but est d'avoir une annonce la plus visible plus possible. Il s'agit seulemnt en finalité pour lui afin d'aboutir au plus vite à la meilleure transaction sans question métaphysique sur l'appartenance du contenu....

Cet annonceur sera-t-il donc enclin à continuer à travailler avec une plate-forme qui tente d'empêcher (éventuellement par voie juridique) la découverte de son contenu par les internautes qui partent des grands noeuds de trafic que sont les grands moteurs de recherche?

Mon avis est que les annonceurs fuiront d'autant que des plates-formes gratuites d'annonces comme Kijiji (de Ebay) , Craigslist ou Vivastreet permettront de contourner sans peine les récalcitrants au crawling d'annonces!

L'entrée inéluctable (à mon avis) de Google à court terme dans le crawling global des annonces d'un marché et leur structuration en service vertical va amener donner un coup d'accélérateur formidable à la mutation en cours du marché des annonces classées. Surtout quand le terrain a été préparé par les autres grands Ebay avec Kijiji et Craigslist, Yahoo avec HotJobs et même le New-York Times avec Indeed.com (un paradoxe?), etc....

Une partie de cette mutation profonde sera commerciale: publication gratuite, position à la place de publication, prix à la performance, etc... Ce sera le sujet d'un prochain billet!

PS: il y a une corporation qui doit adorer Google: les avocats ! ;-)

Tag: Agoravox

Publication originale de ce billet sur Media&Tech

mardi, septembre 27, 2005

Des boutons pour votre blog: évitez l'épidémie!

[Via simply-city]

Une énorme collection de boutons à cette adresse (probablement la plus grosse du Web) pour décorer les colonnes de votre blog et annoncer vos services et sites favoris

Par exemple, plein de boutons pour linker les services Google !

J'en ai pris un pour annoncer mon email de manière graphique (voir colonne de droite) mais ce sera tout: je ne suis pas un grand grand fan.....

Pour Google (aussi) la tradition a du bon: des pubs sur le papier!



[Via P. Lenssen]

Cette image issue du blog de P. Lenssen est pour moi une double information:

  • Google fait aussi des campagnes publicitaires: on m'avait toujours dit et répété que sa marque avait atteint son apogée actuelle par le seul bouche-à-oreille
  • Google utilise aussi les médias traditionnel: il n'y a donc à ses yeux pas seulement Adsense pour faire connaître un produit ou une marque


Cette révélation valait bien ce billet sur mon blog! En tout cas, au moins de mon point de vue....

PS: la pub ne me paraît même pas mensongère: mon quota Google Mail semble augmenter au fur et à mesure que je remplis ma boîte aux lettres!

lundi, septembre 26, 2005

NYT: Microsoft annonce son AdSense / Adwords. R. Scoble confirme la concurrence frontale à Google! [Mise à jour]

Mise à jour:

Microsoft annonce officiellement le lancement de son AdCenter en France aujourd'hui et à Singapour dès fin Août. Le lancement aux USA est pour Octobre.

Les services de la plate-forme sont:

Keyword Selection allows advertisers to indicate whom they want to reach based on geographic location, gender, age range, time of day and day of week, and suggests keywords based on the desired audience.

Site Analyzer assists advertisers by suggesting keywords based on the content of their Web site, rather than on another keyword.

Audience Profiler provides advertisers with an expected profile of those customers who are most likely to search for specific keywords.

Cost Estimator helps advertisers remain within their budget by estimating rank, traffic and cost per month per keyword.


Campaign Optimization allows advertisers to respond quickly and decisively throughout the campaign to easily refine budget allocations and keywords, as well as apply targeting filters such as geographic, demographic and dayparting.

Post Sales Audience Intelligence & Reporting provides advertisers with detailed reports on campaign performance and audiences reached including click-through rate, estimated position and spending levels.

Post original:
R. Scoble confirme un article du NYT, republié par News.com en disant qu'il est au courant de cette annonce mais qu'elle aurait dû venir un peu plus tard.

Cette annonce dit que Microsoft veut aller dans la même direction que Google qui apporte avec son Adsense/Adwords (que j'utilise) les moyens financiers suffisantes à ses sites pour qu'ils offrent leurs services gratuitement. C'est ce service publicitaire qui a permis à Google d'atteindre sa valorisation boursière astronomique en tirant plus de 98% de ses revenus de ces services publicitaires.

Microsoft veut valoriser le trafic colossal sur son bouquet de services MSN en plagiant les services de Google Adwords agrémentés de quelques innovations en provenance du QG de Redmond

Une des innovations prévues est d'offrir sous forme gratuite des logiciels actuellement payants et édités par Microsoft. Bien sûr, on ne sait pas encore lesquels mais le jeu des devinettes va vers les jeux et les logiciels de particuliers (MS Money serait peut-être un bon candidat...).

Par contre, le standard publicitaire émergent Pay-Per-Click sera utilisé: l'annonceur annonce combien il est prêt à payer pour un clic sur sa publicité associée à un mot-clef. Microsoft comme Google utilisera des techniques de" yield management" pour afficher une pub ou l'autre: ce n'est pas seulement le prix brut qui déterminera la position de l'annonce mais sa combinaison avec la probabilité (calculée en temps réel) qu'elle a d'être cliquée... Enfin de même que Google, Microsoft commencera par son propre site avant d'étendre vers des sites tiers à la mode Adsense

Site Weblogs: stakhanoviste avec les bloggers américains?

Le site Weblogs serait-il stakhanoviste avec ses "employés"?

C'est la question! Un billet du Blog Herald annonce que Kate Hopkins a publié sur le blog "Food Blog S'cool" l'intégralité du contrat (retiré depuis)qui lui était proposé pour travailler pour le blog "épicurien" Slashfood piloté par la société Weblogs de J. Calacanis (une star de la blogosphère).

Quand on lit ces conditions, on est loin du "standard" que l'on pourrait se représenter du "journalisme citoyen":
  • Interdiction de publier sur d'autres blogs et publications traditionnelles pendant 6 mois après la rupture du contrat. Celui qui en vit, il fait comment en cas de "séparation"?
  • au moins 125 posts par mois, soit 6 par jour ouvrable. Je peine à en faire un par jour parfois! Où va être la qualité à un tel rythme effrené?...
  • 500 dollars de rétribution forfaitaire pour cet imposant travail (- 4 dollars pour chaque post manquant par rapport aux 125 contractuels...)
  • Obligation de gérer (répondre) aux commentaires et obligation de détruire ceux qui sont négatifs. Loic Lemeur ne va pas apprécier!

Bon, peut-être que je me trompe: on doit parler ici plutôt de journalisme professionnel et traditionel que de vrai blogging. Mais , malgré tout....

Je préfère donc finalement rester sur mon petit blog qui ne rapporte rien (ou presque...)

dimanche, septembre 25, 2005

Pour liquider rapidement les problèmes XML dans son feed: la solution est (pour moi) Feedvalidator.org!

Mise à jour: le forum de FeedBurner donne des précisions sur les causes de mon problème. Rien à voir avec une connexion UMTS douteuse mais c'était plutôt un problème de copier/coller à partir de MS-Word qui importe dans Blogger des tags propriétaires à l'environnement de Microsoft. Ils sont incompatibles avec les standards RSS+Atom.


Original:

[Merci à Gab de m'avoir aussi alerté via ses commentaires]

J'avais depuis ce vendredi après-midi un problème dans mon feed RSS/Atom: mon lecteur de news RSSOwl n'arrivait plus à lire ce flux et me donnait des messages d'erreurs sur indiquant une structure XML erronée.

Visiblement, mon lecteur RSSOwl est très sensible aux moindres fautes de structure de mes posts. C'est finalement un bien pour voir au maximum et au plus tôt les mêmes problèmes que vous: je vais donc l'intégrer "officiellement" aujourd'hui dans mon kit de blogging.

Pour revenir au problème, eh bien, j'ai utilisé le service Feedvalidator.org (écrit par Sam Ruby et Mark Pilgrim): c'est un analyseur lexical et syntaxique des protocoles RSS et ATOM. Il est très simple d'utilisation: il m' a suffi de lui donner l'URL de mon feed Feedburner et il a ensuite instantanément analysé la structure de mes derniers posts. Ainsi, il a tout de suite détecté 2 erreurs dont 1 grave qu'il m'a suffit de corriger par l'éditeur standard de Blogger pour revenir à une situation d'un flux "propre".

Ces erreurs avaient été générées par mon post sur l'intégration Adsense dans Blogger que j'ai tenté de faire à travers une connexion UMTS" difficile" qui a donc "pourri" l'HTML de mon billet.

Grâce à sa simplicité et son efficacité, Feedvalidator a gagné sa place lui aussi dans mon kit de blogging: au moindre problème de flux à l'avenir, je lui demanderai à nouveau sa "bénédiction" avant de chercher mes soucis ailleurs....

.... ou d'incriminer instantanément et sans réflexion ni effort Blogger ou FeedBurner comme je l'ai faitcette fois dans les premières heures sans chercher à voir si je n'étais pas la cause du problème Tellement plus facile et commode!

samedi, septembre 24, 2005

La blogosphère au-delà du périph? [Fun]



[Source: The Benito Report]

Julo de Blog à Part, invité de Benito Report, y a publié cette caricature très drôle.

Elle est accompagnée du commentaire suivant "Après Paris Blogue-t-il ? III, la réflexion sur les blogs continue sur TheBeniToReport avec un invité de marque, le blogueur Julo de Blog à Part. Il nous livre à la pointe de son pinceau sa vision détâchée de la bobosphère nombriliste parisienne."

Comment un provincial comme moi pourrait-il ne pas partager? ;-))

[PS: je me suis permis de copier le dessin car les commentaires de Julo dans le post semblent y encourager]

vendredi, septembre 23, 2005

Après les blocages en Suisse, Chine, etc..., Verso peut "filtrer" sélectivement Skype sur les réseaux des opérateurs classiques

Les services VoIP comme Skype ont déjà été bloqués en Suisse, en Chine, aux Emirats Arabes Unis tant pour "l'arbitrage des tarifs" (i.e. les économies) que pour les pertes de contrôle sur les communications (Chine) qu'ils engendrent.

Eh bien, ce genre de démarches peu loyales, équitables, démocratiques, concurrentielles, etc... (vous choisissez le qualificatif!) va devenir plus simple: Internet News annonce que Verso Technologies commercialise une technologie de filtrage sélectif dans les réseaux peer-to-peer (P2P).

La sélectivité de ce filtrage est clairement orienté vers Skype qui selon M. Bannermann, ceo de Verso qui considère que permettre Skype sur son réseau est comme "manger du poison" (dixit !) car, bien sûr, cela fait acheter plus d'ADSL par les particuliers mais ces revenus d'ADSL tuent alors ceux de la téléphonie classique autrement plus importants!

Cette histoire autour de Skype me rappelle l'arrivée des opérateurs téléphoniques alternatifs comme Tele2, Cegetel et celle des FAIs offensifs comme Free, Club-Internet, etc...

Après l'épopée type Far-West initiale, on finit par trouver des solutions dans lesquelles tout le monde" peut finir par vivre" avec quand même (à peu prés) toujours des économies tangibles pour le consommateur même si les nouveaux entrants doivent parfois (souvent) faire des concessions (financières - sur le dos du client) aux acteurs existants pour ne pas "ravager le paysage historique".

un dictionnaire via la technologie AJAX

[Via P. Lenssen]

Pour ceux qui ne croient que ce qu'ils voient, voici un autre exemple que Google Maps qui démontre toute l'efficacité vue de l'utilisateur d'une interface homme-machine construite avec la technologie AJAX.

En cliquant ici, vous verrez avec quelle rapidité et quel confort d'utilisation le dictionnaire ObjectGraph délivre dans une fenêtre déroulante les entrées qui correspondent au mieux à l'ordre lexicographique des caractères déjà saisis.

A utiliser quand on veut démontrer très simplement et de manière didactique la puissance de la technoogie AJAX en évitant les abondants détails techniques.

Pour les férus de technologie, je conseille quand même le "how it works" du dictionnaire Objectgraph ainsi que cet article de 01.net.

Et si vous voulez vous lancer dans un développement, la page de Wikipedia EN est incontournable et cette page donne un bon inventaire des frameworks AJAX disponibles comme Dojo, Sarissa, Prototype, Sajax, etc...

Devenez (plus) vite riche avec Google Adsense: plus vite que moi en tout cas….

C'est avec cette promesse de richesse que le blog officiel de Blogger "racole" ses utilisateurs pour qu'ils installent Adsense, le service publicitaire de Google sur leur blog.

Vous pouvez tenter votre chance! Pour moi, Adsense, c'est plutôt actuellement un compteur d'impressions de pages qu'une source de revenus mêmes complémentaires! Seulement quelques dollars par mois.

Enfin, je garde quand même Adsense et je conserve aussi mon installation "à la main" initiale: elle a été surement plus longue que ce que je pourrais faire aujourd'hui mais selon la sagesse américaine "if it ain't broken, don't fix it!"En tout cas, on constate encore une fois que le lancement de Google Blogsearch fait un bien énorme à sa société fille Blogger qui doit avoir maintenant droit à plus de ressources de développement.

En effet, puisque le trafic monte sûrement à vue d'oeil sur Blogsearch, il faut le monétiser au mieux (selon les vœux du ceo de Google, E. Schmid) par l'autre côté du jeu, i.e. les blogs eux-mêmes vers qui sont renvoyées ces requêtes. Et, c'est là que le côté hébergeur de Google avec Blogger se met en action pour maximiser les revenus publicitaires (via son propre Adsense) des blogs qu'il héberge. Et bien sûr, Google prélève une commission sur les revenus AdSense qu'il génère dont personne ne sait d'ailleurs vraiment à combien elle se monte!

[Est-ce encore drôle de jouer à un jeu dont on possède toutes les cartes ?]

PS: je vais compléter mon kit de blogging avec ce post

Plus efficace: Feedburner signale maintenant mes posts à Ping-O-Matic automatiquement!

Les 2 blogs de Feedburner et de Ping-O-Matic annoncent de manière coordonnée que Feedburner va maintenant (via son nouveau service Pingshot et moyennant une activation de ma part) automatiquement faire un ping sur Ping-O-Matic (qui est aussi "écouté" par Google Blogsearch) pour annoncer la présence de nouveaux billets sur mon blog.

Je vais pouvoir avoir les mêmes excellentes performances que jusqu'à présent mais avec un peu moins d'effort: plus de ping manuel sur Ping-O-Matic!

L'idéal serait bien sûr un ping directement par Blogger (surtout pour ceux qui n'utilisent pas Feeburner...)

Le pingshot de Feedburner est très intéressant:

  • il est "podcast-sensitive": il fait des pings particuliers supplémentaires (vers Odeo par ex.) quand il détecte que le contenu est un podcast.
  • il est ouvert: n'importe quel moteur de recherche peut s'inscrire chez Feedburner pour recevoir ensuite les appels de Pingshot
  • il est protégé pour que les spammeurs ne puissent pas l'utiliser pour maximiser la diffusion de leurs inutilités!il supporte déjà RSSPing qui s'annonce comme le successeur des services de ping actuel.
PS: je vais compléter mon kit de blogging avec ce post

jeudi, septembre 22, 2005

Moins d'une heure pour être dans Google BlogSearch - plusieurs jours pour être le "grand index" google.com!

Depuis le lancement de Google Blogsearch, je surveille le temps qu'il faut à l'un de mes posts pour être intégré dans l'index de BlogSearch par rapport à celui du "grand index" que nous utilisons tous via www.google.com.

Eh bien, après une bonne semaine d'observation, je peux confirmer 2 points:
  • il y a bien un index spécifique à chaque service! Celui de www.google.com mis à jour après les visites de ses crawlers: (environ 1-2j après chaque visite qui a lieu tous les 4-6j pour moi (je ne fais pas partie des grands sites de news visités toutes les 15 min...). Les visites sont peut fréquentes car il s'agit de ne pas trop faire "fatiguer" la grande machinerie classique Google par un crawl traditionnel très coûteux (analyse des pages HTML). Pour Blogsearch, c'est un tout autre système et donc un tout autre index construit grâce aux lecteurs de feeds RSS qui - par la strucure imposée du protocole RSS et ses aspects "pull" - permettent à Blogsearch d'être à jour en temps réel sans consommer beaucoup d'énergie informatique!
  • tous les blogs sont visiblement visités à la même priorité par BlogSearch. En plus, c'est très rapide: mon précédent post a mis moins d'une heure pour être connu de Blogsearch (cliquez ici pour le voir). Blogsearch n'a donc déjà rien à envier à Feedster.
Pour obtenir ces visites aussi rapides de Blogsearch, je vous rappelle les 2 ingrédients de ma "recette" personnelle:

Pourquoi est-ce important d'être indexé au plus vite ?

Pour moi, cela permet plus facilement (sur un terrain alors encore quasi-vierge...) de servir de lien aux autres blogs qui cherchent de la matière pour un sujet connexe à leurs propres articles. On est alors mieux payer dans "l'unité monétaire de la blogosphère" qu'est le lien d'un blog tiers vers le sien!

Google recrute pour la TV. Les cibles? Tivo ? La TV interactive ? etc....

[Via Adam Lasnik]

C'est ne pas la première fois que la blogosphère analyse les offres d'emploi de Google pour (tenter de) deviner les prochains lancements de Google.

La dernière fois, c'était un "directeur des fraudes" en vue du démarrage du futur Google Wallet (qui ne devrait maintenant plus tarder...).

Eh bien maintenant, la prochaine étape prévisible est la télévision. En effet, Adam Lasnik analyse une nouvelle offre de recrutement de Google. Il prédit que l'objectif de Google est d'appliquer ailleurs que sur le trafic Internet (voir post sur GWA et sur GSAC) sa technique de profiling des annonces.

Les mots de l'annonce Google lui donnent certainement raison: "These include but not limited to the intersection of Internet and Television technologies, Video-On-Demand, Personal Video Recorders and emergence of next generation set-top-boxes with IP connectivity".

Cette phrase donne à elle seule un éventail des possibilités:
  • "Video-On-Demand": une synergie Google Video déjà lancé mais toujours en développement
  • Une participation active dans la télévision interactive grâce à la nouvelle génération de décodeurs (set-top boxes) avec connexion internet. [Je reste personnellement convaincu que c'est par le canal ouvert de l'Internet que la télévision interactive arrivera dans nos foyers: je n'ai jamais dans les multiples expériences trop propriétaires des câblo-opérateurs]
  • Une concurrence effrénée à au phénomène Tivo (qui a ses grands fans) qui réussit lui aussi de mieux en mieux via la publicité (en fait, SA publicité qu'il impose à ses abonnés)
  • et peut-être, etc etc etc.... (ils sont créatifs chez Google)
L'éventail des possibilités est large: qui vivra verra! Le marché de la pub TV est colossale et si il mord dedans via ses techniques de profiling, Google va encore se faire ,après ceux de l'édition et de la presse, plein de nouveaux adversaires....

Cerise sur le gâteau: l'ingérence de Google dans tous les domaines de la vie médiatique et online ne va pas calmer la polémique de sa possible invasion (...très bien décrite par ce post) dans la sphère privée de chacun!

mercredi, septembre 21, 2005

A votre demande, une adresse email pour me contacter: mediaandtech@gmail.com

Pour faire suite au commentaire ci-dessous d'hier (fin de ce post) sur mon post Google Wif (GSAC),

j'ai mis en place une adresse email: c'est mediaandtech@gmail.com

Je ne l'avais pas fait avant pour éviter de passer des heures à nettoyer les spams des "méchants" crawlers logiciels qui visitent les blogs en permanence pour trouver des cibles de mails aux sujets "divers et variés" (en fait pas si divers que cela....)

Avec cette boîte qui n'est pas ma boîte personnelle mais qui est renvoyée en temps réel vers mon adresse permanente, vous pouvez me contacter sans délai ... et moi je pourrai la remplacer par une autre (que je publierai aussi) quand elle deviendra trop pénible à purger.

Désolé de ne pas avoir pris le temps de le faire plus tôt!

======================================================

1 Comments:

At 21/9/05 00:30, Anonymous said...

Bonjour,
Pourquoi il y aucun moyen pour vous contacter? C'est exprès? C'est pour le spam?

mardi, septembre 20, 2005

Google Wifi: son propre client VPN - Une autre tentative déguisée de profiling publicitaire?

[Via N. Weinberg]

Depuis le mois d'Août, on entend parler de la construction par Google d'un réseau gratuit de hotspots sans fil (Wifi).

De mutiples posts dans les blogs français sur le sujet
Eh bien, c'est plus concret maintenant: Google veut aussi faire les choses en grand d'un point de vue sécurité pour ses hotspots.

En effet, il existe depuis très peu une URL wifi.google.com à partir de laquelle on télécharger le nouveau Google Secure Access Client (= GSAC que l'on peut télécharger ici).

L'objectif (limité) avoué: permettre une sécurisation des communications des utilisateurs à partir hotspots "sponsorisés" par Google ...et à partir d'autres aussi d'ailleurs! [Voir cet article pour la problématique sécuritaire des hotspots] Le GSAC créé en effet un tunnel encrypté vers des serveurs Google qui ensuite routent le trafic vers sa destination.

L'objectif de ce logiciel GSAC est finalement limité: il ne sert qu'à encrypter la communication sur sa partie sans fil afin d'éviter des écoutes radio. Les paquets de données sont ensuite par contre remis "en clair" sur le réseau Internet (avec le pari que leur interception est alors beaucoup plus difficile).

Ce n'est donc clairement pas une solution de remplacement d'un VPN d'entreprise encrypté de bout en bout entre le laptop d'un "road-warrior" et les serveurs de son entreprise. C'est juste une solution pour être sécurisé sur le dernier tronçon (qu'il soit d'ailleurs par réseau filaire ou sans-fil).

Mais, il y autre chose...

Objectif (clairement) inavoué: Google retente sa chance dans le domaine du profiling des utilisateurs. Il s'agit clairement d'améliorer son profiling publicitaire: quand on utilise Adsense sur un blog (par ex...), le ciblage des "petites boîtes publicitaires" ne se fait actuellement que par le contenu des pages affichées. C'est donc le QUOI qui est pris en compte pour les pubs. Ce ciblage pourrait être encore clairement amélioré si on utilisait le QUI (un profil du surfeur).

C'est ce que Google prépare avec ce GSAC qui lui permet de concentrer et de "voir passer" l'ensemble du traffic d'un internaute pendant qu'il surfe sur les sites Google ou ailleurs. On peut donc ensuite déclencher une analyse de ces données sur le thème QUI a navigué OU?

C'est clairement un des objectifs (inavoués) puisque la page Privacy Policy dit "Google may log some information from your web page requests as may the websites that you visit. We do this to understand how Google Secure Access is being used and to improve our services."

L'enregistrement des informations pour une amélioration des services, c'est quoi ? .... Peut-être, un profiling progressif de l'utilisateur pour lui servir des annonces AdSense de plus en proche de ses centres d'intérêts personnels et de moins en mois reliées aux pages visitées...

En tout cas, les buts cachés de ce GSAC ne sont pas sans rappeler ceux du Google Web Accelerator (GWA) lancé il y a quelques mois pour des raisons fonctionnelles tout aussi louables que celles de GSAC mais qui avait lui aussi certainement les mêmes buts cachés!

Souhaitons à GSAC une vie plus longue que GWA: il n'avait duré que quelques heures (voir ce post) pour de graves problèmes techniques.

Aux abonnés de ce blog par Mozilla Firefox: merci de m'aider!

J'ai dans mon précédent post expliqué l'auto-discovery de Firefox et d'autres lecteurs RSS.

Si vous vous êtes abonnés au feed de Media&Tech par cette fonction Auto-Discovery de Firefox avant aujourd'hui, pourriez-vous m'aider?

[Note: si vous vous êtes abonnés via le petit drapeau XML de la colonne de droite de ce blog, rien à faire pour vous: il a toujours été 100% juste]

Je vous demande vous désabonner (en détruisant le dossier Firefox correspondant) puis de vous réabonner (en cliquant à nouveau la petite icône orange mise en évidence sur l'image de mon post) afin de basculer du feed initial de Blogger à celui "retravaillé" par Feeburner afin de bénéficier de votre côté de leurs services (conversion automatique du format pour être le plus adapté possible à votre lecteur) et de me permettre de vous voir apparaître dans les statisitiques Feedburner.

Merci d'avance!

Mon kit de blog: Blogger, Adsense, Feedster, Feedburner, Ping-O-Matic, Technorati

Mise à jour du 20 Septembre 2005:

J'ajoute aujourd'hui une recette: celle de ce post pour la modification du HTML de la homepage de mon blog pour permettre un "automatic feed discovery" (Firefox, etc...) propre et ainsi une bonne compatibilité avec Feedburner.

Mise à jour du 8 Septembre 2005:

J'ajoute aujourd'hui à mon kit initial les composants ci-dessous:
  • Feedster comme moteur de recherche sur ce blog
  • Ping-O-Matic comme moyen d'atteindre 20 moteurs de recherche en 1 seul ping


Voir ce post pour tous les détails

Post initial du 14 Mai 2005:

Un petit point de situation après mes 3-4 premières semaines: qu'ai-je utilisé ? Et finalement pourquoi ?



  • Blogger: c'est grâce à lui que j'ai pu créer ce blog en 10 min et totalement gratuitement. Pourquoi cet hébergeur? (a) parce qu'il est gratuit et (b) parce qu'il est la possession de Google: ils ont fait des choses grandioses jusqu'à présent. Donc, même si Blogger n'est pas au top actuellement comparé à d'autres, je leur ai fait confiance pour l'améliorer dans les mois qui viennent....
  • Feedburner: en faisant un blog, on a tous un petit côté "cabotin" qui nous pousse à savoir qui nous lit et comment. Il me fallait un service (gratuit - installable en 10 min) de suivi de mon trafic RSS et HTTP/HTML: Feedburner! J'ai vu qu'un de mes blogs favoris, celui de John Battelle l'utilise: il devait donc être bon! Après inscription et utilisation, je le trouve super: je connais ainsi l'identification des readers et les broswers qui viennent sur Media & Tech à travers mon flux RSS. Vous pouvez deviner les techniques de FeedBurner en analysant le flux RSS de Media &Tech: j'ai redirigé mon flux RSS original vers FeedBurner (d'où l'URL http://feeds.feedburner.com/MediaTech pour vous abonner - protocole Atom) et puis en passant à travers Feedburner les URLS incluses dans mes posts sont modifiées par Feedburner pour être renommées au sein de leur DNS et ainsi devenir traçables par Feedburner (une sorte de redirect HTML...) qui me met ensuite des tableaux de bord très précis à disposition sur leur site.
  • Adsense: Les petites boîtes publicitaires Adwords de Google que vous voyez en haut de tous mes posts (et de la page d'accueil) ne sont pas là juste pour me rapporter des millions de dollars (on a toujours le droit de rêver....) mais surtout pour produire un décompte des pageviews issus de vos visites. En soustrayant les pagesviews Feedburner des chiffres AdSense, je me fais une bonne idée du trafic web "pur" (i.e non généré par la lecture du feed RSS).
  • Technorati: je me suis déclaré sur ce moteur de recherche spécialisé dans les blogs sans voir vraiment à quoi d'autre il aurait pu me servir sinon à y être référencé. Cela m'a permis d'installer la petite bulle bleue de Technorati sur la page d'accueil de Media&Tech(en haut à gauche) et d'avoir le plaisir d'un ranking parmi les 8% supérieurs de ce moteur (sur presque 10 millions de blogs suivis par Technorati). Je dois avouer que je ne sais pas ce que j'ai fait (la chance ?...) pour obtenir cette position car l'algorithme de ranking de Technorati est moins bien documenté que le célèbre PageRank de Google. Et puis, il y a qq jours, j'ai trouvé une vraie utilité à Technorati: j'ai créé une watchlist surveillant Media&Tech. J'ai ainsi une alerte générée dans un feed RSS propre à ma watchlist chaque fois qu'un autre blog me référence. Cette watchlist m'a permis de découvrir par ex. que l'un de mes précédents posts était référencé sur le "Blog Gadget" comme un "parallèle rigolo". Vive le "deep linking" ! (même si il impose aux journaux et autres médias parfois un redesign profond de leurs sites)

Voilà ! Fin de la synthèse de mes premières expériences de lancement de mon blog.

Si je suis passé à côté de services intéressants pour améliorer mon blog, merci de me le faire savoir par un commentaire sur ce post. En particulier, je suis intéressé à connaître des alternatives plus européennes/françaises aux différents services que j'ai mis en place et qui sont tous délivrés par des startups(ex- pour Google) de la Silicon Valley.

RSS Feed Autodiscovery & Feedburner: adaptez votre homepage pour Firefox! (et les autres....)

Si vous connaissez le feed autodiscovery, vous pouvez passer directement au point 2. qui en explique l'impact sur Blogger et Feedburner

1. Feed Autodiscovery et Firefox

Certains navigateurs comme Firefox mettent en oeuvre la fonction de "feed autodiscovery" (découverte automatique) de flux RSS.

Elle fonctionne de la manière suivante: le code source HTML de ce blog contient à son début la ligne suivante:

<* link rel="alternate" type="application/atom+xml" title="Media & Tech" href="http://feeds.feedburner.com/MediaTech" /*>

Elle indique aux lecteurs RSS qui la comprennent (par la directive "atom+xml"que - en plus de l'HTML standard - ce blog est accessible par un feed RSS/Atom (avec tous les avantages que cela représente par rapport à une "navigation HTML" standard)

Firefox par exemple sait parfaitement reconnaître la signification de cette ligne: il indique par l'icône ci-dessous (en bas à droite de la fenêtre Firefox) qu'il peut automatiquement s'abonner à ce feed.



Il ne vous reste qu'à cliquer sur cette icône pour que Firefox vous abonne à ce feed et aille régulièrement rechercher ses nouveautés que vous pourrez ensuite lire très vite à partir du dossier qu'il créé avec vos posts.

2. Autodiscovery, Blogger & Feedburner

Quand vous créez un blog sur Blogger, Blogger respecte la convention ci-dessus et inclut donc l'alternate path avec le feed initial qu'il met en place pour vous sans rien faire de particulier

Si ensuite, vous faites comme moi et utilisez les services de Feedburner pour connaître et analyser votre audience, Feedburner met à votre disposition une nouvelle URL de feed (celle qui est mentionnée ci-dessus et que j'ai mis dès le 1er jour sous le drapeau XML de la colonne de droite de ce blog) qui fait passer maintenant à travers leurs systèmes les requêtes de vos lecteurs afin qu'elles soient analysées et servies.

Le but de Feedburner est d'être exhaustif: il doit voir TOUS vos lecteurs pour vous être réellement utile.

Afin d'éviter de couper votre lectorat en 2 et de ne pas bien (pas du tout?)connaître ceux qui se sont abonnés via auto-discovery, il est IMPERATIF de corriger l'entête de votre homepage Blogger pour y substituer le feed initial de Blogger par celui de Feedburner.

[Le forum de Feedburner donne tous les détails précis pour Blogger à cette adresse http://forums.feedburner.com/viewtopic.php?t=14#719 - Merci à Eric Lunt de Feedburner de me l'avoir indiqué]

Ainsi, aucun lecteur humain ou robot comme ceux de Google Blogsearch ou Feedster ne pourra venir lire le feed initial de Blogger et rester "incognito" (i.e. hors des statistiques Feedburner) !

PS: si le post du forum Feedburner ne vous inspire pas, je peux vous donner ma recette détaillée, postez un commentaire pour entrer en contact sur le sujet.

Google Maps et Earth: nouvelles images-satellites

Keyhole, la filiale de Google spécialisée dans imagerie satellite et cartographie annonce une mise à jour majeure de ses photos satellites pour Google Maps et Google Earth: "rafraîchissement" des plus anciennes et meilleur niveau de zoom pour certaines villes:

[Tous les détails de cette annonce ici]

Global Imagery Updates

Very High Resolution Areas:
Jacksonville, FL 2004; Los Angeles, CA 2003; Oxnard, CA 2004;Tampa/St.Petersburg 2002

New High-Resolution Areas:
Wilmington, NC; Myrtle Beach, SC; Quito, Ecuador; Caracas, Venezuela; La Paz, Bolivia; Canary Islands; Brussels, Belgium; Rotterdam, Netherlands; Belgrade, Serbia; Vilnius, Lithuania; Riga, Latvia; Kiev, Ukraine; Mumbai, India; Bangalore, India; Hyderabad, India; Kuala Lumpur, Malaysia; Hiroshima, Japan; Kobe, Japan; Osaka, Japan; Kyoto, Japan; Nagoya, Japan; Sapporo, Japan; Shanghai, China; Saertu, China; Havana, Cuba; Harare, Zimbabwe; Liverpool, UK; Portsmouth, UK; Middlesborough/Hartlepool, UKDarwin, Australia

Updated or Additional Coverage Areas:
Nashville, TN; Quebec, Canada; Buenos Aires, Argentina; Sao Paulo, Brazil; Venice, Italy; Milan, Italy; Birmingham, UK; Plymouth, UK; Dublin, Ireland; Frankfurt, Germany; Vienna, Austria; Warsaw, Poland; Ankara, Turkey; New Delhi, India; Taipei, Taiwan; Seoul, South Korea; Pyongyang, North Korea; Stockholm, Sweden; Cape Town, South Africa;

Venise, Milan, Francfort, Bruxelles, Plymouth, Birmingham mais rien pour la France à ce tour ici.

Bon, ok, quand on voit l'Arc de Triomphe avec un tel de niveau de détails, on peut se dire que Paris est déjà pas mal couvert!

Vivement la même chose pour le reste du pays! (on n'y est malheureusement pas encore...)

samedi, septembre 17, 2005

Google bombing et G. Bush: une réponse (négative) après 20 mois

En décembre 2003, George W. Bush était découvert comme une victime de Google Bombing: sa biographie officielle sur le site de la Maison Blanche est la première réponse d'une requête sur Google avec le mot-clef "failure" (échec) voire même sur "miserable failure" (je ne traduis pas..).

Cf. des articles de l'époque:

C'est toujours le cas: cela fait donc 20 mois que cela dure!

[Un exemple franco-français de bombing ici - sa "genèse" ici]

Le sujet ressort activement sur la blogosphère ces jours-ci (sûrement réactivé par la gestion peu glorieuse de Katrina...)

Eh bien, cela ne changera pas: Google vient d'annoncer officiellement qu'il connaissait ce cas Bush et qu'il connaissait la pratique du Google Bombing mais il annonce aussi qu'il n'est pas question de retoucher manuellement un quelconque résultat de son moteur.

Il en va de la crédibilité de son algorithme PageRank (pour les fans de maths: une bonne intro ici)

Gageons que cette prise de position formelle va encourager la poursuite du bombing puisque Google garantit qu'il ne touchera pas aux résultats de ce genre de manipulations

PS: Le premier Google Bombing "officiellement" connu datant de 2001 est ici

Google Blog Search (sans Adsense) aussi sur Blogger - correction des premiers bugs

Mise à jour du 17.09.2005:

Ce nouveau post de Blogger Buzz annonce que les 2 bugs ci-dessous de BlogSearch sont maintenant corrigés.

Post du 15.09.2005:
Blogger de Google que j'utilise pour gérer ce blog semble être devenu très devenu très dynamique depuis hier lors du lancement de Google Blogsearch.

Par exemple, Google a lancé de manière combinée BlogSearch sous sa marque phare mais aussi sous celle de Blogger (URL: http://search.blogger.com) dont les utilisateurs peuvent directement accéder à Blogsearch via cette interface.


Le blog officiel de Blogger (Blogger Buzz) a bien sûr annoncé le lancement de Blog Search . Mais, surtout dans un deuxième post, Blogger a répondu à 2 soucis déjà notés par la blogosphère (par ex. F Wilson):
le non-respect des fichiers robots.txt dans certains cas
l'utilisation systématique de liens redirigés via Google au lieu du lien original dans les listes de réponse

Ces 2 cas sont en cours de traitement avec une résolution rapide promise. En particullier, le cas des redirect est un vestige d'un passage trop rapide du stade de test à celui de production. Bon, c'est accepté puisque c'est comme toujours une bêta!

Cette entrée massive de Google dans le blogging via Blogsearch va non seulement créer une rencontre entre la blogosphère et le grand public. Mais, cette annonce simultanée sur Blogger me laisse croire que mon pari initial d'utiliser Blogger va s'avérer juste: Blogger devrait recevoir maintenant beaucoup plus de moyens de la part de la maison mère pour combler certaines des lacunes (captchas, trackbacks, etc…) de Blogger.

Un détail supplémentaire dans l'article Internetnews: il est dit qu'il n'y a pas de pubs Adsense / Adwords pour l'instant dans les résultats produits par Blogsearch: la monétisation est pour plus tard…

Enfin, un complément de l'article ClickZ : seuls les posts depuis Juin sont indexés. Le contenu plus ancien sera réintégré plus tard. (une lacune contre Technorati ou Feedster qui indexent eux tout le contenu)

vendredi, septembre 16, 2005

IBM: les podcasts d'abord puis le RSS massif. Big Blue en pleine mue vers le Web 2.0?

[Via Vtech & G. Frat]

IBM a toujours su s'adapter aux changements technoliques pour rester un leader mondial depuis sa naissance dans le monde des machines à écrire il y a fort longtemps....

De multiples exemples récents le confirment:

Pourquoi IBM s'y lance-t-il même si l'utilisation de RSS est encore très limitée?

Il y a des bonnes raisons pour se lancer aussi tôt. En effet, j'avais déjà évoqué les avantages de RSS "vu du consommateur":

".... moi, je suis un fan de RSS. Je dois avouer que son utilisation m'a fait :

  • largement réduire mon temps de "navigation explo-erratoire" sur l'Internet: je trouve dans les feeds RSS plus que de quoi occuper mes heures de lecture avec les feeds auxquels je suis abonné.
  • largement augmenter le nombre de choses que je lis dans un temps imparti: le RSS amène les informations vers moi au lieu de la navigation Internet standard qui m'oblige à passer "manuellement" d'un site à l'autre et donc finalement de perdre pas mal de temps à circuler de ma liste de Favoris vers les sites correspondants.
  • totalement modifier ma méthode de découverte des sources d'informations qui m'intéressent: au lieu de passer essentiellement par Google, je découvre maintenant mes lectures en progressant de manière connexe d'un blog à l'autre vers ceux qui correspondent le plus étroitement à mes intérêts du moment.
  • progressivement abandonner les sites média & news classiques pour me focaliser progressivement sur les blogs d'experts des sujets qui m'intéressent si bien que certains sujets me paraissent du "déjà vu" quand je les retrouve sur les grands classiques sur lesquels je vais toujours un peu (... ou en fait qui viennent aussi à moi depuis peu par RSS - merci Google!) ....."

Et puis, les 6 bonnes raisons pour RSS d'Emanuel Vivier font certainement aussi partie des réflexions d'IBM. En tous cas, au moins 2:

"..... 2. Compatibilité et efficacité : Le format xml permet à des sites ou logiciels basés sur des langages différents de discuter ensemble. Le contenu devient ultra compatible. Contrairement à l’e-mailing, avec les RSS, c’est la fin du « spray and pray » (diffuser et prier). Ici plus besoin de vous soucier des filtres antispam, des problèmes de compatibilité html, les NPAI, des boites email arrivées à saturation, des black lists des fournisseurs d’accès ou de la difficulté à respecter la législation « Can Spam »,… obstacles croissant à l’emailing. C’est l’abonné qui récupère le contenu et non plus vous qui avez à l’envoyer ....

.... 6. Respect des utilisateurs : Avec les RSS on passe de l’interruption marketing (interrompre l’utilisateur pour lui imposer votre message) au permission marketing (consultation volontaire à la demande).

Contrairement à l’e-mail où il est souvent difficile pour l’internaute de se désabonner d’une newsletter, ici c’est ce dernier qui maîtrise la relation. En un clic il choisit de s’abonner ou se désabonner de votre flux. Il n’a plus besoin de vous donner son adresse e-mail, son nom,..


Les RSS devient une solution intermédiaire entre la visite et l’abonnement à une newsletter. Une sorte de rendez-vous plus que de relation… L’émetteur doit donc veiller à la qualité du contenu du flux sous peine de voire un désabonnement express vu sa facilité… A l’inverse, cette liberté garantie la valeur de chaque abonné. Si la désinscription est si aisée, c’est bien que vos abonnés sont réellement intéressés par votre contenu, vos services,…


Est-ce la fin de l’email et des newsletters ?
Les RSS ne tueront certainement pas les mails ou les newsletters, pas plus que le dvd a tué le cd, la tv le cinéma ou le magnétoscope la TV. Les RSS s’adressent d’abord à des sites dont le contenu évolue fréquemment. Si les RSS sont un outil très efficace en communication « One to Many », l’email garde sa supériorité en matière de communication One to One.


La compréhension de la technologie RSS reste encore un peu complexe pour l’internaute lambda… Il faudra certainement un peu de temps avant que l’utilisation d’un lecteur de flux RSS se généralise. Mais il suffira que la prochaine version d’Internet Explorer et d’Outlook (ce qui semble à l’ordre du jour) les intègre pour que voir les choses s’accélérer encore plus. Le succès des blogs devrait aussi grandement démocratiser l’adoption des RSS.


Enfin contrairement à l’e-mailing, les outils de mesure statistique sont encore très rudimentaires en ce qui concerne les RSS. Impossible de savoir facilement le taux d’ouverture,... Mais là encore les choses devraient vite évoluer… Le besoin n’est il pas mère de créativité ? ,,,,,"

C'est surement pour toutes ces bonnes raisons mais aussi pour se montrer innovant (un terme très - trop - à la mode) en participant au second souffle de l'Internet décrit par Libération que IBM se lance dans le RSS et les autres technologies du Web 2.0. Il faut attirer de nouveaux clients (et ne pas perdre ceux qui existent).

Comme dit au début, le marketing n'a jamais été une faiblesse de Big Blue....

Espionnage accoustique des touches de clavier: 96% des caractères frappés reconnus! Fini les surfs extra-professionnels "douteux"?...

Physorg.com annonce que des chercheurs de l'université de Berkeley en Californie sont capables de reconnaître 96% des touches frappées sur un clavier par simple analyse de la bande audio correspondant aux bruits des touches du clavier.

La présentation officielle de ces résultats aura lieu début Novembre lors de la conférence ACM

Bien sûr, il leur faut un peu d'aide mathématique: le langage doit être connu avant l'analyse pour utiliser ses caractéristiques statistiques (par ex., suite "t-h" très fréquente en anglais, etc...) et les combiner au bruit spécifique de chaque touche d'un clavier. Eh puis, il faut "entraîner" un peu le système avant d'atteindre les 96% annoncés (tous les détails dans l'article)

Cet entraînement du système lui permet même de lutter contre les bruits parasites comme la musique ou les sonneries de téléphone. Malgré tout les chercheurs reconnaissent que les bruits environnementaux compliquent la tâche!

Mais, on n'en est qu'au début: les chercheurs vont faire accomplir des progrès à leur machine: laissons-leur juste le temps... [C'est quand même solide: le système fonctionne avec des utilisateurs multiples et beaucoup de claviers différents mais ceux réputés "silencieux"]

Les premières applications de cette découverte sont la sécurité: après Google Maps qui sert à révéler des indiscrétions, il y a maintenant un autre source de fuite dans les entreprises et institutions. Les paranoïaques sécuritaires ont donc encore de beaux jours devant eux...

Sachant que l'équipement nécessaire est très simple (un micro à 10$ selon les chercheurs), j'y vois une application beaucoup plus prosaïque: l'espionnage par ses propres voisins du bureau (ou son patron..).

En effet, si on injectait les touches frapppées pendant les surfs de certains (qui pensent le faire discrètemment) pendant les heures de bureau à travers cette technologie sur l'ordinateur du DRH, il y aurait du "vent dans les voiles": cette étude de 2002 de Websense montrait déjà à l'époque que la pornographie sortait en tête des problèmes. Je suppose qu'elle y est toujours!

jeudi, septembre 15, 2005

ATLAS de Microsoft décrit par son boss

[via R. Scoble]

Microsoft a annoncé son ATLAS appelé à concurrencer / compléter AJAX.

Le patron de l'équipe ATLAS chez Microsoft, Scott Guthrie, donne maintenant plus de détails sur son blog;
  • pas de modification des binaires des frameworks .NET, ASP.NET, etc...
  • une installation très simple par copie de dll
  • un design cross-browser qui permet un fonctionnement pas seulement sur IE mais aussi sur Firefox (c'est important!) et Safari
  • des nouvelles versions tous les mois (sans compter les patches?...). S. Guthrie appelle cela de la transparence: il fera ainsi partager les idées ATLAS dès qu'elles sont mûres.
  • beaucoup d'indulgence demandée aux développeurs: S. Guthrie considère que la version actuelle n'est même pas bêta.

Chercherait-il à battre Google sur le terrain du "tout bêta" en le transformant en "tout alpha"?

HP en France après Los Alamos aux USA: le blog comme outil de protestation et revendication officiel (syndical)

[via L. Lemeur]
Dans ma saga sur la puissance de la blogosphère, j'avais montré comment les employés du laboratoire de Los Alamos avaient finalement "eu la peau" de leur directeur via les protestations frénétiques sur le blog "LANL - The Real Story", créé spécialement pour le critiquer.

Dans ce post du mai 2005, je disais à quand le premier exemple européen? Eh bien, nous l'avons:

c'est le syndicat CFTC de HP qui ouvre un blog sur Blogger pour protester contre le plan social

Et c'est très véhément

"....Pour l’intersyndicale d’HP cette annonce inadmissible montre que le véritable PDG de cette entreprise est le cours de l'action. La société parie avant tout sur les licenciements et la réduction d'avantages sociaux pour augmenter ses profits (5% net actuellement soit plus de 4 Milliards de $ par an) et utilise ensuite ces mêmes milliards de dollars pour racheter ses propres actions !

C’est une erreur stratégique de massacrer les emplois dans les pays au modèle social développé car ce sont ceux où HP fait le plus de business.Il n'y a plus de responsabilité citoyenne, le comble du cynisme est que ceux qui prennent et exécutent ces décisions -qui frappent les employés en les stressant, les appauvrissant ou jetant certains dans la précarité- gagnent et vont gagner des milliers voire des millions de dollars grâce à leurs nombreuses stock options en plus de salaires déjà très confortables"

Les commentaires (on peut admettre qu'ils soient tous anoymes...) sont également chauds:

"....En esperant que les salariés d'HP ne soient ni responsables, ni citoyens mais enragés, determinés et combatifs pour faire barrage à ce plan degeulasse"

ou
"il faut qu'HP souffre la ou cela lui fait mal puisqu'a priori les deboires de ces employes ne l'interresse pas.
- impact sur la marque=> boycott consumer HP en Europe voir ww ?
- chute de l'action ? => Que tous les futurs vires confirmes que Q4 ne sera pas atteint...
- entreprise fiable ?=> ralentissez les process clients, les emails, les demandes de rdv, etc
...et souvenez vous de la campagne d'HP vers ses futurs employes PRINCIPAL assets dans une entreprise de ce type "Pour quel monde ?"....

Un blog de ce type est pour moi une première: j'en suivrai l'impact avec grand intérêt. Pour le début, c'est le début: un seul post du 12 Septembre.

PS: Je souhaite sincèrement bonne chance aux concernés.

mercredi, septembre 14, 2005

Steve Ballmer va encore pouvoir casser des chaises: Kai-Fu Lee ok chez Google pour la justice!

Steve Ballmer va pouvoir encore casser des chaises contre "f*cking Google": la justice américaine a donné raison à Google contre Microsoft.

Google peut doncemployer le docteur Kai-Fu Lee dès aujourd'hui: ses nouvelles attributions n'entrent pas dans les clauses bloquantes du contrat de non-concurrence avec son ex-employeur!

MSN Virtual Earth utilisable dans une application commerciale - A quand Google Maps?

Lors des multiples annonces de PDC05, Andy Coates rapporte que Microsoft fait un pas plus loin dans les services cartographiques "à la sauce Web2.0".

En effet, son service MSN Virtual Earth de cartographie est maintenant également utilisable gratuitement pour des applications commerciales alors qu'il n'était autorisé que pour des "hacks privés" jusqu'à présent

Dès janvier 2006, il sera possible de lever une dernière restriction : supprimer la boite de recherche encore imposée pour l'instant contre un paiement du service.

J'ai un faible pour Google Maps (contre MSN Virtual Earth encore embryonnaire) avec ses multiples applications . Ce sont peut-être les bugs de lancement qui m'ont laissé une mauvaise impression....

En tout cas, cette annonce est pour moi malgré tout fort intéressante: elle va pousser Google à s'aligner et à assouplir les conditions actuelles de monétisation de son Google Maps qui lui sont trop favorables!

Combien de temps mettront-ils à offrir la même chose? La concurrence féroce actuelle devrait aider....

Blogsearch.google.com: Google se lance contre Feedster, Technorati, Icerocket


[Via J. Battelle]

Tout est dans l'URL blogsearch.google.com: Google lance aujourd'hui son moteur de recherche spécialisé dans les blogs. Voilà qui ne va pas arranger les affaires de Technorati déjà bien mal en point…. [A noter quand même quand que D. Sifri, ceo de Technorati et beau joueur, salue déjà l'entrée de ce poids lourd comme une validation de l'importance de la blogosphère …. et du travail de sa société!)

Jusqu'à présent, un blog pouvait bien sûr finir par être référencé sur Google mais dans le moteur générique qui avec ses caractéristiques spécifiques (algorithme Pagerank pas adapté aux blogs, visites peu fréquentes, etc…) ne convenait pas vraiment!


Je viens d'installer Feedster comme moteur de recherche sur mon blog: il se pourrait donc fort bien que je change bientôt! (dès que GBlogSearch aura quitté son statut bêta - bien sûr standard chez Google…).

En effet, Search Engine Watch donne déjà pas mal de détails intéressants:

  • Google visite en temps réel les feeds des blogs qui s'annonce aux services de ping (comme je le fais avec Ping-O-Matic). Mais, seulement les feeds donc malheur à ceux qui ne publient qu'un extrait de leurs posts dans leur feed! Pas de visite du blog pour avoir le texte complet dans ce cas-là (pour l'instant).

[C'est vrai pour mon blog: je suis passé d'une semaine de délai moyen à quelques herures depuis que Google a enclenché ses crawlers]

[Par contre, l'index de BlogSearch semble différent du "grand" index de Google: à ce moment, mon post de Lundi sur Atlas/Ajax se trouve dans l'index Blogsearch et pas dans l'index général]

  • Google respecte les fichiers robots.txt si jamais vous voulez ne pas faire indexer certains morceaux de votre blog
  • une forme de liste de réponses très habituelle pour les utilisateurs de Google
  • en tête de réponse, une liste des blogs intéressants si la forme de la question semble montrer que l'utilisateur chercher plutôt des blogs complets qu'un post en particulier
  • tri des réponses par date qui est plus adaptée aux blogs que le PageRank
  • présence d'une page de commandes avancées permettant de chercher par date, par auteurs, les liens entre blogs, etc….
  • possibilité de mise en place d'alertes commes les alertes de Google News: un email vous arrive dès qu'un nouveau post satisfait la requête que vous avez placée en tant qu'alerte
  • déjà multi-lingue: 8 langues et d'autres à suivre!


B. Scoble accentue déjà la rapidité et l'efficacité de GBlogsearch face à Technorati et Bloglines. Dans un second post, il montre aussi une meilleure qualité des résultats de GBlogsearch: moins de spam que dans Technorati.

Yahoo et MSN vont devoir maintenant suivre!

PS: je rejoins D. Sifri. L'arrivée de Google dans ce monde valide l'importance de la blogosphère et va sûrement la faire connaître encore mieux et plus vite du grand public!

ATLAS de Microsoft: lancement d'un (futur) géant ?

Microsoft avait pré-annoncé en début de semaine le lancement de son framework Atlas pour "contrer" (ou compléter ?) le AJAX du monde ouvert dans son environnement propriétaire ASP &. Net

D. Neimke confirme que ce lancement a été officialisé lors la Professional Developper Conference 2005 (PDC05) de Microsoft, la grand-messe annuelle de ses développeurs tierces.

Le site officiel (docs, tutoriels, etc…) de Microsoft pour cette nouvelle technologie est
http://beta.asp.net/default.aspx?tabindex=7&tabid=47

Si l'on en croit le nom, ce devrait devenir géant! ;-)

PS: comme je suis plus fan de l'Open Source (au vu de mes posts sur le sujet), je devrais de mon côté ces prochains mois plutôt côtoyer AJAX que ATLAS pour de futures applications "à la sauce Web 2.0"

lundi, septembre 12, 2005

Pour le web 2.0, AJAX = ATLAS (microsoft) - histoire d'un retour aux sources pour PDC05

Le web 2.0 est actuellement incarné par la technologie Ajax (definition Wikipedia FR et EN) avec les interfaces puissantes et riches (cf. Gmail, Google Maps, ViaMichelin, etc...) qu'il permet de créer à la mode de la "Remix Culture" qui combine les APIs des leaders de cette nouvelle architecture de l'Internet.

01Net donne un aperçu de la situation:
  • naissance du nom AJAX officiel au début de 2005
  • ... mais existence beaucoup plus ancienne: Microsoft en est à l'origine depuis 1998 pour la première application "Ajax-like" qu'a été Outlook Web Access
  • de nombreux frameworks AJAX en gestation: Sarissa, Prototype, Dojo, Sajax et une vingtaine d'autres... Le prochain sur la liste est Atlas de Microsoft. (Une analyse comparative globale ICI)
  • pas nécessairement la panacée: débogage complexe, incompatibilités inter-navigateurs, peu / pas d'outils.

La boucle va maintenant se refermer: Microsoft, "géniteur" de AJAX et donc un peu du web2.0 va finalement yaccorder beaucoup de ressources: tout le monde dont ZDNet annonce une énorme vague d'annonces lors de la conférence PDC05:

  • ouverture commerciale de l'API MSN Virtual Earth
  • ouverture d'une API MSN Search
  • ouverture d'une API MSN Messenger
  • etc...

La bataille du web2.0 entre les grands Yahoo, Google, MSN s'annonce maintenant clairement ouverte... et chaude! Il s'agit d'attirer un maximum de développeurs tiers vers sa plate-forme pour en assurer un développement explosif.

Et Microsoft a clairement une position ambigue dans cette nouvelle bataille selon ZDNet:

Conflit au sein de Microsoft


Atlas pourrait inclure le logiciel MSN Framework, qui permet d'écrire des applications Javascript fonctionnant au-dessus des services web de Microsoft, comme le futur Hotmail ou le service de blog et de partage de photos MSN Spaces.


Promouvoir la plate-forme Ajax pourrait toutefois entrer en conflit avec la stratégie de Microsoft, notamment dans le domaine des clients légers, où la priorité est donnée à l'exploitation des fonctions de Windows et de MS Office sur un PC.


«Il y a un débat continu au sein de la compagnie sur le bon degré de support à accorder à ce genre de choses, tout en restant conscient qu'elle est avant tout dans le business des systèmes d'exploitation», indique Michael Cherry, analyste chez "Directions on Microsoft".

Tag Technorati: pdc05 (PDC05 = Professional Developper Conference 05)