mardi, octobre 02, 2007

Universal Search: Yahoo améliore le principe de Google

Après Google, Yahoo introduit aussi l'Universal Search dans son moteur de recherche: les résultats mélangent d'office les informations de tous les domaines (texte, photos, vidéos, etc...). D'ailleurs, Yahoo introduit même les vidéos de Google / Youtube dans ses propres résultats.

[Le meilleur service de recherche pour l'utilisateur est celui qui livre les résultats les plus pertinents même si ils proviennent du premier concurrent...]

Il y a une certaine similarité avec cette capture-là, n'est-ce pas ?

Mais, là où Yahoo dépasse Google (à ce jour...), c'est qu'il propose d'autres possibilités de recherche basé sur les concepts sémantiques divers que le mot recherché englobe. Mon screenshot ci-dessus est basé sur la recherche "tiger": dans l'onglet (rétractable via AJAX) gris-bleu foncé, le moteur me propose alors d'affiner ma recherche sur des directions sémantiques différentes: l'animal, le joueur de golf Tiger Woods, l'équipe sportive des Detroit Tigers, etc....

Pourquoi ces propositions ? Bien sûr pour aider l'utilisateur à obtenir les résultats les plus pertinents. Mais peut-être aussi pour l'inciter à partir en wilfing sur des directions très variées donc à lui faire maximiser son utilisation du moteur.

Qui dit maximisation de l'utilisation dit augmentation du nombre de pages de résultats montrées donc des boîtes publicitaires affichées. Et ç, c'est bon pour le service Panama de Yahoo toujours à la poursuite des centaines de milliers d'annonceurs de Google AdWords!

Source: blog Media & Tech (par didier durand)

lundi, octobre 01, 2007

Projet NACA: migration Mainframe IBM vers serveurs Intel/Linux - motivations et stratégie [1]

UPDATE 01-2012: Le projet NACA a donné naissance à Eranea, société dédiée à la migration 100% automatisée de grandes applications métier vers Java et Linux. Voir  www.eranea.com ou email à contact@eranea.com pour plus d'informations
_______________________________________________________________________
Mise à jour: le code source des outils du transcodage NACA est maintenant en Open Source. Voir http://media-tech.blogspot.com/2008/07/les-outils-du-projet-naca-de-publicitas.html.
[Introduction: cet article est le premier d'une série qui décrira le projet NACA ayant conduit au remplacement d'un mainframe IBM sous MVS/OS390 par des serveurs Intel sous Linux. Le projet a été lancé en Janvier 2003 et s'est terminé avec succès au 30 Juin 2007. Il a été réalisé volontairement de manière 100% iso-fonctionnelle (i.e. sans aucune modification pendant et par le transcodage) pour l'application et a permis la conversion automatisée de 4 millions de lignes de Cobol vers leur équivalent Java. L'économie en cash-outs - paiements externes - est de plus de 85% de leur montant annuel = initial d'environ 3 millions d'euros annuels

Articles déjà parus:
]

]
Tout d'abord le nom du projet:
  • en français, NACA = "Nouvelle Architecture Centrale d'Applications"
  • en anglais, NACA = "New Architecture for Core Applications"
Comme le titre de l'article et l'acronyme ci-dessus l'indiquent, ce projet lancé par mes soins chez mon employeur Publicitas (mère de Publiconnect) a eu pour objectif initial la conversion d'un mainframe IBM modèle G5 exploité via les logiciels standards habituels (MVS/OS390, CICS, COBOL, DB2) vers son équivalent naturel dans le monde du Logiciel Libre (Open Source):Linux, Java, Tomcat, UDB. Il s'agissait d'amener l'application commerciale maison, appelée PUB 2000 et développée à la fin des années 80, vers un environnement technologique moderne et efficace.
Nous avons lancé ce projet à mi-2002 sur le constat que l'Open Source "montait en puissance" et était utilisé sur des applications autrement plus critiques que la nôtre: de multiples exemples émergeaient déjà dans le monde des industries classiques: énergie, aéronautique, aérospatial, finance avec des noms prestigieux comme Boeing, Sony, Nasa. Toutes ces applications industrielles trouvées au travers de notre veille technologique avaient des niveaux de charge et de volume bien supérieurs aux nôtres. Notre activité est d'environ 750'000 transactions par jour effectuée par une population de 1'500 utilisateurs environ.
Par ailleurs, dans un domaine moins habituel pour Publigroupe (mon employeur), des startups (de l'époque….) comme Google nous montrait qu'elles arrivaient à délivrer sur Linux un service de qualité impeccable à des très hauts volumes de charge. Certes, à l'époque pas encore avec 1 million de serveurs pour délivrer 120 milliards de pages chaque mois mais quand même avec déjà des niveaux de charge bien supérieurs aux nôtres. Côté fiabilité, la solidité prouvée de l'Open Source est bien décrite par la célèbre Loi de Linus (Torwald, père de Linux) énoncée par Eric Raymond dans son essai "La cathédrale et le bazar" (à lire ou relire, impérativement!). Cette loi dit donc ""Étant donnés suffisamment d'observateurs, tous les bogues sautent aux yeux'' .
Les feux étaient donc au vert et nous sommes lancés, conscients que de nombreux écueils se trouvaient encore devant nous car une telle migration Mainframe MVS était pour le moins pionnière (voire inconsciente ou hérétique au gré des interlocuteurs…)
Mais, nous sommes partis dans l'exploration des possibilités technologiques pour NACA car la première motivation du projet était massive: le mainframe IBM nous coûtait en "cashouts" (sommes payées aux fournisseurs IBM et tiers) environ 3 millions d'euros par an. 80%+ de cette somme, soit pas loin de 2.5 millions d'euros partaient dans les licences de location des logiciels utilisés comme "carburant de la grosse boîte".
Le calcul financier initial était donc simple (même simpliste pour certains…) : le Logiciel Libre est gratuit. La plate-forme mainframe IBM supporte le Logiciel Libre et le remplacement intégral des logiciels propriétaires d'IBM et des tierces parties par leurs équivalents Open Source permet donc réduire les coûts annuels de 2.5 millions par euros. Si on calcule abruptement...
[Note: IBM annonçait à l'époque - preuve avec le code source à l'appui - que moins de 1% du noyau de Linux était modifié pour supporter sa plate-forme hardware mainframe de la série G.On parle donc véritablement du même logiciel Open Source que pour des serveurs Intel]
Ces économies très consistantes représentaient une motivation suffisante aux yeux des gestionnaires des finances de PubliGroupe pour lancer le projet puis le soutenir dans les moments difficiles qui ne manqueraient pas de survenir (on en reparlera dans les prochains épisodes…)
Nous sommes partis avec les objectifs et lignes directrices:
  • migration douce: le "big bang" de la migration globale de l'ancien au nouveau système en une nuit a été banni d'entrée. Les uns et les autres de l'équipe connaissaient tous des projets internes ou externes ayant échoué par la volonté de passer "la grande marche" en 1 seule étape. Nous avons donc décidé de construire comme chemin de projet plutôt un long escalier doté de multiples petites marches permettant de progresser irrévocablement (mais avec retour arrière possible à chaque fois)
  • transcodage iso-fonctionnel et automatique: il s'agit d'éviter le mélange des genres qui conduit le plus souvent à l'émergence de nouvelles contraintes souvent fatales. Donc, nous avons décidé de migrer les fonctions écrites en Cobol 1 pour 1 vers Java. A la sortie, le code Java fait juste la même chose que le code Cobol. Il le fait et juste pour beaucoup moins cher....
  • préservation des équipes en place: les collaborateurs fidèles à l'entreprise et au système depuis 20+ ans sont les plus aptes à le faire migrer. Pour autant que l'on injecte juste le sang neuf nécessaire à l'infusion des nouvelles compétences Linux et Open Source.
Le principe de la migration douce est de construire le nouveau système non pas en parallèle (i.e séparée) du système historique mais plutôt de bâtir progressivement le nouveau système en remplaçant des parties de l'ancien et en interconnectant les nouveaux composants avec l'ancien système pour délivrer une qualité de service au moins identique (voire meilleure) en permanence aux utilisateurs sans créer de césure entre ancien système et nouveaux composants. La conséquence directe de cette stratégie est que l'on commence la migration du système par les couches basses puis que l'on remonte "la pile des niveaux logiciels" pour terminer par l'application maison.
Avantage de cette progression"bottom-up": les administrateurs du système gérant habituellement ces couches basses sont les premiers à quitter l'ancien monde vers le nouveau. Ils ont donc la possibilité de dominer les technologies (nouvelles pour eux) du monde Linux et de s'y sentir très à l'aise quelques mois plus tard quand c'est le moment pour les développeurs applicatifs d'y entrer.
Par ailleurs, le transcodage iso-fonctionnel et automatique est essentiel pour la fluidité du projet. En effet, en utilisant un outil (que nous avons fini par développer "maison" - j'y reviendrai dans un autre article) de transcodage 100% automatique, on peut continuer la maintenance applicative fonctionnelle dans l'ancienne version et faire passer "fluidement" les nouveautés dans le nouveau monde par simple transcodage.
On n'impose ainsi aucune date à la mise en service de la nouvelle version Open Source de l'application qui serait par exemple due à un respect d'une nouvelle réglementation. Dans une telle situation, un conflit entre une nouvelle technologie applicative qui ne fonctionnerait pas comme prévu et une obligation règlementaire impérative pourrait avoir des conséquences dramatiques pour le projet.
Avec le stratégie retenue pour NACA, au contraire, les développeurs font leur maintenance sur l'ancien code COBOL jusqu'au jour où la nouvelle application Java est certifiée comme valide pour la production après plusieurs semaines d'utilisation opérationnelle satisfaisante. A ce moment seulement, le Java transcodé devient le nouveau code source. Avant, il n'était qu'un langage intermédiaire de compilation. [On y reviendra dans tous les détails ultérieurement]
Enfin, nous avons décidé de préserver les équipes en place au maximum en les formant au maximum sur les technologies Open Source. Le deal est très simple:
  • une telle migration ne peut se réaliser sans la participation la plus entière des équipes en place. Il y a des dizaines de milliers de détails à connaître et à traiter de manière anticipée pour éviter au maximum tous les écueils (fatals) pouvant tuer le projet. Lancer les "jeunes loups de l'Open Source" contre les "vieux crocodiles du mainframe" serait la pire des erreurs de conduite d'un tel projet
  • la plupart des membres des équipes (système et développement) en place souhaitent faire évoluer dans leur expertise quand il voit que le monde change autour d'eux. Ils suivent aussi l'émergence de l'Open Source depuis leur cockpit du mainframe et donc sont prêts à se convertir avec peu de résistance - quand les objectifs précédemment évoqués leur sont expliqués clairement - pour poursuivre leur carrière en tant qu'experts du monde Linux dès qu'on leur offre le service de formation nécessaire. Les experts technologiques pointus aiment le rester et savent faire ce qu'il faut en termes de "bits and bytes" pour adapter leurs connaissances généralesd'architecture informatique à une "nouvelle quincaillerie" qui fonctionnent le plus souvent sur les mêmes grands principes que la précédente génération (juste une syntaxe de commande un peu différente...)
Pour terminer ce premier épisode, j'attirerai l'attention sur le fait qu'une telle migration de l'application maison d'un contexte propriétaire fermé à un contexte Open Source ouvert apporte aussi un avantage intangible (i.e. pas quantifiable en euros) lorsque l'on démarre: celui de replacer l'application sur une plate-forme à partir de laquelle les mécanismes d'interaction avec le reste du monde (i.e. autres applications de la société) deviennent 10 / 100 /1'000 fois plus simples.
On peut donc intégrer cette application d'une manière beaucoup plus efficace et rapide: des processus "historiques" semi-automatisés et peu rapides de transfert de données d'un système à l'autre (les célèbres "moulinettes" d'import-export inter-systèmes) peuvent être remplacées par des communications directes en temps réel (type RPC - Remote Procedure Call) entre les blocs du système informatique global (par exemple entre l'application commercial et le système CRM)
En conclusion, le catalyseur initial d'un tel projet est sûrement le montant consistant des économies réalisées mais le vrai bénéfice à long terme est de replacer le système de l'entreprise dans un contexte technologique moderne qui lui permet d'améliorer son business parfois de manières imprévues au début du projet mais très significatives. Et tout cela, pendant toute la durée du projet (4.5 ans pour nous) sans jamais perturber l'évolution de l'application via la magie du transcodage automatique....
Exemples de tout ceci dans les futurs billets. Donc, à suivre!
Source: blog Media & Tech (par didier durand)

Contre MS-Office: Adobe rejoint Google Docs. Attention à l'arme Flash Player!

Mise à jour 01/10/2007:

Voir chez Jean-Marie la réaction forte de Microsoft qui lance à son tour Microsoft Office Live Workspace contrer tout ce petit monde: "la version étendue de Microsoft Office doit facilement permettre aux utilisateurs de se connecter sur leur PC aux applications Microsoft Office Word, PowerPoint®, Excel® et Outlook® via le Web. Une accessibilité gratuite (available at no charge !) qui se double de possibilités collaboratives, puisque l'on pourra travailler à plusieurs sur un projet en gérant mots de passe, invitations, versionning, etc. Et transférer tout ça par courriel"

Billet Original 01/10/2007:

La bataille sur les suites bureautiques en ligne promet d'être chaude: après la banderille plantée par Google avec Google Presentations et l'acquisition de Zimbra par Yahoo, Adobe se jette aussi dans l'arène

La société vient d'annoncer l'acquisition complète de la startup Virtual Ubiquity pour son traitement de texte en ligne Buzzword. Technologiquement, Adobe annonce déjà une future version basée de Buzzword sur sa plate-forme AIR (avec de multiples applications) afin que ce Word-like puisse aussi fonctionner offline (comme le permet Google Gears). Par ailleurs, Buzzword sera intégré avec le nouveau service Adobe Share qui comme son nom l'indique permet le partage de documents via Internet.

Adobe a une immense expérience à la fois du monde des entreprises et du monde du monde des particuliers. Ils sont donc plutôt bien armés en support-utilisateur, références clients, etc... Le "questionnaire-tueur" de Microsoft n'a qu'à bien se tenir!

Et surtout, l'arme fatale de Adobe, c'est son niveau de pénétration sur les PCs de cette planète: ils annoncent qu'à travers le player Flash, ils sont installés sur 99% des PCs en activité.
Voilà, un excellent moyen de savonner la planche dans le bon sens en glissant des teasers vers leur nouveau traitement de texte en ligne Buzzword depuis ce player Flash afin de faire exploser l'utilisation du traitement de texte d'Adobe. D'ailleurs le service Share évoqué plus haut permet de faire une version Flash de tous les documents qu'il stocke pour partage afin de les visualiser simplement dans tous les navigateurs.

De grosses synergies en prévision pour Adobe!

Dans ce secteur de la bureautique en ligne, Adobe pourrait donc peut-être s'avérer finalement un adversaire plus coriace que Google pour Microsoft...

Source: blog Media & Tech (par didier durand)

samedi, septembre 29, 2007

Google Street View: les coccinelles espionnes vues à Londres

Vous vous rappelez Google Street View: un grand succès lors du lancement de ces vues panoramiques (basées sur photos simultanées multiples) des rues des villes américaines.

Ce nouveau service de Google avait même donné lieu à un jeu de pistes des scènes insolite trouvées sur ces photos prises "dans la vie de tous les jours".

Eh bien, il semble que nous allons aussi bientôt pouvoir jouer à ce jeu en Europe: la première "Googbeetle" vient d'être photographiée à Londres par le blog Dvorak Uncensored (J. Dvorak est l'un des chroniqueurs de Twit auquel je suis toujours aussi assidu).


La ressemblance entre la photo ci-dessus et celle-ci sont vraiment troublantes, non ?

Je parie que Paris suivra Londres vu son immense attractivité touristique.....

Source: blog Media & Tech (par didier durand)

jeudi, septembre 27, 2007

Les annonces classées et le web 2.0 (INMA - Varsovie)

Mise à jour [Billet initial en fin]: Gazeta, journal polonais, qui nous recevait avait mis un blog en place

La photo durant ma présentation: pour la fierté de mes parents ;-)

[Note: le costume-cravate n'est pas mon attirail préféré]

Le compte-rendu "officiel" de mes propos avec certains raccourcis ... "journalistiques" (je n'ai peut-être pas été 100% clair!):

"In 2004 real estate ads and motorist ads disappeared from Swiss newspapers. PubliGroupe, the company that specializes in advertisement space sales decided to turn the tides. PubliConnect project was found - Head Business Engineering, Didier Durand spoke about it.
-The market shrinks. Classifieds market still hangs on but not for long. - Durand warned. What can be done about it? First of all one must realise what is going on. - Technology no longer makes business easier - it defines it - he stated, quoting John Chambers, head of American giant - Cisco.

Reality is harsh for traditional editors. Today almost everyone can replace them. Private users create millions of websites. Under such circumstances one has to modify the very doctrine "Content is King" to "Volume of Content is King."

Community service Craiglist - the bane of classified ads sector in the U.S - publishes 14 million new, free job ads a month. It is 45th most popular website in the Internet. Conclusion: users are not that much about quality - the volume of ads is something that matters.

What can press editors do? What are newspaper advantages? They can combine printed ads, which are more expansive, with Internet ads. Apart from that they can rely on brand, and even though that may seem silly, are simply prettier.

Publiconnect publication is free, however positioning of your ad costs - just like in case of Google. The key factor in the project is CMS (Content Management System ), which, according to Durand, cost quite a bit.

The system accumulates data indiscriminately. Directly from clients, press (analysing print scan), and even sending crawlers (internet bots that dig out data) to the competition servers, what is legal in Switzerland, although that is not the case in majority of other countries. Then it distributes them with all available channels from newspapers to mobile phones.

The true hit of PubliConnect is seemingly absurd service. Republication of pretty print classifieds on the newspaper website. System that scans the classifieds automatically recognizes particular positions - name, surname, post, requirements, salary. - Many clients want to see the ad they liked again on the Internet. - Says Durand. He says that this service allows the 15% increase in price of the Internet ad.

Automatization makes salespeople no more salespeople - they are managers of relations with clients. - All they do is check whether the technology works smoothly."



Billet initial:

C'est le thème de ma présentation aujourd'hui à Varsovie pour la conférence de l'INMA sur les annonces classées sur Internet : comment nous avons tiré - chez Publiconnect (mon employeur) - quelques leçons du Web 2.0 pour l'appliquer au business des annonces classées.

Notre hôte, l'INMA, met un réseau wifi à disposition: je peux donc vous livrer ici mon Powerpoint qui "sent encore l'encre fraîche". Bonne lecture à ceux que le sujet intéresse même si il paraîtra peut-être un peu "old school" aux "bleeding edge geeks" que sont beaucoup d'entre vous... ;-)

PS: Très sympas les habitants de Varsovie!

Source: blog Media & Tech (par didier durand)

mardi, septembre 25, 2007

[Fun] Les aventures de Jean Bauche

Sylvain (il n'a pas de site) m'a fait passer ce lien vers les aventures de Jean-Bauche en 5 vidéos.

J'ai passé un bon moment de rigolade en les regardant, j'espère que vous les aimerez aussi!

Cliquez ici pour aller vers le micro-site

Ma préférée: celle sur Java avec la bouille du recruteur à la fin. Dites-moi la vôtre par un commentaire.

PS: ce n'est pas une pub déguisée de ma part pour l'agence de recrutement qui a monté ce micro-site. C'est vraiment juste pour le fun. -> Sandrine: en tant que spécialiste, tu en penses-quoi?

Source: blog Media & Tech (par didier durand)

lundi, septembre 24, 2007

Google Print Ads Tool: la transaction d'achat toujours plus fluide!

Maintenant qu'il est présent dans tous les médias traditionnels pour y trouver de nouveaux relais de croissance, Google joue parfaitement le jeu par ses règles.

En effet, il vient de lancer un outil de composition en ligne des annonces destinées ensuite à être imprimées dans la presse dans le cadre de son service Google Publication. Il donne celle-ci comme exemple (humoristique):L'outil de composition semble donc tout à fait correct pour les annonces visées par Google Publication Ads.

Chez Publiconnect, mon employeur, on appelle cela le "direct web to print" (100% digital et self-service par l'annonceur). Cela fait plus de 3 ans que l'on a lancé cette fonction dans un contexte d'annonceurs professionnels récurrents (agences immobilières, cabinets de recrutement). Pour ceux qui sont intéressés: 40% de notre CA et 60% de notre volume de commandes (sur 100+ millions de CA) entrent par ce canal 100% numérique.

Pourquoi une telle fonction de "Web to print" directe est-elle si importante? Parce que la publicité papier souffre de plusieurs handicaps face à l'Internet:
  • un coût de production unitaire très élevé sans comparaison avec l'impression ("virtuelle") d'une page web. Là, Google ne peut pas grand chose....
  • une complexité élevée de la chaîne de production: nombreux intervenants, ruptures du numérique le long de la chaîne de production, outils et règles de production très spécifiques, etc.! Là, il y quelque chose à faire que Google a parfaitement compris.
En effet, la stratégie actuelle de tous les intermédiaires publicitaires est de "fluidifier" au maximum la transaction de commande de publication car les annonceurs font une chasse effrenée à tous les coûts et fuient tout média qui réduit leur efficacité. Le temps passé à fabriquer / commander une campagne est maintenant quasiment aussi important que le coût de la campagne même si elle vaut des millions.

Google l'a bien compris en offrant un outil permettant de passer l'intégralité d'une commande y compris la fabrication de l'annonce elle-même depuis son site. Fini les Photoshop, Quark XPress et consors. Et bonjour le self-service!

Google cherche à transformer la (gestion de) campagne publicitaire en véritable commodité.

C'est grave, docteur ? Au risque de faire hurler (à la mort?..) tous les créatifs publicitaires et tous les marketeurs-cibleurs du monde, je dirais que non: les plus grandes industries en taille de la planète (finance, énergie, etc...) sont finalement des industries de commmodités!

Si les volumes publictaires augmentent par la mise en place de mécanismes transactionnels plus simples, qui s'en plaindra finalement?

Source: blog Media & Tech (par didier durand)

Commentaire du jour [26] - Les dangers de la pseudo-gratuité (par Narvic)

[Commentaire du jour sur Media & Tech: quoi et pourquoi - Les autres commentaires du jour]

le billet récent sur le NYT gratuit remet sur la table toute la problématique (quasi-éternelle dans les médias...) de la fausse gratuité liée au sponsoring publicitaire. Narvic l'a résumée de manière excellente et très détaillée dans un très long commentaire à mon billet

Comme je le fais régulièrement pour ce genre de commentaires très riches et ayant demandé un gros boulot, je republie ce commentaire en tant que billet:
  • par respect pour le travail du commentateur
  • pour que ceux qui passent pas leur journée à revenir voir les commentaires des anciens billetsde Media & Tech aient l'opportunité d'en profiter.
[Note: la conséquence heureuse de la démarche , c'est que ma republication finit par transformer certains commentateurs en nouveaux blogueurs comme Nicolas. C'est cool]

Voici donc le commentaire de Narvic sur la (pseudo-)gratuité et ses conséquences:

"Vos remarques sont intéressantes, notamment votre approche selon laquelle l’abandon de l’accès payant par abonnement au fonds d’archives du NYT peut se révéler à terme - presque paradoxalement - une source de revenu réelle, en améliorant la visibilité du site sur la première page de recherches Google, ce qui pourrait permettre d’accroître ses ressources publicitaires...

Mais, s’il vous plait, cessez de dire qu’il s’agit là d’un accès "gratuit"... Il n’y a pas plus de gratuité dans ce "modèle", qu’il n’y en a dans celui des journaux papiers abusivement qualifiés de "gratuits".

Ces "modèles" sont financés par la publicité et la publicité est tout sauf gratuite ! La publicité est payante, et au bout de la chaîne qui constitue son "modèle" spécifique, ce sont les consommateurs qui la payent: les consommateurs du NYT en ligne, comme ceux d’Agoravox d’ailleurs, payent cette apparente gratuité par un surcoût (minime et donc presque invisible) sur le prix de leur pot de yaourt.

C’est d’ailleurs tout le "génie" de ce modèle de parvenir à collecter des milliards d’euros et de dollars de revenu auprès des consommateurs de manière indolore, et quasi invisible, en s’offrant "le luxe" de développer un discours totalement abusif, à la limite du mensonger, sur le thème de la gratuité.

Les conséquences de ce mode de fonctionnement sont pourtant nombreuses et importantes, et continuer à parler de "gratuité" dans ce cas contribue très largement - très opportunément ? - à les occulter.

Le "décrochage" entre l’acte d’achat (c’est à dire la lecture du NYT en ligne, ou d’Agoravox, ou de 20 Minutes sur papier, etc.) et son paiement réel (le petit surcoût sur le pot de yaourt) soumet radicalement le principe d’établissement de la valeur du bien acheté (l’information) à celui qui établit la valeur du bien auquel est attaché son paiement (le pot de yaourt). On arrive donc à ce que le prix de l’information est réellement indexé sur celui des produits de grande consommation, qui ont le plus massivement recours à la publicité.

Celui qui parviendra à vendre au meilleur prix l’information qu’il a à vendre sera donc, au bout du compte, celui qui aura vendu le plus de pots de yaourts ! La logique de ce modèle est donc bien de pousser le NYT en ligne - comme Agoravox ! - à vendre du yaourt, pour obtenir le paiement de leur propre produit, puisque ce paiement est "lié" à celui du yaourt.

Cette logique est perverse. Elle tend à effacer la valeur propre du produit que constitue l’information. Elle pousse les producteurs d’information à se plier à la logique de markéting des produits de consommation de masse, indépendamment de la logique markéting propre à leur produit.

Si elle n’est pas régulée, contrecarrée, par un contre-poids qui reste à inventer et mettre en place, cette logique économique du modèle proposé pour vendre l’information mène directement les producteurs d’information à s’orienter vers ce que l’on pourrait appeler "le markéting rédactionnel": sélectionner et hiéarchiser l’information que l’on vend à ses consommateurs, non plus en fonction de ce qui fait la valeur propre d’une information (sa crédibilité et son importance, sa véracité, sa nouveauté, ses conséquences, etc.), mais en fonction de l’audience qu’elle est susceptible d’obtenir auprès des consommateurs potentiels de yaourts, car c’est la clé pour obtenir de la publicité pour les yaourts, qui est elle-même la clé pour obtenir le paiement de l’information que l’on avait à vendre...

J’ai bien peur que celui qui a tout à tirer de ce modèle c’est le vendeur de yaourts. Le vendeur d’information en revanche a toutes les raisons de ne pas y retrouver son compte, puisqu’il perd totalement la maîtrise de la commercialisation de son bien et de l’établissement de son prix. Pire même, il se trouve contraint à soumettre cette commercialisation à une logique économique qui peut lui être contraire.

Et le consommateur final dans tout cela ? Mais qui se soucie encore du consommateur ?"

Tout y est dit. Merci Narvic !

Mais le problème reste entier et l'histoire du Net me semble malgré tout aller vers toujours plus de cette pseudo-gratuité!

Source: blog Media & Tech (par didier durand)

samedi, septembre 22, 2007

[Truc perso] importer ses contacts Outlook dans Facebook pour retrouver des "amis"

Eh oui, je me mets aussi à Facebook.

Tout le monde en parle à cause de son explosion en Europe (+400% en 6 mois - sur les talons de Skyrock et MySpace): même Marc Andreessen comme plate-forme pionnière de niveau 2 sur Internet.

Je ne veux pas mourir idiot...

Donc, je me suis inscrit.

Pour retrouver mes repères, j'ai fait ce que j'avais commencé à faire dans Linkedin à l'époque: importer mes contacts personnels et professionnels pour voir.
  • contacts perso: pas de souci. Facebook a parcouru ma boîte email chez Google Gmail et trouvé tous mes "amis" potentiels sur Facebook via leur adresse email. Je les ai donc solllicités pour un lien.
  • contacts pro: un peu plus pénible dans la démarche (je l'explique ci-après). Par contre, là pas de souci par rapport à "mourir idiot": je ne trouve que 5 contacts professionnels qui sont définis dans Facebook. A moins, plutôt, que tout le monde ne fasse comme moi et se définisse avec son adresse email perso.
Le truc en question:
  • l'Export de MS-Outlook (système de mail de mon employeur) en exporte en format CSV("comma separated values"), i.e. un contact par ligne, champs du contact séparés par une virgule
  • le fichier .csv résultant est ensuite à importer dans Facebook (onglet "Friends")
  • Si vous ne modifiez pas le fichier initialement produit par Outlook, plantage de Facebook!
  • Raison: la 1ère ligne du .csv est un titre / description pour les champs de ce type dans les lignes en dessous. Si vous travaillez comme moi avec Outlook en français, ces titres sont en français.Or, Facebook veut impérativement de l'anglais dans cette 1ère ligne descriptive.
Solution:

[Pour faire gagner du temps à d'autres, j'espère...]
  1. lancer Excel,
  2. ouvrir depuis Excel le fichier issu de l'export Outlook en précisant son format (.csv) pour qu'Excel respecte les virgules en tant que séparateurs, (les champs doivent apparaître en colonnes "propres" et pas en fouillis à la queu-leu-leu]
  3. supprimer toutes les colonnes autres que "Nom", "Prénom", "Adresse de Messagerie" afin de minimiser le nombre de titres à remplacer
  4. Ensuite pour ces 3 colonnes ci-dessus remplacer les titres en français par "Last Name", "First Name", "Email Address",
  5. Sauver le fichier modifié en respectant toujours le format CSV
  6. Importer ce fichier dans Facebook qui va vous signaler les personnes qu'il connaît déjà que vous pourrez ainsi tout de suite inviter.
Good luck!

Source: blog Media & Tech (par didier durand)

jeudi, septembre 20, 2007

New-York TImes gratuit: l'économie de la sérendipité naît à travers les moteurs!

Le New-York Time (NYT) a annoncé que l'intégralité de son site web ( moins quelques babioles comme leurs illustres mots croisés) devenait 100% gratuit: pour moi qui traîne ma bosse dans les médias depuis 15 ans et dans l'Internet depuis 12, c'est un vrai signe (très) fort!

Pourquoi? Parce que depuis tout ce temps, le NYT et le Wall Street Journal (WSJ) sont les 2 icônes que l'on brandit chaque fois que l'on parle de l'Internet payant: ce sont les 2 seuls qui arrivent, selon les termes habituels de ceux qui en parlent (comptent-ils vraiment tous les frais)...) à avoir une activité en ligne rentable

Eh bien, avec cette annonce, le glas du contenu rédactionnel payant sur Internet semble sonner! A quand le WSJ gratuit lui aussi?

le NYT a fait ses calculs: il se trouvera mieux financièrement en valorisant ses services et son contenu de manière indirecte et intégralement via la publicité par un afflux de visiteurs amenés par les moteurs (qui vont indexer les millions de pages libérées par l'ouverture) plutôt qu'en essayant d'avoir des revenus directs via abonnements.

Selon Wikipedia, la sérendipité, c'est "la caractéristique d'une démarche qui consiste à trouver quelque chose d'intéressant de façon imprévue, en cherchant autre chose, voire rien de particulier. Cette approche est issue d'une démarche heuristique."

J'exagère légèrement dans mon titre par rapport à la définition en disant que ce nouveau modèle économique du NYT est "sérendipiteux": les gens qui sont sur un moteur cherchent quelque chose (donc pas "rien de particulier" selon la définition). Ils ns savent juste pas où le trouver donc ils passent en grande majorité par Google, documentaliste universel (par la taille de son index et la vitesse à laquelle il le met à jour) .

Et c'est donc ensuite, par le côté "fortuit" (donc "sérépenditeux") de la définition ci-dessus que les visiteurs (500 millions par mois) de Google peuvent se retrouver sur le site NYT plutôt

En fait, le NYT a tout fait pour que cela soit le moins fortuit possible: il a en son temps acheté About.com, un moteur de recherche, visiblement surtout les compétences de son équipe de développement, pour remodeler son site de manière optimale (déjà +87% atteints par cette équi entre Juillet 2005 et Juillet 2006 sur le contenu actuellement "ouvert") en termes de "Search Engine Optimization" (SEO) afin que les millions de pages (20 ans d'archives!) qui vont être ainsi libérées fassent leur chemin au plus vite vers le haut des pages de résultats de Google. C'est capital dans ce nouveau business model du NYT! (voir cet ancien billet si vous n'êtes pas convaincu).

Le calcul est le suivant: avec ses abonnés 471'000 abonnés combinés (papier + internet) + 227'000 abonnés "online solo", NYT fait environ 10 millions de dollars par an via ces abonnements. Sur mon blog, le coût par mille pages (CPM) chez Google est de 1.3 dollars. Donc pour faire 10 millions de dollars à ce tarif-là (le CPM NYT est sûrement plus haut) , le NYT doit montrer 7.7 milliards de pages par an (21 millions par jour) . Ce n'est sûrement pas hors d'atteinte! (pour comparaison, Google + Youtube fait 100 + 20 milliards chaque mois)

En effet, en Avril 2005, le site faisait déjà 18.5 millions par jour. Donc, il leur faut au maximum doubler leur fréquentation actuelle pour retomber sur leurs pieds. Ce n'est vraiment pas inatteignable vu la d'audience planétaire maintenant "utilisable" (voir ci-dessous) par NYT et vu la taille du contenu libéré (cf plus haut)

Mais, sur le fond, cela reste pour moi un énorme bouleversement du business model:
  • Le modèle historique des journaux est bien décrit par Emanuel: un cercle identifié et connu de lecteurs desquels on essaie d'arracher un revenu direct maximum (en plus de la publicité) basé sur une fréquentation très récurrente du service
  • cette bascule du NYT, c'est le modèle inverse : la planète (ou presque: vu la croissance de population internaute....) comme audience potentielle mais anonyme. Et l'agrégation d'infimes revenus à travers chaque interaction comme générateur d'un revenu supérieur à l'ancien modèle.
[Note: Ce modèle comme celui de l'agrégation dans le web 2.0 n'est pas valide pour tout le monde: il faut pouvoir se trouver en très bonne position (à travers de multiples liens favorisant le PageRank) dans les réponses organiques des moteurs pour un spectre large d'interrogations. If faut donc un contenu énorme et de renommée afin qu'il soit fortement lié par d'autres sites]

Ce nouveau modèle est risqué bien sûr: j'ai écrit il y a peu que les seuls revenus indirects étaient un modèle d'affaires malsain. Certes, la publicité (en ligne) est le futur du Web 2.0, selon Ray Ozzie de Microsoft et sa croissance actuelle est explosive. Mais, au prochain retournement économique (il arrive - comme tous prédécesseurs - seule question quand? Peut-être proche: cf. les USA actuellement) toujours violent pour la pub(cf 2001) , le NYT online tiendra-t-il le choc?

En échange, le potentiel est énorme: la population internaute croît (vite) et ce n'est finalement plus qu'elle à travers son activité toujours croissante qui définit la limite ultime des revenus de ce modèle pour un site anglophone, de renommée mondiale et de qualité très supérieure comme NYT. [L'efficacité commerciale de NYT ne limite plus: seule la qualité rédactionnelle et technologique (SEO) définissent le résultat]

Donc, c'est un gros pari! Même s'il y a des économies immédiates: toute la mécanique commerciale pour gérer ses abonnements devient inutile... (La promotion marketing doit elle perdurer).

Mais, il me paraît juste dans la position du NYT de tenter le coupà ce moment où certains budgets publicitaires actuellement fortement réalloués vers le online ne trouvent pas preneurs faute d'espaces (de qualité) disponibles. (D'ailleurs, en parallèle à presse, la musique s'y prépare et la TV "prend la température" aussi)

Des bascules commes celle du NYT vont "ouvrir les vannes" aux annonceurs même si l'anonymité va faire baisser le ciblage donc le CPM!

De plus, je pense que l'on commence à quitter actuellrment les médias électroniques (divers: publication en ligne, TV, radio,etc) pour aller vers Le Média (unique - de convergence - posé sur Internet) piloter par le modèle publicitaire pur. Ceux des médias traditionnels qui s'immergent dans le nouveau monde à 100% au plus tôt sont sûrement ceux que l'on retrouvera après "la vague"...

Je vais suivre avec grand intérêt! Et vous?

(-> Pierre: j'avais aussi envie de répondre)

Source: blog Media & Tech (par didier durand)

mercredi, septembre 19, 2007

Google Gadgets Ads: nouvelle forme publicitaire qui vise les plus grands annonceurs

Google annonce aujourd'hui une forme publicitaire en ligne très haut de gamme: les Google Gadget Ads.

Ici un exemple sur Honda que j'ai honteusement "volé" dans la gallerie d'exemples proposés [je ne sais pas combien de temps il marchera mais je le mets quand même]



Pourquoi haut de gamme? si compare avec les Google Adwords standards qui ne sont que de simples boîtes de texte, les Ad Gadgets sont pleines de "goodies" (HTML, RSS, images, vidéos, Flash, etc...) que l'on peut utiliser dans la composition de sa publicité pour la rendre "sexy". Toutes les interactions possibles [Essayez ci-dessus: on peut cliquer sur plein de petites choses...] sont ensuite bien sûr abondamment mesurées et analysées par Google pour permettre aux annonceurs un impact maximal de leur publicité (qu'est-ce qui marche ou pas, etc......)

Les grandes marques affluent: Coca-Cola, Intel, Pepsi sont dans les bêta-testeurs.

Google a bâti son empire financier /industriel et boursier sur la partie "commodité" de la publicité en ligne à travers la double Longue Traîne des petits annonceurs annonçant sur des sites de niches: des millions de campagnes à budget très faible sur les sites AdSense et sur les sites Google eux-mêmes. Puis, l'agrégation du web 2.0 fait son oeuvre!

Google revient maintenant sur la gauche de la Longue Traîne en visant les gros budgets des grandes marques. C'est finalement en phase avec le démarrage de Google dans tous les médias traditionnels pour y trouver une nouvellle croissance après un début de stagnation (dont beaucoup se satisferaient...): le ticket d'entrée dans ces médias est élevé et la présence de grands annonceurs y est donc importante. La montée en gamme de l'online via Ad Gadgets pourra donc faire synergie avec les ventes de campagnes pour la télé ou la radio.

Fait corroborant ce retour vers la tête (de la traîne): l'engagement de l'un des managers importants d'Ogilvy, une agence créative de premier plan mondial!

Google pointe clairement le bout du nez dans le monde du "all media/ crossmedia sales": sujet d'une certaine inquiétude dans l'industrie où je travaille....



Source: blog Media & Tech (par didier durand)

mardi, septembre 18, 2007

Yahoo acquiert Zimbra et Google lance Presentations: sale temps pour Microsoft!

Une période agitée s'annonce chez Microsoft qui avait annoncé puis récemment confirmé une stratégie très intéressante autour du SaaS ("Software as a Service"). En effet, les mots sont là mais les actes ne suivent pas! Les analystes vont donc se déchaîner contre l'absence de progrès alors que les concurrents avancent toujours au pas de charge contre le bastion (et la manne financière...) de Microsoft, MS-Office:




On va maintenant avoir la même cascade d'acquisitions que pour la publicité en ligne qui s'est produite avant l'été: la prochaine proie (sûrement consentante à de tels prix...) , c'est Zoho! (voir chez Benoît)

PS: quelqu'un fait passer "l'acid test" des 10 questions (biaisées....) de Microsoft à Zimbra, le résultat m'intéresse fortement. Merci d'avance! ... Et je fais aussi volontiers un lien vers une revue des fonctions de Google Presentations ou Zimbra.

Source: blog Media & Tech (par didier durand)