jeudi, septembre 28, 2006

IAB/PwC: publicité sur Internet au 1er semestre 2006 = +37%!

Je ne ferai pas mon billet trimestriel sur le sujet "évolution de la publicitét Internet": Emanuel m'a devancé avec tous les détails. Allez chez lui!.

Emanuel dit: "Principal enseignement la prédominance de la recherche des mots clés avec 40% du marché mais le cumul montre un relatif équilibre entre les formats à la performance (CPC et CPA) et ceux basés sur l’affichage (CPM)."

Il constate aussi: "Intéressant aussi l’effarante concentration de 71% des revenus entre les mais de 10% des acteurs: l’effet de la “longue traîne” (”long tail”) en prend un sacré coup ! Comment y croire alors que seuls 6% des revenus sont partagés au delà des 50 premiers acteurs"

Les chiffres détaillés par formes et par secteurs chez dans son billet.

Ce que je retiens moi du communiqué IAB/PwC:
  • le premier semestre 2006 pour le marché à 7.9 milliards de dollars. +37% par rapport à 2005.
  • le second trimestre 2006 à 4 milliards de dollars. Le cap historique du milliard mensuel ne l'est plus vraiment (historique)! +5.5% entre T1 et T2 2006.
La manne publicitaire dont les startups du Web 2.0 ont besoin est-elle en train d'émerger?

Le point stratégique de Ray Ozzie (repris et accentué par Bill Gates) sur le financement par devient toujours plus vrai. Mais, cette publicité Internet toujours fortement croissante pourra-t-elle continuer à grossir suffisamment pour "nourrir" et rendre profitables la nuée de startups naissantes pour lesquelles Google AdSense est le seul modèle économique?

Source: blog Media & Tech (par didier durand)

mardi, septembre 26, 2006

Web 2.0: le passage du million d'utilisateurs par del.icio.us/Yahoo valide les folksonomies!

del.icio.us est la plus célèbre de toutes les folksonomies (ou ethnoclassifications - les définitions sont ici ) . Elle a été acquise par Yahoo en Décembre 2005) (on a parlé à l'époque de 18 millions de dollars pour 300'000 utilisateurs - 60 dollars l'utilisateur!)

J'en suis un utilisateur très régulier pour sauvegarder mes bookmarks en masse à un seul endroit et surtout pour les retrouver facilement via fonction de recherche + tags. J'aime aussi beaucoup voir ce que d'autres placent comme urls sur les mêmes tags que moi: c'est une forme hyper-efficace de découverte de contenus de référence et/ou pointus sur un sujet de recherche.

Depuis (ou malgré ?) l'acquisition par Yahoo, il y a 9 mois, le rythme n'a pas molli chez del.icio.us: le nombre d'utilisateurs a triplé pour fêter le cap du million!

On cherche encore les modèles économiques des startups du web 2.0. D'ailleurs, del.icio.us a un revenu nul comme le Youtube d'il y a encore quelques semaines... Mais, cette acquisition colle totalement à la stratégie web 2.0 de Yahoo.

En effet, les tags sont une forme d'UGC ("User-Generated-Content") d'une énorme valeur stratégique pour les moteurs comme Yahoo: à travers quelques tags synthétiques qui résument les pages marquées et en extraient la substantifique moelle, les utilisateurs fournissent à Yahoo un carburant "intellectuel" fort utile pour doper les son moteur de recherche.

Il peut ainsi aller au plus vite vers le Web sémantique (le web 3.0?).

Donc, l'acquisition de del.icio.us par Yahoo il y a 9 mois n'avait certainement pas une visée financière.

Par contre l'armée de "fourmis-taggueuses" (nous, les utilisateurs) lui fournit en échange de la valeur ajoutée évoquée plus haut (stockage + recherche évoluée + découverte) une analyse sémantique du web (en tout cas, d'un fragment....) en temps réel ou presque qu'il lui serait bien impossible de se payer par ailleurs!

En effet, les 60 dollars évoqués plus haut ne sont que quelques heures (et encore...) de salaire des documentalistes qu'il lui faudrait employer pour faire ce travail!

C'est donc finalement "win-win"!

Source: blog Media & Tech (par didier durand)

lundi, septembre 25, 2006

Flux RSSde Blogger (Google) actuellement tronqué.

Mon flux RSS est actuellement tronqué par Blogger (Google): correction de l'erreur en cours eux.... Mes excuses! Merci pour votre patience - Didier

Source: blog Media & Tech (par didier durand)

Les gravatars: un pas vers "l'humanisation" du web 2.0!

Mon titre vous paraît(ra) peut-être grandiloquent au vu du service en question mais je trouve l'idée (découverte chez Henri) des "gravatars" vraiment tout à fait dans la lignée de la composante sociale du Web 2.0.

A l'heure où Digg a des soucis communautaires et à celle où Wikio doit s'adapter à sa croissance, une tel service "d'humanisation" méritait à mes yeux un coup de projecteur!

Le gravatar permet de donner un visage à tous les auteurs de ces commentaires que l'on trouve sur les blogs (où l'on a - au mieux - une photo du seul propriétaire du blog en question ).

Quand je commente chez Henri, voilà ce que cela donne:


Un gravatar, c'est quoi: c'est un "Globally Recognized Avatar", concept que l'on doit à Tom Werner. Cet avatar (Wikipedia nous rappelle les origines hindouistes de ce mot) devient global par une opération simple: on charge sa photo (ou une autre image...) chez gravatar.com après y avoir créé un compte basé sur son adresse email. Ensuite, le blog "équipé gravatar" (via un plugin par ex.) demande au site central la photo correspondante à l'adresse email pour lintégrer placer dans le commentaire et le tour est joué! C'est un système d'auto-découverte dans le style le plus pur.

Les gens de Gravatar sont prudents: ils prennent le soin d'approuver visuellement chaque photo pour combattre les trolls. Et puis, ensuite, il peut être distribué par le site central Gravatar aux blogs qui le demandent. Autre mesure de sécurité: un rating de l'image selon la norme TV américaine MPAA (le mien est classé "G" = "tout public" - no comment!)

Je trouve l'idée aussi puissante qu'elle est simple! A peu de frais, elle permet d'entretenir la Conversation (avec un grand C) si chère au Web 2.0: on a plus envie de laisser un commentaire quand on voit la "bobine" de ceux qui nous ont précédés.

L'idée "gravatar" n'est sûrement pas neuve et je suis sûr que plusieurs commentaires me feront remarquer que "je débarque". Pas grave, je voulais de toute façon partager avec ceux qui comme moi ignoraient.

Et si vous connaissez encore de meilleurs services d'avatars (surtout avec une orientation francophone), partagez-les avec nous dans un commentaire. Merci d'avance!

Note: il n'est pas nécessaire d'avoir son blog pour s'enregistrer chez Gravatar.com. C'est ouvert aussi à ceux qui se limitent à faire des commentaires dans dans la blogosphère.

Source: blog Media & Tech (par didier durand)

samedi, septembre 23, 2006

Le Web 2.0 (et même 1.0...) et l'informatique rendent riche! (Forbes)

Forbes vient de remettre à jour sa liste des 400 américains les plus riches:

Le triumvirat Google cartonne toujours:
A tout seigneur, tout honneur: Bill Gates reste n°1 malgré les multiples milliards déjà donnés à sa fondation. (sur ce sujet, CHAPEAU Mr Gates)

Je republie ici l'extrait fait par N. Weinberg sur les stars informatiques de cette liste Forbes:

Source: blog Media & Tech (par didier durand)

jeudi, septembre 21, 2006

Commentaire du jour [3]: l'Homme et le Web 2.0, 3.0, etc....

[Commentaire du jour: quoi et pourquoi]

A propos du Web 3.0 [sémantique], D.VDA a dit ...

"Moi j'espère vivre assez longtemps pour connaître le Web 100.0 ;). Trève de blague à part, l'organisation ou la dilution, on nage en pleine crise d'adolescence de notre Www chéri...

Je ne crois pas en grand chose de plus grandiose que l'Homme (ici bas) et en effet Internet est une nouvelle Merveille."

On est tous d'accord! (en tout cas, moi)

Mais, finalement, la blogosphère ne permet-elle pas de magnifier cette Grandeur de l'Homme en rendant ses Pensées universellement accessibles dans le temps et l'espace?...

J'arrête, vous allez croire que j'ai "fumé la moquette" ;-)


Source: blog Media & Tech (par didier durand)

Wordpress ou Blogger: si c'était à refaire.....

Quand je suis parti pour lancer ce blog il y a 18 mois, je ne connaissais pas les "bonnes" technologies de la blogosphère.

Et puis, je voulais rentrer VITE dans le vrai sujet d'un blog, la rédaction de billets sans commencer par une étude comparative des plates-formes potentielles. (En plus, honnêtement, je n'étais à l'époque pas capable de distinguer les fonctions les plus importantes...)

C'est pourquoi j'ai mis Blogger de Google dans mon "kit de blogging" en me disant de toute façon que cela serait "good enough" et puis que Google ferait bien ce qu'il fallait pour la faire correctement évoluer.

Eh bien, je dois avouer que je me suis (doublement) trompé:
  • Blogger n'est finalement pas "good enough": quand je lis vos blogs sur les plates-formes Typepad, Dotclear, etc.... je me rends compte des fonctionnalités supplémentaires (commentaires, présentation, administration, etc..) dont vous disposez par rapport à moi!
  • en 18 mois, Google n'a pas fait grand chose de significatif pour faire évoluer Blogger: les améliorations se comptent sur les doigts d'une main. Et cela bien que Blogger soit finalement un excellent moyen pour Google d'assouvir sa quête de contenu pour avoir l'index (et donc les espaces publicitaires) maximum.
Un bon exemple de lacune est le cas récemment cité par Christophe à propos de mon billet sur la "spaghettisation de la blogosphère": Blogger ne gère par les rétroliens en live.

Il semble quand même utiliser parfois les moteurs de Google pour inscrire ces rétroliens (mêmes externes) en fin de mes billets: une exemple est mon billet sur le contenu UGC qui note le rétrolien chez moi d' Alexis mais c'est aléatoire (parfois oui et parfois non...) et cela semble se produire avec plusieurs jours de décalage. Je compense en obtenant mes liens depuis d'autres blogs en temps réel via Technorati
mais c'est éphémère (les rétroliens eux seraient gravés dans le marbre de mon blog) et je ne peux pas le partager avec vous.

Pour ceux qui découvrent Technorati: cette page vous montre comment ce moteur voit Media & Tech: à ce moment 288 liens de moins de 6 mois en provenance de 84 blogs - Essayez avec le vôtre!

Donc, aujourd'hui, si c'était à refaire, je prendrais clairement Wordpress: j'ai fait récemment plusieurs installations professionnelles de ce logiciel. Il est fascinant dans deux dimensions qui reflètent totalement son ouverture:
  • les thèmes (= interfaces graphiques): il existe plusieurs grandes galeries de thèmes pour Wordpress, parmi les milliers de choix possibles, on trouve toujours son bonheur! Certains de ces thèmes sont fascinants de beauté. De plus, 1 click suffit pour en changer!
  • les plug-ins (=ajouts fonctionnels): vous voulez ajoutez une fonction à votre blog? Surtout ne la développez pas, mais allez dans les catalogues de plug-ins: dans 99 cas sur 100 quelqu'un l'a déjà fait. Sinon Wordpress est 100% PHP, (les plug-ins aussi): on dispose donc des sources que l'on peut modifier à loisir pour attendre exactement ce que l'on veut faire.
Donc, clairement, aujourd'hui: je choisirais Wordpress!

2 points tout de même:
Malheureusement, je vais rester sur Blogger avec ses faibles fonctions en espérant des progrès: il y a maintenant trop d'investissements (liens, Pagerank, indexation, etc...) derrière l'URL de ce blog!

Mon rêve: que Google/Blogger nous permette finalement d'installer Wordpress derrière les URL actuelles.

Si seulement il pouvait être exaucé! Les 450'000 serveurs de l'infrastructure Google et ses services sont abondamment basés sur l'Open Source, on peut donc se prendre à rêver....

Source: blog Media & Tech (par didier durand)

mercredi, septembre 20, 2006

Apple: la mutation vers une société de médias se poursuit?

[Mise à jour 2: Erreur dans ce billet - Voir celui-ci pour la correction]

[Mise à jour: Guillaume dans un billet complémentaire ajoute que seuls des films Disney (75 à ce jour) sont disponibles sur iTunes et que leur prix oscille entre 9.99 et 14.99 dollars]

Apple gagne désormais plus d'argent via les services de contenus (iTunes) que via le matériel (Mac + iPod)

Bon ok, c'est un peu plus compliqué que cela: les 2 parties sont liées car iTunes ne marche qu'avec Ipod et Apple maintient un habile verrou propriétaire à multiples facettes entre les 2 pour que "la mayonnaise tienne"!

Mais, après la musique, les débuts dans la vidéo sur iTunes s'annoncent aussi flamboyants: Disney sur ITunes a atteint le même cap du million de dollars de vente la première semaine que lorsque que Itunes avait été lancé sur la musique seulement. Disney espère 50 millions de dollars la première année: toutes les questions de cannibalisation des autres canaux sont bien sûr ouvertes.

Mais, comme Steve Jobs est actuellement - depuis la vente de Pixar à Disney - le plus grand actionnaire de Disney et membre de son conseil d'administration, il a donc sûrement su et pu les faire taire!

En tenant les 2 couteaux (Apple + Disney) par le manche, il espère sûrement faire le même levier (vers le online) sur l'industrie du cinéma que celui qu'il a fait avec iTunes sur l'industrie de la musique!

C'est sera, dans ce cas, juste un peu plus compliqué car il a les intérêts (contradictoires ?) d'Apple et de Disney (plus les siens...) à gérer en parallèle. Pour la musique, c'était plus unilatéral...

PS: je vous recommande le bouquin "iCon", la biographie de Steve Jobs (censurée par Apple) et justement les chapitres sur iTunes et Pixar-Disney. Le bonhomme est fascinant même si un peu "trouble" parfois...

Source: blog Media & Tech (par didier durand)

mardi, septembre 19, 2006

Quoi, le Web 2.0? .... Passez donc au web 3.0 ou Web Sémantique de Sir Tim!

Eh oui, le web 2.0 est en pleine effervescence:
Et puis, alors, pourquoi cela empêcherait-il de travailler à la prochaine génération du Web?

Elle est en tout cas définie, Wikipedia (EN) a déjà une définition du "Web 3.0": c'est le Web Sémantique prédit, souhaité et évangélisé par Sir (anobli il y a 1 an) Tim Berners-Lee, le père de la navigation hypertextuelle sur Internet.

Je ne suis pas sûr que ce raccourci (marketing) hâtif entre "Web 3.0" et "Web Sémantique" (antérieur au concept de Web 2.0) plaise réellement à Sir Tim: il n'y allait récemment pas avec le dos de la cuillère récemment quand il parlait du Web 2.0. Selon The Register, "Berners-Lee has dismissed Web 2.0 as useless jargon nobody can explain and a set of technology that tries to achieve exactly the same thing as "Web 1.0."

Par contre, je pense que Tim BL admettrait bien volontiers que l'on voit des émergences du web sémantique dans tous les phénomènes du Web 2.0 qui tiennent de la "sagesse des foules" ("Wisdom of Crowds") et de la puissance résultante:
Quand je faisais mes études, l'approche était purement algorithmique pour extraire de la connaissance: vous vous rappelez la fameuse 5ème génération d'ordinateurs et l'AI de la fin des années 80?

Aujourd'hui, l'ubiquité de l'Internet permet une approche cognitive beaucoup plus "organique" pour atteindre ce fonctionnement quasi-cérébral de nos ordinateurs: chaque être humain connecté au Réseau est comme un neurone du gigantesque cerveau planétaire qui construit actuellement de la connaissance à vitesse Grand V!

(Ma) conclusion: le Web 2.0 n'est peut-être qu'une étape vers la mise en place du quelque chose de plus grandiose, mais il apporte clairement sa pierre à l'édifice!

[Via P. Lenssen]


Source: blog Media & Tech (par didier durand)

dimanche, septembre 17, 2006

4'294'967 fois plus dense ....

... que lors de sa naissance il y a 50 ans.

C'est l'amélioration de la capacité de stockage du disque dur depuis sa naissance il y a 50 ans (anniversaire fêté mercredi 13 Septembre ).

Les premiers disques (les RAMAC d'IBM) stockaient 2'000 bits sur un pouce-carré. Aujourd'hui, c'est 345 gigabits que l'on enregistre sur la même surface!

Donc, (8 * 1'024 * 1'024 * 1'024) / 2000 = 4'294'967

la loi de Moore pour les transistors sur les circuits intégrés est donc largement dépassée!

En conséquence, Hitachi annonce des disques durs de portables (3.5 pouces) de 1 Téraoctet (=1'024 Gigaoctets) pour le début 2007 . Mais, il ne prévoit que 25 Téraoctets pour 2016. Tiens! On va ralentir ?....

Malgré tout, on peut se lâcher avec nos appareils-photos numériques: il y aura de toute façon de quoi stocker ABONDAMMENT!

Source: blog Media & Tech (par didier durand)

Commentaire du jour [2]: Ludovic et les mashups ou comment 1+1 > 2!

[Commentaire du jour: quoi et pourquoi]

A propos de La "Longue Traîne" ("Long Tail") des sites de niche du Web 2.0,

Ludovic redéfinit la valeur des mashups ou comment "1+1 > 2":

"Je ne sais si le Logiciel libre sera plus ou moins le déclencheur d'une division des mastodontes en niches hyper spécialisées.

J'imagine assez la mise en place de service atomique c-a-d, des services ne traitant quasiment que d'une seule chose qui soit inseccable. Le service devient ainsi plus où moins un référent. La plus value doit venir de connecteurs reliant ce contenu offert par le service à des contenants."

Source: blog Media & Tech (par didier durand)

samedi, septembre 16, 2006

Wikio et votes - Epilogue: annonce des évolutions

Pour ceux qui suivent le sujet des votes sur Wikio, Laurent Binard de Wikio nous apporte une ultime vague d'informations (après celle-ci) pour nous livrer les plans des prochains temps.

(la suite sur le blog Wikio, je suppose)

"depuis l’ouverture de la version française le 19 juin, nous avons - à la date d’aujourd’hui - enregistré 1,8 million de votes pour 2,1 millions de dépêches avec une croissance régulière de semaine en semaine, y compris au mois d’août. Je m’étais rendu compte de l’inconsistance des votes au fil des semaines, mais il est toujours difficile de redéfinir les priorités sur la roadmap R&D. Tant de nouveaux services à délivrer... Nous finalisons MyWikio ce week-end, puis nous nous attèlerons donc dès lundi à la révision du processus de votes avant de sortir les versions internationales ensuite. Merci, Laurent."

Voilà, fin du sujet pour moi!

Source: blog Media & Tech (par didier durand)

vendredi, septembre 15, 2006

Commentaire du jour [1]: Natacha et Humains-associes.org

[Commetaire du jour: quoi et pourquoi]

Je donnais dans ce billet des exemples de Pligg comme solution Open Source pour fabriquer des clones Digg ou Wikio sur des niches.

Natacha apporte ici le 1er exemple français concret (à ma connaissance)

[Note: par ailleurs, Natacha et son frère Sacha tentent des expériences intéressantes: le "wifipicning Wifi" et le Vlogcrossing en plus de leur travail sur Mémoire vive - à découvrir!]

Natacha QS a dit...

[...]." Justement, voici un cas d'un digg français thématique que l'on a lancé (Les Humains Associés) courant août avec Pligg ! ;-)
Humanews dédié à l'humanisme, l'écologie (Web 2.0 citoyen) http://www.humains-associes.org/humanews/

C'est une version béta, la communauté se forme doucement."

Source: blog Media & Tech (par didier durand)

Manifeste pour la "spaghettisation" de la blogosphère francophone - Lancement du "commentaire du jour"

A partir de maintenant, je lance la publication "commentaire du jour" sur Media & Tech.

C'est quoi ?
Régulièrement, soit chaque jour ou presque si votre activité de commentaires sur ce blog le permet, je republierai l'un de vos commentaires avec lien vers le blog de son auteur.

Le seul critère de choix sera le "coup de coeur". Désolé s'il apparaît subjectif...

Pourquoi ?
  1. parce je trouve (très) riches dans les informations, perspectives et réflexions que vous laissez en commentaires sur mon blog
  2. parce que j'ai beaucoup de lecteurs en RSS. Comme je publie - volontairement - l'intégralité de mes billets sur ce protocole, ces lecteurs ne viennent (presque) jamais voir le site Web de Media & Tech
  3. parce que , en combinant (1) et (2), la majeure partie des lecteurs de ce blog manquent donc des choses très enrichissantes
  4. parce que je peux ainsi rendre (ou tenter de...) ce que les commentateurs apportent sur Media & Tech en créant un lien vers leur propre blog et en leur apportant ainsi du trafic et des nouveaux lecteurs...
  5. parce que je n'ai aucun objectif lucratif avec ce blog. Donc, au pire, je perdrai quelques lecteurs qui auront trouvé grâce à ces liens "commentaire du jour" d'autres blogs plus intéressants. J'en serai ravi pour eux!
Le Manifeste pour la "spaghettisation"

La blogosphère françophone ne tire pas encore assez bien parti de la force potentielle du nombre de ses contributeurs ("la puissance des foules"). Les anglophones le font à mon avis bien mieux que nous!

En effet, tous les moteurs de recherche (Google, Yahoo, Technorati, etc...) utilisent les liens comme unité de base dans leurs calculs de ranking. Or, les blogueurs francophones sont très nombreux: ils peuvent donc générer de beaucoup de liens entre eux et "exploser les compteurs sur les moteurs". Mon avis personnel que nous ne nous lions pas assez entre nous actuellement!

[il faut bien sûr que chacun accepte au début de donner d'abord avant de recevoir...]

Donc, si nous nous mettons à nous lier beaucoup les uns les autres, ce seront toujours plusieurs d'entre nous qui sortiront en haut des premières pages de résultat les moteurs.

Cette "spaghettisation" volontariste de la blogosphère francophone permettra par un effet "mécanique" (i.e algorithmique) de commencer à modifier profondément le paysage Internet.

Si vous êtes en phase avec moi, faites la même chose sur votre blog ... et faites le moi savoir (par un lien sur ce billet! ;-))

Vos commentaires sur ce billet sont encore plus bienvenus que d'habitude!

PS: je vais essayer également de lier des blogs français depuis mes propres billets. J'en lis beaucoup et régulièrement.

Source: blog Media & Tech (par didier durand)

jeudi, septembre 14, 2006

Wikio: les algorithmes de promotion via les votes expliqués par l'équipe de développement

Laurent Binard de Wikio a répondu à mes interrogations sur le fait que certains groupes organisés pourraient "jouer" avec les votes sur Wikio comme d'autres groupes le font sur Digg. [par rapport à sa 1ère phrase ci-dessous, je n'ai jamais suspecté de votes fictifs générés par wikio]

Comme peu de personnes reviennent sur un billet qq jours après pour en lire les commentaires, je pense qu'il valait la peine de publier la réponse de Laurent. Merci à lui d'avoir pris le temps de nous éclairer!

Si cette clarification n'est pas suffisante, laissez vos commentaires et je transmettrai à Laurent qui continuera certainement à nous expliquer.

Après Laurent, je republie aussi le commentaire de Emanuel Parody qui avait vu juste.

Commentaire de Laurent Binard:

Bonjour à tous,

Wikio ne génère aucun vote fictif, sinon, vous n'auriez pas autant de news non votées.

Ce qui se passe est que vous votez pour une news ou pour un groupe de news. Dans ce cas, chaque news du groupe héritait du vote. Les sujets chauds qui durent plusieurs semaines emmagasinent alors les votes… et créent des disparités entre les différents sujets.

Par contre, Wikio dissocie bien les groupes comme vous pouvez le constater en vérifiant les news qui composent chaque groupe. Pour les votes, j’utilise le passé car je me rends compte, à la lecture de vos posts, que la solution n’est pas optimale. Nous allons donc changer l’algorithme et seules les trois premières news du groupe hériteront du vote, ce qui permettra d’éviter l’escalade étant donné le nombre important de news qui transitent sur le site. Lorsqu'une news quittera un groupe, elle ne bénéficiera plus que du nombre de clics réels, et non du nombre de votes du groupe.

Wikio est ouvert depuis moins de trois mois et a encore besoin de quelques réglages. Merci à vous tous pour votre collaboration.

laurent "AT" wikio.com.

Commentaire de Emanuel Parody:

Je ne sais pas si c'est un bug mais j'ai cru remarquer que sur un groupe d'articles traitant du même sujet le nombre de votes affichés était en fait le TOTAL de l'ensemble du groupe.

Et les principaux articles se voient créditer de ce même chiffre lequel peut être le cumul de plusieurs semaines de couverture éditoriale.


Souvent la couverture éditoriale rassemble en réalité des sujets différents mais sur une même entreprise (par exemple) preuve que le moteur n'est pas capable de les dissocier.

En tout cas je ne crois pas que le chiffre affiché à cote de l'article dans ce type de situation soit le nombre de vote sur ce SEUL article

Source: blog Media & Tech (par didier durand)

A mes 13% de visiteurs sur Mac Intosh: la vidéoconférence sur Skype aussi disponible pour vous!

Vous êtes 13% à lire ce blog via Mac Intosh [le secteur rouge du camenbert ci-dessous - cliquez le si vous voulez avoir la répartition détaillée]


Pour vous, Skype vient de sortir la vidéo sur la dernière version de son logiciel pour le Mac. Il veut surement ne pas louper l'intégration des fans d'Apple à sa communauté en croissance déjà explosive!

Moi (sur Windows XP), cela fait 6 mois que j'ai la chance de pouvoir m'en servir afin de voir mes collègues en plus de leur parler: je ne peux plus m'en passer pour le télétravail que mon employeur favorise.

Je suppose que vous aurez sur le Mac, les mêmes excellentes expériences que sur le PC.

Faites-nous en part dans un commentaire: je publierai dans un prochain billet.

Source: blog Media & Tech (par didier durand)

mercredi, septembre 13, 2006

La "Longue Traîne" du Web 2.0 via le Logiciel Libre: les clones de Digg et Wikio vont "bourgeonner"! (Pligg)

Après la question des modèles économiques et celle de la démocratie des sites web commutaires (et fortement basés sur l'UGC), la lecture de ce billet sur le blog de Nathan Weinberg m'a à nouveau fait réfléchir fortement sur le web 2.0!

La question qu'il m'a posé:

Parmi les 2 composantes du Web 2.0 - technologique et sociale (cf la définition de Wikipedia du Web 2.0 qui les distingue très bien) - finalement, quelle est celle qui prévaut pour le succès?

En lui-même, le billet décrit SearchMob, le nouveau site communautaire de John Battelle (...celui du livre sur Google et sa "base de données des intentions") qui collecte les dépêches sur le domaine des moteurs de recherche et fait voter les lecteurs sur les meilleurs articles . C'est un "Digg-like" basé sur Pligg qui est un clone de la plate-forme logicielle de Digg mais sous une version modifiée de la licence GPL, le canon du Logiciel Libre ("Open Source").

Cette plate-forme Pligg n'est finalement pas si loin des fonctions Digg ou Wikio: agrégation de feeds RSS, émergence des meilleurs contenus par votes des utilisateurs .

Si vous ne voulez pas partir dans une analyse fonctionnelle profonde (il ne faut que PHP et MySQL pour installer cela chez soi et essayer...), je vous conseille alors juste une petite visite comparative sur des sites utilisateurs de Pligg listé par l'excellent article de Wikipedia:
On est avec ces sites sur des niches très spécifiques mais fonctionnellement finalement pas loin des icônes du Web 2.0 que sont Wikio et Digg, non?

Alors, ma conclusion de ces réflexions que sous l'emprise du Logiciel Libre, c'est finalement la partie sociale du web 2.0 qui va faire les gagnants de demain dans cette nouvelle ère de l'Internet.

En effet, si je reviens à mon billet sur "Web 2.0 et démocratie", il me semble que c'est finalement la capacité à entretenir des relations "écologiques" (... plus simple à dire qu'à faire!) avec une vaste communauté d'utilisateurs qui fera les vainqueurs de cette compétition.

Certes. la technologie a de l'importance! ... Vu mon côté "geek" et ma formation, renier totalement la technologie me ferait mal ! ;-)

Mais avec Pligg, la communauté de l'Open Source montre qu'elle sait très vite (en quelques mois...) copier ce qui marche et l'offrir au marché avec un ticket d'entrée nul! Donc, les seules fonctions technologiques importantes à terme seront celles que les ténors implémenteront (juste avec quelques mois de répit sur la meute poursuivante des niches...) pour donner encore plus de pouvoir à leur communauté! Finalement , la technologie au service du social....

Tiens, au fait:

à travers toutes ces niches, le Logiciel Libre ne sera-t-il pas finalement le catalyseur de la Longue Traîne ("Long Tail") des sites du Web 2.0 en découpant les mastodontes globaux initiaux en centaines (milliers ?) de niches chacune hyper-spécialisée dans la "distillation", pour un domaine particulier, des meilleurs contenus issus de la blogosphère toujours explosive dans sa croissance?

Au sujet de cette Longue Traîne du Web 2.0, j'attends bien sûr avec un immense intérêt vos contradictions sur le thème " Winner takes all" et autres arguments. Le sujet vaut bien un bon débat!

Source: blog Media & Tech (par didier durand)

mardi, septembre 12, 2006

Web 2.0: Wikio comme Digg biaisé par des groupes organisés?

J'ai déjà évoqué la manipulation de Digg par des groupes organisés pour promouvoir certaines catégories de news.


Je viens de regarder Wikio: en choisissant la Rubrique "High-Tech" triée par popularité, on voit que le paquet des premiers billets a un nombre de voix strictement égal ou très (très) proche. [cliquez sur l'image pour l'aggrandir].

Sachant que Wikio a bien fait son travail en interdisant (visiblement par un mélange (cookie, signature, adresse IP) les votes multiples depuis un seul et unique PC, subirait-il dans ce cas lui aussi les assauts de groupes d'intérêts voulant profiter de son trafic?

Ou alors, y-a-t-il une explication plus prosaïque que j'aurais manquée? Merci d'avance aux spécialistes (y.c de chez Wikio) qui voudront bien m'éclairer.

Source: blog Media & Tech (par didier durand)

lundi, septembre 11, 2006

Web 2.0: les sites communautaires peuvent-ils rester démocratiques?

Alors que les questions sur les modèles économiques des sociétés emblématiques du Web 2.0 restent entières (voir aussi vos réactions), une autre question surgit très sérieusement à la lumière de 2 incidents récents: démocratie (participative) et web 2.0 peuvent-ils vraiment cohabiter ? ... et ce bien que le fondement même du web 2.0 soit la participation des individus?

Les 2 incidents en question:
Jean-Michel Salaün de l'université de Montréal décrit le problème matérialisé par ces 2 péripéties ainsi: "le technique (il faut comprendre ce terme comme la fonctionnalisation par les ingénieurs du social qu'ils imaginent) est plus rapide que le social qu'il "viole" en quelque sorte (première polémique), dans d'autres les différences de vitesse sont inversées (seconde polémique)."

Les ingénieurs en question ne font que ce qu'exige la compétition économique globale et que ce que permet la technologie du Web 2.0. Mais, il est clair que ces nouvelles technologies de l'internet social viennent maintenant impacter fortement notre vie la plus intime et notre organisation sociale la plus fondamentale.

La question - qui tient presque du paradoxe quand il s'agit des aspects sociaux du web 2.0 - à laquelle il faudra cependant répondre à partir de maintenant: des sociétés hyper-compétitives comme celle du Web 2.0 pourront-elles marier leurs impératifs de croissance économique à vitesse grand V avec le respect de la vie sociale (et de son évolution) de leurs utilisateurs qui sont la pierre angulaire de leur pérennité?

Ceux qui s'imposeront à terme ne sont peut-être finalement pas ceux partis en premier mais ceux qui auront appris des échecs des pionniers!

Par exemple, sur les "Digg-like" en France, de nouveaux acteurs émergent chaque jour: après Wikio, on vient de voir Iglouz puis NewsBurn émerger! Gageons que les 3 vont se "tirer la bourre" à coup de nouvelles fonctions en permanence et que le vainqueur à long terme sera quand même celui qui aura su apporter le plus d'innovation (... éventuellement par "copie") avec un maximum de respect de sa communauté d'utilisateurs. Les esprits de ceux-ci évoluent finalement moins vite que les lignes d'un logiciel!

Source:
blog Media & Tech (par didier durand)

Les travaux universitaires récents sur le sujet "Long Tail" ("Longue Traîne")

Pour ceux qui veulent aller au-delâ d'une revue de lecture (même détaillée) et dépasser le livre original, Chris Anderson publie ce billet qui liste les papiers de recherce universitaire récents sur le sujet "Long Tail" ("Longue Traîne").

Bonne lecture aux passionnés!

Source: blog Media & Tech (par didier durand)

samedi, septembre 09, 2006

[fun] vidéo pour les fans de supercross et de Google!

Une vidéo sympa trouvée par ValleyWag sur YouTube (qui va encore augmenter son trafic avec ça....): un motard de supercross qui passe et repasse au-dessus de la homepage de Google avec des figures acrobatiques



[Pour ceux qui veulent jouer: mettez-nous en commentaire votre vision de la symbolique qui consiste à passer par dessus Google en looping pour retomber ensuite sur (de la) terre ;-) ]

Encore une vidéo pour ma petite collection après la bière Carlton en péplum, Matt Harding autour du monde, le mélange détonnant Diet Coke + Mentos, les nouvelles chaussures de Ronaldhino, etc... Ma préférée reste celle de la Honda Accord.

On est toujours dans la publicité virale: mais bien faite, elle devient acceptable!....

[Via P.Lenssen]

Source: blog Media & Tech (par didier durand)

vendredi, septembre 08, 2006

Revue de livre: "The Long Tail" ("La Longue Traîne") de Chris Anderson

[Je m'étais fixé l'objectif de publier cette revue de lecture en Juin, la voici! Après lecture du billet ci-dessous, cette vidéo est à revoir]

Chris Anderson a publié en Juin son livre "The Long Tail" issu de la poursuite d'un article séminal paru en Octobre 2004 dans le magazine Wired (pour lequel il travaille). InternetActu a traduit cet article "The Long Tail" en "La Longue Traîne" (sûrement moins suggestif que leur choix initial de "La Longue Queue ;-)…). J'utiliserai donc "La Longue Traîne".

Selon le livre, la quintessence de "Longue Traîne" est le passage du monde commercial et culturel de la rareté (contraint par les limites logistiques du monde physique) à celui de l'abondance, libéré par l'Internet, le commerce électronique et la digitalisation des médias. Elle apporte un nouveau modèle économique (mais aussi socio-culturel) permis par l'ubiquité de l'Internet (présent maintenant chez tout le monde ou presque … et en haut débit) qui permet donc aux producteurs de biens ou de contenus de nous exposer (i.e via les sites web de e-commerce = les catalogues papier d'antan version 2006) à tous leurs biens et services avec un niveau de coût incroyablement bas (jamais atteint jusqu'à présent).

De plus, pour les producteurs et distributeurs de contenus culturels (musique, textes, vidéos, etc…), un deuxième niveau d'économie est atteint dans la distribution même du contenu qui circule lui-même par le réseau car il est maintenant abondamment numérisé (blogs textuels, podcasts et musiques mp3, films et vidéos divx, etc…)

C. Anderson s'accorde la paternité de la structuration du concept de Longue Traîne depuis 2004 mais certainement pas la vision pionnière de ses avantages économiques. Il l'attribue à Jeff Bezos, fondateur et ceo actuel d'Amazon. C'est J. Bezos qui selon C. Anderson a perçu en premier les nouvelles possibilités économiques et le potentiel de cette longue traîne.

Quelle est-elle, cette Longue Traîne? Pour C. Anderson, c'est le fait que nous sommes en train de passer du marché de masse ("mass market") où le top 50, les best-sellers du livre et les blockbusters du cinéma règnent à un marché composé de millions de niches où les choix très éclectiques des consommateurs se répartissent sur des multitudes de titres. Selon C. Anderson, J. Bezos a perçu en premier comment l'Internet permettait l'agrégation profitable de ces niches.


En mathématique, la longue traîne est une loi de puissance: la demande pour un produit est une fonction exponentielle décroissante du rang de classement de ce produit dans la demande globale. Sous forme graphique, cela donne:

Cette courbe descend donc de manière asymptotique vers le zéro sans jamais le toucher. L'objectif des sociétés basées sur cette Longue Traîne comme Amazon est de monétiser (avec des profits…) la zone de demande où celle-ci est tellement faible qu'aucune rentabilité ne pouvait être envisagée avant l'Internet (i.e le côté droit de la courbe ci-dessus).

Dans le domaine culture, deux caractéristiques de cette longue traîne culturelle sont actuellement modifiées sous l'influence du Web :
  • sa "longueur" (le nombre de "produits" disponibles) car nous pouvons tous nous mettre à "composer" à la maison avec des équipements d'un prix ridiculement bas des produits (culturels)
  • son "épaisseur" (la demande pour ces produits) car les amateurs diffusent leur consommation sur un plus grand nombre de titres que les seuls hits du passé (les seuls choix possibles de l'époque!…)

La longue traîne s'appuie essentiellement sur 3 leviers:
  • des outils matériels et logiciels à très bas prix (voire gratuits avec les Logiciels Libres) qui permettent à tout un chacun de fabriquer sans barrière financière des œuvres personnelles qui allongent cette longue traîne
  • l'ubiquité de l'Internet qui permet de réduire les coûts de promotion puis de distribution de ces oeuvres
  • les systèmes de recommandation multiples (réponses Google sélectionnées par le Pagerank, filtrage collaboratif et revues de lectures sur Amazon, tagging dans les folksonomies comme del.icio.us, etc…) qui font que les consommateurs osent explorer la partie postérieure de la traîne en partant des hits de la tête: le cas du livre X de l'article initial en est un excellent exemple
C. Anderson insiste sur l'importance de ces systèmes de recommandation en rappelant le flop du site MP3.com qui est mort très rapidement. Il avait eu le tort de vouloir ne vivre que de la queue de cette longue traîne. Or, la qualité dans cette queue est très inégale (beaucoup plus que dans la tête) et statistiquement on a donc plus de chances de tomber sur du mauvais que sur du bon dans la queue (sachant en plus que "bon" et "mauvais" sont des valeurs subjectives très dépendantes des intérêts et de la personnalité de chacun).

Un service "Longue Traîne" doit donc s'appuyer sur des recommandations associatives (le filtrage collaboratif d'Amazon comme excellent exemple): mp3.com est donc mort car il voulait ne vivre que de la commercialisation de la musique indépendante d'une qualité très variable. Ne pouvant faire "démarrer" les utilisateurs de son site par des hits standards pour ensuite progresser par association vers des équivalents moins connus, les utilisateurs fuyaient rapidement car ils tombaient majoritairement sur les "croûtes".

Pour insister sur l'importance de ces filtres de recommandation, C. Anderson complète le tableau par des études psychologiques prouvant l'importance des recommandations pour un consommateur: sans aide et devant une multitude choix, il finit par fuir plutôt que de risquer le mauvais achat!

En synthèse, cette Longue Traîne n'est finalement que la poursuite (grâce à de nouvelles technologies d'un phénomène engagé depuis des siècles: la création de nouvelles sociétés commerciales basées sur l'émergence de technologies innovantes qui réduisent toujours plus les coûts de production et de promotion/distribution. C'est donc toujours la destruction créatrice de J. Schumpeter (autre exemple ici) en pleine action!

Il faut ajouter à ceci une autre dimension: la "sagesse de foules" ("The Wisdom of Crowds)" qui est soit directement (revues dans Amazon) soit indirectement (Pagerank Google d'une page progressivement amélioré par des liens depuis d'autres sites) mise en action pour fabriquer ces systèmes de recommandation. Ces derniers ne peuvent être de qualité que grâce à l'ubiquité de l'Internet puisqu'il faut un grand nombre de contributeurs pour que ces recommandations deviennent statistiquement valides.

Enfin, C. Anderson considère que nous avons déjà vécu deux étapes dans la Longue Traîne:

  • "l'étape Amazon" où le libraire en ligne n'a (dans son modèle initial) a profité des avantages de l'Internet seulement pour réduire les coûts de promotion et faciliter les transactions de vente de produits "exotiques" qui ne peuvent être vendus en magasins de détails car leur niche est trop étroite.
  • l'étape Apple avec son Itunes où le produit lui-même est devenu numérique et peut donc être "produit à la maison" puis distribué par Internet à des coûts ridicules (souvent nuls hormis le temps de l'auteur). Cela donne une chance à des produits encore plus exotiques de trouver leurs niches et la Traîne s'allonge d'autant!

L'étape Apple/Itunes pousse le modèle à son extrême car alors la rentabilité financière atomique (i.e. par unité) finale d'un produit est la même qu'il soit au Top50 ou quasi-inconnu. La valorisation économique de la queue de la Longue Traîne fait alors beaucoup de sens!

L'étape Apple/Itunes pousse le modèle à son extrême car alors la rentabilité financière atomique (i.e. par unité) finale d'un produit est la même qu'il soit au Top50 ou quasi-inconnu. La valorisation économique de la queue de la Longue Tra'ine fait alors beaucoup de sens!

La question fondamentale qui reste ouverte pour l'instant est le volume financier réel de cette traîne de : ainsi que le note B. Giussani, C. Anderson est revenu en arrière après 2 ans d'études détaillées sur ces annonces par rapport à ce volume: il disait initialement dans l'article Wired que la partie postérieure, celle qui est inexploitée dans le monde physique à cause de taille limitée des rayons des magasins représentait un business supérieur à la tête. Maintenant, il dit seulement que la partie postérieure de la Longue Traîne est appelée à devenir "un marché significatif".

De toute façon, la valeur économique globale de cette longue traîne reste à évaluer: Amazon, Google, Netflix, iTunes ne sont encore que épiphénomènes très récents dans leurs branches respectives. Jusqu'où les mutations actuelles de forme (allongement et épaississement de cette longue traîne pourront-ils aller sachant que les ressources financières des consommateurs restent identiques et que l'être humain est une espèce fondamentalement grégaire donc qui gardera quand même finalement son instinct "troupeau" pour (une partie de) ses choix culturels?

Là où la Longue Traîne va sûrement prospérer pendant encore longtemps, c'est sûrement dans le domaine de la culture gratuite ("Free Culture" évangélisée par Larry Lessig): la croissance explosive de la blogosphère depuis 3 ans en est sûrement la meilleure preuve. Et cela, même si pour beaucoup, la culture gratuite en queue de traîne n'est que la première étape obligée pour une progression à but lucratif vers l'avant de la Traîne….

Le chapitre 10 est intéressant pour faire la synthèse des conditions d'émergence puis de succès de cette Longue Traîne. En synthèse, pour C. Anderson, il faut "rendre tout disponible" puis aider "le consommateur à trouver". En détaillant un peu plus, il dit qu'il faut

  • réduire ses coûts (a) en faisant levier sur les formes les plus modernes (logistiques ou financières) de gestion des inventaires et (b) en laissant au maximum les clients "faire le boulot" (tiens, la fameuse composante sociale du web 2.0 présentée sous sa forme lucrative….)
  • penser niche en offrant toutes les formes de distribution possibles, tous les produits possibles, toutes les formes de facturation raisonnables
  • apprendre à "perdre le contrôle" en offrant toutes possibilités (en tout cas un maximum!) et en laissant le client choisir ensuite. Pour transférer ce contrôle vers le client, il faut le munir de toutes les informations dont on dispose. Ce sera ensuite le marché qui fera le travail de sélection (... pré-recommandation en quelque sorte) réalisé actuellement en amont par les commerçants.
  • comprendre et utiliser le "Force du Gratuit" ("Power of Free"): on offre le gratuit à tous (vu les coûts marginaux très faibles d'un utilisateur supplémentaire) et on convertit seulement une fraction en clients payants: ils suffisent à devenir rentable (cf Skype avec son générateur de revenus SkypeOut)

J'ai beaucoup appris ou recadré de choses dans mon esprit en lisant ce livre particulièrement bien structuré. Après lecture, on a une bonne vision historique complète de l'optimisation permanente des processus commerciaux depuis l'émergence de la vente par catalogue par Sears & Robuck jusqu'au succès de iTunes.

J'espère cependant que cet ouvrage aura une seconde édition ou une suite dans quelques temps pour reprendre la partie économique qui ne bénéficie pas encore d'un recul suffisant: on est encore à l'aube du phénomène et il n'est essentiellement mesuré que le marché US. Il semble donc plein d'opportunités dont ne peut évaluer la taille commerciale réelle. D'ici à 5 ans, on commencera à en mesurer réellement l'ampleur même si les générations nées avec l'Internet ne représenteront encore qu'un fragment de la population.

Je recommande fortement la lecture de ce livre: il va à mon avis rester comme l'un des livres "business" forts de ces prochaines années ! Il décrit en effet un phénomène appelé à se généraliser (industries et géographie) et à fortement modifier l'économie des sociétés ainsi que la vie des citoyens si son ampleur se confirme.

… mon seul - petit - regret (Il en faut bien un pour ne pas être taxé de complaisance aveugle!): des passages sont à mon avis hors sujet ou trop peu argumentés comme

  • la collaboration grâce à Internet entre astronomes amateurs et professionnels
  • la longue digression sur la perplexité des consommateurs face à un choix trop abondant de confitures dans leur supermarché
  • la longue traîne de la bière ou des farines dans les supermarchés

Mais, finalement, lisez ce livre: il en vaut franchement la peine!

Aussi votre avis?

PS: l'ultime paradoxe pour ce livre, c'est qu'il est dans le Top10 des best-sellers du New-York Times aux USA! ;-))


Source: blog Media & Tech (par didier durand)

jeudi, septembre 07, 2006

Après les USA, SkypeOut gratuit aussi en France!

[merci à larryk pour cette info]

Après l'avoir fait aux Etats-Unis en Mai (voir ce billet), le service SkypeOut qui est pourtant le moteur de revenus de Skype (91% du CA) est gratuit en France jusqu'au 31 Décembre 2006 (tiens, je vais pouvoir réduire mes dépenses SkypeOut qui grimpent ces temps-ci...)

Le Figaro écrit: "France Télécom risque de souffrir de cette nouvelle offensive du trublion de la téléphonie. Niklas Zennström, le président de Skype, a choisi la France pour cette offre inédite en Europe. « Nous lançons la première offre de téléphonie illimitée vraiment gratuite, explique le cofondateur de la start-up qui a chamboulé en trois ans les télécoms dans le monde. Contrairement à ce que font les opérateurs de télécoms, nous ne réclamons aucun abonnement payant, aucune souscription pour y avoir droit », souligne-t-il."

Mais, Skype reste prudent toujours selon le Figaro: "Skype a fixé une échéance à cette aubaine : le 31 décembre 2006. Car si l'offre est gratuite pour les utilisateurs, elle ne l'est pas pour lui. « On ne connaît pas les répercussions financières que l'opération peut avoir sur nos comptes et nous ne voulons pas nous conduire de manière irresponsable », souligne ce quadra devenu milliardaire quand le groupe américain eBay a racheté Skype, il y a tout juste un an. Cette première française devrait être suivie par d'autres, ailleurs en Europe."

Moi, je n'en ai que du bien à dire de Skype (... et pourtant je n'y ai aucun intérêt!): aussi bien pour la vidéo que pour l'utilisation internationale!

Si le côté "geek" (par son côté "Internet only") de Skype vous rebutait jusqu'à présent, vous pouvez maintenant essayer: Mr Tout Le Monde devient aussi joignable gratuitement!

La communauté Skype devrait donc pour poursuivre son explosion!

Source: blog Media & Tech (par didier durand)

mercredi, septembre 06, 2006

"Google News Archive Search": réalisme, schizophrénie ou hara-kiri des éditeurs?

[Update: le blog Google confirme cette archive et ses modalités] C'est en train de se répandre rapidement puisque la presse et les médias traditionnels sont directement concernés: Google lance aujourd'hui un service d'archives pour compléter Google News qui fonctionne lui sur les dépêches d'actualité en temps réel.

Le service s'appelle "Google News Archive Search" et sa page d'accueil est ici. Il remonte loin dans le temps: cette page de résultats propose par exemple plein d'articles de 1889 (!!) sur la Tour Eiffel. (SEW précise que l'on peut remonter 200 ans en arrière)

Google précise que le service n'est pas une source de monétisation pour lui: aucun cash ne circule dans un sens ou l'autre entre lui et les éditeurs (à ce moment...)

[Pour les fans, voir les caractéristiques techniques et fonctionnelles en fin de ce billet]

Sinon, retour à mon titre, réalisme, schizophrénie ou hara-kiri des éditeurs? En effet, on peut voir ce mouvement très cohérent pour Google dans sa recherche permanente du plus gros index possible sous un triple angle:
  • Schizophrénie: il n'y a aucune monétisation de Google News par Google, pourtant les éditeurs lui font des procès autour des droits d'auteur ou veulent le faire payer (l'AFP a même un procès en cours) pour l'agrégation du contenu News en temps réel . Là, il semble que ce soit eux qui ont poussé Google à indexer le contenu de leurs archives pour qu'il leur route du trafic. Dédoublement (contradictoire) de la personnalité?
  • Réalisme: Google route environ la moitié du trafic issu de recherches aux USA (parts de marché 48.7 % en Décembre 2005). En France, Le Monde avait essayé de se passer de ce trafic, il est finalement revenu à la réalité en demandant rapidement une réintégration dans Google News. En effet, la bonne vieille équation publicitaire # trafic = publicité = revenus # reste 100% valable même et surtout dans le Web 2.0 ! Le fait que les éditeurs poussent montre que le réalisme financier finit par prévaloir...
  • Hara-Kiri: il très dangereux de donner le contrôle de l'aiguillage de son trafic à un intermédiaire externe comme Google. Ses résultats financiers éclatants lui donnent tout loisir d'assumer ce rôle aussi longtemps qu'il le faut pour devenir "bienfaiteur" de ces partenaires. Mais, que se passera-t-il quand la part de marché de Google aura encore massivement augmenté? On peut envisager les scénarii les plus noirs.... J'espère au moins que les éditeurs offrent ou offriront la même possibilité à des alliances alternatives comme l'OCA de Yahoo et Microsoft.

Ma conclusion: nous vivons un point d'inflexion avec ce service "Google News Archive Search" puisqu'il est stimulé par les éditeurs. Il va à mon avis marquer une "normalisation des relations" (on se croirait au Quai d'Orsay...) entre Google et les éditeurs de presse autour du vieux conflit des droits d'auteurs!

Mais, je ne sais pas évaluer si c'est vraiment "win-win": j'aurais tendance à croire que c'est meilleur à long terme pour Google que pour les éditeurs de presse. Et vous ?

Caractéristiques techniques et fonctionnelles:
  • le contenu de l'archive n'est pas hébergé chez Google: il ne possède qu'une copie pour faire l'indexation.
  • l'anglais est la cible actuelle mais d'autres langues sont prévues.
  • les résultats de recherche peuvent être organisée de manière temporelle pour suivre l'évolution de la couverture d'un sujet.
  • les partenaires sont multiples: Wall Stree Journal, New York Times, Washington Poost, Time, Guardian Unlimited, Factiva, Lexis-Nexis, HighBeam Research, Thomson Gale, etc... NYT donne des détails sur les quantités d'articles indexés pour divers éditeurs.
  • l'accès à cette archive est hybride: payant pour certaines dépêches et gratuit pour d'autres (visiblement selon le choix de l'éditeur). Pour les éditeurs dépourvus de système de paiement en ligne, Google Checkout sera sûrement une option.

Source: blog Media & Tech (par didier durand)

Publicité en ligne sur Internet: +49% au premier semestre 2006 (Nielsen)

L'Internet Advertising Bureau (IAB) [pour moi, la référence de la branche sur le sujet] n'a pas encore sorti son communiqué pour le premier semestre autour de la publicité Internet. (Re)voir celui du T1, plein d'informations utiles.

Nielsen vient par contre de donner ses chiffres: +49% sur le marché américain pour le S1. C'est dans le même ordre de grandeur que IAB qui donnait +38% pour le T1 (dans ces mondes nouveaux, il faut accepter des erreurs de mesure importantes...)

Le volume donné par Nielsen est de 3.8 milliards de dollars (2.6 millairds en 2005) pour ce semestre. C'est bien plus faible que IAB qui donnait déjà 3.9 milliards de dollars pour le seul T1 mais il faut faire attention: IAB prend en compte toutes les formes publicitaires en ligne y.c annonces classées sur Internet par exemple alors que Nielsen se limite à la publicité commerciale.

Comme je l'ai déjà écrit, encore un afflux financier supplémentaire pour le Web 2.0!

Source: blog Media & Tech (par didier durand)

lundi, septembre 04, 2006

Google le plus visité en Europe: 75% des visiteurs uniques identifiés (selon Comscore)

J'utilise souvent Comscore pour les chiffres qu'ils publient: le plus souvent, ils analysent le marché US (ici pour les vidéos ou pour la recherche pure ou encore pour l'IM) .

Mais, ils se rallient finalement à la vision de Yahoo: le marché américain ne va plus être aussi prédominant dans le monde Internet et donc les autres continents méritent leurs analyses spécifiques!

A partir de maintenant, Comscore publiera donc une analyse mensuelle des (ensembles de) sites les plus visités de notre vieux continent.


Différente des USA, l'Europe ? Lègèrement; aux USA, c'est Microsoft qui mène globalement la danse alors que Google domine la recherche sur les moteurs . En Europe, c'est Google qui domine globalement avec plus de 156 millions de visiteurs uniques (agés de 15 ans et plus) en Juillet sur l'un ou l'autre de ses nombreux services.

Il reçoit donc la visite de plus de 75% des 215 millions d'internautes européens discernés par Comscore. C'est à nouveau un mouchoir de poche - comme aux USA - avec MSN mais la différence, c'est Yahoo qui est loin derrière alors qu'à la maison tout le monde se tient!

En France, le trio de tête, c'est Google puis Microsoft puis France Telecom (Wanadoo). Voir la press release de Comscore pour tous les détails.

Les "vieux" propos Bill Gates sont confirmés: le vrai rival mondial de Microsoft, c'est Google car Yahoo (bien que plus âgé) semble faible hors des USA!

Source: blog Media & Tech (par didier durand)

Les business models du web 2.0: vos réactions

Comme promis lors de mon premier billet sur le sujet des modèles économiques du web 2.0 (mes interrogations personnelles), je publie ici vos réactions sur ce thème.

C'est "brut de décoffrage" (sans aucune correction/suppression de ma part): mêmes les annonces publicitaires y sont! ;-)

At 8/29/2006 05:48:27 PM, henri said...

Tu poses ici la vraie question! En terme de business model j'ai pour ma part noté :

-La publicité pour les gros sites US
-La vente de services plus (plus d'info, de l'espace disque suplémentaire,...) comme feedburner, flickr,...
-Aucun business model mais un objectif de revente à un poids lourd comme del.icio.us
-Aucun business model et une mort assurée dans les prochains mois (75% des start up 2.0)

Après comme toi je sèche...

At 8/29/2006 06:30:39 PM, Emmanuel said...

Je maintiens que le Web 2.0 sera financé par le marketing direct et plus généralement le ciblage publicitaire (et comportemental). Netvibes et YouTube ne suivent pas cette voie mais leur choix n'est pas représentatif. C'est Yahoo qui est le plus avancé sur le sujet.

Bref le quatrième pilier = le marketing direct trop souvent oublié alors que tout le monde oublie que les performances de la pub dasn un environnement communautaire sont médiocres.

At 8/29/2006 07:05:12 PM, d. durand said...

Emanuel, Henri,

Merci de vos réponses rapides

-> Henri: moi, aussi je pense que la revente rapide est le modèle visé par beaucoup

-> Emanuel: quel forme de marketing direct svp ? Merci de plus de précisions

cordialement

didier

At 8/29/2006 07:28:33 PM, emmanuel said...

Par marketing direct j'entends la capacité de proposer des offres commerciales ou de services ciblées. Le corollaire du Web 2.0 étant l'expression des utilisateurs et leur profiling, le marketing direct est la forme ciblée d'action publicitaire qui lui correspond.

Par ailleurs concernant le postulat (à la fin) des utilisateurs qui seraient propriétaires de leurs données je me demande bien d'où sort cette assertion alors que précisément la plupart des sites Web2.0 établissent de façon informelle ou non un contrat de cession des drotis d'exploitation du contenu. C'est donc le postulat exactement inverse qui correspond à la réalité. A mon avis

At 8/29/2006 08:09:42 PM, genium said...

Bonjour Didier,

Je n'ai malheureusement pas d'idées bien précises... Je suis certainement limité par ma vision technique du phénomène, mais le sujet est passionnant.

Du coup, je me réfugie dans l'analyse de joel de Rosnay lorsqu'il écrit:

«Le développement d’Internet rappelle certains des principes fondamentaux mis en oeuvre par l’évolution biologique. La compréhension des phénomènes d'émergence est à rechercher du côté des processus de construction de systèmes complexes plutôt que dans l'analyse de leurs constituants. [...] La leçon que nous apporte la biologie est la suivante : la complexité émerge de la dynamique des interactions entre agents, qu’il s’agisse de molécules, de fourmis ou d’acheteurs dans un marché. Des propriétés nouvelles émergent de cette collectivité organisée. L’individu n’a pas de plan d’ensemble de la structure qu’il construit “de l’intérieur”. Les propriétés de ces systèmes complexes ne sont en aucun cas programmées dans les éléments qui les constituent. La vie, la conscience réfléchie, l’économie, Internet, naissent de manière chaotique, de la dynamique des interactions...»

Source (fin du dernir chapitre):
http://www.pronetariat.com/livre/

Mais si nous manquons de visibilité, le potentiel des "infomédiares" augmente de jour en jour; les mieux organisés pourraient se regrouper pour favoriser l'interaction ancien et nouveau monde... (sous la forme de micro-entreprises)

Prenons l'exemple de la grande distribution, une industrie certes puissante, mais incapable de s'adapter; les infomédiaires entrent en scène, ave de nouveaux outils (dernier en date, le geotaging de yahoo >> http://www.techcrunch.com/2006/08/28/flickr-to-launch-geo-tagging-today/

Grâce aux infomédiares, la grande distribution pourrait varier son marketing (distribution de propectus) par les recettes du Web 2.0....

Ce modèle doit pouvoir s'appliquer à tous les puissants souhaitant "collaborer", et profiter des joies du nouveau monde:) Tout ça se paye... (l'ancien monde financera les services...) d'où un modèle économique simple.... On n'ennuie pas les internautes (toujours maître de ses choix... libre à lui d'aller pêcher la dernière réduction proposée à l'aide des outils web 2.0... photo du TV dernier cri sur Flick, localisation du magasin sur Yahoo mpas, etc, etc)....

Mais bon... Sorry pour mes divagations :)

At 8/29/2006 08:26:28 PM, Hubert said...

Bonjour Didier

Je m'intérroge sur les mêmes problématiques. Je suis en train de monter un projet orienté Web 2.0 mais je ne sais pas trop vers quel modèle m'orienter. J'en parle dans mon blog Géonimmo dans ce billet et dans celui-ci.

J'espère que tes lecteurs sauront m'éclairer ;o)

At 8/30/2006 12:52:59 AM, Cedric said...

bonsoir,
les business models autour des services web 2.0... Pour le moment les seuls avec un modèle économique pertinent, dès leur création, sont les sites qui proposent des services aux professionnels, et non aux particuliers. Pour les autres, nous retombons sur le problème de la rentabilité des sites communautaires à forte audience qui, comme tu le soulignes, ont des coûts élevés.

At 8/30/2006 04:40:52 PM, flysebb said...

pour les sites de video tels youtube dailymotion, si la pub fait son intrusion, je pense que cela sera par le biais d une courte seance pub en intro de toutes les videos (on le voit deja bcp aux US), à la maniere de spot de bouytgtel sauf que cela sera insere en entree de video. afin de contourner la reaction negative des internautes, les videos ne doivent pas etre calssees en fonction de si elles sont ou non sponsoriséees, enfin, je crois qu'un partage des revenus avec les internautes qui postent des videos qui sont vues par les autres internautes devrait engendrer l'arrivee sur ladite plateforme de nouvelles videos postees par des internautes qui souheitent monetiser leur travail, au detriment donc des autres plateformes qui ne proposeront pas cette remuneration..ca n'est que mon point de vue...
Pour ce qui est d un service comme netvibes....je crois qu'il ne faut pas croire ce que dit tariq krim lorsqu'il dit ne pas se soucier des rentrees d'argent? Je serais tres tres etonne qu'avec l'arrivee de chappaz et consors dans son board, il puisse en interne tenir ce discours. je crois au contraire que ces personnes sont la justement pour aider netvibes a trouver une bonne solution pour se financer et qu'ils reflechissent bcp sur ce point. Que vont ils faire, que peuvent ils faire ?? Moi je les vois bien monetiser une presence dans leur ecosysteme plus que sur la page netvibes en elle meme.. l ecosysteme n'est pas vu toute la journee par les utilisateurs, c'est leur homepage netvibes qui l'est , donc la presence de pub dans cet ecosysteme sera moins mal vue que si la pub arrivait sur les pages netvibes des utilisateurs.

j'ai bien mon idee mais je la garde pour moi ....peut etre un business a mettre en place derriere.. faut que j'etudie cela.

At 8/31/2006 04:18:25 PM, Sébastien Billard said...

Je me permets de soumettre un lien connexe, sur la survie des sociétés Web 2.0 :
http://s.billard.free.fr/referencement/index.php?2006/08/31/274-scepticisme-20 (Surtout le propos de Tom Foremski)

At 8/31/2006 04:26:48 PM, d. durand said...

Sébastien,

Je viens de lire: très intéressant ce Tom Forenski!

merci

didier

At 9/01/2006 09:31:38 AM, Franck Poisson said...

Bonjour,
Je m'invite à la conversation en me sentant concerné par l'article et sa question des business models.

Webwag.com que nous lançons cette semaine sera basé sur trois sources de revenus dans un premier temps. Encore un peu de patience, mais Webwag est la première page d'accueil personalisable à générer des revenus dès le début, dès septembre.

At 9/01/2006 09:50:23 AM, d. durand said...

Bonjour Franck,

On va suivre les modèles de fonctionnment de Webwag avec grand intérêt et dès aujourd'hui

A bientôt!

didier

At 9/01/2006 01:04:00 PM, Anonymous said...

A Bonjour,
Avec un écran en 1280*1024, je suis obligé d'utiliser l'ascenseur horizontal sur la page d'accueil de webwag.com !
Quel dommage...
A première vue, j'ai du mal à distinguer ce qui démarque fondamentalement ce site des autres aggrégateurs de contenu.


Source: blog Media & Tech (par didier durand)