lundi, décembre 28, 2009

Ventes Amazon: les e-books dépassent les "vrais livres" le 25 Décembre !

Amazon annonce que les ventes de e-books pour son lecteur électronique Kindle ont dépassé celles de livres physiques le 25 décembre. Deux autres informations intéressantes: le Kindle a été le cadeau le plus commandé pour Noel dans l'histoire de Amazon et la bibliothèque Amazon est actuellement riche de 390'000 titres au format Kindle.

Bien sûr, il y a une explication simple: ce sont sûrement tous les petits gâtés qui ont découvert le Kindle sous le sapin de Noel qui se sont fait plaisir en le remplissant alors que les acheteurs de livres traditionnels étaient eux en train de cuver foie gras et dinde....

Malgré tout, c'est un pic (éphémère) est intéressant: il démontre que le livre électronique est en train de faire son chemin.

Pour "paver ce chemin", Amazon perd de l'argent à chaque copie vendue: les éditeurs vendent les livres à 12$ aux distributeurs comme Amazon, que ce soit une copie physique ou une copie électronique (à coût marginal nul!). Cette étude montre cependant qu'avec un prix de vente en gros de $5, le taux de marge des éditeurs serait préservé (pas les montants bruts). Il suffit donc à Amazon de pouvoir tenir dans ces pertes: la concurrence et le marché devraient faire le reste pour lui permettre de revenir à des prix de vente profitables. La résistance des éditeurs sera sûrement longue car le livre électronique comporte le risque élevé d'une désintermédiation pour ces éditeurs: Amazon pourrait traiter beaucoup plus directement avec les auteurs si le contenu n'était qu'électronique sans nécessité de lourdes imprimeries qui restent une bonne barrière de protection dans cette industrie....

Bien sûr la route sera encore longue mais le livre électronique "fera son trou" (sans jamais supplanter le bon vieux livre papier).

Et l'allié d'Amazon est sûrement inattendu: c'est Google qui en digitalisant sans permission (donc parfois à ses risques et périls devant la justice) 10+ millions de livres dont 1 million qui sont de plus retravaillés pour les restituer gratuitement dans un format compatible avec les lecteurs électroniques, le géant de Mountain View pousse par un autre angle les éditeurs à fournir leur contenu sous ces formats (afin d'éviter l'obscurité plus dangereuse à terme que la piraterie...)

Donc, nous avons passé ce 25 décembre un cap certes symbolique mais l'imprimerie électronique qui rendra l'accès aux contenus toujours plus démocratique et simple est maintenant en marche. Un certain Gütenberg doit s'en délecter!

Source: blog Media & Tech (par didier durand)

vendredi, décembre 18, 2009

Facebook: les tensions (juridiques) du modèle économique

La plainte qui vient d'être déposée par l'EPIC (groupe de protection de la sphère privée qui a déjà fait cette vidéo futuriste très pessimiste) devant la commission fédérale américaine du commerce (Federal Trade Commission) est la résultante prévisible (voir ce billet en particulier) du modèle d'affaires de Facebook.

Cette plainte est symptomatique du paradoxe que représente l'essence de Facebook:
  • le réseau social promet à ses utilisateurs une diffusion sous leur entier contrôle des informations qu'ils publient sur sa plate-forme. L'audience n'est donc par essence pas maximale puisque interdite d'accès aux moteurs de recherche.
  • Facebook a un modèle d'affaire fortement publicitaire actuellement: 85% de ses revenus sont issus de la publicité.
La conséquence est que Facebook, comme il vient de le faire très récemment, "force un peu la main" à ses utilisateurs (souvent peu au fait des conséquences techniques de leur choix) par des changements d'interfaces qui "motivent" les utilisateurs à rendre publiques des informations qu'ils gardaient jusqu'à présent limitées à leurs amis proches.

Ce flux croissant va ensuite, selon les récents accords sur le sujet, alimenter Google et Bing afin de maximiser les bénéfices de "l'Economie de la Sérendipité" pour Facebook.

Et alors, cela irrite les groupes activistes qui déposent plainte pour violation de la sphère privée. La boucle est bouclée!

C'est un très vieux problème que je qualifiais déjà à l'époque de "Noeud Gordien du Web 2.0": comment maximiser les revenus publicitaires sans froisser les membres actifs de la communauté qui sont finalement la moelle épinière du système ?

Facebook avec Beacon s'était déjà frotté à ce dilemme: il avait fallu les excuses de Mark Zuckerberg lui-même pour calmer la tempête.

On repart ici sur un ouragan du même type !

Et ce ne sera pas le dernier: ce fonctionnement sur le fil du rasoir restera le modèle optimal pour les sites sociaux si ils ne peuvent pas développer d'autres sources de revenus significatives que la publicité....

Source: blog Media & Tech (par didier durand)

lundi, décembre 14, 2009

Amazon EC2: l'heure de CPU maintenant aux enchères

Amazon annonce aujourd'hui , le Spot Pricing, une nouvelle forme de pricing de son service EC2 de location de puissance CPU à l'heure: la vente aux enchères de sa puissance de calcul non utilisée par les acheteurs à prix fixe.

Le "marché", ceux qui ont besoin de cette puissance, vont annoncer leur prix et leur volume d'achat. Et Amazon commencera par servir ceux qui font la meilleure offre, puis les suivants, etc...

la démarche est particulièrement intéressante:
  • elle va forcer les acheteurs à se poser la question de valeur économique des résultats de leurs traitements: j'en ai besoin très vite alors j'offre un prix élevé, je suis moins pressé alors je propose un prix plus bas.
  • elle va permettre en particulier à ceux qui traitent des immenses volumes de données (projets type Folding@Home ou Seti@Home, etc...) mais qui ne sont pas pressés de faire leurs traitement au plus bas pris en se glissant dans les trous. Les sociétés qui traitent par exemple des téraoctets issus de crawling du web ou dont le métier est de transcoder des bibliothèques énormes de médias d'un format vers un autre sans pression particulière sur les délais peuvent se frotter les mains: elles vont réduire leurs coûts !
  • elle va permettre à Amazon de mieux optimiser l'utilisation de son infrastructure: les clients discount seront traités hors des pointes. Sachant qu'Amazon a régulièrement démontré depuis le lancement de sa plate-forme Amazon Web Services qu'elle souhaite partager ses réductions de coût, on peut finalement certainement en déduire que c'est finalement toutes les parties qui tireront les marrons du feu: à terme, même les clients pressés devraient voir leur prix horaire de CPU EC2 par le simple fait qu'avec cette nouvelle forme de services aux enchères, Amazon va pouvoir décaler ceux qui sont moins pressés vers les trous!
L'architecture applicative à mettre en place pour profiter du Spot Pricing est cependant un peu particulière: le prix Spot fluctue en permanence. Un traitement acheté en mode Spot Pricing peut donc être interrompu par Amazon dès que le prix offert par son acheteur repasse sous le prix Spot courant. Il faut donc développer son logiciel de manière à stocker ses résultats intermédiaires souvent afin de ne perdre par le fait de devoir repartir de zéro à la prochaine relance, les économies que l'on aurait pu faire par un prix d'achat unitaire bas...

C'est donc un véritable marché (au sens boursier du terme) de l'infrastructure informatique qui va naître: verra-t-on des traders, des hedge funds et des produits dérivés de l'heure CPU émerger? Sous une forme ou une autre à affiner, je suis presque persuadé que oui!

Avec la bascule progressive des entreprises vers le Cloud Computing, la liquidité (financière) de ce marché va aller croissante. La conséquence ultime: la détermination la plus juste des coûts informatiques d'une entreprise.

En effet, par cette mise en commun massive d'infrastructure qui se profile, ces coûts vont être placés sur une échelle analogique beaucoup plus fine que l'échelle quantique actuelle munie d'un nombre trop réduit de paliers qui permet des bénéfices juteux aux constructeurs!

On commence aujourd'hui à voir le crépuscule tomber sur les profits colossaux des constructeurs informatiques historiques: le pouvoir va passer dans les mains de ceux qui savent transformer ces produits matériels en services immatériels aux meilleurs coûts....

Comme je l'ai écrit en 2004, l'Open Source est clairement un catalyste du phénomène: maintenant que nous avons standardisé sur Linux via NACA (et fait des économies déjà colossales....) chez Publicitas, nous pouvons maintenant songer à faire le pas de plus: envoyer (progressivement) dans le nuage nos applications "corporate" pour gagner encore un cran dans les économies sur nos coûts de production ! Nous avons publié nos outils: vous pouvez donc y aller aussi!

PS: pour bien remettre ce genre d'évolutions en perspective sur plusieurs décennies, je vous conseille de (re)lire The Big Switch de Nicholas Carr où il trace un excellent parallèle entre l'histoire de la production / distribution électrique et ce que nous sommes en train de (commencer à) vivre pour la production d'énergie informatique.

Source: blog Media & Tech (par didier durand)

vendredi, décembre 11, 2009

Internet , second média publicitaire en 2015? (ZenithOptimedia)

L'agence publicitaire mondiale vient de livrer ses prédictions publicitaires mondiales à horizon 20015.

Bien sûr, ce genre de prédictions n'engage que ceux qui les croient! ;-)

Mais, celles-ci ont pour moi un trait nouveau et intéressant: c'est la première fois que je peux lire que Internet va devenir à horizon 2015 le second média par ses revenus publicitaires devant les jounaux et les magazines (mais encore loin derrière la TV....) : "We expect the internet to overtake newspapers to become the world’s second-largest advertising medium by the time we are half-way through the next decade."

Les graphiques et chiffres de source Zenith Optimedia qui matérialisent ceci:

On avait déjà des pas dans ce sens: forts progrès des pays européens en la matière, passage du cap des 10% du gâteau publicitaire global, Internet devant la télévision au Royaume-Uni, etc.

On peut bien sûr toujours parier àpeu de risques que Google qui se taillera la part du lion par ses revenus directs ... mais aussi par les commissions prélevées sur les sites affiliés !

Internet gagne donc actuellement ses galons de média majeur.

Source: blog Media & Tech (par didier durand)

mercredi, décembre 09, 2009

Facebook capillarisé vers 80'000 systèmes tiers

Des informations intéressantes issues de la présentation de Ethan Beard (Facebook) à LeWeb 09:
  • 80'000 sites et gadgets (iPhone, Xbox) ont implémenté Facebook Connect (détails du service ici), la technologie de Facebook qui offre à la fois des services d'authentification à des sites web tiers et de remontées d'information de ces sites vers Facebook pour déclenchement de buzz viral par affichage sur le mur Facebook de l'utilisateur et sur celui de ces amis. Gros progrès depuis les 15'000 sites de 3 mois en arrière. l'hydre Google est maintenant en ligne de mire....
  • ces 80'000 connexions capillaires sont utilisées chaque mois par 60 millions d'utilisateurs (parmi les 350 millions de membres de Facebook).
  • ainsi, ces 60 millions d'utilisateurs envoient leurs amis vers le site tiers et paient le site utilisateur de Connect en retour: Huffington Post parle de +500% de visiteurs en provenance de Facebook après avoir implémenté son service Connect.
  • 500'000 applications Facebook ont été développées sur cette plate-forme dont la forme architecturale principale est le niveau 2 de la typologie de Mark Andreessen.
  • 70% des utilisateurs de Facebook sont hors USA

On voit donc émerger à travers Facebook Connect, un véritable éco-système à bénéfices mutuels pour les partenaires autour du réseau social leader: ses alliés profitent aussi de sa construction en cours du graphe social mondial.

Source: blog Media & Tech (par didier durand)

mardi, décembre 08, 2009

Facebook sur Google : 100+ millions de pages maintenant indexées instantanément

Mise à jour:
En faisant la requête "site:www.facebook.com/pages" (cliquez ici pour constater par vous-même en haut à droite) sur Google, issue de l'astuce ci-dessous, on trouve exactement 143 millions (en tout cas sur mon écran) de pages ouvertes en mode public qui vont maintenant être indexées en temps réel. Mon estimation était donc bonne!

Billet original:

Inside Facebook et Techcrunch confirment que la marche vers le "Web Instantané" via les réseaux sociaux, récemment annoncée par Google et Microsoft Bing, devient effective.

En effet, Google indexe dès maintenant en temps réel les pages publiques de profil: ce sont toutes ces pages bâties par les stars, les associations, les grandes sociétés, des groupes d'intérêts (le Top30 mondial est ici) qui sont publiques. Un progrès de plus de "l'indexation intégrale instantanée" qui est une des cibles prioritaires de Google dans sa mission à long terme....

Combien y-a-t-il de ces pages ?

En utilisant mon vieux truc personnel pour les compter, on se rend compte que Google connaît à ce moment 476 millions de pages sur facebook.com. Nous sommes officiellement 350 millions de membres avec une page personnelle descriptive (partiellement publique et ce partiellement à notre insu) chacun.

On peut donc déduire qu'il y a aux alentours de 100-120 (476 -325 +/- qq "broutilles") millions de pages que Google va dorénavant tenir à jour dans son index en temps réel.

Google est équipé de 2+ millions de serveurs pour pister 1'000+ milliards d'URL publiques sur le web. Ces 100 millions de pages sont donc pour lui un détail (0.01 %) : on pourrait imaginer qu'il laisse fonctionner ces "aspirateurs à contenu" à leur vitesse maximum sur le site Facebook, mais ce serait mettre un gros stress sur l'infrastructure Facebook qui est petite (30'000 serveurs seulement) en comparaison...

Marissa Mayer de Google confirme donc qu'un dispositif spécial d'alertes instantanées sur les changements dans ces pages est maintenant en place entre les 2 sociétés afin de minimiser la charge côté Facebook. C'est très similaire à ce que Google fait déjà pour les blogs depuis longtemps via RSS pour limiter la charge de travail sur sa propre infrastructure.

Facebook est devenu cet été le 4ème site mondial (futur propriétaire du graphe social global) derrière l'éternel trio de tête GYM (Google, Yahoo, Microsoft) . Puisqu'un trafic massif est essentiel aux (actuels) 500 millions de dollars de revenus de son modèle d'affaires paradoxalement purement publicitaire (à l'heure actuel), les avancées dues à ces progrès d'indexation sont à suivre en détails dans les statistiques des prochains mois!

Source: blog Media & Tech (par didier durand)

lundi, décembre 07, 2009

Presse écrite et Internet: discrépance léthale ?

Les éditeurs de presse râlent depuis longtemps contre Google qu'ils accusent de piraterie éditoriale dans son service Google News pour profiter d'une manne publicitaire qu'il a su fabriquer en réussissant sa ré-intermédiation du 4ème pouvoir.

Alors, dans la lignée de son célèbre don't be evil", Google tente d'aider avec des mécanismes comme le récent programme "1st Click Free" où l'internaute ne peut chaque jour accéder gratuitement qu'un nombre limité d'articles lorsqu'il est envoyé par Google News qui génère ainsi 1 milliard de vistes mensuelles vers les sites éditoriaux.

Eric Schmidt, son CEO, a récemment défendu sa société dans un long article du Wall Street Journal: il tente d'expliquer finalement que c'est plutôt l'Internet et ses mécanismes d'optimisation extrême des coûts de production et distribution de contenu qui sont à blâmer plutôt que sa compagnie en elle-même. Par sa position de figure de proue, elle est devenue bouc émissaire selon lui!

Pour se défendre, il rappelle le milliard de visites mensuelles envoyées vers les sites de presse par Google News et y ajoute 3 milliards depuis le moteur de recherches pour montrer la bonne volonté de Google. Google retire d'ailleurs tout site de son index sur simple demande mais ceux qui s'y sont essayé ont fait machine arrière: la part des revenus alors perdus est trop conséquente.

E. Schmid va enfin jusqu'à parler de l'autosatisfaction passée des journaux, souvent générée par la facilité d'un monopole local pour dire qu'ils se sont endormis mais qu'il est encore temps de se remonter les manches tous ensemble pour trouver de nouvelles voies honorables de sortie de cette mutation structurelle de la presse qui est en cours.

Pierre Chappaz dans son analyse de la situation dit. " Le boss de Google veut rassurer: Internet ne va pas tuer l'info, comme la télé n'a pas tué la radio. Il y aura toutes sortes de modèles gratuits et payants, les meilleurs media ont déja compris l'importance de rassembler leurs lecteurs en communautés.

Petit coup de griffe au passage: " Murdoch lui-même dit que c'est l'endormissement des journaux, dû à leur situation passée de monopoles, qui les a mis dans ces difficultés, pas la technologie". A mon avis il y a un peu des deux :-)"

Moi, je dois avouer que je vois une discrépance quasi-léthale entre presse et Internet dans la situation actuelle.

En effet, selon un rapport Moody's de juin 2009, les journaux investissement seulement 14% de leur coût dans la création de contenus et 16% dans la structure de vente publicitaire pour 70% dans les frais de production (composition) , d'impression et de distribution du produit ainsi que dans la gestion de la société.

A première vue, on peut donc certainement affirmer que les journaux n'investissent pas assez (en proportion) dans la création de contenus pour leur produit actuel: trop d'argent passe dans les commodités et le "confort" d'entreprise.

Mais, il serait par contre faux d'en tirer la conclusion qu'il suffit de stopper la rotative pour que les sites de presse en ligne deviennent des vaches à lait: les revenus en ligne des éditeurs sont actuellement pour la plupart d'entre eux tellement faibles que la seule chance de survie de la rédaction en ligne est d'être "noyée" dans la rédaction papier qui se fait elle-même très discrète et petite derrière les 70% évoqués plus haut.

Les rédactions de presse actuelles sont construites pour fonctionner au sein d'une infrastructure massive qui les rend financièrement acceptables mais elles seraient toujours bien trop grosses pour fonctionner rentablement dans un monde purement Internet où leurs coûts seraient prohibitifs face aux revenus tellement plus maigres du monde Internet.

Je ne dis pas que la taille n'est pas justifiée pour un journalisme de qualité (investigations longues, etc.) traditionnel du monde papier, je dis seulement que ce journalisme n'est plus finançable par les revenus issus de l'Internet. Il faut donc souhaiter que nous soyons tous volontaires pour continuer à acheter du papier...

Pour survivre dans les news sur Internet, il faut à mon avis être né après l'émergence du réseau des réseaux mais pas avant: très peu de chances d'adapter sa structure de coût si on n'est pas "né dedans". On est clairement ici dans un cas d'école du célèbre Innovator's Dilemma du C. Christensen. La meilleure preuve: le Huffington Post, justement étalon du "né dedans", a lancé un fonds de financement externe du journalisme d'investigation: il ne peut pas l'intégrer à ses finances courantes et doit donc le traiter de manière exceptionnelle..

Le petit nouveau sans importance d'il y a 10 ans (le Net) est devenu le Grand Méchant Loup: l'impact de l'Internet sur les rédactions va encore être très violent.

La bascule des utilisateurs vers l'Internet pour leur consommation médiatique va encore augmenter la pression sur les rédactions traditionnelles puisque la diminution de l'imprimé va faire augmenter leur quote-part dans la structure de coûts des groupes médiatiques qui ne récupéreront jamais dans la main gauche (revenus publicitaires online) les revenus laissés échappés par la main droite (revenus publicitaires papier) même si on ne parle que la proportion de ces revenus correspondant aux coût de création du contenu....

C'est là que je vois la discrépance potentiellement léthale entre presse et internet, titre de cet article. En effet, Wiktionary définit cette discrépance comme "Simultanéité désagréable de sons, de sensations, d'avis, etc., qui ne s'accordent pas.". C'est exactement le sujet!

Source: blog Media & Tech (par didier durand)