vendredi, avril 23, 2010

Google Streetview: ses voitures cartographient aussi les réseaux WLAN et GSM

 Complément: Google donne les détails sur toutes les informations collectées par ses voitures.

Début d'une polémique de plus en Allemagne autour de Google Streetview ? Spiegel dévoile que les voitures de Google sont bardées non seulement d'une floppée de caméras pour prendre les rues en photo mais disposent aussi de capteurs d'ondes radio qui permettent de mesurer tous les réseaux accessibles depuis un point géographique de coordonnées (latitude, longitude) données. Cette nouvelle annonce va-t-elle conduire à de nouvelles vandalisations des voitures Google ?

Pourquoi cet intérêt pour une parfaite connaissance de la position réseaux mobiles (GSM et Wifi) de la part de Google ? Eh bien pour construire une base de données autonome sur ces informations.. En effet, la référence dans le domaine, c'est la société Skyhook utilisée par nombre de sites en ligne. Sa technologie permet de géo-positionner un ordinateur, téléphone en combinant diverses informations: réseaux wifi accessibles, tours GSM visibles et éventuellement GPS.

Mais, on sait que Google n'aime pas dépendre de qui que ce soit pour ses enjeux stratégiques. Il pratique dans ces domaines clefs une intégration verticale intégrale des services nécessaires afin de pouvoir aller son chemin à son rythme (cf. Android, son "épine dans le pied" des fabricants de mobiles) sans risquer des problèmes contractuels à la eBay. Meilleur exemple connexe: celui de la cartographie géographique où il a d'abord racheté Keyhole puis lancé son propre satellite pour contrôler la source de ses photos et de la technique de livraison de ses cartes au grand public utilisées dans Google Maps, maintenant capillarisée sur tout Internet.

D'ailleurs la cartographie et la géolocation sont essentielles dans cette future société "tout mobile"  qu'Eric Schmidt, ceo de Google a récemment  décrite comme la prochaine vague technologique,  fortement créatrice de valeur boursière.

Il est normal que Google fasse alors tout pour nous géo-localiser au mieux:  les publicités cartographiques ont déjà vécues sous de multiples formes chez le géant de Mountain View mais elles doivent devenir encore plus parfaites pour tirer les marrons du feu de cette corne d'abondance à venir.

Dans une stratégie où ce qui est bon pour l'utilisateur et Internet en général est bon pour Google en particulier puisque générateur de nouvelles publicités qui permettront à ce média de dépasser publicitairement la presse en 2015, il lui faut améliorer la qualité de la "Base de Données des Intentions" pour obtenir une position géographique de l'utilisateur juste au micro-pouillème près....

Question subsidiaire: la Suisse qui est en train de juger Google Street View par rapport aux photos trop privées va-t-elle étendre ses récriminations sur la géolocalisation via les réseaux GSM et Wifi?

Source: blog Media & Tech (par didier durand)

mercredi, avril 21, 2010

Apple: 40% des revenus par l'iPhone - Nouveau constructeur de combinés mobiles?

On pourrait presque dire qu'Apple est en train de se muer de constructeur informatique (micro-ordinateurs) en constructeur de combinés de téléphonie mobile. En effet, 40% des revenus du premier trimestre civil 2010 (soit un montant de 5.45 milliards de dollars) sont issus de la vente des iPhones.


C'est une progression de 131% par rapport à un an en arrière avec 8'750'000 combinés (parc total de 42.5 millions d'unités vendues depuis le lancement).

Bye l'iMac, bonjour l'iPhone!

Pourquoi cette mue ? Steve Jobs croirait-il que le mobile est la "Next Bing Thing". En témoigne aussi ce slide issu du dernier "Internet Status Report" (p.18 ) de Morgan Stanley: il tente de démontrer que les prochains monstres de Wall Street seront les sociétés-clefs du domaine du mobile. Apple veut clairement devenir une de celles-ci!
[Cliquez pour image plein écran]


Il est rejoint sur ce sujet par Erich Schmidt, ceo de Google qui a très récemment dit que chaque société voulant se positionner dans le mobile (matériel, services, applications, etc.) doit y affecter ses meilleures équipes.

Apple va donc désormais se battre plutôt contre HTC (un procès est déjà en cours...)  et Nokia que contre IBM et Microsoft. Ce nouveau positionnement d'Apple explique clairement la fin de la lune de miel entre Google et Apple. Leur âpre coude-à-coude sur les parts de marché de l'Internet Mobile (i.e iPhone contre Android) en est la claire illustration.

Une confrontation très intéressante: l'un y cherche des revenus publicitaires (indirects) nouveaux à long terme alors que l'autre vise l'augmentation de ses revenus directs. Le gage de nouvelles passes d'armes "sévères" dans les prochains mois....


Source: blog Media & Tech (par didier durand)

lundi, avril 19, 2010

Publicité internet: le succès du paiement à la performance

Pour les startups dont le modèle économique en dépend, bonne nouvelle: la crise dans la publicité en ligne semble terminée! Aussi bien la rétrospective annuelle 2009 de l'Internet Advertising Bureau (pour le marché nord-américain) que les résultats du premier trimestre 2010 de Google (+23% pour le CA à 6.77 milliards de dollars, +37% pour les bénéfices à 1.96 millliards de dollars) le démontrent. Les indicateurs reviennent au vert et la bascule des budgets publicitaires vers les lieux virtuels où les internautes passent leur temps (pour du wilfing ou des activités moins futiles...) se poursuit pour faire de l'Internet le second média publicitaire à horizon 2015.

En témoigne ce graphique historique pour les 10 dernières années, le dernier trimestre 2009 a été le plus gros de l'histoire publicitaire du web pour le continent nord-américain après un net creux dû à la crise.
[cliquez sur l'image  pour l'avoir en pleine page si besoin] 


Le rapport de l'IAB publie un autre graphique fort instructif: celui de l'évolution historique depuis 2004 entre la part de publicité Internet payée au simple affichage (Coût Par Mille -CPM) et la part de publicité payée à la performance (clic, achat, etc.)

En constante augmentation rapide et à un niveau actuel de 59% contre 37% pour la publicité CPM., la publicité payée à la performance domine désormais nettement surtout si on lui ajoute les 4% des modèles hybrides.

Pourquoi cette domination outrageuse et probablement encore appelée à augmenter ? 

En effet, dans les temps anciens du Web (que j'ai vécu), les premiers modèles publicitaires étaient directement issus des médias traditionnels:  Le site Internet, comme un journal ou une chaîne de télévision faisait payer (cher à l'époque au vu de la décroissance) le nombre d'internautes auquel il montrait la bannière. Pas de besoin de risquer de se faire payer à la performance!

Puis le nombre de sites (i.e l'offre) augmentant, les nouveaux arrivants ont dû lâcher du lest, i.,e trouver une forme plus aggessive de commercialisation, soit  à la performance: "Mr l'Annonceur, vous ne payez que les clics issus de mon page vers vos pages". Immense avantage de cette formule pour l'annonceur, il n'hésite pas à drastiquement augmenter son budget publicitaire Internet puisqu'il ne paie que ce pour les visites d'internautes qu'il reçoit vraiment à partir des pages où il a placé ces annonces.

Pour amener encore davantage de transparence à ce marché, l'idée géniale de Google a été de laisser définir le prix d'un clic par le marché: i.e par des enchères sur Adwords auxquelles participe la cohorte d'annonceurs intéressés par les meilleures places sur le web. Cela le rend moins exposé aux procès pour abus de position dominante: il ne fixe pas les prix, ce sont ces clients! Tout le but de son jeu est ensuite pour lui d'exposer un maximum de clients (il en a maintenant beaucoup plus d'1 million) à ses enchères afin de leur faire monter naturellement les prix par concurrence entre eux pour cette denrée rare qu'est le 1er rang en colonne publicitaire (à droite) dans les résultats des (pourtant abondantes: 30'000 à la seconde...)  recherches sur son moteur.

C'est cette transparence complète qui permet à posteriori à Google de faire les résultats stellaires évoqués plus haut. Travailler à presque 30% de marge nette à la taille de Google, c'est extra-terrestre, non ?

Les 2 catalyseurs de cette révolution du modèle publicitaire sont:
  • un coût de publication de page quasi-nul face au coût de création du contenu lui-même. Il faut savoir que dans un journal, les coûts de production (i.e d'impression puis de distribution) représentent près de 70% du prix de revient du produit. Dans l'internet, c'est certainement 95 à 99% dans les coûts de création et 1-5% dans les coûts de publication. La mécanique des coûts est donc totalement inversée entre les médias traditionnels et l'Internet. C'est ce coût marginal nul qui permet à l'éditeur de site de contenu ou de moteur de recherche de "jouer pour voir" face à l'annonceur
  • alors que la presse ne se base que sur des panels semestriels et limités(donc d'une fiabilité discutable...) et que la télévision ne distribue ses boîtiers Audimat qu'à un nombre restreints de foyers (supposés être représentatifs...), l'Internet publicitaire est lui totalement mesuré en temps réel: le rendement de chaque page affichée et de chaque clic peuvent être ainsi déterminés. Les annonceurs les plus pointus du Web incluent ce coût au clic en temps réel dans leur gestion de relation client pour déterminer avec une précision totale le ROI de leur présence sur un site ou sur les moteurs par rapport à leurs ventes: on n'est plus dans le domaine de la corrélation approximative entre un budget marketing et des résultats de ventes annuels mais réellement dans une mécanique parfaitement alimentée en chiffres exacts pour déterminer la rentabilité directe de chaque euro investi en publicité. Je connais des annonceurs de ce type...
Ces 2 catalyseurs pourraient laisser penser qu'ils vont conduire progressivement à l'éradication totale de la publicité CPM.

Eh bien, je ne le pense pas pour 2 raisons:
  • il existe toute une classe de publicité très visuelle et émotionnelle où le site de publication de cette annonce ne joue pas de rôle: c'est le "sex-appeal" de cette pub et uniquement lui qui détermine le taux de clic. Les éditeurs refusent alors - juste titre - un modèle autre que le CPM pour cette gamme de pubs car ils ne sont pas responsables de ces résultats!
  • les directeurs marketing de beaucoup de sociétés annonceurs aiment encore à dépenser une partie de leur budget sans mesure de ROI trop transparente!
En effet, une transparence totale  au niveau des fournisseurs amène inéluctablement à une transparence totale au niveau des performances de l'acheteur. Alors, pourquoi un directeur marketing avisé  risquerait-il de scier tout seul la branche (souvent confortable...) sur laquelle il est assis? A moins de vouloir devenir "l'arroseur arrosé", il n'y a pas de nécessité fondamentale....

Source: blog Media & Tech (par didier durand)

vendredi, avril 16, 2010

Twitter: les chiffres impressionnants du système - état d'avril 2010

Twitter fait partie des réseaux sociaux qui représentent "le Futile juste passé devant l'Utile". Pour moi, je dois encore avouer qu'il représente encore un service dont je ne sais pas comment vraiment tirer une valeur ajoutée consistante et durable.

Certes, il est parfois un bon vecteur de bouche-à-oreille (selon l'analyse de P. Chappaz) mais je trouve quand même que le rapport signal sur bruit est souvent trop faible: beaucoup de tweets à mon goût sont peu substantiels, surtout destinés à attiser l'espoir de d'attirer un peu d'attention sur leur auteur: elle ne sera alors qu'éphémère car la  vacuité se remarque finalement encore plus facilement dans la limite des 140 caractères par message de Twitter!

Vous l'avez compris: je suis (encore) plutôt un adepte des bons gros billets bien consistants de mes blogs favoris réguliers plutôt qu'un papillonneur de liens en liens glanés sur Twitter.

Malgré tout, comme le buzz autour de Twitter est actuellement plutôt colossal, je m'intéresse pour mieux comprendre. Je vais donc rassembler ci-après les chiffres très complets récemment divulgués (une première à ma connaissance) par le management de Twitter à la conférence Chirp, rassemblement officiel des développeurs sur Twitter:
[Chiffres via Techcrunch]

Voilà, vous voyez que je m'y intéresse vraiment à ce Twitter même si je n'arrive pas encore à y trouver ma valeur ajoutée personnelle (au-delà de la fonction globale de  "tête chercheuse intelligente pour moteur de recherche"). Bon, c'est vrai que de tels chiffres forcent le respect et incitent à la compréhension du sujet!...

Source: blog Media & Tech (par didier durand)

mercredi, avril 14, 2010

Présentation NACA au JUG Poitou-Charentes en vidéo sur Parleys

UPDATE 01-2012: Le projet NACA a donné naissance à Eranea, société dédiée à la migration 100% automatisée de grandes applications métier vers Java et Linux. Voir  www.eranea.com ou email à contact@eranea.com pour plus d'informations
_______________________________________________________________________
J'avais déjà fait un billet sur la présentation de notre projet NACA  au Java User Group de Poitou-Charentes. Il s'agissait de présenter à la fois les lourdes économies (3 millions d'euros) issues du projet de migration vers Linux/Java ainsi que les avantages de la profonde cure de jouvence technologique appliquée à l'application via son transcodage vers Java.

La dynamique équipe de ce JUG a fait l'effort significatif de nous filmer d'en faire une animation synchronisée avec nos slides à travers les outils disponibles sur le site Parleys. 

Donc, pour ceux qui n'ont pas pu venir ou qui trouveront ce billet grâce à la sérendipité de Google, vous avez ci-dessous la vidéo intégrale de la présentation couplée aux slides (toujours accessibles ici): soit 1h10! .

[le moyen pour être le  plus confortable: passez en mode plein écran et partager ensuite l'écran entre slides et images avec une place respectable pour chacun: pour y arriver directement, il  vous suffit de cliquer directement sur ce lien http://www.parleys.com/#st=5&sl=4&id=1907]



Source: blog Media & Tech (par didier durand)

Utilisation internet mobile: Android (Google) talonne iPhone (Apple)

En plus de nous apprendre que le Futile (réseaux sociaux) dépasse l'Utile (email), le dernier "Internet Status Report" de Morgan Stanley livre un autre chiffre intéressant: l'utilisation de l'Internet mobile comparée par système d'exploitation des combinés mobiles.

[On peut, dire "système d'exploitation" pour les téléphones maintenant: grâce aux effets combinés de la loi de Moore, ils valent des ordinateurs de bureau vieux de quelques années seulement ....]


Pour bien se comprendre pour la suite: la méthode de calcul: elle est basée sur le nombre d'interactions  avec les services publicitaires mobiles de Admob, société leader du secteur (acquise en novembre 2009 par Google pour 750 millions de dollars).

Cette pratique me paraît juste et efficace:
  • elle correspond à une utilisation en nombre de "transactions" plutôt que du volume de ces transactions. Si on suivait par exemple le volume d'octets transmis par un OS, on risquerait de faire la part trop belle aux utilisations multimédia. Ici, une page de vidéo et une page de texte compte chacune pour 1.
  • elle est valide en pourcentage même si on admet que seulement N % des pages de l'Internet mobile sont dotées de publicité: le pourcentage relatif entre Android, iPhone sur ces pages doit refléter par règle de 3 un pourcentage relatif identique appliqué à 100% de l'Internet
  • la position dominante de Admob limite les risques de biais sur le panel de sites considérés
Donc, si on admet cette méthode pour aussi imparfaite qu'elle puisse rester malgré ses bons fondements ci-dessus, on peut conclure que la stratégie d'hégémonie lente de Google contre le succès explosif de l'iPhone fonctionne à plein: les 2 systèmes sont maintenant au coude à coude avec 42-44% d'utilisation pour chacun. Tous les autres (RIM Blackberry, Palm, Windows Mobile) sont à la portion congrue.... Et puis, Google peut à tout moment actionner son joystick stratégique qu'est le Nexus One si ces partenaires constructeurs ne progressent pas assez vite seuls contre Apple!

La clef pour chacun d'entre eux pour gagner les prochaines batailles: la "conscription" des développeurs tiers identique la conscription d'Amazon pour le Cloud Computing. En effet, je me sers de mon smartphone si il m'est utile et comment m'est-il utile?  si j'y trouve des application à vraie valeur ajoutée pour moi !

Apple et iPhone vont certes fournir la plate-forme logicielle et les applications horizontales fondamentales(mail, lecteur multimedia, etc...) mais ensuite ils doivent savoir séduire les développeurs tiers qui apportent leurs applications innovantes et ciblées pour "siphonner" au maximum toutes les niches culturelles, linguistiques, sociales, géographiques, etc.... Tout faire seul est strictement impossible: un éco-système sain - où les revenus sont correctement partagés - est impératif!

Le premier de ces pouvoirs de séduction pour ces développeurs tiers est à mon avis la liberté maximum dans le développement et la publication de leurs applications. Les récentes actions très coercitives d'Apple autour de l'iPhone 4.0 et de l'App Store ne vont à mon avis pas dans le bon sens: l'exode des développeurs vers Android déjà entamé va se poursuivre....

Source: blog Media & Tech (par didier durand)

mardi, avril 13, 2010

Réseaux sociaux <> Email: le futile a pris le dessus sur l'utile!

La dernière édition du "Internet Status Report"  par Morgan Stanley (que je cite régulièrement depuis longtemps) publie pour la première fois un graphique intéressant sur l'évolution des services de communication. Il montre qu'au niveau mondial, le nombre d'utilisateurs des réseaux sociaux a dépassé celui des utilisateurs de courrier électronique au troisième trimestre 2009 aux alentours des 800 millions d'utilisateurs planétaires, Facebook en ayant la bonne moitié à lui seul.


Ce graphique est à compléter par celui des heures passées sur ces mêmes réseaux: le secteur bleu supérierur sur le graphique ci-après explose et démontre ainsi que nous consacrons aujourd'hui une immense part de notre temps passé en ligne à Facebook au détriment de MSN (secteur jaune).


A la maison, Junior a fait cette transition ces derniers mois: plus de MSN même pour le chat qu'il prisait pourtant tellement, que du Facebook! Avec sa messagerie instantanée pour remplacer MSN Messenger.

On voit que ces services sociaux sont désormais une part forte de notre vie, au moins de sa partie numérique: les pages Facebook sont consultées 400 milliards de fois chaque mois .

Dans son analyse de l'écosystème de l'information, Pierre Chappaz nomme les réseaux sociaux le Futile, par opposition au Bouche-à-Oreille (Twitter) et à l'Information / Opinion (les blogs et forums).  Si on ajoute à son panorama l'Utile représenté par le courrier électronique à usage personnel qui permet de plus en plus d'huiler les rouages informationnels de sa vie citoyenne et administrative en plus du fait de rester en contact avec famille et amis , alors on voit que le Futile l'emporte désormais selon Morgan Stanley sur l'Utile!

Et pourquoi ? Eh bien, à mon avis, parce que sur le fond, l'Homme est ludique, plus orienté vers le fun que vers le récurrence du  quotidien. C'est plus drôle (et moins ardu....) d'échanger et commenter ses dernières photos avec ses potes sur Facebook que d'écrire de longues missives à ses proches comme à la plus belle époque de la grande littérature.

Il faut aussi admettre que la gratification est beaucoup plus instantanée, ce qui est un moteur pour nombre d'entre nous!

2009 a donc marqué le premier dépassement de l'Utile par le Futile mais cela va se muer dès 2010 en ensevelissement de l'un par l'autre en tout cas pour les activités purement personnelles et sociales. En effet,  les jours du mail pour inviter ses copains à une soirée / un apéro ou leur envoyer ses dernières photos sont comptés. Tout cela est en train de muter sur Facebook à vitesse grand V: c'est ce que je constate chaque jour à la maison avec Madame et Junior.

Le fait que Facebook travaille avec son projet Titan à un service de mail (enfin) décent ne va qu'accélérer le phénomène!

Source: blog Media & Tech (par didier durand)

lundi, avril 12, 2010

Référencement Google: prime à la vitesse

Google détient 67% du marché de la recherche sur le  Web: pour maintenir cette position ultra-dominante, il doit devenir de plus en plus sélectif sur les résultats qu'il place en première page d'une requête de recherche.

En effet, on sait depuis une étude AOL qu'il n'y a point de salut hors de la première page: plus 90% des recherches sur les moteurs ne vont pas plus loin que cette première page.

Eh bien, Google explique aujourd'hui que ce pinacle se mérite: il faut non seulement qu'une page soit pertinente d'un point de vue sémantique mais aussi qu'elle se charge très vite dans le navigateur de l'Internaute pour rester au sommet des requêtes sur les 1'000 milliards de pages qui composent l'Internet

En effet, sur le blog Webmaster Central de Google, il est dit " Speeding up websites is important — not just to site owners, but to all Internet users. Faster sites create happy users and we've seen in our internal studies that when a site responds slowly, visitors spend less time there. But faster sites don't just improve user experience; recent data shows that improving site speed also reduces operating costs. Like us, our users place a lot of value in speed — that's why we've decided to take site speed into account in our search rankings. We use a variety of sources to determine the speed of a site relative to other sites."

En plus donc de critères statiques (sémantique, liens depuis d'autres pages, etc...), Google confirme donc qu'il y a aussi des critères de sélection dynamiques (vitesse de chargement) dans les 200+ critères inclus dans son algorithme de Pagerank  (modifié 400-500 fois par an) qui représente 1000+ années-hommes de recherche. Google précise par ailleurs à ce moment que ce critère a un poids faible (de par sa nouveauté) dans l'ordre de présentation des résultats: la vitesse influence pour l'instant autour de 1% des requêtes (soit quand même plus de 300 par seconde sur 30'000  ....)

C'est encore une illustration très concrète du principe qui pilote une bonne partie de  la stratégie de Google "ce qui est bon pour l'Internet est bon pour Google". En effet, si Google n'inclut pas de tels critères de sélection et ne le fait pas abondamment savoir, un défaut de vitesse de chargement depuis une page de résultat du moteur pourrait (à tort) lui être attribué et frustrer certains de ses utilisateurs qui ne reviendraient plus.

Le sort de Google et de l'ensemble de l'Internet par les sites qui le composent sont donc désormais intimement liés.


[Via Henri]

Source: blog Media & Tech (par didier durand)