Complément: Google donne les détails sur toutes les informations collectées par ses voitures.
Début d'une polémique de plus en Allemagne autour de Google Streetview ? Spiegel dévoile que les voitures de Google sont bardées non seulement d'une floppée de caméras pour prendre les rues en photo mais disposent aussi de capteurs d'ondes radio qui permettent de mesurer tous les réseaux accessibles depuis un point géographique de coordonnées (latitude, longitude) données. Cette nouvelle annonce va-t-elle conduire à de nouvelles vandalisations des voitures Google ?
Pourquoi cet intérêt pour une parfaite connaissance de la position réseaux mobiles (GSM et Wifi) de la part de Google ? Eh bien pour construire une base de données autonome sur ces informations.. En effet, la référence dans le domaine, c'est la société Skyhook utilisée par nombre de sites en ligne. Sa technologie permet de géo-positionner un ordinateur, téléphone en combinant diverses informations: réseaux wifi accessibles, tours GSM visibles et éventuellement GPS.
Mais, on sait que Google n'aime pas dépendre de qui que ce soit pour ses enjeux stratégiques. Il pratique dans ces domaines clefs une intégration verticale intégrale des services nécessaires afin de pouvoir aller son chemin à son rythme (cf. Android, son "épine dans le pied" des fabricants de mobiles) sans risquer des problèmes contractuels à la eBay. Meilleur exemple connexe: celui de la cartographie géographique où il a d'abord racheté Keyhole puis lancé son propre satellite pour contrôler la source de ses photos et de la technique de livraison de ses cartes au grand public utilisées dans Google Maps, maintenant capillarisée sur tout Internet.
D'ailleurs la cartographie et la géolocation sont essentielles dans cette future société "tout mobile" qu'Eric Schmidt, ceo de Google a récemment décrite comme la prochaine vague technologique, fortement créatrice de valeur boursière.
Il est normal que Google fasse alors tout pour nous géo-localiser au mieux: les publicités cartographiques ont déjà vécues sous de multiples formes chez le géant de Mountain View mais elles doivent devenir encore plus parfaites pour tirer les marrons du feu de cette corne d'abondance à venir.
Dans une stratégie où ce qui est bon pour l'utilisateur et Internet en général est bon pour Google en particulier puisque générateur de nouvelles publicités qui permettront à ce média de dépasser publicitairement la presse en 2015, il lui faut améliorer la qualité de la "Base de Données des Intentions" pour obtenir une position géographique de l'utilisateur juste au micro-pouillème près....
Question subsidiaire: la Suisse qui est en train de juger Google Street View par rapport aux photos trop privées va-t-elle étendre ses récriminations sur la géolocalisation via les réseaux GSM et Wifi?
Source: blog Media & Tech (par didier durand)
vendredi, avril 23, 2010
mercredi, avril 21, 2010
Apple: 40% des revenus par l'iPhone - Nouveau constructeur de combinés mobiles?
On pourrait presque dire qu'Apple est en train de se muer de constructeur informatique (micro-ordinateurs) en constructeur de combinés de téléphonie mobile. En effet, 40% des revenus du premier trimestre civil 2010 (soit un montant de 5.45 milliards de dollars) sont issus de la vente des iPhones.
C'est une progression de 131% par rapport à un an en arrière avec 8'750'000 combinés (parc total de 42.5 millions d'unités vendues depuis le lancement).
Bye l'iMac, bonjour l'iPhone!
Pourquoi cette mue ? Steve Jobs croirait-il que le mobile est la "Next Bing Thing". En témoigne aussi ce slide issu du dernier "Internet Status Report" (p.18 ) de Morgan Stanley: il tente de démontrer que les prochains monstres de Wall Street seront les sociétés-clefs du domaine du mobile. Apple veut clairement devenir une de celles-ci!
[Cliquez pour image plein écran]
Il est rejoint sur ce sujet par Erich Schmidt, ceo de Google qui a très récemment dit que chaque société voulant se positionner dans le mobile (matériel, services, applications, etc.) doit y affecter ses meilleures équipes.
Apple va donc désormais se battre plutôt contre HTC (un procès est déjà en cours...) et Nokia que contre IBM et Microsoft. Ce nouveau positionnement d'Apple explique clairement la fin de la lune de miel entre Google et Apple. Leur âpre coude-à-coude sur les parts de marché de l'Internet Mobile (i.e iPhone contre Android) en est la claire illustration.
Une confrontation très intéressante: l'un y cherche des revenus publicitaires (indirects) nouveaux à long terme alors que l'autre vise l'augmentation de ses revenus directs. Le gage de nouvelles passes d'armes "sévères" dans les prochains mois....
Source: blog Media & Tech (par didier durand)
C'est une progression de 131% par rapport à un an en arrière avec 8'750'000 combinés (parc total de 42.5 millions d'unités vendues depuis le lancement).
Bye l'iMac, bonjour l'iPhone!
Pourquoi cette mue ? Steve Jobs croirait-il que le mobile est la "Next Bing Thing". En témoigne aussi ce slide issu du dernier "Internet Status Report" (p.18 ) de Morgan Stanley: il tente de démontrer que les prochains monstres de Wall Street seront les sociétés-clefs du domaine du mobile. Apple veut clairement devenir une de celles-ci!
[Cliquez pour image plein écran]
Il est rejoint sur ce sujet par Erich Schmidt, ceo de Google qui a très récemment dit que chaque société voulant se positionner dans le mobile (matériel, services, applications, etc.) doit y affecter ses meilleures équipes.
Apple va donc désormais se battre plutôt contre HTC (un procès est déjà en cours...) et Nokia que contre IBM et Microsoft. Ce nouveau positionnement d'Apple explique clairement la fin de la lune de miel entre Google et Apple. Leur âpre coude-à-coude sur les parts de marché de l'Internet Mobile (i.e iPhone contre Android) en est la claire illustration.
Une confrontation très intéressante: l'un y cherche des revenus publicitaires (indirects) nouveaux à long terme alors que l'autre vise l'augmentation de ses revenus directs. Le gage de nouvelles passes d'armes "sévères" dans les prochains mois....
Source: blog Media & Tech (par didier durand)
lundi, avril 19, 2010
Publicité internet: le succès du paiement à la performance
Pour les startups dont le modèle économique en dépend, bonne nouvelle: la crise dans la publicité en ligne semble terminée! Aussi bien la rétrospective annuelle 2009 de l'Internet Advertising Bureau (pour le marché nord-américain) que les résultats du premier trimestre 2010 de Google (+23% pour le CA à 6.77 milliards de dollars, +37% pour les bénéfices à 1.96 millliards de dollars) le démontrent. Les indicateurs reviennent au vert et la bascule des budgets publicitaires vers les lieux virtuels où les internautes passent leur temps (pour du wilfing ou des activités moins futiles...) se poursuit pour faire de l'Internet le second média publicitaire à horizon 2015.
En témoigne ce graphique historique pour les 10 dernières années, le dernier trimestre 2009 a été le plus gros de l'histoire publicitaire du web pour le continent nord-américain après un net creux dû à la crise.
[cliquez sur l'image pour l'avoir en pleine page si besoin]
Le rapport de l'IAB publie un autre graphique fort instructif: celui de l'évolution historique depuis 2004 entre la part de publicité Internet payée au simple affichage (Coût Par Mille -CPM) et la part de publicité payée à la performance (clic, achat, etc.)
En constante augmentation rapide et à un niveau actuel de 59% contre 37% pour la publicité CPM., la publicité payée à la performance domine désormais nettement surtout si on lui ajoute les 4% des modèles hybrides.
Pourquoi cette domination outrageuse et probablement encore appelée à augmenter ?
En effet, dans les temps anciens du Web (que j'ai vécu), les premiers modèles publicitaires étaient directement issus des médias traditionnels: Le site Internet, comme un journal ou une chaîne de télévision faisait payer (cher à l'époque au vu de la décroissance) le nombre d'internautes auquel il montrait la bannière. Pas de besoin de risquer de se faire payer à la performance!
Puis le nombre de sites (i.e l'offre) augmentant, les nouveaux arrivants ont dû lâcher du lest, i.,e trouver une forme plus aggessive de commercialisation, soit à la performance: "Mr l'Annonceur, vous ne payez que les clics issus de mon page vers vos pages". Immense avantage de cette formule pour l'annonceur, il n'hésite pas à drastiquement augmenter son budget publicitaire Internet puisqu'il ne paie que ce pour les visites d'internautes qu'il reçoit vraiment à partir des pages où il a placé ces annonces.
Pour amener encore davantage de transparence à ce marché, l'idée géniale de Google a été de laisser définir le prix d'un clic par le marché: i.e par des enchères sur Adwords auxquelles participe la cohorte d'annonceurs intéressés par les meilleures places sur le web. Cela le rend moins exposé aux procès pour abus de position dominante: il ne fixe pas les prix, ce sont ces clients! Tout le but de son jeu est ensuite pour lui d'exposer un maximum de clients (il en a maintenant beaucoup plus d'1 million) à ses enchères afin de leur faire monter naturellement les prix par concurrence entre eux pour cette denrée rare qu'est le 1er rang en colonne publicitaire (à droite) dans les résultats des (pourtant abondantes: 30'000 à la seconde...) recherches sur son moteur.
C'est cette transparence complète qui permet à posteriori à Google de faire les résultats stellaires évoqués plus haut. Travailler à presque 30% de marge nette à la taille de Google, c'est extra-terrestre, non ?
Les 2 catalyseurs de cette révolution du modèle publicitaire sont:
Eh bien, je ne le pense pas pour 2 raisons:
Source: blog Media & Tech (par didier durand)
En témoigne ce graphique historique pour les 10 dernières années, le dernier trimestre 2009 a été le plus gros de l'histoire publicitaire du web pour le continent nord-américain après un net creux dû à la crise.
[cliquez sur l'image pour l'avoir en pleine page si besoin]
Le rapport de l'IAB publie un autre graphique fort instructif: celui de l'évolution historique depuis 2004 entre la part de publicité Internet payée au simple affichage (Coût Par Mille -CPM) et la part de publicité payée à la performance (clic, achat, etc.)
En constante augmentation rapide et à un niveau actuel de 59% contre 37% pour la publicité CPM., la publicité payée à la performance domine désormais nettement surtout si on lui ajoute les 4% des modèles hybrides.
Pourquoi cette domination outrageuse et probablement encore appelée à augmenter ?
En effet, dans les temps anciens du Web (que j'ai vécu), les premiers modèles publicitaires étaient directement issus des médias traditionnels: Le site Internet, comme un journal ou une chaîne de télévision faisait payer (cher à l'époque au vu de la décroissance) le nombre d'internautes auquel il montrait la bannière. Pas de besoin de risquer de se faire payer à la performance!
Puis le nombre de sites (i.e l'offre) augmentant, les nouveaux arrivants ont dû lâcher du lest, i.,e trouver une forme plus aggessive de commercialisation, soit à la performance: "Mr l'Annonceur, vous ne payez que les clics issus de mon page vers vos pages". Immense avantage de cette formule pour l'annonceur, il n'hésite pas à drastiquement augmenter son budget publicitaire Internet puisqu'il ne paie que ce pour les visites d'internautes qu'il reçoit vraiment à partir des pages où il a placé ces annonces.
Pour amener encore davantage de transparence à ce marché, l'idée géniale de Google a été de laisser définir le prix d'un clic par le marché: i.e par des enchères sur Adwords auxquelles participe la cohorte d'annonceurs intéressés par les meilleures places sur le web. Cela le rend moins exposé aux procès pour abus de position dominante: il ne fixe pas les prix, ce sont ces clients! Tout le but de son jeu est ensuite pour lui d'exposer un maximum de clients (il en a maintenant beaucoup plus d'1 million) à ses enchères afin de leur faire monter naturellement les prix par concurrence entre eux pour cette denrée rare qu'est le 1er rang en colonne publicitaire (à droite) dans les résultats des (pourtant abondantes: 30'000 à la seconde...) recherches sur son moteur.
C'est cette transparence complète qui permet à posteriori à Google de faire les résultats stellaires évoqués plus haut. Travailler à presque 30% de marge nette à la taille de Google, c'est extra-terrestre, non ?
Les 2 catalyseurs de cette révolution du modèle publicitaire sont:
- un coût de publication de page quasi-nul face au coût de création du contenu lui-même. Il faut savoir que dans un journal, les coûts de production (i.e d'impression puis de distribution) représentent près de 70% du prix de revient du produit. Dans l'internet, c'est certainement 95 à 99% dans les coûts de création et 1-5% dans les coûts de publication. La mécanique des coûts est donc totalement inversée entre les médias traditionnels et l'Internet. C'est ce coût marginal nul qui permet à l'éditeur de site de contenu ou de moteur de recherche de "jouer pour voir" face à l'annonceur
- alors que la presse ne se base que sur des panels semestriels et limités(donc d'une fiabilité discutable...) et que la télévision ne distribue ses boîtiers Audimat qu'à un nombre restreints de foyers (supposés être représentatifs...), l'Internet publicitaire est lui totalement mesuré en temps réel: le rendement de chaque page affichée et de chaque clic peuvent être ainsi déterminés. Les annonceurs les plus pointus du Web incluent ce coût au clic en temps réel dans leur gestion de relation client pour déterminer avec une précision totale le ROI de leur présence sur un site ou sur les moteurs par rapport à leurs ventes: on n'est plus dans le domaine de la corrélation approximative entre un budget marketing et des résultats de ventes annuels mais réellement dans une mécanique parfaitement alimentée en chiffres exacts pour déterminer la rentabilité directe de chaque euro investi en publicité. Je connais des annonceurs de ce type...
Eh bien, je ne le pense pas pour 2 raisons:
- il existe toute une classe de publicité très visuelle et émotionnelle où le site de publication de cette annonce ne joue pas de rôle: c'est le "sex-appeal" de cette pub et uniquement lui qui détermine le taux de clic. Les éditeurs refusent alors - juste titre - un modèle autre que le CPM pour cette gamme de pubs car ils ne sont pas responsables de ces résultats!
- les directeurs marketing de beaucoup de sociétés annonceurs aiment encore à dépenser une partie de leur budget sans mesure de ROI trop transparente!
Source: blog Media & Tech (par didier durand)
vendredi, avril 16, 2010
Twitter: les chiffres impressionnants du système - état d'avril 2010
Twitter fait partie des réseaux sociaux qui représentent "le Futile juste passé devant l'Utile". Pour moi, je dois encore avouer qu'il représente encore un service dont je ne sais pas comment vraiment tirer une valeur ajoutée consistante et durable.
Certes, il est parfois un bon vecteur de bouche-à-oreille (selon l'analyse de P. Chappaz) mais je trouve quand même que le rapport signal sur bruit est souvent trop faible: beaucoup de tweets à mon goût sont peu substantiels, surtout destinés à attiser l'espoir de d'attirer un peu d'attention sur leur auteur: elle ne sera alors qu'éphémère car la vacuité se remarque finalement encore plus facilement dans la limite des 140 caractères par message de Twitter!
Vous l'avez compris: je suis (encore) plutôt un adepte des bons gros billets bien consistants de mes blogs favoris réguliers plutôt qu'un papillonneur de liens en liens glanés sur Twitter.
Malgré tout, comme le buzz autour de Twitter est actuellement plutôt colossal, je m'intéresse pour mieux comprendre. Je vais donc rassembler ci-après les chiffres très complets récemment divulgués (une première à ma connaissance) par le management de Twitter à la conférence Chirp, rassemblement officiel des développeurs sur Twitter:
Voilà, vous voyez que je m'y intéresse vraiment à ce Twitter même si je n'arrive pas encore à y trouver ma valeur ajoutée personnelle (au-delà de la fonction globale de "tête chercheuse intelligente pour moteur de recherche"). Bon, c'est vrai que de tels chiffres forcent le respect et incitent à la compréhension du sujet!...
Source: blog Media & Tech (par didier durand)
Certes, il est parfois un bon vecteur de bouche-à-oreille (selon l'analyse de P. Chappaz) mais je trouve quand même que le rapport signal sur bruit est souvent trop faible: beaucoup de tweets à mon goût sont peu substantiels, surtout destinés à attiser l'espoir de d'attirer un peu d'attention sur leur auteur: elle ne sera alors qu'éphémère car la vacuité se remarque finalement encore plus facilement dans la limite des 140 caractères par message de Twitter!
Vous l'avez compris: je suis (encore) plutôt un adepte des bons gros billets bien consistants de mes blogs favoris réguliers plutôt qu'un papillonneur de liens en liens glanés sur Twitter.
Malgré tout, comme le buzz autour de Twitter est actuellement plutôt colossal, je m'intéresse pour mieux comprendre. Je vais donc rassembler ci-après les chiffres très complets récemment divulgués (une première à ma connaissance) par le management de Twitter à la conférence Chirp, rassemblement officiel des développeurs sur Twitter:
- Plus de 105 millions d'utilisations enregistrés (soit 25% des utilisateurs actuels de Facebook). J'en fais partie à http://www.twitter.com/didierdurand. 300'000 nouveaux membres chaque jour.
- 55 millions de tweets émis par ces membre chaque jour
- 180 millions de visiteurs uniques chaque jour pour consulter tout ce babillage.
- 75% de trafic sur le site qui vient par API soit 3 milliards de requêtes par jour (Facebook: 13 milliards jd'impressions / jour) , c'est faites par des tiers: applications pour les mobiles, clients lourds pour les PCs, des widgets distribués, etc.. On comprend ainsi parfaitement pourquoi Twitter a décidé de racheter Tweetie (application iPhone) ces jours-ci pour combler son absence dans le mobile au grand dam de L. Lemeur dont le client Seesmic est maintenant franchement en porte-à-faux. C'est le nom de Twitter qui doit apparaître sur l'Apple AppStore non Tweetie!
- 100'000 applications tierces sur la plate-forme Twitter. A prendre bien sûr avec cirsconspection: on est sûrement aussi sur une loi de décroissance au moins exponentielle du succès. Malgré tout, cela explique encore une fois la guerre que se livre les grands du Web autour de l'enrôlement des développeurs tiers.
- 600 millions de requêtes de recherche chaque jour: voilà qui justifie le récent enclenchement du moteur publicitaire maison de Twitter pour monétiser cette activité. Il faut quand même bien gagner un peu d'argent un jour ou l'autre.
- sur le côté bouche-à-oreille: un article New-York est pointé toutes les 4 secondes par un tweet.
- taille de la société: 175 employés à ce jour.
Voilà, vous voyez que je m'y intéresse vraiment à ce Twitter même si je n'arrive pas encore à y trouver ma valeur ajoutée personnelle (au-delà de la fonction globale de "tête chercheuse intelligente pour moteur de recherche"). Bon, c'est vrai que de tels chiffres forcent le respect et incitent à la compréhension du sujet!...
Source: blog Media & Tech (par didier durand)
mercredi, avril 14, 2010
Présentation NACA au JUG Poitou-Charentes en vidéo sur Parleys
UPDATE 01-2012: Le projet NACA a donné naissance à
Eranea, société dédiée à la migration 100% automatisée de grandes
applications métier vers Java et Linux. Voir www.eranea.com ou email à contact@eranea.com pour plus d'informations
_______________________________________________________________________
J'avais déjà fait un billet sur la présentation de notre projet NACA au Java User Group de Poitou-Charentes. Il s'agissait de présenter à la fois les lourdes économies (3 millions d'euros) issues du projet de migration vers Linux/Java ainsi que les avantages de la profonde cure de jouvence technologique appliquée à l'application via son transcodage vers Java.
Donc, pour ceux qui n'ont pas pu venir ou qui trouveront ce billet grâce à la sérendipité de Google, vous avez ci-dessous la vidéo intégrale de la présentation couplée aux slides (toujours accessibles ici): soit 1h10! .
[le moyen pour être le plus confortable: passez en mode plein écran et partager ensuite l'écran entre slides et images avec une place respectable pour chacun: pour y arriver directement, il vous suffit de cliquer directement sur ce lien http://www.parleys.com/#st=5&sl=4&id=1907]
Source: blog Media & Tech (par didier durand)
_______________________________________________________________________
J'avais déjà fait un billet sur la présentation de notre projet NACA au Java User Group de Poitou-Charentes. Il s'agissait de présenter à la fois les lourdes économies (3 millions d'euros) issues du projet de migration vers Linux/Java ainsi que les avantages de la profonde cure de jouvence technologique appliquée à l'application via son transcodage vers Java.
La dynamique équipe de ce JUG a fait l'effort significatif de nous filmer d'en faire une animation synchronisée avec nos slides à travers les outils disponibles sur le site Parleys.
Donc, pour ceux qui n'ont pas pu venir ou qui trouveront ce billet grâce à la sérendipité de Google, vous avez ci-dessous la vidéo intégrale de la présentation couplée aux slides (toujours accessibles ici): soit 1h10! .
[le moyen pour être le plus confortable: passez en mode plein écran et partager ensuite l'écran entre slides et images avec une place respectable pour chacun: pour y arriver directement, il vous suffit de cliquer directement sur ce lien http://www.parleys.com/#st=5&sl=4&id=1907]
Source: blog Media & Tech (par didier durand)
Utilisation internet mobile: Android (Google) talonne iPhone (Apple)
En plus de nous apprendre que le Futile (réseaux sociaux) dépasse l'Utile (email), le dernier "Internet Status Report" de Morgan Stanley livre un autre chiffre intéressant: l'utilisation de l'Internet mobile comparée par système d'exploitation des combinés mobiles.
[On peut, dire "système d'exploitation" pour les téléphones maintenant: grâce aux effets combinés de la loi de Moore, ils valent des ordinateurs de bureau vieux de quelques années seulement ....]
Pour bien se comprendre pour la suite: la méthode de calcul: elle est basée sur le nombre d'interactions avec les services publicitaires mobiles de Admob, société leader du secteur (acquise en novembre 2009 par Google pour 750 millions de dollars).
Cette pratique me paraît juste et efficace:
La clef pour chacun d'entre eux pour gagner les prochaines batailles: la "conscription" des développeurs tiers identique la conscription d'Amazon pour le Cloud Computing. En effet, je me sers de mon smartphone si il m'est utile et comment m'est-il utile? si j'y trouve des application à vraie valeur ajoutée pour moi !
Apple et iPhone vont certes fournir la plate-forme logicielle et les applications horizontales fondamentales(mail, lecteur multimedia, etc...) mais ensuite ils doivent savoir séduire les développeurs tiers qui apportent leurs applications innovantes et ciblées pour "siphonner" au maximum toutes les niches culturelles, linguistiques, sociales, géographiques, etc.... Tout faire seul est strictement impossible: un éco-système sain - où les revenus sont correctement partagés - est impératif!
Le premier de ces pouvoirs de séduction pour ces développeurs tiers est à mon avis la liberté maximum dans le développement et la publication de leurs applications. Les récentes actions très coercitives d'Apple autour de l'iPhone 4.0 et de l'App Store ne vont à mon avis pas dans le bon sens: l'exode des développeurs vers Android déjà entamé va se poursuivre....
Source: blog Media & Tech (par didier durand)
[On peut, dire "système d'exploitation" pour les téléphones maintenant: grâce aux effets combinés de la loi de Moore, ils valent des ordinateurs de bureau vieux de quelques années seulement ....]
Pour bien se comprendre pour la suite: la méthode de calcul: elle est basée sur le nombre d'interactions avec les services publicitaires mobiles de Admob, société leader du secteur (acquise en novembre 2009 par Google pour 750 millions de dollars).
Cette pratique me paraît juste et efficace:
- elle correspond à une utilisation en nombre de "transactions" plutôt que du volume de ces transactions. Si on suivait par exemple le volume d'octets transmis par un OS, on risquerait de faire la part trop belle aux utilisations multimédia. Ici, une page de vidéo et une page de texte compte chacune pour 1.
- elle est valide en pourcentage même si on admet que seulement N % des pages de l'Internet mobile sont dotées de publicité: le pourcentage relatif entre Android, iPhone sur ces pages doit refléter par règle de 3 un pourcentage relatif identique appliqué à 100% de l'Internet
- la position dominante de Admob limite les risques de biais sur le panel de sites considérés
La clef pour chacun d'entre eux pour gagner les prochaines batailles: la "conscription" des développeurs tiers identique la conscription d'Amazon pour le Cloud Computing. En effet, je me sers de mon smartphone si il m'est utile et comment m'est-il utile? si j'y trouve des application à vraie valeur ajoutée pour moi !
Apple et iPhone vont certes fournir la plate-forme logicielle et les applications horizontales fondamentales(mail, lecteur multimedia, etc...) mais ensuite ils doivent savoir séduire les développeurs tiers qui apportent leurs applications innovantes et ciblées pour "siphonner" au maximum toutes les niches culturelles, linguistiques, sociales, géographiques, etc.... Tout faire seul est strictement impossible: un éco-système sain - où les revenus sont correctement partagés - est impératif!
Le premier de ces pouvoirs de séduction pour ces développeurs tiers est à mon avis la liberté maximum dans le développement et la publication de leurs applications. Les récentes actions très coercitives d'Apple autour de l'iPhone 4.0 et de l'App Store ne vont à mon avis pas dans le bon sens: l'exode des développeurs vers Android déjà entamé va se poursuivre....
Source: blog Media & Tech (par didier durand)
mardi, avril 13, 2010
Réseaux sociaux <> Email: le futile a pris le dessus sur l'utile!
La dernière édition du "Internet Status Report" par Morgan Stanley (que je cite régulièrement depuis longtemps) publie pour la première fois un graphique intéressant sur l'évolution des services de communication. Il montre qu'au niveau mondial, le nombre d'utilisateurs des réseaux sociaux a dépassé celui des utilisateurs de courrier électronique au troisième trimestre 2009 aux alentours des 800 millions d'utilisateurs planétaires, Facebook en ayant la bonne moitié à lui seul.
Ce graphique est à compléter par celui des heures passées sur ces mêmes réseaux: le secteur bleu supérierur sur le graphique ci-après explose et démontre ainsi que nous consacrons aujourd'hui une immense part de notre temps passé en ligne à Facebook au détriment de MSN (secteur jaune).
A la maison, Junior a fait cette transition ces derniers mois: plus de MSN même pour le chat qu'il prisait pourtant tellement, que du Facebook! Avec sa messagerie instantanée pour remplacer MSN Messenger.
On voit que ces services sociaux sont désormais une part forte de notre vie, au moins de sa partie numérique: les pages Facebook sont consultées 400 milliards de fois chaque mois .
Dans son analyse de l'écosystème de l'information, Pierre Chappaz nomme les réseaux sociaux le Futile, par opposition au Bouche-à-Oreille (Twitter) et à l'Information / Opinion (les blogs et forums). Si on ajoute à son panorama l'Utile représenté par le courrier électronique à usage personnel qui permet de plus en plus d'huiler les rouages informationnels de sa vie citoyenne et administrative en plus du fait de rester en contact avec famille et amis , alors on voit que le Futile l'emporte désormais selon Morgan Stanley sur l'Utile!
Et pourquoi ? Eh bien, à mon avis, parce que sur le fond, l'Homme est ludique, plus orienté vers le fun que vers le récurrence du quotidien. C'est plus drôle (et moins ardu....) d'échanger et commenter ses dernières photos avec ses potes sur Facebook que d'écrire de longues missives à ses proches comme à la plus belle époque de la grande littérature.
Il faut aussi admettre que la gratification est beaucoup plus instantanée, ce qui est un moteur pour nombre d'entre nous!
2009 a donc marqué le premier dépassement de l'Utile par le Futile mais cela va se muer dès 2010 en ensevelissement de l'un par l'autre en tout cas pour les activités purement personnelles et sociales. En effet, les jours du mail pour inviter ses copains à une soirée / un apéro ou leur envoyer ses dernières photos sont comptés. Tout cela est en train de muter sur Facebook à vitesse grand V: c'est ce que je constate chaque jour à la maison avec Madame et Junior.
Le fait que Facebook travaille avec son projet Titan à un service de mail (enfin) décent ne va qu'accélérer le phénomène!
Source: blog Media & Tech (par didier durand)
Ce graphique est à compléter par celui des heures passées sur ces mêmes réseaux: le secteur bleu supérierur sur le graphique ci-après explose et démontre ainsi que nous consacrons aujourd'hui une immense part de notre temps passé en ligne à Facebook au détriment de MSN (secteur jaune).
A la maison, Junior a fait cette transition ces derniers mois: plus de MSN même pour le chat qu'il prisait pourtant tellement, que du Facebook! Avec sa messagerie instantanée pour remplacer MSN Messenger.
On voit que ces services sociaux sont désormais une part forte de notre vie, au moins de sa partie numérique: les pages Facebook sont consultées 400 milliards de fois chaque mois .
Dans son analyse de l'écosystème de l'information, Pierre Chappaz nomme les réseaux sociaux le Futile, par opposition au Bouche-à-Oreille (Twitter) et à l'Information / Opinion (les blogs et forums). Si on ajoute à son panorama l'Utile représenté par le courrier électronique à usage personnel qui permet de plus en plus d'huiler les rouages informationnels de sa vie citoyenne et administrative en plus du fait de rester en contact avec famille et amis , alors on voit que le Futile l'emporte désormais selon Morgan Stanley sur l'Utile!
Et pourquoi ? Eh bien, à mon avis, parce que sur le fond, l'Homme est ludique, plus orienté vers le fun que vers le récurrence du quotidien. C'est plus drôle (et moins ardu....) d'échanger et commenter ses dernières photos avec ses potes sur Facebook que d'écrire de longues missives à ses proches comme à la plus belle époque de la grande littérature.
Il faut aussi admettre que la gratification est beaucoup plus instantanée, ce qui est un moteur pour nombre d'entre nous!
2009 a donc marqué le premier dépassement de l'Utile par le Futile mais cela va se muer dès 2010 en ensevelissement de l'un par l'autre en tout cas pour les activités purement personnelles et sociales. En effet, les jours du mail pour inviter ses copains à une soirée / un apéro ou leur envoyer ses dernières photos sont comptés. Tout cela est en train de muter sur Facebook à vitesse grand V: c'est ce que je constate chaque jour à la maison avec Madame et Junior.
Le fait que Facebook travaille avec son projet Titan à un service de mail (enfin) décent ne va qu'accélérer le phénomène!
Source: blog Media & Tech (par didier durand)
lundi, avril 12, 2010
Référencement Google: prime à la vitesse
Google détient 67% du marché de la recherche sur le Web: pour maintenir cette position ultra-dominante, il doit devenir de plus en plus sélectif sur les résultats qu'il place en première page d'une requête de recherche.
En effet, on sait depuis une étude AOL qu'il n'y a point de salut hors de la première page: plus 90% des recherches sur les moteurs ne vont pas plus loin que cette première page.
Eh bien, Google explique aujourd'hui que ce pinacle se mérite: il faut non seulement qu'une page soit pertinente d'un point de vue sémantique mais aussi qu'elle se charge très vite dans le navigateur de l'Internaute pour rester au sommet des requêtes sur les 1'000 milliards de pages qui composent l'Internet
En effet, sur le blog Webmaster Central de Google, il est dit " Speeding up websites is important — not just to site owners, but to all Internet users. Faster sites create happy users and we've seen in our internal studies that when a site responds slowly, visitors spend less time there. But faster sites don't just improve user experience; recent data shows that improving site speed also reduces operating costs. Like us, our users place a lot of value in speed — that's why we've decided to take site speed into account in our search rankings. We use a variety of sources to determine the speed of a site relative to other sites."
En plus donc de critères statiques (sémantique, liens depuis d'autres pages, etc...), Google confirme donc qu'il y a aussi des critères de sélection dynamiques (vitesse de chargement) dans les 200+ critères inclus dans son algorithme de Pagerank (modifié 400-500 fois par an) qui représente 1000+ années-hommes de recherche. Google précise par ailleurs à ce moment que ce critère a un poids faible (de par sa nouveauté) dans l'ordre de présentation des résultats: la vitesse influence pour l'instant autour de 1% des requêtes (soit quand même plus de 300 par seconde sur 30'000 ....)
C'est encore une illustration très concrète du principe qui pilote une bonne partie de la stratégie de Google "ce qui est bon pour l'Internet est bon pour Google". En effet, si Google n'inclut pas de tels critères de sélection et ne le fait pas abondamment savoir, un défaut de vitesse de chargement depuis une page de résultat du moteur pourrait (à tort) lui être attribué et frustrer certains de ses utilisateurs qui ne reviendraient plus.
Le sort de Google et de l'ensemble de l'Internet par les sites qui le composent sont donc désormais intimement liés.
[Via Henri]
Source: blog Media & Tech (par didier durand)
En effet, on sait depuis une étude AOL qu'il n'y a point de salut hors de la première page: plus 90% des recherches sur les moteurs ne vont pas plus loin que cette première page.
Eh bien, Google explique aujourd'hui que ce pinacle se mérite: il faut non seulement qu'une page soit pertinente d'un point de vue sémantique mais aussi qu'elle se charge très vite dans le navigateur de l'Internaute pour rester au sommet des requêtes sur les 1'000 milliards de pages qui composent l'Internet
En effet, sur le blog Webmaster Central de Google, il est dit " Speeding up websites is important — not just to site owners, but to all Internet users. Faster sites create happy users and we've seen in our internal studies that when a site responds slowly, visitors spend less time there. But faster sites don't just improve user experience; recent data shows that improving site speed also reduces operating costs. Like us, our users place a lot of value in speed — that's why we've decided to take site speed into account in our search rankings. We use a variety of sources to determine the speed of a site relative to other sites."
En plus donc de critères statiques (sémantique, liens depuis d'autres pages, etc...), Google confirme donc qu'il y a aussi des critères de sélection dynamiques (vitesse de chargement) dans les 200+ critères inclus dans son algorithme de Pagerank (modifié 400-500 fois par an) qui représente 1000+ années-hommes de recherche. Google précise par ailleurs à ce moment que ce critère a un poids faible (de par sa nouveauté) dans l'ordre de présentation des résultats: la vitesse influence pour l'instant autour de 1% des requêtes (soit quand même plus de 300 par seconde sur 30'000 ....)
C'est encore une illustration très concrète du principe qui pilote une bonne partie de la stratégie de Google "ce qui est bon pour l'Internet est bon pour Google". En effet, si Google n'inclut pas de tels critères de sélection et ne le fait pas abondamment savoir, un défaut de vitesse de chargement depuis une page de résultat du moteur pourrait (à tort) lui être attribué et frustrer certains de ses utilisateurs qui ne reviendraient plus.
Le sort de Google et de l'ensemble de l'Internet par les sites qui le composent sont donc désormais intimement liés.
[Via Henri]
Source: blog Media & Tech (par didier durand)
Inscription à :
Articles (Atom)