lundi, septembre 29, 2008

Les 50 moments-clefs de l'Internet - ma sélection

Cnet propose un dossier sur les 50 moments-clefs de l'histoire de l'Internet. Je vais rebondir sur les propos d'Henri Labarre et vous proposer ma sélection perso que j'ai volontairement limitée à 5 pour aller à l'essentiel:
  • architecture de l'Internet / TCP/IP: (mai 1974) pour moi, le web est ce qu'il est aujourd'hui à cause de 2 décisions architecturales très simples mais très puissantes de Bob Khan et Vint Cerf :
    • architecture de type "datagramme": chaque paquet de donnée est de la même structure que tous les autres. Il est routé en tant que tel à travers le réseau sans lien avec les paquets précédents et suivants du même flux: un tel découplage permet la croissance locale du réseau sans coordination avec le reste de la planète.
    • "dumb network": absence totale d'intelligence dans le réseau. Celle-ci est déportée à la périphérie chez les composants constituants d'un service. Cette philosophie est celle qui a permis la naissance de Skype, Youtube car leur architecture respective ne dépend pas d'un opérateur central qui fait la pluie et le beau temps.
Ces 2 décisions à l'antipode du modèle OSI à 7 couches, si longtemps prôné par les opérateurs historiques sont celles qui ont permis à la fois la croissance et l'innovation effrénées... "The rest is history"!
  • naissance du world wide web: (novembre 1990) la technologie des hyperliens appliquée à l'Internet par Tim Berners-Lee alors qu'il travaillait au CERN a créé le liant nécessaire à une utilisation simple de l'architecture définie ci-dessus. J'ai toujours été fasciné de la rapidité d'apprentissage pour les nouveaux utilisateurs: avec une consigne simple que "quand tu vois un texte en bleu, tu peux cliquer pour aller vers la nouvelle page", on fait des surfeurs très honorables en quelques heures au maximum. On leur met ensuite un moteur de recherche entre les mains et ils sont autonomes! Un tel simplicité est toujours le gage d'une puissance incroyable.
  • la première version d'Apache (avril 1995): ce serveur Web (utilisé par les plus grands sociétés) est pour moi une brique essentielle de l'internet actuelle
    • il a permis au coût le plus bas l'éclosion de milliers / millions de sites Internet qui font que l'on a aujourd'hui plus de 1'000 milliards d'images distinctes sur Internet
    • il a montré la voie de l'Open Source (et catalysé son triomphe) qui un pour moi un corollaire incontournable de l'Internet par la cross-fertilisation qu'il assure l'un sur l'autre: Internet est née en bonne partie de l'Open Source qui, en retour, est favorisé par une collaboration toujours plus simple via le réseau.
  • la création de Google: (août 1998) la croissance contenu se serait forcément arrêtée à un moment ou l'autre si quelqu'un n'avait pas résolu "proprement" le problème de la recherche dans cet océan. Le Pagerank ("1 lien = 1 vote") est simple sur le principe mais, à nouveau, cette simplicité est gage de puissance. Il s'appuie en fait sur la totalité du contenu du WWW pour réaliser une sorte d'auto-qualification de la pertinence des réponses sur une question donnée. Bien sûr, depuis il s'est complexifié (via 1'000 années-hommes de travail) mais le principe de base reste. En plus, Google a su trouver le modèle d'affaires pour pérenniser ses activités....
  • le lancement de Wikipedia: (janvier 2001) si vous suivez les liens de cet article, vous verrez combien elle a d'importance à mes yeux en tant qu'encyclopédie universelle. Même si les polémiques sur sa qualité surviendront encore, la "Vérité Analogique" est toujours en marche! Au-delà de ce but encyclopédique premier, elle a, pour moi, créé bien avant qu'il ait un tel nom le "web social" en démontrant par des faits la puissance combinée d'une communauté d'individus isolés et qui ne connaissent pas si on peut leur donner des moyens efficaces de collaboration. Le web 2.0 qui a suivi n'est que la déclinaison commerciale de ce système précurseur. Commercial ou pas, le web social n'en est de toute façon qu'à ses balbutiements....
Auriez-vous mis d'autres de ces 50 moments dans votre top5? Lesquels et pourquoi?

Source: blog Media & Tech (par didier durand)

vendredi, septembre 26, 2008

112 téléphones mobiles pour 100 habitants en Europe!

Il y a donc maintenant 1,12 téléphone mobile en service par habitant selon cette récente publication de l'Union Européenne.

Cela veut dire que 12% d'entre nous se promène en permanence avec 2 combinés: 1 perso ou 1 professionnel le plus souvent.

Moi, j'ai de la chance: je n'en transporte qu'un seul: il est à la fois perso et pro.

Autre information intéressante de ce communiqué: 7% de la population européenne (30% en zone rurale) n'est pas couverte par le haut débit fixe. 52'000 raccordements nouveaux étaient ouverts en 2007 pour un total européen supérieur à 100 millions de lignes.

Source: blog Media & Tech (par didier durand)

jeudi, septembre 25, 2008

Une présentation Powerpoint à fort impact: comment?

Si vous devez préparer une telle présentation, regardez celle-ci et lisez-la attentivement. Elle est vraiment bourrée d'excellents conseils....

Death by PowerPoint
View SlideShare presentation or Upload your own. (tags: powerpoint ppt)




Source: blog Media & Tech (par didier durand)

Google Chrome: une marque (forte) ou un projet Open Source?

La mise sur le marché de Google Chrome amène pour moi un problème nouveau et intéressant dont l'évolution est à suivre.

En effet,
  • Google est une marque ultra-puissante: elle est depuis peu dans le top10 mondial d'Interband publié tout récemment
  • Chromium est le site du projet parallèle en Open Source de navigateur Internet lancé par Google à cette occasion. C'est le lieu où les développeurs peuvent s'approvisionner des codes-sources / documentation / etc... du projet. Il est à noter que la homepage du site Open Source contient (en petits boutons)le logo déjà célèbre du produit Google Chrome (marque protégée par Google)
  • la communauté Open Source est habituée à développer des sites complémentaires de projet-phare. Ils contiennent (presque) toujours dans le nom du site et dans son design des éléments textuels, graphiques très explicites montrant sans équivoque à quel projet phare le site est à rattacher. Pour exemple, voir la nuée de sites tiers qui tournent autour de Wordpress ou de Firefox et qui reprennent un morceau de leur nom. Cela ne pose pas de problèmes car il n'y a pas de craintes marketing: Firefox est géré par une fondation et derrière Wordpress se cache la petite société Automattic. Cette reprise (partielle) du nom est le plus souvent d'ailleurs considérée comme une bonne publicité par les père du projet.
Avec Chrome, le casse-tête juridique promet d'être intéressant à suivre

En effet, la communauté a déjà "embrayé":En parallèle, les avocats de Google se sont mis en action: ils ont envoyé une lettre officielle ("cease & desist") à Chrome-Plugins pour demander l'arrêt de l'utilisation des symbôles officiels liés à la marque Google Chrome.


Le site a obtempéré mais ne comprend pas en particulier sur l'utilisation de la BD pour laquelle l'attribution Creative Commons initiale était correcte. Il ne comprend par exemple pas la tolérance de Google face aux 70+ versions "bâtardes" de la BD initiale alors que lui a eu une remontrance officielle.

Terry Chen, le responsable des marques chez Google, souhaite farouchement empêcher l'utilisation de BD, du logo et de l'icône Chrome.

Le cas Chrome-Plugins reste une pécadille sans conséquence mais il me tarde voir comment Google va gérer ces "débordements" à l'avenir quand des sites plus "massifs" vont faire de même....

La question fondamentale qui va être tranchée ces prochains mois: est-il possible de séparer complètement un projet Open Source du produit commercial phare dont il est issu?

Je pense que non. De plus, ce ne me paraît même pas souhaitable pour la publicité ainsi perdue...On verra alors si l'anarchie sympathique qui résulte de l'Open Source est compatible avec la défense de l'aura d'une marque à vocation planétaire.

PS: cette situation est pour moi nouvelle. Aurais-je loupé un cas similaire (taille de la société-mère, pénétration du produit,etc...) ? merci de me rafraîchir la mémoire le cas échéant.

Source: blog Media & Tech (par didier durand)

mercredi, septembre 24, 2008

L'internet mobile est vraiment là: 20% des dépenses mobiles!

la plate-forme logicielle mobile Android de Google est devenue réelle hier avec le lancement du 1er combiné réel: le G1 de HTC. l'iPhone n'a qu'à bien se tenir!

Ainsi que cela a été remarqué sur plusieurs blogs: personne ou presque ne parle de ces capacités de "bon vieux téléphone vocal ". Tout le monde se focalise sur les services de données et autres péréphiques (appareil-photo, GPS et boussole intégrés)

C'est pour moi très significatif: le portable devient finalement un appareil acheté pour faire, en masse, autre chose que des communications vocales: surfer sur Internet, jouer, rechercher des informations (géolocalisées), etc....

L'Internet Mobile est donc (enfin) bien là!

En effet, de manière concomitante à l'arrivée d'Android, des statistiques récentes de la CTIA aux USA et l'Union Internationale des Télécommunications pour le monde entier montrent que les services de données représentent maintenant plus de 20% des revenus des opérateurs mobiles.


La date du lancement d'Android est donc particulièrement judicieuse!

Cependant, il y a un point qui me titille: les opérateurs nous rebattent actuellement les oreilles avec les nouveaux forfaits data illimités, certainement qui faire simple en copiant le principe de l'ADSL qui a tellement bien fonctionné. Ce faisant, ils assurent leurs revenus vers le bas par un forfait mensuel mais en même ils les bornent vers le haut par le même forfait.

Pour dépasser cette limite, ils vont devoir aller vers les services à valeur ajoutée: pas facile d'ne capturer les revenus à l'heure du tout publicitaire d'autant que le côté Open Source d'une plate-forme comme Android va exacerber la concurrence: Google est allé jusqu'à réécrire la machine Java pour garantir cette nouvelle situation qui lui sera favorable vu son monopole publicitaire!

Source: blog Media & Tech (par didier durand)

mardi, septembre 23, 2008

téléphone portable de 2008 = 10 fois le PC de 2000!

C'est la conclusion principale que je retiens du long billet d'Andy Rubin, le père de Google Android qui sort d'ailleurs aujourd'hui aux USA:

"The phone that you have in your pocket, pack, or handbag is probably ten times more powerful than the PC you had on your desk only 8 or 9 years ago"

La loi de Moore dans toute sa splendeur!

Autre info intéressante: on apprend qu'il a fallu 100 ans au téléphone fixe pour atteindre 80% de pénétration, il n'a fallu que 16 ans au téléphone portable pour faire de même. Une autre conséquence économique de cette loi de Moore?

Source: blog Media & Tech (par didier durand)

vendredi, septembre 19, 2008

Elgg: fabriquer son propre réseau social 100% indépendant via l'Open Source

Le projet Open Source Elgg publié la version 1.0 de son logiciel de plate-forme de réseau social:
Elgg représente pour moi un pas en avant dans le domaine des réseaux sociaux ouverts et indépendants, un de plus après celui de Ning qui permettait déjà de faire son propre réseau social mais sur une plate-forme "contrôlée".

En abaissant ainsiviolemment le ticket d'entrée, de tels logiciels vont fragmenter le marché par un bougeonnement des réseaux de niches et permettre ainsi à Google de jouer le rôle prévu dès le lancement de son standard Opensocial, celui du fédérateur/agrégateur qui,par la même occasion, tire les marrons (financiers) du feu.

Mais, voilà également qui renforce l'importance futur Giant Global Graph (GGG) souhaité par Tim Berners-Lee: poussé par le bourgeonnement des réseaux sociaux de niche favorisés par des "Ellg-like", on va nécessairement voir émerger un standard (sur l'extension des bases oAuth, OpenId, XFN, actuelles) que j'ai déjà baptisé SNS, "Social Netowrk Service" par analogie avec le DNS.

Il nous permettra d'être membre d'une multitude réseaux sociaux indépendants les uns des autres et correspondants à différents "casiers" de notre vie sociale sans subir les affres actuels de la redéfinition du même profil (y.c les liens avec les mêmes amis...) sur chaque réseau.

La Longue Traîne des réseaux sociaux va se former!

Source: blog Media & Tech (par didier durand)

mercredi, septembre 17, 2008

Utilisation artistique et innovante de l'interface Google Maps

Les représentations (photographiques) en très grand format (i.e avec un maximum de détails) d'œuvres artistiques, de plans, etc... sont très peu commodes à regarder sur un écran de PC.

Eh bien, la société a résolu le problème de manière à la fois innovante et efficace par application de la technologie de Google Maps: elle pré-découpe la représentation (ci-dessous une toile de la collection Kremer ) en tuiles ("tiles" selon la terminologie googlienne) conformes aux règles de l'API de Google Maps puis les donne à "digérer" en temps réel (l'interface Gmaps le permet)




On retrouve tout l'ergonomie efficace du Google Maps: zoom, translation via la souris , miniature de localisation,etc...

Pour essayer soi-même, c'est sur cette page

Pas sûr que les geeks chez Google aient pensé à cette application de leur "" quand ils ont conçu leur système. Bien joué, le University College of London qui a développé cette application et la met à disposition sur le web!

PS: qui fait la prochaine version intégrant de la publicité cartographique comme Google l'a déjà mis en place?

[Via Googlemapsmania]

Source: blog Media & Tech (par didier durand)

mardi, septembre 16, 2008

Youtube: abondance de biens .... nuit?

Sur le dernier billet du blog Google, Chad Hurley, fondateur de Youtube, nous révèle que, chaque minute, 13 heures de vidéo nouvelles sont chargées sur site. ( "Today, 13 hours of video are uploaded to YouTube every minute"). Il s'attend encore à une croissance exponentielle des contributions des utilisateurs dans les années qui viennent.

C'est sûrement
Le problème pour Google reste entier: malgré différents essais, il ne trouve pas actuellement la solution pour faire de Youtube sa (nouvelle) poule aux oeufs d'or.

Source: blog Media & Tech (par didier durand)

samedi, septembre 13, 2008

Google Chrome QA and performance tests through units tests of YUI and Scriptaculous

[Update: unit tests on cookies don't work from file:// type of urls. It's intentional: see this page on the Chromium group. It's the way I run them initially. No more issue when I run them from a web server. That removes 50 from the error counter and already raises quality level to almost 97% globally and 99.5% with YUI]

Google Chrome has been released 2 weeks ago: it's still beta. But, according to the comics issues for the launch, a huge emphasis was put on testing for maximum quality at launch: rendering of milions of pages is validated for each build. At page 11,a progressive improvement from 23% (early days) to 99% (launch date) in the Webkit layout testing suite is stated as a proof of quality.

On the other side, I didn't see until today any test against the compatibility of major Javascript framework (Dojo, jQuery, Prototype, script.aculo.us, YUI, etc...).

I am used to working with 2 of them: YUI (currently at v2.5.2) and Prototype/script.aculo.us (currently at v1.8.1). Both of them are delivered with a series of unit tests. I decided to run Google Chrome against those suits to see what would happen.

The results are the followings:

with Script.aculo.us 1.8.1:

with Yahoo YUI 2.5.2:

Various conclusions could be drawn from that point knowing that no adaptation was yet made in the 2 frameworks to cope specifically with "specialties" of Chrome:
  • Chrome fails on 74 tests out of 700. Success rate is already above 89%
  • More careful analysis proves that 50 of those failures come from a single area: cookie handling in YUI. I will now analyze source code of YUI cookie.js to get all details: but it's probably just a few lines of codes to modify to pass those tests. When that will be done success rate will jump already above 96%
  • globally, it's very reassuring to see that issues are confined to a very limited number of areas and not spread all over the place.
With such a starting point, I guess that it won't take long before Google Chrome gets to the level of Firefox which passes 698 of the 700 tests .

We have since this launch heard quite a lot about the V8 javascript engine included in Chrome and its huge improvements over other competing browsers. Those unit tests heavily focused on javascript but involving rendering at the same time (through tests like Editor, Animation, etc..) represent a good pratical benchmark of coumound performances of Chrome.

Using the bundled suite of 114 tests named named yuitest.html and part of YUI, we get the following results:
  • 10s for Firefox 2.0.0.16
  • 6s for IE 7.0.57.11C0
  • 2s for Google Chrome 0.2.149.29
On that side, the lead is already clearly by Google Chrome!

As a conclusion, I would state that developpers using such frameworks [who have as a major goal to insulate them from the specific points current of leading browsers: IE, FF, Safari, etc...) won't have to wait long before those frameworks allow their applications to support Google Chrome in 100% effortless manner from a javascript/ajax standpoint.

Source: blog Media & Tech (par didier durand)

vendredi, septembre 12, 2008

Adsense et Analytics fortement intégrés ... et tellement plus ergonomiques!

Digital Inspiration nous annonce (en avant-première: visiblement encore une "fuite" chez Google) une forte intégration entre AdSense et Google Analytics en publiant les screenshots des nouveautés qui arrivent.

Je n'utilise pas Adsense et Analytics sur mon blog pour devenir riche mais pour expérimenter sans risque avant d'intégrer mes expériences "bloguesques" sur des projets professionnels. Je les suis donc ces 2 services de très près.

C'est donc au titre de ces travaux professionnels que je trouve que le passage des rapports Google Adsense (un peu "spartiates" actuellement) sous Analytics comme un vrai progrès.

Les screenshots parlent ci-dessous parlent d'eux-mêmes: ils apportent un niveau de transparence très fort sur le fonctionnement publicitaire d'un site ... mais aussi sur les mécaniques publicitaires de Google!

C'est pour moi un mouvement dans le même sens que celui de la gratuité totale des services Feedburner (que j'avais qualifiée de "destruction créatrice") il y a plusieurs mois: Google livre de plus en plus d'informations aux sites affiliés à Adsense afin qu'ils puissent optimiser pour leur bénéfice ( ... et celui de Google) les montants et la qualité de leurs revenus publicitaires.

Voici donc ces screenshots (cliquer dessus pour obtenir un zoom):

Un vrai progrès, non?

Une vision générale sur l'activité Adsense du site: revenu total sur la période, revenu par 1000 visites, equivalent CPM (e-CPM - on est en mode pay-per-click!)

Les meilleures pages, i.e celles qui rapportent le plus avec tous les détails (e-CPM, CTR, impressions, etc...) qui les concernent pour les rendre encore meilleures
tous les détails d'une page particulière,


Les sites référents = d'où venait les visiteurs qui ont finalement cliqué sur une annonce du site


Voir Digital Inspiration pour complément d'informations

Source: blog Media & Tech (par didier durand)

jeudi, septembre 11, 2008

50'000 arbres coupés par personne et par année

Selon la recherche IBM, c'est ce qui pourrait se passer, si l'on cherchait à imprimer sur du papier chaque année l'équivalent des données de divertissement, de santé, de consommation actuellement produites, directement par lui-même ou indirectement par ses fournisseurs et prestataires, sous forme digitale par un individu.

Je cite: "Average individual’s "information footprint" – the digitization of entertainment, healthcare, security, retail preferences – will grow from 1 terabyte (about 50,000 trees cut and printed) per year to more than 16 terabytes by 2020, according to IBM."

Avec de plus une multiplication par 16 dans les 12 ans:
Source: blog Media & Tech (par didier durand)

mercredi, septembre 10, 2008

Interview dans le dossier Cloud Computing du Mag IT

Le Mag IT a publié un bon dossier d'analyse du marché du Cloud Computing, en particulier de la position des grands acteurs (Amazon, IBM. Microsoft, Sun, etc...) par rapport à ce nouveau thème. La nuée de startup nouvellement actives sur le domaine est aussi illustrée par 2 cas particuliers.

Si vous voulez avoir une synthèse actuelle du domaine, c'est clairement à lire!

En bonus, vous aurez même droit à la lecture d'une interview de mézigue sur le sujet.

Une des questions ci-dessous en extrait:

Quelques incidents ont frappé les prestataires proposant déjà des services fondés sur le cloud computing, on pense par exemple à Amazon au printemps ou Google plus récemment, qu’en est-t-il de la fiabilité des services ?

D.D. : On est encore en période de rodage mais déjà les prestataires sont très forts, en tout cas plus que des services internes ou même que des hébergeurs traditionnels dans beaucoup de cas. Ils ont des équipes nombreuses et très pointues et ils éprouvent leurs processus et dispositifs de haute disponibilité en permanence. Maintenant sur Internet, les choses sont rendues bien plus sensibles à cause de la transparence. Sur le web, le "coup de chaud" se voit tout de suite et l’information fait très vite le tour de la toile. Mais la plupart des entreprises connaissent des dysfonctionnements aussi de temps en temps et personne ne le sait. A terme, rien n’équivaudra en infrastructure et en fiabilité à ce que des sociétés comme Amazon sont en train de mettre en place. Déjà, le niveau atteint est très haut. Elles travaillent à une échelle inatteignable pour une société standard. On parle d'un million de serveurs pour Google. Cela leur donne des moyens colossaux pour construire un système ultra-solide et ensuite pour le surveiller à la loupe, chaque seconde, 24h/24 et 7 jours sur 7.

Bonne lecture !

Source: blog Media & Tech (par didier durand)

mardi, septembre 09, 2008

Facebook: on s'y retrouve! (livre Alban Martin)

Mon camarade "blogosphérique" Alban Martin m'a fait parvenir une copie (dédicacée, merci Alban!) de son dernier opus "Facebook, on s'y retrouve" (détails chez Amazon)

Il a été une de mes lectures de vacances très intéressante.

J'ai trouvé 3 parties fort utiles dans ce bouquin:
  • une revue méthodique et systématique des services de Facebook à l'utilisateur avec une mise sous la loupe de l'interface. Je dois avouer que j'y ai découvert plein de petits trucs et astuces que je n'avais encore jamais notés. Par exemple, j'importe désormais le flux RSS de ce blog dans Facebook.
  • une section sur l'utilisation professionnelle de Facebook: "professionnelle" voulant dire pour Alban pour les gens plus vieux (par ex. les quadras comme moi) que la cible initiale du service, les 15-24 ans. Les interventions de quelques spécialistes du domaine en France y sont fort utiles. On y découvre aussi des applications tierces Facebook fort utiles: j'ai installé celle qui permet de publier son profil perso Linkedin dans Facebook sans rien avoir à gérér à double (un vieux problème qui commence donc à trouver des solutions...)
  • enfin, une partie introductive au développement de ses premières applications tierces sur Facebook. Je pourrais m'y lancer pour voir
Donc, je recommande si vous êtes à la recherche d'une "mise à l'étrier" pour Facebook en particulier et les réseaux sociaux en général.

Pour m'éviter des commentaires acerbes....: cette pub est sincère donc gratuite! La preuve: je même n'ai pas mis mon ID d'affilié Amazon dans le lien vers leur site afin de toucher une commission sur les innombrables ventes que je vais générer par ce billet ;-)

Source: blog Media & Tech (par didier durand)

lundi, septembre 08, 2008

Journaux américains et publicité: en récession!

La National Association of Newspapers(NAA) vient de publier des chiffres qui indiquent une claire récession pour la presse aux USA:

Au plan global, c'est une chute de 16% dans les recettes publicitaires sur le papier par rapport au même trimestre (T2) de l'an dernier. 1.7 milliards de dollars manquent si l'on compare au T2 2007. La publicité en ligne ne compense pas pour ces journaux: ils passent sur la même période de 795 à 776 millions de dollars (-2.4 %).

Il existe clairement 2 mondes pour les sociétés de médias:
  • les sociétés de médias émergentes qui sont nées avec Internet et qui surfent sur la croissance forte de sa publicité (malgré aussi un dernier trimestre faible). Google est clairement le leader du domaine.
  • les sociétés de média traditionnelles qui basculent très lentement vers l'Internet car elles craignent l'auto-cannibalisation et une concurrence féroce sur un terrain non-familier. Elles ont par ailleurs une structure de coûts (fixes)beaucoup plus élevées (cf une rotative vs une ferme de serveurs...)
Pour les annonceurs, c'est beaucoup plus simple: leur argent suit les utilisateurs. Ces derniers partent vers Internet? Soit! Les budgets publicitaires des annonceursaussi: pour exemple, Internet a dépassé la télévision au Royaume-Uni en 2007.

La mauvaise nouvelle de ce côté de l'Atlantique: la même tendance récessionniste pour les médias traditionnels est en train d'émerger.

Et je pense de plus que le mouvement est structurel plutôt que conjoncturel: les budgets publicitaires quittent le monde "physique" des médias traditionnels pour aller vers le monde virtuel de l'Internet pour ensuite revenir ensuite dans le monde médiatique traditionnel par des formes plus indirectes: Apple TV, Amazon Kindle, TV 2.0, etc....

Le Média Universel Intégré dont j'ai déjà parlé abondamment est vraiment en train de se construire!

[via Techcrunch]

Source: blog Media & Tech (par didier durand)

vendredi, septembre 05, 2008

[Fun] Google Chrome contient un oeuf de Pâques!

Il y a un oeuf de Pâques ("Easter Egg" - Voir les explications Wikipedia) dans Google Chrome.

C'est par ce terme "pascal" que les américains nomment les petites surprises que les développeurs cachent pour le fun dans les logiciels qu'ils livrent.

Un premier a été découvert dans le navigateur Google Chrome: comme il est Open Source, ceux qui se sont lancés dans la lecture du code les mettent au jour.

Le premier trouvé par Robert Accetura est l'image ci-dessous qui apparaît est l'image ci-dessous qui apparaît quand on tape "about:internets" dans la barre d'adresse du navigateur. C'est vrai: j'ai testé pour vous!


En fait, dans ce cas, Google Chrome appelle l'économiseur d'écran de Windows XP. On verra ce que cette bonne blague deviendra quand Chrome sera porté sur Mac, Linux & co.

C'est drôle (subliminal ?) de voir que le développeur ait retenu la version "usine à gaz" de l'économiseur pour inclure dans Chrome. ;-)

Source: blog Media & Tech (par didier durand)

mercredi, septembre 03, 2008

Google Chrome et sphère privée: faut-il être paranoïaque?

[Je ne ne fais pas d'intro sur Google Chrome.... Il y en a plein la blogosphère: ici, , encore, etc...]

Pour ceux qui n'ont pas encore réfléchi au sujet "Google Chrome et moi", j'attire l'attention sur un point. Avec ce nouveau navigateur Internet "Google Chrome", le géant de Mountain View met un large pied dans la porte de notre sphère privée.

En effet, jusqu'à présent, il obtenait essentiellement [pour ceux qui n'utilisent pas la Google toolbar dans leur navigateur ou qui ne lui permette pas de remonter des infos d'utilisation à Google] ses informations par rapport à notre profil d'activité chaque fois que nous utilisons son moteur de recherche pour nous orienter: il accumule les mots-clefs que nous utilisons pour se faire une idée de nos intérêts et ensuite mieux cibler les pubs.

C'est ainsi qu'il constitue sa très lucrative "Base de Données des Intentions". Mais, elle reste finalement incomplète car, entre les passages sur le moteur, c'est le blackout dans l'activité de l'internaute vu de Mountain View.

Avec Chrome, ce pourrait être tout différent: le logiciel pourrait remonter vers le million de serveurs centraux des indications sur chaque page visitée (quand, durée de la visite, etc...). Ce pourrait être la porte à la fameuse "catastrophe sécuritaire" prédite pour Google.

Alors, Matt Cutts, l'un des gourous de Google tente de tuer la paranoïa dans l'oeuf en détaillant précisément les échanges entre le navigateur Chrome et les serveurs centraux:
  • aucune information des pages visitées remontée vers les ordinateurs centraux
  • le début de saisie d'une URL dans la barre d'adresses est assistée par une requête vers les serveurs centraux pour détecter les URLs qui pourraient correspondre.Cette fonction d'aide peut être désactivée.
  • aucune remontée d'alerte en cas de problème logiciel ni de remontée de statistiques d'utilisation anonymes
  • en cas d'erreur HTTP 404 (i.e. page inconnue), le navigateur appelle les serveurs centraux pour tenter de trouver la bonne page
  • le navigateur va voir toutes les 25 heures si une nouvelle version du logiciel existe.
  • toutes les 30 minutes, le navigateur descend des serveurs centraux les hash-codes de 25 urls "dangereuses" (phishing, malware, etc...) qui servent ensuite à éviter /limiter la casse si une des pages est visitée
  • le navigateur communique enfin avec les serveurs centraux pour descendre les dictionnaires dont il a besoin au fil des langues utilisées.
Donc, rien à craindre. Pour l'instant pour toujours?....

De toute façon, Chrome est Open Source: l'intégralité du code sera /est disponible ici.
Les grands paranos peuvent donc descendre le source, le lire pour tout vérifier puis le compiler pour être sûrs à 100% de ce qui tourne sur leur machine.

Je ne crois pas que Google pourrait jouer à ce jeu-là, i.e dire blanc et faire noir.

Pour moi, ainsi que je l'ai écrit chez T. Nitot, l'enjeu de Chrome est - pour moi - tout ailleurs: c'est le Cloud Computing qui repose sur 2 pieds: une infrastructure centrale en béton et un navigateur qui soit le relais / complément efficace de "l'arrière boutique". Ce que j'ai écrit: "

Indépendemment de la concurrence avec MS et du lien avec firefox, il est important pour Google d'avoir son propre browser: à l'aube du web computing, le browser est la "carosserie" de l'ensemble moteur/chassis qu'est le web computing.

On n'a (à ce jour) jamais vu de constructeur qui créait un nouveau modèle en ne concevant que chassis et moteur et en laissant le soin de faire la carosserie à d'autres!

L'interdépendance entre serveurs et navigateur des différents composants d'application va fortement s'intensifier dans le mode "cloud computing", il est donc normal que Google se laisse la possibilité de montrer la voie en implémentant - sans aucune friction via des composants qu'il ne maîtriserait pas - ce qui sera nécessaire dans le browser sous son contrôle (Chrome). Ensuite libres à FF et IE répliquer ce qui est malin ... ou pas"

D'autres avis ?

Source: blog Media & Tech (par didier durand)

lundi, septembre 01, 2008

Internet: l'oncle Sam n'a plus les moyens d'être Big Brother!

Un article (et surtout un graphique) très intéressant dans le New-York Times:


Il montre clairement l'évolution de la connectivité intercontinentale de l'internet:
  • il y a 10 ans, l'Internet était une étoile par continent voire par pays autour des USA et du Canada. Tout échange entre 2 pays (ou presque) passait par le coeur (les USA) même si ils étaient voisins
  • maintenant, il est beaucoup plus maillé, ce qui a fait violemment décroître le taux (en bande passante) de connexion vers le continent nord-américain pour tous les continents et leurs pays. Voir les chutes sur le graphique.
Il y a 10 ans, les USA routaient 70% du trafic international (sans extrémité sur leur sol). Maintenant, ce n'est plus que 25%. Cette évolution est par contre naturelle: elle correspond à 100% au développement de la population internaute: la Chine a dépassé les USA (le berceau du Net...) au mois de juin en nombre d'internautes.

Cette topologie était dangereuse: un problème majeur d'Internet USA paralysait la planète. Maintenant, on a un réseau beaucoup plus solide et résilient. Il est d'ailleurs ainsi strictement conforme à sa philosophie architecturale initiale: une résistance maximum aux pannes / destructions par une distribution du contrôle et de la régulation du système dans tous les routeurs qui y participent. C'était le mandat donné à Vint Cerf et Bob Kahn par l'armée américaine quand ils se sont lancés dans la conception du système.

Il est donc quasi-paradoxal de lire dans l'article NYT l'émoi des agences de renseignement américain comme la NSA quand elles constatent que cette nouvelle topologie ne leur permet plus d'écouter aussi facilement toutes les discussions de la planète par des "sondes" simplement placées aux USA, sur le territoire national.

Donc, pour faire une analogie avec le corps humain, les USA ont perdu le contrôle du système nerveux (i.e les lignes télécoms) mais qu'ils se rassurent: avec Google, Yahoo et Microsoft, i.e les moteurs de recherche, ils gardent à 100% le contrôle du "cerveau" car ces moteurs et leurs technologies dérivées (indexation, classement, etc...) représentent directement ou indirectement l'analogue numérique des fonctions du cerveau: captation des stimulations, mémoire, synthèse des informations de base en connaissances, etc....

Et un système nerveux autonome sans cerveau pour le contrôler, c'est inutile ou presque, non? Et tant que l'Europe & Co feront et referont des flops à la Quaero, pas d'inquiétude à avoir autre-Atlantique....

Source: blog Media & Tech (par didier durand)