jeudi, juin 25, 2009

Facebook: les chiffres du système

Je vous recommande le dernier article de Wired sur Facebook: il détaille tous les aspects du combat titanesque qui s'annonce entre ces 2 monstres de l'Internet que sont Google et Facebook. .Avec 200+ millions d'utilisateurs et un trafic qui approche celui de Google, Facebook a gagné - à mes yeux au moins - son titre de géant de l'Internet.

Selon Wired, ce combat oppose 2 visions diamétralement opposées de l'Internet : la vision algorithmique de Google contre la vision sociale / humaine de Facebook. A lire dans tous les détails pour stimuler les neurones.

Cet article livre des chiffres intéressants sur la systémique Facebook :
Facebook est encore loin des 2 millions de serveurs de Google mais c'est tout de même impressionnant!

Source: blog Media & Tech (par didier durand)

mercredi, juin 24, 2009

NACA presented @ Jazoon 2009: mainframe/Cobol to Linux/Java migration

UPDATE: Project NACA has given birth to Eranea, a company dedicated to 100% automatic migration of mission-critical apps to Java & Linux. Check out www.eranea.com or email to contact@eranea.com for more information
________________________________________________________________________________

Pierre & I presented the NACA project at Jazoon 2009 in Zurich. It was another nice opportunity to present our automated solution to migrate (we say "transcode" within Publicitas) 100% automatically a Cobol application to its iso-functional Java equivalent.

As Jazoon is a major Java conference in Europe, we could go into very specific technical details in front of the most competent audience.

Pierre described the architecture of our "transcoding compiler" and exposed all of its advantages. Read the ending slides of this ppt very carefully if you want to get all details (... or get in touch with us !):



  • many levels of cache to maximize performances of the new Java version of the old application. Through them, our Java-transcoded transactions and batches have better performances than their Cobol ancestors used to have on mainframe.
  • pre-allocation of all program variable structures (COMMAREA of COBOL) to further improve performances but also to minimize garbage collection that freezes the system while running.
  • strongly object-oriented architecture of resulting Java objects in order to maximize the effect of all controls done by compiler. As example, each old COBOL program becomes a Java class whose existence is checked at compile-time rather than at runtime. Very useful when your application is 4 millions lines of code like ours and when you want to track down every typing mistake in a continuous integration architecture like ours
  • strong integration with Eclipse IDE for highest productivity for developpers: we even developed a plug-in to facilitate debugging and edition of old COBOL programs from Eclipse
  • line-by-line equivalence between old COBOL programs and newly transcoded Java classes. The home developers don't get lost: they receive afterwards a Java application with the exact same structure as the original COBOL version
  • support of IBM JVM as well as Sun JVM in order to also allow for the transcoding of stored procedures
  • support of distinct character sets and encoding schemes (EBCDIC) between mainframe & Linux. Support of all resulting possibilities for data sorting.
  • full management of multi-level COBOL data structures in Java independently of the UTF encoding (2 bytes per char) used by Java
  • transparency of wrapping framework (raw JVM, Apache Tomcat, etc...) for the application
  • etc...
We gave the URL of our open source (GPL licence) transcoding tools for participants. Please, give a chance to our tools if you enter such a migration project.

On my side, I emphasized the key aspects of such a project:
  • economic motivation as core driver: move from a multi-million (CHF or euros) mainframe environment to an incredibly cheap and nimble farm of Linux Intel-based servers. The massive savings (3 millions euros / year in our case) allow for a quick auto-financing of the project far before its end. The main virtue of Open Source for a company like us remains clearly its very very low price.
  • migrate people with technology: we believe that we succeeded in our project because we clearly demonstrated very early on to the people in place that they would find a new interesting job in the final constellation. That generated their full commitment to the project!
  • iso-functionality as a must: migrating in such a manner prevents months of discussion about the final target. But, mostly, it allows for 100% automatic migration, a key factor for quality in the transcoding.
  • no big-bang but numerous reversible steps: such a total migration with (tens of) thousands of new steps can never successfully reach the ends if you try big steps. Permanent incremental progress toward the goal is a much better approach. The nice consequences: small steps generate smaller local trouble when problems arise. Your users remain much more patient this way! Our experience was so...

Source: blog Media & Tech (par didier durand)

lundi, juin 22, 2009

[Info Podcast 7] Intel: 100'000 serveurs Linux pour concevoir les prochains ....serveurs!

(Info Podcast - pourquoi et comment: voir le début ce billet - les autres "infos podcast de Media & Tech" ici)

Info intéressante au temps 4 min 50s de ce podcast: Dirk Hohndel d'Intel annonce que son employeur utilise plus de 100'000 serveurs Linux pour concevoir les prochaines générations de puces à mettre dans leurs descendants!

C'est donc la Loi de Moore au service d'elle-même: la Singularité se rapproche!

Comparativement à Google et ses 2 millions de machines, on pourrait penser que ce rapport 1/20 est peu flatteur pour Intel. Ce serait faux: les serveurs sont la finalité, l'usine à résultats de Google. Pour Intel, ces serveurs internes qui servent à la conception des prochaines générations ne sont pas une fin en soi mais un outil nécessaire à l'alimentation en nouveaux produits des usines qui fabriquent ensuite ces puces.

Ce sont ces usines qui concentrent la majeure partie du risque (et du savoir-faire) du fondeur. Paul Otellini, le CEO d'Intel, explique dans cet autre podcast que chaque nouvelle usine coûte 10 à 12 milliards de dollars, qu'elle est fabriquée avant même que les puces qui y seront fabriquées ne soient conçues et que les machines qui les fabriqueront n'existent pas encore.

Au poker, on dirait que Intel "fait tapis" à chaque donne. Mais, chaque donne, toujours selon P. Otellini, restitue 75 à 80 milliards de revenus. Le jeu en vaut donc la chandelle!

Source: blog Media & Tech (par didier durand)

jeudi, juin 18, 2009

[Fun] Obama: l'incarnation du charisme naturel!

Le président Obama m'impressionne par son comportement très naturel même dans les plus grandes occasions. C'est pour pour moi le vecteur d'un rès grand charisme: en se mettant ainsi directement à portée de ses concitoyens, il s'assure très efficacement leur soutien ainsi que leur volonté de le suivre sur les chemins compliqués sur lesquels il va devoir engager l'Amérique (et le monde entier...) pour sortir de cette satanée crise actuellle.

2 exemples ci-dessous:
  • il rédige un mot d'absence à une petite fille qui participait avec papa à l'un de ses discours sur l'avenir du système scolaire américain
  • il stoppe une interview (sans couper la caméra...) le temps de tuer une (énorme) mouche qui le gêne pendant une interview télévisée très officielle avant de reprendre comme si de rien n'était...
J'en connais dans l'Hexagone qui devraient prendre des leçons pour se décoincer à leur tour mais il faut que cela soit vraiment aussi naturel sous peine d'être sinon plus risible qu'autre chose!









Source: blog Media & Tech (par didier durand)

Accès à internet et Déclaration des Droits de l'Homme de 1789

La polémique autour d'Hadopi continue attisée par la décision du Conseil Constitutionnel qui a annulé les conséquences (sanctions) les plus importantes de la loi. Il s'agit pour ses auteurs de sauver la face entre autres...

Au-delà de la loi d'Hadopi (pour laquelle il vous faut aller chez Guillaume pour tous les détails les plus fins), le résultat le plus important de la révision de cette loi par le Conseil Constitutionnel est pour moi le considérant 12 de la décision:

"Considérant qu'aux termes de l'article 11 de la Déclaration des droits de l'homme et du citoyen de 1789 : " La libre communication des pensées et des opinions est un des droits les plus précieux de l'homme : tout citoyen peut donc parler, écrire, imprimer librement, sauf à répondre de l'abus de cette liberté dans les cas déterminés par la loi " ; qu'en l'état actuel des moyens de communication et eu égard au développement généralisé des services de communication au public en ligne ainsi qu'à l'importance prise par ces services pour la participation à la vie démocratique et l'expression des idées et des opinions, ce droit implique la liberté d'accéder à ces services ;"

Il dit finalement en substance que l'accès à Internet est devenu un droit fondamental de l'individu-citoyen: son ubiquité mondiale toujours croissante n'en est qu'une preuve supplémentaire!

Gageons que ce texte fera abondamment jurisprudence dans les années qui viennent pour protéger les citoyens que l'on voudrait priver de ce droit. Ce droit à l'Internet sera aussi sûrement intégré dans les lois comme celle-ci visant à protéger les plus pauvres d'entre nous des coupures sauvages et unilatérales par les fournisseurs.

Source: blog Media & Tech (par didier durand)

lundi, juin 15, 2009

Facebook: la ruée vers l'or(thographe)

Facebook a publié des statistiques sur l'engouement autour des nouvelles URLs de profils plus parlantes:
  • 550 réservations à la seconde dès les premières minutes
  • 345'000 après 7 minutes
  • 500'000 après 1/4 d'heure
Cela fait donc 2 millions à l'heure: si l'on fait des maths brutes, avec 200+ millions d'utilisateurs (et une fréquentation en relation), c'est en un plus de 10o heures tout le monde aurait réservé! Gageons qu'il faudra un peu plus pour que l'internaute de base ne se préocuppe fondamentalement de son identité en ligne et des conséquences associées...

N.B: Eric annonce que Facebook a été généreux (... et a voulu lutter contre le vol d'URLs et les conflits résultants): en réservant www.facebook.com/didier.durand, Facebook m'a aussi automatiquement "mis de côté" www.facebook.com/didierdurand (sans rien) et www.facebook.com/didier-durand (avec tiret)

Source: blog Media & Tech (par didier durand)

samedi, juin 13, 2009

www.facebook.com/didier.durand

Voilà, pour moi c'est fait: mon URL Facebook est désormais celle du titre de ce billet, i.e http://www.facebook.com/didier.durand

Elle est bien plus sympa que celle que j'avais avant sur ce réseau social, pleine de chiffres et de signes très cabalistiques.

Si vous voulez la même sur base de votre nom, connectez-vous à http://www.facebook.com/username.

C'est "premier arrivé, premier servi" depuis ce matin 6h00. Donc, dépêchez-vous ! ... même à titre de provision pour l'avenir si vous ne savez pas encore à ce moment si vous voulez vraiment être sur Facebook malgré son énorme popularité. Certes, beaucoup de faux-pas de jeunesse mais peut-être qu'un jour, ce sera "has-been" de ne pas y avoir sa "belle" URL.

Dans un article détaillé, Le Figaro explique le pourquoi de ces nouvelle URLs:

".....Une recherche sur Facebook donne ainsi des résultats très précis. Ce n'est en fait pas là que se joue la guerre, mais sur Google. Lors d'une recherche sur une personne, Facebook doit batailler avec tous les réseaux sociaux où est inscrit cet internaute, dont certains placent déjà le nom de leurs membres dans l'URL.

Or, ce critère est très prisé des moteurs recherche. Dès lors, Facebook se retrouve parfois devancé par Twitter, LinkedIn ou Viadeo, qui ont mieux optimisé leurs adresses que lui. Par le passé, le site a déjà tenté de contourner cette contrainte en plaçant, dans l'URL, le nom de ses membres avant leur identifiant. Mais cela n'a pas suffi, Google préférant les adresses les plus courtes. Grâce à ce nouveau changement, Facebook met enfin toutes les chances de son côté pour se hisser en première place."

Voilà qui va rappeler quelque chose aux éditeurs de presse contre Wikipedia sur Google News!

Source: blog Media & Tech (par didier durand)

vendredi, juin 12, 2009

Wikipedia dans Google News --> la Vérité Analogique en média à part entière?

Au tout début de ce blog, à l'occasion de l'attentat de Londres en 2005, j'avais été impressionné par le flot d'informations (ultra-précises) synthétisées en temps réel par la communauté des internautes contributeurs à Wikipedia. Le même phénomène s'est reproduit avec la récente catastrophe du vol Air France 447 entre Brésil et France: la page de Wikipedia est impressionnante et continue à vivre avec les dernières informations.

Cette précision et cette rapidité de production n'a pas échappée à Google non plus: il a décidé d'intégrer de telles pages dans son agrégateur d'informations Google News.


Du point de vue de la pertinence pour le lecteur, c'est sûrement valide: des pages très actives de Wikipedia comme celles évoquées plus haut ont toute leur place dans un service d'agrégation en temps réel. En effet, des analyses comparatives passées ont montré que la qualité de Wikipedia valait des références mondiales historiques comme l'encyclopédie Britannica selon Nature.

Mais, du point de vue de la presse, c'est plus ambigu:
Ce pas en avant pour Wikipedia va susciter des réactions véhémentes dans la presse dès qu'il sera plus largement connu.

Mais, entretemps, force est de reconnaître que la "Vérité Analogique" qu'est Wkipedia gagne ici ses lettres de noblesse en tant que média de référence à part entière...

Cette intégration dans Google News de pages comme celles ci-dessus est clairement délibéré de la part de Google. Les "pages évolutives" (i.e améliorées en permanence) de Wikipedia constituent selon Marissa Mayer, VP chez Google, un meilleur modèle d'avenir pour le web que la litanie d'articles successifs publiés par un même site sur un même sujet: elles ajoutent à la confusion des 1'000 milliards d'URLs actuels.

En substance, cette représentante du plus haut niveau de Google a récemment dit ceci à la commission du Sénat américain qui réfléchit actuellement officiellement à l'avenir du journalisme: "Today, in online news, publishers frequently publish several articles on the same topic, sometimes with identical or closely related content, each at their own URL. The result is parallel Web pages that compete against each other in terms of authority, and in terms of placement in links and search results.

Consider instead how the authoritativeness of news articles might grow if an evolving story were published under a permanent, single URL as a living, changing, updating entity. We see this practice today in Wikipedia’s entries and in the topic pages at NYTimes.com. The result is a single authoritative page with a consistent reference point that gains clout and a following of users over time."

Mettre à jour une même page pour en faire progressivement une référence qui émerge finalement en haut des pages de résultats des moteurs est une remise en cause totale du modèle de fonctionnement séculaire des éditeurs.

Mais, à l'époque de l'économie de la sérendipité où le Pagerank est tout, c'est une proposition finalement très pertinente: il ne faut pas migrer vers le Web, il faut y muter son métabolisme!

Source: blog Media & Tech (par didier durand)

mercredi, juin 10, 2009

Facebook: (bientôt) autant de visiteurs que Google, Yahoo, Microsoft?

Les derniers chiffres publiés par Compete pour le marché américain: Facebook est en train de rejoindre le trio de tête des 3 dernières années de l'Internet: Microsoft, Yahoo, Google.

Facebook est crédité par Compete de 113 millions de visiteurs uniques en Avril: en suivant depuis 3 ans une trajectoire ascendante impressionnante (cf ci-dessous), il vient de passer #3 devant Microsoft.


Ma conclusion personnelle: le web a été un moyen d'informations dans sa première vie. Il devient maintenant un support du tissu social dans sa deuxième vie.

Et j'y crois: je découvre de jour en jour que même les moins geeks et les plus "montagnards" des habitants de mon village du Haut-Doubs ont leur profil Facebook. Tout le monde (y compris moi) se demande encore un peu ce que cela nous apporte vraiment et où cela nous mène vraiment. Mais, on y va tous: on va donc bien finir collectivement par trouver à quoi cela bien finalement servir...

Source: blog Media & Tech (par didier durand)

Youtube: 1'200 millions de vidéos vues par jour! la nouvelle télévision ?

Si on suit l'analogie faite par Techcrunch qui a confirmé le chiffre auprès de Google, la maison-mère, chaque internaute regarde en moyenne chaque jour une vidéo sur Youtube puisque nous sommes désormais plus d'un milliard d'internautes sur cette planète.

Cette activité de consultation donne une avance colossale (cf ci-dessous) en parts de marché par rapport à tous ses poursuivants!

L'évolution est vertigineuse: trafic multiplié par 12 en 3 ans! L'intérêt pour "youtubospectateurs" est maintenant par une communauté de producteurs en mode UGC très prolifique (15 heures nouvelles chargées chaque minute)

Continuons-le jeu des multiplications: il y a 3 ans, l'infrastructure Youtube (en part. son réseau) coûtait 1 million par mois. Aujourd'hui, elle doit donc coûter au moins 150 millions de dollars. Avec un revenu autour de 200 millions de dollars et sans avoir compter aucun coût de ressources humaines (exploitation, développement, etc.), on voit qu'il reste très peu de place pour des profits nets dignes de ceux de la maison-mère qui tournaient autour de 30% (jusqu'à la crise...). Sa déception est donc expliquée...

PS: je crois en ces chiffres car je peux vous dire qu'à la maison, le laptop et Youtube ont remplacé la TV pour Durand Junior. Il passe certes la soirée avec nous dans le salon mais regarde ses "trucs" sur Youtube (du ski freeride, du skate-board, du vtt...) sur son écran personnel pendant que sa mère et moi nous partageons le grand écran.... Je suppose que cette situation est en train de devenir la norme dans toutes les familles et donc les statistiques ci-dessus - 1 vidéo par internaute et par jour - me paraissent tout à fait vraisemblables vu que Junior en regarde pour au moins 30 personnes !

Source: blog Media & Tech (par didier durand)

lundi, juin 08, 2009

Publicité en ligne: -11% - net déclin! Récession ?...

La publicité sur Internet n'est pas immunisée contre la crise. Le graphe que vient de publier l'Internet Advertising Bureau le montre clairement:

Donc, le marché américain se rétrécit de 5% sur un an avec un chiffre d'affaires global de 5.5 milliards pour le 1er trimestre 2009.

C'est surtout la chute séquentielle de près de 11% par rapport au dernier trimestre 2008 qui peut inquiéter: le graphe montre clairement que c'est la plus forte chute depuis 2001, plus violente que lors de l'éclatement de la "bulle Internet". Même si le 1er trimestre de la publicité Internet d'une année est toujours faible par rapport au dernier de l'année précédente, un retour de bâton de cette ampleur est une nouveauté... dont on se serait passé.

Je l'annonçais déjà il y a un an et Google a d'ailleurs récemment confirmé la tendance avec son déclin séquentiel historique de 3%.

Donc, pour ceux qui n'en étaient pas encore convaincus, il faut maintenant l'admettre: la récession médiatique est bien là .... et générale.

Que les startups qui démarrent maintenant avec la publicité comme unique moyen de financement prévoient bien "leur couverture de survie" !....

Source: blog Media & Tech (par didier durand)

Technologie de transcodage NACA (Linux Days 2009 - Genève)

UPDATE 01-2012: Le projet NACA a donné naissance à Eranea, société dédiée à la migration 100% automatisée de grandes applications métier vers Java et Linux. Voir  www.eranea.com ou email à contact@eranea.com pour plus d'informations
_______________________________________________________________________
Lors de notre présentation de ce vendredi aux Linux Days 2009, mon compère Pierre a eu l'occasion de dévoiler des détails techniques de notre transcodeur que nous n'avions jamais évoqués publiquement en présentant le projet NACA jusqu'à présent.

Donc, si vous êtes intéressé par une telle technologie de transcodage (i.e trans-compilation) automatique de Cobol vers Java, les slides ci-dessous sont à lire en détails:
(NB: il y a 26 slides si vous lisez les annexes):
  • caches à tous les niveaux, en particulier au niveau base de données
  • pré-allocation des structures mémoire pour minimiser l'impact du "garbage collector"
  • avantages d'une structure technique très fortement orientée object
  • intégration et debugging avec Eclipse
  • avantages de la structure "ligne à ligne" choisie pour les nouveaux programmes Java
  • support des diverses JVM, en particulier de celle d'IBM pour les procédures stockées de la base de données
  • problématique des jeux de caractère (mainframe vs Linux vs Windows) pour ordre de tri, etc...
  • gestion des structures de données imbriquées Cobol et représentation / traitement en Java
  • indépendance batch <> transactionnel apportée par le framework.




Pour les fans du PDF, voici le fichier de la présentation technique NACA

Et puis le mieux, c'est de les essayer vous-mêmes, non? voir la page de téléchargement.

De mon côté, j'ai repris la présentation habituelle (Mont-de-Marsan 2008, Paris 2009) du projet:

  • un environnement mainframe a des coûts récurrents annuels élevés: c'est une vraie opportunité dans un tel projet. Il faut donc avoir une communication simple envers le management autour d'un but unique pour lui faire supporter un tel projet: faire des économies massives à travers une migration vers Linux/Java. 3 millions d'euros annuels récurrents pour nous! L'économie est la plus grande vertu de l'Open Source pour une entreprise quoiqu'en dise ses évangélistes "fondamentalistes".
  • faire migrer les hommes en place dans l'ancien monde vers le nouveau en leur laissant le temps de migrer aussi leurs compétences. C'est pour cela que, chez Publicitas, nous avions décidé de prendre 4 ans: pour se laisser le temps d'apprendre donc de basculer sans crainte du changement! Le jeu des "jeunes loups (de l'OSS) contre les vieux crocodiles (du mainframe) est un affreux cul-de-sac....
  • l'iso-fonctionnalité d'une telle migration est essentielle: elle en permet l'automatisation totale (à partir d'outils comme ceux que nous avons mis en Open Source à l'issu du projet) qui à son tour en permet la qualité excellente.
  • la migration sans big bang mais par une "infinité de petits pas réversibles" (donc sans grand risque ni frustration résultante...) est le chemin le plus sûr pour atteindre le but




Pour les fans du PDF, voici le fichier de la présentation générale NACA

Source: blog Media & Tech (par didier durand)

mercredi, juin 03, 2009

[Truc perso] récupérer des photos détruites sur sa carte-mémoire = Smart Recovery

Madame Durand nous a fait des sueurs froides: un "Supprimer" malencontreux, à la place d'un "Déplacer", dans le gestionnaire de fichiers de Windows et hop 520 photos de la tribu sur plusieurs mois parties en "fumée virtuelle"sur la carte mémoire de l'appareil-photo numérique familial...

Un coup de Google avec les bons mots-clefs et je tombe sur le programme PC Inspector Smart Recovery: je le télécharge, l'installe, le lance. Il reparcourt tous les secteurs mémoire de la carte et me restaure les 520 photos perdues sans coup férir!

Un double bravo (... et un énorme merci!) aux développeurs de chez Convar:
  • leur programme fonctionne simplement et parfaitement
  • il est en plus gratuit
C'est donc ma recommandation du jour! Si vous avez des équivalents, faites-nous les partager svp.

PS: si à l'occas j'ai besoin de services payants similaires à ceux qu'ils offrent, je renverrai l'ascenseur. C'est sûr.

Source: blog Media & Tech (par didier durand)

mardi, juin 02, 2009

Journaux aux USA: 20 ans de progression des revenus effacés!

PaidContent confirme par des chiffres en provenance de la NAA pour les journaux américains ce que nous voyons tous actuellement autour de nous: les dégâts de la crise:
  • des revenus totaux (publicité + vente) en chute de 28.1%
  • le déclin des revenus publicitaires papier se monte à 29.7% pour un total de 5.9 milliards de dollars
  • même la publicité online sur leurs sites part en vrille avec -13.4% avec 696.3 millions de dollars. C'est une tendance générale sur le marché Internet.
  • l'industrie américaine va retomber sous les 30 milliards annuels: elle retourne ainsi en 1987 bien loin des 50 milliards frôlés en 2005.
On comprend mieux pourquoi ceux qui le peuvent (i.e Google) thésaurisent: on ne voit pas le bout du tunnel!

Position "dos rond" pour tout le monde ! (Y-a-t-il autre chose à faire que tenter d'esquisser un sourire en attendant que cela passe ?...)

Source: blog Media & Tech (par didier durand)

[Fun] JC Frog: backup, standup!

Après le grand Jacques (Brel) et son port 80, JC Frog parodie aujourd'hui un standard de Bob Marley avec "Back up, Stand up". Je suis toujours aussi fan!

Wake up Backup! from jcfrog on Vimeo.



Allez voir jusqu'au bout: c'est pour la bonne cause!

Source: blog Media & Tech (par didier durand)