samedi, janvier 31, 2009

[Fun] Dans le port quatre vins !

J'ai adoré et en plus, Amsterdam est ma chanson préféré du grand Jacques. J'espère que vous aussi....


Dans le port 80 from jcfrog on Vimeo.

Jérôme, Bravo! J'ai adapté l'orthograhe pour le fun: ok pour toi au niveau des droits d'auteur? ;-)

Source: blog Media & Tech (par didier durand)

Youtube: valeur stratégique des 21'000 heures de vidéos nouvelles chargées quotidiennement

Au sommet économique de Davos, Chad Hurley, fondateur de Youtube (maintenant un homme riche....) a donné un chiffre intéressant: 15 heures de vidéos nouvelles chargées par les membres chaque minute. C'est une progression de 15% en quelques mois. Impressionnant

Cela fait un joli total de 21'000 heures nouvelles ajoutées au patrimoine de Youtube chaque jour. C'est une des raisons qui font que Youtube attire 100 millions de vidéospectateurs uniques par mois rien qu'aux USA.

Bien sûr la qualité est très inégale : elle génère la frilosité des annonceurs et, en conséquence, la déception de la maison-mère Google qui veut plus que les 200 millions de dollars annuels actuels.

Mais, quand on met l'ensemble des pièces du puzzle bout à bout, il apparaît que Youtube construit actuellement une démarche stratégique à très fort potentiel:
Donc, en combinant ces points, on peut s'attendre à ce que Youtube finisse rapidement sur les téléviseurs de Mr Tout Le Monde, qu'il touche ainsi une audience bien plus large et qu'il puisse alors commencer à croquer le gros gâteau de la publicité TV.

On revient alors à une vieille stratégie de la maison-mère Google: la croissance via les médias traditionnels! ..... même la récente actualité de Google Print Ads semble montre le contraire.

Elle matérialisera financièrement dans le monde des médias traditionnels aux revenus bien établis la troisième hégémonie de Google.

Source: blog Media & Tech (par didier durand)

mardi, janvier 27, 2009

epoch timestamp: time() = 1234567890

Un bref post très geek:

la fonction time() (i.e. heure courante) de PHP ou ses équivalents en Perl, Java, Javascript, etc... donneront le résultat 1234567890 le 14 février 2009 à 00:31:30. Fun, non ?

ce chiffre correspond aux nombres de secondes depuis "Unix Epoch" (i.e. le 1 janvier 1970 à 00:00:00), le début du monde sur Unix.

On risque de reparler de ceci pour le bug de l'an 2038: jour où les compteurs entiers sur 32 bits représentant ces dates boucleront pour revenir à 0. D'ici là, le mode 32 bit sera sûrement mort et on n'aura pas à refaire le b...del (inutile!) de l'an 2000.

[Via tomhtml]

Source: blog Media & Tech (par didier durand)

lundi, janvier 26, 2009

Youtube: le pape Benoît XVI sur la chaîne Vatican


le pape Benoît XVI dispose de sa propre chaîne sur Youtube depuis ce vendredi: elle va bien sûr lui servir à prêcher la bonne parole.

Il y rejoint:
Youtube devient donc vraiment un vecteur de propagande. Sa puissance en tant que tel va encore s'accentuer: plus besoin de PC, un simple téléviseur va suffire puisque la technologie Flash (i.e le format de base de Youtube) va bientôt (... au milieu de l'année 2009) être en standard sur nos téléviseurs déjà connectés à Internet via les Livevebox et consors. Les foules du "peuple d'en bas" vont pouvoir être touchées sans effort spécifique.

De plus, Youtube généralise actuellement la haute qualité (commencée il y a longtemps): la partie du pouvoir de persuasion imputable à la qualité ds images va encore augmenter!

Conclusion: " je Tube donc je suis!"

PS: si vous connaissez des chaînes de personnalités politiques / civiles autres, un commentaire pour nous les indiquer sera appréciés.

Source: blog Media & Tech (par didier durand)

vendredi, janvier 23, 2009

Blackberry: ok à la Maison Blanche mais ko à l'Elysee!

Le Blackberry est interdit de séjour à l'Elysee et dans les ministères français car "L'ensemble des données traitées par les Blackberry, fabriqués par la société canadienne Research in Motion (RIM), transite par des serveurs situés aux Etat-Unis et en Grande-Bretagne. En clair, poursuit Le Monde, la France redoute que le réseau d'interception de communications de la National Security Agency (NSA) américaine ne puisse espionner l'action du gouvernement."

Le président Obama a pu conserver le sien moyennant "une protection anti-hackers censé lui permettre de communiquer sans souci avec ses proches et collègues. "C'est une façon pour lui de rester en contact avec les gens, un moyen de sortir de sa bulle dans laquelle il va être confiné", a déclaré Robert Gibbs, le porte-parole du président américain."

La conséquence : "tous les messages émis et reçus sur le téléphone portable d'un président en cours de mandat sont automatiquement classés dans le domaine public et peuvent être utilisés contre lui plus tard."

Qui a raison ? La Maison Blanche à Washington ou l'Elysee à Paris?

Source: blog Media & Tech (par didier durand)

Microsoft et Internet: déficit de 500 millions de dollars au dernier trimestre 2008


Techcrunch met le doigt sur un point qui fait mal dans les derniers résultats de Microsoft: la firme de Redmond a fait un déficit de 471 millions de dollars au dernier trimestre - voir graphique ci-dessus - autour de ses activités Internet (MSN, Live Search et le service Adcenter, ).

C'est la seule division dans le rouge de la société alors que c'est celle qui est au coeur de la stratégie de Microsoft redéfinie par Ray Ozzie. Un paradoxe qui s'exprime clairement dans les regrets de Steve Ballmer face à Google qui lui fait tout ce qu'il peut pour (commencer à) manger le "gâteau historique" de Microsoft.

Entre rêve (= stratégie du management) et réalité, le fossé est parfois dur à combler!

Source: blog Media & Tech (par didier durand)

jeudi, janvier 22, 2009

Feedburner part en vrille?

Je suis réconforté de voir que d'autres ont le même problème que moi: Feedburner devient du grand n'importe quoi:
  • le retard à la distribution du contenu par RSS peut prendre des heures
  • les statistiques de lecteurs, c'est n'importe quoi: ce blog est en baisse théorique de 30% sur les lecteurs par RSS (1'900 affiché actuellement en colonne de droite alors que le chiffre réel habituel est aux alentours de 2'600)
  • etc...
ça râle sur Twitter:

Michael Arrington, fondateur de Techcrunch, se fâche tout rouge car, lui, il en vit de la distribution rapide des scoops de son flux comme un fleuriste qui vivrait de la rapidité d son véhicule pour assurer la qualité des produits livrés.... [Moi, je suis plus zen]

Mais, Mr Google, il faut faire quelque chose: des problèmes ponctuels Feedburner, on en a déjà eu et on en aura encore. On peut donc les accepter! Par contre, laisser mourir à petit feu un service aussi bien conçu (dont j'ai été fan de la première heure) après l'avoir acquis à grands coups de millions, ça me fait mal! Je crois que la devise maison c'était "don't be evil"?

Un des mauvais revers de la gratuité à tout crin`?

Source: blog Media & Tech (par didier durand)

mercredi, janvier 21, 2009

Google Print Ads: fin de l'expérience !

Google met fin à l'expérience Google Print Ads: il n'assurera donc plus la commercialisation des annonces dans les journaux via l'extension de la plate-forme Adwords pour ce media supplementaire.

Ce sont 800 journaux à ce jour qui doivent oublier ce nouveau canal d'intermédiation de leur publicité.

Cela voudrait-t-il dire que Google ne croît plus au fait que sa croissance proviendra des médias traditionnels?.... Ou est-ce seulement une conséquence - temporaire - de la récession qui touche d'ailleurs les journaux américains de plein fouet.

La publicité Internet représente à moins de 10% (cf chiffres eMarketer pour les seuls US) du marché publicitaire mondial estimé aux alentours de 630 milliards de dollars par an. La presse, c'est environ 40%!

Donc, du côté de Mountain View, plus d'envie de dominer le monde par une intermédiation publicitaire tous azimuths?

Ce que l'on en pense chez les concernés (j'en fais partie):
  • que c'est sûrement un peu de répit toujours bon à prendre quand un colosse agressif de ce type se détache de votre secteur d'activité
  • que c'est par ailleurs inquiétant qu'il s'en détache car cela signifie qu'il n'y voit pas de bonnes perspectives à terme: si ce n'est que pour lui, ce n'est pas grave. Si il est pessimiste pour toute l'industrie, plus gênant!
Les mois qui viennent seront déterminants pour mesurer l'ampleur des dégats dans une industrie dont la santé reste quoiqu'on en dise vitale pour les démocraties digne de ce nom!

Source: blog Media & Tech (par didier durand)

lundi, janvier 19, 2009

Publicité internet en France: 2 milliards d'euros pour 2008!

source: ZDNet

Le Syndicat des régies Internet et Capgemini Consulting ont publié vendredi leurs données sur la publicité sur Internet en France en 2008: c'est la première édition du nouvel "Observatoire de l'e-pub"

Les recettes publicitaires nettes sur Internet sont en hausse de 23% en 2008 pour un total de 2 milliards d'euros. Elles représentent désormais 6% du marché publicitaire français.

La part du lion va au "search advertising" en hausse de 35% à 800 M€. Les bannières sont en hausse de 10% à 510 M€, l’affiliation de 30% à 140 M€, l’e-mailing de 10% à 130 M€, et la promotion sur comparateurs de 15% à 90 M€. La portion du mobile reste congrue à 20 millions.

Ce canal publicitaire progresse à cause du nombre d'internautes grandissant (+10%) et surtout du temps passé en ligne (+40%). Le "always on" de l'ADSL y est sûrement pour beaucoup!

la croissance se poursuit donc au rythme (même révisé) des grands instituts de prédiction!

Les résultats de Google jeudi prochain nous diront si la récession de la presse atteint aussi le online marquant un coup d'arrêt à plusieurs années de cette euphorie grisante pour la publicité internet...

Source: blog Media & Tech (par didier durand)

samedi, janvier 17, 2009

Project NACA: open sourcing GPL/LGPL of the tools for transcoding Cobol programs to Java

 UPDATE: Project NACA has given birth to Eranea, a company dedicated to 100% automatic migration of mission-critical apps to Java & Linux. Check out www.eranea.com or email to contact@eranea.com for more information
 _________________________________________________________________________________

Publicitas publishes under Open Source license (GPL/LGPL) the source code of the tools developped to execute the project called NACA now successfully completed. Its aim was to migrate a homegrown Cobol application (named PUB 2000 - 4 millions lines of Cobol) running on an IBM/zOS mainframe toward its 100% iso-functional Java equivalent running on Intel-propelled Linux-based servers.
For those in hurry to get the package, the complete zip file is here:NACA-Package (Runtime, transcoder, Tests + docs)
This version is clearly v1.0, i.e a first delivery: it will get improved over time through the feedback and contributions returned by external testers running the tools on their own infrastructure. New versions of runtime libraries (JLib and NacaRT) can also be expected because they are still heavily used in our own environment on a daily basis for the transcoded version of Pub2000.
Why this choice of licenses? Because we want to avoid that professional service consultancies takes this code back to the proprietary zone for their own single benefit. For those players, GPL brings a set of constraints that maximizes the return of their improvements to the community by preventing them from locking the source code of their changes. For end-user companies, the freedom brought by GPL is totally appropriate.
From another perspective, the LGPL + GPL combination allows application software editors to migrate their applications through our tools (NacaTrans), link them to our runtime libraries (NacaRT and Jlib), distribute the source code of those libraries but not the source code of their own application so that they can remain competitive in the industrial sector of their application.
The tools that we deliver today (v1.0) in the zip package:
  • Doc: a set of documents explaining in details the tools and libraries. Your feedback around this documentation, its missing points, etc. is essential in order to improve it.
  • NacaTrans (license GPL - approx. 83′00 lines of code code & 690 Java classes): our transcoder that allowed us to convert 100% automatically the 4 millions lines of our PUB 2000 application in COBOL to Java. It is very much based on compiler technologies. It analyzes the structure of the initial COBOL programs (supposed 100% valid) to bring them in an intermediate xml structure before generating the final Java code that extensively calls functions and uses classes of the runtime library NacaRT, itself depending on JLib. This new Java source code was very carefully designed: each line of Cobol generates very intentionally a single corresponding line of Java. The aim is to look like as much as possible like the original COBOL code in order to ease the maintenance by the original developers / maintainers who master the structure of their original Java programs. The completeness of the accepted syntax for all variants of Cobol is of course not guaranteed. But our own 4 millions of lines of code as well as additional tests on other external application tend to prove that the current coverage of Cobol by NacaTrans is already very high. We want to improve this coverage through your feedback for valid constructs that we don’t support yet.
  • · NacaRT & Jlib (license LGPL - approx 153′000 lines of code & 890 Java classes): those are the 2 runtime librairie who provide all the runtime transactional services for the application. They emulate all teh functions of a classical transactional monitor like CICS from IBM. At the same time, they also support all the COBOL constructs (for example, COMMARÈA structure with multiple data representation masks, management of specific data format like COMP-X, etc.)
  • NacaRTTest (license GPL): this is a test suite allowing us to test the correct output of the transcoder on a set of reference COBOL constructs. It’s the way to validate part of our transcoding algorithms. For a new user of NACA, this is definitely the place to start: when this runs on oyur infrastructure, you can feel pretty confident about your installation of the package.
All those components are also delivered with Eclipse project description files in order to facilitate their setup in a standard Java environment.
Now, the answer to your last question already on your lips: why does Publicitas undertake this delivery?
  • Because Publicitas has received quite a lot from the OSS community for our NACA project. We had to give back as much as we can: with this contribution, we want to return our highest possible contribution to the dynamics of Open Source.
  • Because we believe that this set of tools heavily tested in our environment can be an excellent starting point for other similar projects by other companies also wishing to leverage Open Source software as we did.
  • Because we still want to improve our tools and libraries as they remain used on a productive basis to handle our 750′000 transactions / day . We are interested in improving both the runtime libraries since Pub2000 runs on them but also the transcoder NacaRT itself . We still use NacaRT on a very regular basis for the transcoding of some programs that our developers decided (for valid reasons) to maintain from their COBOL source code. We even developed an Eclipse plugin to make this task simpler and more efficient.
  • Finally, because Consultas, our internal IT entity, mostly aimed at serving other group entities, developed through this project a set of very specific competences that they would love to reuse in other similar contexts. Consultas’ engineers love this kind of challenges! If you plan your own NACA, they may want to be part of it.
Now, it’s you turn: take the package NACA-Package (Runtime, transcoder, Tests + docs), install it, run it and let us know: we’d love your feedback in the comments of this post.
PS: for more specific contacts around your particular case, don't hesitate to get in touch with us through a comment, a mail, etc....
Source: blog Media & Tech (par didier durand)

vendredi, janvier 16, 2009

Wordpress: 1/3 du top 100 Mondial des blogs! L'Open Source vers le pinacle....


PingDom continue de démontrer la dominance de l'Open Source sur les logiciels de base: après celle d'Apache sur les plus grands sites Web, la société nous montre celle de Wordpress parmi la crème de la blogosphère (i.e les 100 premiers blogs du monde selon le classement Technorati)

32 blogs au total sous Wordpress: 27 en mode indépendants et 5 en mode hosté sur Wordpress.com. le logiciel Wordpress (comme Apache) est donc à la fois élitiste et populaire puisqu'il sert en parallèle plus de 1 million de blogs en mode hosté sur wordpress.com.

L'investissement de capital-risque reçu il y quelque temps est ainsi justifié.

[Voilà qui me fait toujours regretter pour les raisons (thèmes, plugins) déjà évoquées d'être parti avec Blogger]

La proportion totale de l'Open dans ce top100 est encore plus importante: il faut ajouter Drupal, etc...

Je réaffirme à cette occasion ce que j'ai déjà dit sur l'Open Source: il devient petit à petit le seul type de logiciel viable pour l'infrastructure. C'est pour cela qu'il monte gentiment vers le pinacle.

En effet, ce n'est pas une réelle zone de concurrence pour la plupart des entreprises: il n'y pas de chemin plus logique que celui qui consiste à fabriquer tous ensemble le gâteau le plus savoureux possible duquel on pourra manger sa part dans une fête communautaire plutôt que de s'escrimer (à perte) à fabriquer son propre petit four que l'on consommera celle dans une autarcie tristounette!

Fun, mon analogie culinaire, non? Enfin, moi, je l'apprécie......

PS: pour bien démarrer avec WP dans la francophonie, il faut aller sur le blog www.wordpress-fr.net. C'est en fait d'ailleurs un site plus qu'un blog mais bien sûr il est propulsé par Wordpress. Il représente donc un excellent exemple "live" du type de site complet et riche que l'on peut monter sur la base de WP: les fonctions de gestion de contenu , de pages statiques permettent d'aller très loin en plus du journal chronologique représenté par le blog.

Source: blog Media & Tech (par didier durand)

jeudi, janvier 15, 2009

Project NACA: migration from an IBM mainframe to Intel/Linux servers - rationale and strategy.

UPDATE: Project NACA has given birth to Eranea, a company dedicated to 100% automatic migration of mission-critical apps to Java & Linux. Check out www.eranea.com or email to contact@eranea.com for more information
________________________________________________________________________________

[pour les lecteurs français: traduction - demandée par des lecteurs anglophones de ce blog - de la version originale en français qui reste à consulter ici pour les intéressés]
[for english readers: don't hesitate to get in touch to obtain additional detailed infos about the project]


This article will describe the NACA project run by Publicitas, advertising sales company based in Switzerland and executed by Consultas, IT subsidiary of the group. It is my employer.

the NACA project was about replacing an IBM mainframe under MVS/OS390 (zOS) with Intel servers on Linux. The project started in January 2003 and successfully ended on june 30, 2007, with the last 2 years much more active than the first2. It was on purpose implemented in a 100% iso-functional way, i.e. without any functional / applicational improvement brought during the process of trans-coding itself and by the transcoding engine. 4 millions lines of COBOL were 100% automatically trans-coded toward their Java equivalent.


The recurrent annual savings in cash-outs amount to a total of 3 millions euros, 85% of the initial yearly level. 
First of all, meaning of the project name:
  • in French, NACA = “Nouvelle Architecture Centrale d’Applications”
  • in English, NACA = “New Architecture for Core Applications”
As the title of the article and the project acronym imply, NACA was launched within Publicitas (Lausanne, Switzerland) to initially convert an IBM mainframe model G5 operated through the standard palette of “big iron” software (MVS/OS390/zOS, CICS, COBOL, DB2) toward its canonical equivalent in the Open Source world: Linux, Java, Tomcat, UDB. 
The aim was to transfer the homegrown administrative application (called PUB 2000 - developed at the end of the eighties) to state-of-the-art technologies, i.e modern and (cost) efficient. 
The first thoughts around the project emerged in July 2002 when we realized that Open Source software was gaining ground and was already heavily utilized for applications much more critical than ours. Multiple case studies were published about core applications in key industries: energy, aeronautics, space, finance, with famous names like Boeing, Sony, Nasa

Most of those industrial applications were run at much higher load with more severe performance / availability constraints than ours. Our own activity is around 750′000 transactions done by approx. 1′500 internal users.
From another perspective, the highly successful startups of that time like Google were demonstrating that Linux can be the cornerstone of a very large scale infrastructure delivering a complex service over the Internet, By that time, it wasn’t yet through 1 million servers delivering 120 billions pages per month but the load level of Google was already far higher than ours. About reliability, the proven resilience / reliability of Open Source is best described by Linus’ law (Linus = Linus Torwald, father of Linux) made famous in the essay of Eric Raymond named “The Cathedral and the Bazaar“: “given enough eyeballs, all bugs are shallow”.
All lights were green. So, we decided to launch the project knowing that many hurdles and unknowns were still in front of us: such a full migration from a mainframe under zOS was (minimally) to be considered as pioneer work. Some even said by that time that it was crazy or heretic…
But, we started to explore the technological possibilities for NACA because the first motivation was massive and critically important: the mainframe had a yearly cost of 3 millions euros paid to IBM and third parties and 2.5 millions euros, i.e. 80%+, were used operating the hardware.
The initial business case was simple (some even said simplistic…) : Open Source software is more or less free. IBM mainframe hardware can run Open Source. So replacing each component of the mainframe palette by its OSS counterpart would save us millions of euros. The only point being that you have to accept this brutal computation…
[Note: IBM was by then publishing figures saying that less than 1% of linux kernel had been modified to run on the mainframe hardware of series G]

So, mainframe Linux is clearly the same as the one running of Intel servers]
Those massive savings were attractive enough for the management and financial staff of Publicitas to authorize the project and support it further during the various troubled periods that always happen during the course of such a risky project. Those troubled times will be the core topic of a subsequent article.
We started NACA with following objectives and guidelines:
  • progressive migration: the one-shot “big bang” of a global migration from the old system toward the new one, implemented over a single week-end was banned from day 1 and for ever. All team members knew internal or external “big bang” projects that failed after a couple of unsuccessful “big step” trials. So, we decided to build our project path rather than as a very long stairway with as steps as possible, those steps being as small as possible. The idea was to achieve many incremental and irrevocable (but always reversible) successes.
  • 100% automatic and strictly iso-functional trans-coding: we did not want to mix genders between technology update and application improvement. This confusion inevitably leads to additional constraints becoming lethal most of time. So, we decided to migrate each COBOL function to its strictest equivalent in Java. So, at the end of the project, just the same application but delivering the same value for a drastically reduced cost. In addition, the automatic (i.e. costless) trans-coding means that the Cobol maintenance doesn’t have to be interrupted: the next run of the transcoder transfers the newly implemented Cobol code to its Java equivalent. So, the end users remain happy while the system engineers achieve their technological marathon over the many years of such a project.
  • continuation with teams in place: the employees loyal to the company and its IT system over 20 years are the best experts to execute a smooth migration. Knowing that system engineer spend their career learning new technologies, shifting to Linux is just another milestone on this road. We just added a couple of linux- and OSS-oriented “rookies” to accelerate the technology adoption.
The tactics of this progressive migration is clearly NOT to build the new system in parallel to (i.e separated from) the old one. It is rather about replacing one by one components of the legacy system with OSS technological equivalent in the live production environment. The target is to preserve the quality of service of the old world in the new system under permanent mutation. Thus, the end-users never perceive the launch of a new system but rather sense the permanent evolution of functions that have always been there. This evolution also brings improvements at no big cost: for us, THE example is the generation as pdf files of our administrative documents (orders, vouchers, etc.): in the mainframe world, it was always too expensive to be done but under Linux it came for free in course of migrating the print management system.
The consequent logical order is to start from the lower system layers of the system stack and then go up toward the application layer: the transcoded Pub2000 could not be launched before the ground layers were there!
The advantage of this bottom-up progression is clear: the existing systems engineers are the first employees to get involved. As such, they become clearly the owners of the new system and master all the Linux and other OSS technologies before anybody else. They feel then highly comfortable and have no fear of being displaced when the developers enter the game a few months later.
From another perspective, the iso-functional transcoding to Java is essential: by using such a cross-compiling tool (that we ended up developing by ourselves in order to achieve the 100% automation that we targeted initially - I’ll come back on that in a subsequent article), the functional maintenance of application is never interrupted. All changes made to Cobol are smoothly, instantly and at no cost transferred to the Java version in the next run of the transcoder (almost done on an hourly basis).

This relieves a very important constraint on the new Java / OSS version of the application: no firm release date is really needed from a functional standpoint. If, let say, a new legal function was implemented only in the new Java version after hand-tweaking of the half-baked java code, a delay on the productive release of the Java version could be dramatic for the entire project.
On the contrary, with the strategy that we chose for NACA, our developers did their functional maintenance on the cobol version (as they always did) until the new java version was satisfactorily used by 100% of our end users (progressively migrated groups by groups) for several weeks in the production environment. At this time only, the transcoded Java version of the application became the official new source code of PUB 2000. If any problem had occurred in this process and in the worst case, we could have brought 100% of the users back on the mainframe in matter of minutes.
It never occurred, by the way. 
But this careful and parallel progressive allowed us to make quietly some (unexpected) stops in user migration at points were some performance thresholds were reached in our Java architecture: our java / database experts would then adapt the system architecture or transcoding + runtime strategies to overcome the hurdle and we could proceed further with more migrated users. [All details in a subsequent article].
Last but not least, we wanted keep the very loyal teams in place even though the entire system was eventually changed. We offered all of them a very intensive OSS training package. The motivations were those:
  • Such a migration can’t succeed without full support of the team mastering the legacy system. Ten of thousands of tiny details (Remember: the devil is in them!) have to be handled for the project to succeed. So, hoping to generate competition by trying to oppose the young wolves of OSS to the old crocodiles of legacy mainframe would be a clear fatal mistake.
  • Most system engineers are used to change the horse that they ride (i.e the operating system that they master) many times over their career. At the end of the day, this is just another occurrence of such a switch! When they see that the world around them is deeply changing around them through a massive migration toward OSS, they welcome (with minimal resistance to change) any opportunity that allow them and their competences to also switch through a good training. Fundamentally, they are more experts in system architecture than in any specific operating system. It means that they just have to learn a new set of “bits and bytes” habits to transfer their expertise to the world of Linux and OSS. The core fundamentals of most operating systems remains essentially the same whatever the name of the OS is! It is just another command syntax and parameter definition format to learn…
To close this first episode, I would like to add that such a migration from proprietary world also brings intangibles advantages that are eventually almost as important (more important than ?) as the very sexy financial fact-based ROI that you can demonstrate for such a project. 
Those intangibles advantages can be presented in one sentence: “we are back in the market”. And even if you can’t equate this to euros, it has a clear value:
  • you can hire new engineers in a much simpler way: mainframe system engineers tend to become rare and then expensive!
  • you can interconnect the new version of the application in a so much easier way with other internal systems (CRM, SAP, etc..) as well as with external sites over the Internet (E-commerce, E-business). Those interconnections suddenly become 10 / 100 / (1000 ?) times more easier when you can rely on the full J2EE environment as well as on tons of open source java library.
You can then integration your home grown application in a much more flexible and efficient way to newer components of the IT systems: the old file exchanges, data conversion and import / export processes can disappear to be replaced by synchronous real-time data exchanges over any kind of remote procedure call. This clearly brings value to the business through processes that are accelerated.
As a conclusion, the only valid initial catalyst of such project are savings. They are so massive that they get the attention of any CIO. But, when those savings are achieved, another benefit probably even more important emerges: the company can now significantly improve its business through IT in ways that were only unachievable dreams before the migration. Some were not even anticipated!

And to close the loop, those improvements can even be financed through the savings just achieved via the migration…

mercredi, janvier 14, 2009

Table Microsoft Surface: concurrence bon marché déjà disponible

La table Microsoft Surface, vieille de 18 mois, reste pour moi une vraie innovation: ses application chez AT&T et chez BMW le prouvent.

Mais son prix reste actuellement rhédibitoire: une "MS-Surface" dans chaque foyer comme le souhaite Microsoft est donc utopique aujourd'hui! Redmond veut nous refaire le coût du "a computer on every desk and in every home, running Microsoft software", la mission originelle de Microsoft mais les équipes MS doivent faire moins cher pour y arriver.....

Eh bien, les chercheurs de Microsoft vont devoir se bouger pour atteindre l'objectif: la startup PQ Labs a lancé sa iTable / iTablet durant le récent CES 2009 avec des prix bien inférieurs à Microsoft. On commence à 2'400 $ pour tablette destinée à recouvrir un téléviseur standard 32" acquis par ailleurs.



[Je conseille de regarder la vidéo jusqu'à la fin]

C'est très similaire à Microsoft avec quelques améliorations:
  • le multi-touch contrôlé via le SDK: le programmeur définit combien il veut gérer de points de contact au maximum
  • un environnement Windows pour le SDK, soit la possibilité de redonner une nouvelle interface à des applications existantes sans les réécrire: voir l'exemple final du jeu PC.
A quand dans nos salons ?

Source: blog Media & Tech (par didier durand)

lundi, janvier 12, 2009

Emission CO2: 1'000 recherches Google = 1km en voiture

[Update: détails fort intéressants pointés par Hubert sur la méthode contestable de l'article Times of London (j'avais écrit "peu étayée".... Au moins, elle a provoqué la publication de chiffres par Google]

Quand j'ai lu l'article Times Of London (peu étayé sur sa méthode de calcul) et au vu de mon intense activité quotidienne sur Google , je me suis dit : "Wow, tu es un affreux pollueur!".

En effet, cet article annonce qu'une étude scientifique évalue à 7g de CO2 le montant des émissions toxiques dégagées par les 2 millions (estimés) d'ordinateurs des centres de calcul Google pour traiter une requête de recherche. Avec plus d'une centaine de milliard de recherches mensuelles, je vous laisse calculer l'étdendue des dégâts.

Nouvel haro (la liste est déjà longue...) sur Google en perspective !

Urs Hoelzle, le patron des opérations de Google, a visiblement été piqué au vif! Il ne pouvait laisser des choses pareilles sur son entreprise, très soucieuse de l'environnement et à l'origine de l'initiative "Climate Savers Computing".

Il répond donc quelques heures après pour donner une tonne d'infos énergétiques sur le traitement d'une requête:
Cette barre n'est pas encore atteinte par la majorité du parc, on peut donc dire, en prenant une moyenne de 200 g,
1 kilomètre en voiture = 1'000 requêtes Google

Je peux donc reprendre mon utilisation intensive: elle est finalement nettement moins polluante que d'aller dans une bibliothèque en voiture....

L'article du Times of London était donc 35 fois trop pessimiste .... à moins que Google ne soit trop optimiste. Une bataille de chiffres et d'experts va sûrement suivre: je vais la surveiller.

La mise à nu de Google continue: après le million d'annonceurs révélé contre sa volonté, Google doit maintenant se justifier en termes de pollution. Je vous l'ai dit il y bientôt 2 ans: le web impose progressivement et sans retour arrière possible une transparence totale aux entreprises. La conséquence de cette transparence est la bonne conduite!

La déontologie et la pratique citoyenne vertueuse ont donc de beaux jours devant elles.

C'est au moins un bon point pour l'Internet accusé par ailleurs de biens d'autre maux: vecteur de propagande terroriste, de pédophilie, etc....

Source: blog Media & Tech (par didier durand)

vendredi, janvier 09, 2009

Google Adwords: 1 million d'annonceurs clients!

Chez Google, on compte tout en millions (sauf le chiffre d'affaire en dizaines de milliards de dollars...):
Malgré son culte et sa culture du secret, Google a dû livrer le nombre de ses clients à la commission de bourse américaine (la SEC). Jusqu'à présent, on savait seulement qu'ils étaient "plusieurs centaines de milliers".

En fait, l'historique communiqué à la SEC est le suivant:
On doit donc être autour de 1.5 millions de ces annonceurs en ce début de 2009 !

Il faut bien sûr relier de tels chiffres l'hégémonie multiple (search, vidéo, etc...) de Google au niveau des services: les annonceurs de toute la planète doivent maintenant passer obligatoirement par lui pour toucher leurs prospects le plus haut possible dans leur chaîne de création de "valeur ajoutée informationnelle".

Avec 1'000 milliards de pages maintenant accessibles, la tendance n'est pas prête de s'inverser: Google est clairement la boussole incontournable du web actuel...

Il ne faut par contre pas faire de division mathématique trop hâtive pour trouver le chiffre d'affaires moyen par annonceur: les statistiques régulières de l'IAB montre que le marché de la publicité en ligne (aux USA au moins) est fortement concentrée.

Ce qui est par contre certain: bien que que le trafic sur Google soit en centaines de milliards de pages mensuelles, une telle compétition entre cette immense nuée d'annonceurs va bien sûr continuer à faire monter le prix du clic! C'est le principe fondamental d'un système de ventes aux enchères....

Source: blog Media & Tech (par didier durand)

jeudi, janvier 08, 2009

DRM et Mp3: Apple iTunes émancipe la musique ! Réactions en chaîne....

Apple vient d'annoncer l'émancipation de la musique sur son magasin en ligne iTunes: il n'y (bientôt) a plus de DRM sur les 10 millions de titres MP3 en rayon. La vidéo n'est pas encore concernée. Apple a dû faire des concessions aux majors du disque pour lever cette barrière: le prix sacro-saint de 99 cents par chanson devient maintenant variable (afin sûrement de maximiser les revenus sur les artistes en vogue....)

Réaction en chaine depuis sur la planète:
Les David suivent le Goliath de la musique en ligne.

Mais, pourquoi Goliath (i.e. Steve Jobs) a-t-il bougé ?

Parce que selon Techcrunch, la croissance de iTunes stagne: on vient de passer le cap des 6 milliards de chansons vendues mais il a fallu à chaque fois le même temps (5 mois et demi) pour vendre chacun des 2 derniers milliards.

C'est inquiétant alors que le nombre de clients (75 millions de comptes avec carte de crédit actuellement) explose toujours via le succès de l'iPhone et de l'iPod Touch

Steve Jobs a dû arriver à la conclusion que le verrouillage d'un titre acheté sur le seul matériel utilisé au moment de l'achat devenait un goulet d'étranglement pour iTunes à un moment où les clients commencent à posséder plusieurs lecteurs MP3( téléphone, lecteur dédié, etc...).

Ils ont l'impression d'avoir le droit au moins de placer leur chanson sur tous leurs appareils personnels ... sans parler d'échanges avec famille et amis proches (je ne parle bien sûr pas d'échanges P2P). Comme ils ne peuvent pas le faire, ils n'achètent pas (plus).

Steve Jobs enlève les menottes en faisant le pari de l'honnêteté fondamentale de l'individu qui réouvrira le porte-monnaie si on ne fait pas tout ce qui est possible pour l'embêter sur des limites un peu trop tâtillonnes souvent.... (Il a à mon avis raison !)

Le digital, c'est certes le monde de la traçabilité parfaite ... donc du contrôle total. Mais en abuser peut finalement se retourner contre ses partisans trop paranoiaques. Le commerce physique est habituel de la confiance au client. Le commerce électronique de biens digitaux doit arrêter de se targuer de sa transparence (potentielle) totale et revenir aux bonnes vieilles pratiques commerciales positives de l'épicerie du coin!

PS: encore un pas de plus vers la musique gratuite sponsorisée?

Source: blog Media & Tech (par didier durand)

mardi, janvier 06, 2009

Nouveau flux RSS "officiel" pour ce blog

En tant que propriétaire de Feedburner, Google a migré le feed RSS pour ce blog de Feedburner vers sa propre infrastructure.

  • L'ancien flux était : http://feeds.feedburner.com/MediaTech . Il fonctionne toujours pour une "certaine période" selon les dires de Google
  • Le nouveau est: http://feedproxy.google.com/MediaTech
Il n'y pas urgence à le faire mais je souhaite rester parmi vos lectures ! ;-)

Merci donc de bien vouloir basculer de l'ancienne URL RSS vers la nouvelle dans votre lecteur de news favori.

PS: au passage, j'ai pu activé la publicité dans mon flux RSS via AdSense. Mais à ce jour, les résultats sont très peu probants: in taux de clic incroyablement faible. Encore pas cette fois (non plus...) que je deviendrai riche! ;-)

Source: blog Media & Tech (par didier durand)

Google libraire online = 37% de commission de vente

Parmi les 7 millions de livres déjà scannés sur Google Books, il en est une bonne partie qui sont encore couverts par les droits d'auteurs.

Une partie de l'accord trouvé par Google avec les éditeurs dans la vieille polémique Google Books consiste à revendre pour eux l'accès online aux livres scannés afin d'en améliorer les revenus globaux, en particulier pour ceux qui ne sont plus disponibles à la vente car épuisés et sans nouveau tirage prévu. 5 des 7 millions de livres actuellement scannés sont dans ce cas.

Pour ce service, Google gardera une commission de 37% et restituera donc 63% aux éditeurs. Cette commission est environ le double de ce que Google garde pour la publicité online sur le réseau AdSense.

La valeur ajoutée est donc estimée plus élevée !...

Source: blog Media & Tech (par didier durand)

lundi, janvier 05, 2009

Google Android sur netbook: le premier portage "improbable" souhaité se matérialise!

Quand les ingénieurs de Google ont mis l'intégralité du code d'Android en open source (dont la machine virtuelle Java nommée Dalvik et réécrite pour l'occasion), ils l'ont fait sous la licence Apache Software Licence (ASL) v2.0.

Donc, à Mountain View, on souhaite très clairement maximiser l'utilisation de ce logiciel, et ce bien au-delà du téléphone portable: Google voit en Android une plate-forme logicielle quasi-universelle utilisable dans une multitude de gadgets et produits électroniques divers.

Pour atteindre cette universalité, Google a choisi une licence Open Source très permissive: l'ASL permet de prendre le code source public, de le modifier à volonté et de le garder ensuite totalement propriétaire.

Ce choix était impératif pour maximiser la pénétration d'Android et briser les embûches posées par les maîtres du marché à un entrant tardif: une licence type GPL est très coercitive pour les gadgets électroniques, elle impose une publication des codes sources modifiés ce qui est rhédibitoire dans beaucoup de cas: les fabriquants bannissent d'entrée tout greffon Open Source qui les obligerait à publier leur valeur ajoutée.

Eh bien, la "flexibilité" de Google sur le sujet commence à payer: un portage d'Android sur un gadget "improbable" mais souhaité vient de se produire: le système d'exploitation Google Android fonctionne sur les netbooks EeePC.

Selon les auteurs de ce portage, ce fut quasiment simple!

Les conséquences:
  • comme le disent Korben et Eric, certainement prochainement des netbooks / sub-PCs officiellement équipés en logiciel par Google. Après la concurrence indirecte via le web par Google Docs, c'est maintenant la concurrence frontale sur le poste de travail avec Microsoft! Du lancer de chaises sur "f..cking Google" en perspective à Redmond
  • un portage prochain garanti d'Android sur iPhone d'Apple: le noyau Linux y fonctionne déjà et Android marche par ailleurs sur des téléphones Nokia. Steve Jobs va faire des bonds si il est réduit à la seule fonction de producteur de hardware lui qui tient tant à contrôler le 100% de l'expérience-utilisateur et qui est persuadé que c'est majoritairement par le logiciel qu'elle survient...
  • un encouragement certain aux constructeurs divers et variés (automobiles, téléviseurs, machines à laver, enregistreurs numériques) moins "connexes" que les fabricants de Netbooks mais beaucoup plus soucieux de leur valeur ajoutée d'utiliser une telle plate-forme logicielle comme interface utilisateur des produits qu'ils conçoivent actuellement. De toute façon, Google est déjà dans mon téléviseur ou ma voiture pour certains services alors pourquoi pas appuyer ces services sur son propre logiciel? Et puis, le jour où tout ce petit monde est "online", le logiciel d'interface sera déjà 100% orienté web donc tout bénéfice pour toutes les parties (Google, utilisateurs, fabriquants, etc.)
Ce portage est donc un premier petit pétard "joyeux" sans grosse conséquence directe immédiate mais il pourrait bien annoncer le feu d'artifice de l'ubiquité future d'Android!

Source: blog Media & Tech (par didier durand)

Projet NACA présenté au salon Solutions Linux 2009

UPDATE 01-2012: Le projet NACA a donné naissance à Eranea, société dédiée à la migration 100% automatisée de grandes applications métier vers Java et Linux. Voir  www.eranea.com ou email à contact@eranea.com pour plus d'informations
_______________________________________________________________________
Notre projet NACA de conversion mainframe/Cobol vers Linux/Java sera présenté au salon Solutions Linux 2009 le 1er Avril à Paris. J'y reparlerai bien sûr de la mise en Open Source (GPL) de nos outils maison qui nous ont servi à convertir 100% automatiquement nos 4 millions de lignes de Cobol.

Voir le programme complet de Solutions Linux 2009 en page 10 pour les détails précis

Mon exposé sera la continuité des RMLL2008 à Mont-De-Marsan: le powerpoint de l'époque reste une bonne introduction.

Je sais: je m'y prends tôt pour l'annoncer mais l'overbooking nous guette tous, n'est-ce pas ? [Faites-moi signe si vous y serez aussi: un café, une bière, c'est toujours sympa!]

Rappel sur NACA

le projet NACA a conduit au remplacement d'un mainframe IBM sous MVS/OS390 par des serveurs Intel sous Linux. Le projet a été lancé en Janvier 2003 et s'est terminé avec succès au 30 Juin 2007. Il a été réalisé volontairement de manière 100% iso-fonctionnelle (i.e. sans aucune modification pendant et par le transcodage) pour l'application et a permis la conversion automatisée de 4 millions de lignes de Cobol vers leur équivalent Java. L'économie en cash-outs - paiements externes - est de plus de 85% de leur montant annuel = initial d'environ 3 millions d'euros annuels

Articles déjà parus:

Source: blog Media & Tech (par didier durand)

Bonne année 2009!

Ce sera court mais sincère: je souhaite ici aux fidèles lecteurs de ce blog une excellente année 2009 d'abord sur le plan personnel et familial puis sur le plan professionnel.

Dans le boulot, cela ne s'annonce pas forcément des plus simples pour bon nombre d'entre nous mais on va faire le gros dos tous ensemble et elle passera (comme les précédentes...) cette satané crise!

Bon courage et surtout bonne santé!

Source: blog Media & Tech (par didier durand)