samedi, janvier 31, 2009
[Fun] Dans le port quatre vins !
Dans le port 80 from jcfrog on Vimeo.
Jérôme, Bravo! J'ai adapté l'orthograhe pour le fun: ok pour toi au niveau des droits d'auteur? ;-)
Source: blog Media & Tech (par didier durand)
Youtube: valeur stratégique des 21'000 heures de vidéos nouvelles chargées quotidiennement
Cela fait un joli total de 21'000 heures nouvelles ajoutées au patrimoine de Youtube chaque jour. C'est une des raisons qui font que Youtube attire 100 millions de vidéospectateurs uniques par mois rien qu'aux USA.
Bien sûr la qualité est très inégale : elle génère la frilosité des annonceurs et, en conséquence, la déception de la maison-mère Google qui veut plus que les 200 millions de dollars annuels actuels.
Mais, quand on met l'ensemble des pièces du puzzle bout à bout, il apparaît que Youtube construit actuellement une démarche stratégique à très fort potentiel:
- malgré la récession qui touche les médias, Google peut être patient dans cette construction car ses résultats commerciaux / publicitaires restent très bons.
- les constructeurs de téléviseurs simplifient actuellement la démarche pour mettre Youtube sur les téléviseurs de nos salons: il fallait encore un dispositif à la Apple TV il y a peu, maintenant, Flash d'Adobe (la technologie de rendu des vidéos sur Youtube) arrive sur dans nos téléviseurs sans besoin de périphérique externe.
- Youtube a commencé depuis longtemps a encodé les vidéos en haute qualité pour qu'elles rendent mieux sur les grands écrans (de nos téléviseurs....)
- La publicité Internet est dans la zone des 10% du marché publicitaire mondial global de 630 milliards de dollars: la vidéo sur Internet n'en prend qu'un fragment de 0.5%. La télévision elle est dans la zone des 40-50%! un facteur 100....
On revient alors à une vieille stratégie de la maison-mère Google: la croissance via les médias traditionnels! ..... même la récente actualité de Google Print Ads semble montre le contraire.
Elle matérialisera financièrement dans le monde des médias traditionnels aux revenus bien établis la troisième hégémonie de Google.
Source: blog Media & Tech (par didier durand)
mardi, janvier 27, 2009
epoch timestamp: time() = 1234567890
la fonction time() (i.e. heure courante) de PHP ou ses équivalents en Perl, Java, Javascript, etc... donneront le résultat 1234567890 le 14 février 2009 à 00:31:30. Fun, non ?
ce chiffre correspond aux nombres de secondes depuis "Unix Epoch" (i.e. le 1 janvier 1970 à 00:00:00), le début du monde sur Unix.
On risque de reparler de ceci pour le bug de l'an 2038: jour où les compteurs entiers sur 32 bits représentant ces dates boucleront pour revenir à 0. D'ici là, le mode 32 bit sera sûrement mort et on n'aura pas à refaire le b...del (inutile!) de l'an 2000.
[Via tomhtml]
Source: blog Media & Tech (par didier durand)
lundi, janvier 26, 2009
Youtube: le pape Benoît XVI sur la chaîne Vatican
le pape Benoît XVI dispose de sa propre chaîne sur Youtube depuis ce vendredi: elle va bien sûr lui servir à prêcher la bonne parole.
Il y rejoint:
- Tony Blair
- la Reine d'Angleterre
- Barack Obama
- .... mais aussi les jihadistes
De plus, Youtube généralise actuellement la haute qualité (commencée il y a longtemps): la partie du pouvoir de persuasion imputable à la qualité ds images va encore augmenter!
Conclusion: " je Tube donc je suis!"
PS: si vous connaissez des chaînes de personnalités politiques / civiles autres, un commentaire pour nous les indiquer sera appréciés.
Source: blog Media & Tech (par didier durand)
vendredi, janvier 23, 2009
Blackberry: ok à la Maison Blanche mais ko à l'Elysee!
Le président Obama a pu conserver le sien moyennant "une protection anti-hackers censé lui permettre de communiquer sans souci avec ses proches et collègues. "C'est une façon pour lui de rester en contact avec les gens, un moyen de sortir de sa bulle dans laquelle il va être confiné", a déclaré Robert Gibbs, le porte-parole du président américain."
La conséquence : "tous les messages émis et reçus sur le téléphone portable d'un président en cours de mandat sont automatiquement classés dans le domaine public et peuvent être utilisés contre lui plus tard."
Qui a raison ? La Maison Blanche à Washington ou l'Elysee à Paris?
Source: blog Media & Tech (par didier durand)
Microsoft et Internet: déficit de 500 millions de dollars au dernier trimestre 2008
Techcrunch met le doigt sur un point qui fait mal dans les derniers résultats de Microsoft: la firme de Redmond a fait un déficit de 471 millions de dollars au dernier trimestre - voir graphique ci-dessus - autour de ses activités Internet (MSN, Live Search et le service Adcenter, ).
C'est la seule division dans le rouge de la société alors que c'est celle qui est au coeur de la stratégie de Microsoft redéfinie par Ray Ozzie. Un paradoxe qui s'exprime clairement dans les regrets de Steve Ballmer face à Google qui lui fait tout ce qu'il peut pour (commencer à) manger le "gâteau historique" de Microsoft.
Entre rêve (= stratégie du management) et réalité, le fossé est parfois dur à combler!
Source: blog Media & Tech (par didier durand)
jeudi, janvier 22, 2009
Feedburner part en vrille?
- le retard à la distribution du contenu par RSS peut prendre des heures
- les statistiques de lecteurs, c'est n'importe quoi: ce blog est en baisse théorique de 30% sur les lecteurs par RSS (1'900 affiché actuellement en colonne de droite alors que le chiffre réel habituel est aux alentours de 2'600)
- etc...
Michael Arrington, fondateur de Techcrunch, se fâche tout rouge car, lui, il en vit de la distribution rapide des scoops de son flux comme un fleuriste qui vivrait de la rapidité d son véhicule pour assurer la qualité des produits livrés.... [Moi, je suis plus zen]
Mais, Mr Google, il faut faire quelque chose: des problèmes ponctuels Feedburner, on en a déjà eu et on en aura encore. On peut donc les accepter! Par contre, laisser mourir à petit feu un service aussi bien conçu (dont j'ai été fan de la première heure) après l'avoir acquis à grands coups de millions, ça me fait mal! Je crois que la devise maison c'était "don't be evil"?
Un des mauvais revers de la gratuité à tout crin`?
Source: blog Media & Tech (par didier durand)
mercredi, janvier 21, 2009
Google Print Ads: fin de l'expérience !
Ce sont 800 journaux à ce jour qui doivent oublier ce nouveau canal d'intermédiation de leur publicité.
Cela voudrait-t-il dire que Google ne croît plus au fait que sa croissance proviendra des médias traditionnels?.... Ou est-ce seulement une conséquence - temporaire - de la récession qui touche d'ailleurs les journaux américains de plein fouet.
La publicité Internet représente à moins de 10% (cf chiffres eMarketer pour les seuls US) du marché publicitaire mondial estimé aux alentours de 630 milliards de dollars par an. La presse, c'est environ 40%!
Donc, du côté de Mountain View, plus d'envie de dominer le monde par une intermédiation publicitaire tous azimuths?
Ce que l'on en pense chez les concernés (j'en fais partie):
- que c'est sûrement un peu de répit toujours bon à prendre quand un colosse agressif de ce type se détache de votre secteur d'activité
- que c'est par ailleurs inquiétant qu'il s'en détache car cela signifie qu'il n'y voit pas de bonnes perspectives à terme: si ce n'est que pour lui, ce n'est pas grave. Si il est pessimiste pour toute l'industrie, plus gênant!
Source: blog Media & Tech (par didier durand)
lundi, janvier 19, 2009
Publicité internet en France: 2 milliards d'euros pour 2008!
Le Syndicat des régies Internet et Capgemini Consulting ont publié vendredi leurs données sur la publicité sur Internet en France en 2008: c'est la première édition du nouvel "Observatoire de l'e-pub"
Les recettes publicitaires nettes sur Internet sont en hausse de 23% en 2008 pour un total de 2 milliards d'euros. Elles représentent désormais 6% du marché publicitaire français.
La part du lion va au "search advertising" en hausse de 35% à 800 M€. Les bannières sont en hausse de 10% à 510 M€, l’affiliation de 30% à 140 M€, l’e-mailing de 10% à 130 M€, et la promotion sur comparateurs de 15% à 90 M€. La portion du mobile reste congrue à 20 millions.
Ce canal publicitaire progresse à cause du nombre d'internautes grandissant (+10%) et surtout du temps passé en ligne (+40%). Le "always on" de l'ADSL y est sûrement pour beaucoup!
la croissance se poursuit donc au rythme (même révisé) des grands instituts de prédiction!
Les résultats de Google jeudi prochain nous diront si la récession de la presse atteint aussi le online marquant un coup d'arrêt à plusieurs années de cette euphorie grisante pour la publicité internet...
Source: blog Media & Tech (par didier durand)
samedi, janvier 17, 2009
Project NACA: open sourcing GPL/LGPL of the tools for transcoding Cobol programs to Java
_________________________________________________________________________________
Publicitas publishes under Open Source license (GPL/LGPL) the source code of the tools developped to execute the project called NACA now successfully completed. Its aim was to migrate a homegrown Cobol application (named PUB 2000 - 4 millions lines of Cobol) running on an IBM/zOS mainframe toward its 100% iso-functional Java equivalent running on Intel-propelled Linux-based servers.
- Doc: a set of documents explaining in details the tools and libraries. Your feedback around this documentation, its missing points, etc. is essential in order to improve it.
- NacaTrans (license GPL - approx. 83′00 lines of code code & 690 Java classes): our transcoder that allowed us to convert 100% automatically the 4 millions lines of our PUB 2000 application in COBOL to Java. It is very much based on compiler technologies. It analyzes the structure of the initial COBOL programs (supposed 100% valid) to bring them in an intermediate xml structure before generating the final Java code that extensively calls functions and uses classes of the runtime library NacaRT, itself depending on JLib. This new Java source code was very carefully designed: each line of Cobol generates very intentionally a single corresponding line of Java. The aim is to look like as much as possible like the original COBOL code in order to ease the maintenance by the original developers / maintainers who master the structure of their original Java programs. The completeness of the accepted syntax for all variants of Cobol is of course not guaranteed. But our own 4 millions of lines of code as well as additional tests on other external application tend to prove that the current coverage of Cobol by NacaTrans is already very high. We want to improve this coverage through your feedback for valid constructs that we don’t support yet.
- · NacaRT & Jlib (license LGPL - approx 153′000 lines of code & 890 Java classes): those are the 2 runtime librairie who provide all the runtime transactional services for the application. They emulate all teh functions of a classical transactional monitor like CICS from IBM. At the same time, they also support all the COBOL constructs (for example, COMMARÈA structure with multiple data representation masks, management of specific data format like COMP-X, etc.)
- NacaRTTest (license GPL): this is a test suite allowing us to test the correct output of the transcoder on a set of reference COBOL constructs. It’s the way to validate part of our transcoding algorithms. For a new user of NACA, this is definitely the place to start: when this runs on oyur infrastructure, you can feel pretty confident about your installation of the package.
- Because Publicitas has received quite a lot from the OSS community for our NACA project. We had to give back as much as we can: with this contribution, we want to return our highest possible contribution to the dynamics of Open Source.
- Because we believe that this set of tools heavily tested in our environment can be an excellent starting point for other similar projects by other companies also wishing to leverage Open Source software as we did.
- Because we still want to improve our tools and libraries as they remain used on a productive basis to handle our 750′000 transactions / day . We are interested in improving both the runtime libraries since Pub2000 runs on them but also the transcoder NacaRT itself . We still use NacaRT on a very regular basis for the transcoding of some programs that our developers decided (for valid reasons) to maintain from their COBOL source code. We even developed an Eclipse plugin to make this task simpler and more efficient.
- Finally, because Consultas, our internal IT entity, mostly aimed at serving other group entities, developed through this project a set of very specific competences that they would love to reuse in other similar contexts. Consultas’ engineers love this kind of challenges! If you plan your own NACA, they may want to be part of it.
vendredi, janvier 16, 2009
Wordpress: 1/3 du top 100 Mondial des blogs! L'Open Source vers le pinacle....
PingDom continue de démontrer la dominance de l'Open Source sur les logiciels de base: après celle d'Apache sur les plus grands sites Web, la société nous montre celle de Wordpress parmi la crème de la blogosphère (i.e les 100 premiers blogs du monde selon le classement Technorati)
32 blogs au total sous Wordpress: 27 en mode indépendants et 5 en mode hosté sur Wordpress.com. le logiciel Wordpress (comme Apache) est donc à la fois élitiste et populaire puisqu'il sert en parallèle plus de 1 million de blogs en mode hosté sur wordpress.com.
L'investissement de capital-risque reçu il y quelque temps est ainsi justifié.
[Voilà qui me fait toujours regretter pour les raisons (thèmes, plugins) déjà évoquées d'être parti avec Blogger]
La proportion totale de l'Open dans ce top100 est encore plus importante: il faut ajouter Drupal, etc...
Je réaffirme à cette occasion ce que j'ai déjà dit sur l'Open Source: il devient petit à petit le seul type de logiciel viable pour l'infrastructure. C'est pour cela qu'il monte gentiment vers le pinacle.
En effet, ce n'est pas une réelle zone de concurrence pour la plupart des entreprises: il n'y pas de chemin plus logique que celui qui consiste à fabriquer tous ensemble le gâteau le plus savoureux possible duquel on pourra manger sa part dans une fête communautaire plutôt que de s'escrimer (à perte) à fabriquer son propre petit four que l'on consommera celle dans une autarcie tristounette!
Fun, mon analogie culinaire, non? Enfin, moi, je l'apprécie......
PS: pour bien démarrer avec WP dans la francophonie, il faut aller sur le blog www.wordpress-fr.net. C'est en fait d'ailleurs un site plus qu'un blog mais bien sûr il est propulsé par Wordpress. Il représente donc un excellent exemple "live" du type de site complet et riche que l'on peut monter sur la base de WP: les fonctions de gestion de contenu , de pages statiques permettent d'aller très loin en plus du journal chronologique représenté par le blog.
Source: blog Media & Tech (par didier durand)
jeudi, janvier 15, 2009
Project NACA: migration from an IBM mainframe to Intel/Linux servers - rationale and strategy.
________________________________________________________________________________
[pour les lecteurs français: traduction - demandée par des lecteurs anglophones de ce blog - de la version originale en français qui reste à consulter ici pour les intéressés]
[for english readers: don't hesitate to get in touch to obtain additional detailed infos about the project]
This article will describe the NACA project run by Publicitas, advertising sales company based in Switzerland and executed by Consultas, IT subsidiary of the group. It is my employer.
the NACA project was about replacing an IBM mainframe under MVS/OS390 (zOS) with Intel servers on Linux. The project started in January 2003 and successfully ended on june 30, 2007, with the last 2 years much more active than the first2. It was on purpose implemented in a 100% iso-functional way, i.e. without any functional / applicational improvement brought during the process of trans-coding itself and by the transcoding engine. 4 millions lines of COBOL were 100% automatically trans-coded toward their Java equivalent.
- in French, NACA = “Nouvelle Architecture Centrale d’Applications”
- in English, NACA = “New Architecture for Core Applications”
Most of those industrial applications were run at much higher load with more severe performance / availability constraints than ours. Our own activity is around 750′000 transactions done by approx. 1′500 internal users.
- progressive migration: the one-shot “big bang” of a global migration from the old system toward the new one, implemented over a single week-end was banned from day 1 and for ever. All team members knew internal or external “big bang” projects that failed after a couple of unsuccessful “big step” trials. So, we decided to build our project path rather than as a very long stairway with as steps as possible, those steps being as small as possible. The idea was to achieve many incremental and irrevocable (but always reversible) successes.
- 100% automatic and strictly iso-functional trans-coding: we did not want to mix genders between technology update and application improvement. This confusion inevitably leads to additional constraints becoming lethal most of time. So, we decided to migrate each COBOL function to its strictest equivalent in Java. So, at the end of the project, just the same application but delivering the same value for a drastically reduced cost. In addition, the automatic (i.e. costless) trans-coding means that the Cobol maintenance doesn’t have to be interrupted: the next run of the transcoder transfers the newly implemented Cobol code to its Java equivalent. So, the end users remain happy while the system engineers achieve their technological marathon over the many years of such a project.
- continuation with teams in place: the employees loyal to the company and its IT system over 20 years are the best experts to execute a smooth migration. Knowing that system engineer spend their career learning new technologies, shifting to Linux is just another milestone on this road. We just added a couple of linux- and OSS-oriented “rookies” to accelerate the technology adoption.
This relieves a very important constraint on the new Java / OSS version of the application: no firm release date is really needed from a functional standpoint. If, let say, a new legal function was implemented only in the new Java version after hand-tweaking of the half-baked java code, a delay on the productive release of the Java version could be dramatic for the entire project.
- Such a migration can’t succeed without full support of the team mastering the legacy system. Ten of thousands of tiny details (Remember: the devil is in them!) have to be handled for the project to succeed. So, hoping to generate competition by trying to oppose the young wolves of OSS to the old crocodiles of legacy mainframe would be a clear fatal mistake.
- Most system engineers are used to change the horse that they ride (i.e the operating system that they master) many times over their career. At the end of the day, this is just another occurrence of such a switch! When they see that the world around them is deeply changing around them through a massive migration toward OSS, they welcome (with minimal resistance to change) any opportunity that allow them and their competences to also switch through a good training. Fundamentally, they are more experts in system architecture than in any specific operating system. It means that they just have to learn a new set of “bits and bytes” habits to transfer their expertise to the world of Linux and OSS. The core fundamentals of most operating systems remains essentially the same whatever the name of the OS is! It is just another command syntax and parameter definition format to learn…
- you can hire new engineers in a much simpler way: mainframe system engineers tend to become rare and then expensive!
- you can interconnect the new version of the application in a so much easier way with other internal systems (CRM, SAP, etc..) as well as with external sites over the Internet (E-commerce, E-business). Those interconnections suddenly become 10 / 100 / (1000 ?) times more easier when you can rely on the full J2EE environment as well as on tons of open source java library.
mercredi, janvier 14, 2009
Table Microsoft Surface: concurrence bon marché déjà disponible
Mais son prix reste actuellement rhédibitoire: une "MS-Surface" dans chaque foyer comme le souhaite Microsoft est donc utopique aujourd'hui! Redmond veut nous refaire le coût du "a computer on every desk and in every home, running Microsoft software", la mission originelle de Microsoft mais les équipes MS doivent faire moins cher pour y arriver.....
Eh bien, les chercheurs de Microsoft vont devoir se bouger pour atteindre l'objectif: la startup PQ Labs a lancé sa iTable / iTablet durant le récent CES 2009 avec des prix bien inférieurs à Microsoft. On commence à 2'400 $ pour tablette destinée à recouvrir un téléviseur standard 32" acquis par ailleurs.
[Je conseille de regarder la vidéo jusqu'à la fin]
C'est très similaire à Microsoft avec quelques améliorations:
- le multi-touch contrôlé via le SDK: le programmeur définit combien il veut gérer de points de contact au maximum
- un environnement Windows pour le SDK, soit la possibilité de redonner une nouvelle interface à des applications existantes sans les réécrire: voir l'exemple final du jeu PC.
Source: blog Media & Tech (par didier durand)
lundi, janvier 12, 2009
Emission CO2: 1'000 recherches Google = 1km en voiture
Quand j'ai lu l'article Times Of London (peu étayé sur sa méthode de calcul) et au vu de mon intense activité quotidienne sur Google , je me suis dit : "Wow, tu es un affreux pollueur!".
En effet, cet article annonce qu'une étude scientifique évalue à 7g de CO2 le montant des émissions toxiques dégagées par les 2 millions (estimés) d'ordinateurs des centres de calcul Google pour traiter une requête de recherche. Avec plus d'une centaine de milliard de recherches mensuelles, je vous laisse calculer l'étdendue des dégâts.
Nouvel haro (la liste est déjà longue...) sur Google en perspective !
Urs Hoelzle, le patron des opérations de Google, a visiblement été piqué au vif! Il ne pouvait laisser des choses pareilles sur son entreprise, très soucieuse de l'environnement et à l'origine de l'initiative "Climate Savers Computing".
Il répond donc quelques heures après pour donner une tonne d'infos énergétiques sur le traitement d'une requête:
- dans les 0.2 secondes moyennes qu'il faut pour retourner la réponse, Google 0.0003 kWh (indexation préalable du web comprise) d'énergie pour la traiter. C'est la consommation énergétique du corps humain en 10 secondes.
- cette consommation est dans la plupart des cas inférieur à celle consommée par le PC pour poser la question, attendre puis afficher le résultat.
- cette consommation d'énergie produit à son tour 0.2g de CO2. C'est à comparer à la barre européenne officielle de 140g CO2 pour 1 kilomètre parcouru en voiture.
L'article du Times of London était donc 35 fois trop pessimiste .... à moins que Google ne soit trop optimiste. Une bataille de chiffres et d'experts va sûrement suivre: je vais la surveiller.
La mise à nu de Google continue: après le million d'annonceurs révélé contre sa volonté, Google doit maintenant se justifier en termes de pollution. Je vous l'ai dit il y bientôt 2 ans: le web impose progressivement et sans retour arrière possible une transparence totale aux entreprises. La conséquence de cette transparence est la bonne conduite!
La déontologie et la pratique citoyenne vertueuse ont donc de beaux jours devant elles.
C'est au moins un bon point pour l'Internet accusé par ailleurs de biens d'autre maux: vecteur de propagande terroriste, de pédophilie, etc....
Source: blog Media & Tech (par didier durand)
vendredi, janvier 09, 2009
Google Adwords: 1 million d'annonceurs clients!
- 2 millions de serveurs pour livrer des services sans faille: l'avantage stratégique majeur selon le ceo
- et maintenant, 1 million de clients annonceurs sur Adwords
En fait, l'historique communiqué à la SEC est le suivant:
- 2003: 89'000 clients
- 2004: 201'000
- 2005: 360'000
- 2006: 600'000 (Yahoo n'en connaissait à l'époque que 400'000)
- 2007: 1 million d'annonceurs
Il faut bien sûr relier de tels chiffres l'hégémonie multiple (search, vidéo, etc...) de Google au niveau des services: les annonceurs de toute la planète doivent maintenant passer obligatoirement par lui pour toucher leurs prospects le plus haut possible dans leur chaîne de création de "valeur ajoutée informationnelle".
Avec 1'000 milliards de pages maintenant accessibles, la tendance n'est pas prête de s'inverser: Google est clairement la boussole incontournable du web actuel...
Il ne faut par contre pas faire de division mathématique trop hâtive pour trouver le chiffre d'affaires moyen par annonceur: les statistiques régulières de l'IAB montre que le marché de la publicité en ligne (aux USA au moins) est fortement concentrée.
Ce qui est par contre certain: bien que que le trafic sur Google soit en centaines de milliards de pages mensuelles, une telle compétition entre cette immense nuée d'annonceurs va bien sûr continuer à faire monter le prix du clic! C'est le principe fondamental d'un système de ventes aux enchères....
Source: blog Media & Tech (par didier durand)
jeudi, janvier 08, 2009
DRM et Mp3: Apple iTunes émancipe la musique ! Réactions en chaîne....
Réaction en chaine depuis sur la planète:
- WarnerMusic annonce la disparition pour la France du DRM surFnacMusic et VirginMega
- MusicLoad lève cette barrière aussi en Allemagne
- etc...
Mais, pourquoi Goliath (i.e. Steve Jobs) a-t-il bougé ?
Parce que selon Techcrunch, la croissance de iTunes stagne: on vient de passer le cap des 6 milliards de chansons vendues mais il a fallu à chaque fois le même temps (5 mois et demi) pour vendre chacun des 2 derniers milliards.
C'est inquiétant alors que le nombre de clients (75 millions de comptes avec carte de crédit actuellement) explose toujours via le succès de l'iPhone et de l'iPod Touch
Steve Jobs a dû arriver à la conclusion que le verrouillage d'un titre acheté sur le seul matériel utilisé au moment de l'achat devenait un goulet d'étranglement pour iTunes à un moment où les clients commencent à posséder plusieurs lecteurs MP3( téléphone, lecteur dédié, etc...).
Ils ont l'impression d'avoir le droit au moins de placer leur chanson sur tous leurs appareils personnels ... sans parler d'échanges avec famille et amis proches (je ne parle bien sûr pas d'échanges P2P). Comme ils ne peuvent pas le faire, ils n'achètent pas (plus).
Steve Jobs enlève les menottes en faisant le pari de l'honnêteté fondamentale de l'individu qui réouvrira le porte-monnaie si on ne fait pas tout ce qui est possible pour l'embêter sur des limites un peu trop tâtillonnes souvent.... (Il a à mon avis raison !)
Le digital, c'est certes le monde de la traçabilité parfaite ... donc du contrôle total. Mais en abuser peut finalement se retourner contre ses partisans trop paranoiaques. Le commerce physique est habituel de la confiance au client. Le commerce électronique de biens digitaux doit arrêter de se targuer de sa transparence (potentielle) totale et revenir aux bonnes vieilles pratiques commerciales positives de l'épicerie du coin!
PS: encore un pas de plus vers la musique gratuite sponsorisée?
Source: blog Media & Tech (par didier durand)
mardi, janvier 06, 2009
Nouveau flux RSS "officiel" pour ce blog
- L'ancien flux était : http://feeds.feedburner.com/MediaTech . Il fonctionne toujours pour une "certaine période" selon les dires de Google
- Le nouveau est: http://feedproxy.google.com/MediaTech
Merci donc de bien vouloir basculer de l'ancienne URL RSS vers la nouvelle dans votre lecteur de news favori.
PS: au passage, j'ai pu activé la publicité dans mon flux RSS via AdSense. Mais à ce jour, les résultats sont très peu probants: in taux de clic incroyablement faible. Encore pas cette fois (non plus...) que je deviendrai riche! ;-)
Source: blog Media & Tech (par didier durand)
Google libraire online = 37% de commission de vente
Une partie de l'accord trouvé par Google avec les éditeurs dans la vieille polémique Google Books consiste à revendre pour eux l'accès online aux livres scannés afin d'en améliorer les revenus globaux, en particulier pour ceux qui ne sont plus disponibles à la vente car épuisés et sans nouveau tirage prévu. 5 des 7 millions de livres actuellement scannés sont dans ce cas.
Pour ce service, Google gardera une commission de 37% et restituera donc 63% aux éditeurs. Cette commission est environ le double de ce que Google garde pour la publicité online sur le réseau AdSense.
La valeur ajoutée est donc estimée plus élevée !...
Source: blog Media & Tech (par didier durand)
lundi, janvier 05, 2009
Google Android sur netbook: le premier portage "improbable" souhaité se matérialise!
Donc, à Mountain View, on souhaite très clairement maximiser l'utilisation de ce logiciel, et ce bien au-delà du téléphone portable: Google voit en Android une plate-forme logicielle quasi-universelle utilisable dans une multitude de gadgets et produits électroniques divers.
Pour atteindre cette universalité, Google a choisi une licence Open Source très permissive: l'ASL permet de prendre le code source public, de le modifier à volonté et de le garder ensuite totalement propriétaire.
Ce choix était impératif pour maximiser la pénétration d'Android et briser les embûches posées par les maîtres du marché à un entrant tardif: une licence type GPL est très coercitive pour les gadgets électroniques, elle impose une publication des codes sources modifiés ce qui est rhédibitoire dans beaucoup de cas: les fabriquants bannissent d'entrée tout greffon Open Source qui les obligerait à publier leur valeur ajoutée.
Eh bien, la "flexibilité" de Google sur le sujet commence à payer: un portage d'Android sur un gadget "improbable" mais souhaité vient de se produire: le système d'exploitation Google Android fonctionne sur les netbooks EeePC.
Selon les auteurs de ce portage, ce fut quasiment simple!
Les conséquences:
- comme le disent Korben et Eric, certainement prochainement des netbooks / sub-PCs officiellement équipés en logiciel par Google. Après la concurrence indirecte via le web par Google Docs, c'est maintenant la concurrence frontale sur le poste de travail avec Microsoft! Du lancer de chaises sur "f..cking Google" en perspective à Redmond
- un portage prochain garanti d'Android sur iPhone d'Apple: le noyau Linux y fonctionne déjà et Android marche par ailleurs sur des téléphones Nokia. Steve Jobs va faire des bonds si il est réduit à la seule fonction de producteur de hardware lui qui tient tant à contrôler le 100% de l'expérience-utilisateur et qui est persuadé que c'est majoritairement par le logiciel qu'elle survient...
- un encouragement certain aux constructeurs divers et variés (automobiles, téléviseurs, machines à laver, enregistreurs numériques) moins "connexes" que les fabricants de Netbooks mais beaucoup plus soucieux de leur valeur ajoutée d'utiliser une telle plate-forme logicielle comme interface utilisateur des produits qu'ils conçoivent actuellement. De toute façon, Google est déjà dans mon téléviseur ou ma voiture pour certains services alors pourquoi pas appuyer ces services sur son propre logiciel? Et puis, le jour où tout ce petit monde est "online", le logiciel d'interface sera déjà 100% orienté web donc tout bénéfice pour toutes les parties (Google, utilisateurs, fabriquants, etc.)
Source: blog Media & Tech (par didier durand)
Projet NACA présenté au salon Solutions Linux 2009
_______________________________________________________________________
Notre projet NACA de conversion mainframe/Cobol vers Linux/Java sera présenté au salon Solutions Linux 2009 le 1er Avril à Paris. J'y reparlerai bien sûr de la mise en Open Source (GPL) de nos outils maison qui nous ont servi à convertir 100% automatiquement nos 4 millions de lignes de Cobol.
Voir le programme complet de Solutions Linux 2009 en page 10 pour les détails précis
Mon exposé sera la continuité des RMLL2008 à Mont-De-Marsan: le powerpoint de l'époque reste une bonne introduction.
Je sais: je m'y prends tôt pour l'annoncer mais l'overbooking nous guette tous, n'est-ce pas ? [Faites-moi signe si vous y serez aussi: un café, une bière, c'est toujours sympa!]
Rappel sur NACA
le projet NACA a conduit au remplacement d'un mainframe IBM sous MVS/OS390 par des serveurs Intel sous Linux. Le projet a été lancé en Janvier 2003 et s'est terminé avec succès au 30 Juin 2007. Il a été réalisé volontairement de manière 100% iso-fonctionnelle (i.e. sans aucune modification pendant et par le transcodage) pour l'application et a permis la conversion automatisée de 4 millions de lignes de Cobol vers leur équivalent Java. L'économie en cash-outs - paiements externes - est de plus de 85% de leur montant annuel = initial d'environ 3 millions d'euros annuels
Articles déjà parus:
- Projet NACA [6]: les outils du projet NACA de Publicitas en Open Source
- Projet NACA [5]: présentation aux Rencontres Mondiales du Logiciel Libre 2008 (Mont-de-Marsan)
- Projet NACA [4]: exemple de programme transcodé de Cobol vers Java - plugin Eclipse
- Projet NACA [3]:présentation technique et économique globale du projet
- Projet NACA [2]: transcodage automatique vers Java de 4 millions de lignes Cobol
- Projet NACA [1]: motivations et stratégie
Bonne année 2009!
Dans le boulot, cela ne s'annonce pas forcément des plus simples pour bon nombre d'entre nous mais on va faire le gros dos tous ensemble et elle passera (comme les précédentes...) cette satané crise!
Bon courage et surtout bonne santé!
Source: blog Media & Tech (par didier durand)