jeudi, juillet 31, 2008

Cloud computing (Amazon): le papier d'architecture à lire

Je parle souvent ici du Cloud Computing car il est pour moi appeler à révolutionner (à terme) le système d'informations: elles achèteront achètera à mon avis du kilowatt informatique comme elles achètent aujourd'hui du kilowatt électrique.

Vous ne connaissez pas de sociétés qui fabriquent encore leur électricité, n'est-ce pas ? ... Eh bien, c'est le même chemin qui se trace pour l'informatique. [Encore que avec ces panneaux solaires sur les toits, cela pourrait bien revenir à la mode: Google produit déjà 1.6 MW pour ces bureaux de Mountain View.]

Revenons à nos moutons: le Cloud Computing est donc la (future) base du Utility Computing cher aux entreprises. (Raison pour laquelle Microsoft y est très active?)

Il n'est pas encore 100% mature car il faut construite (et solidifier...) les briques de base permettant l'édification progressive de ces nouveaux systèmes à la demande. Amazon est actullement le leader mondial dans ce domaine avec la palette S3, EC2, SQS (Simple Queue Service) et SimpleDB.

Pour évangéliser, Amazon vient de présenter ce papier ("white paper") à une récente conférence américaine sur le sujet.

Il est passionnant:
  • on y voit l'assemblage des briques et la puissance résultante de leur combinaison
  • les bonnes et les mauvaises pratiques
  • les techniques architecturaux solides pour pouvoir aller loin
Si vous cherchez à bâtir une informatique colossale fonctionnant à la demande sans jamais rien posséder: c'est LE papier. En tout cas, le meilleur de loin permettant toutes les synthèses que j'ai pu lire sur le sujet.

Source: blog Media & Tech (par didier durand)

mardi, juillet 29, 2008

Microsoft: sphère d'affichage interactive

On avait eu la version plane (appelée Surface) en provenance des laboratoires de recherche Microsoft. On l'a retrouvé ensuite opérationnelle dans les magasins AT&T.

Aujourd'hui, c'est la version sphérique qui est montrée par les inventifs de Redmond.



Cette grosse boule de pétanque (pour faire dans l'ambiance du moment...) permet de visualiser les photos comme sa grande soeur plane mais aussi de jouer en 3D, de mapper des films 360° de manière innovante (voir la fin de la vidéo), etc...

Celle-ci, on veut la retrouver où?

Source: blog Media & Tech (par didier durand)

Publicité Internet en France: 4 milliards d'euros en 2008?

l'AFP publie les chiffres IAB pour le premier semestre 2008 en France: 1.8 milliard d'euros. En hausse de 38% sur un an. Ce montant représente 14.7% du gâteau publicitaire global: +6 points en 1 an. l'internet est maintenant sur le podium derrière la presse et la télévision mais devant la radio. La moitié des dépense environ est faite sur portails et moteurs de recherche.

Vu les taux de croissance mondiaux prévus et la saisonnalité de cette industrie, on devrait friser (dépasser) les 4 milliards pour 2008.

Source: blog Media & Tech (par didier durand)

vendredi, juillet 25, 2008

Seth Godin: Le web (social) s'en fout! ... vraiment?

Seth Godin (gourou de permission marketing) a lâché un de ces billets très "axiomatiques" et laconiques dont il a le secret: "le web s'en fout" ("the web doesn't care")

Ses postulats:
  1. les marketeurs se posent la mauvaise question à propos du web social en se demandant "en quoi peut-il m'aider?"
  2. le web (social) est le premier média de masse à ne pas être supporté par la publicité. Il n'a pas été construit comme les médias traditionnels pour faire plaisir aux annonceurs en véhiculant favorablement leur message.
  3. le web a été inventé par des humains (humanistes ?) pas par des sociétés à seul but lucratif. Il a donc un ADN différent.
  4. le web n'est pas là pour aider les sociétés à faire de l'argent.
  5. la bonne question à se poser pour marketeurs / créateurs de nouveaux services est "Comment les (mes) utilisateurs vont utiliser leur nouveau pouvoir et comment vais-je les y aider ?" De ce concept d'utilité naîtra l'attractivité puis donc le succès.
Je partage très volontiers le point initial et final du billet: l'internaute a un choix pléthorique (dans la plupart des cas...) de services très similaires qu'il sait découvrir par une utilisation touours plus massive des moteurs de recherche et autres systèmes de filtrage collaboratif à la Digg, Wikio, Yahoo Buzz, etc...

Il s'éloignera donc vite de tout service qui ne lui est pas utile ni efficace pour basculer vers son clone meilleur qui n'est qu'à un clic de souris. Toutes les gesticulations périphériques des marketeurs et leur discours très policé et "propre sur lui" n'y changeront rien!

Donc ok sur la finalité: soyez utile, c'est aujourd'hui votre seule chance de réussir!

Par contre sur le raisonnement, je coince:
  • Dire que le web n'est pas supporté par la publicité est erroné: 9 startups sur 10 ont un business model exclusivement publicitaire ou presque. La stratégie de Microsoft selon Ray Ozzie tend vers ce même modèle. Les chiffres de l'IAB et la croissance de Google (revenus à 99% publicitaires) sont des preuves éclatantes de la réussite de publicité sur le web.
  • Dire que le web n'est pas fait pour faire de l'argent: Ebay, Amazon et tout le commerce en ligne, c'est quoi ? un mirage? Il y clairement plusieurs formes d'utilisation du web: les usages associatifs (Wikipedia, Craigslist) et les usages commerciaux. C'est parce que les requins existent que les poissons-pilotes sont là! Les usages associatifs naissent dans le sillage des Google, Yahoo et autre: ils ne pourraient pas être là ni aussi réussis sans l'épaule des géants sur lesquels ils s'appuient pour trouver les ressources financières de leur existence puis assurer leur succès. Il y a d'ailleurs "cross-fertilisation": un Knol de Google n'est rien d'autre qu'un wikipedia lucratif!
Donc, finalement, le web "parallèle", il ne s'en fout quand même pas totalement de son lien avec les sociétés commerciales et des réussites de leurs marketeurs!

Source:
blog Media & Tech (par didier durand)

mercredi, juillet 23, 2008

Youtube: monétisation pour 3% des 4 milliards de vidéos du site

Alley Insider donne le chiffre qui explique les déceptions actuelles de Google au sujet de sa filiale Youtube: Brian Cusack, le directeur des ventes, a expliqué lors d'une conférence que Youtube ne pouvait actuellement vendre de la publicité que pour 3% de toutes les vidéos chargées.

Il a aussi cité un total de 4 milliards de vidéos présentes sur le site.

La loi de Pareto qui règne donc actuellement sur ce créneau est à briser: impossible de devenir l'ogre de bande passante annoncé et de ne générer aucun profit simultanément.

Le Text-to-Speech actuellement testé par Google sera-t-il le messie?

Source: blog Media & Tech (par didier durand)

mardi, juillet 22, 2008

Google Maps: itinéraires piétons ... pour les citadins

Google Maps a discrètement lancé en bêta aujourd'hui les itinéraires piétons.

J'ai fait l'essai sur 2 rues de Besançon que je connais: fonctionne correctement! Google connaît les secteurs piétons et les sens interdits mais pour les piétons, il n'a qu'à les ignorer pour fournir un itinéraire plus direct. Qui peut le plus peut le moins.



Par contre, pour pièger Google (on essaie, on essaie...), j'ai pris 2 zones liées par des chemins plus directement par des chemins forestiers que par la route. Eh bien, là, il semble que les chemins de traverse ne soient pas encore connus à Mountain View.


Google s'est donné 300 ans pour organiser et rendre accessible l'information mondiale. Gageons que les sentiers de mon Haut-Doubs feront dans la méga-base de données de Google (n'est-ce pas, TomHtml de Zorgloob) dans les 290+ années restantes...



Source: blog Media & Tech (par didier durand)

vendredi, juillet 18, 2008

les outils du projet NACA de Publicitas en Open Source

UPDATE 01-2012: Le projet NACA a donné naissance à Eranea, société dédiée à la migration 100% automatisée de grandes applications métier vers Java et Linux. Voir  www.eranea.com ou email à contact@eranea.com pour plus d'informations
________________________________________________________________________________

Beaucoup attendaient cette info suite à mes divers articles autour de notre projet NACA de migration 100% automatisée de notre application COBOL sur mainframe vers Linux Java.

Nous l'avions annoncé à Mont-De-Marsan aux RMLL 2008.

Eh bien, c'est fait: Publicitas publie ses outils NACA de conversion Cobol vers Javaen Open Source (GPL/LPGL).

Voir tous les détails et le code source originaux sur ce post de notre nouveau blog dont je reprends ici intégralement le texte du billet ci-après. Merci de mettre vos commentaires sur blog Publicitas (en double sur les 2 serait l'idéal. merci d'avance!):

===========================================================
"Publicitas publie sous licence Open Source (GPL/LGPL) le code source des outils développés dans le cadre du projet NACA (migration de son mainframe IBM/zOS sous Cobol vers des serveurs Intel/Linux sous Java) vers la communauté de l’Open Source. Cette publication a été récemment annoncée aux RMLL2008 de Mont-De-Marsan.
Pour ceux qui veulent commencer par télécharger les fichiers. Le fichier zip complet est ici: NACA-Package (Runtime, transcoder, Tests + docs) (3)
Cette version est clairement une première livraison (v1.0) : elle sera améliorée par les contributions (tierces) et documentée au fil du feedback donné par les testeurs externes qui feront fonctionner ces programmes Java sur leur propre infrastructure. De nouvelles versions sont également à prévoir autour des librairies JLib et NacaRT qui continuent par leur fonction même à être utilisées productivement par Publicitas et étendues au fil des évolutions de nos systèmes
La licence retenue est la licence GPL du GNU pour l’outil principal de transcodage et sa petite sœur LGPL pour les librairies associées.
Pourquoi ce choix ? Parce que nous souhaitons éviter le détournement de notre travail par des prestataires de services à but lucratif souhaitant utiliser ces programmes .pour leur seul bénéfice en le ramenant vers une zone propriétaire.
La GPL place, pour ces prestataires, sur les outils NACA un bon nombre de contraintes qui imposent le retour vers la communauté Open Source d’un maximum des améliorations faites par des tiers sur le transcodeur et ses librairies associées. Elle offre, par contre, une grande liberté aux sociétés utilisatrices finales.
La LGPL permet par ailleurs à des éditeurs de logiciels applicatifs de convertir leurs applications via nos outils (NacaTrans), de livrer nos bibliothèques runtime (NacaRT et JLib) en mode source mais de garder les bibliothèques de leur propre application en mode binaire afin de garder leur valeur compétitive dans le secteur industriel de leur application.
Les outils que nous publions aujourd’hui (v1.0) dans le fichier zip
  • ·Doc: un ensemble de documents explicatifs autour de ces outils. Votre feedback sur leur contenu, leurs déficits nous permettra de les améliorer.
  • NacaTrans (licence GPL - approx. 83′00 lignes de code code & 690 classes Java): notre transcodeur qui nous a permis de transcoder les 4 millions de ligne de Cobol de notre application PUB 2000. C’est en quelque sorte un compilateur qui analyse d’abord la structure des programmes Cobol initiaux (supposés 100% opérationnels) pour les amener dans une structure xml intermédiaire avant de générer un code Java faisant massivement appel aux classes et fonctions de la librairie de runtime NacaRT. Ce code Java généré a la particularité intentionnelle de ressembler au maximum au code source Cobol initial afin de favoriser la poursuite de la maintenance par les développeurs initiaux. L’exhaustivité de ce compilateur par rapport aux multiples standards du langage Cobol n’est clairement pas garantie: NacaTrans compile correctement nos 4 millions de ligne de COBOL. C’est la seule garantie. Cependant des tests complémentaires avec du code COBOL applicatif en provenance d’autres sociétés nous laisse croire que le taux de couverture du langage est excellent. Nous l’améliorerons encore avec le feedback de la communauté.
  • NacaRT et Jlib (licence LGPL - approx 153′000 lignes de code & 890 classes Java): ce sont les bibliothèques de runtime qui réalisent toutes les fonctions de gestion / fonctionnement d’un système transactionnel classique. Elles émulent tous les verbes d’un moniteur transactionnel comme CICS (voir docs) et réalisent aussi entre autres l’émulation du langage Cobol (par exemple, structure COMMAREA à masques multiples, formats de données COMP-X spécifique à COBOL, etc…)
  • · NacaRTTest (licence GPL): une suite de tests nous permettant de valider le fonctionnement correct de nos algorithmes de compilation. Pour toute personne qui installe la suite NACA dans son environnement, c’est la partie à faire fonctionner en priorité car elle tend à garantir une bonne installation de l’ensemble des composants
Tous ces composants sont livrés avec les fichiers de description de projet au format Eclipse afin de faciliter leur prise en main via des outils standards du monde Java.
Maintenant, la question que vous vous posez sûrement: pourquoi cette démarche?
  • Parce que Publicitas, ayant beaucoup reçu de la communauté Open Source pour le projet NACA, souhaite rendre autant que possible. Avec cette publication, nous pensons livrer une contribution à forte valeur ajoutée et très pointue contribuant activement à notre tour à la dynamique Open Source
  • Parce que nous pensons que nos outils éprouvés à l’aune de notre propre projet de migration puis à celle d’une année complète de fonctionnement opérationnel peuvent être une excellente base pour des projets similaires dans d’autres entreprises souhaitant elles-aussi bénéficier de tous les bénéfices de l’Open Source abondamment évoqués dans notre série d’articles sur le sujet.
  • Parce que nous souhaitons encore améliorer nos outils qui restent encore abondamment utilisés chez nous: ils gèrent toujours nos 750′000 transactions quotidiennes. Bien sûr , nous souhaitons travailler encore les librairies runtime (Jlib + NacaRT) puisque la version Java de PUB 2000 s’appuie abondamment dessus mais aussi sur le transcodeur NacaRT puisque nos équipes de développement ont fait le choix pour des raisons spécifiques de continuer à maintenir une fraction minoritaire de nos programmes directement en Cobol et de les recompiler au vol en Java. Nous avons développé un plug-in Eclipse à cette intention
  • Parce que Consultas, notre société informatique essentiellement interne, a développé une palette de compétences très spécifiques à cette occasion. Sans en faire son cœur d’activité mais pour malgré tout valoriser ce savoir-faire et surtout permettre à ses ingénieurs de se frotter à d’autres problématiques similaires pour s’aguerrir encore, Consultas prendrait volontiers quelques mandats de support / mise en place / extension de ces outils pour d’autres sociétés se lançant dans leur “propre NACA”.
Voilà, à vous de jouer: prenez le package complet NACA-Package (Runtime, transcoder, Tests + docs) (3) et mettez-le en place dans votre contexte. Faites-nous part de vos suggestions par vos commentaires sur ce billet.
PS: pour des contacts autour de projets particuliers, vous pouvez nous contacter aussi plus spécifiquement par email à cette adresse: naca-contact@publicitas.com"
===================================================================
Source: blog Media & Tech (par didier durand)

jeudi, juillet 17, 2008

Google teste le "Speech-to-Text" pour améliorer pertinence et monétisation des recherches vidéos

Google teste sa technologie de conversion de la voix en texte afin de pouvoir ensuite indexer ce texte et le faire entrer dans l'index de recherche standard de son moteur.

L'objectif double est simple:
  • disposer de plus de réponses aux requêtes des internautes
  • fournir des réponses plus pertinentes car aujourd'hui l'indexation et le ranking des pages de vidéos se font seulement via les mots qui entourent une vidéo mais pas via les mots prononcés dans la vidéo eux-mêmes.
A travers cette qualité améliorée, il s'agira d'améliorer le taux de monétisation actuel Youtube toujours très décevant et de collecter ainsi les 200 millions de dollars "laissés sur la table" dans ce domaine par Google.

Le test débuté récemment par Google est fait sur un secteur idéal:
  • les vidéos des élections présidentielles américaines 2008: le buzz est garanti!
  • ces vidéos sont longues: permettre d'aller directement au passage du thème d'intérêt est un gage d'efficacité donc d'attractivité énorme.
  • les contenus intéressants de ces vidéos (des discours essentiellement) sont les mots plus que les images. Traiter ces mots avec un soin extrême dans ce cas est donc on ne peut plus logique
Quand on sait capturer les textes, de nombreux services s'offrent ensuite: texte original en incrustation, traduction en incrustation, transcription textuelle, liste de vidéos abordant les mêmes sujets, etc...

Pour tester par vous-même, il vous faut aller sur cette page.

L'interface se présente comme suit:


Chaque apparition du mot "cost" mis comme clef de recherche est matérialisée par un point jaune sur la barre temporelle: un clic sur ce point fait émerger la section de texte contenant le mot recherché. La navigation dans la vidéo est donc hyper-efficace: particulièrement utile dans les discours de Fidel Castro, légendaires pour leur durée de plusieurs heures sans interruption!

La question-clef qui reste:
  • Google utilisera-t-il à terme cette technologie (encore imparfaite comme dit dans le billet du blog Google) pour Youtube seulement afin de tenter de faire mentir la loi de Pareto néfaste qui y sévit actuellement en donnant à son service un avantage concurrentiel majeur lui permettant de renforcer encore son audience ?
  • L'activera-t-il pour toutes les vidéos autres glanées sur Internet même si elles sont finalement rares?
Dans les 2 cas, il augmentera la monétisation de ses activités vidéos (directement - Youtube seul - ou indirectement - toutes les vidéos).

Dans le deuxième cas, il servirait mieux sa communauté. Donc, si "don't be evil" est toujours d'actualité, le choix sera vite fait!

Source: blog Media & Tech (par didier durand)

mardi, juillet 15, 2008

Vidéo sur Internet: la loi de Pareto y sévit aussi!

La vidéo sur Internet semble être plus qu'un étalon pour la la loi de Pareto. En effet, Numerama nous rapporte que: "selon une étude de The Diffusion Group, les vidéos personnelles ou réalisées par les internautes devraient représenter cette année 42 % des vidéos streamées sur Internet, mais générer seulement 4 % des recettes. Au contraire, 58 % des vidéos streamées seront des vidéos "professionnelles", et celles-ci devraient générer 96 % des revenus. "

Voilà qui justifie la déception de Google sur les mauvais résultats Youtube: le contenu amateur, fondement de Youtube, ne fait pas recette chez les annonceurs professionnels à cause de la qualité faible et/ou du risque elevé associé. Les bons résultats de Hulu montrent que ce sont pour l'instant les "vieux crocodiles" qui tirent les marrons du feu (certes à faible échelle comparé à la publicité Internet dans son ensemble).

Il faut vite résoudre le puzzle et trouver les clefs de la monétisation: les coûts d'infrastructure massifs (50% de l'Internet en 2012) ne pourront être supportés longtemps sans revenus correspondants.

Le procès Viacom - Youtube va encore exacerber le phénomène: les experts mandatés par Viacom vont prochainement tenter de prouver par l'analyse des données d'utilisation (que Google vient d'être condammé à livrer) que la majorité du trafic Youtube, donc la majorité de la monétisation, se fait sur des vidéos professionnelles illégalement (i.e. sans droits associés)sur Youtube.

Si Viacom arrive à ses fins, la prochaine étape sera l'obligation pour Google / Youtube de retirer les vidéos professionnelles illicites.

Et alors, la (potentielle) poule aux oeufs d'or sera stérile pour longtemps....


Source: blog Media & Tech (par didier durand)

jeudi, juillet 10, 2008

Google Lively dans Maps, à quand Google Earth?

Pour tous les détails sur Lively, le monde virtuel à la Second Life de Google, voir les excellents papiers (électroniques) de Zorgloob et F. Cavazza: ils ont tout analysé en long, en large, en travers.

Par contre, j'avais fait, à l'occasion de Disney Land en 3D dans Earth le pari d'une bière (avec Lilious et Clément entre autres) sur l'émergence d'un monde virtuel basé sur Google Earth avant 2009: GoogleMapsMania a découvert le travail de Keir Clark qui a déjà fait un mashup entre Google Maps et Google Lively. Le positionnement sur Maps donne une géolocalisation sur l'espace Lively et permet ainsi certainement de deviner les langues qui y sont parlées, l'ambiance qui pourra y régner, etc....



Un pas dans ma direction, donc! Lilious (beau joueur via son rappel spontané sur le sujet) et Clément, mettez les cannettes au frais, c'est pour bientôt...

En tout cas sérieusement, même si Second Life jouit d'une économie parallèle et virtuelle florissante, un monde virtuel dans Google Earth dual du monde réel offre un kilotonne de perspectives (économiques) nouvelles:
  • je n'ai aucun intérêt personnel à batifoler sur les îles de Second Life. Par contre, trouver un avatar-guide pour m'aider à parcourir virtuellement la ville dans laquelle je vais me rendre ensuite. Là, je marche ... et je veux même bien payer un peu!
  • un agent immobilier qui me fait le topo en situation "virtuelle réelle" des alentours de la maison que je vais prochainement visiter, je trouve cela hyper-efficace.
  • un collègue jogger qui me montre virtuellement le prochain parcours que je ferai quand je serai en déplacement professionnel dans sa ville, je trouverais cela cool.
  • etc, etc...
Donc, un monde virtuel dual du monde réel pulvériserait à mon avis Second Life par l'intérêt concret qu'il pourrait représenter pour Mr Tout Le Monde. Second Life, c'est virtuel mais en plus très artificiel. On s'en lasse donc vite: qui en a entendu parlé récemment? Moi, pas.

Puisqu'il sera grand et multi-facettes, ses perspectives publicitaires sont énormes! Voilà qui compenserait la déception actuelle Youtube... Le modèle d'affaires fondamental de Google (99% de revenus via la publicité) en a bien besoin.

Avec ses données cartographiques incroyables, Google dispose d'une incroyable barrière à l'entrée de concurrents sur ce terrain de la dualité entre réel et virtuel. C'est donc pour cela qu'il doit prendre son temps pour lancer au mieux ce "Lively Dual" qui est clairement inéluctable.

Source: blog Media & Tech (par didier durand)

mercredi, juillet 09, 2008

Google déçu par le 1% de Youtube (CA 2008 = 200 millions $)

Le Wall Street Journal livre un article intéressant sur les performances de Youtube: Paidcontent qui l'a analysé précise que le management de Google est déçu par les 200 millions de chiffres d'affaires projetés pour cette année (soit environ 1% du revenu global de Google prévisible pour 2008) pour une société acquise pour 1.6 milliards de dollars.

C'était pressenti déjà par Eric Schmidt qui en a fait le sujet principal de réflexion à Mountain View.

Si l'on admet les 300 milliards de vidéos vue cette année chez Youtube, cela fait moins de 0.1 cents de revenus par vidéo, soit 1$ le mille. Beaucoup trop faible vu à la fois les coûts de diffusion et la richesse émotionnelle donc la valeur publicitaire de ce média: d'autres sites de vidéo comme Hulu font 70 fois mieux même si ils restent tous petits en parts de marché.

Avec un tel prix de un dollar, on est en effet dans la zone standard des bannières très classiques. D'une certaine manière c'est normal puisque les formes actuelles de publicité sur Youtube sont des bannières ou des boîtes Adwords.

Youtube doit donc sérieusement pousser ses formes de publicité novatrices et en partager mieux les revenus pour avancer sur ce créneau qui va représenter 50% du trafic Internet en 2012.

Cette vidéo en ligne (dominée à 38% par Youtube) ne peut simultanément représenter qu'un pouillième des revenus publicitaires sur Internet!

Source: blog Media & Tech (par didier durand)

lundi, juillet 07, 2008

Google Street View en France: faces cachées? pas toutes!

On avait reperé les véhicules-caméras de Google en France depuis plusieurs mois. On savait donc que cela allait sortir...

Eh bien c'est avec le Tour de France que les vannes ont été ouvertes: Google a photographié en 3D (voir les icônes ci-dessous et la belle galerie de photos sur le blog Google Lat-Long) le parcours de la Grande Boucle dans les villes-étapes pour permettre à chacun de le re-balayer via Street View.
La dernière amélioration "juridiquement prudente" de Google autour du service a été le floutage des visages pour respecter la législation du droit à l'image (contraignante en France). Je me suis donc empressé de voir si cette techno avait été appliquée aux photos des rues de de la Grande Boucle.

Eh bien, oui et non: dans une rue de Saint-Malo ci-dessous, la dame est à gauche est correctement floutée alors que le monsieur est très reconnaissable. Encore qq petits défauts de jeunesse des algorithmes à traiter....

La question reste donc posée: des plaintes formelles émergeront-elles sur le sujet devant nos tribunaux?

Source: blog Media & Tech (par didier durand)

Selon Google, 1'000 milliards d'images sur le web

Le service "Google Images" de recherche dans les images découvertes sur le web est depuis longtemps dans le trio de tête des services phares de Google.

Ce service n'est pas monétisé: Marissa Meyer estimait récemment que cette "négligence" coûtait 200 millions de dollars par an à Google mais promettait que cette mansuétude s'arrêterait bientôt.

Dans une interview à Beet.tv, RJ Pittmann, responsable Google pour les produits de recherche orientés consommateurs, livre un chiffre intéressant: Google estime à 1'000 milliards le nombre de photos actuellement présentes sur le web.

RJ. Pittman indique que Google développe actuellement des algorithmes de reconnaissance faciale et d'analyses de scènes pour optimiser les recherches dans cet océan de pixels. Actuellement, les résultats de recherche sur Google Image sont plutôt pilotés par les mots qui entourent la photo sur la page web sur laquelle elle est publiée que par le contenu direct de la photo. Google présuppose juste que photo et contexte associé sont fortement liés.

Source: blog Media & Tech (par didier durand)

mercredi, juillet 02, 2008

NACA [5]: Présentation aux Rencontres Mondiales du Logiciel Libre (Mont-De-Marsan)

UPDATE 01-2012: Le projet NACA a donné naissance à Eranea, société dédiée à la migration 100% automatisée de grandes applications métier vers Java et Linux. Voir  www.eranea.com ou email à contact@eranea.com pour plus d'informations
_______________________________________________________________________
Comme promis aux participants à la conférence et peut-être d'intérêt pour les lecteurs de ce blog, voici donc ma présentation faite hier aux RMLL 2008 à Mont-De-Marsan.



Le pdf est aussi téléchargeable ici.

Vu le contexte de cette conférence (orientation entreprises), j'ai ajouté des considérations supplémentaires aux autres billets de la saga.

Application critique et Open Source:

  • Risque: vous n'êtes pas seul - Google, NASA, Boeing, Airbus, Areva, Wall-Street etc.. l'utilisent aussi et à des échelles énormes
  • Qualité: relire "la Cathédrale et le Bazar" de E. Raymond
  • Performances: le RoadRunner (#1 au monde - 1.026 pétaflop) fonctionne sous Linux !
  • Sécurité: la "sécurité par l'ignorance" (logiciels propriétaires) n'est pas bonne - La dissection par la communauté Open Source est bien plus solide
  • Support: seulement les forums ? ou plus….. ? notre choix pour NACA de la distribution RedHat avec son support professionnel
Bénéfices intangibles:

  • Open Source = standards.En migrant vers le libre, on respecte naturellement les standards (de facto ou de jure) de l'informatique: XML, J2EE, SOA, HTML, etc..
  • Migration -> modernisation: interface graphique pour tous les services systèmes (Webmin, etc.) outils modernes et très "pointus"
  • Nouvelles fonctions "bonus": qq. exemples
    • arrivée dans le monde Java / Linux ouvert: intégration globale beaucoup plus simple (communication RPC synchrone et temps réel)
    • PDF très cher / compliqué sur le mainframe ? naturel sur Linux (permet une digitalisation complète
    • Système d'archivage (Knowledge Tree) permet une recherche "full-text.
    • Architecture à croissance horizontale plutôt que verticale ? plus de décisions d'upgrade complexes
    • remplacement de fonctions maisons en Cobol par des packages Open Source (tris, etc….)
Points critiques:

  • Le business case initial doit être clair: les avantages financiers énormes de l'Open Source sont la motivation la plus évidente directe du projet
  • La progression à multiples petits pas et la réversibilité de chaque mutation sont essentielles
  • Les inventaires des fonctions (applicatives et système) en production doivent être 100% à jour -> nous aurions pu faire mieux….
  • L'iso-fonctionnalité est un must: permet le transcodage automatisé et le fabrication quasi-gratuite de jeux de tests critiques au succès du projet
Bénéfices:
  • Economies (vrais "cash-outs") de plusieurs millions d'euros / an
  • Grande stabilité et excellentes performances
  • Un système technologiquement à l'état de l'art ? la base technologique pour bâtir le successeur de l'application PUB 2000 (chantier démarré)
  • Construction d'un propre centre de backup (qq. serveurs…)
  • Architecture à croissance horizontale avec très faibles incréments
  • des équipes mutées à ces nouvelles technologies (pari humain réussi !)

Pour ceux qui auront au bout de la présentation, ils verront que nous avons annoncé durant cette conférence la mise en Open Source prochaine de nos outils de transcodage Cobol vers Java: NacaTrans, NacaRT et NacaTools. Les détails seront annoncés prochainement sur ce blog.

[Rappel: cet article fait partie d'une série qui décrit le projet NACA ayant conduit au remplacement d'un mainframe IBM sous MVS/OS390 par des serveurs Intel sous Linux. Le projet a été lancé en Janvier 2003 et s'est terminé avec succès au 30 Juin 2007.

Il a été réalisé volontairement de manière 100% iso-fonctionnelle (i.e. sans aucune modification pendant et par le transcodage) pour l'application et a engendré la conversion automatisée de 4 millions de lignes de Cobol vers leur équivalent Java. L'économie en cash-outs - paiements externes - est de plus de 85% de leur montant annuel = initial d'environ 3 millions d'euros annuels

Articles déjà parus:
]

Source: blog Media & Tech (par didier durand)