vendredi, février 05, 2016

Docker sur LinuxOne (mainframe) : taille XXL ! Un million de conteneurs en parallèle.

IBM a réalisé ce qui doit clairement être le record du monde actuel : le démarrage simultané d'un million de conteneurs Docker sur un seul mainframe. Le vecteur de ce record est le modèle Emperor, basé sur la génération z13 de processeurs, qui fait partie de sa ligne de produits LinuxOne, les mainframes dédiés exclusivement à Linux.
Quelle est logique d'une telle démarche qui permet finalement d'apporter les bénéfices de l'architecture en conteneurs sur des systèmes qui restent au coeur de l'informatique des plus grandes entreprises ?

Source: blog Media and Tech (par didier durand)

samedi, janvier 30, 2016

Spin-off pour la pépite Amazon AWS avec 8 milliards annuels et 40% des profits opérationnels globaux?


A 8 milliards de dollars de chiffre d'affaires annuel, soit 7% du total mais 40% des profits opérationnels globaux pour 2015, Amazon a-t-il intérêt à garder AWS, sa pépite du cloud computing financièrement « noyée » dans les ratios financiers (taux de marge, etc.) de la maison-mère, certes clairement leader mondial incontesté du commerce en ligne mais jugée par Wall Street sur des fondamentaux boursiers totalement différents ?

Lire l'intégrallité ici

Source: blog Media and Tech (par didier durand)

mardi, janvier 26, 2016

Docker acquiert UniKernel - Less is more !

Nouvel article LinkedIn :

https://www.linkedin.com/pulse/docker-acquiert-unikernel-less-more-didier-durand

Docker Inc, la société éponyme de la technologie de conteneurs logiciels la plus en vogue actuellement, vient d'annoncer l'acquisition de la société Unikernel (fondée par les leaders de l'hyperviseur Xen de virtualisation, donc des développeurs éminemment respectés dans le monde virtualisation / isolation), pour catalyser sa stratégie du minimalisme logiciel.


Donc, “Less is More” ! Pourquoi ? [Lire la suite]

Source: blog Media and Tech (par didier durand)

mercredi, janvier 20, 2016

Transformation technologique des systèmes critiques : bonnes pratiques

Nouvel article publiés sur LinkedIn.

Pour le lire en entier, c'est ici.

Synthèse

Eranea se focalise sur la transformation technologique de systèmes informatiques critiques au métier de ses clients :
  1. Transformation d'applications sur mainframes (Cobol le plus souvent) vers Java / Linux sur serveurs x86, tant pour réaliser des économies que pour effectuer une modernisation massive à travers le saut technologique quantique associé.
  2. Migration de bases de données inter-systèmes pour des raisons souvent financières ou architecturales, récemment évoquées [lien]
  3. plus récemment, contribution à la transformation d'architectures Java “monolithiques” classiques vers le monde des microservices et des conteneurs logiciels (Docker + Kubernetes sur CoreOS / Mesos / DCOS, etc.)
Dans ces projets, nos clients veulent augmenter l'agilité, la scalabilité et la résilience de leurs applications pour poser les fondations de leur transformation digitale et ainsi disposer des meilleurs systèmes pour lutter efficacement contre les Ubers ou autres FinTechs de leur industrie.
Les bonnes pratiques analysées pour des transformations réusssies :
  • Pratique #1 : le voyage est aussi important que la destination !
  • Pratique #2 : des petits pas très fréquents plutôt que des bonds quantiques intermittents !
  • Pratique #3: éviter de mélanger torchons et serviettes !
  • Pratique #4: les mêmes résultats au nano-détail près !
  • Pratique #5 : tout passe par la machine et seulement par elle !
  • Bonus: structuration DevOps implicite en prime !

Source: blog Media and Tech (par didier durand)

samedi, janvier 16, 2016

Articles techniques proches d'Eranea publiés sur LinkedIn

Mes billets sur la technologie proche du métier d'Eranea, la société dont je suis co-fondateur, sont actuellement directement publiés sur mon profil dans le réseau social LinkedIn.

Cela explique le "trou" de publication sur ce blog depuis quelques temps.

La liste de ces billets sur Linkedin est :

  1. PostgreSQL 9.5 : les allocations familiales françaises gérées par l'Open Source ! Alors, pourquoi pas vos bases de données critiques ? [lien vers l'article] : une analyse de l'évolution très positive des moteurs de bases de données relationnelles issus du Logiciel Libre au cours des  5 dernières années. Ils sont désormais mûrs pour la gestion des données critiques de l'entreprise.
  2. Containers / Docker : +400% en 2015. Pourquoi ? Cas d'usage dans l'entreprise. [lien vers l'article]: les conteneurs logiciels et les plateformes PaaS / Caas sont actuellement une des technologies "bleeding edge". L'article analyse leurs apports aux équipes informatiques des grandes entreprises.
  3. Les datacenters privés basculent vers le cloud computing. [lien vers l'article] Une étude récente recense les parts de marché des grands opérateurs du cloud (Amazon AWs, Google, Microsoft, IBM) et leurs perspectives de croissance suite au changement d'attitude des grandes entreprises pour qui ces technologies qui deviennent maintenant "normales".
  4. Applications bancaires dans le cloud : bénédiction de la Finance Conduct Authority britannique. [lien vers l'article] L'autorité de tutelle britannique encourage les opérateurs financiers à basculer vers cloud computing: les fameuses FinTech pour "uberiser" les institutions traditionnelles et ces dernières pour lutter à armes égales contre leurs jeunes adversaires. Dans l'espoir d'une concurrence accrue finalement favorable aux clients!
  5. (Ré)-unification du Big Data (Hadoop) et du modèle relationnel: solutions SpliceMachine, Apache Drill. [lien vers l'article] La technologie Big Data est initialement partie sur sa propre voie technologique clairement dissociée des bases de données relationnelles classiques. Des solutions novatrices unifient Hadoop et le relationnel pour obtenir les avantages du "tout sous un même toit".
  6. Processeur quantique Google / NASA / D-Wave : 100 millions de fois plus rapide qu'un serveur x86 ! [lien vers l'article] La technologie des processeurs quantiques vient de démontrer des progrès significatifs et concrets pour une gamme ciblée de problèmes mathématiques. L'accélération phénoménale des vitesses de traitement ainsi atteinte permet d'envisager de nouvelles applications utiles .... ou futiles!
  7. Amazon IoT pour Noël : la Barbie connectée “pour les nuls” … ou les startups ! [lien vers l'article] Amazon livre les briques technologiques essentielles à la construction rapide de services d'objets connectés pour les entrepreneurs de startups qui ne veulent pas perdre du temps dans la construction de l'infrastructure informatique sous-jacente au fonctionnement efficace de ces objets qui vont révolutionner nos vies.
 Bonne lecture !

jeudi, novembre 05, 2015

Bases de données relationnelles critiques : passage à L'Open Source ? (via PostgreSQL, MySql, etc.)

[Pour voir directement notre fiche produit, aller en fin d'article]

Lors des projets de transformation vers Java/x86 que nous menons chez Eranea, nous voyons actuellement beaucoup de grands comptes informatiques se poser de profondes questions sur la remise en cause de leur système de gestion de bases de données “officiel”.

C'est très clairement Oracle qui domine avec presque la moitié d'un marché annuel de 34 milliards de dollars des bases de données commerciales. Il suffit d'ajouter IBM avec DB2 et Microsoft avec Sql Server pour en atteindre les 80% de parts de marché.

Le souci de ce chiffre quand on veut analyser les bases de données du logiciel libre (PostgreSQL, MySql,etc.), c'est qu'il ne peut servir de base de discussion puisque ces logiciels alternatifs sont par essence gratuits (ou presque si l'on inclut des contrats de support de sociétés spécialisées). C'est pour cela que la valeur de ce marché est actuellement autour de 250 millions de dollars annuels, même si il est en croissance actuelle de 50% annuels selon les chiffres du même Gartner Group. Par essence, selon les principes de l'Open Source, il ne montera jamais vers les sommets du monde propriétaire!

En effet, la table ci-dessous démontre bien que pour un serveur identique, le coût de contrat de support pour un sgbd libre n'a rien avoir du tout avec ceux de la licence et de la maintenance / assistance d'un logiciel propriétaire équivalent : au moins un ordre de grandeur les sépare !

 La mutation (des esprits) est cependant clairement en cours : nous menons divers projets dont la cible après transformation est PostgreSQL, pour de très grosses bases de données de plusieurs téraoctets avec des milliers de tables servant des applications critiques du monde financier . Un épiphénomène ? Il ne semble pas que ce soit le cas : en prenant des chiffres autres que financiers, par exemple, les statistiques d'offres d'emploi issus du site Indeed.com, on voit que la demande en compétences PostgreSQL est en pleine explosion alors que la demande pour les sgbds propriétaires régresse.


La raison de cet engouement est clairement illustrée par la même analyse Gartner à 5 ans d'intervalle (voir ci-dessous): les bases de données libres gardent leur immense avantage financier (au moins un facteur 10!) mais elles ont fait entre-temps d'énormes progrès au niveau fonctionnel pour être capables d'héberger des applications critiques, en plus des applications moins sensibles. Et depuis, les compétences d'administration sont aussi disponibles !

source: Gartner Group 2015

Nos projets nous montrent que cette compatibilité fonctionnelle « validée » par Gartner est très bonne : tous les mécanismes avancés du standard SQL (intégrité référentielle, triggers, procédures stockées, architecture haute disponibilité, etc.) sont là avec le même niveau de service. Les performances aussi respectent les SLAs en place même à haut débit transactionnel !

Le seul bémol (qui vient pour une bonne partie des imprécisions du standard SQL) est que la syntaxe d'expression des mêmes requêtes est différente entre les sgbds. C'est là que nous avons décidé d'apporter notre contribution à ces transformations en développant une technologie de transformation automatique et iso-fonctionnelle (voir encart ci-dessous) tant pour les contenants (ddl de créations des tables, indexes, etc.) que pour l'accès au contenu (select, update, delete, etc.). Selon notre philosophie habituelle de transformation incrémentale et sans risque, nous avons inclus un bonus : la transformation des requêtes applicatives vers la nouvelle syntaxe est réalisée “au vol” par un intercepteur en temps réel qui masque toutes les adaptations nécessaires durant la migration. Les développeurs peuvent rester concentrés sur leurs évolutions fonctionnelles : aucune modification de leur code source.

Par composition de l'évolution du marché et par des technologies complémentaires facilitant la transition comme la nôtre, on peut donc donner une très bonne plausibilité aux prédictions du Gartner Group qui prédit que d'ici 2018, 50% des bases de données sur systèmes propriétaires auront été migrées aux systèmes libres !

Fiche produit : solution de migration




Source: blog Media and Tech (par didier durand)

jeudi, juillet 16, 2015

Mainframe / Cobol market and Eranea's solution : updated briefing

Update on the briefing around our solution (technology, methodology) with figures regarding current context (obsolescence, HR depletion) and the size (25+ billions dollars, 220 billions lines of Cobol, 10'000 machines) of the mainframe market.

Introduction to our cornerstones : full automation and strict iso-functionality allowing incremental and fully safe transformation toward the new x86 private cloud.





Pointers to all our other reference documents :
  1. why Eranea's solution : http://goo.gl/mzawC4 (text)
  2. legacy transformation for agile innovation : http://goo.gl/bmmQ1x (text & slides)
  3. technology and methodology : http://goo.gl/4cQ1Yn (text)
  4. technology and methodology : http://goo.gl/M3H054 (slides)
email for more : contact@eranea.com

Source: blog Media and Tech (par didier durand)

lundi, juillet 13, 2015

Présentation : la transformation digitale incrémentale des applications métier pour une innovation rapide et efficace


Toutes les grandes sociétés traditionnelles tentent actuellement de booster leur transformation digitale afin d'être prêtes à riposter au plus vite quand le Uber de leur secteur industriel va émerger.

La technologie de transcodage 100% automatique et strictement iso-fonctionnelle d'Eranea apporte des éléments à cette transformation digitale rapide:

  • elle permet d'innover très vite, dès le début du projet de migration vers x86 / Java / web , alors même que la migration des utilisateurs et processus en place n'a pas encore débuté. Pas de “tunnel” sans fin, mais des services innovants rapidement visibles.
  • elle permet d'innover “au-dessus” de l'existant : le nouveau service s'appuie sur tout le logiciel applicatif transcodé vers Java pour fonctionner. Il n'a pas à “ré-inventer la poudre” mais juste à développer sa propre valeur ajoutée en s'appuyant sur un patrimoine applicatif abondamment éprouvé par des années de fonctionnement sans faille. L'agilité est donc au rendez-vous!
  • elle permet d'innover à l'échelle complète de la société : le nouveau service s'appuie sur la nouvelle architecture de migration destinée à servir – à travers la flexibilité et la scalabilité du cloud computing - la totalité de l'entreprise à un niveau de service équivalent (disponibilité, performances, etc.) à celui du mainframe en cours de décommissionnement. Cette architecture est apte à servir les (dizaines de) milliers d'utilisateurs de l'organisation donc y ajouter la charge supplémentaire nouvelle induite par ces nouveaux services n'est pas un problème ! Donc, plus de micro-prototype séduisant initialement mais passant péniblement à l'échelle par défaut d'une architecture solide : ici, l'innovation se fait directement dans les conditions de fiabilité des systèmes de production.  L'iinovation est directement 100% efficace !




Les différents exemples de notre nouvelle présentation démontrent comment :
  1. doter une application “historique” (= mainframe) d'une interface web (html + ajax) conforme à l'état de l'art.
  2. l'ouvrir ensuite sur Internet pour servir de nouveaux besoins: des employés équipés de terminaux mobiles (téléphones, tablettes), des clients externes, etc.
  3. interfacer le système (en cours de migration) critique pour le métier avec un package logiciel tiers interne ou une plate-forme de branche externe sur Internet grâce aux services web (soap ou rest)
  4. tirer le meilleur parti des facultés de parallélisation automatique grâce à Hadoop capable d'exécuter facilement les programmes en batch transcodés vers du Java, langage de base de cette plate-forme Big Data

La présentation ci-dessus a donc été créé pour démontrer que la frugalité (= 90% d'économies sur les coûts mainframes initiaux → des millions d'euros annuels récurrents) n'est pas l'unique livrable d'Eranea : l'agilité pour une innovation rapide et l'efficacité pour une innovation globale sont aussi au menu, au choix en entrée ou en dessert !

Le plat principal de la transformation globale est bien sûr lui toujours consommé en parallèle !

[Pour tous les détails : à partir de la page 28 de la présentation ci-dessus, des notes complémentaires accompagnent les slides. Sinon, écrire à contact@eranea.com pour obtenir des réponses à vos questions]

Pour les détails techniques de la solution, notre présentation de la technologie, des outils et de la méthodologie de transformation incrémentale est toujours plus complète : 40 slides ont été ajoutés pour présenter en profondeur l'interface et les services de NeaControlCenter. Voir ci-dessous à partir du slide 35.

 

Eranea's solution and technology for mainframe migration / transformation : detailled presentation from Eranea

Un texte descriptif détaillé présentatnt la technologie et comparant aussi replatforming and transformation applicative structurelle est disponible aussi :




Source: blog Media and Tech (par didier durand)

mardi, juin 16, 2015

Transformation digitale des « majors » : catalysée par l'hémorragie des compétences mainframe ?

Article repris de mes publications sur ZDNet.fr :  Article repris de mes publications sur ZDNet.fr : 
  
Transformation digitale des « majors » : catalysée par l'hémorragie des compétences mainframe ?

Une hémorragie de compétences est prévisible à 3 ans pour le monde des mainframes alors que ces machines représentent toujours l'épine dorsale numérique des plus grandes entreprises. La transformation technologique incrémentale ne doit-elle pas être la première étape de la transformation numérique de ces entreprises pour mettre leur propriété intellectuelle compétitive en sécurité ?

Deux chiffres s'opposent dans une récente étude de la société américaine Compuware qui édite des logiciels pour mainframes : 89 % des répondants reconnaissent que la propriété intellectuelle intégrée dans le code source des applications fonctionnant sur ces machines est un atout / un capital à protéger alors que 70 à 80 % des effectifs mainframes vont partir en retraite dans les 3 ans. L'étape de « transcodage technologique » des transformations digitales en route au sein de certaines entreprises majeures serait-elle la bonne résolution de ce paradoxe ?

En effet, les mainframes ont fait les beaux jours d'IBM en étant, il y a 2 ou 3 décennies, les systèmes informatiques critiques, “l'épine dorsale numérique”, de toutes les grandes entreprises de l'industrie ou du tertiaire.

Ils sont encore incontournables dans toutes ces organisations publiques ou privées majeures, en particulier dans le monde financier: l'étude Compuware qui vient de sortir fait ressortir que 88% des CIOs / DSIs des 350 entreprises mondiales de 10'000 employés et plus interrogés disent que le mainframe restera un élément vital de leur informatique dans la décennie à venir. Ce chiffre corrobore des données récentes d'IBM : 30 milliards de transactions concernant des achats boursiers, des transferts de fonds, de la gestion de production industrielle sont exécutés quotidiennement sur les mainframes situés dans les 96 des 100 premières banques mondiales, les 23 des 25 premiers distributeurs US, les 9 des 10 premières assurances mondiales, etc.

Et très paradoxalement, ces CIOs déclarent aussi à Compuware que 70 à 80% de leurs effectifs liés au mainframe vont partir à la retraite dans les 3 prochaines années et qu'une bonne partie d'entre eux pourraient de toute façon déjà y être ! 39 % de ces responsables admettent enfin ne pas avoir de plan de remplacement effectivement prêt pour traiter cet état de fait.

C'est d'autant plus embarrassant que les étudiants en informatique sortant des universités ne se bousculent pas pour occuper ces futurs postes vacants : le monde du cloud computing et celui des archictectures distribuées sont beaucoup plus attractifs actuellement car ce sont les seules architectures utilisées par les “gorilles” du web (Google, Facebook, Amazon, etc.), icônes de l'industrie informatique actuelle. Les gros monolithes des ères informatiques antérieures n'attirent donc (plus) personne ! L'équation est simple : il ne se vend que quelques milliers de mainframes chaque année alors que plus de 10 millions de serveurs x86 sont acquis et installés dans le même laps de temps.

Que faire ? Attendre en espérant une recrudescence (improbable...) de vocations autour de ces systèmes conçus pour une autre ère de l'information où le buzz ne se faisait par autour de mots comme Hadoop, Docker, micro-services, Big Data, DevOps, etc. ? Ou prendre le taureau par les cornes pour tenter de quitter l'impasse.

Ce n'est d'ailleurs pas une impasse mais plutôt une tour d'ivoire dans laquelle ces mainframes sont enfermés depuis trop longtemps : il faut casser les murs de cette tour pour en intégrer son otage avec les autres serveurs du système afin de pouvoir préparer un transfert progressif de ses activités vers les nouvelles générations de matériel.

Et là, la politique de la “terre brûlée” est la plus mauvaise idée : il faut définir des plans de transition très incrémentaux donc sans risque dans lesquels le fonctionnel n'est pas impacté mais simplement “transcodé” en mode iso-fonctionnel dans des technologies adaptées aux nouvelles générations technologiques afin de préserver la propriété intellectuelle et l'avantage qu'il représente (cf les 89 % introductifs).

Cette propriété intellectuelle “métier” de l'entreprise est ainsi mise en sécurité de manière pérenne sur une plate-forme à l'avenir garanti que ce soit sur le plan technologique comme sur le plan des ressources humaines.

La première étape de la transformation digitale que toutes les entreprises traditionnelles majeures cherchent actuellement à s'imposer devrait donc être celle d'une pérennisation par transposition de leur propriété intellectuelle compétitive, “gravée” dans les algorithmes mainframe par la génération qui part à la retraite. Ensuite, la course à l'innovation destinée à contrer tous les nouveaux acteurs du web qui dévorent tous les marchés : l'agilité des processus et la fluidité inter-canaux gagnées par la transposition technique peut être mise à profit pour reprendre des parts de marché

Notre expérience est que la transformation technologique n'est peut-être pas l'étape la plus excitante sur l'agenda de tous les CDOs (Chief Digital Officer) actuellement nommés à tour de bras par les grandes entreprises. Elle est cependant un pré-requis à la transformation organisationnelle / opérationnelle / commerciale induite par l'adjonction de l' « Internet (mobile) à toutes les étages » des processus qui est le Graal actuellement quêté par tous ces CDOs.

Source: blog Media and Tech (par didier durand)

mercredi, mars 11, 2015

Bank of America : 1,5 milliard d'économies grâce à un cloud OpenCompute de Facebook

Article repris de mes publications sur ZDNet.fr : 

Bank of America : 1,5 milliards d'économies grâce à un cloud OpenCompute de Facebook

Cloud Computing : Le projet de serveurs x86 Open Source initié par Facebook devra permettre à Bank Of America d'économiser 50% de ces coûts d'exploitation informatiques à l'horizon 2018 en migrant 80% de ces applications sur son nouveau cloud privé en forme de “Software Defined Data Center”.

Bank of America est la 12ème banque mondiale avec 2.1 trillions de dollars d'avoirs sous gestion. C'est donc du lourd! Pour gérer les actifs de ces clients, elle effectue plus de 3 milliards de dollars de dépenses informatiques annuelles en 2014.

Eh bien, cette facture va diminuer : David Reilly, CTO responsable des infrastructures, se donne 3 ans jusqu'à 2018 pour passer 80% de ses applications sur une nouvelle infrastructure de cloud privé basée sur le projet OpenCompute (serveurs x86 dont le design est  “open source”) initié par Facebook. A travers, ce projet, la banque va créer un cloud privé à base de serveurs en marque blanche au design optimisé pour les nouveaux datacenters “hyperconvergés” où toutes les ressources (cpu, stockage, réseau, etc.) sont “as a Service”, provisionnées par API.

C'est donc un modèle canonique de “Software Defined Data Center” (SDDC) que Bank Of America prépare par cet ambitieux projet. Deux pistes sont retenues à ce moment pour garder toutes les options ouvertes : un cloud privé sur base OpenStack et une technologie interne.

Mais, ce n'est pas de l'art pour l'art : l'objectif officiellement affiché est une réduction des coûts d'exploitation informatiques de 50%! Les jours glorieux des grands fournisseurs de serveurs x86 qui trouvent une manne au sein du secteur financiers semblent comptés car le succès de ce projet fera nécessairement tâche d'huile.

Cet objectif de 50% est réaliste : Facebook a annoncé avoir économisé 1.2 milliards de dollars l'an dernier grâce aux serveurs construits sur base OpenCompute. Bien sûr sur le coût de ces serveurs mais aussi sur leur efficacité électrique : l'équivalent de l'énergie de 40'000 maisons individuelles et celui de l'empreinte carbone de 50'000 voitures ont ainsi été “sauvés” selon les récents propos de Mark Zuckerberg, le ceo de Facebook.

Pour Bank of America, l'atteinte de cet objectif permettra donc de réaliser 1.5 milliards de dollars.

Bien sûr, c'est déjà un but en soi ! Mais, ce gain pécuniaire reste très tactique. L'objectif beaucoup plus stratégique de la démarche est celui qui va servir le métier : la virtualisation complète offerte par un tel SDDC va offrir une flexibilité, une scalabilité et une agilité sans commune mesure avec l'architecture “physique” actuelle de la banque.

La réactivité du métier en sera ainsi maximisée. A une époque où le métier bancaire subit une évolution  permanente de sa réglementation et où la demande des clients se sophistique en permanence (mobilité, dématérialisation, etc.), les systèmes informatiques des grandes banques doivent se doter de moyens de suivre le rythme !
Source: blog Media and Tech (par didier durand)

vendredi, mars 06, 2015

CDO et transformation numérique : carnet des meilleures recettes (pratiques!)

Article repris de mes publications sur ZDNet.fr :

CDO et transformation numérique : carnet des meilleures recettes (pratiques!)

Cloud Computing : Inquiètes par l'arrivée des nouveaux entrants « Internet first » qui chamboulent la répartition des rôles sur le marché secteur après secteur, toutes les plus grandes sociétés nomment actuellement leur Chief Digital Officer qui doit apporter certes une vision stratégique mais aussi les bonnes recettes tactiques pour contrer cette déferlante. De bons principes techniques concrets existent, à chacun de les décliner dans son contexte.
GDF Suez, L'Oréal, Danone, ERDF ont récemment nommé leur Chief Digital Officer (CDO) comme 40% des sociétés du CAC40 et la plupart des grandes sociétés au monde. Ce nouveaux CxO est supposé être le catalyseur de la transformation vers le numérique en même temps que le rempart contre les nouveaux entrants qui font place nette sur leur passage.

En effet, les grands leaders des différents secteurs industriels ont vu leurs homologues d''autres domaines se faire “tondre” par des nouveaux entrants. Ces derniers ont pour première priorité d'exposer leur processus de vente, de production, de livraison via l'Internet au sens le plus large (PCs, tablettes, mobiles, etc.). Ils veulent ainsi être les plus efficaces et les plus transparents possibles pour attirer la plus large fraction de la demande potentiellement infinie générée par Internet.

On peut ici citer Amazon pour la vente par correspondance, Paypal pour les services financiers et plus récemment Uber pour les services de taxi. Ajoutez ensuite qui vous voulez selon votre secteur de prédilection.

Donc, las de voir leurs homologues décimés par la jeune génération et voulant éviter de subir le même sort, les grandes sociétés nomment leur messie pour éviter de passer à la trappe grâce aux bonnes méthodes de cet(te) homme / femme providentielle.

Au-delà d'une vision à long terme très éthérée, on attend du CDO des recettes tactiques concrètes qui font progresser efficacement le sujet de la transformation chez son employeur. 

La participation récurrente aux projets lancés lors de ces transformations numériques fait émerger, selon mon expérience, quelques meilleures pratiques techniques et méthodologiques que je veux détailler ci-après.

La fixation des bons objectifs est essentielle : le plus important est certainement le désenclavement. En effet, ces grandes sociétés ont toutes des systèmes historiques qui “font tourner la maison” au quotidien en gérant les processus de commande, fabrication, livraison. Ces systèmes sont le plus sont propriétaires (mainframes, etc.) donc peu flexibles et péniblement interconnectés avec les autres serveurs de la maison et l'Internet. Il est impératif de fixer un objectif ambitieux de transformation du système principal vers des technologies modernes et ouvertes qui lui permettront de participer ensuite directement et efficacement à l'ensemble des processus du métier qui seront exposés sur Internet.

Dans la même veine, la fluidité et la continuité de ces processus sont critiques. Il serait vain voire létal de donner une impression de grande fluidité des processus internes par une “vitrine” (le site Internet ou les applications mobiles) trop attirante et procurant un faux semblant de transparence et d'efficacité si l'interconnexion entre la vitrine et l'arrière-boutique (= le système de gestion) est ensuite essentiellement manuelle sous la responsabilité de “petites mains” qui ne peuvent qu'introduire erreurs et délais en copiant les informations entre les divers systèmes.

Après les objectifs (= le QUOI), vient le chemin pour les atteindre (= le COMMENT). A nouveau, de multiples projets nous ont procuré les expériences suivantes.

L'absence de risque est vitale : les systèmes à transformer sont massifs. Pour la seule utilisation interne, ils servent déjà des milliers d'utilisateurs. Il est impensable pour tout CDO digne de ce nom de proposer une approche “Big Bang” où l'héritage informatique est remplacé du jour au lendemain par un nouveau système. Nous voyons donc (et recommandons vivement !) régulièrement des transformations incrémentales où la charge de travail mainframe historique est mutée sur une période longue de plusieurs mois vers le nouveau système (cloud privé x86, etc.) : d'abord quelques utilisateurs pionniers puis une première vague plus consistante avant que le gros des troupes ne débarque sur le nouveau système qui aura ainsi été purgé de ses problèmes de jeunesse en gênant la productivité au minimum.

La fluidité et l'homogénéité vont de pair avec la sécurité : les processus doivent rester efficaces tant pour les éclaireurs pionniers que pour les autres collaborateurs avec lesquels ils échangent dans le pilotage des processus dont ils sont responsables. En clair, le nouveau système et l'ancien ne peuvent être disjoints : ils doivent partager leurs données en temps réel autant en lecture qu'en écriture et si possible à travers une seule et même base de données (pour éviter les « machines infernales » de synchronisation bidirectionnelle...). C'est la condition sine qua non d'une transformation sans heurts nu perte de contrôle.

L'efficacité doit continuer à primer : la transformation numérique emmène la société davantage vers le monde de l'Internet où les marges financières et les délais de réaction sont toujours plus étroits. Donc, la vie en parallèle de l'ancien et nouveau système pendant la longue période de transition nécessaire à la sécurité (voir plus haut) ne doit pas nécessiter la maintenance à double des 2 systèmes (anciens et nouveau): l'un doit dériver automatiquement de l'autre. C'est en général le nouveau système qui est construit automatiquement à partir du système historique. En particulier, durant la transition, les changements apportés au système historique doivent pouvoir être automatiquement reportés sur la nouvelle plates-formes. C'est le chemin en général le plus naturel.

La cible doit être soignée : la plate-forme technologique du nouveau système doit offrir tous les gages d'un système moderne en termes d'agilité, de flexibilité, de scalabilité. Notre expérience est qu'il souvent ici souvent favorable de se mettre dans le sillage des gorilles de l'Internet (Google, Facebook, Amazon, etc.) en copiant leurs meilleures pratiques voire en utilisant les technologies qu'ils publient en Open Source sur Internet. Ces sociétés n'ont pas eu à faire de transformation numérique : elles sont néés avec l'Internet et en représente certainement les formes canoniques, voire l'ADN. Elles ont donc forcément vu juste  dans l'élaboration de leur système informatique car il est le composant essentiel de leur structure interne.

L'architecture doit être ambitieuse : quand on les expose sur Internet, le volume de traitement des systèmes de gestion peut exploser brutalement car la demande (au moins en informations) peut brutalement devenir colossale. Il faut donc travailler ici aussi à la mode des gorilles du Net : un composant de base (serveur x86) de taille modeste mais “empilable” à volonté et par tout petit incrément afin de ne pas avoir en entrer dans des « branle-bas de combat décisionnels » interminables à chaque besoin d'augmentation de capacité. Empiler de nouveaux serveurs coûtant quelques milliers d'euros est très simple à mettre en oeuvre, beaucoup plus que l'achat d'une seule machine coûtant plusieurs millions ! C'est un mode de développement “biologique”  tout à fait conforme à la vision d'évolution organique de l'Internet. Quand on veut basculer vers un nouveau paradigme autant aligner son mode de fonctionnement sur celui de l'étalon !

Ce livre de recettes peut sûrement être encore étoffé mais son application garantit déjà une transformation numérique très réussie. Il est bien sûr nécessaire de trouver à ces ingrédients génériques leur déclinaison pertinente dans un contexte particulier : la petite épice supplémentaire qui laisse un souvenir impérissable à tous ceux qui y goûtent ...
Source: blog Media and Tech (par didier durand)

Etude Ubuntu - Le cloud pour les applications critiques d'entreprise: avec prudence et tout en douceur !

Article repris de mes publications sur ZDNet.fr :

 Etude Ubuntu - Le cloud pour les applications critiques d'entreprise: avec prudence et tout en douceur !



Analyse : Canonical publie la 6ème édition de son enquête annuelle sur le cloud computing. En synthèse, les entreprises basculent vers cette « énergie informatique unifiée» mais à leur rythme, donc sans précipitation ni risques.
Canonical, l'éditeur d'Ubuntu vient de publier les résultats de sa 6ème enquête annuelle sur le Cloud et les serveurs. Elle met en avant des résultats logiques et sans surprise, basés les réponses de 3'100 sociétés utilisatrices. Ils sont sans surprise pour moi car très cohérents avec les dires des nombreux CIOs que je rencontre quand ils cherchent un chemin de transformation incrémental, donc dénué de tout risque, vers le cloud pour les applications critiques à leur métier sur mainframe.

En effet, l'étude Ubuntu démontrer un fort progrès de la pénétration des technologies de cloud computing mais avec un avantage net pour le cloud privé : le cloud privé est le segment dominant actuel avec 35.5% des installations et représente plus de 51% des projets prévus à 12 mois. Le cloud hybride représente 40% des nouveaux projets. Au total, 55% des répondants s'attendent à une forte hausse de l'usage du cloud dans leur société, toutes formes confondues.

L'addition des projets privés et hybrides démontre clairement qu'il existe une partie de leurs applications que les utilisateurs de cloud ne souhaitent à ce moment pas exposer sur des clouds publics. L'analyse Canonical donne une partie de la réponse : la sécurité et la protection des données avec 35% représentent le premier obstacle à une adoption plus massive.

Mais, selon les visions des CIOs que je rencontre, il y a une autre raison : l'application de l'adage jamais démenti “déléguer sans contrôler, c'est abdiquer”. Ils sont donc nombreux à vouloir maîtriser et dominer la technologie cloud par une prise de compétences interne avant de transférer la gestion de leur “énergie informatique” à un prestataire afin de pouvoir garder le système sous contrôle malgré tout quand ils ne le piloteront plus directement.

Il est donc logique de débuter le voyage vers le cloud par le transfert de ses applications par une mise en place interne. De plus, à travailler “derrière le rideau”, on peut faire plus discrètement donc avec moins de visibilité toutes les petites bourdes inhérentes à un tel apprentissage lorsque l'on transfère ses serveurs vers son cloud interne.

De plus, dans les situations de transformation massive d'applications critiques, par exemple mainframe vers x86, situations qui m'occupent le plus souvent, le passage par un cloud privé est la première étape obligée : elle permet, par une méthodologie et des processus de transformation idoine, une migration extrêmement incrémentale donc une transition fluide et sans risque vers les technologies cloud.

Quand son cloud privé est rôdé, le client peut ensuite envisager sereinement une seconde étape plus simple : celle du cloud hybride souvent mis en œuvre pour gérer les besoins en débordement de capacité ou l'accueil des applications naturellement affines avec le cloud public, comme les sites web, les serveurs de messagerie, etc. Pour ce cloud privé, OpenStack, lancée conjointement en 2010 par RackSpace et la Nasa,  a le vent en poupe : il est leader avec un quart des installations. 65 % des répondants juge cette pile logicielle comme apte à l'hébergement et à l'exploitation des applications critiques à leur métier.

Ce sont la jeunesse de la technologie, ces barrières sécuritaires actuelles et les étapes préliminaires (création de l'infrastructure interne « solide ») qui explique en partie la répartition actuelle des utilisations du cloud selon Canonical:
 2015-01-30-cloud-survey
Il est encore finalement fort peu utilisé pour les applications critiques même si les répondants le jugent apte : ils doivent encore apprendre à s'en servir correctement au quotidien pour assurer le bon niveau de disponibilité et de performances.

Enfin, Canonical donne un autre résultat sans surprise : Amazon AWS et Google Cloud se taillent la part du lion dans le marché du cloud public à ce avec 21 + 30 = 51 % des utilisations. Microsoft Azure, HP Cloud et IBM SmartCloud suivent loin derrière avec un total d'environ 10 % pour eux trois réunis ! Mais, toutes les cartes ne sont pas jouées dans ce marché ! Au contraire, les entreprises ont encore les atouts-maîtres (= les applications critiques) dans leur jeu : elles les joueront en toute sécurité après la prise de compétences interne préalable nécessaire.

Les fournisseurs traditionnels de l'entreprise que sont HP, IBM et Microsoft peuvent alors espérer combler leur retard grâce à ce créneau du « haut de gamme » certainement le plus susceptible de produire les meilleures marges. Mais, il ne faut pas mollir car les « gorilles du web » apprennent vite à travailler avec les grandes sociétés : ils adaptent leur offre à vitesse grand V (solutions privatives, infrastructures spécifiques, contrats particuliers, etc.) pour transformer leurs services cloud de leur forme initiale de commodité vers le haut de gamme qui sied aux applications essentielles à l'entreprise...
Source: blog Media and Tech (par didier durand)