vendredi, août 15, 2014

processeur Risc Sparc M7 : 10 milliards de transistors sur une puce !

Sun vient d'annoncer sa dernière génération de processeurs RISC Sparc : le Sparc M7 (livré en 2015).

La première chose à reconnaître, c'est que Larry Ellison tient parole : quand il avait dit au rachat de Sun par Oracle qu'il "avait vu la lumière" et qu'une des fortes motivations du rachat était la propriété intégrale du processeur Sparc pour assurer l'indépendance future d'Oracle, personne ne le croyait !

En particulier, il avait dit: "Nous n'entrons pas dans le business du matériel. Nous nous n'y attachons aucun intérêt. Nous avons par contre un  profond intérêt pour le domaine des systèmes intégrés". On pensait qu'il n'en voulait en fait qu'au logiciel de Sun, en particulier Java vu son adoption forte dans les entreprises. Eh bien, Larry a tenu largement parole: le M7 est la sixième génération de Sparc produite par Oracle depuis l'acquisition.

Cette nouvelle génération donnera bien davantage de puissance brute de calcul à la gamme des systèmes intégrés Exa (fonctionnant sur Sparc) livrés par Oracle depuis le rachat. Mais, surtout, elle permet aussi à Oracle grâce à  ce statut de "fondeur" de silicium acquis via Sun de mettre des fonctions spécifiques au traitement des requêtes de bases données ("query accelerator") ou à celui du langage Java ("garbage collection") directement au niveau du processeur pour optimiser le fonctionnement du logiciel.

Oracle estime que le boost de performances fourni par cette puce par rapport à son grand frère Sparc M6 est le suivant pour différents types de banchmarks :



Je trouve personnellement fascinant que la loi de Moore continue à rester valide presque 50 ans (grâce à la réduction permanente et rapide de la taille des transistors)  après sa proclamation : le M7 lui fait passer un jalon marquant avec 10 milliards de transistors sur un seul chip

Si je fais bien le calcul, on devrait dépasser les 100 milliards de transistor sur un chip à moins de 10 ans : Intel comme Oracle annoncent des processus de fabrication pour le 5 nanomètres alors que nous en sommes à 20 nanomètres pour l'instant. Donc un potentiel d'augmentation de (20/5) = 4 au carré (puisqu'on travaille sur une surface) soit un facteur 16 encore devant nous. Pas mal de chemin parcouru depuis le million de transistors du 80486 il y a 25 ans ou les 100 millions il y a moins de 10 ans !

La concurrence est dans le même ordre de grandeur : IBM à 4.2 milliards avec le Power8 récemment annoncé, Intel à 4.3 milliards de transistors par chip pour ses derniers Xeon E7 8890 v2.

Ce processeur M7 est donc une bête de course, et plutôt dans la catégorie Formule 1!  Il s'adresse cependant à un segment très restreint : le haut du panier des 155'000 serveurs Risc vendus chaque année, un marché sûrement juteux (fortes marges) mais bien petit comparé aux 10 millions de serveurs x86 vendus annuellement.

La tendance architecturale des dernières années est poursuivie sur le M7: la fréquence d'horloge n'augmente plus vraiment sinon la consommation électrique et les calories dissipées explosent de manière exponentielle! C'est le parallélisme qui augmente grâce aux transistors supplémentaires : le M7 offre 32 cores pouvant exécuter autant d'activités distinctes de manière simultanée, voire même beaucoup plus puisque 8 threads logiciels distincts peuvent être traités sur chaque core matériel qui leur partage ses ressources ("dynamic threading").


Chez Eranea, nous suivons l'évolution de ce marché des processeurs au plus près :
  • la beauté de Java (au coeur de notre technologie de migration) est d'être parfaitement agnostique au processeur (elle redéfinit ses propres instructions et son modèle mémoire : le fameux Java bytecode)  donc totalement portable : les applications Cobol /  mainframe que nous transcodons vers Java peuvent donc être exécutées - si leur taille ou la puissance de calcul nécessaire le justifient - sur le processeur le plus puissant du moment. Ce processeur peut évoluer dans le temps (RISC, x86) d'un fournisseur à l'autre sans que cela ne pose de questions / soucis particuliers : encodage des données, jeu d'instructions, opération de bas niveau.... Le "Write Once, Run Anywhere" (WORA) de Java est un atout précieux ! Nous l'expérimentons souvent sur des OS divers comme Linux, AIX, Windows, Solaris, etc.
  • de très grandes sociétés avec des systèmes transactionnels de très grande taille (plus de 1'000 transactions par seconde) analysent des migrations par transcodage vers Java de leurs applications métier critiques. Il est rassurant pour elles de savoir que la course à la puissance brute se poursuit chez les constructeurs même si les architectures par scalabilité horizontale (basées sur plus de serveurs moins puissants ) que nous prônons permettent d'aller elles aussi très très loin. Avoir des alternatives est toujours rassurant et sain !
Le fun ultime, c'est de se dire que cette puissance de calcul monstrueuse va bien finir par se retrouver dans notre poche (d'ici des années quand même...) sur notre téléphone mobile.

Gageons que les développeurs d'applications mobiles auront d'ici là trouvé les bons moyens, selon la prédiction de Carver Mead,  de "gaspiller ces innombrables transistors"  de manière "intelligente" afin que cet oxymore n'en soit finalement pas un  !

Source: blog Media and Tech (par didier durand)

jeudi, août 14, 2014

Cloud computing : Amazon AWS aussi gros que ses 4 poursuivants réunis Google, Microsoft, IBM. Salesforce - marché annuel 2014 = 10 milliards d'euros annuels!

Un état du marché des services d'infrastructure de cloud computing (IaaS) fort instructif publié par Synergy Research Group (SRG) :



 En 1 an, les 4 challengers Google, IBM, Microsoft et Salesforce rattrapent le leader incontesté du domaine Amazon AWS, en unissant leur force ... car chacun isolé est encore un tout petit David face au Goliath géant.

C'est certainement Microsoft, le seul avec une croissance à trois chiffres (+164%) qui permet ce dépassement.

Tout ce petit  monde jouit quand même  d'une belle croissance à 2 chiffres... Même pour Amazon, vu la taille énorme déjà atteinte (quasiment un milliard de dollars par trimestre), croître encore de +49% en 12 mois reste une énorme performance !

Cette vitalité très élevée est stimulée par l'adhésion des PMEs qui sont ravies de déléguer le sujet "infrastructure" à des acteurs qui doivent y exceller pour soutenir leur métier de base (cf les propos de E. Schmidt il y déjà un moment). Les grandes entreprises ne les utilisent, elles,  que pour une certaine classe d'applications (web, etc.) "génétiquement connexes" au cloud computing. Par contre, elles sont encore très prudentes pour leurs applications critiques commes celles que nous migrons depuis leur mainframe vers le cloud mais PRIVE : j'ai déjà longuement expliqué pourquoi.

SRG prédit donc un marché 2014 total à 10 milliards de dollars : il pourrait sûrement être massivement plus important si une guerre des prix fratricide, initiée par Google et ayant déjà fait des victimes comme RackSpace , n'était pas en route !

Les services IaaS sont un cas typique de business à effet d'échelle important. Cet effet se matérialise à la fois sur le coût pur des infrastructures qui coûtent forcémment beaucoup moins cher unitairement quand leur volume total est massif mais aussi  sur le côté engineering / administration où les hommes finissent par coûter très (trop ?) chers si les datacenters où ils travaillent n'ont pas l'échelle suffisante pour amortir le prix de leur fortes compétences.

On va donc avoir une très forte concentration de ce marché dans les 24-36 mois à venir : la nuée de micro-opérateurs de cloud computing (pour certains, juste de bon vieux hébegeurs qui surfent sur le buzz du moment) actuellement en pleine effervescence sur la marché va se faire absorber dans le meilleur des cas, anéantir dans le pire des cas par ces mastodontes qui vont tout balayer.

Vouloir jouer au jeu du "cloud computing mode discount", i.e à prix minimal est réservé aux tout grands. Les petits doivent trouver des niches où leurs coûts supérieurs sont supportés par la facturation de services supplémentaires offrant au client un confort supérieur au "matériel (virtualisé) brut" offert par ces géants qui ne souhaitent pas le contact du service : l'API / l'interface web de leur "datacenter programmable" est le niveau maximal d'intimité qu'ils souhaitent avec leurs clients . Ils laissent donc de la place dans des niches pour se différencier par un service VIP.

Mais, jouer leur jeu d'échelle est inaccessible à la vaste majorité des acteurs actuels du marché :  Amazon, Google et Microsoft annoncent des dépenses pharaoniques pour poursuivre leur développement technologique et commercial respectif : 4.6 milliards de dollars cumulés pour les 3 sur le premier trimestre 2014 pour bâtir leurs datacenters et les équiper en milliers de serveurs . IBM est plus "modeste" avec seulement 1.2 milliards pour l'ensemble de l'année pour ses extensions de datacenters

Les rouleaux compresseurs sont en marche : le développement massif du marché d'une  "énergie informatique" en tant que commodité similaire à l'énergie électrique, c'est maintenant ! Mais, tout le monde ne peut pas entrer dans le jeu : le ticket d'entrée limite les acteurs potentiels .

Naissance d'un nouvel oligopole ?


Source: blog Media and Tech (par didier durand)

mercredi, août 13, 2014

Backupify : l'impact du cloud sur notre vie professionnelle

Une infographie intéressante récemment publiée par Backupify, spécialiste du backup dans le cloud.

Elle tente d'illustrer certains impacts de l'ensemble des services du cloud computing public, dans son acception la plus large, sur la vie professionnelle de chacun.

Ce que je retiens de cette illustration par rapport à mes propres pratiques :
  • j'installe très régulièrement sur ma tablette  des mises à jours d'applications bien plus importantes que les 13 disquettes de Microsoft Windows de l'époque. Elles arrivent par le réseau (Wifi ou 3G) sans même me soucier de leur volume et de leur coûts : la 3G les transporte très vite et mon forfait mobile me permet un accès Internet illimité. J'ai oublié ce qu'était les disquettes et ma clef USB me sert de plus en plus rarement...
  • je partage des tonnes de documents via Google Drive, Dropbox avec mes collègues ou  : je n'inprime plus rien ou presque. Et cependant, j'ai finalement tout mon bureau toujours avec moi : je rattrape sur le cloud les documents que je n'aurais pas sur mon outil de travail à l'instant t...
  • Skype m'est indispensable : communication vocale et surtout échanges en chat permanents avec mes collègues et partenaires.
  • le télétravail est une notion qui devient même floue : beaucoup des ressources que j'utilise sur sur Amazon AWS (EC2, S3, etc.) donc j'y en suis finalement toujours très éloigné que je sois au bureau, à la maison ou chez un client. L'ubiquité des services Cloud amenées par Internet et les réseaux mobiles fait que le mode "télé" est finalement permanent donc n'est plus à noter en tant que tel...

Donc, je peux voire admettre que le Cloud a profondémment bouleversé mes méthodes de travail. Pour le mieux ? Oui, je le crois : plus de flexibilité, de réactivité, etc. Seul revers : savoir "tirer sur le cordon de la prise" pour déconnecter sinon l'ubiquité d'accès se transforme vite en "tyrannie de la réponse obligée". Je pense aussi aux mails qui arrivent en permanence sur le téléphone portable : on ne les laisse plus au bureau comme par le passé.

Et vous, votre "job in the cloud", il est mieux qu'avant ?

Source: blog Media and Tech (par didier durand)

vendredi, août 08, 2014

Docker vs kvm = containers vs virtualization (IBM research paper). The next big thing in datacenters ?

At Eranea, our current architecture for the Cobol application that we transcode away from mainframe to Java running on Linux is the private cloud like CloudStack or Openstack (see why  here).

Thanks to many advances over the years in hardware assistance for virtualization, kvm is now fine from a performance standpoint (in most cases), so we usually run our migrations over this hypervisor especially as it is favored by Redhat (the OSS "brand" favored by customers) in its RHEV product. Basically, we split the migrated mainframe into many Linux instances  with specialized functions (HA proxies, load balancers via Apache, processing instance via Java AS, database engines, etc.)

But, we're always monitoring the trends to find other ways of doing things. So, we monitor the huge buzz around Docker very extensively : (Linux) containers seems to be the "next big thing" in IT infrastructure and datacenters. Wikipedia introduces to Docker here)

Rather, than running it a full OS under the control of an hypervisor, you isolate the applicative function in a container and run it on a single instance of Linux in parallel (see this ZDNet article) with many other workloads themselves also isolated in their own container.

For us, the interest at this point is not yet production : we will continue to run applications as a cluster of kvm instances. But, for tests, Docker may prove the right solution to run, on a single OS, together all the various kinds of instances that we need in a productive cloud with all functional effects of networking across instances reproduced by networking across containers.

We do start those tests now.

In doing our initial homework, we found this very recent research paper by IBM comparing virtualization (kvm) to containers (Docker). I deeply recommend its detailled reading :
  • it very well explains the core motivation of both for isolation : resource control, functional and security isolation (parag #1)
  • it details in full length the basics of Docker (cgroups, namespaces, etc.) (parag #1 and #2.3)
  • it finally compares both across various benchmarks (parag #3) to conclude that Docker has always negligible overhead when compared to native runs and consequently outperforms kvm for I/O intensive workloads (storage, network). This comes of course at the expense of a less "sealing" isolation when compared to standard virtualization.
By the way, there is a question to which this excellent paper doesn't answer. It is asked by the very recent article of Forbes around Docker, the eponymous mother company of this white-hot container technilogy : how come can a company having no revenue yet (and not even knowing either how to generate some...) be raising 40-75 millions dollars at a valuation of $400 millions ?

Container technology is clearly a key building block of cloud computing for the years to come. But, will this brick really become THE cornerstone of the edifice as this stellar valuation seems to assert it ?

Your opinions are welcome !

Source: blog Media and Tech (par didier durand)