Le "marché", ceux qui ont besoin de cette puissance, vont annoncer leur prix et leur volume d'achat. Et Amazon commencera par servir ceux qui font la meilleure offre, puis les suivants, etc...
la démarche est particulièrement intéressante:
- elle va forcer les acheteurs à se poser la question de valeur économique des résultats de leurs traitements: j'en ai besoin très vite alors j'offre un prix élevé, je suis moins pressé alors je propose un prix plus bas.
- elle va permettre en particulier à ceux qui traitent des immenses volumes de données (projets type Folding@Home ou Seti@Home, etc...) mais qui ne sont pas pressés de faire leurs traitement au plus bas pris en se glissant dans les trous. Les sociétés qui traitent par exemple des téraoctets issus de crawling du web ou dont le métier est de transcoder des bibliothèques énormes de médias d'un format vers un autre sans pression particulière sur les délais peuvent se frotter les mains: elles vont réduire leurs coûts !
- elle va permettre à Amazon de mieux optimiser l'utilisation de son infrastructure: les clients discount seront traités hors des pointes. Sachant qu'Amazon a régulièrement démontré depuis le lancement de sa plate-forme Amazon Web Services qu'elle souhaite partager ses réductions de coût, on peut finalement certainement en déduire que c'est finalement toutes les parties qui tireront les marrons du feu: à terme, même les clients pressés devraient voir leur prix horaire de CPU EC2 par le simple fait qu'avec cette nouvelle forme de services aux enchères, Amazon va pouvoir décaler ceux qui sont moins pressés vers les trous!
C'est donc un véritable marché (au sens boursier du terme) de l'infrastructure informatique qui va naître: verra-t-on des traders, des hedge funds et des produits dérivés de l'heure CPU émerger? Sous une forme ou une autre à affiner, je suis presque persuadé que oui!
Avec la bascule progressive des entreprises vers le Cloud Computing, la liquidité (financière) de ce marché va aller croissante. La conséquence ultime: la détermination la plus juste des coûts informatiques d'une entreprise.
En effet, par cette mise en commun massive d'infrastructure qui se profile, ces coûts vont être placés sur une échelle analogique beaucoup plus fine que l'échelle quantique actuelle munie d'un nombre trop réduit de paliers qui permet des bénéfices juteux aux constructeurs!
On commence aujourd'hui à voir le crépuscule tomber sur les profits colossaux des constructeurs informatiques historiques: le pouvoir va passer dans les mains de ceux qui savent transformer ces produits matériels en services immatériels aux meilleurs coûts....
Comme je l'ai écrit en 2004, l'Open Source est clairement un catalyste du phénomène: maintenant que nous avons standardisé sur Linux via NACA (et fait des économies déjà colossales....) chez Publicitas, nous pouvons maintenant songer à faire le pas de plus: envoyer (progressivement) dans le nuage nos applications "corporate" pour gagner encore un cran dans les économies sur nos coûts de production ! Nous avons publié nos outils: vous pouvez donc y aller aussi!
PS: pour bien remettre ce genre d'évolutions en perspective sur plusieurs décennies, je vous conseille de (re)lire The Big Switch de Nicholas Carr où il trace un excellent parallèle entre l'histoire de la production / distribution électrique et ce que nous sommes en train de (commencer à) vivre pour la production d'énergie informatique.
Source: blog Media & Tech (par didier durand)
Aucun commentaire:
Enregistrer un commentaire