Le récent rapport spécial de The Economist sur le Cloud Computing annonce en effet que Google aurait passé maintenant le cap des 2 millions de serveurs sur une trentaine de centres de calcul: "Google is said to be operating a global network of about three dozen data centres loaded with more than 2m servers (although it will not confirm this). Microsoft is investing billions and adding up to 35,000 servers a month. Other internet giants, such as Yahoo!, are also busy building huge server farms."
La formulation est prudente puisque bien sûr Google ne confirme ni n'infirme jamais de tels chiffres. Mais, c'est The Economist qui le publie alors c'est du solide!
Avec son plus +35'000 par mois, Microsoft tient aussi sa vielle promesse. Normal si il veut que MS-Azure décolle: il lui faut des "compuwatts" à profusion.
A titre historique, voici les informations glanées autour de l'infrastructure Google au fil du temps sur ce blog:
- 100'000 serveurs: juin 2005 - diverses sources
- 200'000 serveurs: mars 2006 - Los Angeles Times
- 450'000 serveurs: juin 2006 - New York Times
- 1'000'000 serveurs: juillet 2007 - Gartner
- 2'000'000 serveurs: octobre 2008 - Economist
Vous connaissez la Singularité (technologique) ? [plus de détails en anglais] C'est le moment où la puissance (combinée) des ordinateurs deviendra supérieure au cerveau humain: à partir de ce moment, on ne peut, d'un point de vue logique pure, plus prédire ce qui se passe. L'approche ce point très particulier suit une accélération toujours plus importante car une génération n d'ordinateurs permet par sa puissance supplémentaire de fabriquer la suivante n+1 plus puissante d'une manière plus rapide que le passage de n-1 à n.
En effet, le cerveau humain aura alors produit une intelligence supérieure à la sienne dont il ne peut alors prédire l'évolution / les réactions puisqu'elle lui est, par définition, supérieure. On peut alors imaginer toutes les choses les plus positives ou effrayantes les unes que les autres.... A chacun de voir. Aux fans de ses visions futuristico-prédictives: je conseille très fortement la lecture des prédictions détaillées de Ray Kurzweil sa page wikipedia ou de son bouquin "The Singularity is Near"
[C'est cette rupture de continuité de la possibilité de prédiction de l'évolution qui rappelle une singularité au sens mathématique du terme]
On peut croire ou pas aux conséquence les plus néfastes de cette théorie de la Singularité (qui a déjà engendré des grands classiques de la science-fiction) mais il est certain que l'on est en train de construire des lobes conséquents de ce méta-cerveau cybernétique à vitesse grand V tant à Redmond qu'à Mountain View!
Source: blog Media & Tech (par didier durand)
5 commentaires:
Merci Didier pour ce point sur les serveurs de Google.
Bonjour Christian,
Ravi d'être utile à d'autres! Cordialement
didier
Bonjour,
Je ne suis pas d'accord avec tous les points situés dans votre billet.
> L'approche ce point très particulier
> suit une accélération toujours plus
> importante car une génération n
> d'ordinateurs permet par sa puissance
> supplémentaire de fabriquer la suivante
> n+1 plus puissante d'une manière plus
> rapide que le passage de n-1 à n.
Comment pouvez-vous affirmer cela ? En fait, votre raisonement s'appuye sur l'hypothèse que l'effort à fournir pour passer de n à n+1 est le même que celui à fournir pour passer de n-1 à n. Or, rien n'en est moins sûr, bien au contraire. L'effort de miniaturisation a plutôt une tendance à croitre de manière exponentielle que linéaire.
Qu'en pensez-vous ?
> En effet, le cerveau humain aura
> alors produit une intelligence
> supérieure à la sienne dont il ne
> peut alors prédire l'évolution / les
> réactions puisqu'elle lui est, par
> définition, supérieure.
Cela suppose deux hypothèse. Premièrement, que l'intelligence n'est que l'application d'une recherche exhaustive dans un espace précis. Cette comparaisons est effroyablement fausse. L'intelligence est quelque chose de bien plus subtil que l'évalution d'un grand nombre d'état, même de manière "intelligente" artificielle.
Deuxièmement que l'intelligence est codifiable pour être utilisée par l'ordinateur afin de surpasser l'intelligence humain.
La lecture d'un ouvrage sur l'intelligence artificiel montrera assez rapidement que ces deux hypothèses sont un peu forte, non ?
Bonjour Antoine,
Merci de votre longue réponse!
Sujet 1:
Si vous admettez qu'un microprocesseur est finalement un ordinateur, la loi de Moore est la preuve flagrante de ce que j'écris
Même si la complexité de la génération N est supérieure à celle de N-1, voire exponentielle, il suffit seulement que cette exponentielle soit un peu plus basse que la loi de Moore et c'est gagné: les constructeurs s'arrangent pour cela en sortant des machines toujours plus vite.
Sujet 2: je suis d'accord en partie avec vous mais en partie seulement.
Il y a déjà des domaines où l'ordinateur est plus fort que l'homme par sa puissance brute (cf jeu d'échecs)
Cette même puissance brute supérieure à celle de notre cerveau et appliquée à d'autres domaines amènera forcémment un jour des résultats imprévisibles par l'homme puisque par définition calculée par une puissance de calcul supérieure à la sienne (en force brute)
Mon sentiment général est que la force brute finira par dépasser la subtilité de l'intelligence humaine dans beaucoup de domaines pour alors conduire par définition même à des résultats que nous ne pouvons calculer.
On en reparle dans 15 ans? ;-)
cordialement
didier
Merci pour ce billet, les références et le résumé sur le nombre de serveurs qui donne un bon ordre d'idée. Je le mets en lien d'une banalisation sur le cloud.
Enregistrer un commentaire