Avertir le modérateur

CyberComputer

Google dispose d'environ un million de PC, qualifiés de "cloud", répartis sur plusieurs sites. Chaque datacenter coûte environ 500 millions de dollar, l'un d'eux est en cours de constuction à Charleroi.

Ces ordinateurs explorent le web, stockent les résultats de l'exploration et répondent aux requêtes des utilisateurs. Leur consommation d'énergie représente une part non négligeable des dépenses de Google, d'où son investissement dans le solaire! Un PC 500W consomme 4380 kwh/an, soit environ 200 euros/an, soit 200 millions d'euros pour le million de PC de Google, sans compter les besoins de climatisation!

Dans le cadre d'iune économie globale, il vaut mieux placer les centres serveurs gros consommateurs d'énergie près de sites de productions d'électricité. En effet, le transport de l'information est moins coûteux que celui de l'électricité! Les bits circulent mieux que les électrons!

Google, Amazon ,Yahoo, IBM, Microsoft disposent de fermes de serveurs et étudient la mise à disposition de ces ressources. Cela concerne potentiellement tous les domaines du calcul scientifique, la recherche de séquences génétiques, le data mining en général. Ainsi, Amazon offre l'accès à des machines virtuelles sur ses fermes de serveurs.

MapReduce, un des outils de Google, crée l'index. Map répartit les données à traiter sur des PC qui envoient le résultat à Reduce pour l'indexation. Un système de fichier spécifique contient les résultats.

Le projet libre Hadoop, supporté par la fondation Apache, reprend les principes de MapReduce. Doug Cutting, le responsable du projet travaille maintenant chez Yahoo. Pour l'instant Yahoo emploie Hadoop pour des applications spécifiques. Il a par exemple indexé toutes les archives du NewYorkTimes depuis 1850 sur une grappe de 10000 PC en une nuit.

Nutch est un moteur de recherche, supporté par la fondation Apache, écrit en java. Il comporte le robot ou crawler, les fonctions MapReduce de Hadoop.

WikiaSearch, basé sur Nutch également, promeut une approche peer to peer pour son nouveau moteur! Le traitement et le stockage serait donc réparti sur les PC des utilisateurs!

Parallèlement, le CNRS investit 20 millions d'euros dans un supercalculateur IBM capable d'effectuer 200 milliards d'opérations par seconde sur ses 45 000 processeurs.

Il dispose d'une architecture hybride:

  • 10 modules Blue Gene offrant 40480 processeurs à 800 mhz sous Linux,
  • 8 modules Power6  offrant 4480 processeurs à 4Ghz sous AIX,
  • un système de fichiers General Parallel File System.

Dans la presse, la capacité de traitement qui le classe en 3ième position mondiale est mise en avant. Ne faudrait il pas davantage insister sur l'usage de cet équipement et du retour sur investissement?

Des études comparent les mérites respectifs des grappes de PC et superordinateurs pour mettre en évidence le domaine d'efficacité de chacun!

Les commentaires sont fermés.

Toute l'info avec 20minutes.fr, l'actualité en temps réel Toute l'info avec 20minutes.fr : l'actualité en temps réel | tout le sport : analyses, résultats et matchs en direct
high-tech | arts & stars : toute l'actu people | l'actu en images | La une des lecteurs : votre blog fait l'actu