Nos ordinateurs personnels ont une capacité de calcul toujours plus importante, donc nous n’exploitons qu’une infime partie. Je viens de terminer la lecture du numéro de juillet-août de Science et Vie Micro, et j’ai découvert avec effarement la configuration optimale qui devrait être nécessaire pour faire « tourner » LongHorn, le futur système d’exploitation de Microsoft : Pentium 4 à 4 GHZ, 1 Go de mémoire vive !
Alors je me suis livré à une petite expérience. J’ai enregistré le texte préparatoire à ce billet aux formats Word 97 et Word 2 (je n’ai pas évolué dans les versions de Word, Word 97 satisfaisant largement mes besoins).
Bilan : le même texte pèse 3 Ko avec Word 2 et 38 Ko avec Word 97.
Ceci n’est qu’un exemple de l’extraordinaire gaspillage de ressources (mémoire, capacité de calcul), qui est à l’œuvre dans nos ordinateurs personnels. Car franchement, qui, à part les hard gamers, ces fondus de jeux vidéo super réalistes, aura vraiment besoin quotidiennement d’un processeur cadencé à 1 GHz et de 1 Go de RAM ?
La loi de Moore, qui prévoit le doublement du nombre de transistors sur une puce tous les 18 mois, ne cesse d’être vérifiée. Mais force est de constater qu’il n’y a pas une évolution parallèle des besoins réels des utilisateurs.
D’un point de vue écologique, tout ça ne fait pas de sens. Cette course a la puissance a un coût, non seulement pour l’utilisateur final qui doit périodiquement renouveler son matériel, mais aussi pour les entreprises du secteur en frais de R&D.
On ne peut que souhaiter une adoption croissante par le grand public des concepts de dons de puissance de calcul à travers les programmes de grid computing.
Pour ma part, Genome@Home tourne sur mon ordinateur depuis plus de six mois sans que cela ne perturbe aucunement mon travail.
J’ignore si des études ont déjà été faites pour estimer la puissance de calcul qui pourrait être rendue à l’environnement si chaque possesseur d’ordinateur installait un client de grid computing sur sa machine. Si vous avez cette information, n’hésitez pas à réagir en commentaire. Nul doute en tout cas que le chiffre soit astronomique.
Souhaitons donc que l’informatique coopérative devienne un concept de plus en plus populaire auprès de la population en général. Parce que la protection de l’environnement passe aussi par la chasse au gaspi de l’intelligence.
“Mais force est de constater qu’il n’y a pas une évolution parallèle des besoins réels des utilisateurs.”
C’est amusant, je constate exactement le contraire. Les usages (démontrés non seulement par les statistiques de vente de matériel et logiciel qui ne sont forcées que je sache par personne, mais aussi par moultes enquêtes et par l’expérience anectdotique autour de soi) vont de plus en plus :
– vers le multi-tâches (qui restait largement de la blague dans la pratique ne serait-ce qu’il y a 10 ans)
– vers la production personnelle de contenu numérique audio, photo, vidéo (Cf. stats de vente par ex. d’appareils photos numériques qui induisent quasi par définition un traitement sur ordinateur), et le développement de sites et programmes par des particuliers (j’ai des ordinateurs chez moi depuis plus de 20 ans donc j’ai pu mesurer le chemin parcouru vers un vrai marché de masse, même ma mère envoie des emails).
Tout ces besoins exigent de la puissance. Quand je convertis une heure de vidéo DV en DVD, Sony DVD Architect met plusieurs heures à créer le DVD avec quasiment 100% d’utilisation CPU sur un Athlon à 2Ghz avec 512MB de RAM. Basculer de Dreamweaver à Photoshop prend plusieurs secondes même sur un PC performant. Des opérations courantes comme la gravure d’un CD ou DVD mettent bus, mémoire et CPU à contribution.
Le discours sur les PCs qui font tout ce dont on a besoin, je l’entendais déjà quand je vendais des 386 à 20MHz avec 8MB de RAM au début des années 90, c’est la tarte à la crème de l’informatique. Que les PCs actuels soient trop bruyants et consomment beaucoup d’énergie c’est une chose (quoi qu’à puissance de traitement égale ils consomment évidemment beaucoup moins d’énergie que les mainframes des années 70 avec leurs salles climatisées). Que la plupart des PCs ne soient pas exploités à pleine puissance la plupart du temps, c’est évident, et si le grid computing permet de mieux tirer parti de ce qu’on a déjà, tant mieux (dans la pratique ce n’est pas gratuit puisqu’il faut de la puissance de traitement dédiée à répartir et consolider les traitements, plus de bande passante, etc. mais je veux bien croire que le résultat net soit positif).
En revanche affirmer que les gens n’ont pas besoin de la puissance de traitement des ordinateurs actuels est une contre vérité qui ne supporte pas l’épreuve des faits, et restera démentie pendant longtemps encore (même moins d’une seconde d’attente est perceptible par un humain, et il en va falloir de la loi de Moore sous les ponts avant que le PC familial traite instantanément toute tâche qu’on lui demande d’exécuter).
Olivier Travers> “le multi-tâches (qui restait largement de la blague dans la pratique ne serait-ce qu’il y a 10 ans)”
ça veut dire quoi cette phrase ? qu’il y a 10 ans le multi-tâche n’existait pas, ou qu’il n’était pas utilisé ? De toutes façons les deux sont faux.
La retouche d’image beaucoup moins. Dans les usages courants il y a surtout le traitement de texte, les messageries et la navigation sur internet. Là dessus le teste Word 97-Word 2 de Jérôme est assez effarant, même si je m’en doutais un peu.
Pour le développement Web, avoir un serveur sur sa machine ça bouffe un peu de ressource, mais la plupart des gens mettent à jour des sites sur un serveur distant. Surtout que l’usage des CMS, wikis et autres weblogs se répand petit à petit pour les sites perso ou semi-professionnels.
Il reste les jeux, la photo et la vidéo.
La photo est devenue un usage courrant et consommateur de ressources, la vidéo est beaucoup moins courante et beaucoup plus consommatrice. Pour les jeux, on remarquera que les consoles ne sont pas des ordinateurs surpuissants, alors que les jeux qui tournent dessus sont époustouflants. C’est tout simplement parce que les calculs sont optimisés pour le matériel. Les ordinateurs personnels sont généralistes, il faut donc des machines globalement un peu plus puissantes pour faire tourner les mêmes jeux, mais si le logiciel était un peu mieux pensé on n’aurait pas besoin d’une bête monstrueuse.
Il y a trois remarques à faire.
D’abord, on pourrait sortir du paradigme “un ordinateur centralisé pour tout faire”. Il est beaucoup plus pratique d’avoir des machines moins puissantes mais dédiées qui communiquent entre elles.
On peut sortir aussi de la boucle imposée par les éditeurs de logiciels et les constructeurs de matériels, dont la stratégie est clairement de rendre obsolètes les configurations de plus d’un an. Depuis que je suis passée sous linux ma machine va beaucoup plus vite, bizarre.
Enfin, l’être humain s’adapte. Selon la configuration dont il dispose il ouvrira 1 à 7 images en même temps pour les retravailler, mais il ne travaillera pas forcement mieux ou plus rapidement. Il serait temps de penser à l’ergonomie des logiciels plutot qu’à la vitesse des processeurs, c’est là que se situe la différence de confort aujourd’hui.
Bonjour, je suis etudiante et je cherche un systeme pour permettre à mon école, qui possede réseau de 200 ordis, de faire profiter de sa puissance de calcul via internet(ou via autre chose). Vous appelez cela du “grid computing”. Je cherche aussi un “client” qui serait interessé…Si vous avez des renseignments merci de me contacter julyrobineau@NOSPAMwanadoo.fr
Je vois que mon article suscite des réactions, et je m’en réjouis ! Comme je suis très pris par l’écriture de mon livre, je n’avais pas eu le temps de vous répondre jusqu’a présent. J’y remédie maintenant :-).
L’objet de mon article n’était pas de dire que l’augmentation de la puissance des ordinateurs était inutile, mais de dénoncer son gaspillage. Ce gaspillage s’explique notamment par le manque d’optimisation des logiciels, et je rejoins là-dessus Eve la fée.
Je suis d’accord avec Olivier pour reconnaître que les usages multimédias sont consommateurs de ressources. Mais je ne suis pas convaincu qu’ils concernent à l’heure actuelle la majorité des utilisateurs de PC. Alors pourquoi vouloir vendre à tout le monde des machines aussi puissantes ?
Mais c’est surtout dans le domaine des entreprises que le problème est le plus criant, et le plus grave car c’est là que sont les parcs les plus importants. Une étude de MicroCost de septembre 2004 démontrait récemment que le temps moyen d’utilisation d’un PC en entreprise était de 2h15 par jour, et que sur ces 2h15, 77% du temps était utilisé pour la bureautique, la messagerie, le navigateur Web et l’explorateur Windows. A-t-on vraiment besoin de bêtes de course pour ce type d’usage ?
On répondra que le coût de fabrication des ordinateurs est devenu très bas, et que cela ne revient pas plus cher de vendre un PC hyperpuissant, très rapide et plein de mémoire. Cet argument ne me parait pas valide, car les ordinateurs produits à bas coûts le sont dans des pays où le coût de la main d’oeuvre est faible, ce qui revient à fabriquer des produits hyper évolués par des gens qui ne sont pas rétribués à la hauteur de leur technicité.
Enfin, utiliser le grid computing pour exploiter la puissance non consommée n’est selon moi qu’un pis-aller écologique. Il vaudrait bien mieux adapter la puissance des machines aux besoins réels des particuliers et des professionnels, et utiliser des machines à des fins dédiées plutôt que des PC généralistes bons à tout faire (cf. Eve la Fée).
A quand un modèle économique qui tiendra compte de ces réalités pratiques ?
REPONSE A JULIE :
Bonjour Julie.
Tout d’abord, je trouve que votre initiative est excellente. Je peux vous signaler 3 projets de grid computing que je connais :
* FoldingAtHome et GenomeAtHome, qui sont deux volets d’un même programme de recherche en génétique initié par l’Université de Stanford (Etats-Unis). Cela marche très bien, cela tourne en ce moment sur ma machine sans aucune perturbation sur mon travail. En plus, il est possible de s’enregistrer en “équipe” et d’être classé en fonction du nombre d’unités de travail traitées, ce qui peut être un argument de motivation pour votre école.
Voir : http://www.stanford.edu/group/pandegroup/folding/ et http://gah.stanford.edu/index.html
* SETI@home, programme de recherche analysant des signaux spatiaux reçus à Palo Alto en vue de la détection d’un éventuel signal extra-terrestre intelligent ; c’est le projet le plus connu, qui a popularisé le grid computing auprès du grand public.
Voir : http://www.cooperatique.com/index.php?p=15 et le site officiel : http://setiathome.ssl.berkeley.edu/
* Climateprediction : programme de l’Université d’Oxford (Royaume-Uni), cherchant à modéliser et prévoir les changements climatiques.
Voir : http://www.cooperatique.com/index.php?p=6 et le site officiel : http://www.climateprediction.net/versions/FR/index.php
Je crois qu’il est essentiel de bien communiquer sur votre projet en interne, vis-à-vis du système informatique, en insistant sur 4 points clés :
1. Ca ne changera rien à la performance et au déroulement des activités habituelles.
2. C’est sécurisé, pas de risque en termes de virus, chevaux de Troie ou autres inconvénients (je vous incite à enquêter de votre côté pour avoir des arguments qui le démontrent).
3. Cela permet à votre école de participer à des actions scientifiques de premier plan.
4. Votre école pourra communiquer sur cette initiative, ce qui la valorisera.
Il est également essentiel de communiquer auprès des étudiants, pour les tenir informés, avec des mots simples, de votre projet, pour susciter un enthousiasme qui pourra vous aider dans vos démarches administratives. En plus, cela pourra populariser le concept du grid computing, et peut-être inciter des étudiants à installer des logiciels clients sur leur machine personnelle.
Voilà, j’espère que ces quelques conseils vous seront utiles. Si vous allez au bout de votre projet, signalez-le moi, avec quelques éléments factuels, et je le mentionnerai dans un billet sur mon blog.
Il semble que Genome@home ne soit plus en service à Stanford (du moins que leurs serveurs web ne soient plus joignables, j’ai des time out à chaque fois).
Ou alors je n’ai pas trouvé le bon URL? J’ai essayé http://gah.stanford.edu/index.html, mais aussi http://genomeathome.stanford.edu/
Dommage, ça m’avait l’air intéressant. J’ai toujours été stupéfait de voir qu’on laissait souvent tourner des économiseurs d’écrans inutiles sur des machines allumées toute la journée (et parfois toute la nuit). Quel gaspillage. Du coup, je me suis intéressé à Seti@home, le précurseur. Mais j’aimerais passer à quelquechose de plus productif. ClimatePrediction m’a déçu (trop lourd sur ma machine, en mémoire surtout).
Bonjour François.
Content de te lire ici ! Merci pour ton commentaire : effectivement, le projet GenomeAtHome est arrivé à son terme le 15 avril 2004 (voir http://www.stanford.edu/group/pandegroup/folding/faq.html#GAH.work). En revanche, le projet FoldingAtHome auquel je participe depuis plusieurs mois, lui, continue toujours . D’ailleurs, je devrais bientôt fêter ma 100ème Work Unit ;-). En fait, c’est le même client qui est utilisé pour Folding et GenomeAtHome. Si tu cliques sur “configure”, tu peux choisir le projet auquel tu souhaites participer. Essaye de sélectionner FoldingAtHome, peut-être que ça marchera.