Supercalculateurs : la vitrine technologique des Etats forts

Rédigé le 21 novembre 2016 par | Nouvelles technologies Imprimer

Les supercalculateurs représentent, depuis les débuts de l’informatique, le summum en matière de puissance de calcul. Bien avant l’ère de la micro-électronique, les années 1940 ont vu l’arrivée des calculateurs électromécaniques. L’Allemagne a été un des premiers pays à développer de telles machines, suivie de près par le Royaume-Uni.

Dès la fin de la Seconde Guerre mondiale, les Etats Unis se sont lancés dans la course aux superordinateurs et ont rapidement pris la première place dans le classement des machines les plus puissantes.

La guerre froide a été l’occasion d’une compétition musclée avec l’Union Soviétique, qui a brièvement ravi le titre de nation disposant du plus gros supercalculateur entre 1984 et 1985. Le M-13, conçu à Moscou, était le premier calculateur capable de traiter plus d’un milliard d’opérations par seconde.

Le camouflet n’a pas duré ; en 1985 sortait le fameux Cray-2, basé sur une architecture contemporaine et plus puissant que le M-13.

Cray-2
Le Cray-2, premier supercalculateur occidental à dépasser le milliard d’opérations par seconde
Source : Wikipedia

L’éclatement du bloc soviétique a mis à mal les efforts de Recherche & Développement de la Russie, et seul le Japon a pu tenir tête aux Etats-Unis durant plus de vingt ans.

Je ne vous apprendrai rien en rappelant que l’excellence technologique est un marqueur particulièrement fiable de la suprématie des Etats.

La Chine a donc marqué les esprits en mettant en service, en 2010, le plus puissant supercalculateur au monde. L’événement est passé, aux yeux de certains, pour le tour de force d’un Etat en mal de reconnaissance sur la scène internationale.

Pourtant, l’empire du Milieu a réitéré la prouesse en 2013, et de nouveau cet été.

Depuis 2010, six supercalculateurs ont successivement battu le record de la machine la plus puissante. Parmi eux, trois étaient chinois.

L’arrivée soudaine de la Chine dans la course au calcul est-elle le signe d’une redistribution des cartes dans l’industrie ? C’est ce que nous allons voir, aujourd’hui et demain, dans La Quotidienne.

L’importance stratégique de la puissance de calcul

La course à la puissance de calcul peut sembler, au premier abord, comme la course à l’espace : un moyen simpliste et quantifiable de classer les Etats en matière d’excellence technologique.

Les deux domaines ont cependant une différence fondamentale : la puissance de calcul est intrinsèquement utile au pays qui la possède.

Soyons honnête : le fait que l’homme ait marché sur la Lune ne change pas notre quotidien. Le fait qu’un Français soit actuellement en route pour l’ISS n’a pas non plus d’impact direct sur notre vie de citoyens.

Seules les retombées technologiques de ces programmes ont un effet tangible. La course à l’espace des années 1960 a notamment financé les progrès de la micro-électronique, sans lesquels vous n’auriez pas d’ordinateur pour lire cette Quotidienne.

Les supercalculateurs, eux, sont utiles à la société qui les finance dès leur mise en service.

Supers usages pour supercalculateurs

Leur premier usage est, bien sûr, militaire. Le savoir-faire du Royaume-Uni dans le domaine des machines de calcul a permis de casser les codes de la fameuse machine Enigma de l’Allemagne nazie. En sachant décoder les messages cryptés de l’ennemi, les Alliés ont eu un avantage stratégique décisif.

Aujourd’hui, c’est grâce aux supercalculateurs qu’il n’est plus nécessaire de procéder à des essais nucléaires pour améliorer l’arsenal de dissuasion. Les machines sont assez puissantes pour pouvoir simuler de manière numérique une explosion jusque dans ses moindres détails. Les experts peuvent donc tester plusieurs configurations matérielles sans avoir à faire exploser autant d’engins… un vrai plus pour l’amélioration de la force de frappe (et, accessoirement, pour l’état de notre planète) !

Les usages civils sont également au rendez-vous. Toutes les tâches nécessitant une forte puissance de calcul bénéficient des progrès des supercalculateurs.

Les météorologues sont, de loin, les plus grands utilisateurs de ces machines. Les prévisions météorologiques sont en effet basées sur des modèles mathématiques dont la complexité de traitement est exponentielle. En schématisant : il est 100 fois plus difficile de prévoir le temps qu’il fera dans 48 heures que dans les prochaines 24 heures. Prévoir le temps des 72 prochaines heures nécessite 10 000 fois plus de puissance de calcul. Pour des prévisions à quatre jours, la complexité est multipliée par 1 000 000, et ainsi de suite.

Les météorologues sont donc des éternels insatisfaits en matière de puissance de calcul. Fournissez-leur une machine 1 000 fois plus puissante que celle avec laquelle ils travaillent habituellement : ils l’utiliseront tout de même au maximum de ses capacités au bout de quelques semaines.

Cette boulimie de puissance se retrouve dans d’autres domaines comme l’aéronautique (simulation de résistance au vent), la résistance des matériaux (simulation de contraintes mécaniques), et dans une moindre mesure, dans la simulation financière (calcul de risque).

Un pays qui s’offre un supercalculateur et le met à disposition de son industrie va donc avoir rapidement un avantage concurrentiel dans les domaines de pointe.

De la conception à la fabrication des supercalculateurs : des défis à tous les niveaux

La construction d’un supercalculateur n’est pourtant pas à la portée de tous les Etats. Les compétences mises en oeuvre sont multifactorielles. A l’image de la construction d’une centrale nucléaire, il ne suffit pas d’allouer un budget – même conséquent – pour qu’un pays soit capable d’élaborer et de faire fonctionner un super-ordinateur.

Le premier défi réside dans la maîtrise de la micro-électronique. Il faut savoir que les supercalculateurs modernes sont basés sur le principe du parallélisme :un même calcul (par exemple, une division) est effectué instantanément sur de multiples valeurs. Les concepteurs ne se préoccupent pas réellement de la vitesse de calcul, mais plus du nombre de données traitées en parallèle.

L’analogie la plus parlante est la vidange d’une piscine dans la rivière voisine par des volontaires. Plutôt que d’essayer de maximiser la quantité d’eau vidée à chaque aller-retour, il est beaucoup plus simple de prendre des seaux de petite taille et d’augmenter le nombre de participants. De cette manière, chaque volontaire travaille à son rythme sans risque de fatigue.

La logique est la même dans la micro-électronique. Aujourd’hui, les fabricants utilisent des processeurs grand public. Individuellement, ces puces ne représentent pas le summum de la puissance de calcul. Ils sont cependant peu chers et disponibles en grande quantité : il est donc possible d’en placer des dizaines de milliers au sein d’un supercalculateur.

Le défi est d’arriver à faire fonctionner tous ces processeurs de manière efficace. Comme en matière de subventions publiques, les supercalculateurs sont soumis à la loi du déclin de l’utilité marginale. Il arrive fatalement un moment où ajouter plus de processeurs ne conduit plus à une amélioration de la puissance globale de calcul. Le travail des concepteurs consiste à retarder ce moment au maximum.

L’autre difficulté est d’ordre logistique. Les milliers de puces électroniques consomment des quantités astronomiques d’énergie. Il est nécessaire d’assurer au supercalculateur un approvisionnement ininterrompu en courant électrique d’excellente qualité. Si, en France, la qualité du réseau électrique n’est pas un problème, il n’en est pas forcément de même dans tous les laboratoires de la planète.

Enfin vient le problème de la gestion de la température. Toute l’énergie apportée au supercalculateur finit par se transformer en chaleur. Cette chaleur doit être évacuée de manière efficace pour éviter les pannes. Que ce soit avec des systèmes de climatisation à air ou par liquide caloporteur, seul un refroidissement sans faille permet d’assurer un bon fonctionnement du système.

Chaque interruption de fonctionnement d’un supercalculateur se chiffre en centaines de milliers d’euros de pertes indirectes.

Vous le voyez, le site d’accueil de la machine est au moins aussi important que l’électronique qui la compose. Cet ensemble de contraintes fait que tous les pays ne sont pas présents dans la course à la capacité de calcul.

Nous verrons dans une prochaine Quotidienne pourquoi la fin de la suprématie américaine dans ce domaine est un événement qui ne doit pas être pris à la légère.

Etienne Henri
Etienne Henri

Etienne Henri est titulaire d’un diplôme d’Ingénieur des Mines. Il débute sa carrière dans la recherche et développement pour l’industrie pétrolière, puis l’électronique grand public. Aujourd’hui dirigeant d’entreprise dans le secteur high-tech, il analyse de l’intérieur les opportunités d’investissement offertes par les entreprises innovantes et les grandes tendances du marché des nouvelles technologies.

Laissez un commentaire