La voie du zettascale, partie 1 – HPC, Supercalculateur, Quantum, le futur hybride du calcul intensif

Où s’arrêtera la course à la performance ? Surement pas à l’exascale. Le monde du calcul intensif a déjà le regard tourné vers l’avenir : le zettascale ! Pour comprendre les enjeux, commençons par faire le point sur les forces en présence, les travaux en cours et les usages potentiels. This is the way !
En partenariat avec 

Les chercheurs et scientifiques du monde entier font appel au calcul informatique intensif depuis les années 30/40 pour réaliser dans un temps acceptable des calculs complexes sur de grandes masses de données. L’architecture des supercalculateurs est depuis en perpétuelle évolution. Les premiers processeurs vectoriels ont laissé place aux processeurs à unité d’exécution, puis sont arrivés des ASIC sur mesure, l’intégration des GPU ou encore les FPGA spécifiquement programmés pour certains types de calcul.

Maintenant que le monde du calcul intensif a passé la barre de l’exascale, c’est-à-dire un milliard de milliards, ou un trillion, ou 10 puissance 18, opérations en virgule flottante par seconde, les regards se tournent vers le zettascale, c’est-à-dire mille milliards de milliards, ou un trilliard, ou 10 puissance 21, opérations en virgule flottante par seconde.

Il faudra encore quelques années pour y parvenir mais déjà, des questions se posent quant au chemin à parcourir pour y parvenir.

HPC ou supercalculateur ?

Pour vous donner un ordre d’idée, un supercalculateur est environ un million de fois plus puissant que votre PC. Le « supercalcul » est une discipline qui implique de toujours exploiter les technologies les plus avancées pour réaliser les opérations toujours plus vite. Mais un supercalculateur n’est pas juste un serveur plus gros que les autres. C’est un grand système « en grappe » regroupant plusieurs nœuds qui vont travailler de concert pour résoudre un problème donné.

Et si on peut dire qu’un supercalculateur est un système HPC (High-performance computing), un système HPC n’est pas nécessairement un supercalculateur. Le HPC peut désigner des systèmes conçus à bien plus petite échelle. Un système HPC peut être un simple serveur, mais doté d’une configuration, d’une alimentation, ou encore d’un refroidissement spécifiquement pensé pour délivrer un maximum de puissance.

Nos conceptions validées pour le HPC par exemple, répondent à un large panel de besoin dans les sciences de la vie, l’ingénierie ou les services financiers, en s’appuyant notamment sur les processeurs Intel® Xeon® Scalable de dernière génération. Un très grand nombre d’entreprises peut donc aujourd’hui se doter d’un système HPC pour répondre à un besoin interne de performances. Peu en revanche ont le besoin et les moyens de mettre en œuvre un supercalculateur. Mais les deux peuvent cohabiter !

L’université de Cambridge par exemple, dispose de plusieurs supercalculateurs, comme Wilkes-3 ou Cumulus, basés sur des serveurs Dell PowerEdge, dont les petaflops lui permettent de réaliser des simulations très avancées. Mais l’établissement a également déployé des systèmes HPC plus traditionnels qui permettent de répondre à des besoins plus réguliers de performances pour les chercheurs, et ce, de manière moins coûteuse.

Au-delà de la performance, l’arbitre de la course à la puissance pourrait bien être l’impact environnemental.

Et le quantique ?

Outre le HPC et les supercalculateurs, un autre joueur va rejoindre la partie : l’ordinateur quantique. Ce dernier ne joue toutefois pas tout à fait dans la même catégorie, tant sa façon de penser les calculs complexes est différente. Au-delà de la performance, l’arbitre de la course à la puissance pourrait bien être l’impact environnemental. Car ces infrastructures nécessiteront d’importantes quantités d’énergie pour fonctionner. Et l’informatique quantique pose ici un problème particulier.

Le calcul quantique repose sur le principe des états quantique comme la superposition, l’intrication … qui entre autres font qu’un qubit peut être à la fois 0 et 1 (je vous renvoie vers cet article pour en savoir plus sur les notions de superposition et de décohérence des qubits). Une fois qu’on accède au résultat, le qubit est alors figé en 0 ou en 1 et il est impossible de revenir en arrière. Autrement dit, pour accéder à l’information, il faut la détruire.

L’ère du zettascale sera sans nul doute hybride, avec un mix entre les futurs supercalculateurs zettascale et les futurs ordinateurs quantiques. L’hybridation entre les supercalculateurs et l’ordinateur quantique permettra par exemple de réduire la surcharge d’intégration entre l’informatique classique et l’informatique quantique. Découpler les runtimes, permettrait d’utiliser les supercalculateurs pour effectuer les premiers niveaux de traitement et n’envoyer vers le quantique que la partie la plus « noble » et la plus complexe du calcul, afin de limiter les coûts.

Un zettaflop, pour quoi faire ?

Un double phénomène vient accélérer cette course au zettascale. Le premier est évidemment le développement rapide de l’intelligence artificielle. Plus on alimente les algorithmes en données, plus ils sont performants. Mais plus il fait également de puissance pour les exécuter. Et l’IA génère elle aussi ses propres données, qui sont réinjectées dans les modèles. Le besoin en performances ne fait donc que grandir !

Ensuite, il y a l’edge computing, qui est justement un des plus gros pourvoyeurs de données pour l’IA. Les systèmes embarqués et en périphérie ne permettront pas de déployer des IA surpuissantes en raison des contraintes de poids, d’énergie ou encore de place. En revanche, l’edge répartis dans les villes, les véhicules, ou les usines, va générer des données que les entreprises ont tout intérêt à analyser. Et c’est là que l’IA aura besoin d’une puissance de calcul décuplée pour traiter ces mégadonnées qui vont venir l’alimenter.

Que ce soit dans la santé avec la médecine personnalisée ou la biologie computationnelle, dans l’industrie avec la recherche de nouveaux matériaux durables ou encore dans l’astronomie avec des simulations qui permettent de remonter aux origines de notre univers, le zettascale promet des découvertes révolutionnaires.

Mais il faudra pour cela relever un certain nombre de défis, que nous aborderons dans la deuxième partie de cet article !

About the Author: Vincent Barbelin

Vincent Barbelin est CTO, CTO Ambassador de Dell technologies France.