HPC et IA, bonnet blanc et blanc bonnet

HPC et IA, bonnet blanc et blanc bonnet


HPC sur IA ou IA sur HPC ? Quand les algorithmes d’IA tirent parti de la puissance du HPC, les processus haute performance accélèrent grâce aux capacités de l’IA. La convergence est en marche !

Ils étaient faits pour se rencontrer. Une infrastructure ultraperformante et un logiciel ultra-intelligent ne pouvaient que faire bon ménage. Voilà maintenant plusieurs mois que la tendance s’affirme : HPC et IA ont entamé leur convergence. En 2018, le marché des serveurs haute performance a bondi de plus de 15 %, selon les données de Hyperion Research. Pour l’analyste, il ne fait aucun doute que l’utilisation croissante de l’intelligence artificielle par les entreprises dope les ventes de systèmes HPC. Et il n’est pas le seul à le constater.

« La vitesse avec laquelle les processus d’apprentissage et d’inférence sont exécutés est critique pour les organisations qui déploient des applications d’IA, explique IDC. La parallélisation des traitements est l’approche de plus en plus privilégiée et l’infrastructure IA commence à ressembler à l’infrastructure HPC. » Même son de cloche du côté de Gartner, qui estime que « d’ici 2023, l’intelligence artificielle sera un des principaux workloads qui présidera aux choix d’infrastructure ».

HPC sur IA : flexibilité et précision

Les applications HPC, comme le séquençage des génomes ou la modélisation climatique, peuvent tirer des bénéfices importants des technologies de deep learning. L’apprentissage profond est en effet un excellent moyen de résoudre certains des problèmes les plus couramment traités par le HPC, grâce à sa faculté à identifier des modèles dans des ensembles multidimensionnels de données. La classification de modèles, le partitionnement de données ou la détection d’anomalies sont autant de tâches que le deep learning est tout indiqué pour réaliser, en s’appuyant sur les importantes ressources de calcul, stockage et réseau du HPC.

Le deep learning présente également un atout important : sa flexibilité. Les processus d’apprentissage machine sont en effet en mesure d’ingérer constamment de nouvelles données et d’améliorer ainsi en continu la précision de leurs résultats. Une belle opportunité dans le domaine du HPC, où les environnements étudiés évoluent en permanence, mais sont trop complexes à modéliser pour être rapidement mis à jour. Les grands acteurs de la finance, comme Mastercard ou Paypal, ont rapidement compris l’intérêt de cette convergence, notamment dans la détection des fraudes. Plusieurs ont intégré des processus de deep learning dans des applications HPC dont la mission est d’évaluer des millions de transactions chaque seconde, de manière à détecter les opérations frauduleuses.

Enfin, l’IA appliquée au HPC a un grand potentiel pour créer des solutions combinant des ensembles de données globaux avec ceux spécifiques à un individu ou à un paramètre particulier. L’apprentissage profond devrait par exemple permettre de réaliser des percées importantes dans la médecine de précision, en analysant de très grands échantillons de données sur une maladie tout en tenant compte de variables individuelles liées au patient (génétique, environnement, mode de vie, etc.). Le Dr Ali Torkamani, expert en génétique du Scripps Research Translational Institute, et les Dr Kyle Ambert et Sandeep Gupta, experts en deep learning chez Intel, ont présenté en novembre 2017 une IA basée sur une plateforme HPC équipée de processeurs Intel Xeon Platinum 8180. Celle-ci a démontré un véritable potentiel pour aider les cliniciens à identifier les patients présentant des risques de maladie cardiovasculaire.

IA sur HPC : scalabilité et qualité

À l’inverse, les adeptes du deep learning peuvent eux aussi tirer d’intéressants bénéfices des systèmes HPC grâce aux possibilités d’extension massive qu’ils offrent. Si les environnements auxquels ils sont habitués seront fondamentalement similaires, qu’ils soient exécutés sur un simple PC, un serveur ou une infrastructure HPC, les problèmes qu’ils seront en mesure de résoudre seront eux d’une toute autre échelle.

Le parallélisme inhérent aux réseaux neuronaux est parfaitement adapté aux environnements HPC, où l’extrême puissance de calcul, les quantités massives de mémoire et la rapidité des communications inter-nœuds peuvent augmenter drastiquement la capacité d’une IA à identifier des modèles. Le département américain de l’énergie, en collaboration avec l’université de Californie à Berkeley et Intel, a par exemple bâti une IA d’une puissance de 15 pétaFLOPS en s’appuyant sur 9 600 nœuds du supercalculateur Cori, dotés de processeurs Intel Xeon Phi. L’algorithme de deep learning a ainsi pu travailler sur un jeu de données de 15 To.

Outre l’analyse d’ensembles complexes, l’autre grand avantage vient de l’accélération des phases d’apprentissage, qui requièrent des processus itératifs très gourmands en puissance de calcul. Accélérer l’exploration et l’évaluation des données grâce à la puissance du HPC va raccourcir les temps d’itération et donc contribuer à une plus grande qualité des résultats.

L’impossible à portée de processeur

La transformation est rapide. Très rapide. Des scénarios qui semblaient difficilement réalisables il y a seulement quelques années sont aujourd’hui devenus monnaie courante. La reconnaissance vocale ou la vision artificielle sont passées du stade d’expérimentation à un niveau d’efficacité proche, voire supérieur, au cerveau humain. Chaque jour qui passe voit naître de nouvelles avancées en matière d’IA. Et la convergence avec le HPC va encore accélérer le mouvement.

About the Author: Dell Technologies