L’intelligence artificielle est de toutes les conversations. Mais ses concepts fondamentaux sont parfois mal maîtrisés. Voici les bases à connaître avant de vous lancer dans un projet d’IA (ou un dîner professionnel).
Près des deux tiers des DSI vont investir dans une technologie de machine learning au cours des trois prochaines années1. Mais qu’est-ce qui se cache exactement derrière le machine learning ? Quelle différence avec le deep learning ? Et qu’est-ce qui distingue un ANN d’un GAN ? Tous les responsables informatiques qui s’intéressent à l’intelligence artificielle vont, à un moment ou à un autre, être confrontés à cette nouvelle terminologie, qui mérite quelques éclaircissements.
Intelligence artificielle
Commençons par le commencement. L’intelligence artificielle désigne, telle que définie par le Larousse, « l’ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence ». Autrement dit, l’IA est une grande famille qui réunit une grande variété de disciplines (informatique, mathématiques, neurosciences, etc.) et de technologies (matérielles ou logicielles). C’est pourquoi le terme est utilisé dans beaucoup de contextes très différents les uns des autres. Ses frontières étant par nature assez floues, il laisse la porte ouverte à une utilisation parfois galvaudée. Une chose est certaine, même si elle attire tous les regards aujourd’hui, l’intelligence artificielle n’a rien d’une nouveauté. Au début des années 50 déjà, le mathématicien Alan Turing s’interrogeait sur la capacité d’une machine à penser et créait le célèbre test qui porte son nom. Ce n’est toutefois que plusieurs décennies plus tard que la puissance de calcul informatique est devenue suffisante pour concrétiser des scénarios jusqu’alors seulement imaginés.
Machine Learning
Le machine learning, ou l’apprentissage automatique, est le premier sous-domaine de l’intelligence artificielle. Lorsque l’on parle d’IA, c’est en réalité bien souvent à lui que l’on fait référence. Le machine learning consiste à doter un ordinateur de la capacité d’apprendre et de résoudre des problèmes par lui-même. Le procédé se déroule en deux phases : celle d’apprentissage à proprement parler, au cours de laquelle on établit un modèle en fournissant au système un grand volume de données de référence, puis celle de décision, où le système se base sur son apprentissage pour définir automatiquement quelle réponse apporter à un événement donné. L’une des principales difficultés est donc de garantir la qualité des données avec lesquelles l’algorithme de machine learning sera alimenté, afin d’éviter tout biais dans les résultats. Je vous renvoie à ce sujet vers cet article très complet de Sébastien Verger : « Biais algorithmiques, ou quand l’IA déraille ».
Deep learning
Le deep learning, ou apprentissage profond, est quant à lui un sous-domaine du machine learning. Les deux approches ont beaucoup en commun et c’est pourquoi elles sont souvent confondues. Fondamentalement, ce qui va les distinguer l’une de l’autre est la complexité de l’analyse et la quantité de données exploitées. L’apprentissage profond est en réalité un apprentissage automatique s’appuyant sur un réseau de neurones (voir ci-dessous) qui vont affiner l’analyse grâce à un traitement par couches. Chaque couche de neurones artificiels va recevoir les résultats de la couche qui le précède, avant de procéder à ses propres calculs, de manière à pousser toujours plus loin le niveau de compréhension. En résumé, plus le nombre d’étapes de calcul sera important, plus le système sera capable de répondre à des questions complexes, comme la reconnaissance d’un visage par exemple. C’est cette succession d’itérations qui « creusent » la donnée qui a donné le terme apprentissage « profond ».
Réseau neuronal
Le réseau neuronal (ANN, artificial neuronal network) n’est pas une sorte d’intelligence artificielle, mais désigne l’architecture du deep learning qui s’inspire des synapses et neurones du cerveau humain. En pratique, il s’agit de l’association d’un grand nombre de cœurs processeurs travaillant en parallèle, chacun sur une partie extrêmement simple d’un ensemble complexe, et disposés en couches successives. Le réseau neuronal est adaptatif. Il se modifie par lui-même au fur et à mesure qu’il apprend pour améliorer en continu les résultats fournis. Il existe différents types de réseaux neuronaux : convolutif (CNN, convolutional neural network), récurrent (RNN, recurrent neural network), à propagation avant (FNN, Feedforward neural network) ou encore résiduel (ResNet, residual neural network). Chaque modèle présente des avantages en fonction de l’usage que l’on souhaite faire de son IA. Le CNN sera par exemple adapté à la reconnaissance d’images et à l’analyse de vidéos, quand le RNN sera plus efficace pour la compréhension du langage.
Réseau antagoniste génératif
Le réseau antagoniste génératif (GAN, generative adversial network) est une évolution récente de l’intelligence artificielle. Il est dit génératif, car son but est de générer de nouvelles données (images, textes, voix, vidéos, etc.) et antagoniste, car deux réseaux de neurones s’y affrontent : le générateur, qui va chercher à créer l’objet voulu, et le discriminateur, qui va juger si cet objet est conforme ou non. Plus la compétition entre les deux réseaux va durer longtemps, plus le générateur va affiner les caractéristiques de l’objet et générer des propositions conformes à ce que le discriminateur attend. Les GAN ont récemment fait parler d’eux pour leur capacité à tromper notre perception. On les a notamment vu à l’œuvre avec un tableau vendu plus de 400 000 dollars, les faux visages créés par des chercheurs de Nvidia, ou encore l’émergence des deepfakes, ces vidéos ou images truquées extrêmement réalistes.