Vous êtes ici :

Intelligence artificielle (1/3) : les origines d’une révolution

< Retour au sommaire du dossier

© Cornell University News Service records, #4-3-15. Division of Rare and Manuscript Collections, Cornell University Library. Droits réservés.

Article

« Intelligence Artificielle » : longtemps confinée aux pages de la science-fiction dans l’esprit du plus grand nombre, cette classe de technologies est désormais omniprésente dans notre quotidien numérique, influençant, assistant et suppléant les humains dans une diversité croissante de tâches.

D’où vient cette forme d’intelligence ? Quels sont les principes, les innovations et les machines qui lui ont permis de se développer pour transformer notre monde ?

Dans ce premier volet d’un triptyque consacré à l’IA, Millénaire 3 vous propose d’explorer les origines de cette technologie révolutionnaire.

De ses fondements théoriques à ses percées technologiques récentes, découvrons comment l’IA bouleverse nos vies et redéfinit les perspectives du progrès à un rythme sans précédent dans l’histoire de l’humanité.

Tag(s) :

Date : 04/07/2024

« Je crois que d’ici à la fin du siècle, l’usage des mots et l’opinion générale des classes éduquées auront tellement évolué que l’on pourra parler de machines pensantes sans s’attendre à être contredit. » - Alan Turing, 1947

En 1947, près de trente ans avant la commercialisation du premier ordinateur, le mathématicien de génie Alan Turing prononça à Londres une conférence publique à l’occasion de laquelle il exposa ce qui fut plus tard considéré comme la première définition de l’intelligence artificielle :

« Ce que nous voulons est une machine capable d’apprendre à partir de l’expérience […]. La possibilité donnée à une machine de modifier ses propres instructions est le mécanisme à la base de [cet apprentissage]. »

Avec une prescience remarquable, le fondateur des sciences informatiques modernes était déjà convaincu que les machines seraient un jour capables de comportements intelligents et douées de capacités d’apprentissage automatique (machine learning), concept fondamental de l’intelligence artificielle.

Dès 1948, Turing énumère et réfute les raisons pour lesquels ses contemporains doutent de la possibilité d’une machine intelligente : « une réticence à admettre que l’humanité puisse avoir un quelconque rival en matière d’intelligence », « la croyance dogmatique selon laquelle toute tentative de construire une telle machine serait une forme d’irrévérence prométhéenne », ou encore le fait de considérer que l’intelligence d’une machine « n’est rien sinon le reflet de l’intelligence de ses créateurs ».

 

Alan Turing (1912-1954) en 1936 à l’Université de Princeton. Pionnier de l’informatique, mathématicien génial et héros de guerre, Alan Turing est souvent reconnu comme l’inventeur du concept d’intelligence artificielle.

 

Si les limites sans cesse repoussées par l’IA n’ont pas suffi à faire entendre raison à ses contempteurs les plus zélés, plus aucun spécialiste ne doute de la capacité des machines à reproduire, voire à dépasser, au moins dans certains domaines, l’intelligence humaine. De fait, soixante-quinze ans après leur énonciation, la plupart des prédictions d’Alan Turing se sont réalisées et l’intelligence artificielle (IA) fait partie intégrante de la vie quotidienne de milliards d’humains, sans même que nous nous en apercevions.

Les machines vont-elles surpasser voire éclipser l’intelligence humaine ? L’IA va-t-elle rendre nos cerveaux obsolètes ? Est-ce l’invention la plus dangereuse ou la plus prometteuse de l’Histoire ?

Avant d’esquisser une réponse à ces questions de prospective, il est utile de faire un détour par le passé pour comprendre ce que recouvre l’expression « intelligence artificielle », puis par le présent pour appréhender les dynamiques à l’œuvre dans ce domaine.

 

Brève histoire des machines intelligentes

 

Depuis la fondation officielle de la discipline académique au Dartmouth College par John McCarthy en 1956, l’histoire de l’IA a alterné entre vagues d’optimisme et périodes de financements en berne, suivant les succès éclatants et les déceptions causées par des promesses précipitées.

Historiquement, deux approches théoriques de l’intelligence artificielle ont coexisté : l’IA symbolique et l’IA connexionniste. L’IA symbolique consiste à écrire et à mettre en œuvre des règles logiques explicites, conduisant de manière déterministe à l’objectif visé. Un exemple typique de système symbolique est un arbre de décision logique, utilisé par exemple pour établir un diagnostic médical.

À chaque embranchement, l’algorithme répond à une question donnée en choisissant parmi un nombre fini d’alternatives, en obéissant à des règles simples fixées en amont. Chaque choix le conduit à la question suivante : le patient a-t-il de la fièvre ? Si oui : tousse-t-il ? Si non : a-t-il des courbatures ? Les branches finales de l’arbre correspondent aux différents résultats possibles : ici, des pathologies médicales. L’IA symbolique est restée le paradigme dominant de la recherche en IA de ses débuts au milieu des années 1990.

L’approche connexionniste (ou statistique), quant à elle, se réfère aux réseaux de neurones artificiels. Leur conception s’inspire vaguement de la structure du cerveau humain. Ils sont composés d’un empilement de couches de « neurones » théoriques — en réalité des fonctions mathématiques élémentaires prenant en entrée le signal des neurones de la couche antérieure et envoyant en sortie leur signal aux neurones de la couche ultérieure. Le résultat attendu est matérialisé par le signal de la couche finale du réseau de neurones.

Par exemple, pour une algorithmique de classification, une photographie est fournie à la couche d’entrée du réseau, les couches intermédiaires décomposent et analysent l’image, et la couche de sortie renvoie chien ou chat. Au lieu d’obéir à des règles explicites, les réseaux de neurones « apprennent » eux-mêmes à effectuer une tâche par entraînement statistique sur une grande quantité de données : on parle d’apprentissage machine (ou machine learning). Lors de cette étape d’apprentissage, les « poids » (ou « paramètres ») du réseau de neurones — c’est-à-dire la force des connexions entre chaque neurone — sont progressivement ajustés jusqu’à ce que le signal de sortie reflète bien le résultat attendu.

 

Le Perceptron Mark I de Frank Rosenblatt.© Cornell University News Service records, #4-3-15. Division of Rare and Manuscript Collections, Cornell University Library. Droits réservés

 

L’intelligence artificielle est un ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine (définition Larousse). Elle comprend deux grandes familles : l’IA symbolique et l’IA connexionniste, qui ont chacune connu des périodes de succès et des « hivers », ainsi que le montre le schéma ci-dessus, représentant les réalisations les plus célèbres de chaque approche.© OpenAI, modifié par l’auteur

 

En, 1958, le premier réseau de neurones artificiels voit le jour. Composé d’une couche de cellules photoréceptrices connectée à une unique couche de neurones formels, ce système était conçu pour la reconnaissance d’images. D’abord installé sur un ordinateur de cinq tonnes, puis conçu comme une machine dédiée, le Perceptron Mark I est, selon son créateur Frank Rosenblatt, « la première machine capable de formuler une idée ». Après entraînement supervisé sur une cinquantaine de cartes perforées, le système se montrait capable de distinguer celles marquées du côté gauche de celles marquées du côté droit.

Ces deux approches — l’IA symbolique et les réseaux de neurones — ont engendré deux disciplines académiques relativement isolées et concurrentes, disposant chacune d’avantages objectifs. Les systèmes symboliques sont dits « explicables » : leur fonctionnement peut être explicité dans le langage commun. Ils possèdent en revanche par nature un domaine d’application restreint et une très faible capacité à s’adapter à des contextes nouveaux.

Les réseaux de neurones sont quant à eux considérés comme des « boîtes noires » : des machines composées de très nombreux paramètres ne donnant lieu à aucune interprétation simple de leur fonctionnement. Ces systèmes se montrent cependant polyvalents et particulièrement efficaces pour effectuer des tâches difficiles à expliciter sous forme d’instructions élémentaires, telles que le traitement du langage ou la reconnaissance d’images. Autre atout de cette approche : elle mène à des progrès de performance même en l’absence d’avancées théoriques, par simple effet de l’accroissement du nombre de paramètres et de la taille du jeu de données d’entraînement.

 

Représentation schématique d’un réseau de neurones artificiels. Pour déterminer le genre d’un individu sur une photographie, les différentes couches de neurones s’activent successivement pour transmettre un message à la couche suivante, en identifiant des motifs de plus en plus détaillés de l’image : bords, formes, ombres… ​​​​​​​La présence ou l’absence de tels motifs permet au réseau de neurones de formuler sa prédiction finale. En cas d’erreur, la force des connexions entre neurones (les « paramètres » du modèle) est automatiquement ajustée. L’IA améliore la fiabilité de ses prédictions à mesure qu’elle est alimentée par des milliers d’images annotées « homme » ou « femme ». Source : Grimonpont, A. (2022) Algocratie, Actes Sud

 

Ce n’est qu’à partir du début de 21e siècle que la puissance de calcul des ordinateurs, couplée à l’explosion de quantité de données numériques disponibles, a permis à l’approche connexionniste d’exprimer son plein potentiel. Depuis le milieu des années 2010, les réseaux de neurones ont en effet démontré de nombreuses avancées spectaculaires que les spécialistes eux-mêmes n’avaient pas anticipées, en atteignant un niveau surhumain dans divers types de jeux (go, poker, jeux vidéo) et dans plusieurs domaines d’expertise spécifiques (radiologie, oncologie, reconnaissance de visages et d’émotions, analyse prédictive).

Si la majorité des logiciels informatiques en fonctionnement reposent toujours sur une logique symbolique, les réseaux de neurones connaissent des progrès fulgurants et attirent à eux l’écrasante majorité des efforts de recherche et de développement.

Fin 2022, des millions d’humains découvrent avec fascination les systèmes d’IA obéissant à des instructions formulées en langage naturel : les réseaux de neurones dits « génératifs » pour leur faculté à produire du texte ou des images en réponse à une simple requête (pour plus de détail sur leur fonctionnement, lire : Intelligence artificielle : qui suis-je ?). Les grands modèles de langage (Large Language Models, LLM), en particulier, excellent par leur polyvalence et leur facilité d’usage.

 

Un progrès triplement exponentiel

 

Les générations successives d’IA battent tour à tour des records de performance et de polyvalence. Elles déjouent les réserves des spécialistes quant à la possibilité d’approcher ou de dépasser l’intelligence humaine dans un nombre sans cesse croissant de domaines. Si elles étaient jusqu’à encore récemment spécialisées dans un type précis de tâches et incapable de généraliser leur apprentissage à des situations nouvelles, les modèles de langage contemporains excellent dans une grande diversité de fonctions et de contextes.

 

Évolution de la performance des meilleurs systèmes d’IA dans différents types de tâches au cours des années. Pour chaque type de tâche, le système d’IA le plus à la pointe de la discipline est évalué selon un test normé, et ses performances sont comparées à celle d’un humain, dont la note est arbitrairement fixée à 100 %. Au cours du temps, l’IA dépasse les humains dans un nombre croissant de tâches, et le rythme de progrès s’accélère pour chaque nouvelle discipline. Source : Kiela D., Trush, T., Ethatyarjh, K., 2023, Plotting progress in AI

 

Les progrès de l’IA reposent sur les progrès de trois grandeurs sous-jacentes : la puissance de calcul des ordinateurs (le hardware), les connaissances théoriques en algorithmique (le software) et les sommes d’argent investies pour entraîner des systèmes d’IA. Examinons chacune de ces tendances.

En 1975, l’ingénieur Gordon E. Moore postule que le nombre de transistors dans un microprocesseur double tous les deux ans. Cette conjecture se révèle étonnamment exacte. Année après année, les machines électroniques deviennent de plus en plus compactes, rapides et puissantes. On observe ainsi une augmentation exponentielle de la puissance de calcul à coût constant.

Or, les montants déboursés pour entraîner des modèles d’IA ne sont pas constants : ils augmentent eux aussi de manière exponentielle. Puisque ces modèles démontrent des progrès rapides, les entreprises et leurs investisseurs consentent à payer des sommes de plus en plus importantes pour les entraîner. Sam Altman, le directeur général d’OpenAI, estime que l’entraînement de GPT-4 a coûté 100 millions de dollars. On assiste ainsi à une véritable explosion de la quantité de calcul mise au profit de l’entraînement des modèles d’IA : entre 2010 et 2024, le nombre d’opérations aurait doublé tous les six mois en moyenne. Cela correspond à une multiplication par environ dix milliards sur la période.

Enfin, les progrès théoriques en algorithmique permettent d’améliorer considérablement, là encore selon une trajectoire exponentielle, l’efficacité de l’entraînement des systèmes d’IA : tous les neuf mois en moyenne, un système d’IA requiert deux fois moins d’opérations d’entraînement pour « apprendre » à effectuer la même tâche. Cela signifie qu’à performance équivalente, un modèle entraîné en 2021 requerrait environ 17 000 fois moins d’opérations de calcul qu’en 2012. Les concepteurs d’IA ayant épuisé la majeure partie des bases de données textuelles facilement exploitables, ce progrès est fondamental si l’on souhaite continuer à entraîner des modèles toujours plus gros, requérant théoriquement un corpus d’entraînement toujours plus grand.

Les progrès de l’IA, que l’on peut grossièrement voir comme la multiplication de ces trois exponentielles — la puissance, l’efficacité et les investissements — sont donc inouïs. Cela peut être illustré par le fait, par exemple, que les IA de génération d’images grand public sont passées du niveau d’un dessin pixelisé à une vidéo réaliste en haute définition, en à peine deux ans.

 

De l’assistant à l’agent

 

Les systèmes d’IA les plus populaires, tels que ChatGPT, peuvent être assimilés à des assistants virtuels : ils produisent une action unique en réponse à une instruction unique. Bien que très efficaces pour effectuer une grande diversité de tâches, l’humain doit systématiquement intervenir au début et à la fin de chaque tâche réalisée par la machine.

À mesure que les systèmes d’IA progressent en polyvalence et en fiabilité, il devient possible d’utiliser un système d’IA pour en contrôler d’autres, et ainsi de se passer d’intervention humaine pour un ensemble de tâches de complexité croissante. Un système d’IA (ou un ensemble de systèmes d’IA en interaction) se passant d’instruction pour mener à bien un travail dans la durée peut être qualifié d’« agent ».

Là où un assistant peut rédiger à la demande un article de blog, un assistant pourrait par exemple se voir confier la rédaction et la publication d’un (ou cent !) article(s) par jour en fonction des tendances observées sur un réseau social. Il y a donc la même différence entre un assistant et un agent qu’entre un tableur numérique et un agent comptable, qu’entre un radar de recul et une voiture autonome, ou, de manière schématique, qu’entre un outil et le professionnel qui le manie.
Certains voient en l’agent IA l’horizon (et la fin ?) du travail, puisqu’une seule entreprise pourrait avoir à ses ordres un nombre arbitrairement grand d’agents, contrôlant éventuellement eux-mêmes des agents plus spécialisés.

Sans avoir à faire de pari audacieux sur le futur, les tendances actuellement observables laissent à elles seules entrevoir une progression extrêmement rapide de l’IA pour les mois et années à venir. Dans deux prochains articles, nous examinerons quelles sont les conséquences du déploiement à grande échelle de l’IA dans le monde contemporain (Intelligence artificielle : qui suis-je ?), puis les espoirs et craintes légitimes que soulève cet ensemble de technologies pour les années à venir (Intelligence artificielle : où vais-je ?).