Intelligence artificielle (1/3) : les origines d’une révolution
Article
Longtemps confinée aux pages de la science-fiction dans l’esprit du plus grand nombre, cette classe de technologies est désormais omniprésente dans notre quotidien numérique.
< Retour au sommaire du dossier
Article
« Je crois que d’ici à la fin du siècle, l’usage des mots et l’opinion générale des classes éduquées auront tellement évolué que l’on pourra parler de machines pensantes sans s’attendre à être contredit. » - Alan Turing, 1947
En 1947, près de trente ans avant la commercialisation du premier ordinateur, le mathématicien de génie Alan Turing prononça à Londres une conférence publique à l’occasion de laquelle il exposa ce qui fut plus tard considéré comme la première définition de l’intelligence artificielle :
« Ce que nous voulons est une machine capable d’apprendre à partir de l’expérience […]. La possibilité donnée à une machine de modifier ses propres instructions est le mécanisme à la base de [cet apprentissage]. »
Avec une prescience remarquable, le fondateur des sciences informatiques modernes était déjà convaincu que les machines seraient un jour capables de comportements intelligents et douées de capacités d’apprentissage automatique (machine learning), concept fondamental de l’intelligence artificielle.
Dès 1948, Turing énumère et réfute les raisons pour lesquels ses contemporains doutent de la possibilité d’une machine intelligente : « une réticence à admettre que l’humanité puisse avoir un quelconque rival en matière d’intelligence », « la croyance dogmatique selon laquelle toute tentative de construire une telle machine serait une forme d’irrévérence prométhéenne », ou encore le fait de considérer que l’intelligence d’une machine « n’est rien sinon le reflet de l’intelligence de ses créateurs ».
Si les limites sans cesse repoussées par l’IA n’ont pas suffi à faire entendre raison à ses contempteurs les plus zélés, plus aucun spécialiste ne doute de la capacité des machines à reproduire, voire à dépasser, au moins dans certains domaines, l’intelligence humaine. De fait, soixante-quinze ans après leur énonciation, la plupart des prédictions d’Alan Turing se sont réalisées et l’intelligence artificielle (IA) fait partie intégrante de la vie quotidienne de milliards d’humains, sans même que nous nous en apercevions.
Les machines vont-elles surpasser voire éclipser l’intelligence humaine ? L’IA va-t-elle rendre nos cerveaux obsolètes ? Est-ce l’invention la plus dangereuse ou la plus prometteuse de l’Histoire ?
Avant d’esquisser une réponse à ces questions de prospective, il est utile de faire un détour par le passé pour comprendre ce que recouvre l’expression « intelligence artificielle », puis par le présent pour appréhender les dynamiques à l’œuvre dans ce domaine.
Depuis la fondation officielle de la discipline académique au Dartmouth College par John McCarthy en 1956, l’histoire de l’IA a alterné entre vagues d’optimisme et périodes de financements en berne, suivant les succès éclatants et les déceptions causées par des promesses précipitées.
Historiquement, deux approches théoriques de l’intelligence artificielle ont coexisté : l’IA symbolique et l’IA connexionniste. L’IA symbolique consiste à écrire et à mettre en œuvre des règles logiques explicites, conduisant de manière déterministe à l’objectif visé. Un exemple typique de système symbolique est un arbre de décision logique, utilisé par exemple pour établir un diagnostic médical.
À chaque embranchement, l’algorithme répond à une question donnée en choisissant parmi un nombre fini d’alternatives, en obéissant à des règles simples fixées en amont. Chaque choix le conduit à la question suivante : le patient a-t-il de la fièvre ? Si oui : tousse-t-il ? Si non : a-t-il des courbatures ? Les branches finales de l’arbre correspondent aux différents résultats possibles : ici, des pathologies médicales. L’IA symbolique est restée le paradigme dominant de la recherche en IA de ses débuts au milieu des années 1990.
L’approche connexionniste (ou statistique), quant à elle, se réfère aux réseaux de neurones artificiels. Leur conception s’inspire vaguement de la structure du cerveau humain. Ils sont composés d’un empilement de couches de « neurones » théoriques — en réalité des fonctions mathématiques élémentaires prenant en entrée le signal des neurones de la couche antérieure et envoyant en sortie leur signal aux neurones de la couche ultérieure. Le résultat attendu est matérialisé par le signal de la couche finale du réseau de neurones.
Par exemple, pour une algorithmique de classification, une photographie est fournie à la couche d’entrée du réseau, les couches intermédiaires décomposent et analysent l’image, et la couche de sortie renvoie chien ou chat. Au lieu d’obéir à des règles explicites, les réseaux de neurones « apprennent » eux-mêmes à effectuer une tâche par entraînement statistique sur une grande quantité de données : on parle d’apprentissage machine (ou machine learning). Lors de cette étape d’apprentissage, les « poids » (ou « paramètres ») du réseau de neurones — c’est-à-dire la force des connexions entre chaque neurone — sont progressivement ajustés jusqu’à ce que le signal de sortie reflète bien le résultat attendu.
En, 1958, le premier réseau de neurones artificiels voit le jour. Composé d’une couche de cellules photoréceptrices connectée à une unique couche de neurones formels, ce système était conçu pour la reconnaissance d’images. D’abord installé sur un ordinateur de cinq tonnes, puis conçu comme une machine dédiée, le Perceptron Mark I est, selon son créateur Frank Rosenblatt, « la première machine capable de formuler une idée ». Après entraînement supervisé sur une cinquantaine de cartes perforées, le système se montrait capable de distinguer celles marquées du côté gauche de celles marquées du côté droit.
Ces deux approches — l’IA symbolique et les réseaux de neurones — ont engendré deux disciplines académiques relativement isolées et concurrentes, disposant chacune d’avantages objectifs. Les systèmes symboliques sont dits « explicables » : leur fonctionnement peut être explicité dans le langage commun. Ils possèdent en revanche par nature un domaine d’application restreint et une très faible capacité à s’adapter à des contextes nouveaux.
Les réseaux de neurones sont quant à eux considérés comme des « boîtes noires » : des machines composées de très nombreux paramètres ne donnant lieu à aucune interprétation simple de leur fonctionnement. Ces systèmes se montrent cependant polyvalents et particulièrement efficaces pour effectuer des tâches difficiles à expliciter sous forme d’instructions élémentaires, telles que le traitement du langage ou la reconnaissance d’images. Autre atout de cette approche : elle mène à des progrès de performance même en l’absence d’avancées théoriques, par simple effet de l’accroissement du nombre de paramètres et de la taille du jeu de données d’entraînement.
Ce n’est qu’à partir du début de 21e siècle que la puissance de calcul des ordinateurs, couplée à l’explosion de quantité de données numériques disponibles, a permis à l’approche connexionniste d’exprimer son plein potentiel. Depuis le milieu des années 2010, les réseaux de neurones ont en effet démontré de nombreuses avancées spectaculaires que les spécialistes eux-mêmes n’avaient pas anticipées, en atteignant un niveau surhumain dans divers types de jeux (go, poker, jeux vidéo) et dans plusieurs domaines d’expertise spécifiques (radiologie, oncologie, reconnaissance de visages et d’émotions, analyse prédictive).
Si la majorité des logiciels informatiques en fonctionnement reposent toujours sur une logique symbolique, les réseaux de neurones connaissent des progrès fulgurants et attirent à eux l’écrasante majorité des efforts de recherche et de développement.
Fin 2022, des millions d’humains découvrent avec fascination les systèmes d’IA obéissant à des instructions formulées en langage naturel : les réseaux de neurones dits « génératifs » pour leur faculté à produire du texte ou des images en réponse à une simple requête (pour plus de détail sur leur fonctionnement, lire : Intelligence artificielle : qui suis-je ?). Les grands modèles de langage (Large Language Models, LLM), en particulier, excellent par leur polyvalence et leur facilité d’usage.
Les générations successives d’IA battent tour à tour des records de performance et de polyvalence. Elles déjouent les réserves des spécialistes quant à la possibilité d’approcher ou de dépasser l’intelligence humaine dans un nombre sans cesse croissant de domaines. Si elles étaient jusqu’à encore récemment spécialisées dans un type précis de tâches et incapable de généraliser leur apprentissage à des situations nouvelles, les modèles de langage contemporains excellent dans une grande diversité de fonctions et de contextes.
Les progrès de l’IA reposent sur les progrès de trois grandeurs sous-jacentes : la puissance de calcul des ordinateurs (le hardware), les connaissances théoriques en algorithmique (le software) et les sommes d’argent investies pour entraîner des systèmes d’IA. Examinons chacune de ces tendances.
En 1975, l’ingénieur Gordon E. Moore postule que le nombre de transistors dans un microprocesseur double tous les deux ans. Cette conjecture se révèle étonnamment exacte. Année après année, les machines électroniques deviennent de plus en plus compactes, rapides et puissantes. On observe ainsi une augmentation exponentielle de la puissance de calcul à coût constant.
Or, les montants déboursés pour entraîner des modèles d’IA ne sont pas constants : ils augmentent eux aussi de manière exponentielle. Puisque ces modèles démontrent des progrès rapides, les entreprises et leurs investisseurs consentent à payer des sommes de plus en plus importantes pour les entraîner. Sam Altman, le directeur général d’OpenAI, estime que l’entraînement de GPT-4 a coûté 100 millions de dollars. On assiste ainsi à une véritable explosion de la quantité de calcul mise au profit de l’entraînement des modèles d’IA : entre 2010 et 2024, le nombre d’opérations aurait doublé tous les six mois en moyenne. Cela correspond à une multiplication par environ dix milliards sur la période.
Enfin, les progrès théoriques en algorithmique permettent d’améliorer considérablement, là encore selon une trajectoire exponentielle, l’efficacité de l’entraînement des systèmes d’IA : tous les neuf mois en moyenne, un système d’IA requiert deux fois moins d’opérations d’entraînement pour « apprendre » à effectuer la même tâche. Cela signifie qu’à performance équivalente, un modèle entraîné en 2021 requerrait environ 17 000 fois moins d’opérations de calcul qu’en 2012. Les concepteurs d’IA ayant épuisé la majeure partie des bases de données textuelles facilement exploitables, ce progrès est fondamental si l’on souhaite continuer à entraîner des modèles toujours plus gros, requérant théoriquement un corpus d’entraînement toujours plus grand.
Les progrès de l’IA, que l’on peut grossièrement voir comme la multiplication de ces trois exponentielles — la puissance, l’efficacité et les investissements — sont donc inouïs. Cela peut être illustré par le fait, par exemple, que les IA de génération d’images grand public sont passées du niveau d’un dessin pixelisé à une vidéo réaliste en haute définition, en à peine deux ans.
Les systèmes d’IA les plus populaires, tels que ChatGPT, peuvent être assimilés à des assistants virtuels : ils produisent une action unique en réponse à une instruction unique. Bien que très efficaces pour effectuer une grande diversité de tâches, l’humain doit systématiquement intervenir au début et à la fin de chaque tâche réalisée par la machine.
À mesure que les systèmes d’IA progressent en polyvalence et en fiabilité, il devient possible d’utiliser un système d’IA pour en contrôler d’autres, et ainsi de se passer d’intervention humaine pour un ensemble de tâches de complexité croissante. Un système d’IA (ou un ensemble de systèmes d’IA en interaction) se passant d’instruction pour mener à bien un travail dans la durée peut être qualifié d’« agent ».
Là où un assistant peut rédiger à la demande un article de blog, un assistant pourrait par exemple se voir confier la rédaction et la publication d’un (ou cent !) article(s) par jour en fonction des tendances observées sur un réseau social. Il y a donc la même différence entre un assistant et un agent qu’entre un tableur numérique et un agent comptable, qu’entre un radar de recul et une voiture autonome, ou, de manière schématique, qu’entre un outil et le professionnel qui le manie.
Certains voient en l’agent IA l’horizon (et la fin ?) du travail, puisqu’une seule entreprise pourrait avoir à ses ordres un nombre arbitrairement grand d’agents, contrôlant éventuellement eux-mêmes des agents plus spécialisés.
Sans avoir à faire de pari audacieux sur le futur, les tendances actuellement observables laissent à elles seules entrevoir une progression extrêmement rapide de l’IA pour les mois et années à venir. Dans deux prochains articles, nous examinerons quelles sont les conséquences du déploiement à grande échelle de l’IA dans le monde contemporain (Intelligence artificielle : qui suis-je ?), puis les espoirs et craintes légitimes que soulève cet ensemble de technologies pour les années à venir (Intelligence artificielle : où vais-je ?).
Article
Longtemps confinée aux pages de la science-fiction dans l’esprit du plus grand nombre, cette classe de technologies est désormais omniprésente dans notre quotidien numérique.
Article
Comment déterminer la balance bénéfices-risques de technologies aux progrès à la fois fulgurants et exponentiels ?
Article
Comme dans les pires dystopies, ce « golem » moderne, et bien réel, pourrait-il devenir assez autonome pour s’émanciper de ses maîtres ?
Article
Quelles perspectives les débats actuels sur la souveraineté numérique ouvrent-ils pour l’évolution des services publics locaux ?
Article
Quel rapport entre écologie et souveraineté numérique ? Découvrez les enjeux soulevés par le rapport rendu par le Haut Conseil pour le Climat en décembre 2020.
Article
La Revue dessinée a publié plusieurs reportages sur les conséquences écologiques et sociales de nos usages digitaux. Avec humour, l'un de ces textes nous permet de prendre la mesure du piège écologique que constitue notre addiction au numérique.
Article
Jacques Priol, consultant en gouvernance des données, tire les enseignements du projet Quayside à Toronto.
Article
Et si le web nous rendait fou ? Ou pire, malheureux ? Analyse de l’impact des TIC sur notre santé mentale…
Interview de Joël de Rosnay
Scientifique, prospectiviste, conférencier et écrivain
Étude
L'enjeu est de comprendre que si l'ère de l'information dans laquelle nous entrons est une donnée, forte, incontournable, qui s'impose à tous, ce sont bien les acteurs de la société qui inventent les usages.
Quels sont les enjeux soulevés par l'IA ?
Interview de Gabriele de Seta
Anthropologue des médias
Interview de Christian Katzenbach
Senior Researcher à l'Institute for Internet and Society de l'Université Alexander von Humboldt de Berlin
Interview de Rachel Maguire
Directrice de recherche à l'Institute for the Future, à Palo Alto (Californie)
Interview de Pierre Arnal
Vice-Président d’ADDACTIS GROUP
Interview de Frédéric Droin et Thierry Mazoyer
Directeur R&D et Directeur Innovation ACOEM Group
Étude
Une analyse des enjeux qui entourent l'intelligence artificielle.