Intelligence artificielle (1/3) : les origines d’une révolution
Article
Longtemps confinée aux pages de la science-fiction dans l’esprit du plus grand nombre, cette classe de technologies est désormais omniprésente dans notre quotidien numérique.
< Retour au sommaire du dossier
Article
« C’était le meilleur des temps, c’était le pire des temps, c’était l’âge de la sagesse, c’était l’âge de la folie, c’était l’époque de la foi, c’était l’époque du scepticisme, c’était la saison de la lumière, c’était la saison des ténèbres, c’était le printemps de l’espérance, c’était l’hiver du désespoir. » - Charles Dickens, A Tale of Two Cities
Avant que les systèmes d’IA générative ne deviennent accessibles au plus grand nombre, l’intelligence artificielle pouvait être perçue comme un horizon se dérobant sans cesse à mesure que l’on avançait vers lui, faisant écho à la célèbre formule de John McCarthy, l’un des pionniers de l’intelligence artificielle : « Dès que ça fonctionne, plus personne n’appelle cela une IA. »
De fait, les IA les plus connues du grand public ne sont pas celles ayant le plus d’impact sur nos vies. Depuis plusieurs années, de nombreux systèmes s’appuyant sur l’IA sont déployés à très grande échelle dans le monde réel, s’intégrant à notre quotidien de manière souvent imperceptible.
Est-ce la preuve qu’ils « fonctionnent » ? Est-ce une démonstration de leur innocuité et de leur fiabilité ? Passons en revue un certain nombre de domaines dans lesquels l’IA provoque, ou a déjà provoqué, des bouleversements majeurs, suscitant tantôt des espoirs illimités, tantôt des craintes fondées.
L’une des IA les plus méconnues comparativement à son impact planétaire est certainement Aladdin. Aladdin est l’acronyme de Asset, Liability, Debt and Derivative Investment Network, c’est-à-dire : plateforme d’investissements en actifs, passifs, dettes et dérivés. Sous ce sobriquet intrigant se cache le programme informatique utilisé par BlackRock, le premier gestionnaire d’actifs mondial, pour placer la fortune de ses clients.
C’est sur les conseils de ce supercalculateur algorithmique, composé de six mille serveurs à haute performance, que BlackRock investit des sommes colossales sur les cinq continents. Selon une enquête de Sylvain Leder, agrégé d’économie et journaliste pour le Monde diplomatique, la firme possède une part de 40 % des entreprises américaines les plus importantes, vote dans 17 000 conseils d’administration, et possède plus d’actions dans Google, Apple, Facebook, Amazon et Microsoft que les fondateurs de chacune de ces sociétés. Au total, il est estimé qu’Aladdin contrôle jusqu’à 20 000 milliards d’actifs financiers, soit environ 10 % du marché financier mondial, un montant équivalent au PIB des États-Unis.
Si les sommes gérées par Aladdin font de ce système un cas singulier, les algorithmes ont pris une importance considérable dans la finance mondiale au cours de ces dernières décennies. La tendance à l’automatisation des marchés financiers touche désormais toutes les places boursières, faisant des algorithmes le premier moteur d’investissement des capitaux à travers le monde.
Comme son nom l’indique, le trading algorithmique s’appuie sur des algorithmes — c’est-à-dire des procédures automatisées et transcrites sous forme de code informatique — pour passer des ordres d’achat et de vente de produits financiers sans intervention humaine. Les formes les plus basiques de ces algorithmes suivent des règles élémentaires explicitement formulées par un trader humain, telles que « vendre telle action si son prix dépasse tel seuil », mais ces systèmes sont progressivement remplacés par des IA avancées, capables d’apprentissage automatique sur l’immense quantité de données du marché financier pour concevoir de manière autonome des stratégies d’investissement.
L’absence d’intervention humaine permet l’exécution ultrarapide des transactions financières : quelques fractions de microsecondes suffisent à acheter ou vendre un titre. Ce trading à haute fréquence, devenu prépondérant en nombre et en volume de transactions dans les années 2000, a été accusé d’aggraver la volatilité des marchés. Il aurait contribué au « flash crash » de 2010, où le Dow Jones a perdu 9 % de sa valeur en à peine 10 minutes.
Au-delà des crises, c’est la « marche normale » de la finance automatisée qui doit nous inquiéter. Chaque tâche automatisée prive le jugement humain d’une occasion de s’exprimer. Le trading algorithmique représenterait environ 60 à 75 % du volume global des transactions financières sur les marchés boursiers américains et européens, ainsi que dans les principales places de marché asiatiques. Aveugle face aux limites du monde physique, incapable d’allouer les fonds selon les besoins de l’économie réelle, la quête de profits automatisée semble plus apte à concentrer les richesses qu’à en créer.
L’intelligence artificielle, par sa capacité à analyser d’immenses jeux de données, à inférer, ou induire, des relations entre elles, à modéliser des structures complexes ou encore à concevoir des protocoles expérimentaux, accélère la recherche scientifique et permet de lever des barrières fondamentales. La biologie moléculaire est un domaine où l’intelligence artificielle a permis des percées scientifiques particulièrement spectaculaires.
Google Deepmind, en 2020, annonce avoir résolu le problème dit du « repliement des protéines », un défi ayant occupé des générations de biologistes moléculaires pendant plus de cinquante ans. Les protéines sont des macromolécules organiques constituant l’essentiel de la masse sèche du corps des humains et des animaux. Elles sont impliquées dans un très grand nombre de fonctions biologiques essentielles, telles que la formation des tissus, le métabolisme énergétique des cellules et la défense immunitaire.
Chaque protéine est constituée d’une chaîne d’acides aminés, briques essentielles dont les propriétés physico-chimiques confèrent à la protéine une configuration spatiale unique et stable : c’est cette structure en trois dimensions qui détermine la fonction d’une protéine dans l’organisme. S’il est très difficile et onéreux de déterminer la forme d’une protéine par l’observation, il est en revanche relativement aisé de déterminer son code, c’est-à-dire l’ordre des acides aminés qui la composent, par séquençage génétique. Le problème « du repliement des protéines », qui consiste à prédire la forme d’une protéine à partir de ce code, est réputé particulièrement difficile.
C’est AlphaFold, une intelligence artificielle développée par Google Deepmind, qui résout ce problème de façon quasi générale en 2020, et vaut à ses créateurs de remporter le prix Albert-Lesker, l’une des récompenses les plus prestigieuses du monde scientifique. Pour y parvenir, les chercheurs ont « appris » à AlphaFold à prédire la forme d’une protéine en entraînant le modèle sur 170 000 protéines (une minuscule fraction des protéines existantes), dont les structures avaient été déterminées expérimentalement.
Couplées à des techniques de synthèse biologique telles que les « imprimantes à ADN », elles aussi en expansion rapides, cette capacité à contrôler le vivant à petite échelle ouvre la voie à la manipulation d’une grande variété de processus microbiologiques, avec des perspectives inédites pour la médecine, mais aussi des risques majeurs d’accidents et d’utilisations malveillantes.
L’IA est utilisée depuis plusieurs années pour maximiser l’efficacité thérapeutique des médicaments tout en minimisant leur toxicité. Comme l’ont montré une équipe de chercheurs dans une étude publiée dans la revue Nature Machine Intelligence, les mêmes technologies peuvent servir un objectif exactement inverse. En entraînant une IA sur une base de données liant des séquences moléculaires à leur toxicité, les scientifiques ont réussi à générer en six heures les formules de 40 000 agents potentiellement aussi toxiques que le VX, l’un des poisons les plus puissants connus.
Des méthodes similaires permettraient d’améliorer la transmissibilité ou la létalité d’un virus, ou de le rendre sélectif pour cibler des populations génétiquement proches. C’est ainsi que des armes biologiques, chimiques ou biologiques de destruction massive pourraient un jour être à la portée de laboratoires de dimension modeste.
Ce risque commence à être pris au sérieux par l’industrie, dont plusieurs représentants ont signé une liste d’engagements déontologiques début 2024, ainsi que par la Maison-Blanche, qui a mentionné cette menace parmi l’une des plus urgentes à régler face au développement de l’IA. Mais dans un contexte de concurrence économique et géopolitique débridée, aucun garde-fou ne semble à la hauteur du danger.
Un autre type d’IA à impact planétaire réside dans les systèmes de recommandation des réseaux sociaux. Sans même s’en rendre compte, la moitié de l’humanité interagit quotidiennement avec ces algorithmes à raison d’un temps moyen de deux heures et trente minutes par jour. L’objectif de ces systèmes d’IA est très simple. Facebook, Instagram, Snapchat ou TikTok partagent le même modèle économique : il consiste à capter l’attention de milliards de personnes pour convertir cette attention en revenus publicitaires.
Pour rivaliser dans « l’économie de l’attention », l’arme principale des plateformes réside dans leurs algorithmes de recommandations — des formes basiques d’intelligence artificielle capables de prédire, parmi l’océan de contenus disponibles, lesquels ont le plus de chances de retenir l’attention d’un utilisateur à un instant donné. Ces IA se nourrissent de nos données personnelles, mais aussi du moindre de nos comportements — like, commentaire, scroll — pour nous catégoriser et nous « micro-cibler » avec des contenus propres à retenir notre attention instantanée, quoiqu’il en coûte à notre santé mentale.
Bien que rudimentaires, ces IA se montrent d’une redoutable efficacité pour comprendre et exploiter les vulnérabilités du cerveau humain. Grâce à elles, les réseaux sociaux se sont hissés au rang de premier usage du web, en temps passé comme en nombre d’utilisateurs. L’humanité passe en cumulé 120 000 ans par jour sur YouTube, visionnant un milliard d’heures de vidéos, dont les trois quarts lui sont recommandés par l’algorithme de la plateforme.
En à peine une dizaine d’années, l’intelligence artificielle s’est rapidement imposée comme la première force structurant l’accès à l’information, avec des conséquences catastrophiques tant à l’échelle individuelle que collectives : désinformation de masse, polarisation politique et dévoiement des processus démocratiques.
Les algorithmes des moteurs de recherche et les réseaux sociaux sont également structurants dans la diffusion de l’information journalistique, représentant environ deux tiers de l’audience des sites d’information en ligne. La dépendance des médias à ces plateformes pour atteindre leur public constitue une grave menace pour l’indépendance et la viabilité du journalisme. Plus précisément, deux entreprises, Alphabet et Meta, occupent une position dominante au niveau mondial dans la distribution des nouvelles et de l’information : cinq milliards de personnes accèdent chaque jour à l’information par l’intermédiaire de leurs plateformes et de leurs services.
L’influence des systèmes de recommandation ne se limite pas au domaine de l’information. Comme l’explique le Bureau européen des Unions de Consommateurs :
« Les environnements physiques et numériques sont de plus en plus soumis à des systèmes qui tentent d’optimiser les humains et leurs interactions. […] Ces systèmes influencent les contenus auxquels les gens accèdent, qu’il s’agisse de publicités ou d’offres commerciales, de divertissements audiovisuels, de médias d’information, de connexions professionnelles ou personnelles potentielles, etc. En résumé, les systèmes de recommandation structurent intégralement la société numérique. […] Leur logique sous-jacente, cependant, est celle de la “capture” et des “pièges”, où, par leur interaction avec ces systèmes, les comportements des individus sont modélisés et calculés, de sorte que leurs actions et leur attention sont dirigées par des logiques commerciales auxquelles il est difficile d’échapper. »
En apprenant de nos comportements pour mieux les influencer, les IA de recommandation s’immiscent dans toutes nos activités quotidiennes et règlent nos vies pour les assujettir à des intérêts commerciaux. L’IA générative marque une étape majeure dans l’histoire de l’IA : cette technologie ne se contente pas de recommander, de mettre en relation et d’optimiser : elle crée.
2022 est une année charnière dans la démocratisation des systèmes d’IA, avec l’ouverture au public des agents conversationnels et d’outils de génération d’images comme DALL-E et Midjourney. Les avancées spectaculaires dans le domaine du traitement du langage naturel permettent désormais à quiconque d’interagir avec des systèmes d’IA, sans nécessiter la moindre connaissance en langage informatique.
ChatGPT, un agent conversationnel fondé sur le modèle de langage GPT3 développé par OpenAI, atteint un million d’utilisateurs une semaine seulement après son lancement, et franchit le seuil de 100 millions en moins de deux mois, établissant un record de croissance historique dans le secteur des plateformes numériques.
Les générations successives de ChatGPT et ses concurrents repoussent à un rythme effréné les limites de précision, d’efficacité, et de la polyvalence, dépassant les attentes des experts quant à leur capacité à dépasser les performances de l’intelligence humaine dans de nombreux domaines.
Contrairement aux systèmes d’IA antérieurs, souvent cantonnés à des tâches spécialisées et incapables de transférer leurs apprentissages à de nouveaux contextes, la technologie qui sous-tend les modèles de langage (les transformers, le « T » de GPT, Generative Pretrained Transformers) les dote d’excellentes capacités à s’adapter à des situations et environnements nouveaux. Au point que certains entrevoient dans les modèles de langage les prémisses de l’intelligence artificielle générale, l’IA excédant les capacités du cerveau humain dans tous les domaines, Graal technologique et philosophique absolu en quête duquel les plus grandes entreprises technologiques du monde déclarent être lancées.
Qu’est-ce qu’un « modèle de langage » ? Les modèles de langage sont les modèles d’IA sur lesquelles reposent les agents conversationnels tels que ChatGPT et Google Bard. Il s’agit de fonctions mathématiques qui prennent pour entrée un texte et renvoient en sortie un mot (ou plus précisément, un « token », sorte de syllabe) venant compléter ce texte de la manière la plus probable possible. Répété plusieurs fois, ce procédé conduit à la création d’un texte original complétant de manière plausible le texte d’entrée.
|
Comme les autres révolutions ponctuant l’histoire des technologies de l’information — l’imprimerie, la télévision, Internet, ou les réseaux sociaux — le déploiement des systèmes d’IA suscite d’innombrables discussions et analyses, souvent contradictoires, quant à leurs impacts avérés ou escomptés sur la prospérité, le marché de l’emploi et le bien-être de l’humanité.
Les principaux débats s’articulent autour d’un certain nombre de thématiques et donnent lieu, de manière schématique, à une opposition entre une thèse pessimiste et une thèse optimiste s’appuyant chacune sur des argumentations solides et des exemples concrets.
Sans prétendre réconcilier des avis contraires, une troisième approche, la vision « critique », entend opérer une prise de recul et s’affranchir autant que possible de préjugés pour juger la technologie. D’après cette approche, ce sont les intérêts qui sous-tendent le développement d’une technologie, et les objectifs qui guident son utilisation, qui décident avant tout de la nature positive ou négative de ses impacts.
Mais comment contrôler une technologie aussi puissante ? Comment s’assurer que l’IA serve notre intérêt collectif de long terme ? Dans un troisième article, nous examinerons quels sont les principaux moyens de comprendre et de prévenir les menaces liées au développement de l’IA, l’une des technologies les plus transformatrices de l’histoire.
Article
Longtemps confinée aux pages de la science-fiction dans l’esprit du plus grand nombre, cette classe de technologies est désormais omniprésente dans notre quotidien numérique.
Article
Comment déterminer la balance bénéfices-risques de technologies aux progrès à la fois fulgurants et exponentiels ?
Article
Comme dans les pires dystopies, ce « golem » moderne, et bien réel, pourrait-il devenir assez autonome pour s’émanciper de ses maîtres ?
Article
Quelles perspectives les débats actuels sur la souveraineté numérique ouvrent-ils pour l’évolution des services publics locaux ?
Article
Quel rapport entre écologie et souveraineté numérique ? Découvrez les enjeux soulevés par le rapport rendu par le Haut Conseil pour le Climat en décembre 2020.
Article
La Revue dessinée a publié plusieurs reportages sur les conséquences écologiques et sociales de nos usages digitaux. Avec humour, l'un de ces textes nous permet de prendre la mesure du piège écologique que constitue notre addiction au numérique.
Article
Jacques Priol, consultant en gouvernance des données, tire les enseignements du projet Quayside à Toronto.
Article
Et si le web nous rendait fou ? Ou pire, malheureux ? Analyse de l’impact des TIC sur notre santé mentale…
Interview de Joël de Rosnay
Scientifique, prospectiviste, conférencier et écrivain
Étude
L'enjeu est de comprendre que si l'ère de l'information dans laquelle nous entrons est une donnée, forte, incontournable, qui s'impose à tous, ce sont bien les acteurs de la société qui inventent les usages.
Quels sont les enjeux soulevés par l'IA ?
Interview de Gabriele de Seta
Anthropologue des médias
Interview de Christian Katzenbach
Senior Researcher à l'Institute for Internet and Society de l'Université Alexander von Humboldt de Berlin
Interview de Rachel Maguire
Directrice de recherche à l'Institute for the Future, à Palo Alto (Californie)
Interview de Pierre Arnal
Vice-Président d’ADDACTIS GROUP
Interview de Frédéric Droin et Thierry Mazoyer
Directeur R&D et Directeur Innovation ACOEM Group
Étude
Une analyse des enjeux qui entourent l'intelligence artificielle.