IA : L’intelligence artificielle, peut-on dompter l’inconnu ?
L'impact de l’IA dépasse largement le périmètre de l’innovation technologique et prend désormais part à des choix politiques, sans que les citoyens aient leur mot à dire...
Interview de Frédéric Droin et Thierry Mazoyer
<< l’IA nous permet de donner plus d’informations pertinentes et c’est vraiment l’amélioration de la fiabilité de détection qui prime pour nous >>.
Cet entretien a été accordé par Frédéric Droin et Thierry Mazoyer, respectivement Directeur R&D et Directeur Innovation d’ACOEM GROUP.
ACOEM Group est un groupe international, comptant 700 salariés et opérant dans différents métiers : maintenance prédictive, acoustique, surveillance environnementale, défense. Son histoire est intimement liée au territoire métropolitain lyonnais ; en effet, ACOEM Group a été construit à partir des activités de METRAVIB, émanation de l’Ecole Centrale de Lyon à Ecully. Et, le groupe ACOEM a conservé son siège à Limonest.
Une des raisons qui a motivé le choix d’ACOEM pour illustrer les enjeux liés à l’Intelligence Artificielle (IA dans la suite du texte) est la capacité qu’ont les ingénieurs et techniciens de METRAVIB et des autres entités du groupe ACOEM à produire des informations synthétiques et utiles, à partir de grandes masses de données.
Avant d’aborder plus précisément l’IA, pouvez-vous nous dire quel est le métier d’ACOEM ?
Notre expertise originelle se situe dans l’analyse vibratoire et l’acoustique. Dans les deux cas, nous devons recueillir de grands volumes de données pour les transformer en une information utile à nos clients. Par exemple, dans le domaine industriel, nous analysons les vibrations générées par les machines afin de détecter les anomalies de fonctionnement, avant qu’elles n’entraînent une panne qui immobiliserait l’équipement : c’est la base de la maintenance prédictive.
Dans le domaine de l’acoustique, où nous avons d’ailleurs utilisé en premier les techniques de l’IA, la performance de nos systèmes va jusqu’à la détermination de l’arme d’un snipper distant de plusieurs centaines de mètres.
Pouvez-vous illustrer la manière dont l’IA s’insère dans vos activités ?
Le cas des éoliennes paraît intéressant : ce sont des machines complexes dont les parties actives (rotor, systèmes d’orientation) sont difficilement accessibles. Les exploitants cherchent donc à limiter les interventions et, s’ils doivent intervenir, veulent le faire avant que l’anomalie détectée n’ait des conséquences importantes. Une de ces anomalies potentielles est un défaut de roulement qui génère de petits chocs que nous savons repérer en analyse vibratoire. Mais sur une éolienne, beaucoup de mécanismes connexes peuvent engendrer des vibrations qui « ressemblent » à des chocs mais qui ne menacent pas l’état de l’éolienne. Il faut donc absolument identifier les risques, tout en évitant de déclencher une opération de maintenance coûteuse sur la base de « fausses alarmes ».
L’IA intervient ici : elle va permettre d’apprendre au système à discriminer les situations réellement anormales, avec le concours d’un expert humain qui indiquera les situations qui ne sont pas de réelles anomalies. C’est ce qu’on appelle l’apprentissage supervisé. Plus avant encore, le système va devenir capable d’identifier des familles d’anomalies similaires ou, pour employer le langage de l’IA, de les clustériser. Cela lui permettra alors de lever des « flags » lorsqu’une anomalie nouvelle, ne rentrant pas dans les clusters, est repérée.
Au-delà de cet exemple très concret, quels sont les grands enjeux de l’IA, pour ACOEM ?
L’IA prolonge de façon naturelle notre expertise, qui est basée sur la connaissance des comportements physiques ainsi que la maîtrise des chaines de mesures. Elle permet de généraliser des modèles par la prise en compte de plus nombreux paramètres, soit mesurés directement, mais le plus souvent élaborés à partir des signaux bruts recueillis par nos capteurs. Un des enjeux majeurs de l’IA est de pouvoir tirer parti de grands volumes de données : en termes de résultat final pour l’utilisateur, l’IA nous permet de donner plus d’informations pertinentes et précises et c’est indiscutablement l’amélioration de la fiabilité de détection comparativement au nombre de « fausses alarmes » qui prime pour nous car elle est le gage d’une vraie aide à la décision.
Un autre enjeu est celui de la maîtrise du « contextuel » ; cette notion peut être illustrée par la reconnaissance vocale : l’enjeu n’y est plus simplement d’identifier les phonèmes mais d’en comprendre le sens. Dans l’acoustique, nous avons le même type d’objectif : nous savons aujourd’hui parfaitement analyser une séquence sonore et localiser un coup de feu quand nous savons qu’il y en a eu un. Mais notre objectif est plus profond, l’IA doit nous permettre de détecter un coup de feu même lorsqu’il intervient dans un environnement sonore complexe. En résumé, disons que l’IA nous permet de transformer de grandes masses de données obscures en une information synthétique et claire.
Pouvez-vous donner quelques repères « historiques » sur votre intérêt pour l’IA ?
Nous avons toujours eu le souci de progresser sur nos métiers historiques : diagnostic d’état de santé de machines de production industrielle, reconnaissance de bruiteurs et menaces pour les forces de sécurité et militaires. Dès les années 80, nous intégrions les systèmes experts, une expression qui paraît bien dépassée aujourd’hui mais qui portait des prémices de l’IA. Dans ce prolongement naturel, l’usage des premiers algorithmes d’IA dans certains de nos produits remonte à 2007 pour la détection de menaces, et 2013 pour la maintenance prédictive.
Vous avez mentionné le terme « algorithme » très présent en IA. Quelle est son importance pour vous ?
Les algorithmes de l’IA ne sont pas importants que pour ACOEM. Ils ont permis le développement de nombreux services que nous utilisons au quotidien : du moteur de recherche aux « bots » capables d’assister un client dans la résolution d’un problème, en passant par le guidage GPS et les moteurs d’aide au commerce et au marketing. Comme d’autres secteurs, nous avons tiré parti de la révolution qui a fait éclore les algorithmes neuronaux au début des années 2010, au croisement des mathématiques appliquées et de l’informatique. Ceux-ci fonctionnent sous forme de petites entités logicielles, multi-entrées et multi-sorties ce qui permet de les connecter entre eux comme les neurones de notre cerveau (d’où leur nom). Leur apport tient autant à leur contenu qu’à leur capacité à traiter dans des temps courts des masses de données extrêmement importantes, et c’est ce qui a permis d’installer la notion d’apprentissage. En effet, pour apprendre, il faut être confronté à un grand nombre de situations impliquant des masses gigantesques de données ; les algorithmes neuronaux le permettent et ont changé le paradigme : la prévision d’un phénomène physique ne passe plus par sa mise en équation, mais par l’apprentissage sur des situations réelles. Prenons le cas d’un écoulement d’eau : on peut tenter de le modéliser par résolution des équations de Navier-Stokes, mais on peut aussi simplement « apprendre » comment il va se comporter en ayant engrangé beaucoup d’informations sur des écoulements antérieurs.
Mais tout n’est-il qu’une question d’exploitation d’un stock de données ?
Malheureusement pas : il faut dompter le monstre !
Tout d’abord, il faut résoudre l’épineux problème de la qualité des données : sont-elles fiables, homogènes ? Nous l’observons même chez nos clients les plus en pointe sur l’industrie du futur, par exemple dans l’automobile : ce rassemblement de données ne va pas de soi.
Par ailleurs, si la modélisation scientifique, au sens de la résolution d’équation, peut être simplifiée, la maîtrise des aspects statistiques demeure une des clés de l’apprentissage.
Enfin, la mise en œuvre efficace des réseaux neuronaux suppose de faire les bons choix en matière de stratégie d’apprentissage et de connexions des neurones : c’est le rôle du data scientist.
Pouvez-vous éclairer sur le métier du data scientist ? Y en a-t-il chez ACOEM ?
Oui, bien sûr, nous avons 4 data scientists. Ce sont, comme leur nom l’indique, des personnes qui travaillent sur les données et ne sont ni des spécialistes d’un type de données (images, sons, données financières…) ni des experts d’un de nos domaines d’application. Leur rôle est de comprendre les informations dont les experts d’application souhaitent disposer, de bâtir avec eux la stratégie d’apprentissage et d’architecturer les algorithmes pour délivrer l’information de synthèse, tout en minimisant les temps de calcul requis.
L’arrivée de data scientists est-elle la seule conséquence de l’apparition de l’IA chez ACOEM ?
Tout d’abord, il serait inexact de considérer que l’introduction de l’IA repose uniquement sur les data scientists. Nous sommes convaincus chez ACOEM que la maîtrise des algorithmes mathématiques de base est une condition nécessaire, mais non suffisante. La condition de succès est la maîtrise du triptyque :
Le deuxième point est très important : il existe des outils génériques mais les objectifs sont différents pour chaque secteur d’application visé, et l’art de la mise en œuvre est pour ACOEM ce qui prédomine. Cela suppose donc que les data scientists puissent travailler avec les experts de nos domaines d’application. Nous discernons d’ailleurs que les start-up qui réussissent le mieux aujourd’hui dans l’IA sont celles dont les acteurs ont choisi un domaine bien précis, s’appuient sur des « hommes de métiers » qui ont réussi l’ « osmose » avec les « data scientists » purs.
Existe-t-il d’autres sujets pour lesquels l’IA a des conséquences sur l’offre d’ACOEM ?
ACOEM fournit des systèmes complets, intégrant également les capteurs qui recueillent les vibrations ou les signaux acoustiques. Dans ce cadre, un sujet majeur pour nous est la répartition de l’IA dans les différents niveaux d’un système. En acoustique ou en analyse vibratoire, le débit de données des capteurs « bruts » est trop élevé pour s’inscrire dans une logique d’objet connecté autonome, car les flux transportables par les moyens de communication des standards radios actuels ne sont pas adaptés. Pour donner un ordre d’idée, nos flux se situent à des niveaux comparables à ceux de la vidéo.
Il convient donc de distribuer l’intelligence sur la chaine allant du capteur à la plateforme Cloud et penser l’architecture des systèmes selon une sorte de principe de subsidiarité. Disposer d’intelligence embarquée dans le capteur lui-même permettra de traiter des données en local (Edge computing). Ainsi, seules les données de synthèse sont transmises jusqu’au serveur cloud (back-end) dans lequel sont implémentées les stratégies d’apprentissage continu (renforcement) qui requièrent de grandes puissances de calcul. Les communications radio étant relativement énergivores, la durée de vie des batteries des capteurs est ainsi augmentée, ce qui est un enjeu pour les objets connectés sans fil. Or, pouvoir déployer des capteurs sans contrainte d’installation câblée (que ce soit pour l’alimentation ou la communication) est un élément clé de différenciation. ACOEM a été l’un des premiers acteurs de la maintenance prédictive et du monitoring acoustique à proposer des solutions sans fil.
Dans cette démarche constante de réflexion système à « intelligence distribuée », ACOEM conduit des études qui utilisent la connaissance des moyens de communication radio mais s’intéresse également de très près aux micro-processeurs de dernières générations dont l’architecture est complètement guidée par les besoins d’applications d’algorithmies neuronales, avec des rapports puissance de calcul sur énergie consommée très supérieurs aux solutions traditionnelles.
Ainsi, pour participer à l’usine du futur, l’IA sera probablement répartie dans les capteurs, dans les réseaux et dans les logiciels. L’importance de penser architecture système à intelligence distribuée sera croissante, ce qui n’est pas une tâche aisée du point de vue de la mixité de compétences techniques requises.
Pour aborder ce sujet sous un autre angle, existe-t-il un facteur de stimulation concurrentielle fort sur ce sujet ?
Indiscutablement ! Les paramètres qui l’expliquent sont de deux natures.
Tout d’abord, ce sont les usages et les mutations des clients, notamment dans l’industrie. Ceux-ci ne souhaitent plus développer des équipes d’experts internes qui, dans le passé, faisaient appel à des instruments complexes. Ils préfèrent permettre à des opérateurs spécialisés dans la production ou la maintenance elles-mêmes de bénéficier de systèmes leur fournissant des informations directement exploitables. C’est un axe stratégique que nous avons baptisé Smart Mechanics chez ACOEM, ainsi bien sûr que doter directement les machines de capacité d’auto-diagnostic (vocable plus répandu de Smart Factory).
Ensuite, il faut considérer la structure du marché, avec de nouveaux entrants qui tirent profit d’applications parfois très différentes et l’incroyable explosion des logiciels open-source, apportant à tous les fameux algorithmes de base dont j’ai parlé plus tôt, mais aussi des technologies de capteurs et de composants électroniques (processeurs et nano-ordinateurs) permettant de récupérer des données. Mais, il convient ici de préciser que la qualité de ces capteurs et composants est parfois un frein qui limite les systèmes à des aspects anecdotiques…
L’IA peut-elle engendrer aussi des mutations dans les formes de commercialisation ?
Notre constat est que les modèles économiques évoluent de l’investissement dans des systèmes à de la location longue durée. Il y a beaucoup de facteurs associés à cette évolution mais nous y sommes habitués chez ACOEM, par notre offre fortement duale « produit / service » depuis toujours. Si certains facteurs sont liés à l’évolution galopante des technologies du « hardware », tirés bien entendu par les marchés de masse que sont la téléphonie, les médias, l’automobile, etc, qui poussent à remplacer souvent le matériel par du plus performant et moins cher, on peut penser que cela prépare aussi au futur pour ce qui concerne le logiciel et l’IA, au travers de l’utilisation mutualisée d’une variété croissante de moyens de capter l’information.
L’IA pose-t-elle ou a-t-elle soulevé d’autres problématiques : éthique, fiabilité de la prédiction, transfert de responsabilité, modalités contractuelles (garantie, engagement de service…) ?
Pour ce qui est de l’éthique nous ne sommes pas (encore ?) confrontés réellement au problème. Le problème essentiel qui se pose est celui de la propriété et du droit d’usage de la donnée, la prise de conscience de ce sujet étant à présent pleine et entière. Cependant, dans nos domaines, poussés par d’autres considérations, nos clients y ont toujours été vigilants ! (une usine ne souhaite pas vraiment que ses concurrents connaissent l’état de santé de ses équipements ou bien ses pannes, et les institutionnels ou privés qui réalisent des mesures de pollution n’apprécient pas non plus la diffusion de ces informations !). Pour ce qui est des modalités contractuelles, ACOEM propose depuis plus de 10 ans des contrats avec engagement de résultats qui peuvent aller sur la réduction des couts de maintenance d’installation, il s’agit plutôt de quelque chose qui nous sert face à la concurrence des nouveaux entrants, si tant est, comme évoqué plus haut, que l’évaluation de résultat est réalisée !
Pour conclure, pouvez-vous nous dire quelques mots sur le futur et les voies que vous explorez avec l’IA ?
Les exemples de l’industrie ont déjà été cités. Dans le domaine de la nuisance sonore, on peut mentionner la désignation des responsables de niveaux de bruits excessifs constatés aux points de mesure (est-ce vraiment le chantier voisin qui a généré cette nuisance signalée par les riverains ou est-ce un groupe de scooters qui passait à proximité ?).
Dans le domaine du monitoring environnemental, mais plus largement que le bruit pour accompagner le développement du groupe ACOEM qui élargit son offre et dispose à présent de la mesure de la qualité de l’air avec sa branche ECOTECH, une réflexion est menée sur l’agrégation de nuisances pour fournir un « Well-Being Index » global dont l’estimation se fera grâce à l’IA.
Nous avons parlé tout à l’heure d’analyse contextuelle. C’est un champ qui ouvre aussi de belles perspectives. En effet, dans un environnement complexe, l’IA permet de croiser des données de nature différentes. L’exemple de la sécurité est éclairant : dans ce domaine, la tendance est très forte à utiliser l’IA pour traiter la masse de flux vidéo résultant des innombrables caméras présentes dans les rues de nos villes, nous travaillons de notre côté à les aider par l’exploitation du son (nous aimons parler des « oreilles de la ville » chez ACOEM) : c’est ce qu’on appelle dans le jargon « l’approche multimodale » qui consiste à fusionner des données issues de phénomènes physiques différents. Cette technique est très anciennement connue et usitée pour les systèmes dits « sûrs », afin d’apporter une redondance pertinente aux systèmes de prévention des risques : il est en effet bien préférable de chercher à acquérir l’information par des moyens différents, plutôt que de simplement doubler un moyen.
Ces voies sont tournées directement vers vos clients. L’IA peut-elle aussi participer au progrès de vos propres outils de développement ?
Oui, il est des domaines moins connus du grand public qui sont pourtant au cœur de nombre de systèmes, rendant possibles des applications jusque-là inaccessibles : tout ce qui relève de l’utilisation des techniques neuronales en substitution d’algorithmes parfaitement maitrisés simplement pour réduire la ressource informatique (mémoire, puissance, temps de calcul) dans la résolution d’un problème donné.
Cela peut s’appliquer aux techniques de traitement de signal : ni notre oreille ni notre cerveau ne réalisent de transformée de Fourier et nous reconnaissons pourtant parfaitement des tonalités pures ! Dit autrement, nous accédons à l’information utile (la note au sens musical du terme) sans qu’il soit nécessaire de nous transmettre en continu des spectres vibratoires pour en extraire l’indication de tonalité. Cela s’applique aussi à des modèles de simulation numérique (éléments finis par exemple) dans les domaines des jumeaux numériques (digital twins) ou encore des capteurs virtuels. Dans ces cas, l’algorithme n’apprend pas à partir de données mesurées mais calculées par la technique d’origine qu’il sera capable ensuite de « mimer » de façon infiniment plus rapide.
L'impact de l’IA dépasse largement le périmètre de l’innovation technologique et prend désormais part à des choix politiques, sans que les citoyens aient leur mot à dire...
Article
Comme dans les pires dystopies, ce « golem » moderne, et bien réel, pourrait-il devenir assez autonome pour s’émanciper de ses maîtres ?
Article
Comment déterminer la balance bénéfices-risques de technologies aux progrès à la fois fulgurants et exponentiels ?
Article
Longtemps confinée aux pages de la science-fiction dans l’esprit du plus grand nombre, cette classe de technologies est désormais omniprésente dans notre quotidien numérique.
Quels sont les enjeux soulevés par l'IA ?
Interview de Gabriele de Seta
Anthropologue des médias
Interview de Christian Katzenbach
Senior Researcher à l'Institute for Internet and Society de l'Université Alexander von Humboldt de Berlin
Interview de Rachel Maguire
Directrice de recherche à l'Institute for the Future, à Palo Alto (Californie)
Interview de Pierre Arnal
Vice-Président d’ADDACTIS GROUP