Vous êtes ici :

Modélisation urbaine : atouts et limites de la simulation agent

Interview de Frédéric Amblard

Portrait de Frédéric Amblard
Maître de conférences à l'Université Toulouse 1 Capitole

<< Outil de structuration de la pensée et d’organisation des savoirs, la modélisation agent permet de mener une réflexion collective sur des problématiques du territoire, de projeter des modèles de décision au niveau collectif ou encore de confronter différents modèles de décision >>.

Frédéric Amblard est Maître de conférences à l’Université Toulouse 1 Capitole et au sein de l’équipe Système Multi-Agent Coopératifs de l’Institut de Recherche en Informatique de Toulouse. Il s’intéresse depuis plus de 15 ans à la simulation sociale, notamment via les systèmes multi-agents. Ses centres d’intérêts ? Les dynamiques d’opinions, l’évolution des réseaux sociaux ou encore l’élaboration de méthodes et outils générant des populations synthétiques réalistes pour des simulations multi-agents.

Il discute ici les atouts et limites des simulations multi-agent dans le champ social et de l’action publique. 

Tag(s) :

Date : 27/09/2016

En matière de simulation sociale, la simulation agent semble très présente. En quoi consiste-t-elle ?

La modélisation agent s’intéresse à l’articulation entre comportements individuels et collectifs, en s’appuyant sur la modélisation des comportements sociaux des agents et à leurs interactions. C’est une modélisation informatique puisqu’elle modélise sous une forme algorithmique le comportement des agents et leurs interactions. De manière basique, les algorithmes permettent de formuler des règles comme « si telle chose alors telle autre chose ». L’état des agents varie alors dans le programme en fonction de ces algorithmes. Elle se distingue en cela des modélisations statistiques ou mathématiques qui s’appuient sur des indicateurs mesurant, par exemple, différents états d’une population (indicateurs de bien-être, de pauvreté, d’emploi, etc.). 

Elle implique donc une connaissance fine des comportements ?

mettre sa connaissance en algorithmes implique de n’en retenir que des éléments clés

Effectivement, cette modélisation repose sur une collaboration entre modélisateurs et spécialistes issus des sciences humaines et sociales. Sociologues, psychologues, géographes, historiens, politologues… vont donner au modèle l’assise théorique nécessaire pour modéliser les comportements implémentés dans le modèle. Cette collaboration représente déjà une première difficulté car elle suppose un dialogue entre l’informaticien et des chercheurs qui n’ont, bien souvent, pas de pratique de la modélisation. En fait, la posture diffère un peu selon les disciplines. Pour beaucoup de sociologues, surtout ceux ayant une approche qualitative, la modélisation du social est un peu taboue car jugée trop réductrice. L’implémentation du modèle sociologique implique ce que Christophe Sibertin-Blanc appelle une « hypothèque numérique ». Or, mettre sa connaissance en algorithmes implique de n’en retenir que des éléments clés. Malgré ces réticences, depuis quelques années, il y a un engouement certain pour cet outil. Les sociologues y viennent peu à peu. La situation est différente du côté des géographes qui s’intéressent depuis longtemps aux systèmes complexes dans lesquels la modélisation agent est présente depuis le début. Il y a un vrai courant de modélisation agent en géographie avec les travaux des laboratoires Géographie-Cités (Université de la Sorbonne) ou LIENSS à La Rochelle et le réseau MAPS… Cette appropriation a été facilitée par la possibilité de spatialiser le système multi-agents (SMA) avec l’utilisation d’un Système d’Information Géographique (SIG). Ces deux outils sont très complémentaires : avec ses agents mobiles en interaction, le SMA apporte une dynamique au SIG.  

Les historiens ont aussi développés un mouvement de simulation très intéressant. Ils se sont plutôt focalisés sur des modèles ayant peu d’hypothèses comportementales mais beaucoup de données à l’instar de la reconstruction d’une société ancienne des indiens Anasazis dans la vallée Mesa Verde par l’équipe de l’archéologue Tim Kohler de l’université de l’État de Washington. Mais, à ma connaissance, il n’y a pas vraiment de tentatives similaires sur l’époque contemporaine. 

Quelles sont les principales applications de ces modèles ?

c’est une démarche très intéressante pour affiner la compréhension des phénomènes puisque pour réaliser le modèle, il faut travailler sur la connaissance, la simplifier, la synthétiser

Il y a une espèce d’engouement pour une utilisation prédictive. Personnellement, je m’en méfie car il reste difficile d’évaluer la justesse des comportements implémentés, même si les données comportementales sont de plus en plus disponibles, et donc de valider les modèles.  C’est surtout un bon argument de vente pour la recherche de financements ! 

En revanche, c’est une démarche très intéressante pour affiner la compréhension des phénomènes puisque pour réaliser le modèle, il faut travailler sur la connaissance, la simplifier, la synthétiser.En amont, la démarche de modélisation demande d’organiser les données collectées, de sélectionner les hypothèses les plus importantes, puis le modèle permet de projeter ces hypothèses dans le temps ou de passer de comportements individuels à des comportements collectifs et enfin, en aval, les résultats donnent un retour sur les hypothèses. La modélisation est un outil de structuration de la pensée et d’organisation des savoirs.  Prenons une collectivité qui s’intéresse à la mobilité résidentielle. Même si les géographes et urbanistes ont des idées sur l’algorithme de décision utilisé par les individus dans leur choix de résidence, il leur est difficile de projeter cela sur l’ensemble du territoire. Un SMA permet de projeter des modèles de décision au niveau collectif ou encore de confronter différents modèles de décision. 

C’est donc un outil utile pour réfléchir à l’action publique ?

Le principal problème actuellement est celui de l’échelle

Toutes précautions prises, c’est un outil très intéressant pour discuter avec les acteurs politiques, que ce soit pour les questions d’aménagement ou autres. Il permet de mener une réflexion collective sur des problématiques du territoire. Dans une visée prospective, il peut donner à voir des évolutions collectives, donner une idée des futurs possibles. La phase d’élaboration permet de choisir collectivement les hypothèses à retenir, de simuler les jeux d’acteurs, de présenter différemment les connaissances empiriques. La simulation peut s’accompagner de jeux de rôle pouvant intervenir à différentes étapes de la modélisation et permettant des allers-retours avec le modèle. L’association ComMod a d’ailleurs développé une approche qualifiée de « modélisation d'accompagnement » : elle utilise notamment la simulation multi-agents, les SIG et des jeux de rôles pour aborder des problématiques de gestion des ressources renouvelables. D’autres chercheurs ont développé des outils similaires : par exemple le programme Wat-A-Game de Nils Ferrand de l’Irstea de Montpellier qui amène l’ensemble des acteurs de la gestion de l’eau d’un territoire à modéliser leur propre socio-hydrosystème.  Le principal problème actuellement est celui de l’échelle. La démarche est très solide pour travailler sur des zones spatiales limitées, à l’échelle d’un ou plusieurs villages, et sur une problématique spécifique. Par contre, travailler à l’échelle d’une métropole reste pour l’instant très compliqué. La modélisation d’accompagnement se retrouve aussi confrontée aux difficultés liées à toute démarche participative notamment la question de la mobilisation de l’ensemble des acteurs concernés et la question de leur représentation. Autant de difficultés qui sont accentuées sur un grand territoire.  

Comment aborder le social sur un territoire ? Y-a-t-il des entrées plus adaptées que d’autres comme les types de populations, les problématiques, les lieux ?

C’est la problématique étudiée qui dicte le modèle et ce qui est écarté ou retenu

Généralement, le point d’entrée est une problématique comme la gestion de l’eau ou la ségrégation urbaine, bien que cela ne soit pas exclusif d’autres dynamiques. La modélisation repose sur une approche systémique, donc il faut inclure les processus ou les aspects qui sont en lien avec ce qu’on cherche. Ce qui n’a pas d’influence peut être écarté. C’est la problématique étudiée qui dicte le modèle et ce qui est écarté ou retenu. Réaliser un modèle large d’un territoire sans problématique ciblée rend son utilisation très complexe.En effet, il est alors très difficile de déterminer quelles sont les interactions significatives. En multipliant les problématiques, on multiplie les couplages hypothétiques. Au final, le modèle sera aussi difficile à comprendre que la réalité.

Le social est souvent traduit sous forme d’indicateurs tels que le nombre d’espace vert, le confort thermique ou sonore, le nombre d’équipements de loisir et très rarement par des indicateurs plus qualitatifs. Pourquoi ?

La difficulté avec les données qualitatives est de les mesurer. Pour rentrer une donnée dans un modèle, elle doit pouvoir s’exprimer sous forme d’une variable qui va interagir avec d’autres variables. L’information doit pouvoir être numérisée sous forme d’un algorithme même en l’absence de données. C’est difficile de s’accorder sur une formalisation simple de la connaissance qu’on a du phénomène.  Comment formaliser les interactions sociales entre groupes par exemple ?  La sociologue Aude Sturma,dans le cadre de sa thèse sur « les défis de l’assainissement à Mayotte : Dynamiques de changement social et effets pervers de

l’action publique » (Université Toulouse Jean-Jaurès) a observé les interactions entre gestion de l’eau et structures sociales. Mayotte se caractérisait par un système traditionnel d’entraide entre riches et pauvres : les plus riches payent l’eau pour les plus pauvres et reçoivent en échange différents services (jardinage, garde d’enfants…). La mise en place d’un système de traitement de l’eau et d’une facturation individualisée à la charge des usagers a bouleversé cette coopération informelle. Comme les plus riches qui soutenaient les communautés ne pouvaient pas payer pour tout le monde, il n’y avait plus de raison de coopérer avec eux. Cela a provoqué un repli sur des solutions de gestion individuelle et une mise en danger du lien social. Pour traiter cette question, Aude Sturma a choisi une triple approche : qualitative classique, quantitative avec des questionnaires et de modélisation pour montrer les impacts de la variation du prix de l’eau sur le lien social. Pour élaborer son modèle, elle a fait des choix sur la manière de représenter et modéliser le lien social, choix qui peuvent (et ont été) critiqués.  Questionner les choix est fondamental.Ainsi, le modèle de ségrégation de Schelling utilise le concept de tolérance pour reproduire des phénomènes de ségrégation. Or, cette notion ne correspond pas forcément à grand-chose d’un point de vue sociologique. C’est un artifice planqué dans le modèle qui permet d’obtenir de la ségrégation mais qui n’a pas de réalité sociologique très tangible. Dans ce cas précis, les modèles travaillant sur la ségrégation essaient de reformuler cette notion de tolérance par les concepts de similarité sociale, d’entre-soi. Quels que soient les choix faits, la modélisation permet de lever les ambiguïtés. Ce qui est implémenté est vérifiable et il n’y a plus de pirouettes rhétoriques possibles, une posture qu’affectionnent assez souvent, les sociologues pour prouver ce qu’ils avancent.

La modélisation agent intègre-t-elle des outils issus de l’intelligence artificielle ou d’autres domaines ?

L’intelligence artificielle permet de modéliser des algorithmes de décision comme les réseaux de neurones. Plutôt que d’essayer de poser des règles de décision ad hoc, plus ou moins bancales, on les remplace par des programmes d’intelligence artificielle connus pour prendre des décisions optimales dans certains contextes. Dans un modèle agent, chaque agent peut être doté d’un tel algorithme qui lui permet de prendre ses décisions tout seul après une phase d’apprentissage. Dans le meilleur des cas, les agents décident comme des vrais êtres humains. Cet aspect réaliste est intéressant dans le cadre de démarche prospective. En revanche, il ne donne aucun levier pour tester des alternatives car il n’est pas possible de donner un sens à la décision, de la comprendre, la retravailler ou l’interpréter. D’un côté, on sait que l’algorithme construit les meilleures décisions puisque cela a été évalué préalablement, de l’autre on perd la capacité d’expliciter ces règles de décision. Pour tester une autre situation, il faut soit faire apprendre de nouvelles règles aux agents, soit les faire s’adapter à de nouvelles conditions. Il peut aussi être difficile de savoir quel algorithme de décision implémenter. En fait, bien qu’une fonction d’évaluation permette d’ajuster l’algorithme en le faisant correspondre à la décision la plus probable d’un humain lambda, rien ne dit que la décision d’un humain réel se rapproche de cette évaluation. C’est une situation similaire à la fonction d’utilité utilisée en économie : on peut optimiser cette fonction mais est-ce que pour autant chaque individu optimise cette fonction dans la vie réelle ? Par ailleurs, ce système est assez couteux en temps de calcul donc il est adapté pour des populations de quelques dizaines d’individus au maximum. 

L’essor des « big data » et l’ouverture des données peuvent-elle changer la manière de modéliser les comportements ?

Ceci dit, si le big data s’avère peu probant pour les comportements individuels, il est très porteur pour les données environnementales et les comportements collectifs

Effectivement, depuis quelques années, ce phénomène a suscité beaucoup d’espoir. Les modèles se nourrissent de plus en plus fréquemment de données.  La quantité de données disponibles, par le web notamment, a laissé croire que les données pourraient se substituer aux hypothèses comportementales. Il me semble que l’engouement s’estompe un peu pour plusieurs raisons. Tout d’abord, la qualité des données est pauvre, particulièrement celle des données des réseaux sociaux (Facebook, twitter, etc.). De plus, les données disponibles se révèlent insuffisantes pour comprendre les motivations des individus. Par exemple, sur les dynamiques d’opinions, il est difficile de faire coller les données avec ce qu’on voudrait mettre dans nos modèles concernant par exemple la révision des croyances et la mise à jour des opinions. Ensuite, il y a la question du couplage des données entre elles. Comment interagissent-elles ? Les données sectorielles, thématiques sur les transports, l’énergie sont disponibles mais leurs interactions restent largement méconnues. Les hypothèses de couplage sont donc souvent un peu sorties du chapeau… Ceci dit, si le big data s’avère peu probant pour les comportements individuels, il est très porteur pour les données environnementales et les comportements collectifs. Pouvoir intégrer des données réelles et des dynamiques sur les données, même sans en connaitre les processus, permet de simuler des phénomènes intéressants. Ainsi, un modèle peut simuler des pics de pollution de l’air, soit en simulant un processus soit en utilisant une série réelle, et observer comment la population réagit, comment elle adapte ses comportements de déplacement.  

 

Dans une démarche de modélisation d’un espace urbain, sur quels points faut-il être particulièrement attentif ?

Tout d’abord, adopter une approche thématique avec une problématique bien définie pour éviter d’avoir un modèle aussi complexe que le territoire lui-même. Pour aborder plusieurs questions, mieux vaut réaliser plusieurs modèles spécifiques et les coupler ensuite.

Ensuite, je dirais que la question de l’échelle se pose assez vite. Il y a toujours une échelle pertinente pour modéliser le phénomène, qu’elle soit spatiale ou/et temporelle. Ces échelles sont essentielles pour penser l’articulation des phénomènes entre eux, phénomènes ayant eux-mêmes différentes échelles. Par exemple, articuler l’échelle de la décision politique et celle de la vie quotidienne des individus. 

Enfin, il ne faut pas s’emballer sur les résultats. Le côté « Simcity » de certains modèles, par exemple avec visualisation 3D des résultats, peut donner à l’observateur le sentiment que la vie se déroule sous yeux, qu’il est possible de prédire le futur. Bien qu’il y ait un peu de ça, il faut garder en tête que le modèle repose sur les hypothèses projetées des modélisateurs, les données utilisées, etc.