Vous êtes ici :

modélisation urbaine et sociale

Interview de Maxime Frémond

consultant

<< La France devrait développer ces démarches prospectives notamment en matière d’urbanisme. C’est vraiment important de poser la question des conséquences des aménagements dès le départ >>.

Maxime Frémond a soutenu sa thèse en géographie et aménagement du territoire en novembre 2015, en co-direction entre le LISER (Luxembourg Institute of Socio-Economic Research) et le Laboratoire ThéMA (UMR 6049, Université de Franche-Comté, CNRS). Depuis 2016, il est consultant indépendant, notamment auprès des collectivités territoriales.

Dans le cadre de sa thèse « COSMELUX: COunter urban Sprawl in the MEtropolitan area of Luxembourg. Une approche normative de l'aménagement au Luxembourg : évaluation par la simulation », il s’est intéressé à la question du lien entre forme urbaine et mobilité quotidienne en mobilisant des outils de simulation spatiale. Comment, en simulant la forme urbaine de façon prospective, peut-on mesurer les conséquences en matière de mobilité spatiale ?  Dans cette optique, il a notamment participé au développement et appliqué 3 plateformes de simulations spatiales : MupCity, MobiSim et MOEBIUS. Ces trois outils numériques permettent d’appréhender, à une résolution spatiale fine (20 mètres), le développement résidentiel à venir et de simuler les mobilités quotidiennes qui y sont associées.

Maxime Frémond fait le point ici sur les outils et pratiques de modélisation urbaine et les manières dont ils abordent et intègrent les dimensions sociales.

Date : 04/12/2016

Comment s’est développée la modélisation urbaine ?

De manière relativement progressive. Côté théorique, les grandes théories de la localisation en géographie ont constitué les premiers fondements : l’école allemande sur la localisation des activités (espaces agricoles de Von Thünen, activités industrielles d’Alfred Weber, bien et services de Walter Christaller),  l’école américaine avec la loi rang-taille des villes de George Zipf, la nouvelle économie urbaine de William Alonso, la théorie de la base d’Ira Lowry ou encore l’école socio-géographique (écologie urbaine et École de sociologie de Chicago), de l’accessibilité et des interactions spatiales de Walter Hansen. Les approches gravitaires, l’analyse spatiale et les Systèmes d’Information Géographique ont ensuite permis de franchir une étape supplémentaire. Du côté des modèles, les prémisses ont été esquissés avec la machine de Turing, la modélisation mathématique des années 30-40 et la théorie des graphes. Mais la modélisation a vraiment pris son essor grâce aux progrès en matière d’informatique et d’intelligence artificielle et au développement du premier système expert à partir des années 50-60. Ensuite, la croissance de la puissance de calcul a permis la naissance des automates cellulaires et des systèmes multi-agent. On réalise maintenant des choses impensables il y a encore 10 ans. 

Quels sont les modèles dominants, les grandes familles en modélisation urbaine ?

Les plus utilisés sont les modèles LUTI (Land Use Transport Interaction), les Systèmes d’Information Géographique et les modèles macro-économiques classiques. C’est très compliqué, voire un peu utopique, d’établir une grille de lecture qui permettrait de classer tous les modèles à l’aide de quelques critères. Parmi ces derniers, les modèles désagrégés versus agrégés font une vraie différence. Cela permet de situer le niveau minimal des interactions et fonctions de décision. La plateforme de simulation MobiSim est un modèle désagrégé dont le niveau le plus fin est celui des relations entre cellules ou individus. Dans le modèle agrégé MARS, développé en Allemagne, une équation générale régit l’ensemble du modèle, par exemple au niveau régional. Le modèle agrégé a l’avantage d’être plus rapide à construire et calibrer parce qu’il y a moins de paramètres à intégrer. En revanche, il permet d’expliquer moins de processus locaux d’interactions. Le modèle désagrégé est intéressant pour ses dimensions quasi-comportementales mais sa conception et son calibrage nécessitent beaucoup de données en entrée et donc des temps de calcul et de stockage importants. Il peut générer des résidus statistiques, des erreurs aux marges très difficiles à expliquer.

Les modèles LUTI semblent beaucoup utilisés actuellement. Qu’est ce qui fait leur intérêt ?

Les modèles LUTI permettent de prendre en compte le lien étroit entre transports et urbanisme. Dès les années 70, Roger White et Guy Engelen ont utilisé les automates cellulaires pour travailler sur l’occupation du sol. Le principe de ces automates est simple : l’espace est découpé en grille et la probabilité d’évolution de chaque cellule est fonction de l’état des cellules voisines. Bénéficiant de 15 à 20 ans de recul, ces automates étaient bien calibrés.  Les modèles de transports pour la simulation de trafic et de réseau routiers sont plutôt issus des modèles à quatre étapes (Génération (population et planning d'activités)/ Distribution (matrice origine-destination)/ Choix (discret) entre les modes de transport possibles / Calcul d'itinéraire et affectation sur les réseaux (Dijkstra)) développés à la suite des travaux en time-geography, de la théorie des graphes, etc. Ces deux composantes de l’aménagement du territoire étaient très bien modélisées séparément mais il devenait de plus en plus indispensable de modéliser leurs interactions ensemble. La plupart des LUTI essaye d’avoir cette interaction permanente pour mieux comprendre la relation entre forme urbaine et mobilité quotidienne. Actuellement, la question centrale est de trouver un moyen de réduire les effets néfastes des mobilités : comment réduire les rejets de CO2 en modifiant le plan de la ville ? Le jeu est de savoir quel champ, de l’utilisation du sol ou des transports, influence l’autre…

Comment ces modèles LUTI intègrent-ils le social ?

le focus est davantage sur l’évolution de certains critères sociaux ou de dynamiques sociales comme des évolutions démographiques, des évolutions de revenus dans l’espace, etc.

En tant qu’input dans le modèle, le social est pris en compte dans la modélisation des comportements individuels. En effet, les modèles de transports sont basés sur des modèles comportementaux de choix discret. C’est une approche probabiliste des choix de l’individu qui considère que, face à une même situation, un individu ne choisit pas toujours la même alternative. En tant qu’output, le focus est davantage sur l’évolution de certains critères sociaux ou de dynamiques sociales comme des évolutions démographiques, des évolutions de revenus dans l’espace, etc. Par exemple, le recours aux indicateurs de dispersion et à l’analyse spatiale géographique permet de voir s’il y a une surreprésentation des ménages à revenus modérés dans telle ou telle configuration. En revanche, certains aspects du comportement comme la perception, les représentations, etc. sont très difficiles à modéliser et donc peu intégrés. Quand on modélise les comportements individuels, une grande partie de la modélisation est basée sur la rationalité de l’agent. Malgré toutes les critiques adressées à cet « homo economicus », il reste quand même bien pratique pour modéliser !

Le comportement n’est donc pris en compte que dans ses dimensions rationnelles ?

des comportements « types » vont être établis

Pas tout à fait. Prenons le choix modal. Le comportement des individus est influencé par trois ou quatre variables comme l’accès à la voiture, le budget transport et des caractéristiques des individus et des agents, notamment le revenu dont découle la valeur du temps : plus un individu gagne de l’argent, plus sa valeur du temps est élevée, plus il veut se déplacer vite. Cela explique, en partie, pourquoi il y a si peu de personnes très riches qui prennent le bus. Donc, des comportements « types » vont être établis. Mais, comme ce sont des modèles probabilistes, tous les agents n’ont pas le même comportement. Aux marges, il peut y avoir des comportements qui ne semblent pas hyper rationnels, comme la personne qui prend sa voiture tous les matins alors qu’elle habite sur la ligne de tram qui va à son travail.  Ces calculs personnels sont très complexes à mettre en équation. Très souvent, ces aspects sont pris en compte sous la notion de confort, une notion somme toute assez floue. Telle personne préfère prendre sa voiture parce que c’est plus confortable : elle est assise, seule, peut écouter la radio…. Dans le modèle, on essaie de diminuer le poids de tous les autres caractères en rajoutant un peu plus d’aléatoire pour mesurer cette notion. 

Pourtant de nombreux travaux, en psychologie sociale, en architecture, s’intéressent aux aspects sensoriels, à la manière dont les individus perçoivent et réagissent aux qualités de l’environnement urbain. Les modèles intègrent le bruit, le taux de verdissement, pourquoi ne pourraient-ils pas considérer les ambiances urbaines ?

Effectivement, la psychologie environnementale me semble plus avancée que les géographes là-dessus. Par exemple, Thierry Ramadier mène depuis de nombreuses années des recherches sur les questions d’accessibilité en psychologie environnementale appliquées aux questions de mobilité. Pourquoi les piétons choisissent-ils des chemins différents pour se rendre d’un point A à un point B ? Ce choix d’itinéraires repose sur des déterminants sociaux comme le capital social et le capital mobilité. Grossièrement, un homme blanc riche ne prendra pas le même chemin qu’une femme de couleur aux revenus modestes. Des travaux existent mais la démarche de les intégrer dans la modélisation est peu répandue. Théoriquement, beaucoup de choses sont possibles mais les contraintes restent fortes. Sans compter que certaines notions comme celle de capital mobilité sont encore largement débattues.

Quelles sont ces contraintes ?

Plus il y a de variables, plus il devient compliqué d’expliquer le phénomène

Le premier verrou est celui des données. D’une part, il faut que les études permettent d’isoler ces dimensions comportementales pour pouvoir les transformer en variable informatique, un X ou un Y pour paramétrer l’équation. D’autre part, les modèles désagrégés reposent sur des populations synthétiques, c’est à dire une population qui a les mêmes caractéristiques socio-démographiques et socio-économiques que la population existante sauf qu’elle est créée virtuellement, numériquement avec des outils de démographie et des modèles probabilistes. Nous recréons cette population à partir du niveau le plus fin auquel on puisse obtenir la donnée. En France, la Commission Nationale de l'Informatique et des Libertés (CNIL) n’autorise pas à stocker et recenser des données individuelles. Les données disponibles sont les données carroyées qui découpent le territoire en carré de 250 mètres de côté. Mais, si en ville, cela permet de préserver l’anonymat, ce n’est pas forcément le cas en zones rurales. Pour préserver ce secret statistique, ce carré est élargi à plusieurs kilomètres ou l’information est supprimée. Cela pose des vraies questions.

Le second verrou est celui du temps de méthode et de calcul nécessaire. Plus il y a de variables, plus il devient compliqué d’expliquer le phénomène.  Dans le cadre de ma thèse, j’ai fait des scénarios de prospective pour le Luxembourg en 2030. Ma population en 2010 correspond exactement à la population de 2010 et celle de 2030 ressemble à ce qu’elle devrait ressembler si les projections démographiques sont justes. Sur ce laps de temps, j’ai juste fait varier le stock d’individus sans en modifier le comportement. En effet, comment pourrais-je isoler l’influence, soit de la forme de la ville et de la dispersion des logements dans l’espace, soit du comportement des individus si je fais plusieurs scénarios de développement résidentiel (urbain, péri-urbain, etc.), et qu’en plus, je modifie la configuration du choix modal en supposant que, dans 20 ans, la sensibilité environnementale sera forte ou que le prix du carburant sera élevé et poussera les gens à prendre les transports en communs ? Pour expliquer un phénomène, il ne faut pas que plusieurs paramètres évoluent en même temps. Ou alors il faut du temps et des moyens financiers.

Ces outils de modélisation permettraient-ils de rentrer par les comportements des populations plutôt que par de l’aménagement ? Par exemple, de chercher ce qui se passerait si une part de la population d’un territoire cherche à déménager si la densité augmente trop ?

Il y a un travail à faire sur ces questions de comportement. La difficulté est d’anticiper leurs évolutions

Ces questions n’ont pas été posées dans ce sens-là jusqu’à présent. Les géographes travaillant sur des questions d’aménagement du territoire ont une approche infrastructurelle. Dans une démarche prospective, les scénarios vont porter sur la dispersion ou non des logements, leur quantité, la création d’une ligne de tramway, d’une route à deux voies. Mais cela ne me paraît pas impossible d’avoir cette approche avec ces outils. Ce serait imaginable à petite échelle, comme un quartier. Il y a un travail à faire sur ces questions de comportement. La difficulté est d’anticiper leurs évolutions. Il y a des campagnes de sensibilisation sur la mobilité. Les changements s’amorcent mais quand les effets se feront-ils vraiment sentir ? Dans quelle proportion ? 

Est-ce qu’il y a encore beaucoup d’évolutions à attendre de ces modèles LUTI ou sont-ils arrivés à une espèce d’optimum ?

En matière de modélisation, plus c’est simple, plus c’est facile à mettre en œuvre et les choses simples permettent déjà d’expliquer beaucoup !

Je pense qu’ils sont arrivés à un certain équilibre. Les enrichir davantage reviendrait à prendre le risque de ne plus rien expliquer. Actuellement, ils permettent d’expliquer 90 % des résultats. On ne saura jamais ce que font les 10 % restant, mais finalement quoi qu’ils fassent, ça ne change pas grand-chose. L’important c’est que les 90 % fassent à peu près ce qu’il est prévu qu’ils fassent. Gagner sur ces 10 % demanderait énormément d’investissement pour expliquer des choses à la marge. En matière de modélisation, plus c’est simple, plus c’est facile à mettre en œuvre et les choses simples permettent déjà d’expliquer beaucoup ! Cette simplicité est très importante pour un outil d’aide à la décision, par exemple pour savoir ce qui se passe en termes de mobilité si je ne construis que des immeubles dans la première frange périphérique de la ville. Même là, la simplicité n’est qu’apparente !

Les capacités de calcul conditionnent-elles fortement l’évolution des modèles ?

Travailler à des résolutions très fines implique de manipuler un nombre gigantesque de données

Les progrès en la matière ont permis de développer une approche désagrégée des calculs. Les calculs sont parallélisés, c’est-à-dire qu’ils peuvent être par exemple réalisés simultanément sur une quarantaine de processeurs, soit à peu près une dizaine d’ordinateurs ordinaires. Les algorithmes se construisent de telle façon qu’on peut découper les calculs pour les faire simultanément et pas juste les uns à la suite des autres. Travailler à des résolutions très fines implique de manipuler un nombre gigantesque de données. Cela demande énormément de mémoire pour stocker l’information. Prenons le Luxembourg. A première vue, ce n’est pas très grand, tout au plus 80 km par 50 km. Par contre, une fois découpé à 20 mètres de résolution, on obtient une matrice de 13 millions de petits carrés ! Réaliser des calculs d’accessibilité tout simple, ne serait-ce qu’en termes de distance, génère alors des données impressionnantes. Les urbanistes, les géographes sont quasiment tous obligés d’avoir des centres de calcul et de coopérer avec des laboratoires d’informatique. Sinon, il est possible de s’appuyer sur le Cloud computing qui permet de mettre à disposition d’autres personnes les capacités inutilisées de son ordinateur. Sur le plan technique, cela nécessite d’envoyer et de rapatrier les données, donc il faut être vigilant sur la sécurité.

Le seul frein, pour l’instant, c'est quasiment les limites matérielles de processeur, de quantité d’espace de stockage disponible, etc., même si, travailler sur de vaste territoires comme Rio de Janeiro et ses 12 millions d’agents, demanderait sans doute d’optimiser les équations et de comprendre les grandes logiques opérationnelles d’un territoire de cette taille.

Qu’apporte la simulation orientée agents aux modèles LUTI ?

En fait, tout dépend du questionnement originel, de l’histoire de la construction du modèle, des méthodologies retenues et des moyens disponibles. Beaucoup de LUTI couplent un automate cellulaire avec ce qui pourrait s’apparenter à un système multi agent. Schématiquement, l’aspect occupation du sol est géré par un automate cellulaire tandis que les déplacements des agents dans l’espace et leurs interactions sociales le sont par un système multi-agent. Parfois, cela s’apparente à système multi-agent mais en plus simplifié : dans MobiSim, les agents ne discutent pas entre eux, par exemple quand ils vont à la boulangerie et se rencontrent sur le trottoir. Notre système est composé de nombreux agents et individus désagrégés au plus fin spatialement mais cela nous sert juste à déplacer les agents sur le réseau et donc dans l’espace.

Pensez-vous que chaque territoire devrait se doter de ce type d’outils ?

Je prêche pour ça et pour l’adoption d’une démarche normative d’aménagement, c’est-à-dire de proposer de nouvelles normes d’aménagement en fonction d’un objectif donné. La France devrait développer ces démarches prospectives notamment en matière d’urbanisme. C’est vraiment important de poser la question des conséquences des aménagements dès le départ. Une démarche de modélisation est longue, compliquée, coûteuse en temps et en argent mais sur le long terme, l’investissement s’avère largement rentable et peut éviter des choix désastreux. Les résultats de mon travail de thèse montrent l’intérêt d’une démarche normative appliquée aux questions d’aménagement du territoire, notamment en ce qui concerne le développement résidentiel. Les résultats soulignent également l’intérêt d’une modélisation fractale des formes urbaines, tant au niveau local (quartier, commune) que global (région urbaine).

La modélisation est un bon un outil de prédiction ?

Peu importe de savoir si la part de la voiture diminue de 10 ou 20%, ce qui importe c’est de constater que son usage décroit et de comprendre comment

A mon sens, l’essentiel, ce ne sont pas tant les valeurs de sortie du modèle que le sens de la courbe. Peu importe de savoir si la part de la voiture diminue de 10 ou 20%, ce qui importe c’est de constater que son usage décroit et de comprendre comment. Quels leviers ont été mobilisés en matière d’aménagement ? Par exemple, est ce que le modèle a joué avec la densité, des critères de l’optimisation dans l’espace ou le planning des agents… ? Ensuite, tous ces résultats et constatations servent à alimenter la discussion avec les aménageurs, les décideurs publics, à confronter leurs expériences. L’idée de ce type de modélisation est vraiment de jeter des pavés dans la mare, d’être quasiment le plus caricaturale possible, avec des résultats vraiment marqués et non pas des différences minimes. Il faut avoir des démarches un peu radicales pour justement secouer les idées reçues, les positions intangibles, alerter ou interpeller les élus d’un territoire sur une évolution probable, sinon rien ne change.

C’est plutôt un outil politique ?

La modélisation urbaine pourrait s’inscrire dans une démarche de démocratie participative

Oui. D’ailleurs, la place de la recherche et du chercheur dans la prise de décision est une question essentielle. Dans ces démarches de modélisation urbaine, c’est aux élus de proposer des scénarios artificiels et de décider quoi faire avec les résultats issus de la modélisation. Ce serait utile de définir clairement les rôles et de mettre les élus en face de leur responsabilité et du pourquoi ils ont été élus, c’est-à-dire prendre les décisions... La modélisation urbaine pourrait s’inscrire dans une démarche de démocratie participative en intégrant des structures de gouvernance, les habitants et la participation locale dans la construction de scénarios d’aménagement, voire le paramétrage du modèle si on veut une démarche volontariste forte. Ce serait très intéressant en termes d’acceptabilité sociale ou même simplement de communication.