Vous êtes ici :

Quelles finalités pour internet et l'Europe ?

Interview de Boris Beaude

Portrait de Boris Beaude
Géographe

<< L'Europe ferait mieux d'investir dans le développement de standards plutôt que d’œuvrer au développement d’un Google ou d’un Facebook ‘européen’ >>.

Boris Beaude est géographe. Il est professeur en cultures et humanités numériques à l’Université de Lausanne et chercheur associé au Laboratoire Chôros de l’Ecole Polytechnique Fédérale de Lausanne. Ses travaux portent sur la dimension spatiale de la télécommunication et plus généralement sur le contexte spatial de l'interaction sociale. Il s'intéresse aux moyens que les individus se donnent pour maîtriser l'espace et, en particulier, à Internet.

Dans cette interview, il donne son point de vue sur l'avenir et les finalités d'Internet, entre le succès historique d'un internet "ouvert" ( courriel, web...) et celui grandissant d'un internet privé, qui tend à faire des données privées une nouvelle donnée marchande.

Réalisée par :

Date : 03/03/2017

Vous avez publié il y a trois ans un ouvrage dénommé « Les fins d’Internet » qui analyse les perspectives des grands enjeux sociétaux et politiques d’Internet. Qu'entendez-vous par ce titre ? Quel phénomène souhaitiez-vous décrire ainsi ?

il est de plus en plus intéressant de souligner cette tension entre « finalités » (ce pour quoi Internet a été conçu) et « finalités » (ce pour quoi ce projet pourrait s’achever)

Il m'a semblé qu'il y avait un décalage croissant entre la culture des pionniers d'Internet – le projet initial qui s'inscrivait dans un héritage de la cybernétique – et ce que j'observais ces dix dernières années. Le succès d'Internet a largement dépassé ceux qui l'ont conçu et pensé. On observe dès lors un décalage croissant entre l'intention initiale et ce qu’il devient. Si le projet de départ est né dans la recherche, associé aux intérêts du complexe militaro-industriel américain, il a ensuite évolué avec le concours du secteur privé, qui a pris beaucoup d’importance à partir des années 1990. Le privé s’est peu à peu imposé dans le développement d'Internet, notamment lors de son accès auprès d’un plus large public. Or, si l'on associe le fait que beaucoup plus de monde est impliqué dans ce développement et que cette ouverture fut largement opérée par le privé, Internet est à présent très différent du projet initial. Il se caractérise par des conflits d'intérêts de plus en plus intenses et une remise en cause de l'idée que pouvaient s'en faire les pionniers.

C’est pourquoi il est de plus en plus intéressant de souligner cette tension entre « finalités » (ce pour quoi Internet a été conçu) et « finalités » (ce pour quoi ce projet pourrait s’achever). Jouer sur ce jeu de mots était pour moi une manière de souligner les enjeux contemporains qui traversent Internet et de montrer pourquoi ils sont éminemment politiques. Internet, comme tout espace, est un espace politique. Il est partagé par plus d’un milliard de personnes et confronté à des intérêts divergents, souvent contradictoires, qui engagent à penser et mettre en œuvre les modalités pratiques de cette coexistence. 

Sur quels changements vous appuyez-vous pour formuler cette analyse ?

De mon point de vue, la situation est comparable à celle qui prévalait lors de la sortie du livre. Elle est peut-être plus lisible aujourd’hui, mais j'écrirais sensiblement la même chose. Tout d'abord, l’idée selon laquelle nous pourrions nous affranchir des contraintes de l'espace grâce à Internet a certes été très vite remise en cause, mais elle est restée très présente dans les imaginaires, notamment à la suite d’un texte comme la "Déclaration d'Indépendance du Cyberespace" de John Perry Barlow. Et même si l'on a compris depuis longtemps que cette abolition n'a pas de sens, c'est une idée qui perdure remarquablement.

On observe pourtant l'inverse, et les villes sont de loin les espaces qui profitent le plus du développement d’Internet. Aussi, les nations revendiquent leur souveraineté et exigent d'imposer leurs propres règles à un espace qui ne s'y prête pas. On peut le constater dans les domaines tels que la propriété intellectuelle, pour laquelle des approches nationales s’imposent de plus en plus, mais aussi dans d'autres domaines tels que la liberté d'expression, pour laquelle l’opposition entre les valeurs de l'Union européenne et celles des États-Unis ne cesse de s’intensifier, en plus de celles déjà particulièrement marquées avec la Russie ou la Chine. On observe des situations très différentes, malgré l’unité fondamentale d’Internet. C’est pourquoi il m’a semblé intéressant de discuter la remise en cause de cette totalité dès lors que les individus sont toujours situés spatialement et relèvent de juridictions différentes. Que l’on soit globalement d'accord ou non, les contradictions juridiques entre le déploiement d'Internet et la possibilité d'appliquer des règles de vie en commun à son échelle s’intensifient au point de devenir insoutenables. 

Le livre porte très largement sur ce décalage entre l’échelle d’Internet et celle du politique. Internet est effectivement un espace mondial dont le déficit de gouvernance à cette échelle se traduit de plus en plus par un risque de partition. Il y a une tension permanente entre cette volonté d'un espace commun et l'impératif de gérer une coexistence dont l’intensité et la dynamique sont tout à fait inédites. Dès lors qu’il n'y a pas d'entente sur ce qui conviendrait, le risque de partitionnement est de plus en plus fort.

Est-ce que ces tensions ne renvoient pas aussi à la croyance dans l’auto-organisation des usagers des réseaux ?

Il y a effectivement des problèmes qui se posent aussi quant à la prétendue auto-régulation qu’Internet encouragerait. Cette idée est importante chez de nombreux pionniers d'Internet. Elle suppose que l'on n’a pas besoin de régulation et converge sensiblement avec les perspectives libérales. S’inspirant de la thermodynamique et de la cybernétique, cette pensée suggère que les entraves à la circulation de l’information constituent la source des tensions et des problèmes politiques. 

Pourtant, tout laisse penser que cela ne se passe pas ainsi. La maitrise inégale de tels dispositifs se traduit par une concentration du pouvoir entre très peu d’entreprises et une professionnalisation de la manipulation de l'information. Aussi, l'intelligence collective dont parlait Pierre Levy est largement remise en cause par l’évolution d’Internet, tant les fondements mêmes de son émergence sont dévoyés. On observe que beaucoup de plateformes d'évaluation sont maintenant détournées par des agences spécialisées et que même l’encyclopédie Wikipedia est confrontée à des problèmes récurrents de manipulations et de détournements des fonctions d’administrateur. Il n'y a plus seulement des problèmes de vandalisme sur des pages de footballeurs, nous assistons à présent à l’activité de plus en plus sophistiquée d’entreprises spécialisées dans la réputation, qui interviennent très sélectivement pour modifier les articles à l'avantage de leurs clients, après avoir développé des profils crédibles se conformant aux règles en vigueur sur Wikipédia.

À cela s’ajoute également la problématique de la gratuité, qui s'est imposée initialement dans la perspective des communs, particulièrement élaborée en informatique (les pratiques relatives à l’open source témoignent très bien de cela). Cette dynamique reste toujours très présente, mais des enjeux relatifs à la propriété prennent aussi de plus en plus d’importance, dans l’audiovisuel, mais aussi la presse, deux secteurs qui furent directement affectés par la circulation accrue et sans entrave de l’information. Le contraste avec les premières heures d'Internet est remarquable dans ce domaine.

Au-delà de ces facteurs, votre ouvrage pointe aussi les tensions autour de la concentration.

Initialement, l’une des principales innovations d’Internet reposait sur sa décentralisation structurelle, pour être plus efficace. À présent, on observe une opposition croissante entre la décentralisation souhaitée de l’infrastructure et la centralité croissante des pratiques, que j'appelle l’hypercentralité. Cette hypercentralité est absolument inédite et ne renvoient à rien de connu. Nous n’avons jamais été confrontés à autant de concentration de pouvoir et de regard sur les pratiques individuelles. Par exemple lorsque Facebook décide de la hiérarchie de l'information dans ses flux (EdgeRank), ou Google dans ses résultats (PageRank), ce sont des décisions très importantes.

 

Ce débat est particulièrement vif ces derniers temps, en période d’élections présidentielles, mais il s’est pourtant développé très progressivement. Internet est toujours relativement décentralisé techniquement, mais les pratiques sont de plus en plus centralisées. Cela donne un pouvoir considérable à ceux qui disposent de ces places centrales, jamais atteintes dans le cas des espaces et des pratiques territoriales ! Je suis d’ailleurs surpris du fait que l'on en parle certes beaucoup, mais pas dans les termes de cet enjeu. Ce n'est pas juste un problème de monopole économique, ou une entreprise concentrerait l'essentiel de tel ou tel service. L’enjeu provient plus de ce que cela engage. Il ne s’agit pas d’un monopole sur les voitures ou les yaourts, il s’agit d’un oligopole très réduit qui porte directement sur ce que font les gens, sur la façon dont ils s'informent, et sur la sphère publique au sens Habermassien, c'est-à-dire la capacité à disposer d’un monde commun d’où peut émerger la politique. Cette visibilité est un pouvoir sans précédent. Même la Stasi n'aurait jamais imaginé une telle capacité à observer ce que font les uns et les autres.

 

De plus, l'immatérialité des flux limite notre capacité à en prendre la mesure. Tout le monde conçoit bien qu'il soit important de se protéger un peu, mais à côté de ce que cela représente, les réactions sont très limitées. L’autorisation récente de revendre l'historique de navigation des internautes sans leur consentement explicite accordée aux fournisseurs d’accès à Internet par le parlement des États-Unis est symptomatique de cette impuissance. Nous sommes démunis pour aborder ce genre de problèmes. Lorsque le parlement des États-Unis légalise de telles pratiques, il s’agit d’un acte très fort, qui banalise et étend les dérives initiées par Google et Facebook, au lieu de les encadrer plus vigoureusement. Je trouve tout à fait fascinant que cela ne suscite pas de réactions plus radicales.

 

Enfin, un dernier point se révèle plus marqué encore qu’il y a trois ans, lors de l'écriture de ce livre. Nous observons en effet un contraste de plus en plus saisissant entre la résilience de l’infrastructure d’Internet – le fait qu’elle fut pensée pour être extrêmement résistante à des attaques – et le fait que les nœuds du réseau soient très vulnérables. Comme il y en a de plus en plus avec l'Internet des objets et le développement des smartphones, cette fragilité des nœuds crée une vulnérabilité globale sans précédent. Nous sommes clairement sortis d'une pratique limitée à de grands laboratoires de recherche ; à partir du moment où Internet est dans toutes les maisons, qu’elles sont équipées de caméras, de télévisions, de lumières, de thermostats et d’assistants interconnectés, la vulnérabilité de ces objets a une portée différente de celle que l'on pouvait imaginer initialement. Je me suis particulièrement intéressé à ce développement d’Internet au-delà du projet qui l’a initié, soulignant à quel point cela remettait en cause les moyens dont nous disposons pour le lire, le penser et l’organiser.

C'est donc un constat de fin d'une époque, du fait que l'on rentre dans autre chose. Comment le qualifierez vous ?

Ma conclusion et peu originale et elle tient en peu de choses : Internet est ouvertement politique, au sens fort du terme. Dès lors que cela implique des centaines de millions d’individus, il faut le penser comme un enjeu politique majeur. Cela implique de s'entendre sur les valeurs que l’on partage, mais aussi d’accepter l’altérité qui caractérise inévitablement un tel espace. Or, l'intense dynamique d'Internet impose de repenser ces valeurs à un rythme auquel nous ne sommes pas préparés. L'enjeu actuel est donc de débattre ouvertement de cet enjeu afin d’éviter des fractionnements regrettables. C’est par exemple le cas de la propriété intellectuelle ou du droit à l'oubli qui fonctionne différemment d'un pays à un autre, mais aussi d’une région à une autre. Cela impose d'aborder ces questions à la bonne échelle, celle où l'on considère qu'il y a suffisamment de communs pour ne pas exacerber les différences. En Chine, nous observons des pratiques différentes, que l’on critique volontiers. Nous émettons régulièrement des réserves, parce que nous avons l'impression d'avoir autre chose de commun. Pourtant, à bien des égards, nous convergeons vers la conception d’Internet qui s’est développée en Chine : un contrôle politique très fort et un nationalisme économique. J'ai le sentiment que l'enjeu est idéalement de parvenir à s’entendre le plus largement possible sur les bases d’un Internet commun, et de parvenir à traiter les exceptions sans remettre en cause la cohérence de l’ensemble.

 

Mon hypothèse est que si nous ne posons pas cette question, la situation va s'aggraver d'année en année. Nous allons assister à des implémentations fortes de la fracture. D'ailleurs, IPv6 s'y prête plus qu'IPv4, et sa généralisation va simplifier ce type de démarches susceptibles de structurer la nation dans le fonctionnement d'Internet. Cette approche est politiquement défendable, mais elle participerait aux replis actuels, qu’elle risquerait d’ailleurs d'amplifier plus encore.

Au-delà d'Internet, nous devons toujours œuvrer à nous rappeler ce qui nous rassemble. Cette tension entre politique mondiale et replis nationalistes dépasse largement Internet. Bien entendu, les divergences semblent nombreuses au point de limiter l’émergence d’une politique mondiale, mais est-ce que nous divergeons au point de nous replier sur nous-mêmes ? Internet, avec la sécurité, l'environnement, ou l’économie, fait partie de ces domaines pour lesquels nous avons du mal à trouver ce qui nous rassemble, alors que nous partageons précisément cela : le même Monde. Et Internet n'a pas été pensé pour cela, pas dans de telles conditions. Nous percevons bien qu'un phénomène tel qu’Internet ne peut pas être pensé localement, sans que les délibérations convergent à sa propre échelle.

Vous avez publié ce livre il y a trois ans... quels changements avez-vous constatés depuis ?

De mon point de vue, la chose qui a le plus changé depuis la parution du livre, c’est l’autonomisation croissante des entreprises qui ont construit leur richesse sur l’économie de l’attention et la publicité. La « coalescence réticulaire » dont je parlais dans le livre, c’est-à-dire leur propension à étendre leur activité à des domaines adjacents (musique, vidéo, micropaiement, messagerie, petites annonces…), tend à s’extraire d’Internet. À présent, ils ont tellement de pouvoir et de capital qu'ils investissent d'autres domaines comme l'intelligence artificielle, l'automobile, la santé, où ils ont dès à présent atteint un pouvoir très important. En cela, même si l'on créait un standard pour les fonctions initiales qui étaient les leurs, cela remettrait peut-être en cause leur activité initiale, mais cela affecterait marginalement leur domination. Les infrastructures qu'ils ont déployées, l'argent qu’ils ont accumulé, les compétences techniques qu'ils ont développées, les talents qu’ils ont pu attirer et la visibilité qu'ils ont sur ce qui intéresse les gens leur ont octroyé un pouvoir considérable. Google est encore très largement un moteur de recherche, mais devenu Alphabet, Google étend son activité à d’autres domaines qui vont rapporter plus encore. Et une fois que cela sera le cas, dans l'automobile et la santé par exemple, ils auront les moyens de prendre des risques plus grands encore, ne faisant qu’accroitre leur domination.

Du point de vue de la puissance publique, qu'est-ce que ces considérations impliquent ?

La solution porte précisément sur la nécessité de trouver la bonne échelle pour appliquer les bonnes politiques. Évidemment, même une ville peut avoir des initiatives pertinentes qui s'appuient sur Internet. Mais encadrer la liberté d'expression à l'échelle d'une aire urbaine, par exemple, ne me parait ni réaliste, ni souhaitable. S'opposer localement à des acteurs globaux tels que Google est particulièrement difficile. Une ville peut être tentée de faire émerger des alternatives locales, mais la visibilité de son offre sera affaiblie, car les pratiques individuelles s'inscrivent dans de multiples échelles, et privilégient généralement l’offre la plus entendue.

C'est pour cette raison qu'il faudrait plutôt œuvrer au développement de standards. Jusqu'aux années 1990, Internet s’est développé à partir de standards ouverts, auxquels nous devons le succès d’Internet (courriel, web…). Mais on a assisté par la suite à des développements privés de l'offre de service. Lesquels, du point de vue de l'innovation, ne sont pas si sophistiqués. Si on prend les cas de Uber ou de Airbnb, on voit bien que ce ne sont que des médiateurs, des intermédiaires qui s'appuient essentiellement sur des innovations antérieures et qui n’apportent que quelques éléments de structuration de la médiation dans un domaine particulier, tout en cherchant à occuper une place centrale pour disposer d’une marge optimale.

Face à cela, les chauffeurs de taxi et les municipalités se sont révélés incapables de proposer une alternative dans un temps approprié, ce qui interroge quant à la capacité de réagir localement face à de telles initiatives de privatisation des médiations sociales. On comprend bien que les acteurs privés ont l'avantage d'être motivés par un gain évident, mais au regard des enjeux, il apparait important d'avoir une approche qui repose sur des standards qui pourraient être repris localement pour être implémentés de façon spécifique. Il est impératif de ne pas laisser se mettre en place des dispositifs de ce genre, car on voit aussi qu'ils ont du mal à s'adapter aux conditions spécifiques d'un territoire. On l'a vu à Paris où il y a eu des tensions très fortes avec Uber, du fait de l'existence des licences particulières et des quotas imposés aux chauffeurs de taxis parisiens. Uber essaye de présenter son offre comme globale, alors que ce n'est pas le cas. Il est nécessaire de pouvoir intervenir politiquement, mais il faut être sûr d'en avoir les moyens légaux et fonctionnels.

Au final, il serait beaucoup plus rentable de s’organiser et d’appliquer aux médias sociaux et aux plateformes les principes qui ont permis le développement d’Internet et du Web. Mais cela demanderait une organisation, éventuellement une mutualisation entre de grandes villes, et cela ne se fait manifestement pas. Les collectivités territoriales ne disposent pas d’une telle culture. Dans de telles circonstances, c’est pourtant une forme de démission. Tout le monde s'entend sur le fait qu'Internet a gagné face à des alternatives plus centralisées et moins standardisées, mais pas assez sur l’importance de la démarche qui consista en la création de standards qui pouvaient être librement implémentés. Je m’étonne que l’on ne reprenne pas plus activement ce qui fut initié avec les prémices d’Internet et que l’on ne perçoive pas le danger d’Uber, Facebook ou Airbnb au-delà de leur régulation ou de l’appel à ce que des concurrents puissent émerger. Ce type d’activité repose sur des "effets de club" et des économies d’échelles qui ne sont pas appropriés à la concurrence. Cela ne serait pas plus pertinent que de disposer de plusieurs Internet. Il n’y a aucun intérêt à multiplier les réseaux, alors que leur fonction est précisément de relier… 

J'en arrive à la conclusion que l'Europe ferait mieux d'investir dans le développement de standards plutôt que d’œuvrer au développement d’un Google ou d’un Facebook « européen ».  Il est absurde d'imaginer créer les conditions d'émergence de tels concurrents en développant un écosystème favorable aux start-ups … cela ne fonctionne pas comme ça. Un tel environnement serait bien évidemment favorable, mais sans standard sur les médiations, ces entreprises ne résisteront pas ou seront rachetées, ce qui ne constituera aucune alternative stratégique à la domination actuelle des États-Unis dans ce domaine. Le seul moyen d’affaiblir de telles centralités, c'est tout simplement de créer des standards, au même titre que le web ou le courriel, dont l’activité quotidienne n’en demeure pas moins considérable.

L’approche par les standards clarifie un second problème de l'intervention publique : un État ou une ville peut trouver que certaines choses ne conviennent pas et tenter de lutter contre. Par exemple, si du point de vue de l’information relative aux transports publics, une ville ne souhaite pas renforcer la position déjà hégémonique de Google, sa démarche risque de s’opposer aux pratiques des usagers ! Si l’on doit changer d'application suivant la ville dans laquelle on est, l’expérience est déplorable et cela n’est pas dans l’intérêt des usagers. L’intention est louable, mais du point de vue des usagers, cette démarche est contreproductive. Il y a certes un impératif à inventer une offre qui ne renforce pas les centralités, mais elle passe aussi par la création de communs à une échelle comparable à celle des acteurs qui se sont imposés.

Reste aussi le problème du financement, n’est-ce pas ?

cela est d'autant plus complexe que concevoir des alternatives implique de pouvoir les financer

Effectivement, tout cela est d'autant plus complexe que concevoir des alternatives implique de pouvoir les financer. Cela nous rappelle avec force l'illusion de la gratuité de Facebook ou Google, dont les clients sont les annonceurs et non les usagers, ou les marges considérables des intermédiaires tels que Uber ou Airbnb. Dans le cas de Facebook et Google, cela pose aussi des enjeux de vie privée relativement inédits, car le modèle économique sous-jacent est celui de la publicité ciblée, qui exige la traçabilité individuelle des usagers. Les entreprises en question proposent d'autant plus de services que leur usage les informe plus encore sur les pratiques individuelles. De ce point de vue, il est évident que les alternatives sont difficiles à mettre en place, car si l’on propose un autre service, encore faut-il pouvoir le financer. Mais à partir d’un standard, il est relativement aisé de donner le choix, à l’image de Gmail qui propose une offre de courriel financée par la publicité, compatible avec des offres qui s’inscrivent dans d’autres modèles économiques. Google et Facebook financent d’ailleurs leurs usages d’Internet avec de la publicité, Uber et Airbnb avec des commissions, alors que Wikipédia fait appel à des dons. C’est là toute la richesse des standards : ils offrent plus de libertés.