Par Gilles PENNEQUIN Directeur de projets au Cerema
Le volume de données stockées dans le monde devrait passer de 33 milliards de téraoctets en 2018 à 175 milliards en 2025, du fait notamment de l’explosion de l’internet des objets. Ces données constituent un moteur puissant pour la croissance économique mondiale, grâce à la création de nouveaux services. Mais elles ouvrent également un vaste espace d’investigation pour mieux appréhender les enjeux des territoires, notamment grâce à la modélisation numérique et la création d’outils capables de prédire les impacts des projets d’aménagement. Avec un risque : celui de voir la décision des experts se substituer à la décision politique et déprécier le fait démocratique.
Ces dernières décennies, la mise au point de modèles numériques nous a permis de réaliser des choses jusqu’ici inconcevables. Grâce à eux, les experts du GIEC, par exemple, ont pu mettre en évidence, de manière indiscutable, l’urgence climatique et ses conséquences sur l’humanité, si rien n’est entrepris d’ici dix ou vingt ans. Dans notre champ d’action, les algorithmes permettent désormais d’éclairer et de guider efficacement les autorités nationales et locales, en faveur d’un « ménagement » de nos territoires. Cela grâce à une estimation précise des impacts positifs ou négatifs, présents et futurs, des projets d’aménagement et de développement économique ; au regard des émissions de GES (gaz à effet de serre, NDLR) produites et de la dégradation potentiellement irréversible de la nature.
Dans cette dynamique, le Cerema (bras armé technique du ministère de la Transition écologique et du ministère de la Cohésion des territoires et des collectivités territoriales) se mobilise auprès de ses tutelles, pour construire en quelques années, des jumeaux numériques des territoires : véritables copies virtuelles de la France qui permettent de visualiser un territoire depuis son sous-sol jusqu’à son espace aérien. Clones numériques à partir desquels il sera possible de décrire, à toute échelle territoriale ou administrative, des écosystèmes locaux et y reconstituer finement leurs métabolismes présents et futurs, en fonction des projets qui y seront conduits.
Ces outils, par leur efficacité prédictive, sont une chance ; ils permettront d’éviter des projets qui, pour paraître séduisants sur le papier, s’avéreraient dévastateurs dans le réel. Pour autant, ils peuvent également susciter une crainte légitime : la décision des experts et des techniciens ne viendra-t-elle pas, à terme, se substituer à la décision politique, se soustrayant ainsi au jeu démocratique ? Question qui en soulève immédiatement une autre qui plaide en sa faveur : demain, nos décideurs politiques pourront-ils encore être considérés comme non responsables, face à des catastrophes annoncées, puisque décrites par des modélisations prédictives ?
Pour illustrer le propos à l’appui des travaux du GIEC, les simulateurs disponibles sur le net donnent à voir les niveaux probables de submersion de nos territoires dans 10, 20, 50 ou 100 ans. On peut y constater que certains territoires français seront rapidement soumis à des submersions d’abord temporaires, avant de devenir définitives d’ici quelques décennies. Face à ce type d’information désormais accessible au plus grand nombre, les décideurs et investisseurs locaux ont l’impérative obligation de prendre la mesure des bouleversements à venir sur leurs littoraux et d’adapter leurs stratégies d’aménagement. Faute de quoi, ils seront considérés comme responsables de ne pas avoir agi, alors qu’ils savaient ou pouvaient aisément savoir.