Collecter et croiser des millions de données pour anticiper et mieux gérer les débordements fluviaux : l’ « Hyperviseur » de l’ÉcoCité Nice Côte d’Azur

publié le 9 octobre 2017

Nous avons tous en mémoire ces images aux informations télévisées d’un orage qui tourne au déluge, de torrents que rien ne semble pouvoir arrêter, de litres d’eau s’abattant sur des automobilistes pris au piège, de personnes emportées par le courant, de camions de pompiers peinant à circuler, de secours débordés.


Chacun témoigne de sa surprise devant une montée des eaux fulgurante, l’intensité des intempéries et la force des courants. Les dégâts sont considérables et parfois mortels.

On le répète : ces débordements fluviaux ne peuvent pas être évités et restent encore aujourd’hui presque impossibles à anticiper.

Car, à y regarder de près, l’occurrence de l’évènement conjugue différents signaux toutefois trop faibles pour être, à eux seuls, une source d’alerte pour l’homme : les sols sont déjà imprégnés d’eau, les débits des torrents s’accélèrent insensiblement, l’orage cesse de se déplacer, le front de pluie est particulièrement dense… : tout peut se jouer en moins d’un quart d’heure.

Si l’esprit humain ne peut analyser cette multitude de signaux, une collecte informatique, systématique et continue de millions de données et leur corrélation pourraient permettre d’anticiper l’inondation et d’éviter que le phénomène pluvieux ne devienne critique, en accélérant notamment les procédures d’alertes et de protection des biens et des personnes.


A la Métropole Nice Cote d’Azur c’est le défi que cherche à relever Mr Château et son équipe du Centre d’Excellence, rattachée à la direction adjointe à l’Economie, l’Innovation, l’Emploi et l’International. Pour cela ils ont mis au moins un outil appelé « hyperviseur ».

Le terme évoque la science-fiction et témoigne à juste titre de l’ampleur de la tache. Il s’agit de collecter et agréger des millions de données, les contextualiser, les géolocaliser, et ce sur tous les paramètres entrant en compte dans ce type de situation : des données météorologiques fines - bien sûr - mais aussi environnementales, de géographie physique (les bassins versants, les pentes…), d’urbanisme, (largeur des voies…), tout comme celles liées à l’activité du moment (localisation des bouchons, occupation de la salle de spectacle, possibilités de refuge…) et à l’historique des évènements passés.

L’objectif : limiter les conséquences d’un tel phénomène par des actions préventives (ouvrir une vanne, fermer un circuit électrique…), et des actions d’intervention sur tous les fronts et dans tous les métiers lorsque l’inondation a démarré, mais aussi par la diffusion d’informations pertinentes sur tous les médias, institutionnels mais aussi sociaux.

Pourquoi est-ce compliqué ? La Métropole Nice Côte d’Azur avait certes de nombreuses sources d’informations en interne dans ses services (trafic routier, gestion électrique, voirie, gestion du réseau d’eaux usées …) comme en externe (vigicrue, organismes qui gèrent la sécurité, etc.), encore a-t-il fallu les rendre interopérables, parfois en collecter de nouvelles (via des caméras pour une analyse numérique des variations du débit d’eau par exemple) ou au contraire adapter certains paramètres de terrain qui, isolément, n’étaient pas directement exploitables et les agréger pour leur donner du sens…

Pour étudier les concepts d’architecture de sa plateforme informatique de traitement des données, la métropole s’est appuyée sur un partenariat avec IBM qui a fourni les outils pour corréler des données entre elles et pour automatiser les procédures d’interventions reliées aux ordinateurs et les envois de SMS aux pompiers, à la sécurité civile et aux intervenants de terrain. Le contrôle humain reste toutefois indispensable en validation.

L’outil « hyperviseur » permet des simulations théoriques d’évènements pouvant provoquer des crues en aval pour des analyses de « what if » (« que se passerait-il si.. ») et, d’ici quelques mois, de simuler et de visualiser en temps réel les conséquences de différents options d’arbitrages (ex. niveau d’embouteillage provoqué par un alerte générale versus des alertes cadencées selon les quartiers …) et d’éclairer ainsi l’impact d’une prise de décisions. L’outil offre ainsi différentes interfaces adaptées soit aux opérateurs de terrain, soit aux élus décisionnaires de la métropole.

Affichage flux Twitter en temps réel
Affichage flux Twitter en temps réel
Métropole Nice Côte d'Azur

Au-delà des risques naturels, l’outil pourra par la suite être configuré pour effectuer des simulations d’impacts dans d’autres domaines comme la mobilité multimodale le risque industriel ou terroriste… En effet, certains évènements doivent à tout prix être évité : empêcher un camion transportant des matières dangereuses comme l’acétylène d’entrer dans la métropole ou le suivre en temps réel en vigilance de panne ou d’accident pouvant survenir sur un pont ou dans un tunnel autoroutier, identifier à temps un objet suspect semblant abandonné….

D’ici quelques mois l’« hyperviseur » pourra aussi intégrer les informations issues des usagers et des médias sociaux, par exemple pour détecter, et désamorcer, des débuts de paniques injustifiées et dangereuses. Il s’agira ensuite de collecter toutes les données produites par les millions d’objets connectés présents sur le territoire. On le voit les applications de l’« hyperviseur » paraissent infinies…

Pour en savoir plus : lien vers le site EcoCité

Marie Laure Papaix