La transition écologique génère un paradoxe technique que les acteurs du terrain connaissent bien : les données existent, en quantité croissante, mais elles n’ont souvent pas d’effet sur la décision. Des capteurs mesurent la qualité de l’eau en continu. Des compteurs remontent les consommations énergétiques en temps réel. Des réseaux IoT collectent la pluviométrie, les niveaux piézométriques, les concentrations de polluants atmosphériques. Et pourtant, les décideurs, qu’ils soient exploitants de réseaux d’eau, gestionnaires de territoire, opérateurs industriels ou bureaux d’études, travaillent encore fréquemment à partir de tableaux de bord fragmentés, d’exports manuels, et d’intégrations applicatives coûteuses à maintenir.

Ce constat n’est pas une critique des solutions de mesure ou de collecte : ces technologies sont matures. Le problème est ailleurs : il est architectural.

Un paysage de données morcelé

Les systèmes de surveillance environnementale (qualité de l’eau, efficacité énergétique, qualité de l’air, gestion des déchets, risques naturels, biodiversité, etc.) ont été développés de manière sectorielle. Chaque domaine métier a ses propres formats, ses propres protocoles, ses propres interfaces. Un opérateur qui souhaite croiser des mesures de qualité d’eau avec des données de précipitations et des alertes réglementaires de dépassement de seuil doit typiquement gérer trois ou quatre systèmes distincts, sans passerelle standardisée entre eux.

Cette fragmentation a des conséquences concrètes. La corrélation entre un épisode de pollution atmosphérique et des données de trafic industriel demande des semaines de traitement manuel. La détection d’une anomalie sur un réseau d’eau nécessite de réconcilier des fichiers issus de systèmes de télérelève, de cartographie SIG et de données météo, souvent dans des formats incompatibles. L’optimisation d’un bâtiment sur ses consommations d’énergie suppose d’agréger des flux de compteurs électriques, thermiques, hydrauliques, chacun dans son propre silo applicatif.

À mesure que les obligations de reporting environnemental se renforcent (directive CSRD, réglementations eau et air, PCAET, etc.) et que les territoires s’engagent dans des démarches de sobriété énergétique, l’absence de couche d’intégration standard devient un frein opérationnel réel, et non plus seulement un sujet technique.

Le vrai enjeu : l’interopérabilité sémantique des données

La réponse à cette fragmentation ne passe pas par l’adoption d’une plateforme centralisée unique qui remplacerait tous les systèmes existants. Cette approche a montré ses limites en termes de coût, de résistance au changement, et surtout de dépendance vis-à-vis d’un fournisseur. Le vrai levier, c’est l’interopérabilité sémantique : la capacité de faire parler ensemble des systèmes hétérogènes en leur imposant un modèle de données commun, fondé sur des standards ouverts.

NGSI-LD, spécification normalisée par l’ETSI et adoptée comme standard européen, répond à ce besoin. Elle modélise les données sous forme de graphe de connaissance, avec une sémantique formelle basée sur JSON-LD. Une mesure de pH issue d’un capteur terrain, une consommation électrique issue d’un compteur connecté, un indicateur de biodiversité issu d’une base SIG, tous peuvent être exprimés dans ce modèle commun, avec leur contexte sémantique, leur localisation géographique et leur dimension temporelle. Une fois alignés sur cette norme, des systèmes conçus indépendamment peuvent s’interroger, se souscrire mutuellement, et alimenter des applications transversales sans réécriture.

C’est exactement ce verrou que les plateformes EGM s’attachent à lever

Ce qu’apportent les plateformes EGM

EGM développe depuis 2010 une offre technique construite sur le principe que la donnée n’a de valeur que dans la décision qu’elle permet de prendre. Cette conviction se traduit par une plateforme ouverte, interopérable et souveraine, articulée autour de plusieurs briques complémentaires.

Stellio : le cœur de données NGSI-LD

Stellio est le cœur de données open-source d’EGM, conforme à la spécification NGSI-LD. Il constitue le cœur de la couche d’intégration : il agrège des flux de données hétérogènes, les normalise dans un modèle sémantique commun, et expose une interface logicielle (API) unique pour les publier, les requêter ou y souscrire en temps réel.

Parmi ses capacités opérationnelles directement utiles aux projets environnementaux :

  • Gestion native des séries temporelles : les données de mesure sont stockées avec leur historique, interrogeables sur des fenêtres temporelles arbitraires
  • Propriétés géographiques : chaque entité peut être localisée, et des souscriptions peuvent être déclenchées lorsqu’une valeur dépasse un seuil dans un périmètre géographique donné — utile pour les alertes de qualité d’eau ou les dépassements de normes atmosphériques
  • Déploiement fédéré : plusieurs instances Stellio peuvent opérer en fédération, ce qui permet à des territoires ou des organisations distinctes de partager des données sans centralisation imposée
  • Intégration FIWARE : Stellio s’intègre dans l’écosystème open-source européen FIWARE, garantissant la pérennité et l’indépendance vis-à-vis d’un éditeur propriétaire

Stellio est publié sous licence APL 2.0. Cela signifie qu’un syndicat de l’eau, un parc naturel ou une agglomération peut déployer, modifier et mutualiser la solution sans contrainte commerciale.

Twin·Picks : l’orchestrateur de jumeaux numériques

Twin·Picks est l’interface de gestion de la plateforme, construite sur le modèle des jumeaux numériques. L’idée est de dissocier la représentation numérique d’un système physique (un bassin versant, un réseau de chaleur, une zone industrielle) de ses sources de données sous-jacentes. Cela permet de changer de capteur, d’ajouter un opérateur, ou de modifier un algorithme de traitement sans reconstruire l’application métier.

Twin·Picks orchestre nativement Apache NiFi pour les flux de données, Grafana pour la visualisation opérationnelle, Apache Superset pour l’analyse BI, Keycloak pour la gestion des droits d’accès, et se connecte a des réseaux tels que LoRaWAN. L’ensemble constitue un environnement intégré, où chaque brique peut être remplacée ou étendue indépendamment.

Appliqué à la gestion de l’eau, EGM a mis en œuvre cette approche sur des projets concrets permettant de décrire, analyser, prédire et prescrire sur des systèmes hydriques réels. Les jumeaux numériques alimentent des alertes opérationnelles et des outils d’aide à la décision, et non de simples tableaux de bord. Le projet MARCLAIMED (2024–2027) industrialise cette démarche sur plusieurs sites pilotes.

LoRaWAN et edgeSpot : la couche terrain

La collecte de données environnementales se déroule souvent dans des contextes difficiles d’accès aux réseaux mobiles : zones humides, sites industriels, bassins versants ruraux, littoral. Le protocole LoRaWAN (portée jusqu’à 15 km en zone dégagée, consommation énergétique compatible avec une autonomie de plusieurs années sur batterie) est devenu la référence pour ces déploiements. edgeSpot, la plateforme hardware d’EGM, accélère le déploiement terrain grâce à une architecture modulaire (plus de 1 000 configurations disponibles), un packaging industriel IP67, et la possibilité d’alimentation par panneaux solaires. Elle supporte LoRaWAN, Wi-Fi et cellulaire, ce qui la rend adaptable aux contraintes de chaque site.

Apache NiFi : les flux de données hétérogènes

Apache NiFi joue le rôle de connecteur universel entre les sources (capteurs IoT, fichiers CSV, APIs OpenData, SI métier) et Stellio. Sa capacité à transformer, filtrer, enrichir et acheminer des flux à la volée est essentielle dans les projets multi-acteurs, où les formats sources sont systématiquement hétérogènes.

La question de la souveraineté sur les données

Un projet numérique environnemental engage un territoire sur dix à quinze ans. La question de la dépendance technologique n’est donc pas accessoire. Une infrastructure bâtie sur des interfaces propriétaires crée un verrou : changer de fournisseur implique de réécrire les intégrations, d’exporter les données dans des formats incompatibles, de recommencer.

L’approche EGM repose explicitement sur NGSI-LD (norme ETSI), FIWARE (communauté open-source européenne), des licences ouvertes. Ces choix permettent à un opérateur de

remplacer n’importe quelle brique de l’environnement, de mutualiser des développements avec d’autres territoires, et d’intégrer des solutions tierces conformes au standard.

Pour des collectivités, des syndicats de l’eau ou des opérateurs d’infrastructure, cette indépendance architecturale est une condition de viabilité à long terme — pas un argument marketing.

ENVIROpro Martigues : un terrain de discussion concret

Ces enjeux ont été au cœur des échanges lors du salon ENVIROpro Sud-Est, les 1er et 2 avril 2026 à Martigues, où EGM était présent. Le salon réunit chaque année les acteurs professionnels de l’environnement et de l’énergie de la région Sud-Est (collectivités, industriels, bureaux d’études, opérateurs de réseaux). Les discussions menées sur place ont confirmé que la problématique de l’intégration des données n’est plus perçue comme un sujet IT : elle est devenue un enjeu opérationnel pour les équipes terrain et les directions techniques.

La question n’est plus « faut-il numériser ? » mais « comment connecter ce qui existe déjà ? » C’est précisément à cette question que Stellio, Twin·Picks, edgeSpot et NiFi apportent des réponses concrètes et déployables.

EGM, créée en 2010, est spécialiste de la mise en œuvre de systèmes IoT interopérables reposant sur des normes ouvertes. Stellio, son context broker NGSI-LD, est disponible en open-source (APL 2.0). EGM compte plus de 34 projets de recherche appliquée dans les domaines de l’eau, de l’énergie, des territoires intelligents et de l’agriculture.

Plateforme de données EGM

Nos offres eau

Prendre rendez-vous