Une meilleure qualité de l’eau pour protéger la Grande Barrière de corail

06/02/2025

9 minutes

océans et technologies

En Australie, les cours d’eau se déversant dans la Grande Barrière de corail sont sous haute surveillance. Les capteurs utilisés pour surveiller leur qualité sont performants mais peuvent faire l’objet d’anomalies techniques ou d’aléas environnementaux entrainant des biais dans les données recueillies. Réduire les erreurs pour améliorer les résultats et leur interprétation est un enjeu crucial pour la préservation de cet écosystème unique.

Par Laurie Henry

Photo de couverture : La grande barrière de corail © CC0 Public Domain

La Grande Barrière de corail est un écosystème vital constituant un habitat naturel pour les espèces marines, servant de filtre entre les eaux douces et les eaux marines côtières et permettant la stabilisation des côtes. Mais c’est aussi un vaste espace très sensible et vulnérable aux pollutions terrestres arrivant par les rivières le long du littoral. L’agriculture, l’urbanisation et les événements climatiques extrêmes contribuent au rejet de sédiments, de pesticides et d’excès de nutriments dans ces cours d’eau et menacent la biodiversité marine.

Pour surveiller ces polluants, des capteurs in situ mesurent en temps réel la qualité de l’eau mais peuvent être sujets à quelques aléas dans leur mesure. C’est pourquoi une équipe menée par des scientifiques de la Queensland University of Technology (QUT) a mis au point une méthode statistique avancée pour identifier et corriger ces erreurs et propose un modèle capable de distinguer les véritables changements environnementaux des défauts de mesure.

Des capteurs performants mais sensibles

Les capteurs numériques installés dans les rivières et les cours d’eau jouent un rôle clé dans la surveillance de la qualité de l’eau, notamment par leur capacité à détecter les variations de sédiments, de nutriments ou de polluants qui perturbent les écosystèmes aquatiques. Ces dispositifs fonctionnent souvent en continu et transmettent des données en temps réel aux scientifiques et aux gestionnaires de l’eau.

Capteur optique de qualité de l’eau Opus TriOS et l’installation sur le ruisseau Broadwater dans la zone d’utilisation diurne/forêt d’État d’Abergowrie dans la rivière Herbert (site 1 160 115). © Water Resources Research (2024)

Cependant, malgré leur sophistication, ces capteurs sont sensibles à divers problèmes techniques qui altèrent la fiabilité des mesures. Des éléments extérieurs comme des roches, des débris organiques ou des organismes aquatiques peuvent obstruer les lentilles qui les équipent et perturber ainsi les relevés. D’autres facteurs, comme le bio-encrassement dû à l’accumulation d’algues ou de bactéries, les erreurs d’étalonnage ou encore des dysfonctionnements électroniques liés à des problèmes de batterie, compliquent l’interprétation des données, pouvant entraîner des décisions inadaptées en matière de gestion environnementale.

Une méthode basée sur l’analyse spatio-temporelle

Pour améliorer la fiabilité des données collectées par les capteurs, les chercheurs ont développé un modèle statistique avancé capable de détecter automatiquement les anomalies dans les mesures. Ce modèle repose sur l’analyse des corrélations spatiales et temporelles des relevés, c’est-à-dire sur une comparaison des variations de la qualité de l’eau en un point donné avec celles observées à d’autres endroits du réseau hydrographique et à différents moments.

Pour cela, les chercheurs ont utilisé des modèles statistiques pour repérer et corriger les erreurs des capteurs. Leur méthode distingue les vraies variations de la qualité de l’eau des anomalies techniques, comme des mesures soudainement trop élevées ou des dérives progressives des données. Afin de valider leur approche, ils ont mené une étude approfondie sur la Herbert River, un fleuve du Queensland se jetant dans la Grande Barrière de corail. Ils ont utilisé un réseau de 10 capteurs Opus TriOS, mesurant la turbidité de l’eau (quantité de sédiments en suspension) et le niveau d’eau, à des intervalles de 30 minutes. Les données collectées entre juin 2021 et mars 2022 ont été transmises via le réseau mobile 4G-CATM1 vers une base de données centralisée.

Un sous-bassin versant de la rivière Lower Herbert dans l’extrême nord du Queensland, en Australie. Les emplacements correspondent aux dix capteurs de l’étude. © Edgar Santos‐Fernandez et al., 2024

En comparant leurs résultats aux relevés manuellement réalisés par des experts du Département de l’Environnement et des Sciences du Queensland, ils ont démontré que leur modèle améliorait significativement la détection des anomalies, permettant d’identifier correctement plus de 93 % des anomalies liées à des pics de turbidité contre environ 81 % pour les approches traditionnelles. Lenombre de fausses alertes était également diminuée avec cette nouvelle méthode, évitant ainsi de signaler des événements naturels comme des crues soudaines créées par des erreurs de capteur.

 En intégrant ces algorithmes dans un système de surveillance en temps réel, les chercheurs ont ainsi réduit les incertitudes et biais des modèles classiques, tout en diminuant la nécessité d’interventions humaines pour corriger les données.

Une application concrète pour la gestion de l’eau

L’amélioration de la fiabilité des données de surveillance permet une gestion plus efficace des cours d’eau par une meilleure identification des sources de pollution, qu’il s’agisse de ruissellements agricoles, de rejets industriels ou d’effluents urbains. Concrètement, dans les bassins versants où l’agriculture intensive contribue à l’érosion des sols, la détection plus précise des pics de turbidité permet d’alerter rapidement les autorités et d’adapter les pratiques agricoles en conséquence, comme l’installation de zones tampons végétalisées ou la modification des calendriers d’épandage. De même, en milieu urbain, cette technologie peut aider à surveiller les effets des eaux pluviales sur la qualité des rivières et à identifier les zones où les infrastructures de gestion des eaux doivent être renforcées.

L’application de cette approche ne se limite pas à la simple détection des anomalies. En intégrant ces données corrigées à des modèles hydrologiques et climatiques, les chercheurs peuvent affiner leurs prévisions sur l’évolution de la qualité de l’eau à moyen et long terme. Les gestionnaires de l’eau peuvent ainsi mieux anticiper les périodes critiques, comme les épisodes de fortes pluies qui favorisent le lessivage des sols, et prendre des mesures préventives adéquates.

Séries chronologiques de données et d’anomalies sur les matières en suspension totales (MES). Les points de données anormaux sont colorés selon huit types. NA fait référence aux données non anormales. © Edgar Santos‐Fernandez et al., 2024

Par ailleurs, en réduisant le besoin d’interventions humaines pour la correction des données, cette méthode optimise les ressources des agences environnementales et améliore la rapidité des décisions. « Les défis liés à la qualité de l’eau sont de plus en plus pressants à l’échelle mondiale. Notre approche fournit un outil essentiel pour la surveillance environnementale et la prise de décision basée sur des données fiables », souligne la professeure Kerrie Mengersen, directrice du Centre de science des données de la QUT.

Un modèle applicable à d’autres environnements

L’efficacité du modèle développé par les chercheurs ne se limite pas aux cours d’eau alimentant la Grande Barrière de corail. De nombreuses régions du monde font face aux mêmes défis liés à la fiabilité des capteurs de qualité de l’eau, qu’il s’agisse de rivières urbaines soumises à des rejets industriels et domestiques, de grands bassins agricoles où les polluants sont transportés par le ruissellement, ou de zones arides où la gestion des ressources en eau est critique. En milieu urbain, ce modèle pourrait améliorer la détection des contaminations accidentelles dues aux déversements d’hydrocarbures ou aux fuites d’eaux usées. Dans les zones sensibles aux changements climatiques, il permettrait d’analyser plus finement l’évolution de la salinité, de la turbidité et des niveaux d’oxygène dissous, des paramètres essentiels pour anticiper les effets des sécheresses et des tempêtes sur les écosystèmes aquatiques.

L’intégration de cette méthode dans les réseaux de surveillance environnementale internationaux représenterait une avancée significative pour la gestion durable des ressources hydriques. En couplant ce cadre statistique à d’autres outils d’intelligence artificielle, les chercheurs envisagent d’automatiser encore davantage l’analyse des données et d’optimiser les stratégies d’intervention. Cette approche pourrait notamment être appliquée à la surveillance des grands fleuves mondiaux comme l’Amazone ou le Mississippi, où des milliers de capteurs enregistrent quotidiennement des milliards de points de données. En standardisant l’identification des anomalies et en fiabilisant les mesures, ce modèle offre une solution adaptable aux besoins spécifiques de chaque région. Alors que la pression sur les ressources en eau s’intensifie à l’échelle mondiale, son utilisation généralisée pourrait devenir un levier majeur pour améliorer la gestion de l’eau et préserver les écosystèmes aquatiques les plus vulnérables.


Source : Edgar Santos‐Fernandez et al, “Unsupervised Anomaly Detection in Spatio‐Temporal Stream Network Sensor Data”, Water Resources Research (2024).

Lire la publication

ces événements pourraient vous intéresser... tout voir