Hydrologie Statistique

October 6, 2022 | Author: Anonymous | Category: N/A
Share Embed Donate


Short Description

Download Hydrologie Statistique...

Description

D.E.A Sciences et techniques de l’environnement

Ecole Nationale des Ponts et Chaussées

HYDROLOGIE

CHAPITRE 5

Hydrologie statistique Introduction à l’Etude des Processus Hydrométéorologiques Application à la Prédétermination des Débits de Crues

Jacques MIQUEL 2005-2006

SOMMAIRE

Introduction Première partie : introduction aux processus stochastiques hydrométéorologiques 1. définitions et propriétés des processus 2. utilité de l’étude des processus stochastiques en hydrométéorologie 3. les modèles d’interpolation et de reconstitution 4. les modèles de simulation stochastique 5. les modèles de prévision 6. les modèles de prédétermination Deuxieme partie : la prédétermination des crues 1. quelle variable faut-il étudier ? 2. quelle méthode employer ? 3. la méthodes des Maxima Annuels 4. la méthode du Renouvellement 5. la méthode du Gradex 6. conclusions sur la prédétermination des crues Troisieme partie : évaluation des risques de crue de la Garonne à Mas d’Agenais 1. l’analyse hydrométéorologique 2. les données et leur critique 3. l’étude par la méthode des Maxima Annuels 4. l’étude par la méthode du Renouvellement Annexe 1: ajustement de quelques lois usuelles en hydrologie Annexe 2: estimation des paramètres de la méthode du Renouvellement et de leurs incertitudes Annexe 3: tables statistiques et papiers Gauss et Gumbel Références bibliograhiques

2

INTRODUCTION

Ce cours est organisé en trois parties: Ÿ

la première partie, «introduction aux processus stochastiques hydrométéorologiques», est destinée à poser quelques bases générales auxquelles tous les travaux d’hydrologie statistiques se rattachent plus ou moins. Toute étude hydrologique a pour finalité de comprendre et connaître davantage un ou plusieurs processus stochastiques hydrométéorologiques, et/ou d’utiliser leurs propriétés statistiques pour aider certains décideurs à mieux dimensionner et mieux gérer en continu des ouvrages ou des dispositifs soumis aux aléas hydrométéorologiques.

Ÿ

la deuxième partie, «la prédétermination des crues», applique les notions vues en première partie en traitant un processus hydrométéorologique particulier: elle présente les différentes approches théoriques les plus fréquemment utilisées pour répondre à la question de l’évaluation du risque de crue en un point d’un cours d’eau.

Ÿ

la troisième partie, «évaluation des risques de crue de la Garonne à Mas d’Agenais», est une illustration sur un cas réel réel d’une classe de méthodes de prédétermination mentionnées en deuxième partie: les méthodes d’analyse des séries chronologiques de débits observés.

En allant du général au particulier, ce cours a pour ambition à la fois d’apporter une vision d’ensemble, permettant de situer les méthodes usuelles, pouvant également expliquer l’intérêt actuel des chercheurs pour des thèmes comme l’analyse régionale, ou l’identification des dérives et ruptures hydrologiques avec leurs conséquences décisionnelles, mais aussi de se frotter bien concrètement à une question hydrologique essentielle avec un premier aperçu des outils existants, tout en sachant bien que la pratique et la critique des données construisent la vraie compétence.

Ce cours doit beaucoup au professeur Jacques BERNIER qui a introduit en France l’essentiel de ces méthodes. La première partie s’inspire en particulier directement des exposés qu’il faisait à l’ENPC.

3

PREMIÈRE PARTIE : INTRODUCTION AUX PROCESSUS STOCHASTIQUES HYDROMÉTÉOROLOGIQUES

1. Définitions et propriétés des processus On suppose connues les bases du calcul des probabilités et les principes de l’analyse statistique, en particulier la notion de variables aléatoires, de leurs propriétés et des concepts probailistes habituels (si un rafraîchissement est nécessaire, les ouvrages de [2] et [5] sont recommandés). Les définitions suivantes permettent de décrire un processus stochastique hydrométéorologique: ü Processus stochastique: un processus stochastique est «une chronologie de variables ou d’événements inscrit dans le temps qui induit un ordre dans leurs occurences» [1]. Il est donc caractérisé par une ou plusieurs variables aléatoires multidimensionelles: Z(x1,x2,....xn). ü Processus stochastique hydrométéorologique : c’est un processus stochastique, en général à deux dimensions, l’espace et le temps, caractérisé par une variable aléatoire hydrométéorologique, c’est à dire descriptive d’un phénomène hydrométéorologique: Z(x, tx)

x={x1,x2} coordonnées géographiques tx=={t1,t2 ,.......,tnx} ensemble d’instants où ont été obtenues les observations de Z

Exemples: La pluie mesurée P (x, t1) à un instant t1 au point x, est une réalisation observée du processus constitué par la lame d’eau d’une averse. Une chronique de débits mesurés Q(x, tx) en une station est une réalisation observée du processus constitué par les débits écoulés dans les différents cours d’eau d’un bassin versant. Le quantile décennal Q10(x, nx) de débits en une station est une réalisation observée du processus constitué par les débits décennaux dans les différents cours d’eau d’un bassin versant.

ü

Champ spatial : c’est le domaine de variations spatiales des coordonnées x. Les observations seront diversement distribuées en quelques points x1 ,x2 ......xk .

ü Variable régionalisée: variable hydrométéorologique Z(x, tx) pour laquelle tx est indépendant de x. Autrement dit le processus Z(x) est dépendant des seules coordonnées spatiales. Exemples: La précipitation totale d’une averse sur l’ensemble d’un bassin

ü Processus intrinsèque: c’est un processus caractérisé par une variable régionalisée stationnaire du premier et du deuxième ordre par rapport à x. Autrement dit: E[Z(x)]=m(x)=m constante ∀x Var[Z(x)-Z(x+h)]= fonction de h seulement ∀x

4

ü Variables spatiales échangeables: ce sont des variables qui caractérisent un processus dont l’aléa spatial est séparé et indépendant de l’aléa temporel. Explication: Z(x,t), à x fixé, constitue une variable aléatoire Z(x) de densité de probabilité f(z;θ(x)). L’aléa temporel s’exprime au travers de cette densité de paramètre θ. En différents points x1 ,x2 ......xk, les θ(xi) constituent une variable régionalisée θi, traduisant l’aléa spatial avec la densité de probabilité Π(θ1,θ2,... θk). On dira que les variables Z(xi) sont échangeables si toute permutation dans l’ordre des θi ne change pas la densité de probabilité Π(θi), autrement dit Π(θ1,θ2,... θk) =Π(θj1,θj2,... θjk). Exemple: C’est le cas si, après changement de variable, une structure de distribution spatiale des pluies mesurées permet de constater que θi= m + εi , où εi est une variable régionalisée intrinsèque. Les variables seront dites partiellement échangeables si cette structure s’exprime par une relation du type θi= Σβi. φi + εi , où φi sont des variables explicatives et les βi des coefficients.

ü Echantillonage d’une variable hydométéorologique: il s’agit de la répartition des instants d’observation. Cet échantillonage peut être à pas de temps constants (l’intervalle de temps entre deux mesures est toujours le même) ou événementiel (on connait les instants où certains seuils sont franchis par la variable, ou son gradient). Exemple d’échantillonage à pas de temps constants: la série des débits moyens journaliers en une station.

Exemple d’échantillonage événementiel: les surplus et déficits par rapport à différents seuil en débit

ü Stationnarité du premier ordre d’une variable hydométéorologique: une variable hydrométéorologique Z(x, t) échantillonée à pas de temps constant est dite stationnaire du premier ordre si son premier moment est indépendant du temps. Autrement dit: E(Z(xt, t)) =° Z(xt, t).f(Z(xt, t),t) dxt= M1 (t) est constant ∀ t.

5

Elle est dite stationnaire du deuxième ordre si son second moment et son autocovariance sont indépendants du temps. Autrement dit E([Z(xt, t)-M1(t)]2) =°([Z(xt, t)-M1(t)]2).f(Z(xt, t),t) dxt= M2 (t) est constant ∀ t.

°°[Z(x ,

t)-M1(t)].[Z(x t-τ, t-τ)-M1(t-τ)].f(Z(xt, t),Z(x constant ∀ t. t

t-τ

,t-τ),t,t-τ) dxtdxt-τ= cov(τ,t) est

Exemple de non stationnarité: Z(xt, t)= {débits journaliers du jour t de l’Allier à Vieille Brioude}

ü Mémoire d’une variable hydométéorologique: la mémoire d’une variable hydrométéorologique Z(x, t) échantillonée à pas de temps constant peut se mesurer par son autocorrélation: ρ (τ,t)= cov(τ,t) / [M2(t).M2(t-τ)]2 qui est d’autant plus forte que ρ(τ,t) est proche de 1. Exemples de mémoire:

6

2. Utilité de l’étude des processus stochastiques en hydrométéorologie En quoi l’ensemble des définitions et propriétés mentionnées au paragraphe précédent intéressent elles l’hydrologue ? Premièrement parce que les phénomènes physiques étudiés ont de fortes variations spatiales et temporelles, et ceci qu’il s’agisse de températures, de pressions, de vent, de précipitations, de débits, etc... Ensuite parce qu’on identifie des structures aussi bien spatiales que temporelles dans ces variations: Ÿ la géomorphologie des bassins (pente, superficie, chevelu hydrographique,...), leurs altitudes, leurs reliefs, leur géologie, leur couverture végétale, ont une influence déterminante sur les structures spatiales, Ÿ les facteurs climatiques, avec des effets saisonniers mais également évènementiels sont déterminants aussi bien sur le plan temporel (sécheresses) que spatial (orages locaux par opposition aux perturbations généralisées). Ÿ l’action de l’homme, toute proportion gardée, n’est pas négligeable qu’il s’agisse de régulariser (réservoirs de soutien d’étiage) ou d’accentuer certains contrastes (prélèvements). Pour comprendre et mieux agir, les processus et les structures sous-jacents des phénomènes physiques ont été recherchés, et finalement des représentations schématisées baptisées «modèles» ont été développées. Ces derniers se classent, selon leur finalité, en quatre catégories: Ÿ

les modèles d’interpolation ou de reconstitution: ils aident à mesurer,observer, constater, estimer. Qu’il s’agisse d’acquérir l’information la plus «représentative» pour un effort de mesure donné, et donc de sélectionner les futurs lieux d’observation, ou bien d’évaluer une grandeur intégratrice d’une grande diversité spatiale, ou encore de compléter une information momentanément manquante. Ils servent donc autant à décrire qu’à décider.

Ÿ

les modèles de simulation: ils reproduisent un processus, ou une partie de processus, à partir d’observation existantes, mails il peuvent aussi générer des scénarios possibles et conformes statistiquement au processus étudié. Ces modèles sont par exemple très utiles pour simuler les effets ou le fonctionnement futur d’un ouvrage. Ils permettent de faire des projections sur l’avenir, et sont intéressants au plan décisionnel, en particulier pour l’analyse des risques, y compris économiques.

Ÿ

les modèles de prévision, c’est à dire utilisés à un instant t pour prévoir l’avenir. On devine qu’ils auront une finalité essentiellement opérationnelle: alerte en période de crue, anticipation en période de sécheresse, plus généralement aide à la gestion de la ressource en eau d’un bassin.

Ÿ

les modèles de prédétermination, c’est à dire qui évaluent la probabilité d’occurrence d’un événement, mais non le moment où il se produira, est surtout utile aux projeteurs, à ceux qui doivent dimensionner un ouvrage soumis aux aléas hydrométéorologiques, à évaluer les risques.

Nous évoquerons quelques uns de ces modèles dans les paragraphes suivants.

7

3. Les modèles d’interpolation et de reconstitution ü objectifs et principes: si, en un point donné, un dispositif de mesures de pluie ou de débit tombe en panne momentanément, alors on va chercher à reconstituer tout ou partie de l’information manquante. Plus généralement, pour des raisons économiques évidentes, il est impossible de mesurer tout et partout: se pose alors la question de choisir des emplacements de mesures de telle sorte qu’à partir de cette information il soit possible d’«estimer» les valeurs de la variable hydrologique en tout point du champ spatial. C’est donc une sorte d’interpolation. Dans tous les cas le principe est le même: il s’agit de «reconstituer» au mieux la réalisation d’un processus dont on en connait une partie, et ceci compte tenu des structures de processus que l’on mettra en évidence. ü Transfert d’information entre deux sites par régression linéaire: Considérons deux séries (par exemple de débits en deux points d’un même cours d’eau), l’une X1 de n observations xi(i) régulièrement espacées, et l’autre X2 de p observations x2(i) concommittantes avec une partie des observations de X1 (autrement dit p0 ∀k>0

Le processus étant stationnaire, on peut trouver un ensemble {Φi} qui respecte les covariances: E[Ζ(t). Ζ(t-k)]=ΣΦi. E[Ζ(t-j). Ζ(t-k)] Ζ(t-k)]=0) ρk=ΣΦi.ρi-k

(j=1,...,k)

(car E[ε(t).

(j=1,...,k)

ou encore [ρ]=[P].[Φ] avec

12

[ρ]= ..

ρ1 ρ2 .. ρk ρp

[Φ]= ..

Φ1 Φ2 ..

[P]=

Φk Φp

1 ρ1 ρ2 .......................ρp-1 ρ1 1 ρ1 ......................ρp-2 ........................................ ρk-1 .............1 ρj ........... ρp-k ........................................ ρp-1 .................................1

Résoudre ce système, dit de YULE WALKER, revient à calculer ainsi les Φi : [Φ] =[P] .[ρ] −1

Comme précédement, la simulation d’un scénario consiste à tirer aléatoirement des ε(t), et un terme Z(1) initial, puis, connaissant les ρi et Φi, à en déduire la série des Z(t). ü Les autres modèles Autorégressifs : MA(q), ARMA(p,q) et ARIMA(p,d,q) Le modèle MA(q), «Moving Average» ou moyenne glissante, exprime que le processus est une sorte de «lissage» d’un processus sous jacent: Z(t)=

-ΣΘ i. ε(t-i) + ε(t)

(j=1,...,k)

dans ce cas σε2= σZ2 / (1+ΣΘ i2) et ρk=[-Θκ2. ΣΘ i.Θι+κ]/(1+ΣΘ i2) Le modèle ARMA(p,q) combine les deux modèles précédents: Z(t)=ΣΦi.Z(t-i) −ΣΘ i. ε(t-i) + ε(t)

(j=1,...,k)

enfin le modèle ARIMA(p,d,q) est un cas particulier du modèle ARMA appliqué à une variable transformée: Z’(t)= Z(t)-Z(t-d), de façon à gommer les nonstationnarités de période d.

ü Les modèles conceptuels Ces modèles intègrent dans la structure du processus des éléments physiques : ainsi le processus des débits sera reconstitué soit en partant du processus des pluies, en utilisant une schématisation pluie-débit très globale, et en complétant par des termes aléatoires dont les caractéristiques auront été identifiés sur des réalisations concommitantes. Exemple du modèle «vidange-impulsion»: c’est la combinaison d’un modèle stochastique simulant des épisodes pluvieux et d’un modèle pseudo-déterministe utilisant une relation pluie-débit pour générer des débits journaliers complété par un terme aléatoire. Q(i)=θi.Q(i—1) + µi. P(i) + ε (i)

13



Ÿ Ÿ Ÿ Ÿ Ÿ

Q(i) représente le débit moyenne observé au jour.i.; P(i) la pluie moyenne tombée le jourX; θi le paramètre de tarissement de la nappe µi est le paramètre de réponse à la pluie (représente la réaction à la pluie) ε (i) est un résidu qui suit une loi normale centrée, d’écart-type σ

Le paramètre de tarissement traduit la «chute» du débit en l’absence de pluie : on a alors un modèle autorégressif à paramètre variable:

Q(i) =θi . Q(i-1) + ε (i)

La quantité µi. P(i) est interprêtée comme étant le volume de pluie « efficace» c’est-à-dire la fraction de la pluie «brute» P(i) qui est supposée atteindre l’exutoire du bassin par ruissellement superficiel.

Le schéma ci-contre représente, de façon simplifiée, l’évolution des débits au cours du temps. On constate qu’il y a décroissance exponentielle des débits en l’absence de pluie (c’est l’alimentation par la nappe) et des sauts sinon (c’est le ruissellement consécutif à une pluie).

La qualité du modèle dépendra à la fois de l’identification du processus simulant les pluies et de la qualité du modèle pseudo-déterministe simulant les aléas de la réaction pluie-débit. Ce dernier peut être contrôlé dès qu’on connait des réalisations de pluies et de débits concommitantes:

Exemple du modèle DEJOREG-TIERCELIN: le principe de schématisation et de simulation reste le même que précédemment, sauf que ce modèle ne travaille pas sur des «impulsions» de pluies, mais sur des averses de volume V(i) qu’il répartit de façon triangulaite sur une durée T(i)

14

Exemple du modèle DPFT: ce modèle affine le devenir de la pluie précipitée en modélisant la part «efficace» de la pluie qui participe directement à l’écoulement (le reste étant infiltré ou évapotranspiré), et recompose les débits à partir des pluies nettes successives (schématisation linéaire comme l’hydrogramme unitaire). Ainsi la pluie efficace PE se déduit de la pluie brute P: PE(i)=P(i)2 / [P(i)=b(i)] où b(i) est une fonction de l’état du sol au moment de l’averse. Les débits se calculent par une expression de la forme: Q(j)=Q(j-1)+Σλi. PE(i)+ε(j) où les sont des coefficients. L’identification des b(i) et desλi est itérative et fait l’originalité de la méthode.

Exemple des modèles à «réservoirs»: en modélisant les stocks et les flux globaux pour mieux préciser le devenir de la pluie, on atteint le stade le plus explicatif des modèles conceptuels. A titre d’exemple voici un shéma de ce type de modèle:

Modèle MORDOR: il reproduit jour par jour les flux depuis la pluie brute jusqu’au flux écoulé, en les répartissant entre le réservoir dédié à l’évapotranspiration, les différents réservoirs souterrains de profondeurs différentes, et la composition des flux issus des réservoirs.

5. Les modèles de prévision ü objectifs et principes: Les modèles de prévision cherchent, à un instant donné t, à «prévoir» pour des instants futurs (t+∆t) le devenir d’une réalisation connue jusqu’à t. Par exemple, connaissant jusqu’à aujourd’hui le débit d’un cours d’eau en un point donné ainsi que les précipitations en quelques

15

endroits du bassin versant, comment prévoir le débit du même cours d’eau, au même endroit, demain, après demain, etc...? Leur principe est finalement proche des modèles de simulation: à chaque pas de temps t, prévoir revient à générer un, ou plusieurs scénarios, pour en tirer le comportement futur le plus probable, conditionné à l’information connue. Pratiquement tous les modèles passés en revue pour simuler, sont utilisables en prévision. Ce qui distingue les modèles de prévision des modèles de reconstitution, c’est d’une part le traitement qui est fait des erreurs, et d’autre part l’intégration de l’information connue, parfois appelée «a priori». Des procédures ont été élaborées, consistant à utiliser plusieurs modèles en parallèle, à analyser leurs erreurs, et à ajuster la prévision en mixtant ou en sélectionnant les résultats de ces modèles en fonction de leurs erreurs passées. Nous n’en dirons pas plus sur les modèles de prévision, mais si nous avons tenu à garder un paragraphe spécifique à ces modèles de prévision, c’est bien pour souligner ces différences d’utilisation entre simulation et prévision, même si le «coeurs» des modèles utilisés sont les mêmes.

6. Les modèles de prédétermination ü objectifs et principes: quand il faut dimensionner un pont pour qu’il laisse passer une crue sans dommage, on ne s’intéresse pas au moment où la crue se produira, on ne cherche donc pas à prévoir, mais à évaluer la probabilité d’occurence qu’une crue ne dépasse une valeur critique: c’est la prédétermination. On choisira une ou plusieurs variables utiles pour le projeteur, et on évaluera la probabilité d’occurence de ces variables pendant une durée de référence. C’est par exemple pour le pont, la probabilité que le débit maximum d’une crue ne dépasse une valeur Qc au cours d’une année. On est davantage dans une problématique de risque qui associe probabilité d’occurence d’un événement et dommages associés. ü choix des variables aléatoires: les variables qui peuvent intéresser l’hydrologue sont très diverses: des pluies, débits, températures, maximaux instantanés ou moyens pendant une période, des volumes ou des durées au dessus ou au dessous de certains seuils, etc...variables qui concernent aussi bien les crues, les étiages, les sécheresses, et bien d’autres phénomènes. Pour des raisons de simplicité, on ne traitera dans la suite que des variables à une dimension Z(t). ü fonction de répartition, période de retour, intervalles entre crues, probabilité d’occurrence: Considérons une variable Z(t) dont nous connaissons la fonction de répartition, c’est à dire F(Z)=Prob[z[Z, au cours d’une durée ∆t donnée]. Alors on appelle période de retour T(Z) la grandeur: T(Z)= ∆t / [1-F(Z)]. Par exemple, la crue correspondant au débit qui a une chance sur 100 d’être dépassé l’année à venir est de période de retour 100 ans: c’est la crue centennale. 16

On entend souvent dire que la crue de période de retour T revient en moyenne toutes les T années: c’est vrai au sens statistique si la stationnarité est parfaite. Mais bien évidemment les crues ne se produisent pas à intervalles réguliers. En fait le processus d’arrivée des crues est poissonien: autrement dit l’intervalle de temps IT séparant deux crues successives de période de retour T est uneloi exponentielle: Prob[IT>τ]=exp(-τ/T). A partir de là on peut calculer la probabilité d’occurence d’observer au moins K crues de période de retour T en τ années:

Ces calculs sont intéressants pour juger des risques globaux encourus par un ouvrage de durée de vie fixée. ü les lois classiques: L’objectif est de trouver une loi théorique dont on puisse montrer qu’elle représente bien la fonction de distribution du processus étudié. Nous verrons plus loin comment ajuster plusieurs lois à partir des observations et en choisir une. Mais commençons par lister les lois les plus fréquemment utilisées en hydrologie: Dans ces lois les α, β,.... sont des paramètres qui doivent être estimés comme indiqué au

prochain paragraphe.

17

ü l’estimation des paramètres des lois: Comment estimer les paramètres α et β de façon à ce qu’une loi représente bien la distribution inconnue, dont on ne connait qu’une réalisation au travers d’une série de Nobservations {Qi}? Voici les deux méthodes les plus fréquemment utilisées:

Comme précédemment, le calcul des paramètres se déduit de la résolution de ce système. Pratiquement la méthode des Moments est souvent employée car les calculs sont plus simples que ceux de la méthode du Maximum de Vraisemblance. Cependant on utilisera cette dernière chaque fois que possible car elle est plus performante: on peut montrer qu’avec le même nombre N d’observations ses estimations convergent plus rapidement. ü Comment apprécier la bonne adéquation des lois? graphique et test du χ 2 Ÿ

Un ajustement graphique permet de voir si la forme de la loi F est bien celle de la distribution des Q1 observés. Pour cela on range les Q par ordre croissant QI 5 sinon regrouper 2 classes) et soit NTi = N/K le nombre qu’on aurait dû avoir si on suivait parfaitement la loi F(Q), alors la quantité χ 2= Σ[(NOi - NTi)2 / NTi] i=1,...,K

suit une loi de χ 2 à ν degrés de liberté, avec ν=K-1-NPA où NPA est le nombre de paramètres de F. Enfin on s’assure que le χ 2 obtenu est inférieur à la valeur théorique correspondant au risque α accepté (5% par exemple) et au nombre de degrés de liberté (voir table du χ 2). ü les hypothèses de base: homogénéité, indépendance et stationnarité Les estimations seront solides à condition qu’aucun phénomène parasite et systématique ne soit intervenu: dérive dans le temps des séries par l’aménagement des cours d’eau, évènements d’importance ou d’origines trop différentes, interdépendance entre les évènements,etc... Les contrôles sont à faire au cas par cas. Il faut s’assurer notament que les événements de l’échantillon seront bien représentatifs des événements dont on cherche l’estimation: par exemple les crues en dessous d’un certain niveau ont peu avoir avec des événement de période de retour 1.000 ans, et peuvent masquer par leur nombre les quelques fortes crues disponibles. Voici cependant trois contrôles fréquemment utilisés:

19

Ÿ

Homogénéité saisonnière (figure ci-contre): si les événements au cours de l’année sont homogènes, les estimations seront cohérentes avec l’estimation annuelle si: Fannuelle(Q)=Fhiver(Q).Fprintemps(Q).Fété(Q).Fautomne(Q) .

Ÿ

Indépendance des événements successifs: parfois un événement et le suivant peuvent avoir une relation entre eux (sécheresse par exemple) alors même que les estimateurs utilisés suppose l’indépendance. Ceci est facilement vérifiable en calculant le coefficient d’autocorrélation de pas 1 et en testant l’hypothèse qu’il est nul.

Ÿ

Stationnarité: que les caractéristiques statistiques soient invariantes avec le temps est évidemment indispensable pour la crédibilité de l’estimation. Plusieurs tests peuvent être faits sur diverses caractéristiques: l’un des plus faciles est la comparaison des moyennes. Si on coupe en deux l’échantillon initial, et qu’on calcule les moyennes m et m’, ainsi que les écarts-type s et s’ de chaque sous-échantillon de longueur n, alors la grandeur suit une loi de Student à 2n-2 degrés de liberté.

ü incertitudes et intervalles de confiance Du fait de la longueur limité à N observations, les estimations de probabilité des débits (ou de toute autre variable étudiée) sont entachées d’une incertitude, dite d’échantillonnage, fonction de N, mais également de l’estimateur utilisé. Une façon de quantifier cette incertitude est l’Intervalle de Confiance, c’est à dire les limites entre lesquelles il y a α% de chances que se situe la vraie valeur inconnue: par exemple si la crue centennale a été estimée à la valeur la plus probable 250m3/s, on pourra calculer qu’il y a 70% de chances que la vraie valeur se situe entre 220 et 285 m3/s. A noter que le choix de la valeur α% est arbitraire comme dans tout test, et que les 70% de l’exemple ne sont que la valeur la plus couramment utilisée de façon à avoir des intervalles sensibles à l’échantillonage sans être éxagérément larges et inutilisables par le projeteur. En effet lorsqu’on fournit à un projeteur une estimation, il est absolument nécessaire de lui fournir une idée du risque d’erreur d’évaluation associé: même s’il n’intègre pas toujours cette information dans son analyse économique, cela reste un élement de décision aussi important que l’estimation elle même: d’une certaine façon l’ouvrage sera expoxé à un risque qui combine à la fois l’aléa naturel et celui de l’estimateur. Il faut souligner que cette problématique de prise en compte de l’incertitude se pose également pour les modèles de prévision, avec toutefois, on a vu, la particularité de pouvoir intégrer les erreurs passées dans les prévisions.

Pour les principales lois évoquées précédement, on trouvera en annexe 1 une aide au calcul pour réaliser leurs ajustements et proposer des estimations.

20

DEUXIEME PARTIE : LA PRÉDÉTERMINATION DES CRUES

Dès que l'on veut construire un pont, un barrage, un ouvrage fluvial exposé aux débits extrêmes, se pose le problème du dimensionnement : qu'il s'agisse de l'application d'une norme ou du résultat d'une étude économique, on est forcément amené à choisir un débit, et donc un risque de dépassement de ce débit. Une erreur sur le risque associé à ce débit, peut avoir des conséquences catastrophiques, d'un point de vue économique (ruine de l'ouvrage), humain parfois (rupture de barrage par exemple).

1. quelle variable faut-il étudier ? D’une façon générale c’est l’utilisation qui détermine le choix de la variable: pour une installation qui subira des dommages importants dès le début de la submersion, ce sera la hauteur maximale atteinte par la crue, s’il s’agit d’un déversoir à dimensionner ce sera le débit maximum instantané voire l’hydrogramme de crue complet, pour gérer un réservoir les débits ou les volumes au dessus d’un seuil seront plus pertinents, alors qu’enfin pour un producteur agricole ce pourra être la durée de submersion. La probabilisation des hauteurs est cependant déconseillée car: Ÿ

Si la série des débits de crues est souvent relativement stationnaire, celle des hauteurs l'est rarement : il arrive souvent que deux crues, éloignées dans le temps, aient eu le même niveau maximum avec pourtant des débits sensiblement différents. Il suffit pour cela que le profil en travers varie (creusement ou apport dus aux crues passées, travaux de protection, etc...).

Ÿ

Le point ci-dessus implique qu'il est peut-être possible de trouver des lois de probabilités stables et ayant un sens physique, pour les débits, mais bien rarement pour les hauteurs. Ceci s'explique par le fait que les débits sont le résultat d'un ensemble de phénomènes hydrologiques, assez réguliers. Par contre les hauteurs mélangent à la fois l'aspect hydrologique et l'aspect hydraulique, tout à fait local, et modifiable dans le temps.

Ÿ

Comment évaluer l'effet d'un barrage amont qui gère des débits ? Le seul moyen est de repasser, au moins provisoirement, en débit : donc autant probabiliser directement les débits.Une étude en débit reste valable dans l'avenir : il est plus facile de répercuter les modifications locales de l'écoulement pour retrouver la cote associée à un risque fixé. Par contre une étude en hauteur devra être reprise au début.

Ÿ

Enfin il est plus facile de vérifier la compatibilité des estimations en débit de plusieurs stations d'une même rivière.

Ce qui vient d'être dit a des conséquences à propos des mesures : on trouve dans les archives de nombreux renseignements sur des hauteurs de crue, mais souvent ils sont inexploitables. En effet deux crues décrites comme différentes donnent des hauteurs semblables (obstruction d'un

21

pont, prise en glace, etc...) et rendent inutile cette information, qui aurait été précieuse si une évaluation même grossière du débit avait été faite. Une crue n'est correctement et utilement décrite que si son débit est estimé. La variable la plus fréquemment probabilisée est donc le débit moyen journalier maximum de la crue. Cependant on est souvent intéressé par le débit maximum instantané de la crue (problème de submersion). L'écart entre maximum journalier et moyenne journalière est parfois important et doit être analysé à partir d'hydrogrammes continus.

2. quelle méthode employer ? Le choix est si grand que le non-spécialiste s'y perd un peu, et que certains pays ont tout simplement normalisé, par textes de loi, l'analyse des débits extrêmes. Or, à y regarder de plus près, beaucoup de méthodes ont des principes communs, avec des variantes statistiques mineures.

Les méthodes probabilistes qui qui nous intéressent peuvent se ranger en trois catégories : Ÿ les méthodes d’analyse du processus des débits, Ÿ les méthodes « hydrométéorologiques » qui intègrent l’information pluviométrique, Ÿ les méthodes de simulation stochastiques. Les méthodes de simulation stochastiques, en modélisant statistiquement les processus à l'échelle journalière ou mensuelle, et en générant des scénarios sont très utiles pour étudier par simulation, des variables complexes, mais elles contrôlent mal les incertitudes, ce qui limite la validité des extrapolations. Comme elles sont nettement moins employées, nous ne les aborderons pas ici. Les méthodes hydrométéorologiques sont fiables et opérationnelles pour des bassins versants limités et homogènes. Elles ont également l'avantage d'analyser les événements générateurs, et d'être ainsi plus proches de la physique des phénomènes. Nous en présenterons la plus utilisée: la méthode du GRADEX. Nous détaillerons et illustrerons naturellement les méthodes d’analyses des débits, sous leur forme traditionnelle (méthode des Maxima Annuels) ou plus récente (méthode du Renouvellement). Nous dirons un mot enfin des méthodes « empiriques » ou « déterministes » qui en maximisant les phénomènes n'évaluent pas clairement les risques.

3. La méthodes des MAXIMA ANNUELS Le recueil et la critique des données ayant été préalablement faits, on dispose au départ d’une chronique de débits journaliers, et on veut déterminer Prob[q* S et < Q] + Prob [Au cours de l'année, j 2 crues > S et toutes < Q] .............................. + Prob [Au cours de l'année, j k crues >S et toutes < Q] ........... '.

en abrégé : Prob [q* < Q] = Σ Prob [Au cours de l'année,j k crues >S et toutes < Q] k=0,.....,'

ou encore :

26

Prob [q* < Q] =Σ P(k).G(Q)k

k=0,........,'

Lorsqu'on s'intéresse à des crues rares, la formule précédente peut être approximée par une relation très simple. En effet si la crue est rare cela signifie que G(Q) est proche de l : F(Q)=Prob [q* < Q] =Σ P(k).G(Q)k F(Q)Y Σ P(k).{ l - k[1 - G(Q)] } F(Q)Y Y l - N.[l- G(Q)]

où N est le nombre moyen annuel de crues dépassant S ( N =Σ k.P(k) ) Exemple d'application simple : On veut connaître la crue centennale d'une rivière dont on dispose de 30 ans de relevés hydrométriques. On s'est fixé un seuil S = 100 m3/s, on a observé 100 crues supérieures à S et de moyenne 150 m3/s. Si ces crues suivent une loi G(Q) exponentielle simple, on aura : F(Q)=Prob [q* < Q] Y1 - (100/30).exp[-(Q-100)/(150-10] F(Q)=Prob [q* < Q] Y1 -3,33.exp[-(Q-100)/50] Ainsi la crues centennale Q100Y 390 m3/s

Remarques Tout ce qui vient d'être dit pour l'année (maximum annuel, nombre de crues par an supérieures à S, etc...) peut être transposé à d'autres échelles de temps : le mois, la saison, etc... Il importe seulement de ne pas mélanger des régimes différents : ne pas traiter à l'échelle mensuelle l'ensemble des crues d'hiver et d'été, car le nombre moyen mensuel de crues est différent en hiver et en été et la loi P(k) est également différente. Par contre on peut faire une étude à l'échelle mensuelle si on désire étudier les crues d'été et que l'on ne retienne que les débits de juillet-août : le résultat final sera la probabilité de la crue maximum de ces deux mois, ou de l'un d'entre eux (ceci intéresse ceux qui doivent effectuer des travaux dans le lit d'une rivière et qui veulent savoir à quels risques ils s'exposent selon le mois). II existe des variantes de ces méthodes (lois tronquées sur les Maxima Annuels, Renouvellement avec variations saisonnières des paramètres, etc...) mais leurs principes de base se ramènent pratiquement toujours à ceux qui ont été décrits. 27

A noter le cas particulier de la loi «exponentielle simple» qui n’est autre que la loi de weibull avec un ρ(Q-S)

paramètre p égal à 1: F(Q) = 1 - e-

Dans ce cas le calcul des paramètres est immédiat: µ = NC/NA et ρ = 1/(q*-S) ü Le calcul des incertitudes Les valeurs trouvées des paramètres µ, ρ et p ne sont que des estimations de leurs vraies valeurs µ, ρ et p inconnues. Autrement dit, µ, ρ et p nous apparaissent comme des variables aléatoires, dont on peut montrer qu’elles suivent une loi Normale, avec une matrice de covariances explicitement calculée en annexe 2. On

28

Si on fait ensuite l’approximation que QT suit une loi Normale, on en déduit l’intervalle de confiance à 70%: [Q1;Q2] avec Q1= QT - 1,04.σQ et Q2= QT + 1,04.σQ ü L’information historique L’intervalle de confiance calculé ci dessus prend en compte les incertitudes d’échantillonage liées à la taille limitée de l’échantillon. Il existe d’autres sources d’incertitudes très difficilement quantifiables: les erreurs de mesures qui peuvent entacher les données, l’inadéquation toujours possible des lois retenues surtout pour les très grandes crues, des défauts de stationnarité, etc.... Pour s’en préserver partiellement, il est vivement conseillé de rechercher l’«information historique». Longtemps négligée, parce que considérée comme peu sûre, l'information historique, c'est-à-dire les renseignements sur des crues anciennes, particulièrement fortes, au cours des 100 ou 200 dernières années, est en fait capitale et même dans certains cas plus précieuse que la série des observations régulières : par exemple si on désire estimer la crue centennale, la connaissance des 2 ou 3 plus forts événements du siècle passé est plus importante qu'une dizaine d'années de débits. Supposons donc qu'une analyse critique ait permis de rassembler un catalogue des NP plus fortes crues en NAS années supplémentaires, et qu'elles soient rangées par ordre décroissant.

Comment prendre en compte ces crues ? La technique classique, utilisée pour la méthode des Maxima Annuels, consiste à affecter à chaque crue une probabilité empirique [ fi = i / (NAS+1)] et à reporter les points représentatifs de ces crues sur le graphique d'ajustement des crues de l'échantillon régulier. On vérifie ainsi que ces crues exceptionnelles sont compatibles avec le modèle statistique retenu. Ce procédé est simple mais il offre deux inconvénients : d'abord il ne comporte pas de critère clair pour accepter ou refuser un ajustement en fonction des écarts observés, d'autre part même si les écarts sont acceptables, on ne corrige pas la loi initiale en tenant compte de ces crues historiques. De son côté la méthode du Renouvellement peut intégrer facilement cette information : il suffit dans le calcul de la vraisemblance de l'échantillon, d'introduire également la vraisemblance des crues « historiques ». On écrira : VT

=

V1

*

V2

avec VT= Vraisemblance globale des deux échantillons V1= Vraisemblance de l’échantillon des crues régulièrement observées V2= Vraisemblance de l’échantillon des crues historiques 29

Le calcul de V1 est le même que précédemment. Tandis que V2 est la probabilité d’avoir observé «en NAS années supplémentaires, d’une part les crues de l’échantillon, et d’autre part que toutes les autres crues supérieures à S étaient inférieures à QNP». Le calcul détaillé est fourni en annexe 2: le système à résoudre pour avoir les nouvelles valeurs de ρ, µ et p, ainsi que est à peine plus compliqué qu’avant. En guise de conclusion concernant la méthode du Renouvellement, son domaine de validité, comme d’ailleurs celui de la méthode des Maxima Annuels, est plutôt celui des grands bassins versants (plus de 10.000 km2). En effet ses estimations sont fondées sur des évènements «courants», dont le hasard des combinaisons est bien représenté par les lois retenues. Dès que l’on veut estimer des évènements de période de retour élevée (100 à 1.000 ans), elle ne conviendra pas pour les petits bassins versants où des effets tout à fait locaux (orages par exemple), parfois jamais mesurés aux points d’étude, peuvent devenir dimensionnants. La méthode du Gradex qui intègre d’une certaine façon la physique des phénomènes extrèmes, présente l’avantage d’être bien adaptée à ces cas là.

5. La méthode du GRADEX Avec la méthode du GRADEX nous abordons une autre classe de méthodes: celles qui utilisent l’information hydrométéorologique c’est à dire la pluie génératrice des écoulements. Ainsi on dispose de deux échantillons : un échantillon de pluies à pas de temps fin (horaire par exemple) et de débits journaliers complétés par quelques hydrogrammes de crue à pas de temps fin également. ü Principes, hypothèses et domaine de validité Le postulat de base de la méthode est qu’il doit y avoir une relation entre la distribution des débits et celle des pluies génératrices puisque les débits sont formés par les pluies. Cette relation est elle simple? Dans certaines conditions d’écoulement extrèmes (crues exceptionnelles), oui : le sol est si saturé que tout accroissement de pluie va se traduire, exprimé en volume, par le même accroissement en débit. Autement dit tout ce qui est précipité, ruisselle. Si la distribution de la variable aléatoire pluie est exponentielle, alors on peut montrer que celle des débits dans ces conditions extrèmes est asymptotiquement exponentielle, et que ses paramètres se déduisent de ceux des pluies. Examinons les hypothèses qui correspondent à ces conditions:

30

Ÿ

Hypothèse 1: la distribution des précipitations moyennes sur un bassin pendant quelques heures ou quelques jours est de type exponentiel: F(P)]= 1 - constante.exp(- P/a). On peut montrer qu’il s’en déduit que la distribution des précipitations maximales annuelles, moyennes sur un bassin pendant quelques heures ou quelques jours est de type GUMBEL: F(P)]= exp {-exp[ -(P0 - P)/a] } où P0 est une constante, ainsi que a qui est appelé «Gradex».

Ÿ

Hypothèse 2 : si le débit dépasse une certaine valeur (qui selon les sols peut varier du débit décennal au débit cinquantennal), alors le sol est saturé, de sorte que, pendant le temps de base de ruissellement τ, tout accroissement de pluie égale le même accroissement en débit, autrement dit: dQ=dP. Le mécanisme de saturation progressive au cours d’une averse peut se traduire sur la figure ci contre. Le corollaire de cette hypothèse combinée à la précédente est que la distribution des débits sera asymptotiquement exponentielle, et de même paramètre a que celle des pluies.

Ÿ

Hypothèse 3: le rapport moyen, appelé coefficient de forme, entre le débit maximum instantané d’un hydrogramme de crue, et le débit maximum moyen sur la période indépendant du débit.

τ

est

La première et la troisième hypothèses sont assez facile à vérifier: les nombreux ajustements de lois de GUMBEL sur des échantillons de pluie ont permis de montrer, hormis quelques cas rares, le bien fondé de cette hypothèse. De même la figure ci contre concernant le rapport débit maximum/débit moyen, est établie à chaque étude. Reste la deuxième hypothèse concernant la relation pluie/débit: c’est elle qui fixe d’une certaine façon le domaine de validité de la méthode. En effet on imagine bien que la saturation de l’ensemble du bassin sera d’autant plus vite atteinte que

31

les sols sont imperméables, et que le bassin versant est de petite taille (50 à 1.000 km2) pour être arrosé de façon homogène, avec une réponse en ruissellement rapide.

Grâce à ces trois hypothèses principales, le principe de la méthode va consister à réaliser une analyse probabiliste sur les pluies, à en identifier la distribution de Gumbel, puis à transposer cette distribution à celle des débits, en prolongeant l’estimation du débit décennal. ü Les étapes du calcul par la méthodes du GRADEX Ÿ

Description des phénomènes et critique des données: comme pour toutes les méthodes le premier travail est la description hydroclimatologique et la critique des données. La méthode du GRADEX demande en plus de constituer un échantillon pluviométrique qui est en fait le résultat d’une étude: en général on dispose deplusieurs séries pluviométrique, et par des analyses d’interpolation comme celes évoquées en première Partie, on reconstitue une chronique d’estimation de la lame d’eau moyenne.

Ÿ

Analyse des hydrogrammes : on en déduit le pas de temps τ à retenir (on arrondit à celui des données), et d’autre part on établit le coefficient de forme. En outre on évalue le débit de rétention limite à partir duquel la saturation est supposée atteinte.

Ÿ

Calcul du Gradex des pluies : on estime pour chaque saison le Gradex en ajustant les pluies de la saison à une loi de Gumbel, et on en déduit le Gradex annuel qui, asymptotiquement, est le plus fort des Gradex saisonniers.

Ÿ

Calcul du débit limite de rétention: on estime le débit décennal (ou plus si nécessaire) en appliquant la méthode des Maxima annuels ou du Renouvellement à la série des débits observés (moyens sur la durée τ).

Ÿ

Calcul du débit maximal instantané de période de retour donné: après avoir calculé le Gradex Instantané à partir du Gradex moyen (a’=a.r où r est le coefficient de forme), on établit la distribution des débits instantanés traçant la loi de Gumbel de paramètre a’ à partir du débit limite de rétention.

Pour terminer soulignons que cette méthode est bien adaptée aux estimations d’évènements extrèmes (décamillénnales) dans la mesure où l’hypothèse liée à la saturation est d’autant mieux vérifiée que le débit est important.

32

6. Conclusions sur la prédétermination des crues Nous venons de voir les trois méthodes de prédétermination des crues les plus utilisées en France, et dans les pays qui ont une approche statistique du risque à prendre en compte pour le dimensionnement d’ouvrages. ü quelle méthode choisir ? Les méthodes des Maxima Annuels ont pour elles, on l’a vu, leur simplicité, et il est vrai que pour des bassins versants assez grands (plus de 10.000 km2), disposant de quelques dizaines d’années de débits observés, l’estimation de la crue décennale est accessible sans trop de risques. Au delà, il conviendra d’être prudent et disposer de suffisement d’informations. De toute façon, compte tenu des moyens de calcul actuels, on a intérêt à utiliser la méthode du Renouvellement, qui grâce à sa façon de bien valoriser l’information, et en plus de conforter les extrapolations par l’information historique, est plus sûre. Toujours pour des bassins versants assez grands (plus de 10.000 km2), elle permet d’estimer, avec des incertitudes souvent acceptables, des évènements de période de retour pouvant atteindre 100 ans, voire 1.000 ans. La méthode du Gradex est tout à fait complémentaire puisqu’elle s’applique mieux aux évènements les plus extrèmes (décamillennaux) survenant sur des bassins de taille modérés. En outre elle n’exige pas de longues séries de débits, rarement disponibles sur les petits bassins, mais demande des séries pluviométriques. ü D’autres méthodes sont-elles utilsées? De nombreuses variantes ou compléments aux méthodes statistiques présentées ici existent: lois de Valeurs Extrèmes «Généralisées», changements de variables divers, combinaisons de lois, etc...Signalons que parmi les approches statistiques intéressantes qui n’a pu être présentée ici figure l’analyse «Bayésienne» qui est bien plus qu’une estimation, mais plutôt une approche dynamique de la façon d’utiliser l’information. En effet son principe est de considérer que le projeteur a toujours au départ, c’est à dire avant d’utiliser une nouvelle information, une appréciation «a priori» du phénomène qu’il étudie, et que l’information reçue va lui enrichir cette appréciation qui deviendra appréciation «a posteriori», juqu’à la prochaine information.....[ ] constitue une excellente introduction à cette l’analyse «Bayésienne». Dans les pays anglo-saxons, où les méthodes statistiques sont largement employées pour les évènement de période de retour modérée (10 à 100 ans), la méthode de la PMF (Probable Maximum Flood) est exigée pour les dimensionnement d’ouvrages où des vies humaines sont concernées. Cette méthode n’est pas statistique et consiste à maximiser les variables explicatives des précipitations (humidité, vent, conditions de précipitation), à maximiser les scénarios temporels de précipitations (concommitances, précipitations successives,...), puis à transformer cette pluie en débit, d’abord en déterminant la part «efficace» qui, comme le Gradex est proche de dQ=dP, et ensuite en la convertissant en débit par des méthodes plus ou moins classiques en hydrologie (du type Hydrogramme Unitaire,...).

33

Bien que non statistique, cette méthode de la PMF devait être mentionnée car elle utilisée par de nombreux bureaux d’études internationaux, souvent à la demande de clients qui y voient une forme de protection infranchissable. sans lui nier ses avantages, qui résident dans l’analyse hydrométéorologique, et donc l’intégration d’un maximum d’informations, il convient néanmoins de garder à l’esprit les limites de la méthode : Ÿ Ÿ Ÿ

une crue de projet dont la probabilité n’est pas estimée (et pour cause) alors que les maximisations effectuées sont basées sur les observations, qui peuvent être très réduites en certains endroits: il s’en suit un faux sentiment de sécurité des estimations à l’inverse très importantes quand les informations sont riches, qui surdimensionneraient exagérément les ouvrages, ce qui conduit les projeteurs à «corriger par un coefficient d’abattement» non moins risqué... enfin une complexité de mise en oeuvre qui générent beaucoup de choix difficiles et qui ne permet pas à la fin du calcul d’avoir une forme d’évaluation de l’incertitude.

34

TROISIEME PARTIE : ÉVALUATION DES RISQUES DE CRUE DE LA GARONNE À MAS D’AGENAIS

Cet exemple illustre l’application de la méthode des Maxima Annuels et de celle du Renouvellement. Pour rester simple et illustratif, tous les calculs détaillés ne sont pas exposés: en revanche les résultats majeurs de chaque étape sont fournis, de sorte qu’ils peuvent être retrouvés en s’aidant de la Partie 2 et des annexes 1 et 2. Nous verrons successivement: Ÿ Ÿ Ÿ

Ÿ

l’analyse hydrométéorologique les données et leur critique l’étude par la méthode des Maxima Annuels vérification des hypothèses ajustements des lois statistiques résultat et incertitudes l’étude par la méthode du Renouvellement vérification des hypothèses ajustements des lois statistiques au nombre annuel de crues ajustements des lois statistiques aux amplitudes de crues résultat et incertitudes

1. l’analyse hydrométéorologique La station de Mas d’Agenais est située sur la Garonne, juste à l’aval du confluent avec le Lot, correspondant à un bassin versant de 52.000 km2. Ses crues sont donc formées de celles de la Garonne amont, de l’Ariège, des rivières du Lanmezan, du Tarn et du Lot. La cohérence des écoulements a pu être étudiée grâce à une série de stations hydrométriques sur ces cours d’eau ou intermédiaires sur la Garonne, en particulier Portet, Mas Grenier, Hauterive, Rouby, Lamagistère, et Cahors. De plus des réservoirs, représentant au total un volume de 1,3 million de m3, construits essentiellement après 1945, situés dans les Pyrénées et dans le Massif Central impactent les débits de la Garonne.

35

Sur le plan hydrométéorologique, on distingue trois classes de crues, qui peuvent aussi se combiner: les crues pyrénéennes, les crues océaniques, et les crues méditerranéennes. A chacune d’elle correspond des situations météorologiques identifiées en fonction de la position de l’anticyclone (Golfe de Gascogne, ou ouest Espagne ou sud Espagne) et d’une ou plusieurs dépressions associées (Irlande, France, Méditerranée,...). Les fortes crues proviennent de la Haute Garonne (crues océaniques ou océaniques-pyrénéennes), ou de crues océaniques de la Moyenne Garonne gonflées par une crue d’un affluent, ou encore du fait de crues successives. Ci contre: exemple de situation météorologique: la journée du 22 janvier 1955

2. les données et leur critique Nous ferons l’hypothèse pour cet exposé que la variable utile au projeteur est le débit moyen journalier. D’autre part l’étude citée ici en exemple ayant été réalisée en 1977, les données ultérieures n’ont pas été intégrées. La station de Mas d’Agenais est abondante en données: débits journaliers depuis 1913, auxquels s’ajoutent 12 crues historiques en 143 ans supplémentaires. La qualité de ces données a fait l’objet de nombreuses études, en particulier par PARDE qui proposait quelques corrections au dessus du débordement (3.800 m3/s). Ce sont ces valeurs qui ont été retenues et qui correspondent aux échantillons ci après: crues maxima annuelles, crues supérieures à 2.500 m3/s, et crues historiques Crues maximales annuelles

crues historiques 1770 1772 1783 1827 1835 1843 1855 1856 1856 1875 1879

7.000 à 7.400 m3/s 6.300 m3/s 7.000 à 7.200 m3/s 6.500 m3/s 6.400 m3/s 6.500 m3/s 7.000 m3/s 6.200 m3/s 6.600 m3/s 7.000 à 7.500 m3/s 6.300 m3/s

1879

7.000 m3/s

Crues supérieures à 2.500 m3/s

36

3. l’étude par la méthode des Maxima Annuels ü vérification des hypothèses Indépendance: Le coefficient de corrélation de pas 1 sur 63 valeurs est de 0,034. La variable test de Student t=R. [(N-2)/(1-R2)]0,5 vaut ici 0,264. Le risque 5% de rejeter à tort correspond à t=1,68 : on peut considérer que l’hypothèse d’indépendance est largement acceptable. Stationnarité: En découpant en deux l’échantillon, on obtient deux moyennes assez différentes: m1= 4 317 m3/s s1= 1 268 m3/s m2= 3 485 m3/s s2= 1 284 m3/s La variable test de Student t=(m1-m2).[32/(s12+s22)]0,5 vaut ici 2,6: l’hypothèse de stationnarité peut donc être remise en cause. Le graphique ci contre des moyennes glissantes montre effectivement

37

une particularité à partir du milieu de la série. Nous la gardons en mémoire pour la discussion finale des incertitudes. ü ajustements des lois statistiques Ä ajustement à la loi Normale : il est peu satisfaisant, une courbure apparaissant. loi Normale:

loi Log-Normale:.:

loi des Valeurs Extrèmes:

.

38

Ä ajustement à la loi Log-Normale: il est meilleur. Le test de dispersion du χ2 vaut 10,2 pour 10 classes, la valeur acceptable pour un risque de 5% étant 14. Ä ajustement à la loi des Valeurs Extrèmes: de qualité voisine de celle de la loi Log-Normale, le test de dispersion est meilleur :χ2 = 5,9.

Finalement la loi retenue est celle des Valeurs Extrèmes (ou Gumbel).

ü résultats et incertitudes Sachant que la moyenne de l’échantillon est 3.910 m3/s et son écart-type 1.330 m3/s, les paramètres de la loi de Gumbel sont α=3 310 et β= 1 040, de sorte que le débit de période de retour donnée s’écrit: QT= 3 310 + 1 040.[-log[-log(1-1/T)]] crue decennale crue centennale crue millennale

5.650 m3/s 8.100 m3/s 10.500 m3/s

L’intervalle de confiance à 70% est calculé à partir de l’abaque de BERNIER: pour la crue millennale: T1=0,76 T2=0,66 ====> 8.600< Q1000
View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF