Probabilités

Share Embed Donate


Short Description

Cours de probabilités...

Description

Probabilités Essaidi Ali 3 mars 2016

1

Espaces probabilisés : Soit Ω un ensemble.

1.1

Espaces probabilisés :

Notation : Pour tout A ⊂ Ω, on note A¯ le complémentaire de A dans Ω. Définition 1.1 On appelle tribu de Ω toute partie T de P(Ω) qui vérifie : 1. ∅ ∈ T . 2. Si A ∈ T alors A¯ ∈ T . 3. Si (An )n∈N est une suite d’éléments de T , alors

[

An ∈ T .

n∈N

Dans ce cas, tout élément de T est appelé un événement de T . Remarques : Soit T une tribu de Ω. — Tout singleton de T est appelé événement élémentaire de T . — ∅ s’appelle l’événement impossible. — Ω ∈ T . On l’appelle l’événement certain. \ — Si (An )n∈N est une suite d’événements de T alors An ∈ T . n∈N

— Si A1 , . . . , An ∈ T alors A1 ∪ · · · ∪ An et A1 ∩ · · · ∩ An sont des événements de T . — Soient A, B ∈ T : 1. A \ B ∈ T . 2. A ∪ B est l’événement "A ou B est réalisé". 3. A ∩ B est l’événement "A et B sont réalisés". 4. A¯ est événement contraire de A. 5. Si A ∩ B = ∅ alors on dit que les événements A et B sont incompatibles. — Si Ω est fini ou dénombrable alors il est usuel de choisir T = P(Ω). Définition 1.2 Soit T une tribu de Ω. On appelle probabilité sur T toute application p : T → [0, 1] telle que : 1. p(Ω) = 1. 2. Axiome d’additivité dénombrable : Pour toute suite (An ) d’événements de T qui sont deux à deux!incompatibles (i.e +∞ X [ P ∀m, n ∈ N, m 6= n ⇒ Am ∩ An = ∅), la série p(An ) converge et on a p(An ) = p An . n=0

n∈N

Dans ce cas, le triplet (Ω, T , p) est appelé espace probabilisé. Remarques : Soit (Ω, T , p) un espace probabilisé. — Pour tout événement A de T , p(A) s’appelle la probabilité de A. — Un événement A de T tel que p(A) = 0 est dit négligeable ou presque impossible. — Un événement A de T tel que p(A) = 1 est dit presque sûr ou presque certain. — p(∅) = 0. — Additivité : Si A1 , . . . , An sont des événements de T deux à deux incompatibles alors p(A1 ∪ · · · ∪ An ) = p(A1 ) + · · · + p(An ). ¯ = 1 − p(A). — Si A est un événement de T alors p(A) — Soient A et B deux événements de T . Alors : 1

CPGE Laayoune

Lissane Eddine

Essaidi Ali

1. p(B \ A) = p(B) − p(A ∩ B). 2. Si A ⊂ B alors p(B \ A) = p(B) − p(A). En particulier, p(A) ≤ p(B). 3. p(A ∪ B) = p(A) + p(B) − p(A ∩ B). — Soit une suite (An )n∈N d’événements de T et on pose B0 = A0 et ∀n ≥ 1, Bn = An \

n−1 [

Ak . Alors :

k=0

1. (Bn ) est une suite d’événements deux à deux incompatibles. 2. ∀n ∈ N, p(Bn ) ≤ p(An ). n n [ [ 3. ∀n ∈ N, Bk = Ak . k=0

4. ∀n ∈ N,

[

k=0

Bn =

n∈N

[

An .

n∈N

— Sous additivité dénombrable : Soit une suite (An )n∈N d’événements de T . Si la série ! +∞ [ X An ≤ p p(An ). n∈N

P

p(An ) converge alors

n=0

— Sous additivité : Si A1 , . . . , An sont des événements de T alors p(A1 ∪ · · · ∪ An ) ≤ p(A1 ) + · · · p(An ). — Une union au plus dénombrable d’ensembles négligeables est négligeable. Théorème 1.1 (Continuité monotone séquentielle d’une probabilité) Soient (Ω, T , p) un espace probabilisé et (An ) une suite d’événements de T . ! [ — Continuité croissante : Si la suite (An ) est croissante alors la suite (p(An )) converge et on a lim p(An ) = p An . n→+∞

n∈N

— Continuité décroissante : Si la suite (An ) est décroissante alors la suite (p(An )) converge et on a lim p(An ) = n→+∞ ! \ p An . n∈N

Exemples : — On lance une pièce non truqué une infinité de fois et on considère A l’événement : "On obtient face au moins une fois". Soit An , n ∈ N∗ l’événement "On obtient face au moins une fois dans les n[ premiers lancers" donc la suite des événe1 ments (An ) est croissante, ∀n ∈ N, p(An ) = 1 − p(An ) = 1 − 2n et A = An . n∈N ! [ On déduit que p(A) = p An = lim p(An ) = 1 donc A est un événement presque sûr. n∈N

— On lance un dé non truqué à 6 faces une infinité de fois et on considère A l’événement : "On n’obtient jamais de 6". Soit An , n ∈ N∗ l’événement "On n’obtient \ jamais de 6 dans les n premiers lancers" donc la suite des événements (An ) n est décroissante, p(An ) = 65n et A = An . n∈N ! \ On déduit que p(A) = p An = lim p(An ) = 0 donc A est un événement négligeable. n∈N

1.2

Événements indépendants, probabilité conditionnelle :

Définition 1.3 Soit (Ω, T , p) un espace probabilisé. — Deux événements A et B de T sont dits indépendants si p(A ∩ B) = p(A)p(B). Ñ — Une famille (Ai )i∈I d’événements de T est dite indépendante si ∀J ⊂ I finie, on a : p

é \

Aj

j∈J

=

Y

p(Aj ).

j∈J

Remarque : Soit (Ω, T , p) un espace probabilisé. ¯ sont indépendants. En effet, p(A ∩ B) ¯ = p(A \ (A ∩ — Si A et B sont deux événements indépendants de T alors A et B ¯ On déduit encore que A¯ et B ¯ sont indépendants. B)) = p(A) − p(A)p(B) = p(A)(1 − p(B)) = p(A)p(B). — Si (Ai )i∈I est une famille indépendante d’événements de T alors ses éléments sont deux à deux indépendants. La réciproque est fausse. — Soit A1 , . . . , An des événements de T . Si p(A1 ∩ · · · ∩ An ) = p(A1 ) · · · p(An ) alors la famille (A1 , . . . , An ) n’est pas forcément indépendante. www.mathlaayoune.webs.com

2 / 20

[email protected]

CPGE Laayoune

Lissane Eddine

Essaidi Ali

Exemples : — On lance un dé non truqué à 6 faces et soient les événements A = "Le nombre obtenu est divisible par 2" et B = "Le nombre obtenu est divisible par 3". On a A = {2, 4, 6}, B = {3, 6} et A ∩ B = {6} donc p(A)p(B) = 63 26 = 16 = p(A ∩ B) d’où les événements A et B sont indépendants. — On lance successivement 2 dés équilibrés et soient les événements A = "le nombre obtenu par le premier dé est pair", B = "le nombre obtenu par le deuxième dé est impair" et C = "les nombres obtenus par les deux dés ont même parité". on a p(A ∩ B) = 14 = p(A)p(B), p(B ∩ C) = 14 = p(B)p(C) et p(C ∩ A) = 14 = p(C)p(A) donc les événements A, B et C sont deux à deux indépendants mais la famille (A, B, C) n’est pas indépendante car p(A ∩ B ∩ C) = p(∅) = 0 6= 18 = p(A)p(B)p(C). Définition 1.4 Soient (Ω, T , p) un espace probabilisé et B un événement de T tel que p(B) 6= 0. On appelle probabilité sachant B, l’application notée pB et définie sur T par pB (A) = p(A∩B) p(B) . Pour tout événement A de T , pB (A) se lit "la probabilité de A sachant B". pB (A) se note aussi p(A|B). Remarques : Soient (Ω, T , p) un espace probabilisé et A, B deux événements de T avec p(B) 6= 0. — pB est une probabilité sur T . On la note aussi p( |B). p(A) . — Si A ⊂ B alors p(A|B) = p(B) — p(A ∩ B) = p(A|B)p(B). Si, en plus p(A) 6= 0 alors p(A ∩ B) = p(A|B)p(B) = p(B|A)p(A). ¯ = p(A). — A et B sont indépendants si, et seulement si, p(A|B) = p(A). Dans ce cas, p(A|B) = p(A|B) Définition 1.5 (Système complet d’événements) Soit (Ω, T , p) un espace probabilisé. On dit qu’une famille (Ai )i∈I d’événements de T forme un système complet d’événements de T si : 1. Ai ∩ Aj = ∅ pour tous i, j ∈ I tels que i 6= j. [ 2. Ai = Ω. i∈I

Théorème 1.2 Soient (Ω, T , p) un espace probabilisé, A un événement de T et (Bi )i∈I une famille au plus dénombrable qui forme un système complet d’événements X∈ I, p(Bi ) 6= 0. Xde T telle que ∀i p(A|Bi )p(Bi ). p(A ∩ Bi ) = — Probabilités totales : p(A) = i∈I

i∈I

— Formule de Bayes : Si p(A) 6= 0 alors ∀i ∈ I, p(Bi |A) =

p(A|Bi )p(Bi ) p(A|Bi )p(Bi ) =X . p(A) p(A|Bj )p(Bj ) j∈I

Exemple : On dispose de deux urnes u1 et u2 , u1 contient 2 boules blanches et 3 boules noires et u2 contient 3 boules blanches et 2 boules noires. On lance un dé non truqué, si le numéro obtenu est inférieur à 2, on tire une boule de l’urne u1 , sinon, on tire une boule de l’urne u2 et on suppose que les boules sont indiscernables au toucher. — Probabilité de tirer une boules blanche : On considère les événements B = "Tirer une boule blanche", U1 = "Choisir l’urne u1 " et U2 = "Choisir l’urne u2 ". On a p(B|U1 ) = 25 , p(B|U2 ) = 35 , p(U1 ) = 26 = 13 (U1 est aussi l’événement d’obtenir 1 ou 2 lors du lancer du dé) et p(U2 ) = 46 = 32 (U2 est aussi l’événement d’obtenir 3 ou 4 ou 5 ou 6 lors du lancer du dé ou encore U1 ). D’après la formule des probabilités totales p(B) = p(B ∩ U1 ) + p(B ∩ U2 ) = p(B|U1 )p(U1 ) + p(B|U2 )p(U2 ) = 21 32 8 5 3 + 5 3 = 15 . 1 ∩B) 1 )p(U1 ) — Probabilité d’avoir choisi l’urne U1 sachant que la boule tirée est blanche : On a p(U1 |B) = p(U = p(B|U = p(B) p(B) 2 1 15 1 = . 53 8 4

2

Variables aléatoires réelles, fonction de répartition : Dans toute la suite, (Ω, T , p) est un espace probabilisé.

2.1

Variables aléatoires réelles :

Définition 2.1 On appelle variable aléatoire réelle sur l’espace probabilisé (Ω, T , p) toute application X : Ω → R telle que ∀a ∈ R, X −1 (] − ∞, a]) = {ω ∈ Ω/X(ω) ≤ a} ∈ T . Notations : Soient X une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p) et a, b ∈ R tels que a ≤ b. www.mathlaayoune.webs.com

3 / 20

[email protected]

CPGE Laayoune

Lissane Eddine

Essaidi Ali

— ∀A ⊂ R, l’ensemble X −1 (A) = {ω ∈ Ω/X(ω) ∈ A} se note aussi (X ∈ A). — On a (X ∈] − ∞, a]) = X −1 (] − ∞, a]) ∈ T donc (X ∈] − ∞, a]) est un événement de T , on le note aussi (X ≤ a). — On a (X ∈]a, +∞[) = (X ≤ a)Å∈ T donc (Xã ∈]a, +∞[) est un événement de T , on le note aussi (X > a). \ 1 — On a (X ∈ [a, +∞[) = X >a− ∈ T donc (X ∈ [a, +∞[) est un événement de T , on le note aussi k ∗ k∈N

(X ≥ a). — On a (X ∈] − ∞, a[) = (X ≥ a) ∈ T donc (X ∈] − ∞, a[) est un événement de T , on le note aussi (X < a). — On a (X ∈]a, b]) = (X ≤ b) \ (X ≤ a) ∈ T donc (X ∈]a, b]) est un événement de T , on le note aussi (a < X ≤ b). — On a (X ∈ [a, b]) = (X ≤ b) \ (X < a) ∈ T donc (X ∈ [a, b]) est un événement de T , on le note aussi (a ≤ X ≤ b). — On a (X ∈ {a}) = (a ≤ X ≤ a) ∈ T donc (X ∈ {a}) est un événement de T , on le note aussi (X = a). — On a (X ∈ [a, b[) = (X < b) \ (X < a) ∈ T donc (X ∈ [a, b[) est un événement de T , on le note aussi (a ≤ X < b). — On a (X ∈]a, b[) = (X < b) \ (X ≤ a) ∈ T donc (X ∈]a, b[) est un événement de T , on le note aussi (a < X < b). Remarques : Soient X une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p). — Pour tout intervalle I de R, (X ∈ I) est un événement de T . — Généralement, si A est une partie de R obtenue par combinaison de passages au complémentaire, de réunions et intersections au plus dénombrables d’intervalles de R alors (X ∈ A) est un événement de T . — Si T = P(Ω) alors toute fonction de Ω vers R est une variable aléatoire réelle. Proposition 2.1 Si X1 , . . . , Xn sont des variables aléatoires réelles sur l’espace probabilisé (Ω, T , p) et f : Rn → R une application continue sur Rn alors l’application ω ∈ Ω 7→ f (X1 (ω), . . . , Xn (ω)) est une variable aléatoire réelle sur (Ω, T , p). On la note f (X1 , . . . , Xn ). Corollaire 2.2 Si X1 , . . . , Xn sont des variables aléatoires réelles sur l’espace probabilisé (Ω, T , p) et λ1 , . . . , λn ∈ R alors λ1 X1 + · · · + λn Xn , X1 · · · Xn , max(X1 , . . . , Xn ) et min(X1 , . . . , Xn ) sont des variables aléatoires réelles sur (Ω, T , p). Exemple : Si X et Y sont deux variables aléatoires réelles sur l’espace probabilisé (Ω, T , p) alors X − Y est une variable aléatoire réelle. En particulier, (X = Y ) = (X − Y = 0), (X ≤ Y ) = (X − Y ≤ 0) et (X < Y ) = (X − Y < 0) sont des événements de T . Proposition 2.3 Si X est une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p) et f : R → R monotone alors f ◦ X est une variable aléatoire réelle sur (Ω, T , p). On la note f (X). Remarque : Le résultat reste vrai si f est monotone par morceaux. Exemple : Si X est une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p) alors X 2 , sin(X) et E(X) sont des variables aléatoires réelles sur (Ω, T , p). Proposition 2.4 Soit (Xn ) une suite de variables aléatoires réelles sur l’espace probabilisé (Ω, T , p). Si (Xn ) converge simplement sur Ω vers une application X alors X est une variable aléatoire sur (Ω, T , p).

2.2

Fonction de répartition d’une variable aléatoire réelle :

Définition 2.2 Soit X une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p). On appelle fonction de répartition de X l’application, notée FX , de R vers R définie par ∀t ∈ R, FX (t) = p(X ≤ t). Propriété 2.1 Soit X une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p). Alors : — FX est croissante sur R. En particulier, FX admet en tout point une limite à droite et une limite à gauche. — FX est continue à droite sur R. Autrement dit, ∀t ∈ R, lim FX (u) = FX (t). u→t+

— —

lim FX (t) = 0.

t→−∞

lim FX (t) = 1.

t→+∞

Propriété 2.2 Soient X une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p) et a, b ∈ R tels que a ≤ b. Alors : — p(X > a) = 1 − FX (a). — p(X < a) = lim FX (t). t→a−

— p(X ≥ a) = 1 − lim− FX (t). t→a

— p(a < X ≤ b) = FX (b) − FX (a). — p(a ≤ X ≤ b) = FX (b) − lim− FX (t). t→a

— p(a ≤ X < b) = lim FX (t) − lim FX (t). t→b−

t→a−

— p(a < X < b) = lim− FX (t) − FX (a). t→b

— p(X = a) = FX (a) − lim− FX (t). t→a

www.mathlaayoune.webs.com

4 / 20

[email protected]

CPGE Laayoune

Lissane Eddine

Essaidi Ali

Remarque : Soit X une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p). La connaissance de la fonction de répartition de X permet de calculer p(X ∈ I) pour tout intervalle I de R. Corollaire 2.5 Soit X une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p). — FX est continue en a ∈ R si, et seulement si, p(X = a) = 0. — FX est continue sur R si, et seulement si, ∀x ∈ R, p(X = x) = 0. Notation : Soit (X1 , . . . , Xn ) une famille de variables aléatoires sur l’espace probabilisé (Ω, T , p) et (I1 , . . . , In ) une famille d’intervalles de R. L’événement (X1 ∈ I1 ) ∩ · · · ∩ (Xn ∈ In ) se note aussi (X1 ∈ I1 , . . . , Xn ∈ In ). Définition 2.3 Soit (X1 , . . . , Xn ) une famille finie de variables aléatoires réelles sur l’espace probabilisé (Ω, T , p). On appelle fonction de répartition de la famille (X1 , . . . , Xn ) l’application, notée FX1 ,...,Xn , de Rn dans R, définie par ∀(t1 , . . . , tn ) ∈ Rn , FX1 ,...,Xn (t1 , . . . , tn ) = p(X1 ≤ t1 , . . . , Xn ≤ tn ). Remarque : Si (X1 , . . . , Xn ) est une famille de variables aléatoires réelles sur l’espace probabilisé (Ω, T , p) alors la connaissance de la fonction de répartition FX1 ,...,Xn de la famille (X1 , . . . , Xn ) permet de calculer p(X1 ∈ I1 , . . . , Xn ∈ In ) pour tous intervalles I1 , . . . , In de R.

3 3.1

Loi d’une variable aléatoire réelle : Loi d’une variable aléatoire réelle :

Notation : On note I(R) l’ensemble de tous les intervalles de R. Définition 3.1 Soit X une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p). On appelle loi de X l’application I ∈ I(R) 7→ p(X ∈ I). Remarque : Si X est une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p) alors la connaissance de la fonction de répartition de X permet de déterminer la loi de X. On dit que la fonction de répartition de X caractérise la loi de X. En pratique, déterminer la loi de X revient à donner sa fonction de répartition. Définition 3.2 Soit (X1 , . . . , Xn ) une famille de variables aléatoires réelles sur l’espace probabilisé (Ω, T , p). n On appelle loi de la famille (X1 , . . . , Xn ) l’application (I1 , . . . , In ) ∈ (I(R)) 7→ p(X1 ∈ I1 , . . . , Xn ∈ In ). Remarque : Si (X1 , . . . , Xn ) est une famille de variables aléatoires réelles sur l’espace probabilisé (Ω, T , p) alors la connaissance de la fonction de répartition de la famille (X1 , . . . , Xn ) permet de déterminer la loi de (X1 , . . . , Xn ). On dit que la fonction de répartition de (X1 , . . . , Xn ) caractérise la loi de la famille (X1 , . . . , Xn ). En pratique, déterminer la loi de (X1 , . . . , Xn ) revient à donner sa fonction de répartition. Définition 3.3 Soient X une variable aléatoire réelle sur (Ω, T , p) et A ∈ T tel que p(A) 6= 0. On appelle loi conditionnelle de X sachant l’événement A, l’application I ∈ I(R) 7→ p((X ∈ I)|A) =

p((X ∈ I) ∩ A) . On p(A)

la note (pA )X .

3.2

Variables aléatoires réelles de lois discrètes :

Définition 3.4 Une variable aléatoire réelle X sur l’espace probabilisé (Ω, T , p) est dite de loi discrète s’il existe Ω0 ∈ T tel que p(Ω0 ) = 1 et D = X(Ω0 ) soit au plus dénombrable. Remarques : Soit X une variable aléatoire de loi discrète sur l’espace probabilisé (Ω, T , p) et Ω0 ∈ T tel que p(Ω0 ) = 1 et D = X(Ω0 ) au plus dénombrable. ! [ X — ∀I ∈ I(R), p(X ∈ I) = p(X ∈ I ∩ D) = p (X = x) = p(X = x). x∈I∩D

x∈I∩D

— On peut supprimer de D tous les éléments x tels que p(X = x) = 0, les x restants sont appelés les valeurs possibles de X. — La loi de X est caractérisée par la donnée de l’ensemble D0 des valeurs possibles et de l’application x ∈ D0 7→ p(X = x). Exemples de lois discrètes usuelles : Soit X une variable aléatoire de loi discrète sur l’espace probabilisé (Ω, T , p). — Loi uniforme : On dit que X suit la loi uniforme de paramètre n ∈ N∗ si X prend ses valeurs dans {1, . . . , n} et ∀k ∈ {1, . . . , n}, p(X = k) = n1 . On note X ,→ U(n). Exemple : Jeu de dé : on lance un dé équilibré et soit X la valeur obtenue alors X ,→ U(6). www.mathlaayoune.webs.com

5 / 20

[email protected]

CPGE Laayoune

Lissane Eddine

Essaidi Ali

— Loi de Bernoulli : On dit que X suit la loi de Bernoulli de paramètre p ∈ [0, 1] si X prend deux valeurs 1 (succès) et 0 (échec) avec p(X = 1) = p et p(X = 0) = 1 − p. On note X ,→ B(p). Exemple : Jeu de pile ou face : on lance une pièce et soit X égale à 1 si on obtient pile et 0 si on obtient face, alors X ,→ B(p) où p est la probabilité d’obtenir pile. — Loi binomiale : On dit que X suit la loi de binomiale de paramètres n ∈ N et p ∈ [0, 1] si X prend ses valeurs dans {0, . . . , n} et ∀k ∈ {0, . . . , n}, p(X = k) = Cnk pk (1 − p)n−k . On note X ,→ B(n, p). Exemple : Jeu de pile ou face fini : on lance une pièce n fois et soit X le nombre de piles obtenus, alors X ,→ B(n, p) où p est la probabilité d’obtenir pile. — Loi géométrique : On dit que X suit la loi géométrique de paramètre p ∈]0, 1[ si X prend ses valeurs dans N∗ et ∀n ∈ N∗ , p(X = n) = p(1 − p)n−1 . On note X ,→ G(p). Exemple : Jeu de pile ou face infini : on lance une pièce une infinité de fois et soit X le rang du premier pile obtenu, alors X ,→ G(p) où p est la probabilité d’obtenir pile. — Loi de Poisson : On dit que X suit la loi Poisson de paramètre λ > 0 si X prend ses valeurs dans N et ∀n ∈ N, p(X = n n) = e−λ λn! . On note X ,→ P(λ). Exemple : On change une ampoule à chaque fois qu’elle tombe en panne et soit X le nombre de fois qu’on a dû changer l’ampoule pendant une durée de temps t. Si λ est le nombre moyen des ampoules changées alors X ,→ P(λ). Exemples de calcul de la loi de la variable aléatoire   réelle Y = f (X) pour une variable aléatoire réelle X de loi discrète : — Soit p ∈ [0, 1] et X ,→ G(p). Loi de Y = X 2 : On a Y prend ses valeurs dans N donc Y est  une variable aléatoire de loi discrète. Soit k ∈ N.   = 0 = p(X = 1) = p. — Si k = 0 alors p(Y = k) = p X 2    — Si k ≥ 1 alors p(Y = k) = p X 2 = 0 = p((X = 2k) ∪ (X = 2k + 1)) = p(X = 2k) + p(X = 2k + 1) = p(1 − p)2k−1 + p(1 − p)2k = p(2 − p)(1 − p)2k−1ß. p si k = 0 La loi de Y est alors donnée par ∀k ∈ N, p(Y = k) = . p(2 − p)(1 − p)2k−1 si k ≥ 1 — Soit λ > 0 et X ,→ P(λ). Loi de Y = cos(πX) : On a Y prend ses valeurs dans {−1, 1} donc Y est une variable aléatoire de loi discrète. — On a p(Y = 1) = p(X ∈ 2N) =

+∞ X

p(X = 2n) =

n=0

— On a p(Y = −1) = p(X ∈ 2N + 1) =

+∞ X n=0

+∞ X

e−λ

λ2n = e−λ ch(λ). (2n)!

p(X = 2n + 1) =

n=0

+∞ X n=0

e−λ

λ2n+1 = e−λ sh(λ). (2n + 1)!

La loi de Y est alors donnée par p(Y = 1) = e−λ ch(λ) et p(Y = −1) = e−λ sh(λ). En particulier, Y 2+1 ,→ B(e−λ ch(λ)). Remarques : Soit (X, Y ) un couple de variables aléatoires réelles de lois discrètes sur l’espace probabilisé (Ω, T , p). — La loi du couple (X, Y ) est caractérisée par la donnée des ensembles D et D0 des valeurs possibles de X et Y respectivement et de la fonction (x, y) ∈ D × D0 7→ p(X = x, Y = y). Cette loi s’appelle aussi la loi conjointe du couple (X, Y ) et les lois de X et Y s’appellent les lois marginales du couple (X, Y ). X — Pour déterminer les lois de X et Y on utilise les formules : ∀x ∈ D, p(X = x) = p(X = x, Y = y) et y∈D 0

X

0

∀y ∈ D , p(Y = y) =

p(X = x, Y = y).

x∈D

Exemple : On lance simultanément deux dés et soit X le plus grand nombre obtenu et Y le plus petit. — Loi conjointe du couple (X, Y ) : Soient i, j ∈ {1, . . . , 6}. — Si i < j alors p(X = i, Y = j) = 0 car X ≥ Y . 1 car on a un seul choix (i, i) (avoir la même valeur i pour les deux dés). — Si i = j alors p(X = i, Y = j) = 36 2 1 — Si i < j alors p(X = i, Y = j) = 36 = 18 car on a seulement deux choix (i, j) ou (j, i). 6 i X X — Loi de X : Soit i ∈ {1, . . . , 6}. On a p(X = i) = p(X = i, Y = j) = p(X = i, Y = j) = p(X = i, Y = j=1

i) +

i−1 X

p(X = i, Y = j) =

j=1

j=1

1 i−1 2i − 1 + = . 36 18 36

— Loi de Y : Soit j ∈ {1, . . . , 6}. On a p(Y = j) =

6 X

p(X = i, Y = j) =

i=1

j) +

6 X

p(X = i, Y = j) =

i=j+1

www.mathlaayoune.webs.com

6 X

p(X = i, Y = j) = p(X = j, Y =

i=j

1 6−j 13 − 2j + = . 36 18 36

6 / 20

[email protected]

CPGE Laayoune

3.3

Lissane Eddine

Essaidi Ali

Variables aléatoires réelles de lois continues :

Définition 3.5 Une variable aléatoire réelle X sur l’espace probabilisé (Ω, T , p) est dite de loi à densité ou de loi continue si sa fonction de répartition FX est continue sur R et de classe C 1 sur R privé d’un sous-ensemble F fini ou vide. Dans ce cas, on appelle densité de X l’application notée fX et définie sur R par : ß 0 FX (t) si t ∈ /F ∀t ∈ R, fX (t) = 0 si t ∈ F Remarque : Si X est une variable aléatoire réelle de loi continue sur l’espace probabilisé (Ω, T , p) alors ∀a, b ∈ R avec a ≤ b : — p(X = a) = 0. — p(X ≤ a) = p(X < a) = FX (a). — p(X ≥ a) = p(X > a) = 1 − FX (a). — p(a ≤ X ≤ b) = p(a < X ≤ b) = p(a < X < b) = p(a ≤ X < b) = FX (b) − FX (a). Propriété 3.1 Si X est une variable aléatoire réelle de loi à densité sur l’espace probabilisé (Ω, T , p) alors : 1. fX est positive et continue sur R privé d’un sous-ensemble fini ou vide. Z Z 2. L’intégrale fX (t)dt converge et on a fX (t)dt = 1. R

R

Z 3. ∀I ∈ I(R), p(X ∈ I) = FX (b) − FX (a) =

b

fX (t)dt avec a = inf I et b = sup I. a

Remarque : Si X est une variable aléatoire réelle de loi à densité sur l’espace probabilisé (Ω, T , p) alors la connaissance de la fonction de densité de X permet de déterminer la loi de X. On dit que la fonction de densité de X caractérise la loi de X. En pratique, déterminer la loi de X revient à donner sa fonction de densité. Exemples de lois à densité usuelles : Soit X une variable aléatoire réelle de loi à densité sur l’espace probabilisé (Ω, T , p). — Loi uniforme : On dit que X suit la loi uniforme sur l’intervalle [a, b] si sa fonction de densité est :

fX (t) =

  

1 b−a

 

0

si t ∈ [a, b] sinon

Dans ce cas, on note X ,→ U(a, b). — Loi exponentielle : On dit que X suit la loi exponentielle de paramètre λ > 0 si sa fonction de densité est :   λe−λt si t ≥ 0 fX (t) =  0 sinon Dans ce cas, on note X ,→ E(λ). — Loi gamma : On dit que X suit la loi gamma de paramètres α > 0 et λ > 0 si sa fonction de densité est :  λα −λt α−1   e t si t > 0  Γ(α) fX (t) =    0 sinon Dans ce cas, on note X ,→ Γ(α, λ). — Loi gaussienne : On dit que X suit la loi gaussienne ou la loi normale de paramètres m ∈ R et σ > 0 si sa fonction de densité est : (t−m)2 1 fX (t) = √ e− 2σ2 σ 2π Dans ce cas, on note X ,→ N (m, σ 2 ). Remarques : — La loi Γ(1, λ) est la loi E(λ). X −m — Si X ,→ N (m, σ 2 ) alors ,→ N (0, 1). N (0, 1) s’appelle la loi normale centrée réduite ou la loi gaussienne σ standard. Exemples de calcul de la loi de la variable aléatoire réelle Y = f (X) pour une variable aléatoire réelle X de loi continue :

www.mathlaayoune.webs.com

7 / 20

[email protected]

CPGE Laayoune

Lissane Eddine

Essaidi Ali

— Soit λ > 0 et X ,→ E(λ). Loi de Y = 3X :   Soit t ∈ R. On a FY (t) = p(Y ≤ t) = p(3X ≤ t) = p X ≤ 3t = FX 3t , or FX est continue sur R et de classe C 1 sur R∗ donc FY est continue sur R et de classe C 1 sur R∗ . On déduit que Y est de loi à densité et on a 1 λ − λt t t λ 0 3 1 ∀t ∈ R∗ , FY0 (t) = 13 FX ]0,+∞[ (t) d’où Y ,→ E 3 . 3 donc ∀t ∈ R, fY (t) = 3 fX 3 = 3 e 2 — Soit X ,→ N (0, 1). Loi de Y = X : Soit t ∈ R. — Si t ≤ 0 alors FY (t) = p(Y ≤ t) = p(X 2 ≤ t) = 0. √ √ √ √ — Si t > 0 alors FY (t) = p(Y ≤ t) = p(X 2 ≤ t) = p(− t ≤ X ≤ t) = FX ( t) − FX (− t). On a FX de classe C 1 sur R donc FY est continue sur R et de classe C 1 sur R∗ d’où Y est de loi à densité. — Si t < 0 alors fY (t) = FY0 (t) = 0. √ 0 √ √ √ √ 1 1 — Si t > 0 alors fY (t) = FY0 (t) = FX ( t) − FX (− t) = 2√ f ( t) + 2√ f (− t) = √1t fX (− t) car fX t X t X t √ 1 e− 2 . 2πt t √ 1 e− 2 1]0,+∞[ (t) 2πt

est paire donc fY (t) = On déduit que fY (t) =

4 4.1

donc Y ,→ Γ

1 1 2, 2



.

Variables aléatoires réelles indépendantes : Variables aléatoires réelles indépendantes :

Définition 4.1 Une famille (Xj )j∈J de variables aléatoires réelles sur l’espace probabilisé (Ω, T , p) est dite indépendante ou mutuellement indépendante si, pour toute famille (Ij )j∈J d’intervalles de R, la famille des événements (Xj ∈ Ij )j∈J de T est indépendante. Remarques : — Deux variables aléatoires réelles X et Y sur l’espace probabilisé (Ω, T , p) sont indépendantes si ∀I, J ∈ I(R), p(X ∈ I, Y ∈ J) = p(X ∈ I)p(Y ∈ J). — Une famille (Xj )j∈J de variables aléatoires réelles sur l’espace probabilisé (Ω, T!, p) est indépendante si ∀K ⊂ J fini \ Y non vide et pour toute famille (Ik )k∈K d’intervalles de R on a p (Xk ∈ Ik ) = p(Xk ∈ Ik ). k∈K

k∈K

— Les éléments d’une famille indépendante de variables aléatoires sont deux à deux indépendants. La réciproque est fausse. — L’indépendance d’une famille de variables aléatoires réelles est relative la probabilité donnée. Exemple : Loi Min, loi Max : Soient (X1 , . . . , Xn ) une famille indépendantes de variables aléatoires réelles sur l’espace probabilisé (Ω, T , p). — Loi de M = max(X1 , . . . , Xn ) : Soit t ∈ R donc FM (t) = p(M ≤ t) = p(X1 ≤ t, . . . , Xn ≤ t) = p(X1 ≤ t) · · · p(Xn ≤ t) = FX1 (t) · · · FXn (t). En particulier, si X1 , . . . , Xn sont de lois continues alors il en est de même pour M et on a fM (t) = fX1 (t)FX2 (t) · · · FXn (t)+ FX1 (t)fX2 (t)FX3 (t) · · · FXn (t) + · · · + FX1 (t) · · · FXn−1 (t)fXn (t). — Loi de m = min(X1 , . . . , Xn ) : Soit t ∈ R. On a 1−Fm (t) = p(m > t) = p(X1 > t, . . . , Xn > t) = p(X1 > t) · · · p(Xn > t) = (1−FX1 (t)) · · · (1− FXn (t)) donc Fm (t) = 1 − (1 − FX1 (t)) · · · (1 − FXn (t)). En particulier, si X1 , . . . , Xn sont de lois continues alors il en est de même pour m et on a fm (t) = fX1 (t)(1 − FX2 (t)) · · · (1−FXn (t))+(1−FX1 (t))fX2 (t)(1−FX3 (t)) · · · (1−FXn (t))+· · ·+(1−FX1 (t)) · · · (1−FXn−1 (t))fXn (t). Proposition 4.1 (Indépendance héritée) Soit (Xi )1≤i≤n une famille indépendante de variables aléatoires réelles sur l’espace probabilisé (Ω, T , p). Si n0 , n1 , . . . , nk ∈ N tels que 0 = n0 < n1 < · · · < nk−1 < nk = n et ∀i ∈ {1, . . . , k}, fi : Rni −ni−1 → R continue alors la famille (f1 (X1 , . . . , Xn1 ), f2 (Xn1 +1 , . . . , Xn2 ), . . . , fk (Xnk−1 +1 , . . . , Xnk )) est indépendante. Exemples : — Si (X, Y, Z, T, U ) est une famille indépendante de variables aléatoires alors la famille (X 2 , Y +Z, T U ) est indépendante. — Si X et Y sont deux variables aléatoires indépendantes alors les variables X 2 et cos(Y ) sont indépendantes. X1 + · · · + Xn et Xn+1 sont — Si (X1 , . . . , Xn+1 ) est une famille indépendante de variables aléatoires alors les variables n indépendantes. Exemples de calcul de la loi de Y = g(X1 , . . . , Xn ) pour une famille indépendantes (X1 , . . . , Xn ) de variables aléatoires :  Y — Soient X, Y deux variables aléatoires indépendantes avec X ,→ B n, 12 et Y ,→ E(1). Loi de Z = X+1 : Å ã n X Y Soit t ∈ R. On a FZ (t) = p(Z ≤ t) = p ≤ t = p(Y ≤ t(X + 1)) = p(X ≤ (k + 1)t, Y = k) = X +1 k=0

www.mathlaayoune.webs.com

8 / 20

[email protected]

CPGE Laayoune

n X

Lissane Eddine

Essaidi Ali

p(X ≤ (k + 1)t)p(Y = k) car X et Y sont indépendante d’où FZ (t) =

k=0

n X

FX (t(k + 1))p(Y = k). On a FX

k=0

continue sur R et C 1 sur R∗ donc FZ est continue sur R et C 1 sur R∗ d’où Z est de loi continue. Z (k+1)t Z (k+1)t — Si t < 0 alors ∀k ∈ {0, . . . , n}, FX ((k + 1)t) = fX (u)du = 0du = 0 donc FZ (t) = 0 d’où −∞

fZ (t) = FZ0 (t) = 0.

Z

(k+1)t

— Si t > 0 alors ∀k ∈ {0, . . . , n}, FX ((k + 1)t) = FZ (t) =

n X

−(k+1)t

(1 − e

)p(Y = k) =

k=0

n X

−∞

Z

(k+1)t

fX (u)du = −∞

p(Y = k) −

k=0

n X

e−u du = 1 − e−(k+1)t donc

0

e

−(k+1)t

p(Y = k) = 1 −

k=0

n e−t X k −kt e−t 1− n Cn e = 1 − n (1 + e−t )n d’où fZ (t) = FZ0 (t) = 2 2

n X

e−(k+1)t Cnk

k=0 −t

e 2n

1 = 2n

(1 + (n + 1)e−t )(1 + e−t )n−1 .

k=0

−t

On déduit que fZ (t) = e2n (1 + (n + 1)e−t )(1 + e−t )n−1 1]0,+∞[ (t).  — Soit X et Y deux variables aléatoires indépendantes telles que X ,→ N (0, 1) et Y 2+1 ,→ B 12 (Autrement dit, p(Y = −1) = p(Y = 1) = 12 ). Loi de Z = XY : Soit t ∈ R. On a FZ (t) = p(Z ≤ t) = p(XY ≤ t) = p(X ≤ t, Y = 1) + p(X ≥ −t, Y = −1) = p(X ≤ t)p(Y = 1) + p(X ≥ −t)p(Y = −1) = 12 FX (t) + 21 (1 − FX (−t)), or FX est de classe C 1 sur R donc FZ est de classe C 1 sur R d’où Z est de loi continue et on a ∀t ∈ R, fZ (t) = FZ0 (t) = 21 fX (t) + 12 fX (−t) = fX (t) car fX est paire. On déduit que Z ,→ N (0, 1).

4.2

Loi de la somme de deux variables aléatoires réelles indépendantes :

Proposition 4.2 Si (X1 , X2 ) est un couple de variables aléatoires réelles sur (Ω, T , p) indépendantes, de lois discrètes et d’ensembles de valeurs possibles respectives D1 et D2 alors : — La variables aléatoire S = X1 + X2 est de loi discrète. — L’ensemble des valeursX possibles de S est D = {u + v/(u, v) X∈ D1 × D2 }. — ∀s ∈ D, p(S = s) = p(X1 = u)p(X2 = s − u) = p(X1 = s − v)p(X2 = v). Cette formule s’appelle la u∈D1

v∈D2

convolution discrète des lois de X1 et X2 . Exemples : / {0, . . . , n}. — Stabilité de la loi binomiale : On convient que ∀k, n ∈ N, Cnk = 0 si k ∈ Soient m, n ∈ N, p ∈ [0, 1], X ,→ B(m, p) et Y ,→ B(n, p) indépendantes. La variable aléatoire S = X + Y est de loi discrète et d’ensemble des valeurs possibles {0, . . . , n + m}. Soit k ∈ {1, . . . , n + m}, on a : m m m X X X u u u k−u p(S = k) = p(X = u)p(Y = k−u) = Cm p (1−p)n−u Cnk−u pk−u (1−p)m−k+u = pk (1−p)n+m−u Cm Cn . u=0 u=0 u=0 ! n ! n+m m X X X n+m s s n+m m n s s s s Or, (X + 1) = Cn+m X et (X + 1) = (X + 1) (X + 1) = Cm X Cn X = s=0 s=0 s=0 ! n+m s m X X X u s−u u k−u k Cm Cn X s donc, par identification, Cm Cn = Cn+m . s=0

u=0

u=0

k On déduit que p(S = k) = Cn+m pk (1 − p)n+m−k donc S ,→ B(m + n, p). — Stabilité de la loi de Poisson : Soient λ > 0, µ > 0, X ,→ P(λ) et Y ,→ P(µ) indépendantes. La variable aléatoire S = X + Y est de loi discrète et d’ensemble des valeurs possibles N. Soit n ∈ N, on a : n n +∞ n n−k k X X X X λk µn−k −µ µ −(λ+µ) −(λ+µ) 1 −λ λ e =e =e Ckn λk µn−k = p(S = n) = p(X = k)p(Y = n−k) = e k! (n − k)! k!(n − k)! n! k=0 k=0 k=0 k=0 n −(λ+µ) (λ + µ) e . n! On déduit que S ,→ P(λ + µ).

Proposition 4.3 Si (X, Y ) un couple de variables aléatoires réelles sur (Ω, T , p) indépendantes avec : — X de loi discrète et d’ensemble de valeurs possibles D. — Y de loi continue et de densité fY . Alors : — La variables aléatoire S = X + Y est de loi àX densité. — La fonction de densité de S est fS : t ∈ R 7→ p(X = u)fY (t − u). u∈D

www.mathlaayoune.webs.com

9 / 20

[email protected]

CPGE Laayoune

Lissane Eddine

Essaidi Ali

Exemple : Soient p ∈ [0, 1], λ > 0, X ,→ B(p) et Y ,→ E(λ) indépendantes. La variable aléatoire S = X + Y est de loi à densité et on a ∀t ∈ R :   (1 − p)λe−λt + pλe−λ(t−1) fS (t) = p(X = 0)fY (t) + p(X = 1)fY (t − 1) = (1 − p)fY (t) + pfY (t − 1) = (1 − p)λe−λt  0  λ −λt si t ≥ 1  (1 − p + pe )λe (1 − p)λe−λt si t ∈ [0, 1[ . On déduit que la fonction de densité de S est ∀t ∈ R, fS (t) =  0 si t < 0

si t ≥ 1 si t ∈ [0, 1[ si t < 0

Proposition 4.4 Si (X, Y ) est un couple de variables aléatoires réelles indépendantes de lois continues et de densités respectives fX et fY alors : — La variables aléatoire S = X + Y est de loi à densité. Z Z +∞

— La fonction de densité de S est fS : t ∈ R 7→ produit de convolution des fonctions de densité

+∞

fX (u)fY (t − u)du = −∞ fX et

fX (t − u)fY (u)du, on l’appelle le −∞

fY .

Exemples : — Loi Gamma comme somme de lois exponentielles : Soient λ > 0 et X, Y ,→ E(λ) indépendantes. La variable Z aléatoire S = X + Y est de loi Z à densité et on a ∀t ∈ R : Z +∞

+∞

fX (u)fY (t−u)du = λ2 e−λu 1[0,+∞[ (u)e−λ(t−u) 1[0,+∞[ (t−u)du = λ2 e−λt −∞ −∞ Z t 2 −λt u)du = λ e 1[0,+∞[ (u)du = λ2 te−λt 1[0,+∞[ (t). On déduit que S ,→ Γ(2, λ).

+∞

1[0,+∞[ (t−

fS (t) =

0

−∞

— Stabilité de la loi gaussienne : Soient X ,→ N (0, σ1 ) et Y ,→ N (0, σ2 ) indépendantes donc la variable aléatoire S = X + Y est de loi continue et on a :   Z +∞ Z +∞ 1 t2 (x−t)2 + −2 − 12 t2 − 12 (x−t)2 1 1 1 2 2 σ σ 1 2 √ dt ∀x ∈ R, fS (x) = dt = e e 2σ1 √ e 2σ2 2πσ1 σ2 −∞ 2πσ1 2πσ2 −∞ Donc :

(x − t)2 t2 + σ12 σ22

=

1 (t2 σ22 + (x − t)2 σ12 ) σ12 σ22

=

1 (t2 (σ12 + σ22 ) − 2xtσ12 + x2 σ12 ) σ12 σ22

=

σ12 + σ22 σ12 σ22

Å t2 − 2xt

=

σ12 + σ22 σ12 σ22

ÇÅ t−x

= = 2

σ1 σ1 σ2 On pose a = x σ2 +σ 2 et b = √ 2 1

2

σ1 +σ22

fS (x)

=

=

=

σ12 σ2 + x2 2 1 2 2 2 σ1 + σ2 σ1 + σ2

σ12 σ12 + σ22

ã2

ã

σ14 σ12 2 −x + x (σ12 + σ22 )2 σ12 + σ22

å

2

ÇÅ å ã2 σ12 + σ22 σ12 σ12 σ22 2 t−x 2 +x σ12 σ22 σ1 + σ22 (σ12 + σ22 )2 Å ã 2 2 2 2 2 x σ σ1 + σ2 t−x 2 1 2 + 2 2 2 σ1 σ2 σ1 + σ2 σ1 + σ22 (x − t)2 1 t2 x2 2 + = d’où : (t − a) + σ12 σ22 b2 σ12 + σ22 Z +∞ x2 − 12 (t−a)2 − 1 2(σ 2 +σ 2 ) 1 2 dt e 2b 2πσ1 σ2 −∞

donc

1 p

2π(σ12 + σ22 ) 1

p

2π(σ12 + σ22 )

e

e





x2 2(σ 2 +σ 2 ) 1 2



1 2πb

Z

+∞

1

2

e− 2b2 (t−a) dt

−∞

x2 2(σ 2 +σ 2 ) 1 2

Z +∞ 2 1 1 e− 2b2 (t−a) dt = 1 (loi N (a, b2 )). 2πb −∞ On déduit que X + Y ,→ N (0, σ12 + σ22 ).

Car √

www.mathlaayoune.webs.com

10 / 20

[email protected]

CPGE Laayoune

Lissane Eddine

Essaidi Ali

Généralement, si X ,→ N (m1 , σ1 ) et Y ,→ N (m2 , σ2 ) indépendantes alors X − m1 ,→ N (0, σ1 ) et Y − m2 ,→ N (0, σ2 ) donc X + Y − (m1 + m2 ) ,→ N (0, σ12 + σ22 ) d’où X + Y ,→ N (m1 + m2 , σ12 + σ22 )

5

Espérance et moments :

5.1

Espérance :

Définition 5.1 Soit X une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p). — Si X est de loi discrète et d’ensemble de valeurs possiblesX D alors on dit que X admet une espérance si la famille (kp(X = k))k∈D est sommable. Dans ce cas, le nombre kp(X = k) s’appelle l’espérance de X et on le note k∈D

E(X). — Si X est de loi continue alors on dit que X admet une espérance si l’application t 7→ tf (t) est intégrable sur R. Dans Z +∞ ce cas, le nombre tfX (t)dt s’appelle l’espérance de X et on le note E(X). −∞

Remarques : — Si X est une variable aléatoire de loi discrète sur l’espace probabilisé (Ω, T , p) qui admet une espérance alors la valeur de E(X) ne dépend pas de l’ordre de sommation. — Espérance d’une constante : Soit a ∈ R. Si X = a alors p(X = a) = 1 donc E(X) = ap(X = a) = a. En particulier, E(1) = 1. Espérances des variables aléatoires réelles de lois usuelles : — Cas des lois discrètes : — Loi uniforme : Si X ,→ U(n) alors : E(X) =

n X

kp(X = k) =

k=1

n X n+1 k = n 2

k=1

— Loi de Bernoulli : Si X ,→ B(p) alors : E(X) = 1p(X = 1) + 0p(X = 0) = p — Loi de binomiale : Si X ,→ B(n, p) alors : E(X)

=

n X

kp(X = k)

=

k=0

=

np

n X

k−1 k−1 Cn−1 p (1 − p)n−k

n X

kCnk pk (1 − p)n−k

k=0 n−1 X

= np

k=1

n X

=

k−1 k nCn−1 p (1 − p)n−k

k=1 k Cn−1 pk (1 − p)n−1−k

= np(p + (1 − p))n−1 = np

k=0

∗ k−1 — Loi donc la série P de géométrique : Soit X ,→ G(p) avec p ∈]0, 1[. On a ∀k ∈ N , kp(X = k) = kp(1 − p) kp(X = k) est absolument convergente d’où la famille (kp(X = k)) est sommable. On déduit que X admet une espérance et on a :

E(X) =

+∞ X

kp(X = k) =

k=1

+∞ X

k−1

kp(1 − p)

k=1

=p

+∞ X k=1

k(1 − p)k−1 =

p 1 = (1 − (1 − p))2 p k

k−1

λ donc la série — Loi de Poisson : Soit X ,→ P(λ) avec λ > 0. On a ∀k ∈ N∗ , kp(X = k) = ke−λ λk! = λe−λ (k−1)! P kp(X = k) est absolument convergente d’où la famille (kp(X = k)) est sommable. On déduit que X admet une espérance et on a :

E(X) =

+∞ X

+∞ X

kp(X = k) =

k=0

k=0

ke−λ

+∞

+∞

k=1

k=0

X λk−1 X λk λk = λe−λ = λe−λ = λe−λ eλ = λ k! (k − 1)! k!

— Cas des lois continues : — Loi uniforme : Si X ,→ U(a, b) alors : Z E(X) = a

www.mathlaayoune.webs.com

b

 2 b t 1 b2 − a 2 a+b dt = t a= = b−a 2(b − a) 2(b − a) 2

11 / 20

[email protected]

CPGE Laayoune

Lissane Eddine

Essaidi Ali

— Loi exponentielle : Soit X ,→ E(λ) avec λ > 0. L’application t 7→ λte−λt est intégrable sur [0, +∞[ donc X admet une espérance et on a : alors : +∞

Z

1 λ

λte−λt dt =

E(X) = 0

Z

+∞

0

λ2 2−1 −λt 1 t e dt = car Γ(2) λ

Z

+∞

0

λ2 2−1 −λt t e dt = 1(loi Γ(2, λ)) Γ(2)

— Loi gamma : Soit X ,→ Γ(α, λ) avec α, λ > 0. L’application t 7→ te−λt tα−1 est intégrable sur ]0, +∞[ donc X admet une espérance et on a : : Z

+∞

α λα −λt α−1 te t dt = Γ(α) λ

E(X) = 0

Z

+∞

Car 0

+∞

Z 0

λα+1 −λt (α+1)−1 α e t dt = Γ(α + 1) λ

λα+1 −λt (α+1)−1 e t dt = 1 (loi Γ(α + 1, λ)). Γ(α + 1)

— Lois gaussiennes : Soit X ,→ N (m, σ 2 ) avec m ∈ R et σ > 0. L’application t 7→ te− donc X admet une espérance et on a : Z E(X)

+∞

= −∞

1 √ σ 2π

=

Z

+∞

e−

(t−m)2 2σ 2

est intégrable sur R

(t−m)2 1 √ te− 2σ2 dt σ 2π

Z

+∞

(t − m)e



(t−m)2 2σ 2

−∞

m dt + √ σ 2π

Z

+∞

e−

(t−m)2 2σ 2

dt

−∞

Z +∞ ò+∞ ï (t−m)2 (t−m)2 σ m √ + √ e− 2σ2 e− 2σ2 dt = m 2π σ 2π −∞ −∞

= 1 Car √ σ 2π

(t−m)2 2σ 2

dt = 1 (loi N (m, σ 2 )).

−∞

Théorème 5.1 (Théorème de transfert) Soit X une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p) et g : X(Ω) → R telle que Y = g(X) soit une variable aléatoire. — Si X est de loi discrète et d’ensemble de valeurs possibles D alors Y admet une espérance si, et seulement si, la famille X (g(k)p(X = k))k∈D est sommable. Dans ce cas, E(Y ) = g(k)p(X = k). k∈D

— Si X est de loi continue alors Y admet une espérance si, et seulement si, l’application t 7→ g(t)fX (t) est intégrable sur Z +∞ R. Dans ce cas, E(Y ) = g(t)fX (t)dt. −∞

Exemples : — Soit λ > 0, X ,→ P(λ) et Y = E(Y ) =

+∞ X k=0

1 X+1

: La famille

Ä

1 −λ λk k+1 e k!

ä

est sommable donc Y admet une espérance et on a :

+∞ +∞ e−λ X λk+1 e−λ X λk e−λ λ 1 − e−λ 1 −λ λk e = = = (e − 1) = k+1 k! λ (k + 1)! λ k! λ λ k=0

k=1

— Soit λ > 0, X ,→ E(λ) et Y = X 2 : L’application t 7→ λt2 e−λt 1[0,+∞[ (t) est intégrable sur R donc Y admet une espérance et on a : Z E(Y ) = 0

+∞

t2 λe−λt dt =

2 car λ2

Z 0

+∞

λ3 3−1 −λt t e dt = 1 (loi Γ(3, λ)) Γ(3)

Remarque : Le théorème de transfert permet de calculer l’espérance de Y = g(X) à l’aide de la loi de X et sans avoir à déterminer celle de de Y . Théorème 5.2 Théorème de transfert à deux variables aléatoires de lois discrètes Soit X, Y deux variables aléatoires réelles de lois discrètes sur l’espace probabilisé (Ω, T , p), d’ensembles des valeurs possibles respectives D et D0 et g : (X, Y )(Ω) → R telle que Z = g(X, Y ) soit une variable aléatoire. Z admet une espérance si, et seulement si, la famille (g(x, y)p(X = x, Y = y))(x,y)∈D×D0 est sommable. X Dans ce cas, E(Z) = g(x, y)p(X = x, Y = y). (x,y)∈D×D 0

www.mathlaayoune.webs.com

12 / 20

[email protected]

CPGE Laayoune

Lissane Eddine

Essaidi Ali

Exemple : On lance simultanément deux dés équilibrés et soit X le produit des deux nombres obtenus. On pose U le nombre obtenu par le premier dé et V celui du deuxième. !2 6 6 6 X 1 X 49 1 X 62 × 72 On a E(X) = E(U V ) = ijp(U = i, V = j) = = . ij = i = 36 36 4 × 36 4 i,j=1 i,j=1 i=1 Proposition 5.1 Soit X, Y deux variables aléatoires réelles de lois discrètes ou continues sur l’espace probabilisé (Ω, T , p). Si Y admet une espérance et |X| ≤ Y alors X admet une espérance et on a E(X) ≤ E(Y ). Propriété 5.1 Propriétés de l’espérance Soit X, Y deux variables aléatoires réelles de lois discrètes ou continues sur l’espace probabilisé (Ω, T , p). Si X et Y possèdent une espérance alors : — Linéarité : ∀α, β ∈ R, αX + βY possède une espérance et on a E(αX + βY ) = αE(X) + βE(Y ). — Positivité : Si X est positive alors E(X) ≥ 0. — Croissance : Si X ≤ Y alors E(X) ≤ E(Y ) — Inégalité triangulaire : E(|X + Y |) ≤ E(|X|) + E(|Y |). — Produit : Si X et Y sont indépendants alors XY possède une espérance et on a E(XY ) = E(X)E(Y ). Remarques : Soit X, Y deux variables aléatoires réelles sur l’espace probabilisé (Ω, T , p) de lois discrètes ou continues et qui possèdent des espérances. — Si E(X) = 0 alors, on dit que la X est centrée. — Y = X − E(X) s’appelle la variable aléatoire centrée associée à X et on a E(Y ) = 0. — Si X et Y ne sont pas indépendantes alors XY n’admet pas forcément une espérance. — Si E(XY ) = E(X)E(Y ) alors X et Y ne sont pas forcément indépendantes. Å ã 1 Y +1 ,→ B et Z = XY . Exemple : Soit X et Y deux variables aléatoires indépendantes telles que X ,→ N (0, 1) et 2 2 On a X ,→ N (0, 1) donc E(X) Å ã= 0. Å ã Y +1 1 Y +1 1 1 1 1 De même, on a ,→ B donc E = donc, par linéarité de l’espérance, E(Y ) + = d’où E(Y ) = 0. 2 2 2 2 2 2 2 On a X, Y indépendantes donc Z = XY admet une espérance et on a E(X)E(Z) = 0 car E(X) = 0. D’autre part, on a X, Y indépendantes donc, d’après le théorème d’indépendance héritée, X 2 et Y sont indépendantes d’où XZ = X 2 Y admet une espérance et on a E(XZ) = E(X 2 Y ) = E(X 2 )E(Y ) = 0 car E(Y ) = 0. On déduit E(XZ) = E(X)E(Z). Supposons que X et Z sont indépendantes donc, d’après le théorème d’indépendance héritée, X 2 et Z 2 sont indépendantes, or Z 2 = X 2 car Y 2 = 1 puisque les valeurs possibles de Y sont 1 et −1 donc X 2 est indépendante d’elle même. On déduit que p(X 2 ≤ 1) = p(X 2 ≤ 1, X 2 ≤ 1) = p(X 2 ≤ 1)p(X 2 ≤ 1) = p(X 2 ≤ 1)2 donc p(X 2 ≤ 1) = 0 ou p(X 2 ≤ 1) = 1. Z 1 t2 1 t2 — Si p(X 2 ≤ 1) = 0 alors 0 = p(X 2 ≤ 1) = p(−1 ≤ X ≤ 1) = √ e− 2 dt donc ∀t ∈ [−1, 1], e− 2 = 0. 2π −1 Absurde. Z 1 Z +∞ 2 t2 1 1 2 − t2 2 — Si p(X ≤ 1) = 1 alors 1 = p(X ≤ 1) = p(−1 ≤ X ≤ 1) = √ e dt. Or √ e− 2 dt = 1 donc 2π −1 2π −∞ Z +∞ 2 1 t2 − t2 − √ e dt = 0 d’où ∀t ∈ [1, +∞[, e 2 = 0. Absurde. 2π 1 On déduit que X et Z ne sont pas indépendantes et pourtant E(XZ) = E(X)E(Z). Remarque : En générale, une variable aléatoire réelle X et indépendante d’elle même si, et seulement si, X est constante presque partout (Autrement dit, ∃C ∈ R, p(X = C) = 1).

5.2

Moments, variance, écart-type et covariance :

Définition 5.2 Soit X une variable aléatoire réelle de loi discrète ou continue sur l’espace probabilisé (Ω, T , p) et k ∈ N∗ . On dit que X admet un moment d’ordre k si la variable aléatoire X k admet une espérance. Dans ce cas, E(X k ) s’appelle le moment d’ordre k de X. Remarque : Soit k ∈ N∗ et X une variable aléatoire réelle de loi discrète ou continue sur l’espace probabilisé (Ω, T , p) qui admet un moment d’ordre k. Alors : — D’après le théorème de transfert : X 1. Si X est de loi discrète et d’ensemble de valeurs possibles D alors E(X k ) = nk p(X = n). n∈D

2. Si X est de loi continue alors E(X k ) =

Z

+∞

tk fX (t)dt.

−∞

www.mathlaayoune.webs.com

13 / 20

[email protected]

CPGE Laayoune

Lissane Eddine

Essaidi Ali

— ∀r ∈ {1, . . . , k − 1}, X admet un moment d’ordre r. — ∀a, b ∈ R, aX + b admet un moment d’ordre k. Définition 5.3 Soit X une variable aléatoire réelle de loi discrète ou continue sur l’espace probabilisé (Ω, T , p) qui admet un moment d’ordre 2. On appelle : 2 — Variance de X la quantité V (X) = E((X p − E(X)) ). — Ecart-type de X la quantité σ(X) = V (X). Remarques : Soit X une variable aléatoire réelle de loi discrète ou continue sur l’espace probabilisé (Ω, T , p) qui admet un moment d’ordre 2. — Si V (X) = 1 alors on dit que la variable X est réduite. X − E(X) — Y = s’appelle la variable aléatoire centrée réduite associée à X et on a E(Y ) = 0 et V (Y ) = 1. σ(X) Propriété 5.2 Soit X une variable aléatoire réelle de loi discrète ou continue sur l’espace probabilisé (Ω, T , p) qui admet un moment d’ordre 2. Alors : — V (X) ≥ 0. — V (X) = 0 ⇐⇒ X est constante presque sûrement (Autrement dit, ∃a ∈ R, p(X = a) = 1). — ∀a, b ∈ R, V (aX + b) = α2 V (X) et σ(aX + b) = |a|σ(X). — V (X) = E(X 2 ) − E(X)2 . Variances des variables aléatoires réelles de lois usuelles : — Cas des lois discrètes : — Loi uniforme : Si X ,→ U(n) alors : ã Å ã Å ã Å n n X n+1 2 n+1 2 (n + 1)(2n + 1) n2 − 1 n + 1 2 X k2 2 = − = − = k p(X = k) − V (X) = 2 n 2 6 2 12 k=1

k=1

— Loi de Bernoulli : Si X ,→ B(p) alors : E(X) = E(X 2 ) − E(X)2 = p − p2 = p(1 − p) car X 2 = X — Loi de binomiale : Si X ,→ B(n, p) alors : E(X(X − 1))

= =

n X k=0 n X

k(k − 1)p(X = k)

=

k=0

n(n −

k−2 k 1)Cn−2 p (1

− p)

n−k

= np2

k=2

= np2

n X

k(k − 1)Cnk pk (1 − p)n−k n X

k−2 k−2 Cn−2 p (1 − p)n−k

k=2 n−2 X

k Cn−2 pk (1 − p)n−2−k

= n(n − 1)p2 (p + (1 − p))n−2 = n(n − 1)p2

k=0

Donc, par linéarité de l’espérance, : V (X) = E(X 2 ) − E(X)2 = E(X(X − 1)) + E(X) − E(X)2 = n(n − 1)p2 + np − n2 p2 = np(1 − p) — Loi géométrique : Soit X ,→ G(p) avec p ∈]0, 1[. On a ∀k ∈ N∗ , k 2 p(X = k) = k 2 p(1 − p)k−1 donc la série P de k 2 p(X = k) est absolument convergente d’où la famille (k 2 p(X = k)) est sommable. On déduit que X admet un moment d’ordre deux. On a : E(X(X−1)) =

+∞ X

k(k−1)p(X = k) =

k=1

+∞ X

k(k−1)p(1−p)k−1 = p(1−p)

k=1

Donc E(X(X − 1)) =

2(1−p) p2

+∞ X

k(k−1)(1−p)k−2 =

k=2

2p(1 − p) (1 − (1 − p))3

d’où, par linéarité de l’espérance, :

2(1 − p) 1 1 1−p + − 2 = p2 p p p2 P k — Loi de Poisson : Soit X ,→ P(λ) avec λ > 0. On a ∀k ∈ N, k 2 p(X = k) = k 2 e−λ λk! donc la série k 2 p(X = k) est absolument convergente d’où la famille (k 2 p(X = k)) est sommable. On déduit que X admet un moment d’ordre deux. On a : V (X) = E(X 2 ) − E(X)2 = E(X(X − 1)) + E(X) − E(X)2 =

E(X(X−1)) =

+∞ X k=0

www.mathlaayoune.webs.com

k(k−1)p(X = k) =

+∞ X

k(k−1)e−λ

k=0

14 / 20

+∞

+∞

k=2

k=0

X λk−2 X λk λk = λ2 e−λ = λ2 e−λ = λ2 e−λ eλ = λ2 k! (k − 2)! k! [email protected]

CPGE Laayoune

Lissane Eddine

Essaidi Ali

Donc, par linéarité de l’espérance, : V (X) = E(X 2 ) − E(X)2 = E(X(X − 1)) + E(X) − E(X)2 = λ2 + λ − λ2 = λ — Cas des lois continues : — Loi uniforme : Soit X ,→ U(a, b). On a : E(X 2 ) =

b

Z a

 3 b t2 b3 − a3 1 a2 + ab + b2 t a= dt = = b−a 3(b − a) 3(b − a) 3

Donc : V (X) = E(X 2 ) − E(X)2 =

a2 + ab + b2 a2 + 2ab + b2 (b − a)2 − = 3 4 12

— Loi exponentielle : Soit X ,→ E(λ) avec λ > 0. L’application t 7→ λt2 e−λt est intégrable sur [0, +∞[ donc X admet un moment d’ordre deux. On a : Z +∞ 3 Z +∞ 3 Z +∞ λ 3−1 −λt λ 3−1 −λt 2 2 λt2 e−λt dt = 2 t e dt = 2 car t e dt = 1(loi Γ(3, λ)) E(X 2 ) = λ 0 Γ(3) λ Γ(3) 0 0 Donc : V (X) = E(X 2 ) − E(X)2 =

1 1 2 − 2 = 2 λ2 λ λ

— Loi gamma : Soit X ,→ Γ(α, λ) avec α, λ > 0. L’application t 7→ t2 e−λt tα−1 est intégrable sur ]0, +∞[ donc X un moment d’ordre deux. On a : Z Z +∞ α α(α + 1) +∞ λα+2 −λt (α+2)−1 α(α + 1) λ 2 −λt α−1 t e t dt = e t dt = E(X 2 ) = 2 Γ(α) λ Γ(α + 2) λ2 0 0 Z

+∞

Car 0

λα+2 −λt (α+2)−1 e t dt = 1 (loi Γ(α + 2, λ)). Donc : Γ(α + 2) V (X) = E(X 2 ) − E(X)2 =

α(α + 1) α2 α − 2 = 2 λ2 λ λ

— Lois gaussiennes : Soit X ,→ N (m, σ 2 ) avec m ∈ R et σ > 0. L’application t 7→ t2 e− donc X admet un moment d’ordre deux et on a : V (X)

1 Car √ σ 2π

Z

+∞

e−

(t−m)2 2σ 2

(t−m)2 2σ 2

est intégrable sur R

= E((X − E(X))2 ) Z +∞ (t−m)2 1 √ (t − m)2 e− 2σ2 dt car E(X) = m = −∞ σï 2π Z +∞ ò+∞ (t−m)2 (t−m)2 σ σ = −√ (t − m)e− 2σ2 +√ e− 2σ2 dt = σ 2 2π 2π −∞ −∞ dt = 1 (loi N (m, σ 2 )).

−∞

Proposition 5.2 Si X, Y sont deux variables aléatoires réelles de lois discrètes ou continues sur l’espace probabilisé (Ω, T , p) qui possèdent des moments d’ordre 2 alors : — Inégalité de Cauchy-Schwarz : XY possède une espérance et on a E(XY )2 ≤ E(X 2 )E(Y 2 ). — X + Y possède un moment d’ordre 2 et on a V (X + Y ) = V (X) + V (Y ) + 2E((X − E(X))(Y − E(Y ))). Définition 5.4 Soient X et Y deux variables aléatoires réelles de lois discrètes ou continues sur l’espace probabilisé (Ω, T , p). Si X et Y possèdent des moments d’ordre 2, alors on appelle covariance du couple (X, Y ) la quantité C(X, Y ) = E((X − E(X))(Y − E(Y ))). On la note aussi cov(X, Y ). Remarque : Symétrie et bilinéarité de la covariance : Soit a, b, c, d ∈ R et X, Y deux variables aléatoires réelles de lois discrètes ou continues sur l’espace probabilisé (Ω, T , p) admettant des moments d’ordre deux. Alors : — C(X, Y ) = C(Y, X). — C(X, X) = V (X). — C(aX + b, cY + d) = acC(X, Y ). — C(aX + bY, cX + dY ) = acV (X) + (ad + bc)C(X, Y ) + bdV (Y ).

www.mathlaayoune.webs.com

15 / 20

[email protected]

CPGE Laayoune

Lissane Eddine

Essaidi Ali

Propriété 5.3 Soient X et Y deux variables aléatoires réelles de lois discrètes ou continues sur l’espace probabilisé (Ω, T , p) admettant un moment d’ordre deux. — V (X + Y ) = V (X) + V (Y ) + 2C(X, Y ). — C(X, Y ) = E(XY ) − E(X)E(Y ). — Inégalité de Cauchy-Schwarz : |C(X, Y )| ≤ σ(X)σ(Y ). — Si X et Y sont indépendants alors C(X, Y ) = 0. La réciproque est fausse. — Si X et Y sont indépendants alors V (X + Y ) = V (X) + V (Y ). La réciproque est fausse. Remarques : Si X1 . . . , Xn est une famille de variables aléatoires réelles de lois discrètes ou continues sur l’espace probabilisé (Ω, T , p) qui possèdent moments d’ordre deux alors : ! des n n n n X X X X X — V Xk = V (Xk ) + C(Xk , Xl ) = V (Xk ) + 2 C(Xk , Xl ). k=1

k=1

k,l=1 k6=l

k=1

— Si la famille (X1 , . . . , Xn ) est indépendante alors V

n X

1≤k 0, ∃β ∈ R, Y = αX + β presque partout (Autrement dit p(Y = αX + β) = 1). — ρ(X, Y ) = −1 ⇐⇒ ∃α < 0, ∃β ∈ R, Y = αX + β presque partout (Autrement dit p(Y = αX + β) = 1). — Si ρ(X, Y ) = 0 alors on dit que X et Y sont non corrélées linéairement.

6

Fonctions génératrices :

Définition 6.1 Soit X une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p) à valeurs dans N. +∞ X On appelle fonction génératrice de X la fonction GX (t) = E(tX ) = p(X = n)tn . n=0

Remarques : Soit X une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p) à valeurs dans N. — Si l’ensemble des valeurs possibles de X est fini alors GX est définie sur R. +∞ X P — On a p(X = n) = 1 donc le rayon de convergence de la série entière p(X = n)tn est ≥ 1. n=0

P — La série entière p(X = n)tn converge normalement sur [−1, 1]. En particulier, GX est continue sur [−1, 1]. — GX est de classe C ∞ sur ] − 1, 1[. (n) G (0) — ∀n ∈ N, p(X = n) = X . En particulier, GX caractérise la loi de X. n! Fonctions génératrices des lois discrètes usuelles : Soit X une variable aléatoire réelle de loi discrète sur l’espace probabilisé (Ω, T , p).  n+1 t −t n X si t 6= 1 1 k  — Loi uniforme : Si X ,→ U(n) alors ∀t ∈ R, GX (t) = t = n(t − 1) .  n k=1 1 si t = 1 — Loi de Bernoulli : Si X ,→ B(p) alors ∀t ∈ R, GX (t) = p(X = 0) + p(X = 1)t = (1 − p) + pt. n n X X — Loi binomiale : Si X ,→ B(n, p) alors ∀t ∈ R, GX (t) = Cnk pk (1 − p)n−k tk = Cnk (tp)k (1 − p)n−k = k=0

k=0

(1 − p + tp)n . — Loi géométrique : Si X ,→ G(p) avec p ∈]0, 1[ : On a ∀n ∈ N∗ , p(X = n) = p(1 − p)n−1 donc le rayon de ò ï +∞ X P 1 1 1 convergence de la série entière p(X = n)tn est 1−p et on a ∀t ∈ − , , GX (t) = p(1 − p)n−1 tn = 1−p 1−p n=1

www.mathlaayoune.webs.com

16 / 20

[email protected]

CPGE Laayoune

pt

+∞ X

Lissane Eddine

(t(1 − p))n−1 = pt

n=1

+∞ X

(t(1 − p))n =

n=0

Essaidi Ali

pt . 1 − t(1 − p) n

— Loi de Poisson : Si X ,→ P(λ) avec λ > 0 : On a ∀n ∈ N, p(X = n) = e−λ λn! donc le rayon de convergence de la +∞ X P λn série entière p(X = n)tn est +∞ et on a ∀t ∈ R, GX (t) = e−λ tn = e−λ eλt = eλ(t−1) . n! n=0 Proposition 6.1 — Si X, Y sont deux variables aléatoires réelles indépendantes sur l’espace probabilisé (Ω, T , p) à valeurs dans N alors GX+Y = GX GY . — Généralement, si (X1 , . . . , Xn ) est une famille indépendante de variables aléatoires réelles sur l’espace probabilisé (Ω, T , p) à valeurs dans N alors GX1 +···+Xn = GX1 · · · GXn . Exemples : — Stabilité de la loi binomiale : Soit X ,→ B(m, p) et Y ,→ B(n, p) indépendantes donc GX+Y (t) = GX (t)GY (t) = (p(t − 1) + 1)m (p(t − 1) + 1)n = (p(t − 1) + 1)m+n d’où X + Y ,→ B(m + n, p). — Stabilité de la loi de Poisson : Soit X ,→ P(λ) et Y ,→ P(µ) indépendantes donc GX+Y (t) = GX (t)GY (t) = eλ(t−1) eµ(t−1) = e(λ+µ)(t−1) d’où X + Y ,→ P(λ + µ). Proposition 6.2 Soit X une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p) à valeurs dans N. — X admet une espérance si, et seulement si, GX est dérivable en 1. Dans ce cas, E(X) = G0X (1). — X admet un moment d’ordre 2 si, et seulement si, GX admet une dérivée seconde en 1. Dans ce cas, E(X(X − 1)) = G00X (1). Exemples : — Loi uniforme : Soit X ,→ U(n) donc ∀t ∈ R, GX (t) = n X k(k − 1) k=2

n

n n X X k k−1 1 k t d’où ∀t ∈ R, G0X (t) = t et G00X (t) = n n

k=1

k=1

tk−2 .

n X k n(n + 1) n+1 = = et V (X) = E(X 2 ) − E(X)2 = G00X (1) + E(X) − n 2n 2 k=1 Å ã Å ã n n n X X X n + 1 n+1 2 k2 k n+1 n+1 2 n(n + 1)(2n + 1) k(k − 1) + − = − + − = − E(X)2 = n 2 2 n n 2 2 6n k=1 k=1 k=1 Å ã Å ã n+1 2 n+1 2 (n + 1)(2n + 1) n2 − 1 = − = . 2 6 2 12 — Loi de Bernoulli : Soit X ,→ B(p) donc ∀t ∈ R, GX (t) = pt + 1 − p d’où ∀t ∈ R, G0X (t) = p et G00X (t) = 0. On déduit que E(X) = G0X (1) = p et V (X) = E(X 2 ) − E(X)2 = G00X (1) + E(X) − E(X)2 = p − p2 = p(1 − p). — Loi binomiale : Si X ,→ B(n, p) donc ∀t ∈ R, GX (t) = (pt + 1 − p)n d’où ∀t ∈ R, G0X (t) = np(pt + 1 − p)n−1 et G00X (t) = n(n − 1)p2 (pt + 1 − p)n−2 . On déduit que E(X) = G0X (1) = np et V (X) = E(X 2 ) − E(X)2 = G00X (1) + E(X) − E(X)2 = n(n − 1)p2 + np − n2 p2 = np(1 − p). pt — Loi géométrique : Soit X ,→ G(p) avec p ∈]0, 1[ donc ∀t ∈] − 1, 1[, GX (t) = 1−t(1−p) d’où ∀t ∈] − 1, 1[, G0X (t) =

On déduit que E(X) = G0X (1) =

p(1−t(1−p))+pt(1−p) (1−t(1−p))2



2p(1−p) p 00 (1−t(1−p))2 et GX (t) = (1−t(1−p))3 . On déduit que E(X) = G0X (1) = p1 et V (X) = E(X 2 )−E(X)2 = G00X (1)+E(X)−E(X)2 = Loi de Poisson : Soit X ,→ P(λ) donc ∀t ∈ R, GX (t) = eλ(t−1) d’où ∀t ∈ R, G0X (t) = 2 λ(t−1)

=

1−p 1 1 2 1−p p2 + p − p2 = p2 . λeλ(t−1) et G00X (t) =

λ e . On déduit que E(X) = G0X (1) = λ et V (X) = E(X 2 ) − E(X)2 = G00X (1) + E(X) − E(X)2 = λ2 + λ − λ2 = λ.

7 7.1

Inégalités, notions de convergence et théorèmes limites : Inégalités :

Proposition 7.1 (Inégalité de Markov) Si X est une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p) positive admettant une espérance, alors, pour tout α > 0, p(X ≥ α) ≤ E(X) α . Proposition 7.2 (Inégalité de Bienaymé-Tchebychev) Si X est une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p) admettant un moment d’ordre 2, alors, pour tout α > 0, p(|X − E(X)| ≥ α) ≤ V α(X) 2 . Remarques : Soit X une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p) admettant un moment d’ordre 2. www.mathlaayoune.webs.com

17 / 20

[email protected]

CPGE Laayoune

Lissane Eddine

Essaidi Ali

— Règle des trois sigma : On a p (E(X) − 3σ(X) < X < E(X) + 3σ(X)) = p (−3σ(X) < X − E(X) < 3σ(X)) = V (X) V (X) 1 8 p (|X − E(X)| < 3σ(X)) = 1 − p (|X − E(X)| ≥ 3σ(X)) ≥ 1 − 9σ 2 (X) = 1 − 9V (X) = 1 − 9 = 9 ≈ 0, 89. Autrement dit, presque toutes les valeurs de X se situent dans l’intervalle ]E(x) − 3σ(X), E(x) − 3σ(X)[. — Interprétation de la variance : la variance permet de contrôler l’écart entre X et sa valeur moyenne E(X). Exemples : — Majoration de la probabilité d’obtenir plus de 600 Pile  en jetant 1000 fois une pièce de monnaie équilibrée : Soit X le nombre de piles obtenus donc X ,→ B 1000, 21 . En particulier, E(X) = 1000 × 12 = 500 et E(X) = 1000 × 1 1 2 1 − 2 = 250. On a p(X ≥ 600) = p(X − 500 ≥ 100) ≤ p(|X − 500| ≥ 100) donc, d’après l’inégalité de Bienaymé-Tchebychev, (X) 250 p(X ≥ 600) ≤ V100 2 = 10000 = 0, 025. — Majoration de p(X ≥ 210) où X est une variable aléatoire telle que E(X) = 200 et V (X) = 5 : On a p(X ≥ 210) = (X) p(X − 200 ≥ 10) ≤ p(|X − 200| ≥ 10) donc, d’après l’inégalité de Bienaymé-Tchebychev, p(X ≥ 210) ≤ V10 = 2 5 = 0, 05. 100 Proposition 7.3 (Inégalité de Jensen) Soit X une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p) admettant une espérance et f : R → R une application convexe sur R. Si la variable aléatoire f (X) admet une espérance, alors f (E(X)) ≤ E(f (X)).

7.2

Convergence en loi, convergence en probabilité :

Définition 7.1 On dit qu’une suite (Xn ) de variables aléatoires réelles sur l’espace probabilisé (Ω, T , p) convergence en probabilité s’il existe une variable aléatoire réelle X sur l’espace probabilisé (Ω, T , p) telle que : ∀ε > 0, lim p(|X − Xn | ≥ ε) = 0 n→+∞

P

Dans ce cas, on dit que (Xn ) converge en probabilité vers X et on note Xn −−−−−→ X. n→+∞

Exemples : — Soit (Xn ) une suite de variables aléatoires réelles sur l’espace probabilisé (Ω, T , p) définie par ∀n ∈ N∗ , p(Xn = n) = 1 1 n et p(Xn = 0) = 1 − n . On a ∀ε > 0, p(|Xn | ≥ ε) = p(|Xn | = 6 0) = p(Xn = n) =

1 n

P

→ 0 donc Xn −−−−−→ 0. n→+∞

 1 ∗ . — Soit (Xn ) une suite de variables aléatoires réelles sur l’espace probabilisé (Ω, T , p) telle que ∀n ∈ N , X ,→ U 0, n n Z ε

On a ∀ε > 0, p(|Xn | ≥ ε) = 1 − p(|Xn | < ε) = 1 − p(−ε < Xn < ε) = 1 − Z ε Å ã 1 P n 1[0, 1 ] (t)dt = 1 − n min ε, → 1 − 1 = 0 donc Xn −−−−−→ 0. n n→+∞ n

−ε

n1[0, 1 ] (t)dt = 1 − n

0

Proposition 7.4 Soit X une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p). Si (fn ) est une suite de fonctions de R vers R qui converge simplement sur R vers une fonction f alors la suite de variables aléatoires réelles (fn (X)) converge en probabilité vers la variable aléatoire réelle f (X). Exemple : Soit X une variable aléatoire réelle sur l’espace probabilisé (Ω, T , p). s P — On a n1 − → 0 sur R donc X −−−−→ 0. n − n→+∞ n s x n P → e sur R donc 1 + X −−−−−→ eX . — On a 1 + nx − n n→+∞

Définition 7.2 On dit qu’une suite (Xn ) de variables aléatoires réelles sur l’espace probabilisé (Ω, T , p) converge en loi s’il existe une variable aléatoire réelle X sur l’espace probabilisé (Ω, T , p) telle qu’en tout point t de continuité de FX on a : lim FXn (t) = FX (t)

n→+∞

L

Dans ce cas, on dit que (Xn ) converge en loi vers X et on note Xn −−−−−→ X. n→+∞

Exemples :  — Soit (Xn ) une suite de variables aléatoires réelles sur l’espace probabilisé (Ω, T , p) telle que ∀n ∈ N∗ , Xn ,→ N 0, n1 . √ Z x nt2 n On a ∀x ∈ R, ∀n ∈ N∗ , FXn (x) = √ e− 2 dt. 2π −∞ √ Z x √n √ u2 n Considérons le changement de variables u = t n donc FXn (x) = √ e− 2 du. 2π −∞ www.mathlaayoune.webs.com

18 / 20

[email protected]

CPGE Laayoune

Lissane Eddine

Essaidi Ali

√ Z −∞ √ u2 n — Si x < 0 alors x n → −∞ donc FXn (x) → √ e− 2 du = 0. √2π Z −∞ +∞ √ u2 n — Si t > 0 alors x n → +∞ donc FXn (x) → √ e− 2 du = 1 (loi N (0, 1)). 2π −∞ ® Soit la variable aléatoire constante X = 0 donc p(X = 0) = 1 donc ∀x ∈ R, FX (x) = p(X ≤ x) =

0 1

si x < 0 si x ≥ 0

d’où FX est continue sur R∗ et on a ∀x ∈ R∗ , lim FXn (x) = FX (x). n→+∞

L

On déduit que Xn −−−−−→ 0. n→+∞

— Soit λ > 0 et (Xn ) une suite de variables aléatoires réelles indépendantes sur l’espace probabilisé (Ω, T , p) de même loi E(λ). On pose ∀n ∈ N, Yn = min(X0 , . . . , Xn ) donc ∀n ∈ N, FYn = 1 − (1 − FX1 ) · · · (1 − FXn ) = 1 − (1 − FX1 )n+1 . On déduit que ∀t ∈ R : Ç Ç åån+1 Z t Ä Ä t ään+1  n+1 −λt λe dt — Si t ≥ 0 alors FYn (t) = 1−(1−FX1 (t)) = 1− 1 − 1 − = 1− 1 − 1 + e−λt 0 = 0

1 − (1 − (1 − e−λt ))n+1 = 1 − e−λ(n+1)t donc lim FYn (t) = 1. n→+∞

— Si t < 0 alors FX1 (t) = 0 donc FYn (t) = 0 d’où lim FYn (t) = 0. n→+∞ ® 0 si t < 0 d’où FX est continue sur R∗ et on a Soit la variable aléatoire constante X = 0 donc ∀x ∈ R, FX (t) = 1 si t ≥ 0 ∀x ∈ R∗ , lim FXn (x) = FX (x). n→+∞

L

On déduit que Xn −−−−−→ 0. n→+∞

Proposition 7.5 Soit X et (Xn ) une suite de variables aléatoires réelles sur l’espace probabilisé (Ω, T , p) à valeurs dans N. (Xn ) converge en loi vers X si, et seulement si, ∀k ∈ N, lim p(Xn = k) = P (X = k). n→+∞

Corollaire 7.6 Soit (Xn )n≥1 une suite de variables aléatoires réelle sur l’espace probabilisé (Ω, T , p) telle que ∀n ≥ 1, Xn ,→ B(n, pn ). Si npn → λ > 0 alors la suite (Xn )n≥1 converge en loi vers une variable aléatoire réelle X qui sui la loi P(λ). n→+∞

Interprétation de la loi de Poisson comme loi des événements rares : Soit λ > 0 et X ,→ P(λ). D’après le corollaire précédent, pour n assez grand, on peut considérer que X ,→ B(n, nλ ) donc la loi de Poisson décrit, lorsqu’on répète un très grand nombre de fois (n) une expérience, le nombre de succès d’un événement ayant une faible chance de se réaliser ( nλ ). Proposition 7.7 Soit (Xn ) une suite de variables aléatoires réelles sur l’espace probabilisé (Ω, T , p). Si (Xn ) converge en probabilité vers une variable aléatoire X alors (Xn ) converge en loi vers X.  Remarque : La réciproque est fausse. En effet, soit X ,→ B 21 et (Xn ) définie par ∀n ∈ N, Xn =1 − X. On a ∀n ∈ N, p(Xn = 0) = p(X = 1) = 12 = p(X = 0) = p(Xn = 1) donc ∀n ∈ N, Xn ,→ B 21 donc ∀n ∈ N, FXn = FX L

d’où Xn −−−−−→ X. n→+∞

Cependant, On a ∀n ∈ N, |Xn − X| = |1 − 2X| et X prend deux valeurs 0 et 1 donc |Xn − X| prend une seule valeur 1 d’où p(|Xn − X| = 1) = 1. On déduit que ∀n ∈ N, p(|Xn − X| ≥ 21 ) = p(|1 − 2X| ≥ 21 ) = p(|1 − 2X| = 1) = 1 6→ 0 donc (Xn ) ne converge pas en probabilité vers X.

7.3

Théorèmes limites :

Théorème 7.1 (Loi faible des grands nombres) Si (Xn )n≥1 est!une suite de variables aléatoires indépendantes, de même loi n 1X et admettant des moments d’ordre 2, alors la suite Xk , de variables aléatoires, converge en probabilité vers la n k=1

n≥1

variable constante µ = E(X1 ). Remarque : Quand les variables aléatoires ont même loi, on dit qu’elles sont identiquement distribuées. Application : interprétation fréquentiste de la probabilité d’un événement : Soit A un événement dont on cherche la probabilité p de sa réalisation. Au cours d’une suite d’expériences, on pose ∀n ∈ N, Xn la variable aléatoire égale à 1 si A est réalisé au n-ième expérience et 0 sinon donc ∀n ∈ N, Xn ,→ B(p). www.mathlaayoune.webs.com

19 / 20

[email protected]

CPGE Laayoune

Lissane Eddine

Essaidi Ali

n

1X P Xk −−−−−→ p. n→+∞ n k=1 On déduit que, pour n assez grand, on peut approché p par le nombre moyen de réalisation de l’événement A.

On a ∀n ∈ N, E(Xn2 ) = p donc, d’après la loi faible des grands nombres,

Théorème 7.2 (Théorème de la limite centrée) Si (Xn )n≥1 est une suite de !!variables aléatoires indépendantes, de même loi n X 1 √ , de variables aléatoires, où µ = E(X1 ) et et admettant des moments d’ordre 2, alors la suite Xk − nµ σ n k=1

n≥1

σ = σ(X1 ), converge en loi vers une variable aléatoire qui suit la loi Gaussienne standard N (0, 1). Remarques : 1 √

n X

!

!

1 →√ 2π

Z

b

t2

— Dans les condition du théorème de la limite centrée ∀a ≤ b on a p a ≤ Xk − nµ ≤ b e− 2 dt. σ n a k=1 ! √ n n 1X — On a Xk − µ → N (0, 1) donc la vitesse de convergence de la loi faible des grands nombres est en √σn . σ n k=1 Application : Soit (Xn ) une suite de variables aléatoires indépendantes de même loi P(1) donc ∀n ∈ N, E(Xn ) = V (Xn ) = 1. Z 0 Å ã t2 1 X1 + · · · + Xn − n √ D’après le théorème de la limite centrée p ≤0 → e− 2 dt = . 2 n ã Å−∞ X1 + · · · + Xn − n √ ≤ 0 = p (X1 + · · · + Xn ≤ n) = D’autre part, par stabilité de la loi de poisson, X1 +· · ·+Xn ,→ P(n) donc p n n n k k X X n 1 n e−n d’où e−n → k! k! 2 k=0

k=0

www.mathlaayoune.webs.com

20 / 20

[email protected]

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF