Convergence de mesures

Page d’aide sur l’homonymie

Pour les articles homonymes, voir Convergence.

En mathématiques, plus spécifiquement en théorie des mesures, il existe différentes notions de convergence de mesures . Pour un sens général intuitif de ce que l'on entend par convergence en mesure, considérons une suite de mesures μ n {\displaystyle \mu _{n}} sur un espace, partageant une collection commune d'ensembles mesurables. Une telle suite pourrait représenter une tentative de construire des approximations «de mieux en mieux» d'une mesure μ {\displaystyle \mu } souhaitée qui est difficile à obtenir directement. Le sens de «de mieux en mieux» est soumis à toutes les mises en garde habituelles pour prendre des limites ; pour toute tolérance d'erreur ε > 0 {\displaystyle \varepsilon >0} , nous exigeons que N soit suffisamment grand pour nN afin de garantir que la «différence» entre μ n {\displaystyle \mu _{n}} et μ {\displaystyle \mu } soit inférieure à ε {\displaystyle \varepsilon } . Diverses notions de convergence spécifient précisément ce que le mot «différence» devrait signifier dans cette description ; ces notions ne sont pas équivalentes et varient en force.

Trois des notions de convergence les plus communes sont décrites ci-dessous.

Descriptions informelles

Cette section tente de fournir une description intuitive approximative de trois notions de convergence, en utilisant la terminologie développée dans les cours de calcul ; cette section est nécessairement imprécise ainsi qu'inexacte, et le lecteur doit se référer aux clarifications formelles des sections suivantes. En particulier, les descriptions ici n'abordent pas la possibilité que la mesure de certains ensembles puisse être infinie, ou que l'espace sous-jacent puisse présenter un comportement pathologique, et des hypothèses techniques supplémentaires sont nécessaires pour certaines des déclarations. Les affirmations de cette section sont cependant toutes correctes si ( μ n ) {\displaystyle (\mu _{n})} est une suite de mesures de probabilité sur un espace polonais.

Les différentes notions de convergence formalisent l'affirmation selon laquelle la « valeur moyenne » de toute fonction « suffisamment agréable » devrait converger :

f d μ n f d μ {\displaystyle \int f\,d\mu _{n}\to \int f\,d\mu }

Pour formaliser cela, il faut spécifier soigneusement l'ensemble des fonctions considérées et le degré d'uniformité de la convergence.

La notion de convergence faible nécessite que cette convergence ait lieu pour chaque fonction bornée continue f {\displaystyle f} . Cette notion traite la convergence pour différentes fonctions f {\displaystyle f} indépendamment les unes des autres, i.e. que différentes fonctions f {\displaystyle f} peuvent nécessiter différentes valeurs de N ≤ n pour être approximées de façon égale (ainsi, la convergence n'est pas uniforme en f {\displaystyle f} ).

La notion de convergence forte formalise l'affirmation selon laquelle la mesure de chaque ensemble mesurable devrait converger:

μ n ( A ) μ ( A ) {\displaystyle \mu _{n}(A)\to \mu (A)}

Encore une fois, aucune uniformité sur l'ensemble A {\displaystyle A} n'est requise. Intuitivement, compte tenu des intégrales des fonctions « agréables », cette notion fournit plus d'uniformité qu'une convergence faible. En fait, lorsque l'on considère des suites de mesures avec une variation uniformément bornée sur un espace polonais, une forte convergence implique la convergence f d μ n f d μ {\displaystyle \int f\,d\mu _{n}\to \int f\,d\mu } pour toute fonction mesurable bornée f {\displaystyle f} . Comme précédemment, cette convergence n'est pas uniforme en f {\displaystyle f} .

La notion de convergence en variation totale formalise l'affirmation selon laquelle la mesure de tous les ensembles mesurables doit converger uniformément, c'est-à-dire pour chaque ε > 0 {\displaystyle \varepsilon >0} il existe un entier N {\textstyle N} tel que | μ n ( A ) μ ( A ) | < ε {\textstyle |\mu _{n}(A)-\mu (A)|<\varepsilon } pour chaque n > N {\textstyle n>N} et pour chaque ensemble mesurable A {\textstyle A} . Comme précédemment, cela implique une convergence des intégrales avec des fonctions mesurables bornées, mais cette fois la convergence est uniforme sur toutes les fonctions bornées par une constante fixe.

Convergence en variation totale de mesures

Il s'agit de la plus forte notion de convergence présentée sur cette page et elle est définie comme suit. Soit ( X , F ) {\displaystyle (X,{\mathcal {F}})} un espace mesurable. La distance en variation totale entre deux mesures (positives) μ et ν est alors donnée par

μ ν TV = sup f { X f d μ X f d ν } . {\displaystyle \left\|\mu -\nu \right\|_{\text{TV}}=\sup _{f}\left\{\int _{X}f\,d\mu -\int _{X}f\,d\nu \right\}.}

Ici, le supremum est pris sur tous les f {\displaystyle f} parcourant l'ensemble de toutes les fonctions mesurables de X {\displaystyle X} dans [ 1 , 1 ] {\displaystyle [-1,1]} . Cela contraste, par exemple, avec la métrique de Wasserstein, où la définition est de la même forme, mais où le supremum est pris sur tous les f {\displaystyle f} parcourant l'ensemble des fonctions mesurables de X {\displaystyle X} dans [ 1 , 1 ] {\displaystyle [-1,1]} qui ont une constante de Lipschitz au plus égale à 1 {\displaystyle 1}  ; ou avec la métrique de Radon, où le supremum est pris sur tous les f {\displaystyle f} parcourant l'ensemble des fonctions continues de X {\displaystyle X} dans [ 1 , 1 ] {\displaystyle [-1,1]} . Dans le cas où X {\displaystyle X} est un espace polonais, la métrique de la variation totale coïncide avec la métrique de Radon.

Si μ {\textstyle \mu } et ν {\textstyle \nu } sont tous deux des mesures de probabilité, alors la distance en variation totale est également donnée par

μ ν TV = 2 sup A F | μ ( A ) ν ( A ) | . {\displaystyle \left\|\mu -\nu \right\|_{\text{TV}}=2\cdot \sup _{A\in {\mathcal {F}}}|\mu (A)-\nu (A)|.}

L'équivalence entre ces deux définitions peut être considérée comme un cas particulier de la dualité Monge-Kantorovich. D'après les deux définitions ci-dessus, il est clair que la distance de variation totale entre les mesures de probabilité est toujours comprise entre 0 et 2.

Pour illustrer la signification de la distance en variation totale, considérons l'expérience de pensée suivante. Supposons que l'on nous donne deux mesures de probabilité μ {\textstyle \mu } et ν {\textstyle \nu } , ainsi qu'une variable aléatoire X {\displaystyle X} . Nous savons que X {\displaystyle X} suit la loi μ {\textstyle \mu } ou ν {\textstyle \nu } mais nous ne savons pas laquelle des deux. Supposons que ces deux mesures ont comme probabilité a priori 0,5 chacune d'être la vraie loi de X {\displaystyle X} . Supposons maintenant que l'on nous donne un seul échantillon distribué selon la loi de X {\displaystyle X} et qu'on nous demande ensuite de deviner laquelle des deux distributions décrit cette loi. La quantité

2 + μ ν TV 4 {\displaystyle {2+\|\mu -\nu \|_{\text{TV}} \over 4}}

fournit alors une borne supérieure stricte sur la probabilité a priori que notre supposition soit correcte.

Étant donné la définition ci-dessus de la distance en variation totale, une suite ( μ n ) {\textstyle (\mu _{n})} de mesures définies sur le même espace de mesure converge vers une mesure μ {\textstyle \mu } de distance de variation totale si pour chaque ε > 0 {\textstyle \varepsilon >0} , il existe un N {\textstyle N} tel que pour tout n > N {\displaystyle n>N} , on a [1]

μ n μ TV < ε . {\displaystyle \|\mu _{n}-\mu \|_{\text{TV}}<\varepsilon .}

Convergence forte de mesures

Pour ( X , F ) {\displaystyle (X,{\mathcal {F}})} un espace mesurable, une suite ( μ n ) {\textstyle (\mu _{n})} converge fortement vers une limite μ {\textstyle \mu } si

lim n μ n ( A ) = μ ( A ) {\displaystyle \lim _{n\to \infty }\mu _{n}(A)=\mu (A)}

pour tous les ensembles A F {\displaystyle A\in {\mathcal {F}}} .

Par exemple, du fait du lemme de Riemann–Lebesgue, la suite ( μ n ) {\textstyle (\mu _{n})} de mesures sur l'intervalle [ 1 , 1 ] {\displaystyle [-1,1]} donnée par μ n ( d x ) = ( 1 + sin ( n x ) ) d x {\displaystyle \mu _{n}(\mathrm {d} x)=(1+\sin(nx))\,\mathrm {d} x} converge fortement vers la mesure de Lebesgue, mais elle ne converge pas en variation totale.

Convergence faible des mesures

En mathématiques et en statistiques, la convergence faible (ou convergence étroite) est l'un des nombreux types de convergence liées à la convergence des mesures. Elle dépend d'une topologie de l'espace sous-jacent et n'est donc pas une notion de mesure purement théorique.

Il existe plusieurs définitions équivalentes de convergence faible d'une suite de mesures, dont certaines sont (apparemment) plus générales que d'autres. L'équivalence de ces conditions est parfois connue sous le nom de théorème de Portmanteau[2] .

Définition : Soit S {\displaystyle S} un espace métrique muni de sa tribu borélienne Σ {\displaystyle \Sigma } . Une suite bornée de mesures de probabilité positives P n ( n = 1 , 2 , ) {\displaystyle P_{n}\,(n=1,2,\dots )} sur ( S , Σ ) {\displaystyle (S,\Sigma )} converge faiblement vers la mesure positive finie P {\displaystyle P} (notée P n P {\textstyle P_{n}\Rightarrow P} ) si l'une des conditions équivalentes suivantes est remplie (ici E n {\displaystyle \operatorname {E} _{n}} désigne l'espérance ou la norme L 1 {\displaystyle L^{1}} par rapport à P n {\displaystyle P_{n}} , tandis que E {\displaystyle \operatorname {E} } désigne l'espérance ou la norme L 1 {\displaystyle L^{1}} par rapport à P {\displaystyle P} ):

  • E n [ f ] E [ f ] {\displaystyle \operatorname {E} _{n}[f]\to \operatorname {E} [f]} pour toutes les fonctions bornées et continues f {\displaystyle f}  ;
  • E n [ f ] E [ f ] {\displaystyle \operatorname {E} _{n}[f]\to \operatorname {E} [f]} pour toutes les fonctions bornées et Lipschitz f {\displaystyle f}  ;
  • lim sup E n [ f ] E [ f ] {\displaystyle \limsup \operatorname {E} _{n}[f]\leq \operatorname {E} [f]} pour chaque fonction f {\displaystyle f} semi-continue supérieurement et majorée;
  • lim inf E n [ f ] E [ f ] {\displaystyle \liminf \operatorname {E} _{n}[f]\geq \operatorname {E} [f]} pour chaque fonction f {\displaystyle f} semi-continue inférieurement et minorée;
  • lim sup P n ( C ) P ( C ) {\displaystyle \limsup P_{n}(C)\leq P(C)} pour tous les ensembles fermés C {\displaystyle C} de l'espace S {\displaystyle S}  ;
  • lim inf P n ( U ) P ( U ) {\displaystyle \liminf P_{n}(U)\geq P(U)} pour tous les ensembles ouverts U {\displaystyle U} de l'espace S {\displaystyle S}  ;
  • lim P n ( A ) = P ( A ) {\displaystyle \lim P_{n}(A)=P(A)} pour tout ensemble A {\displaystyle A} tel que P ( A ) = 0 {\displaystyle P(\partial A)=0} (où A {\displaystyle \partial A} est la frontière de A {\displaystyle A} ).

Dans le cas S R {\displaystyle S\equiv \mathbb {R} } , muni de sa topologie habituelle, si on désigne par ( F n ) {\displaystyle (F_{n})} et F {\textstyle F} les fonctions de répartition des mesures P n {\displaystyle P_{n}} et P {\displaystyle P} respectivement, alors P n {\displaystyle P_{n}} converge faiblement vers P {\displaystyle P} si et seulement si lim n F n ( x ) = F ( x ) {\textstyle \lim \limits _{n\to \infty }F_{n}(x)=F(x)} pour tous les points de continuité x {\displaystyle x} de F {\textstyle F} .

Par exemple, la suite où les P n {\displaystyle P_{n}} sont les mesures de Dirac en 1 / n {\displaystyle 1/n} converge faiblement vers la mesure de Dirac en 0 (si on les considère comme des mesures sur R {\displaystyle \mathbb {R} } avec la topologie habituelle), mais elle ne converge pas fortement. Ceci est clair intuitivement : nous savons seulement que 1 / n {\displaystyle 1/n} est "proche" de 0 {\displaystyle 0} en raison de la topologie de R {\displaystyle \mathbb {R} } .

Cette définition de convergence faible peut être étendue sur tout espace topologique métrisable S {\displaystyle S} . Il définit également une topologie faible sur P ( S ) {\displaystyle {\mathcal {P}}(S)} , qui est l'ensemble de toutes les mesures de probabilité définies sur ( S , Σ ) {\displaystyle (S,\Sigma )} . La topologie faible est générée par la base d'ensembles ouverts suivante :

{ U ϕ , x , δ | ϕ : S R  est bornée et continue, x R  et  δ > 0 } , {\displaystyle \left\{U_{\phi ,x,\delta }\left|{\begin{array}{c}\phi \,\colon S\to \mathbb {R} {\text{ est bornée et continue,}}\\x\in \mathbf {R} {\text{ et }}\delta >0\end{array}}\right.\right\},}

U ϕ , x , δ := { μ P ( S ) : | S ϕ d μ x | < δ } . {\displaystyle U_{\phi ,x,\delta }:=\left\{\mu \in {\mathcal {P}}(S)\,:\,\left|\int _{S}\phi \;\mathrm {d} \mu -x\right|<\delta \right\}.}

Si S {\displaystyle S} est également séparable, P ( S ) {\displaystyle {\mathcal {P}}(S)} est métrisable et séparable, par exemple par la métrique de Lévy – Prokhorov, si S {\displaystyle S} est également compact ou polonais, P ( S ) {\displaystyle {\mathcal {P}}(S)} l'est également.

Si S {\displaystyle S} est séparable, il s'intègre naturellement dans P ( S ) {\displaystyle {\mathcal {P}}(S)} comme l'ensemble (fermé) des mesures de Dirac, et son enveloppe convexe est dense .

Il existe de nombreuses "flèches" pour ce type de convergence : les plus utilisées sont P n P {\displaystyle P_{n}\Rightarrow P} , P n P {\displaystyle P_{n}\rightharpoonup P} et P n D P . {\displaystyle P_{n}{\xrightarrow {\mathcal {D}}}P.} .

Convergence faible des variables aléatoires

Soit ( Ω , F , P ) {\displaystyle (\Omega ,{\mathcal {F}},\mathbb {P} )} un espace de probabilité et X un espace métrique. Si Xn, X: Ω → X est une suite de variables aléatoires, alors X n converge faiblement (ou en distribution ou en loi ) vers X quand n → ∞ si la suite de mesures avancées ( X n ) ( P ) converge faiblement vers X ( P ) dans le sens d'une convergence faible de mesures sur X, tel que définie ci-dessus.

Voir aussi

Références

  1. Madras et Sezer, Deniz, « Quantitative bounds for Markov chain convergence: Wasserstein and total variation distances », Bernoulli, vol. 16, no 3,‎ , p. 882–908 (DOI 10.3150/09-BEJ238, arXiv 1102.5245)
  2. Achim Klenke, Probability Theory, Springer-Verlag, (ISBN 978-1-84800-047-6)
  • Ambrosio, L., Gigli, N. & Savaré, G., Gradient Flows in Metric Spaces and in the Space of Probability Measures, Basel, ETH Zürich, Birkhäuser Verlag, (ISBN 3-7643-2428-7)
  • Patrick Billingsley, Probability and Measure, New York, NY, John Wiley & Sons, Inc., (ISBN 0-471-00710-2)
  • Patrick Billingsley, Convergence of Probability Measures, New York, NY, John Wiley & Sons, Inc., (ISBN 0-471-19745-9, lire en ligne)
  • icône décorative Portail des mathématiques