Funkcja charakterystyczna (teoria prawdopodobieństwa)

Wygląd przypnij ukryj
Definicja intuicyjna
Odpowiednik transformaty Fouriera dla miar probabilistycznych, rozkładów prawdopodobieństwa i zmiennych losowych.

Funkcją charakterystyczną rozkładu prawdopodobieństwa μ {\displaystyle \mu } nazywa się funkcję φ : R → C {\displaystyle \varphi \colon \mathbb {R} \to \mathbb {C} } zadaną wzorem

φ ( t ) = ∫ R e i t s μ ( d s ) . {\displaystyle \varphi (t)=\int \limits _{\mathbb {R} }e^{its}\mu (\mathrm {d} s).}

Jeżeli X : Ω → R {\displaystyle X\colon \Omega \to \mathbb {R} } jest zmienną losową, a μ X {\displaystyle \mu _{X}} jest jej rozkładem, to jej funkcja charakterystyczna może być zapisana jako

φ X ( t ) = ∫ R e i t s μ X ( d s ) = E e i t X , {\displaystyle \varphi _{X}(t)=\int \limits _{\mathbb {R} }e^{its}\mu _{X}(\mathrm {d} s)=\mathbb {E} e^{itX},}

gdzie E {\displaystyle \mathbb {E} } to wartość oczekiwana.

Funkcja charakterystyczna, podobnie jak dystrybuanta, koduje pełną informację o rozkładzie. Jest ona dobrze określona (istnieje dla każdego rozkładu). Dla rozkładów ciągłych jest to transformata Fouriera funkcji gęstości prawdopodobieństwa:

φ X ( t ) = ∫ − ∞ ∞ e i t x f ( x ) d x , {\displaystyle \varphi _{X}(t)=\int \limits _{-\infty }^{\infty }e^{itx}f(x)dx,}

stąd można ją uznać za uogólnienie transformaty Fouriera na dowolne rozkłady.

Dla rozkładów dyskretnych o masie prawdopodobieństwa skupionej w punktach x 1 , x 2 , … , x n : {\displaystyle x_{1},x_{2},\dots ,x_{n}{:}}

φ X ( t ) = ∑ j = 1 n pmf ⁡ ( x j ) e i t x j . {\displaystyle \varphi _{X}(t)=\sum \limits _{j=1}^{n}\operatorname {pmf} (x_{j})e^{itx_{j}}.}

Własności

Funkcja charakterystyczna funkcji liniowej a X + b {\displaystyle aX+b} zmiennej losowej X {\displaystyle X} wyraża się za pomocą funkcji charakterystycznej zmiennej losowej X {\displaystyle X} według następującego wzoru:

φ a X + b ( t ) = φ X ( a t ) e i t b . {\displaystyle \varphi _{aX+b}(t)=\varphi _{X}(at)e^{itb}.}

Przykłady

Niżej podano funkcje charakterystyczne φ X ( t ) {\displaystyle \varphi _{X}(t)} znanych rozkładów μ X . {\displaystyle \mu _{X}.} Zawsze n , k ∈ N , {\displaystyle n,k\in \mathbb {N} ,} a , b , m , p , t , x , λ , σ ∈ R , {\displaystyle a,b,m,p,t,x,\lambda ,\sigma \in \mathbb {R} ,} przy czym p , λ > 0 {\displaystyle p,\lambda >0} oraz A ⊆ R . {\displaystyle A\subseteq \mathbb {R} .} Symbol 1 A ( x ) {\displaystyle \mathbf {1} _{A}(x)} oznacza indykator zbioru A . {\displaystyle A.}

Nazwa Oznaczenie Rozkład Funkcja charakterystyczna
jednopunktowy δ a {\displaystyle \delta _{a}} pmf ⁡ ( a ) = 1 {\displaystyle \operatorname {pmf} (a)=1} e a i t {\displaystyle e^{ait}}
dwupunktowy pmf ⁡ ( a ) = p = 1 − pmf ⁡ ( b ) {\displaystyle \operatorname {pmf} (a)=p=1-\operatorname {pmf} (b)} p e a i t + ( 1 − p ) e b i t {\displaystyle pe^{ait}+(1-p)e^{bit}}
Poissona P o i s ( λ ) {\displaystyle \mathrm {Pois} (\lambda )} pmf ⁡ ( k ) = λ k k ! e − λ {\displaystyle \operatorname {pmf} (k)={\tfrac {\lambda ^{k}}{k!}}e^{-\lambda }} e λ ( e i t − 1 ) {\displaystyle e^{\lambda (e^{it}-1)}}
dwumianowy B i n o m ( n , p ) {\displaystyle \mathrm {Binom} (n,p)} pmf ⁡ ( k ) = ( n k ) p k ( 1 − p ) n − k {\displaystyle \operatorname {pmf} (k)={\tbinom {n}{k}}p^{k}(1-p)^{n-k}} ( 1 − p + p e i t ) n {\displaystyle (1-p+pe^{it})^{n}}
geometryczny G e o m ( p ) {\displaystyle \mathrm {Geom} (p)} pmf ⁡ ( k ) = p ( 1 − p ) k − 1 {\displaystyle \operatorname {pmf} (k)=p(1-p)^{k-1}} p e i t 1 − ( 1 − p ) e i t {\displaystyle {\tfrac {pe^{it}}{1-(1-p)e^{it}}}}
jednostajny (na odcinku) U ( a , b ) {\displaystyle \mathrm {U} (a,b)} f ( x ) = 1 b − a 1 ( x ) {\displaystyle f(x)={\tfrac {1}{b-a}}\mathbf {1} _{}(x)} e i t b − e i t a i t ( b − a ) {\displaystyle {\tfrac {e^{itb}-e^{ita}}{it(b-a)}}}
wykładniczy E x p ( λ ) {\displaystyle \mathrm {Exp} (\lambda )} f ( x ) = λ e − λ x {\displaystyle f(x)=\lambda e^{-\lambda x}} λ λ − i t {\displaystyle {\tfrac {\lambda }{\lambda -it}}}
normalny N ( m , σ 2 ) {\displaystyle \mathrm {N} (m,\sigma ^{2})} f X ( x ) = 1 σ 2 π e − ( x − m ) 2 2 σ 2 {\displaystyle f_{X}(x)={\tfrac {1}{\sigma {\sqrt {2\pi }}}}e^{-{\tfrac {(x-m)^{2}}{2\sigma ^{2}}}}} e m i t − ( σ t ) 2 2 {\displaystyle e^{mit-{\tfrac {(\sigma t)^{2}}{2}}}}
normalny standardowy N ( 0 , 1 ) {\displaystyle \mathrm {N} (0,1)} f ( x ) = 1 2 π e − x 2 2 {\displaystyle f(x)={\tfrac {1}{\sqrt {2\pi }}}e^{-{\tfrac {x^{2}}{2}}}} e − t 2 2 {\displaystyle e^{-{\tfrac {t^{2}}{2}}}}

Momenty

Z funkcji charakterystycznej φ X {\displaystyle \varphi _{X}} da się wyznaczyć momenty zmiennej losowej X . {\displaystyle X.} Istnieje też częściowe odwrócenie tego twierdzenia dla momentów parzystych.

Twierdzenie Jeżeli istnieje n {\displaystyle n} -ty moment zmiennej losowej X , {\displaystyle X,} tzn. E | X | n < ∞ , {\displaystyle \mathbb {E} |X|^{n}<\infty ,} to istnieje również n {\displaystyle n} -ta pochodna funkcji charakterystycznej φ X , {\displaystyle \varphi _{X},} co więcej jest ona jednostajnie ciągła, oraz zachodzi i n E X n = φ X ( n ) ( 0 ) . {\displaystyle i^{n}\mathbb {E} X^{n}=\varphi _{X}^{(n)}(0).}

Dzięki temu wzór Taylora funkcji charakterystycznej wygląda następująco: jeżeli E | X | n < ∞ , {\displaystyle \mathbb {E} |X|^{n}<\infty ,} to

φ X ( t ) = ∑ k = 0 n ( i t ) k k ! E X k + o ( t n ) . {\displaystyle \varphi _{X}(t)=\sum _{k=0}^{n}{\tfrac {(it)^{k}}{k!}}\mathbb {E} X^{k}+\mathrm {o} (t^{n}).} Twierdzenie Jeżeli istnieje n {\displaystyle n} -ta pochodna funkcji charakterystycznej zmiennej losowej, gdzie n = 2 k {\displaystyle n=2k} oraz k ∈ Z , {\displaystyle k\in \mathbb {Z} ,} to istnieje n {\displaystyle n} -ty moment tej zmiennej losowej.

Rozkłady

Kryterium określającego kiedy funkcja φ : R → C {\displaystyle \varphi \colon \mathbb {R} \to \mathbb {C} } jest funkcją charakterystyczną pewnego rozkładu prawdopodobieństwa dostarcza twierdzenie Bochnera. Innym jest kryterium Pólya.

Funkcja charakterystyczna determinuje rozkład, tzn. jeśli μ , ν {\displaystyle \mu ,\nu } są rozkładami prawdopodobieństwa na R , {\displaystyle \mathbb {R} ,} to jeśli mają one równe funkcje charakterystyczne, czyli φ μ ( t ) = φ ν ( t ) ∀ t ∈ R , {\displaystyle \varphi _{\mu }(t)=\varphi _{\nu }(t)\quad \forall _{t\in \mathbb {R} },} to μ = ν . {\displaystyle \mu =\nu .}

Ponieważ ciąg ( X n ) n ∈ N {\displaystyle (X_{n})_{n\in \mathbb {N} }} jest zbieżny według rozkładu, jeżeli

E f ( X n ) → E f ( X ) , {\displaystyle \mathbb {E} f(X_{n})\to \mathbb {E} f(X),} dla dowolnej funkcji f {\displaystyle f} ciągłej i ograniczonej,

w szczególności dla f ( x ) = e i t x {\displaystyle f(x)=e^{itx}} (ciągłej i ograniczonej co do modułu przez 1), to

E e i t X n → E e i t X ⟺ φ X n ( t ) → φ X ( t ) ∀ t ∈ R , {\displaystyle \mathbb {E} e^{itX_{n}}\to \mathbb {E} e^{itX}\iff \varphi _{X_{n}}(t)\to \varphi _{X}(t)\quad \forall _{t\in \mathbb {R} },}

a więc zbieżność według rozkładu zmiennych losowych pociąga zbieżność punktową ich funkcji charakterystycznych. Twierdzenie Lévy’ego-Craméra jest nietrywialnym odwróceniem tego wyniku.

Dystrybuanta i gęstość

Z tożsamości Parsevala wynika wzór na dystrybuantę F {\displaystyle F} rozkładu o funkcji charakterystycznej φ . {\displaystyle \varphi .} Jeżeli punkt u {\displaystyle u} jest punktem ciągłości, to

F ( u ) = lim a → ∞ ∫ − ∞ u ( 1 2 π ∫ − ∞ ∞ e − i s t φ ( s ) e − s 2 / 2 a 2 d s ) d t . {\displaystyle F(u)=\lim _{a\to \infty }\int \limits _{-\infty }^{u}\left({\frac {1}{2\pi }}\int \limits _{-\infty }^{\infty }e^{-ist}\varphi (s)e^{-s^{2}/2a^{2}}ds\right)dt.}

Odwrotna transformacja Fouriera umożliwia wyznaczenie gęstości: jeżeli φ {\displaystyle \varphi } jest całkowalna, to rozkład ten ma ograniczoną i ciągłą gęstość f {\displaystyle f} daną wzorem

f ( x ) = 1 2 π ∫ − ∞ ∞ e − i s x φ ( s ) d s . {\displaystyle f(x)={\frac {1}{2\pi }}\int \limits _{-\infty }^{\infty }e^{-isx}\varphi (s)ds.}

Twierdzenie Plancherela mówi, iż jeżeli rozkład ma gęstość f {\displaystyle f} i funkcję charakterystyczną φ , {\displaystyle \varphi ,} to | φ | 2 {\displaystyle |\varphi |^{2}} jest całkowalna wtedy i tylko wtedy, gdy f 2 {\displaystyle f^{2}} jest całkowalna. Wtedy też

∫ − ∞ ∞ | f ( x ) | 2 d x = 1 2 π ∫ − ∞ ∞ | φ ( t ) | 2 d t . {\displaystyle {}\,\int \limits _{-\infty }^{\infty }|f(x)|^{2}dx={\frac {1}{2\pi }}\int \limits _{-\infty }^{\infty }|\varphi (t)|^{2}dt.}

Niezależne zmienne losowe

Funkcje charakterystyczne są szczególnie użyteczne do badania zmiennych będących funkcjami niezależnych zmiennych losowych. Jeżeli X 1 , … , X n {\displaystyle X_{1},\dots ,X_{n}} jest ciągiem niezależnych zmiennych losowych, a

S n = a 1 X 1 + ⋯ + a n X n , {\displaystyle S_{n}=a_{1}X_{1}+\dots +a_{n}X_{n},}

gdzie a i ∈ C , {\displaystyle a_{i}\in \mathbb {C} ,} to funkcja charakterystyczna S n {\displaystyle S_{n}} dana jest wzorem

φ S n ( t ) = φ X 1 ( a 1 t ) … φ X n ( a n t ) . {\displaystyle \varphi _{S_{n}}(t)=\varphi _{X_{1}}(a_{1}t)\dots \varphi _{X_{n}}(a_{n}t).}

W szczególności φ X + Y ( t ) = φ X ( t ) φ Y ( t ) , {\displaystyle \varphi _{X+Y}(t)=\varphi _{X}(t)\varphi _{Y}(t),} co wynika wprost z definicji funkcji charakterystycznych (pierwsza i czwarta równość), własności funkcji wykładniczej (druga równość) i niezależności zmiennych losowych (trzecia równość):

φ X + Y ( t ) = E e i t ( X + Y ) = E ( e i t X e i t Y ) = E e i t X E e i t Y = φ X ( t ) φ Y ( t ) . {\displaystyle \varphi _{X+Y}(t)=\mathbb {E} e^{it(X+Y)}=\mathbb {E} \left(e^{itX}e^{itY}\right)=\mathbb {E} e^{itX}\mathbb {E} e^{itY}=\varphi _{X}(t)\varphi _{Y}(t).}

Rozkłady wielowymiarowe

Jeżeli t = ( t 1 , t 2 , … , t n ) ⊤ ∈ R n , {\displaystyle \mathbf {t} =(t_{1},t_{2},\dots ,t_{n})^{\top }\in \mathbb {R} ^{n},} zaś X = ( X 1 , X 2 , … , X n ) ⊤ ∈ R n {\displaystyle \mathbf {X} =(X_{1},X_{2},\dots ,X_{n})^{\top }\in \mathbb {R} ^{n}} jest wektorem losowym, a przez t X {\displaystyle \mathbf {tX} } rozumie się ich iloczyn skalarny, to funkcję charakterystyczną wektora X {\displaystyle \mathbf {X} } definiuje się analogicznie wzorem

φ X ( t ) = E e i t X . {\displaystyle \varphi _{\mathbf {X} }(\mathbf {t} )=\mathbb {E} e^{i\mathbf {tX} }.}

lub w zapisie macierzowym

φ X ( t ) = E e i t ⊤ X , {\displaystyle \varphi _{\mathbf {X} }(\mathbf {t} )=\mathbb {E} e^{i\mathbf {t} ^{\top }\mathbf {X} },}

gdzie ⊤ {\displaystyle {}^{\top }} oznacza transpozycję (oba wektory są kolumnowe).

Funkcja charakterystyczna przekształcenia afinicznego A X + b {\displaystyle \mathbf {AX} +\mathbf {b} } wyraża się przez φ X {\displaystyle \varphi _{\mathbf {X} }} wzorem postaci:

φ A X + b ( t ) = φ X ( A ⊤ t ) e i t ⊤ b , {\displaystyle \varphi _{\mathbf {AX} +\mathbf {b} }(\mathbf {t} )=\varphi _{X}(\mathbf {A^{\top }t} )e^{i\mathbf {t^{\top }b} },}

gdzie A {\displaystyle \mathbf {A} } jest przekształceniem liniowym (macierzą), zaś b ∈ R n . {\displaystyle \mathbf {b} \in \mathbb {R} ^{n}.}

Zmienne losowe X 1 , … , X n {\displaystyle X_{1},\dots ,X_{n}} niezależne wtedy i tylko wtedy, gdy

φ X ( t ) = φ X 1 ( t 1 ) … φ X n ( t n ) . {\displaystyle \varphi _{\mathbf {X} }(\mathbf {t} )=\varphi _{X_{1}}(t_{1})\dots \varphi _{X_{n}}(t_{n}).}

Zgodnie z twierdzeniem Craméra-Wolda ciąg wektorów losowych X 1 , X 2 , … {\displaystyle \mathbf {X} _{1},\mathbf {X} _{2},\dots } zbiega według rozkładu do wektora X {\displaystyle \mathbf {X} } wtedy i tylko wtedy, gdy t X n {\displaystyle \mathbf {tX} _{n}} zbiega według rozkładu do t X {\displaystyle \mathbf {tX} } dla każdego t ∈ R n . {\displaystyle \mathbf {t} \in \mathbb {R} ^{n}.}

Zobacz też

Bibliografia

Kontrola autorytatywna (funkcja):Encyklopedia internetowa: