sciaga procki wklepane by KaRolEk


1. Podać def. Syg. Los. I zasadę jego opisu za pomocą realizacji. K0 14. Def i właściwości łańcuchów Markowa
(x(n)K0 x(n + l1)K1 ...x(n + lL )K L ) = E[X (n)K X (n + l1)K1 ...X (n + lL )K L ] dla dowolnych wartości przesunięć:
Sygn los naz f-cję dwóch zmiennych: czasu t i zdarz los e i oznaczamy X(t,e)=X(t) przy ustalonej chwili t=t0 syg los jest f-cją zdarz (") Syg los który przyjmuje tylko dyskretne wartości nazywamy łańcuchem Markowa jeżeli spełniony jest warunek: P{(X(n)=xn)|(X(n-
losowego, a więc zmienną los X(t=t0,e)X(t=t0). Przy ustalonym zdarzeniu los e=e0 syg los jest deterministyczną f-cją czasu. 1)=xn-1),(X(n-2)=xn-2),...}=P{(X(n)=xn)|(X(n-1)=xn-1)}. Wartości, które przyjmuje łańcuch Markowa oznaczymy S1,S2,...SM. Jeżeli
l1,l2,...,lL i dowolnych wartości potęg K0,K1,...,KL. Syg los X(n) dla którego spełniony jest warunek (x(n))(")=E[X(n)] nazywamy
X(t,e0)=x(t) jest nazywany realizacją syg los. X(n) równa się S1 to mówimy, że łańcuch jest w stanie S1. P-wa:
ergodycznym względem wart średniej. Syg los X(n) dla którego spełniony jest warunek (x(n)x(n+k))(")=E[X(n)X(n+k)] nazywamy
Opis za pomocą realizacji: zakładamy, że dysponujemy nieskończenie licznym zbiorem realizacji danego syg los. Dla dowolnej Pij(n,m)=P{(X(m)=Sj)|(X(n)=Si)} nazywamy prawdopodobieństwami przejść.
ergodycznym względem f-cji korelacji. p11(n, m) p12 ... p1M łł
îÅ‚
ustalonej chwili t0 dysponujemy zbiorem próbek realizacji syg los pobranych w chwili t0, próbki te są realizacjami zmiennej los X(t). Zbiór p-w przejść zapisujemy w postaci macierzy. Jest to macierz
ïÅ‚
p21 p22 ... p2M śł
Jeżeli syg los jest sygnałem o wartościach ze zbioru ciągłego, to zmienna los X(t) jest zmienną los ciągłą. Załóżmy, że jej gęstość p- 7. Podać i uzasadnić właściwości stacjonarnych w szerokim sensie syg los.
stochastyczna tzn suma elementów każdego wiersza tej macierzy jest równa
ïÅ‚ śł
(n, m) =
wa jest pX(x,t0). Ponieważ wartość tej zmiennej los należącej do wnętrza małego przedziału x0Jednowym gęstość p-wa nie zależy od czasu: p(x,t1)=p(x,t1-t1)=p(x); * Dwuwym gęstość p-wa zależy od długości odstępu
ïÅ‚ ... ... ... ... śł
realizacji o liczności proporcjonalnej do wartości pX(x0,t0), zatem wartość średnia zmiennej los X(t) równa oznaczamy Pi(n)=P(X(n)=Si) natomiast wektor bezwarunkowych p-w stanów
miÄ™dzy chwilami próbkowania p2(x1,x2,t1,t2)=p2(x1,x2,t1-t1,t2-t1)= p2(x1,x2,t2-t1)= p2(x1,x2,Ä). * Wartość Å›rednia jest staÅ‚a:
ïÅ‚ śł
" Å‚aÅ„cucha oznaczamy P(n)T=[P1(n) P2(n) ... PM(n)]. PeÅ‚ny opis statystyczny pM1 pM 2 ... pMM ûÅ‚
" ðÅ‚
prostego (mającego pamięć sięgającą tylko jeden krok wstecz) łańcucha
E(X (t0 )) = xpX (x,t0 )dx może być obliczona za pomocą uśrednienia po zbiorze wartości próbek
mX (t) = E(X (t)) = xp(x)dx = mX = const * F-cja korelacji i f-cja kowariancji nie zależy od bezwzględnych wartości
+"
+" Markowa otrzymujemy ustalając wektor p-w stanów w chwili początkowej P(0) oraz ciąg jednokierunkowych macierzy p-w przejść
-"
-" (i,i+1) gdzie i=0,1,....
N chwil t1 i t2, ale od odstÄ™pu Ä miÄ™dzy nimi:
1
mX (t0 ) = lim (t0 ) " " 15. Jednorodność i stacjonarność łańcucha Markowa
"xi
N " N
Aańcuch Markowa nazywamy jednorodnym, jeżeli ma on następującą właściwość: (m,n)= (n-m) dla n>me"0. Jednorodny łańcuch
i=1 RX (t1,t2 ) = E( X (t1)X (t2 )) = x1x2 p2 (x1, x2,Ä )dx1dx2 = RX (Ä )C(t1,t2 ) = RX (Ä ) - m2
+" +" X
Markowa nazywamy stacjonarnym, jeżeli jego wektor p-w stanów nie zależy od czasu: P(n)=P dla n=0,1,..... W przeciwnym
-"
przypadku nazywamy go niestacjonarnym.
2. Podać sposób obl wart średniej jedno i dwuwymiarowej dystrybuanty, gęstości p-wa syg los za pomocą uśredniania po
2 2
zbiorze realizacji.
Wariancja (dyspersja): jest stała: à (t) = E[(X (t) - m2 )2]= CX (0) = à = const
X X X
16. Jak obliczamy p-wa stacjonarne stanów łańcucha Markowa?
Jednowym dystryb syg los X(t) może być wyznaczona dla ustalonej chwili t0, punkt po punkcie, ze wzoru
Dla stacjonarnego łańcucha Markowa spełnione jest równanie PST =PST, (PST(I- )=0), I=diag(1,1...1). Uwzględniając warunek
n1(xi ,t0 )
8. Podać i omówić def częściowej stacjonarności dla sygnałów niestacjonarnych.
FX (xi ,t0 ) = P(X (t0 ) < xi ) = lim xi=i", i=..-2,-1,0,1,2,.. gdzie n1(x1,t0) jest liczbą próbek realizacji syg los x(t) M
* Syg los X(t) nazywamy stacjonarnym rzędu k, jeżeli pn(x1...xn,t1-t0...tn-t0)= pn(x1...xn,t1...tn) dla nd"k. * Syg los X(t) nazywamy
N " N
normalizacyjny = 1 możemy z powyższych równań obliczyć stacjonarne p-wo stanów PSm; m=1,2...M
"PSm
asymptotycznie stacjonarnym w wąskim sensie jeżeli istnieje granica: limt0"pn(x1...xn,t1+t0...tn+t0). * Syg los X(t) nazywamy
pobranych w chwili t0 o wartościach mniejszych od xi. Dwuwym dystryb można obliczyć z analogicznego wzoru analaizując próbki
m=1
stacjonarnym w wąskim sensie o ograniczonym przedziale czasowym jeżeli pn(x1...xn,t1-t0...tn-t0)= pn(x1...xn,t1...tn) spełniony jest dla
realizacji syg los X(t) pobrane w dwóch różnych chwilach:
wszystkich chwil z tego przedziału, dla dowolnych wartości n.
n2 (xi , x ,t1,t2 )
j 17. Klasyfikacja stanów łańcucha Markowa
FX (xi , x ,t1,t2 ) = P(X (t1) < xi , X (t2 ) < x ) = lim xi=i", xj=j", i,j=..-2,-1,0,1,2,..
j j
Stan Sj łańcucha Markowa nazywamy niepowrotnym jeżeli istnieje taki stan Sk (k`"j) i taka liczba kroków, że Pj,k(n)>0 lecz Pk,j(m)=0
N " N 9. Objaśnić pojęcie stacjonarnego powiązania syg los.
dla wszystkich wartości m. Wszystkie inne stany nazywamy powrotnymi. Dwa stany łańcucha Markowa Sj i Sk nazywamy
Dwa syg los X(t) i Y(t) nazywamy stacjonarnie powiązanymi w szerokim sensie, jeżeli ich f-cja korelacji skrośnej jest niezmienna
´n1(xi ,t0 )
komunikującymi się jeżeli dla pewnych wartości n i m Pj,k(n)>0 Pj,k(m)>0. Zbiór stanów łańcucha Markowa może być podzielony na
Jednowym gÄ™stość p-wa: px (xi ,t0 ) Å" " = P(xi d" X (t0 ) < xi + ") = lim xi=i", i=..-2,-1,0,1,2,.. gdzie ´n1(x1,t0) wzglÄ™dem przesuniÄ™cia na osi czasu tzn: RXY(t1,t2)=e[X(t1)Y(t2)]=E[X(t1-t1)Y(t2-t1)]=RXY(Ä). Jeżeli każdy z syg los X(t) i Y(t) jest
podzbiory stanów komunikujących się.
N " N stacjonarny w szerokim sensie, to nie oznacza to, że są one powiązane stacjonarnie w szerokim sensie.
jest liczbą próbek realizacji syg los X(t) pobranych w chwili t0, o wartościach leżących w przedziale (xi, xi+").
18. Co to są p-wa finalne stanów łańcucha Markowa i jaki jest ich związek z p-mi stacjonarnymi stanów łańcucha.
Dwuwym gęstośc p-wa: 10. Proces Bernouliego i jego właściwości.
Dla regularnego ergodycznego łańcucha Markowa istnieje graniczny wektor p-w stanów Pfinal=limn"P(n) który nazywamy wektorem
CiÄ…g los X(n), -"´n2 (xi , x ,t1,t2 )
j
p-w finalnych stanów łańcucha
px (xi , x ,t1,t2 ) Å" "xi Å" "x = P(xi d" X (t1) < xi + "xi , x d" X (t2 ) < x + "x ) = lim . prawdopodobieÅ„stwami odpowiednio równymi p i 1-p. Jeżeli p=½ to sygnaÅ‚ ten nosi nazwÄ™ binarny biaÅ‚y szum. P-wo wystÄ…pienia
j j j j j
N " N
podciągu (1,-1,-1,1) rozpoczynającego się w dowolnej chwili n0 jest równe: P[(X(n0)=1), (X(n0+1)=-1),..., (X(n0+3)=1)]=p(1-p)(1-
20. Co to jest ukryty łańcuch Markowa
p)p=p2(1-p)2. P-wo to nie zależy od położenia podciągu w ciągu, będzie tak dla dowolnych podciągów, a więc proces Bernouliego jest
3. Podać i omówić def równoważnoÅ›ci i niezależnoÅ›ci syg los. stacjonarny. Jest również ergodyczny. Wart Å›rednia procesu Bernouliego mX=E[X(n)]=1p+(-1)(1-p)=2p-1; wariancja ÃX2=E[X(n)2]- Ukryty Å‚aÅ„cuch Markowa jest to syg podwójnie stochastyczny  losowy jest sygnaÅ‚ S(n) bÄ™dÄ…cy Å‚aÅ„cuchem Markowa
reprezentującym położenie klucza i losowy jest syg wynikowy X(n) utworzony z sygnałów wyjściowych dwóch zródeł, zależnie od
Dwa syg los, których n-wymiarowe rozkÅ‚ady p-wa sÄ… jednakowe nazywamy równoważnymi. Dwa syg los X(t), Y(t) nazywami (E[X(n)])2=(12p+(-1)2(1-p))-(2p-1)2=4p(1-p), stÄ…d dla binarnego szumu biaÅ‚ego mX=0, ÃX2=1.
położenia klucza. Sygnał S(n) nie może być obserwowany bezpośrednio  stąd nazwa. Aańcuch Markowa jest ukryty w
niezależnymi jeżeli wektor los (X (t1), X (t2 ),..., X (tn ))T jest niezależny od wektora los (Y (t1),Y (t2 ),...,Y (tm ))T dla
obserwowanym sygnale X(n).
11. Proces dwumianowy i jego właściwości
dowolnych t1...tn, t1...tm. Warunkiem koniecznym i dostatecznym niezależności syg X(t) i Y(t) jest równość gęstości p-wa łącznego Jest to liczba dodatnich wartości w procesie Bernouliego począwszy od ustalonej chwili n0 do chwili bieżącej n>n0. Dla n0=0:
powyższych wektorów los iloczynowi gęstości p-wa obu tych wektorów. 21. Co to jest proces urodzin i śmierci i za pomocą jakiego grafu można go przedstawić.
n
1
n Jest to proces błądzenia przypadkowego.
Y (n) = (X (k) +1), P(Y (n) = m) = Cm Å" pm (1- p)n-m , m=0,1,2...n. Cmn oznacza tu liczbÄ™ kombinacji z n elementów
"
4. Podać def warunków gęstości p-wa dla sygnałów los i ich właściwości dla rzeczywistych syg los. 2 1- 0 0 łł
îÅ‚ Ä…1 Ä…1
k =1
"
ïÅ‚ śł
p2 (x1, x2,t1,t2 ) po m elementów.
²1 1-Ä…2 - ²1 Ä…2
0
p(x1,t1)(x2 ,t2 ) = gdzie p12 (x2,t2 ) = p2 (x1, x2,t1,t2 )dx1 WÅ‚aÅ›ciwoÅ›ci: ïÅ‚ śł
+" Macierz przejść tego łańcucha
p12 (x2,t2 ) ïÅ‚ 0 ²2 ... Ä…4
śł
-" 12. Proces o niezależnych przyrostach, błądzenie przypadkowe, dyskretny proces Wienera
ïÅ‚ śł
n
lim p2 (x1, x2,t1,t2 ) = p11(x1,t1) p12 (x2,t2 ) lim p(x1,t1)(x2,t2) = p11(x1,t1) 0 0 ²4 1- ²4 ûÅ‚
ðÅ‚
|t2-t1|" |t2-t1|" Niech X (n) = (k) , gdzie ¾(k) jest procesem Bernouliego przyjmujÄ…cym wartoÅ›ci +1 i  1 z prawdopodobieÅ„stwami p i 1-p. Z
"¾
Markowa ma postać macierzy pasmowej (trójdiagonalnej). Aatwo
k =-"
,
lim p(x1,t1)(x2,t2) = ´ (x1 - x2 ) lim p2 (x1, x2,t1,t2 ) = p12 (x2,t2 )´ (x1 - x2 ) sprawdzić, że p-wa stacjonarne speÅ‚niajÄ… równania: PSm+1²m=PSm+1Ä…m
|t2-t1|0 |t2-t1|0 def procesu wynika, że przyrosty X(n)-X(n-1), X(n-1)-X(n-2),...,X(k)-X(k-1) są niezależne statystycznie. Proces mający taką cechę
gdzie m=1,2,3,4. Oznacza to, że w stanie stacjonarnym p-wo przejścia ze stanu wyższego do stanu niższego jest równe p-wu przejścia
nazywamy procesem o niezależnych przyrostach. Ma on tę właściwość, że zdarzenia określone na nie zachodzących na siebie
ze stanu niższego do stanu wyższego.
n
5. Podać def wart średniej, f-cji autokorelacji, f-cji autokowariancji, f-cji korelacji i kowariancji skrośnej dla rzecz syg los.
odcinkach czasu są niezależne. Definiujemy nowy syg los: X (n,n0 ) = X (n) - X (n0 ) = (k) dla n>n0 (zakładamy, że 22. Jaki sygnał nazywamy absolutnie fair a jaki martyngałem.
Wart Å›rednia: mX(t)=m(t)1=E(X(t)). F-cja autokorelacji: RX(t1,t2)=E[X(t1)X(t2)] F-cja autokowariancji: CX(t1,t2)=E[(X(t1)- "¾
Syg los X(n) nazywamy syg absolutnie fair jeżeli ma on nast właściwość: E{X(n)|x(n-1), x(n-2),...}=0. Syg los mający następującą
mX(t1))(X(t2)-mX(t2))]=RX(t1,t2)-mX(t1)mX(t2). F-cja korelacji skrośnej: RXY(t1,t2)=E[X(t1)Y(t2)]. F-cja kowariancji skrośnej: k =n0 +1
CXY(t1,t2)=E[(X(t1)-mX(t1))(Y(t2)-mY(t2))]=RXY(t1,t2)-mX(t1)mY(t2). właściwość: E{X(n)|x(n-1), x(n-2),...,y(n0)}=y(n-1) nosi nazwę martyngału.
X(n0,n0)=0). Sygnał ten jest znany jako błądzenie przypadkowe i najczęściej jest definiowany dla n0=0 lub n0=-1. W szczególnym
przypadku, gdy p=½ wtedy ¾(k) jest binarnym biaÅ‚ym szumem i syg los X(n,n0) jest nazywany dyskretnym procesem Wienera.
6. Zdefiniować i omówić pojęcia stacjonarności i ergodyczności syg los. 23. Syg los okresowy i cyklostacjonarny
Syg los X(t) nazywamy stacjonarnym w wąskim sensie (ściśle stacjonarnym), jeżeli jego wszystkie skończenie-wymiarowe f-cje Syg los X(n) nazywamy okresowym, jeżeli istnieje taka liczba całkowita M, że zachodzi nast. równość gęstości p-wa:
13. Def procesu Markowa
rozkÅ‚adu p-wa sÄ… niezmienne wzglÄ™dem przesuniÄ™cia na osi czasu, tzn pn(x1,x2,...,xn,t1,...,t2)= pn(x1,x2,...,xn,t1-t0,...,t2-t0) dla dowolnych p(x0,x1,...,xN,n0,n1,...,nN)= p(x0,x1,...,xN,n0+k0,n1+k1·M,...,nN+kN·M) dla dowolnych wartoÅ›ci n0,n1,...,nN, dowolnego zbioru liczb
Proces Markowa jest to syg los, dla którego wartość jednej próbki zależy od wartości próbki bezpośrednio ją poprzedzającej (proces
wartości n oraz t0. Oznacza to, że dla stacjonarnego w wąskim sensie syg los X(t) sygnały X(t) oraz X(t-t0) mają takie same całkowitych k0,k1,...,kN i dla dowolnej wartości N. Jeżeli równośc ta zachodzi tylko dla jednakowych wartości liczb kn tzn dla k0=k1-
Bernouliego  próbki są niezależne). Syg los nazywamy procesem Markowa jeśli rozkład p-wa warunkowego próbki X(n) przy
charakterystyki statystyczne (momenty dowolnego rzędu) dla dowolnej wartości t0. Stacjonarny syg los nazywamy ściśle ..=kN, to mówimy, że syg los jest cyklostacjonarny.
warunku że ustalone są wartości wszystkich poprzednich próbek, zależy tylko od wartości próbki poprzedniej tzn: p(xn|xn-1,xn-
ergodycznym jeżeli wszystkie jego charakterystyki statystyczne obliczone metodą uśredniania pojedynczej realizacji są równe, z
...)=p(xn|xn-1).
2
prawdopodobieństwem równym 1, odpowiednim charakterystykom obliczonym metodą uśredniania po zbiorze: 24. Opisać ideę przejścia od dyskretnego procesu Wienera do ciągłego procesu Wienera i objaśnić dlaczego jest on
gaussowskim syg los. Czy jest on stacjonarny?
Dyskretny proces Wienera może w każdej dyskretnej chwili, będącej wielokrotnością kwantu czasu "t, wzrosnąć lub zmaleć o 28. Macierz korelacji i macierz kowariancji dla syg los i ich właściwości 34. Definicje i właściwości f-cji korelacji, kowariancji i gęstości widmowej mocy dla zespolonych, ciągłych syg los.
k Mac korelacji syg los jest w pełni określona
F-cja korelacji: RX (t1,t2 ) = E(X (t1) Å" X (t2 )); f-cja kowariancji: CX (t1,t2 ) = E((X (t1) - mX (t1))Å"(X (t2 ) - mX (t2))).
îÅ‚ RX (0,0) RX (0,1) ... RX (0, N -1) Å‚Å‚
przez f-cjÄ™ korelacji syg los. Dla
wartość s z p-wem p=½: W (k Å" "t = Å"¾ (i) k>k0, gdzie ¾(i) jest binarnym biaÅ‚ym szumem. Wartość Å›rednia dyskretnego
"s
ïÅ‚ śł
stacjonarnego syg los f-cja korelacji jest
i=k0 +1 T RX (1,0) RX (1,1) ... RX (1, N -1) Zachodzi zwiÄ…zek: RX (t1,t2 ) = CX (t1,t2 ) + mX (t1) Å" mX (t2 ) .
öÅ‚
ïÅ‚ śł
RX = EëÅ‚ X Å"(X ) = zależna tylko od jednego argumentu i
ìÅ‚ ÷Å‚
k íÅ‚ Å‚Å‚ ... ... ... ... śł Dla stacjonarnego syg los: RX (t1,t2 ) = RX (Ä ) CX (t1,t2 ) = CX (Ä )
ïÅ‚
macierz korelacji przyjmuje specyficznÄ…
procesu Wienera jest równa zeru: E(W (k Å" "t)) = Å" E[¾ (i)] = 0 , natomiast wariancja ïÅ‚ śł
"s " "
(N
ðÅ‚RX -1,0) RX (N -1,1) ... RX (N -1, N -1)ûÅ‚ postać:
i=k0 +1
WÅ‚aÅ›ciwoÅ›ci RX(Ä): RX (Ä ) = RX (-Ä ) - symetria Hermite a; ) Å" RX (t2 - t1) Å" a(t1)dt1dt2 - dla dowolnej f-cji a(t)
2
+" +"a(t
Jest to macierz Toeplitza.
îÅ‚ RX (0) RX (1) ... RX (N - 2) RX (N -1) Å‚Å‚
k
-" -"
ïÅ‚
Var(W (k Å" "t)) = Å"Var[¾ (i)] = s2 Å"(k - k0 ) . WprowadzajÄ…c dodatkowe oznaczenia t=k·"t, t0=k0·"t obliczamy dodatnia półokreÅ›loność.
"s2 RX (-1) RX (0) ... RX (N - 3) RX (N - 2)śł
ïÅ‚ śł
i=k0 +1 "
ïÅ‚ ... ... ... ... ... śł
F-cja gÄ™stoÅ›ci widmowej mocy dla stacjonarnych syg los: S ( f ) = (Ä ) Å" e- j2Ä„fÄ dÄ
t - t0 ïÅ‚ śł X X
+"R
Var(W (t)) = s2 Å" . Jeżeli zaÅ‚ożymy ze "t zmierza do zera oraz do zera zmierza też przyrost s w taki sposób że stosunek s2/"t (-N + 2) RX (-N + 3) ... RX (0) RX (1)
ïÅ‚RX śł
-"
"t
ïÅ‚ śł WÅ‚aÅ›ciwoÅ›ci: - przyjmuje wartoÅ›ci rzeczywiste; - SX(f)e"0 -"RX (-N +1) RX (-N + 2) ... RX (-1) RX (0)
ðÅ‚ ûÅ‚
t - t0
zmierza do staÅ‚ej Â0, to otrzymamy Var(W (t)) = lim s2 Å" =  (t - t0 ) . Tak okreÅ›lony proces W(t) nazywamy ciÄ…gÅ‚ym
0
T
Å‚Å‚
"t " "t 35. Wykazać że dla Å‚Ä…cznie stacjonarnych ciÄ…gÅ‚ych sygnałów X(t) i Y(t) zachodzi RXY(Ä)=RYX(-Ä)
Podobnie macierz kowariancji syg los X(t) zdefiniowana wzorem CX = EîÅ‚(X - mX )Å"((X - mX )) jest caÅ‚kowicie okreÅ›lona
ïÅ‚ śł
procesem Wienera. Jest on gaussowskim syg los, ponieważ gÄ™stość p-wa dowolnego rzÄ™du ciÄ…gÅ‚ego procesu Wienera jest ðÅ‚ ûÅ‚
RXY (Ä ) = E(X (t)) Å"(Y (t +Ä )) RYX (-Ä ) = E(Y (t))Å"(X (t -Ä ))= E(X (t -Ä ))Å"(Y (t))= RXY (Ä )
gaussowska. Proces Wienera jest niestacjonarny, ponieważ wariancja procesu Wienera jest zależna od czasu. przez f-cję kowariancji i dla stacjonarnego syg los jest Hermitowską symetryczną macierzą Toeplitza. Właściwości dodatniej
półokreśloności f-cji korelacji (kowariancji) implikuje dodatnią półokreśloność macierzy korelacji (kowariancji).
36. Wykazać że dla łącznie stacjonarnych ciągłych syg X(t) i Y(t) zachodzi SXY(f)=SYX(f)
25. Właściwości gaussowskich syg los.
" " "
* GSL jest w pełni określony przy znajomości wartości średniej mX(t) i f-cji kowariancji CX(t1,t2). * Dla GSL brak korelacji między 29. F-cja korelacji i kowariancji skrośnej, ortogonalność, nieskorelowanie i łączna stacjonarność syg los zespolonych.
wartościami procesu jest równoważny ich niezależności. * Dla GSL pojęcie stacjonarności w sensie szerokim i w sensie wąskim są
S ( f ) = (Ä ) Å" e- j2Ä„fÄ dÄ SYX ( f ) = (Ä ) Å"e- j2Ä„fÄ dÄ = (Ä ) Å" e dÄ =
F-cja korelacji skroÅ›nej dla dwóch syg los X(n) i Y(n): RXY (n1,n2 ) = E(X (n1) Å"Y (n2 )). XY XY +"R +"R j2Ä„fÄ
+"R YX YX
tożsame. * Warunkowe gęstości p-wa dla GSL są także gaussowskie. * Liniowe przekształcenie GSL jest też GSL. *
-" -" -"
Niegaussowski syg los podany na wejście inercyjnego układu liniowego powoduje pojawienie się na jego wyjściu sygnału zbliżonego
F-cja kowariancji skroÅ›nej: CXY (n1,n2 ) = E[(X (n1) - mX (n1))Å"(Y (n2 ) - mY (n2 ))]
"
do GSL i przybliżenie jest tym lepsze im większa jest stała czasowa układu.
Syg los sÄ… ortogonalne jeżeli RXY(n1,n2)=0 i sÄ… nieskorelowane jeżeli CXY(n1,n2)=0 ( RXY (n1,n2 ) = mX (n1) Å" mY (n2 ) ). Dwa syg
XY XY
+"R (-Ä ) Å"e- j2Ä„f (-Ä )dÄ = S ( f )
26. Funkcje korelacji i kowariancji dla zespolonych syg los  definicje i właściwości los X(n) i Y(n) są łącznie stacjonarne w szerokim sensie, jeżeli: X(n) i Y(n) są stacjonarne w szerokim sensie oraz f-cja korelacji
-"
skrośnej jest f-cją tylko odstępu między próbkami tzn RXY(n1,n2)=RXY(n2-n1). F-cja korelacji skrośnej i f-cja kowariancji skrośnej nie
F-cja korelacji: RX (n1,n2 ) = E(X (n1) Å" X (n2 )).
są dodatnio półokreślone i nie mają właściwości symetrii.
37. Podać twierdzenie o próbkowaniu dla syg los.
F-cja kowariancji: CX (n1, n2 ) = E((X (n1) - mX (n1))Å" X (n2 ) - mX (n2 )).
Jeżeli f-cja gęstości widmowej mocy ciągłego syg los XC(t) ma wartość równą zero na zewnątrz przedziały (-b,b), to syg los
30. Def i właściwości gęstości widmowej mocy dyskretno-czasowych syg los.
"
Dla stacjonarnego sygnaÅ‚u losowego: RX (n1,n2 ) = RX (n2 - n1) = RX (l) = E(X (n) Å" X (n + l))
F-cją gęstości widmowej mocy nazywamy transformatę Fouriera f-cji autokorelacji stacjonarnego syg los: sin(x)
X1C (t) = X (n) Å"sin c(2Ä„Bt - nÄ„ ) , gdzie sin c(x) = , a X(n) jest dyskretnym syg los otrzymanym przez
"
"
CX (n1,n2 ) = CX (n2 - n1) = CX (l) = E((X (n) - mX )Å" X (n + l) - mX ), gdzie l=n2-n1 x
jÉ
n=-"
sX (e ) = (l)e- jÉl , sX(ejÉ) ma wymiar mocy na jednostkÄ™ czÄ™stotliwoÅ›ci. WÅ‚aÅ›ciwoÅ›ci: sX(ejÉ) przyjmuje wartoÅ›ci
Właściwości: 1. f-cje korelacji i kowariancji stacjonarnych syg los są symetrycznie sprzężonymi f-cajmi swoich argumentów tzn "RX
próbkowanie syg los XC(t) w odstępach T=1/2B i jest rekonstrukcją syg los XC(t) w tym sensie, że E[(|XC(t)-X1C(t)|)2]=0
RX(l)=[RX(-l)]*; CX(l)=[CX(-l)]*; dla rzeczywistych syg los f-cje korelacji i kowariancji są parzystymi f-cjami odstępu l: RX(l)=RX(-l); l =-"
CX(l)=CX(-l). rzeczywiste; sX[ej(É+2kÄ„)]=sX(ejÉ); sX(ejÉ)e"0; dla rzeczywistych syg los jest parzystÄ… funkcjÄ… pulsacji tzn: sX(ejÉ)= sX(e-jÉ).
38. Definicja i właściwości białego szumu, białego szumu pasmowego i dyskretnego białego szumu.
2. f-cja korelacji i f-cja kowariancji stacjonarnego syg los są dodatnio półokreślone tzn:
Białym szumem nazywamy stacjonarny syg los X(t) o zerowej wartości średniej, którego f-cja gęstości widmowej mocy ma stałą
31. Jak interpretujemy impuls dla pulsacji É=0 w gÄ™stoÅ›ci widmowej mocy
" " " "
wartość: SX(f)=N0 -"Jeżeli syg los ma niezerowÄ… wartość Å›redniÄ…, to jego widmo gÄ™stoÅ›ci mocy bÄ™dzie miaÅ‚o prążek dla É=0 odpowiadajÄ…cy wartoÅ›ci
)RX (n2
" "a(n1 - n1) Å" a(n2 ) e" 0 )CX (n2 - n1) Å" a(n2 ) e" 0 dla dowolnego ciÄ…gu a(n) o
" "a(n1 szumu są zawsze nieskorelowane. Stacjonarny syg los o stałej wartości f-cji gęstości widmowej mocy w ograniczonym paśmie
|mX|2, będącej składową stałą f-cji korelacji. RX(l)=CX(l)-mXmX*, najczęściej zakłada się że wartośc średnia została usunięta i w
n1=-" n2=-" n1=-" n2=-" częstotliwości nazywamy pasmowym białym szumem: SX(f)=N0 -Bzwiązku z tym impuls w widmie dla zerowej pulsacji odpowiada losowej składowej stałej.
wartoÅ›ciach rzeczywistych lub zespolonych. RX(Ä)=2BN0sin(2Ä„BÄ) i przyjmuje wartoÅ›ci równe zero w punktach Äk=k/2B dla k=...,-2,-1,0,1,2,... Wynika stÄ…d, że pasmowy biaÅ‚y
Powyższe wÅ‚aÅ›ciwoÅ›ci stanowiÄ… warunki konieczne i dostateczne dla zakwalifikowania dowolnego ciÄ…gu liczbowego jako f-cji szum spróbkowany w odstÄ™pach T=1/2B ma f-cjÄ™ korelacji równÄ… zero w punktach Äk=k/2B i jedynÄ… wartość różnÄ… od zera w punkcie
32. Definicja i właściwości skrośnej gęstości widmowej mocy
korelacji lub kowariancji. Z wÅ‚asnoÅ›ci 2 wynikajÄ… nierównoÅ›ci: RX(0)e"RX(l) CX(0)=Var(X(n))e" CX(l), gdzie l`"0. Jeżeli syg los jest Ä=0 równÄ… Ã02=2BN0. StÄ…d f-cja gÄ™stoÅ›ci widmowej mocy spróbkowanego w taki sposób pasmowego biaÅ‚ego szumu ma staÅ‚Ä… wartość:
"
okresowy, to wszystkiejego momenty też sÄ… okresowe, a wiÄ™c f-cja korelacji i f-cja kowariancji sÄ… f-cjami okresowymi majÄ…cymi SX(ejÉ)=Ã02=2BN0. SygnaÅ‚ ten nazywamy dyskretnym biaÅ‚ym szumem. Dowolny dyskretny syg los o zerowej wartoÅ›ci Å›redniej,
jÉ
sXY (e ) = (l) Å" e- jÉl ; wÅ‚aÅ›ciwoÅ›ci skroÅ›nej gÄ™stoÅ›ci widmowej mocy: - jest wielkoÅ›ciÄ… o wartoÅ›ciach zespolonych; -
nieskończoną liczbę maksimów o wartościach RX(0) lub CX(0) pojawiających się co całkowitą wielokrotność okresu. "RXY którego próbki są nieskorelowane określany jest jako dyskretny biały szum. W ogólnym przypadku f-cja korelacji białego szumu
l =-" W(n) ma postać: RW(n1,n2)=(Ã0(n1))2·´(n2-n1). Zwykle zakÅ‚ada siÄ™, że dyskretny biaÅ‚y szum jest stacjonarny, w tym przypadku jego f-
27. Wykazać: cja korelacji jest równa: RW(l)=Ã02·´(l) a funkcja gÄ™stoÅ›ci widmowej mocy dana jest wzorem: SW(ejÉ)=Ã02
jÉ jÉ
jest f-cją okresową z okresem 2Ą; - sXY (e ) = sYX (e ) , ten sam moduł ale przeciwna faza; - dla rzeczywistych syg los f-cja
RX (-l) = E(X (n) Å" X (n - l))= E(X (n - l) Å" X (n))= RX (l)
39. Na czym polega estymacja parametrów metodą największej wiarygodności.
jÉ
korelacji skroÅ›nej przyjmuje wartoÅ›ci rzeczywiste i w zwiÄ…zku z tym zachodzi równość sXY (e ) = sXY (e- jÉ ) , moduÅ‚ jest
Zakładamy, że dysponujemy zbiorem wyników pomiarów reprezentowanych przez wektor los X (wektor obserwacji). Wektor los X
CX (-l) = E((X (n) - mX )Å"(X (n - l) - mX ))= E((X (n) - mX )Å"(X (n - l) - mX ))= CX (l)
parzystÄ… a faza nieparzystÄ… f-cjÄ… É. może być utworzony przez zbiór obserwacji skalarnych: X=[X1,...,XN]T lub zbiór obserwacji wektorowych: X=[V1T,...,VNT]T.
Pojedyncze obserwacje mogą być zależne lub niezależne statystycznie. Zakładamy, że znamy typ rozkładu p-wa wektora los (np.
33. F-cja koherencji rozkład Gaussa, rozkład równomierny itp.) lecz nie jest znana wartość ustalonego parametru q. Gęstośś p-wa wektora obserwacji
oznaczamy: p(x,¸). EstymatÄ… najwiÄ™kszej wiarygodnoÅ›ci parametru q, przy danym wektorze obserwacji XO nazywamy takÄ… wartość q,
jÉ
S (e )
jÉ XY
dla której p(XO,q) przyjmuje wartość maksymalną i oznaczamy ją qNW
F-cjÄ… koherencji nazywamy unormowanÄ… f-cjÄ™ skroÅ›nego widma gÄ™stoÅ›ci mocy: “XY (e ) = . CzÄ™sto
jÉ jÉ
S (e ) Å" SY (e )
X
40. Objaśnić pojęcie estymata i estymator
zamiast operować modułem skrośnego widma gęstości mocy używa się kwadratu modułu funkcji koherencji (MSC): Zadane estymacji polega na obliczaniu nieznanych lub losowych wielkości na podstawie znajomości wyników obserwacji będących
2 realizacjami zmiennych losowych. Rozróżniamy dwie podstawowe klasy problemów związanych z estymacją: 1). Estymowana
jÉ
ëÅ‚ öÅ‚
ìÅ‚ S (e ) ÷Å‚ wielkość jest ustalona lecz nieznana (np. majÄ…c zbiór realizacji zmiennej los gaussowskiej o nieznanej wartoÅ›ci Å›redniej należy
2 XY 2
jÉ íÅ‚ Å‚Å‚ jÉ
ëÅ‚ öÅ‚ ëÅ‚ öÅ‚
obliczyć estymatę jej wartości średniej).; 2). Estymowana wielkość jest zmienną losową (np. staramy się odtworzyć sygnał wejściowy
ìÅ‚ “XY (e ) ÷Å‚ = , który ma wÅ‚aÅ›ciwość 0 e" ìÅ‚ “XY (e ) ÷Å‚ d" 1
jÉ jÉ
íÅ‚ Å‚Å‚ íÅ‚ Å‚Å‚
S (e ) Å" SY (e ) do pewnego ukÅ‚adu dysponujÄ…c zaszumionymi próbkami sygnaÅ‚u wyjÅ›ciowego z tego ukÅ‚adu). W pierwszym przypadku mówimy o
X
estymacji parametrów (np. wartości średniej, f-cji korelacji, f-cji gęstości widmowej mocy). W drugim przypadku mówimy o
estymacji zmiennych losowych (problemy zwiÄ…zane z filtracjÄ…, predykcjÄ…).
41. Podać i objaśnić właściwości estymatorów
Estymatory największej wiarygodności są jednymi z wielu możliwych. W celu określenia, który z estymatorów jest, w danym
przypadku, lepszy rozpatrzymy niektóre wÅ‚aÅ›ciwoÅ›ci estymatorów. Wprowadzamy przy tym oznaczenie: ¸N=¸N(X), gdzie N oznacza
liczbÄ™ obserwacji.
1 estymator nazywamy nieobciążonym jeżeli E(¸N)=0 czyli wtedy, kiedy wartość Å›rednia estymatora jest równa prawdziwej wartoÅ›ci
estymowanego parametru. W przeciwnym przypadku estymator jest obciążony i wielkość b(¸)=E(¸N)-¸ nazywamy obciążeniem
estymatora. Estymator jest asymptotycznie nieobciążony, jeżeli limN"E(¸N)=¸.
2 estymator ¸N jest spójny jeżeli limN"P(|¸N-¸|<µ)=1 dla dowolnie maÅ‚ej liczby µ>0. (CiÄ…g zmiennych losowych ¸N dla rosnÄ…cych
wartości N jest zbieżny w prawdopodobieństwie do prawdziwej wartości estymowanego parametru).
3 estymator jest efektywny w odniesieniu do innego estymatora, jeżeli ma mniejszÄ… od niego wariancjÄ™. Jeżeli estymator ¸N jest
nieobciążony i efektywny w stosunku do estymatora ¸N-1 to estymator ¸N jest spójny. Wynika to z nierównoÅ›ci Czebyszewa: P(|¸N-
¸|e"µ)d"Var(¸N)/µ2. Zbadajmy estymator najwiÄ™kszej wiarygodnoÅ›ci dla wartoÅ›ci Å›redniej zmiennej losowej o rozkÅ‚adzie Gaussa:
N N
1 1 1
M = X . Wartość średnia tego estymatora jest równa: E(M ) = ) = Nm = m , a więc estymator jest
N " n N "E(X n
N N N
n=1 n=1
N N
ëÅ‚ öÅ‚
1 1 1 (Ã )2
0
÷Å‚
nieobciążony. Wariancja estymatora jest równa: Var(M ) = VarìÅ‚ X = ) = N (à )2 =
N " n "Var(X n 0
ìÅ‚ ÷Å‚ 2 2
N N
N N
íÅ‚ n=1 Å‚Å‚ n=1
(Ã )2
0
lim Var(M ) = lim = 0 , czyli estymator jest spójny.
N
N " N " N
42. Podać i objaśnić nierówność Cramera-Rao
Jeżeli ¸N jest nieobciążonym estymatorem parametru ¸, to jego wariancja speÅ‚nia nierówność:
1
Var(¸N ) e" . Estymator, dla którego zachodzi równość nazywamy najbardziej efektywnym lub
îÅ‚ëÅ‚ d 2 Å‚Å‚
EïÅ‚ìÅ‚ ln(p(X ,¸ ))öÅ‚ śł
÷Å‚
d¸
ïÅ‚íÅ‚ Å‚Å‚ śł
ðÅ‚ ûÅ‚
estymatorem o najmniejszej wariancji. Można wykazać, że równość zachodzi wtedy i tylko wtedy, kiedy estymator spełnia
d
warunek:¸ (X ) -¸ = K (¸ ) ln(p(X ,¸ )), gdzie K(¸) może być f-cjÄ… estymowanego parametru lecz nie może być f-cjÄ…
d¸
1
estymatora. Inna postać nierównoÅ›ci Cramera-Rao: Var(¸ ) e"
N
2
îÅ‚ëÅ‚ëÅ‚ 2 öÅ‚ öÅ‚Å‚Å‚
ìÅ‚ d
- EïÅ‚ìÅ‚ìÅ‚ 2 ÷Å‚ ln(p(X ,¸ ))÷łśł
÷łśł
ïÅ‚ìÅ‚ìÅ‚ ÷Å‚
ïÅ‚íÅ‚íÅ‚ d¸ Å‚Å‚ ÷łśł
Å‚Å‚
ðÅ‚ ûÅ‚


Wyszukiwarka

Podobne podstrony:
ZJ sciaga by aple4 vol2
ZJ sciaga by aple4
Found And Downloaded by Amigo
kod z WOÅšP polecane chomiki by closer9
Found And Downloaded by Amigo
Sciaga pl Podział drukarek komputerowych
dydaktyka egzamin sciaga
Found And Downloaded by Amigo
30 31 by darog83
Ściąganie drążka wyciągu górnego do klatki na maszynie
ściąga kol 1 stata

więcej podobnych podstron