SYGNAŁ
Jest to proces zmian w czasie pewnej wielkości fizycznej, dlatego tez za modele matematyczne sygnalu przyjmujemy funkcje których argumentem jest czas t. WyróŜniamy rozne typy sygnałow –s. jednowymiarowe(mowy, zmiana cisnienai względem czasu), dwuwymiarowe (nieruchomy obraz), trójwymiarowe(obraz zmienny w czasie-wideo).
Przetwarzaniu sygnałów z pojeciem sygnalu utoŜsamiac będziemy jego model matematyczny.
MODEL SYGNAŁU LOSOWEGO
Modelem losowym jest rzeczywisty lub zespolony proces stochastyczny (w szczególnym przypadku zmienna losowa), model ten opisuje rzeczywistość dokładniej niŜ model deterministyczny (m.in. w przeciwieństwie do niego uwzględnia szumy). W modelu losowym nie jesteśmy jesteśmy stanie określić wartości sygnalu w dowolnej chwili czasu, moŜemy natomiast określić pewne prawdopodobieństwo wystapienia wartości osiaganych przez sygnał. Przykładowo dla sygnalu sinusoid. Model deterministyczny: x( t) = A sin(2π ft + ϕ) model losowy: x( t) = Aξ sin(2 f π t
ξ + ϕξ) + n( t)
SYGNAŁ LOSOWY NOSNIKEM INFORMACJI A DETERMINISTYCZNY NIE
Z punktu widzenia odbiorcy, sygnał przekazuje informacje jedynie wówczas ma dla odbiorcy charakter losowy, gdy odbiorca nie jest w stanie przewidzieć zachowania i wartości sygnalu, a jedynie prognnozowac to z pewnym prawdopodobieństwem. PoniewaŜ dla sygnału deterministycznego odbiorca moŜe wyznaczyc jego wartość i parametry w dowolnej chwili czasu t to tez nie niesie on informacji.
ROZNICE MIEDZY S. CIĄGŁYM DYSKRETNYM I CYFROWYM(sygnał x w funkcji czasu t)
s. ciagłe SA ciągłymi funkcjami czasu, spełniającymi załoŜenie tεR, xεR. S. dyskretne czas jest nie ciągły, nie występują one w rzeczywistości spełniaja załoŜenie tεZ, xεR. S. cyfrowe zarówno czas i wartośc sygnału SA nieciągłe spełniaja załoŜenie tεZ, xεZ (mogą przyjmowac tylko określone wartości)
PRZESTRZEŃ ZUPEŁNA
P.Z. nazywamy przestrzen metryczną, w której kaŜdy ciąg Cauchyego ma granice i granica ta jest elementem przestrzeni, oraz w której wszystkie wyniki operacji na jej elementach równieŜ naleza do tej przestrzeni. Przykładem P.Z. z metryką euklidesową jest zbiór liczb rzeczywistych. R: ro(x,y)=|x-y|
PRZESTRZEN UNITARNA
P.U. zwiemy przestrzeń liniowa X, w którj określony jest iloczyn skalarny i unormowaną przez norme ||x||=sqrt(x,x), xεX. PoniewaŜ iloczyn skalarny indukuje norme, a ta z kolei metryke, wiec przestrzeń unitarna jest zarazem przestrzenią metryczną.
PRZESTRZEŃ HILBERTA
P.H. jest przestrzenią zupełną liniową (w przestrzeni liniowej zdefiniowane SA dwie operacje: dodawanie element.
Przestrzeni i mnoŜenie element. Przestrzeni przez stałą), unitarną (w P. unitarnej określony jest iloczyn skalarny i jest ona unormowana przez norme ||x||=sqrt(x,x), xεX.) a skoro unitarną to równieŜ metryczną.
PRSTRZEŃ L²
T
P.L² jest przestrzenią metryczną i zupełną, znormalizowaną (dla przedziału (0,T) norma | x | =
x 2
∫
t
( ) dt dla
0
przedziału (-∞,∞) norma | x | =
x 2
∫∞ t() dt , całkowalna w kwadracie(ale tylko L²(0,T)) (całka kwadratu jest
−∞
skończona), jest ona równieŜ P. sygnałow ciągłych.
MOMENT CENTRALNY R-TEGO RZEDU DLA S. DETERMINISTYCZNEGO CIĄGŁEGO
r
c
t
(
m ) x t
( ) dt gdzie mx-moment zwykły r-tego rzędu określony wzorem
r
m
t x t
( ) dt
x = ∫
r
x = ∫
−
r
x
R
R
JAKIE OPERACJE NA ELEMENTACH P. DEFINIOWANE SA W PRZESTRZENI LINIOWEJ
W przestrzeni liniowej definiowane sa 2 operacje na elementach P. sa to: -dodawanie elementów przestrzeni(+) XxX-
>X -mnoŜenie elementów P. przez stałą(*) FxX->X; F- sigma ciało zbiór wszystkich liczb R lub Z.
JAKI ZBIÓR ELEMENTÓW P. moŜe stanowić bazę p. (np. X^n). Z ilu elemen. Składa sie baza X^n.
Niech X^n będzie liniową przestrzenią n-wymiar. zbiór elemen. {xi:i=1...n}będący zbiorem liniowo niezaleŜnym nazywamy bazą przestrzeni. Z powyŜszego prosto wynika Ŝe baza przestrzeni X^n sklada sie z n elemen.
BAZA ORTOGONALNA I NIEORTOGONALNA
Baza O. od bazy N.O. rozni sie tym iz dla bazy O. rozwiazanie układu równań Aα=a jest duzo prostsze faktem iŜ
macierze A oraz A-¹ są w przypadku bazy O. macierz. Jednostkowyi, oraz tym Ŝe dla kaŜdego elementu bazy O. norma jest jednostkowa tj. ||xi||=1 dla i=1,2...n , oraz (xi,xj)=0, i≠j, i,j=1,2...n
WARUNEK ORTOGALNOSCI DLA 2 SYGNAŁÓW W P. SYGNAŁÓW
Dwa sygnały w przestrzeni sygnałów są O. jezeli ich iloczyn skalarny jest równy zeru czyli
2
2
2
x ⊥ y <=> ( x, y) = 0 = |
> | x + y || |
= | x || + || y || uogulnienie wzoru Pitagorasa na dowolna przestrzeń unitarną.
ZBIORY ORTOGONALNE ZUPEŁNE
1
2
2π
2
2π
1)Trygonometryczny szereg Fouriera- całkowany na odcinku L²(0,T) {
,
cos( n
t,
sin( n
t),... n = ,
1 .
2 ..}
T
T
T
T
T
π
1
2
jn
t
2)zespolony szereg Fouriera - zbiór zupełny w L²(0,T) {
e T n = ± ,
1 ±2...} 3)szereg Shannona - zbiór zupełny w
T
n
przestrzeni dla sygnałów dolnoprzepustowych L²(-∞,∞){ 2 fmSa(2 f
π m( t −
)),... n = ± ,
1 ±2...} 4)funcje Haara
2 fm
2 n + 1
5)funkcje Walsha 6) wielomiany Lagrange’a L (−
)
1
,
1 {
Pn( t),... n = ,
1 .
2 ..}
2
2
NORMA ELEMENTU PRZESTRZENI SYGNAŁÓW PODAC DEF.
Norma elementu przestrzeni to odwzorowanie elementu przestrzeni w zbiór liczb rzeczywistych dodatnich plus zero (|| • ||: x− > +
R ∪ }
0
{ ) . Norma musi spełniac nastepujące aksjomaty:
1) jezeli ||x||=0 => x= (x jest elementem zerowym przestrzeni)
2) ||αx||=||α||||x||
3) ||x+y||≤||x||+||y||
przykładowa def: dla przestrzeni L²: || x = ∑∞ 2
||
x
i =1 i
PROCEDURA GRAMMA-SCHMIDT’A
1) {xi:i=1...n} zb. Nieortog. 2) {yi:i=1...n} zb. Ortogon. 3) {zi:i=1...n} zb. Ortonor. P.G-S. słuzy do sprowadzenia bazy nieortogonalnej do ortogonalnej. Przebiega ona następująco: 1) mamy baze nieortogonalną {x1...xn} 2) tworzymy na jej podstawie baze ortogonalna {y1...yn} 3) na podstawie utworzonej bazy ortogonalnej tworzymy baze ortogonalną n
y
{z1...zn}.. Procedura ta jest procedurą iteracyjną w której y =
1
x − ∑ − ( x , z z
)
n
z =
n
n
k
k
k
k
=1
n
|| y ||
n
CZYM RÓZNIĄ SIE ALGORYTMY WYZNACZANIA DYSKRETNEJ REPREZENTACJI W PRZYPADKU
BAZY ORTOGONALNEJ I NIEORTOGONALNEJ
Przy wyznaczaniu dyskretnej reprezentacji sygnału otrzymujemy układ n skalarnych równań liniowych z niewiadomymi αi; układ taki mozna zapisac w postaci macierzowej Aα=a. W przypadku bazy nieortogonalnej jego zasadniczą wada jest fakt iz nalezy obliczyć wszystkie iloczyny skalarne po obu stronach powyzszgo wyrazenia, oraz iŜ do rozwiaznia rownania α=A-¹a wymagane jest przeprowadzenie zmudnej operacji odwracania macierzy A. W
przypadku bazy ortogonalnej wygodnie jest zastosowac odpowiednią część procedury Gramma-Schmidt’a w wyniku której z bazy ortogonalnej tworzona jest baza ortonormalna (czyli unormować ją) co z kolei sprawi iz zarówno macierz A jak i A-¹ będą macierzami jednostkowymi a ostatecznie sprawi iz α=a i zatem ze αi=(x,xi) dla i=1...n.
DYSKRETNA REPREZENTACJA SYGNAŁÓW W KATEGORII P. SYGNAŁÓW
n
Jesli mamy ustaloną bazę {x1,x2...xn} oraz x t
( ) = ∑ a x t
( ) to ciąg α={α1...αn} jest dyskretną reprezentacja sygnału
i =
i
i
1
przy danej bazie. Dla sygnału stochastycznego dyskretna reprezentacje mozna traktować jako odwzorowanie tego sygnału w odpowiedni ciąg zmiennych losowych.
RÓśNICE MIĘDZY DYSKRETNĄ REPREZENTACJA SYGN. DETERMINIST. I SYG. LOSOWEGO
Dla syg. Losowego dyskretna reprezentacja jest odwzorowniem sygnału nie w zwykły ciag α={α1...αn} lecz w ciąg odpowiednich zmiennych losowych (tzn. w przestrzen Γ^n lub Γ^∞)
TW. O RZUCIE ORTOGONALNYM
Niech X bedzie przestrzenią unitarna a X^n jej n-wymiar. podprzestrzenią rozpiętą na ortogonalnej bazie {xi; i=1...n}.
n
JeŜeli dla kazdego xεX istnieje jeden i tylko jeden element ~
n
x ∈ x okreslony wzorem x~ = ∑ ( x, x x
) taki Ŝe dla
i
i
i
=1
~
~
kaŜdego ~
n
x ∈ x gdzie x~ ≠ x~ zachodzi
~
~
|| x − x || |
< | x − x || oraz wektor
~
n
ε = x − x ⊥ x to wówczas x~ nazywamy nutem
ortogonalnym elementu x na przestrzeń X^n.
2
~ 2
2
|| x ||
|
= | x ||
n
+ || ε ||
TW. O NUCIE ORTOGONALNYM
TW. o N.O. zapewnia ze aproksymacja sygnałów przestrzeni X przez element podprzestrzeni X^n zostanie przeprowadzona z moŜliwie najmniejszym błędem inaczej mówiąc rozstrzyga problem umoŜliwienia prostego i efektywnego rozwiązania zagadnienia najlepszej aproksymacji.
OMÓWIC ZAGADNIENIE NAJLEPSZEJ APROKSYMACJI SYGNAŁÓW PRZESTRZENI X PRZEZ
ELEMENT PODPRZESTRZENI X^n
Element x nie naleŜący do pp. X^n moŜna reprezentować elementem ~
n
x ∈ X jedynie z pewnym przybliŜeniem.
Poszukiwanie najlepszegoprzyblizenia to treśc zagadnienia najlepszej aproksymacji które moŜna sformółowac następująco: niech X bedzie P. unitarną a X^n jej n-wymiar pp. Rozpiętą na bazie {xi; i=1...n}. Dla danego elementu xεX-X^n naleŜy znaleźć taki element ~
n
x ∈ X dla którego norma elementu róŜnicowego
~
|| x − x || jest najmniejsza
~
~
(innymi słowy: dla którego zachodzi nierówność
~
~
|| x − x || |
< | x − x || dla kaŜdego ~
n
x ∈ X róŜnego od x~ .
n
n
X^n=spon{x1...xn}, x = x~
α ixi , ε = x − x~
x
α ixi
n =
− ∑
n = ∑ i=1
i =1
WADY REPREZENTACJI S. Z P. X PRZEZ ELEMENT PP. X^n
1) wiele róŜnych S. moŜe mieć tę sama reprezentację 2) nie wszystkie elementy przestrzeni X są dostatecznie dobrze aproksymowane - błąd śr. kwadratowy ||ε|| wynikajacy z najlepszej aproksymacji moze być zaczny 4) reprezentacja takiego wektora byłby wektor zerowy moc sygnału =0 a to bzdura
KOMBINACJA LINIOWA ELEMENTÓW PRZESTRZENI
n
Niech X bedzie P. liniową nad ciałem F i niech {xi; i=1...n}<X. KaŜdy element (wektor) o postaci x = ∑ α ixi gdzie i =1
αiεF, i=1...n jest nazywany kombinacją liniową elementów xi.
ZBIÓR ELEMENTÓW LINIOWO NIEZALEśNYCH
Zbiór elementow {xi; i=1...n} P. liniowej X nad ciałem F nazywamy liniowo niezaleznym, a elementy tego zbioru
∧
n
liniowo niezleŜnymi, jeśli: ∑ α ixi = 0 => i = 1... n,α i = 0 gdzie oznacza element zerowy przestrzeni X oraz αiεF, i 1
=
i=1...n. Liniowa niezaleŜność elementów xi oznacza ze Ŝaden z tych elementow nie moŜe być przedstawiony w postaci kombinacji linowej pozostałych elementów.
DEF. S. OKRESOWEGO
S. nazywamy O. gdy jego wartości chwilowe powtarzaja sie w jednakowych odstepach czasu f(t)=f(t+nT), T≠0 gdzie T
jest okresem po którym występuja powtarzające sie elementy. Najmniejsy O. dodatni jeśli istnieje nazywamy O.
zasadniczym.
ORTOGONALNY, ZUPEŁNY TRYGONOMETRYCZNY SYGNAŁ SZEREGU FOURIERA W PRZESTRZ.
L²(0,T)
1
2
2π
2
2π
Zbiór funkcji{
,
cos n
t,
sin n
t : n = ,
1 .
2 ..} jest zbiorem ortonormalnym zupełnym w przestrzeni
T
T
T
T
T
L²(0,T). KaŜdy sygnał x(t) naleŜący do tej przestrzeni moŜna zatem reprezentować szeregiem Fouriera 1
∞
2π
2π
x( t) = α
+ ∑
∞
α cos( i
t) + ∑ α sin( i
t)
0
1
=
n 1
=
is
n
ic
T
T
T
T
1
α
T
2
2π
( ,
)
( )
α = ( x, x ) = ∫
x t
( ) cos i
(
t d
) t
0 =
x x 0 =
x t
dt
∫
ic
ic
0
T
0
T
T
ORTOGONALNY, ZUPEŁNY ZESPOLONY SYGNAŁ SZEREGU FOURIERA W PRZESTRZ. L²(0,T)
π
1
2
jn
t
W przestrzeni L²(0,T) zbiorem ortonormalnym jest zbiór funkcji {
e T : n = ,
0 ± ,
1 ± }
2 Zespolony szereg Fouriera
T
T
1
sygnału x(t) naleŜącego do tej przestzeni ma wiec postac x t
( ) = ∑∞
jnω 0 t
Xne
dt x =
∫ x t() e− jnω0 tdt
n=−∞
n
T 0
JAK WYZNACZA SIE WSPÓŁZYNNIKI FOURIERA DLACZEGO W PRZYPADKU BAZY ORTO
NORMALNEJ WYZNACZENIE ICH JEST ŁATWIEJSZE
n
n
Szereg Fouriera elementu X: x = ∑ α ixi tworzymy (•,xj), j=1...n. ( x, x ) α i( xi, xj), j
.
1 . n
. np dla j=1 (x,xj)=
j
= ∑
=
i =1
i =1
α1(x1,x1)+ α2(x2,x1)+...+ αn(xn,x1) co z kolei prowadzi do układu równań który w postaci macieŜowej moŜna zapisać jako Aα=a zatem α=A-¹a. W przypadku bazy ortonormalnej zarówno macierz A jak A-¹ sa jednakowe co elminuje konieczność odwracania macierzy i znacznie upraszcza obliczenia.
CZY WIDMO SYGNAŁU FOURIERA JEST RZECZYWISTE CZY ZESPOLONE
Widmo sygnalu jest w ogólnym przypadku funkcja zespolona zmiennej f.
PODAĆ DEF FUNKCJI KOELACJI WZAJEMNEJ POMIEDZY DWOMA PROCESAMI
NIESTACJONARNYMI PODAC ZNACZENIE OZNACZEŃ
Rxy(τ)=(x,y)=calk(x(t)y(t+ τ)d τ)
CZY FUNKCJA KORELACJI WZAJEMNEJ DWUCH PROCESÓW JEST WIELKOŚCIA LOSOWĄ CZY
DETERMINISTYCZNĄ
Funkcja korelacji dwuch procesów jest wielkością deterministyczną
KIEDY FUNKCJA AUTOKORELACJI PROCESU JEST FUNKCJA TYLKO JEDNEGO CZASU
Wtedy gdy uklad jest słabo stacjonarny (stacjonarny w szerszym sensie). Wartość średnia mx procesów słabo stacjonarnych jest stala afunkcja autokorelacji Rx zaleŜy tylko od przesunięcia τ czyli mx(t1)=mx oraz Rx(t1,t1+
τ)=Rx(τ)
WŁASCIWOSCI FUNKCJI AUTOKORELACJI RZECZYWISTEGO PROCESU STACJONARNEGO. CZY
FUNK. AUTOKORELACJI JEST WIELKOSCIA DETERMINISTYCZNĄ CZY LOSOWA?
1) Jest funkcj. parzystą R(τ)=R(-τ) 2) ma makisimum w zerze |R(τ)|≤R(0), R(0)= τ² 3) funkcja autokorelacji procesu jest wielkoscia deterministyczną
JAKIM WZOREM WYRAśA SIĘ TRANSFORMACJA FALKOWA, OMÓWIĆ
T.F jest funkcją dwóch zmiennych niezaleŜnych i jest definiowana jako skalar. WyraŜa się wzorem W(a,b)=(x,ψa,b) x-analizowany sygnał. T.F. pozwala na przeniesienie sygnału z układu czas-wartość do układu czas-częstotliwość.
ZASADA NIEOZNACZONOŚCI
Z.N. w T.F. ma postać nastpującą: poniewaŜ kaŜda falka odpowiada za pewien obszar płaszczyzny(okno czasowo-częstotliwościowe), dobrze jest konstruować falki bardzo precyzyjnie okrelające czas i częstotliwość, o małym oknie czasowo-częstotliwosciowym. W praktyce okazuje sie, iz okno to nie moŜe być nieskończenie małe.z zasady nieoznaczoności ∆t ∆f≥½ WYKRES Zjawisko to powoduje powstanie trójwymiarowych izolinii zamiast punktów.
TRANSFORMACJE CZASOWO-CZĘSTOTLIWOŚCIOWE W T.F.
1
t
b
Dla rodziny falek: ψ
( t) =
ψ ( − ) . a-wsp. skali, powoduje zmianę czasu trwania („rozciagniecie” lub
a, b
a
a
a
„sciaskanie”) falki, b-wsp. przesuniecia, zmienia połoŜenie na osi czasu. t/a-przesunięcie w dziedzinie częstotliwości.
b/a-przesunięcie w dziedzinie czasu.
OKNO CZASOWO-CZĘSTOTLIWOSCIOWE W T.F.
Jest to pewien obszar czasu i częstotliwosci na plaszczyznie, za który odpowiada konkretna falka WYKRES
T. CZASOWO-CZĘSTOTLIWOSCIOWYM PODDAJE SIE SYGNALY STACJONARNE CZY
NIESTACJONARNE
T.C-C. poddaje się sygnały niestacjonarne.
RÓśNICA MIĘDZY DYSKRETNĄ A CIĄGŁĄ T.F.
W(a,b)=(x,ψa,b) 1) dla ciagłej T.F. a,bεR; a≠0 2) dla dyskretnej T.F. a=2^(-m), b=n*a; m,nεZ.
POJECIE POŁOśENIA F. I ROZCIĄGLIWOŚCI F. W DZIEDZINI C. I C.
PołoŜenie falki zaleŜne jest od współczynnika przesunięcia b zaś rozciągliwość zaleŜy od współ. Skali a, we wzorze 1
t
b
ψ ( t) =
ψ ( − )
a, b
a
a
a
REALIZACJA PROCESU STOCHSTYCZNEGO
a
Dysponując falkową transformatą Fouriera: ˆ
ψ ( f ) = FT{ψ ( t)} ˆ
ψ ( t)
− j 2
=
e
f
π tψ ( af ) moŜemy określić połoŜenie i
a, b
w
2
1
rozciągłość falki: 1) PołoŜenie na osi czasu: t =
∫ t | ˆψ t() | dt
2
a, b
R
| ˆ
ψ
2) Rozciągłość na osi czasu:
|
a, b
2
1
2
1
2
∆ =
∫ t( − t 2) | ˆψ t() | dt
f =
∫ f | ˆψ ( f ) |
t
2
a, b
2
a, b
R
| ˆ
ψ
1) 3)PołoŜenie na osi częstotliwości:
df
|
R
| ˆ
ψ
4) Rozciągłość
|
a, b
a, b
2
1
na osi częstotliwości: 2
∆ =
∫ ( f − f 2) | ˆψ ( f ) | df
f
2
a, b
R
| ˆ
ψ
|
a, b
REALIZACJA PROCESU STOCHASTYCZNEGO
P.S.-> x( t,ξ ) |ξ =
= x( t) <-realizacja P.S. JeŜeli ustalimy zadanie elementarne ξεS (przestrzeń propabilistyczna) to const
mamy do czynienia z deterministyczną funkcją czasu, którą nazywamy R.P.S. Wszystkie realizacje razem wzięte stanowią wartość procesu.
DEF. AUTOKOREL. SYG. DETERMINISTYCZNEGO
R ( )
( ) (
)
xx τ
= ∫ x t x t +τ dτ
PODOBIEŃSTWA I RÓśNICE MIĘDZY ZMIEN. LOSOWĄ A PROCES. STOCHAST.
Podstawowa róŜnica między Z.L. a P.S. jest taka ze P.S. jest funkcją dwóch zmiennych x( t,ξ ) , a Z.L. jest funkcja jednej zmiennej x(ξ ) . Z.L. jest szczególnym przypadkiem P.S., gdy przyjmiemy t=const. P.S.-> x( t,ξ ) | =
= x( <-
t const
ξ )
Z.L.
PROCES ERGODYCZNY
P. jest E. jeśli na podstawie jednej realizacji procesu z prawdopodobieństwem 1 mozna wyznaczyć wszystkie statystyki tego P. Oznacza to Ŝe kaŜda realizacja jest pełną reprezentacja P. Dla P-ów.E-cznych. Uśrednionych po zbiorze moŜna zastąpić uśrednieniem po czasie. P.E. jest P. stacjonarnym.
DEF. STATYSTYKI I-RZĘDU
S. I-rzędu 1)dystrybuanta F(x,t)=Pr{x(t)≤x}, Pr-prawdopodobienstwo F(-∞,t)=0, F(t,∞,)=1, 2) gęstość prawdopoob. -
określa P. wystąpienia danego sygnału f(x,t)=(σF(x,t))/( σx) 3)wartość średnia ozn. η lub µ lub m(t), m(t)=E{x(t)} jest to średnia waŜona prawdopodobieństwa m t
( ) = ∫ xf ( x, t) dx
R
DEF. STATYSTYKI II-RZĘDU
2
σ F( x , x , t , t )
1) dystrybuanta F(x1,x2,t1,t2)=Pr(x(t1)≤x1, x(t2)≤x2) 2)gęst. prawdopod.
1
2
1
2
f ( x , x , t , t ) =
1
2
1
2
x
σ x
σ
1
2
3)funkcja autokowariancji C(t1,t2)= E{[x(t1)-m(t1)][x(t2)-m(t2)]} 4)wariancja σ^2= E{[x(t)-m(t)]^2} 5)widmowa g
− π
+
ęstość mocy-rozkład mocy w F. częstotliw. S(f1,f2)=FT{R(t1,t2)}=
j 2 ( f 1 t 1 f 2 t 2)
∫ R( t , t ) e
dt dt
1
2
1
2
R ^ 2
GĘSTOŚĆ PRAWDOPOD. PROCESU JEST WIELKOŚCIĄ ZDETERMINOWANĄ CZY LOSOWĄ?
WIDMO GĘSTOŚCI MOCY PROCESU LOSOW. JEST WIELK. ZDETERMINOW. CZY LOSOW.
DEF. DWUWYMIAROWEJ GĘST. PRAWDOPOD. PROCESU STOCHASTYCZ.
2
σ F( x , x , t , t )
1
2
1
2
f ( x , x , t , t ) =
1
2
1
2
x
σ x
σ
1
2
DEF. DWUWYMIAROWEJ DYSTRYBUANTY PROCESU STOCHASTYCZ.
F(x1,x2,t1,t2)=Pr(x(t1)≤x1, x(t2)≤x2)
WŁASNOŚCI FUN. KORELACJI WZAJEMNEJ PROCESÓW LOSOWYCH RZECZYWIS.
Rxy(τ)=Ryx(-τ)
Rxy(τ)=0=> Ryx(τ)=0
Rxy(τ)=E{y(t)x(t+τ)}
JAKIE WARUNKI SPEŁNIA UKŁAD LINIOWY
Jeśli x1,2(t)-pobudzenia oraz a1,2-skalary oraz y(t)=L[x(t)], x(t)->L->y(t) to układ jest: 1)liniowy y(t)=L{a1x1(t)+a2x2(t)}=a1L{x1(t)}+ a2L{x2(t)} 2)niezmienny w czasie x(t,τ1)= x(t,τ2)=> y(t,τ1)= y(t,τ2) 3)inercyjny y( t) = ∫∞ x( t −α) h(α)
∞
−
AUTOKOWARIANCJA PROCESU CIĄGŁEGO(OGULNA I DLA P. STOCHASTYCZ.)
1) C(t1,t2)= E{[x(t1)-m(t1)] [x(t2)-m(t2)]} 2) C(t1,t2)=C(τ), t1=t, t2=t+τ, C(τ)= E{[x(t)-m(t)][x(t+τ)-m(t+τ)]}
DEF. WIELOWYMIAROW. DYSTRYBUANTY STOCHASTYCZNEGO (OZNACZENIA)
F(x1.....xn)=Pr(x(t1)≤x1......x(tn)≤xn)
W KATEGORIACH ZNANYCH SYGNAŁÓW ZDEFINIOWAĆ ZNANY CI WSPÓŁCZ. KORELACJI
( x, y)
α =
( x, y)( y, x)
inaczejα =
przy czym 0≤|αxy|≤1, 0-są kompletnie niepodobne, 1-są takie same
xy
xy
| x | | y |
|| x |||| y ||
DEF. KORELACJI WZAJEMNEJ MIĘDZY SYGNAŁAMI DETERMINISTYCZ.
N 1
Rxy(τ)=(x,y)=całka(x(t)y(t+τ)dτ), R ( n)
x n y n
k
xy
= ∑ − ( ) ( + )
n =0
R (
R
xy τ )
(
xy τ )
Unormowana F. korelacji wzajemnej: ( ro)
=
=
xy
| x | | y |
R ( R
xx τ )
(
yy τ )
POSTAĆ AUTOKOREL. PROCESU STACJONARNEGO
PoniewaŜ dla procesu stacjonarnego f(x1,x2,t,t+τ)=f(x1,x2,τ) oraz t1=t, t2=t+τ, to
R(t1,t2)=całkpoR(x1x2f(x1,x2,t1,t2)dx1dx2= całkpoR()x1x2f()x1,x2,τ)dx1dx2=R(τ)
ZALEśNOŚĆ MIĘDZY FUNKCJĄ AUTOKORELAC. PROCESU STACJONARNEGO A JEGO
WIDMOWĄ MOCĄ
S(f1,f2)=FT{e(t1,t2)}, Widmo gęstości mocy jest transformatą Fouriera F.A. sygnału o ograniczonej mocy średniej.
F.A. i widmo gęstości mocy stanowią parę transformat Fouriera w sensie granicznym.
WZAJEMNA WIDMOWA GĘSTOŚĆ MOCY
S
{
( )}
( )
xy = FT
Rxy τ
∫∞
−
=
Rxy τ
jwτ
e
τ
d
−∞
DEF. WIDMOWEJ GĘSTOŚCI MOCY I JAKIE INFORMACJE O PROCESIE ZAWIERA
Widma gęstości mocy są wielkościami zdeterminowanymi. Widmowa gęstość mocy jest to rozkład mocy w funkcji częstotliwości. S(f1,f2)=FT{e(t1,t2)}= ∫
− j 2π ( f 1 t 1+ f 2 t 2)
R( t ,
1 t )
2 e
dt dt Zawiera ona informacje o energii niesionej przez
1
2
R ^ 2
poszczególne składowe.
CZY WIDMOWA GĘSTOŚĆ MOCY MOśE PRZYJMOWAĆ UUJEMNE WARTOŚCI Nie, z def. S(f)≥0 - widmo gęstości mocy jest funkcją nieujemną. Sygnał zawsze niesie pewna energię (a zatem i moc) wiekszą od zera.
CO POWODUJE śE WIDMOWA GĘSTOŚĆ MOCY JEST FUNKCJĄ RZECZYWISTĄ
Widmowa gęstość mocy jest F. czysto rzeczywistą, poniewaŜ lmS(f)=0. Z racji tego Ŝe F. autokorelacji sygnałów rzeczywistych jest funkcją rzeczywistą, to i widmo gęstości mocy sygnałów rzeczywistych jest równieŜ funkcją rzeczywistą.
ZALEśNOŚĆ MIĘDZY WIDMOWĄ GĘST. MOCY SYG. NE WE I WY UKŁADU LINIOWEGO.
Zakładając Ŝe Syy(f)-na wy, Sxx(f)-na we, i Ŝe H(f)- transmitancja częstotliwościowa
układu:Syy(f)=H(f)H(f)Sxx(f)=|H(f)|^2Sxx(f)
WŁAŚCIWOŚCI WIDM. GĘST. MOCY RZECZYWISTEGO PROC. STACJONAR.
1) czysto rzeczywista lmS(f)=0 2)jest parzysta S(f)=S(-f) 3)funkcja nieujemna S(f)≥0
DEF. WART. ŚREDNIEJ PROCESU I CZY JEST ONA F. CZASU
W.Ś. (oczekiwaną) m(t) nazyw. Nielosową F. czasu, której wartość w punkcie ti jest równa wartości oczekiwanej mi(t) zmiennej losowej dla kazdej chwili czasu ti; gdy proces jest stacjonarny, to wartość średnia nie zaleŜy od czasu m(t)=E{x(t)}=całkpoR(xf(x,t)dx)
DEF. WARIANCJI I CZY JEST F. CZASU
Gdy P. jest stacjonarny to w takim wypadku wariancja procesu nie zaleŜy od czasu.(σ^2=E{x^2(t)}). Def. wariancji σ^2(t)=E{[x(t)-m(t)]^2}.
PROCES LOSOWY
P.L. (stochastyczny) to model sygnału L. jest on F. dwóch zmiennych - czasu i wyniku losowania. x(t,ξ)<-P.L.
PRZEKRÓJ P. STOCHAST. PO CZASIE
P.P.S.P.C. jest jednowymiarową zmienną losową.
DLA JAKIEGO PROCESU WARTOŚĆ ŚREDN. NIE JEST F. CZASU
Dla P. stacjonarnego
KIEDY WARIANCJA NIE ZALEśY OD CZASU
Dla P. stacjonarnego
WARIANCJA PROCESU WART. LOSOWA CZY DETERMINISTYCZNĄ
W.P. est wart. deterministy.
KIEDY P. JEST ŚCIŚLE STACJONAR. SŁABO, N-TEGO RZĘDU
P. jest Ś.S jeŜeli przesunięcie punktu zerowego (obserwacji) nie oddziałuje na jego rozkłady prawdopodob. dowolnego rzędu; dystrybuan. i gęstość nie zaleŜą od czau.
P. jest S.S gdy wartość oczekiwana (średia) m(t)=m czyli nie zaleŜy od czasu, oraz gdy F. autokorelacji jest F. jednej zmiennej, czyli R(t1,t2)=R(t,t+τ)=R(τ)
P.S.n tego rzedu dla kaŜdego ciagu t1...tn i kazdego przesunięcia τ wartości F. gęstości prawdopodobieństwa sygnłu i sygnału przesuniętego względem niego o τ są sobie równe czyli: f1...n(x1...n,t1...tn)=f1...n(x1...n,t1-τ...tn-τ) SZUM BIAŁY
S.B. jest przykładem S. losowego, który jest bardzo szybko zmienny. Jego F. autokorelacji jest delta Diraca (czyli nie istniej powiaznie miedzy sąsiednimi w czasie próbkami), a jego widmowa gęstość mocy jest stała w funkcji częstotliwo. Sygnał ten jest idealnie szerokopasmowy i nie daje sie on wytworzyć w układach fizycznych.
GAUSOWSKI SZUM BIALY
G.S.B. - GWN jest to szum bialy ktorego rozkład prawdopodobieństwa ma kształt krzywej gaussa, ma on równa energie w całym paśmie częstotliwości.