TEST
Dany jest analityczny sygnał x(t) o nieskończonym czasie trwania. Jego wartość skuteczna xsk opisuje nastepujaca zależność:
$x_{\text{sk}} = \operatorname{}\sqrt{\frac{1}{T}\int_{0}^{T}{x^{2}\left( t \right)\text{dt}}}$
$x_{\text{sk}} = \sqrt{\lim_{T \rightarrow \infty}\frac{1}{T}\int_{0}^{T}{x\left( t \right)x^{*}(t)dt}}$
$x_{\text{sk}} = \sqrt{\lim_{T \rightarrow \infty}\frac{1}{T}\int_{0}^{T}{|x\left( t \right)|dt}}$
$x_{\text{sk}} = \operatorname{}\sqrt{\frac{1}{T}\int_{0}^{T}{x^{*}\left( t \right)\text{dt}}}$
$x_{\text{sk}} = \sqrt{\lim_{T \rightarrow \infty}\frac{1}{T}\int_{0}^{T}{{|x\left( t \right)|}^{2}\text{dt}}}$
Dany jest sygnal zdeterminowany ciągły x(t) o nieskończonym czasie trwania i wartości maxymalnej xm > 0. Wartosc srednia tego sygnalu spelnia warunki normy, gdy:
∫0Tx2(t)dt ≥ 0
$\operatorname{}{\int_{0}^{T}{\frac{x(t)}{x_{m}}dt \geq 0}}$
$\frac{x(t)}{x_{m}} \geq 0$
−xm ≤ x ≤ xm
$\frac{1}{T}\int_{0}^{T}{x\left( t \right)dt \geq 0}$
Dane sa sygnlay zdeterminowane x(t) i y(t) ciagle w czasie. Która z zależności definiuje splot sygnałów:
z(t) = ∫−∞+∞x(t+τ)y*(τ)dτ
z(t) = x(τ) * y(τ)
z(2t) = ∫−∞+∞x(τ−t)y(τ+t)dτ
z(t) = ∫0tx(τ−T)y*(τ)dτ
$z\left( t \right) = \frac{1}{2\pi}\int_{- \infty}^{+ \infty}{x\left( \tau - t \right)y\left( \tau + t \right)\text{dτ}}$S
Dane sa sygnaly zdeterminowane x(t) i y(t) oraz wielkości skalarne zespolone ∝, β ∈ C (wzmocnienie, tłumienie). Iloczyn skalarny sygnalow spelnia następujące warunki:
((∝+β)x,y) = (αx,y) + (βx, y)*
(αx,y) = (y, ∝x)
(x, βy)≥||x||||βy||
(x,x+βy) = ||x||2 + β*(x, y)
(x,αy) = α(x, y)
Dany jest sygnal zdeterminowany x(n) o skończonym czasie trwania. Energie tego sygnalu wyraza zależność
$E_{x} = \frac{1}{N}\sum_{n = 1}^{N}{x^{2}(n)}$
$E_{x} = \sum_{n = 1}^{N}{x\left( n \right)x^{*}(n)}$
$E_{x} = {(\sum_{n = 1}^{N}{|x\left( n \right)|})}^{2}$
$E_{x} = \frac{1}{N}\sum_{n = 1}^{N}{x\left( n \right)x^{*}(n)}$
$E_{x} = \frac{1}{N}\sum_{n = 1}^{N}{|x\left( n \right)|}^{2}$
Dany jest analityczny sygnal x(t) o skończonym czasie trwania T. Moc tego sygnalu opisuje zależność:
$P = \frac{1}{T}\int_{0}^{T}{x^{2}\left( t \right)\text{dt}}$
$P = \frac{1}{T}\int_{0}^{T}{{x(t)x}^{*}\left( t \right)\text{dt}}$
P = ∫0T|x(t)|2dt
$P = \frac{1}{T}\int_{0}^{T}{|x\left( t \right)|dt}$
$P = \frac{1}{T}{(\int_{0}^{T}{|x\left( t \right)|dt})}^{2}$
Dane sa sygnaly dyskretne x(n) i y(n). Funkcje korelacji wzajemnej φxy(m) definiuje zależność:
$\varphi_{\text{xy}}\left( m \right) = \sum_{n = 1}^{m}{x(n){y(n)}^{*}}$
$\varphi_{\text{xy}}\left( m \right) = \sum_{n = - \infty}^{\infty}{x\left( n - m \right)y(n)}$
$\varphi_{\text{xy}}\left( m \right) = \sum_{n = - \infty}^{m}{x\left( n + m \right)y^{*}(n)}$
φxy(m) = (x(n+m), y(n))
φxy(m) = (x(n−m), y(n))*
Dany jest sygnal losowy x(t). Tylko dla sygnalu stacjonarnego w scislym sensie jego moc srednia wyraza się nastepujaca zależnością:
$m_{2} = \operatorname{}{\frac{1}{T}\int_{0}^{T}{x^{2}\left( t \right)\text{dt}}}$
m2 = ∫−∞+∞x2f(x, t)dt
m2 = ∫−∞+∞x2f(x, t)dx
m2 = ∬−∞+∞x1x2f(x1,x2,0)dx1dx2
m2 = ∫−∞+∞(x−m)2f(x, 0)dx
Relacja pomiedzy funkcja autokorelacji sygnalu losowego stacjonarnego x(t) a moca srednia wyraza się zaleznoscia:
R(τ) = C(τ) + m2
R(0) ≥ |R(τ)|
$\frac{1}{T}\int_{- \infty}^{+ \infty}{S\left( \omega \right)e^{\text{jωt}}d\omega = K(\tau)}$
m2 = σ2 + m2
∫−∞+∞S(ω)dω = R(0)
Dany jest sygnal losowy normalny. Jednowymiarowa gęstość prawdopodobieństwa tego sygnalu opisuja parametry m – wartość srednia i σ-odchylenie standardowe. Moc srednia tego sygnalu opisuje zależność:
m2
2m + σ2
m2 + σ2
2σ2
σ2
Sygnal losowy stacjonarny w ścisłym sensie x(t) spelnia następujące wlasnosci:
f(x1,x2,τ) = ∫−∞+∞f(x1, x2, t, t + τ)dt
f(x1, x2, t, t + τ)=f(x1, x2)
f(x1, x2, t, t + τ)=f(x1, t)f(x2, t + τ)
f(x1, x2, t, t)=f(x1, x2, 0)
f(x,t) = ∫−∞+∞f(x,t+τ)dτ
Dwa sygnaly losowe x(t) i y(t) lacznie stacjonarne sa ortogonalne, gdy:
Rxy(τ) − ∫−∞+∞x(t)y(t + τ)dt = 0
∬−∞+∞(x(t)y(t + τ)*f(x,y,τ)dxdy = 0
Rxy(τ) − ∬−∞+∞xyf(x)f(y)dxdy = 0
∬−∞+∞(x(t)y(t+τ)−mxmy)f(x,y,τ)dxdy = 0
$\operatorname{}{\frac{1}{T}\int_{- \infty}^{+ \infty}{\left( x\left( t \right) - m_{x} \right)\left( y\left( t + \tau \right) - m_{y} \right)dt = 0}}$
Dany jest dwuwejsiowy układ o charakterystyce wejsciowo-wyjsciowej y = g(x1, x2). Gestosc prawdopodobieństwa sygnalu y(t) na wyjsciu układu opisuje nastepujaca zależność:
$f\left( y \right) = \iint_{- \infty}^{+ \infty}{f\left( y\left( x_{1},x_{2} \right) \right)|\frac{dh_{2}}{\text{dy}}|dx_{1}}$
f(y) = f(h(y))|hy(y)|
$f\left( y \right) = f\left( g\left( x \right) \right)|\frac{dh_{1}}{\text{dy}}|$
$f\left( y \right) = \int_{- \infty}^{+ \infty}{f\left( x_{1},h_{2}\left( x_{1},y \right) \right)|\frac{dh_{2}}{\text{dy}}|dx_{1}}$
$f\left( y \right) = \int_{- \infty}^{+ \infty}{f\left( y,h_{1}\left( x_{1},y \right) \right)|\frac{dh_{1}}{\text{dy}}|dx_{1}}$
Na wejscie sumatora podano dwa sygnaly losowe x1(t) x2(t). Tylko dla sygnalow statystycznie niezależnych sluszna jest nastepujaca zależność opisujaca gęstość prawdopodbienstwa sygnalu wyjściowego:
f(y) = ∫−∞+∞f(x1,y)|x1|dx1
f(y) = f(x1)f(x2)|J|
f(y) = ∫−∞+∞f(x1)f(y−x1)dx1
f(y) = f(x1)f(x2)
f(y) = ∫−∞+∞f(x1)f(y−x1)|x1|dx1
Dany jest sygnal x(t) wąskopasmowy stacjonarny normalny. Gestosc prawdopoobienstwa wartości chwilowych tego sygnalu opisuje zależność:
$f\left( x \right) = \frac{x}{\sigma}exp( - \frac{x^{2}}{\sigma})$
$f\left( x \right) = xexp( - \frac{x^{2}}{2\sigma^{2}})$
$f\left( x \right) = \frac{x}{\sigma^{2}}exp( - \frac{x^{2}}{2\sigma^{2}})$
$f\left( x \right) = \frac{1}{\sqrt{2\pi}\sigma}exp( - \frac{{(x - A)}^{2}}{{2\sigma}^{2}})$
$f\left( x \right) = \frac{1}{\sqrt{2\pi}\sigma}exp( - \frac{{(x)}^{2}}{{2\sigma}^{2}})$
Dany jest sygnal w postaci sumy sygnalu harmonicznego i sygnalu wąskopasmowego stacjonarnego normalnego. Sygnal ten charakteryzuja następujące własności statystyczne:
Rozklad obwiedni sygnalu opisuje rozklad normalny
Skladowa syn fazowa i kwadraturowa obwiedni sa statystycznie niezależne
Moc składowej kwadraturowej obwiedni rowna się mocy sredniej sygnalu
Moc składowej syn fazowej obwiedni rowna się Polowie mocy sredniej sygnalu
Rozklad wartości chilowych sygnalu opisuje rozklad Rice’a
Dany jest sygnal wąskopasmowy, stacjonarny, normalny x(t) o stalej wartosci widmowej gęstości mocy S0 w pasmie B. Skladowa stala tego sygnalu wynosi m rozne od 0. Narysowac gęstość prawdopodobieństwa wartości chwilowych tego sygnalu z zaznaczeniem poszczególnych jego parametrow.
Dany jest sygnal w postaci sumy sygnalu harmonicznego i sygnalu wąskopasmowego stacjonarnego normalnego. Gestosc prawdopodobieństwa obwiedni tego sygnalu dla przypadku a << 1 aproksymuje następujący rozklad:
Rozklad Rayleigha
Rozklad wykładniczy
Rozklad normalny
Rozklad Rice’a
Rozklad równomierny
Sprawnosc kodu blokowego η (n, k) to:
$\eta = 1 - \frac{k}{n}$
Roznica pomiedzy dlugoscia ciagu kodowego a liczba pozycji kontrolnych
$\eta = \frac{k}{n}$
Zdolność kodu do korekcji k bledow
Zdolność kodu do wykrycia k bledow
Rozklad wag kodu to
Maksymalna liczba jedynek wystepujacych w ciagu kodowym
Minimalna liczba jedynek w ciagu kodowym
Liczba jedynek i zer w ciagu kodowym
Zależność liczby ciągów kodowych od wartości ich wag
Zależność liczby ciągów kodowych o tej samej odległości Hemminga od wartości tej odleglosci