Teoria ryzyka 1


Niech S bedzie zbiorem możliwych stan w środowiska, D zbiorem możliwych do podjecia
decyzji, zaś R zbiorem rezultat w, kt re zależa zar wno od stanu środowiska jak i podjetej
decyzji. Naturalnym jest zdefiniowanie funkcji G : S D wzorem r = G (s, d).
Przestrzeń probabilistyczna (S, A, PS) nazywamy modelem niepewności. Dla ustalonego
d " D odwzorowanie G dzieki PS indukuje pewien rozklad prawdopodobieństwa możliwych
do uzyskania rezultat w.
Przyk ad
Zal żmy, że D = {O, I}, S = {T, C}, P (C) = 0, 7, P (T) = 0, 3, R = E, G, B, A gdzie
E = G (C, O), G = G (C, I), B = G (T, I), A = G (T, 0). W wczas dla decyzji d =  O
r E G B A r E G B A
mamy , zaś dla decyzji d =  I otrzymujemy .
0, 7 0 0 0, 3 0 0, 7 0, 3 0
Powstaje zatem pytanie kt ry z rozklad w wybrać, tzn. jaka podja ć decyzje. Jedna
z metod wyznaczania optymalnego rozkladu polega na maksymalizacji oczekiwanej
r A B G E
użyteczności. Zal żmy, że użyteczność decydenta dana jest przez tabele .
u 0 2 5 10
Dla d =  O oczekiwana użyteczność wynosi 10 0, 7 + 0 0, 3 = 7, zaś dla d =  I oczekiwana
użyteczność r wna jest 5 0, 7 + 2 0, 3 = 4, 1. W myśl tej zasady decydent powinien podja ć
decyzje  O .
Niech (R, B) bedzie przestrzenia mierzalna podzbior w wszystkich możliwych rezultat w.
Dla ustalonej decyzji d definiujemy odwzorowanie Gd : S R wzorem Gd (s) = G (s, d).
Zakladamy, że Gd jest odwzorowaniem mierzalnym wzgledem pary -cial A, B. Wtedy
odwzorowanie Gd definiuje element losowy, kt rego rozklad prawdopodobieństwa określony jest
wzorem Pd (C) = PS G-1 (C) , C " B. Bedziemy zakladać dalej, że dana jest pewna rodzina
d
rozklad w PD = {Pd : d " D} na przestrzeni rezultat w. W zwiazku z tym nie bedzie potrzeby
określać relacji preferencji na zbiorze rezultat w, ale relacje preferencji na zbiorze rozklad w
możliwych rezultat w.
Definicja
Relacje w zbiorze R nazywamy relacja preferencji, jeśli
(i) "r ,r2"R r1 r2 (" r2 r1
1
(ii) "r ,r2"R [(r1 r2 '" r2 r3) =! r1 r3].
1
Oznaczmy przez ! zbi r wszystkich możliwych rozklad w prawdopodobieństwa na R.
Ryzykiem nazywamy każdy rozklad prawdopodobieństwa P " ! (lub każda dystrybuante
rozkladu prawdopodobieństwa P " !, lub każda zmienna losowa X o rozkladzie P " !).
W szczeg lności ryzykami sa wszystkie elementy z PD.
1
Zdefiniujmy relacje <" wzorem "r ,r2"R r1 <" r2 !! (r1 r2 '" r2 r1). Relacja <" jest
1
relacja r wnoważności. Innym przykladowym sposobem zdefiniowania relacji jest r1 z" r2 !!
[r1 r2'" <" (r2 r1)]. W og lnym przypadku relacja preferencji wprowadzana jest zazwyczaj
za pomoca pewnego funkcjonalu definiowanego na zbiorze ryzyk. Miara ryzyka nazywamy
dowolny funkcjonal : ! , gdzie ! jest zbiorem ryzyk. W wczas relacje preferencji
możemy zdefiniować jako "P ,P2"! P1 P2 !! (P1) d" (P2).

1
Przyk ad
Niech F bedzie zbiorem dystrybuant na . W wczas przykladowymi miarami ryzyk sa:
(i) (F) = xdF (x)
(ii)  (F) = (x - (x))2 dF (x)
(iii) ł (F) = a (F) + b (F), a, b "
(iv)  (F) = U (x) dF (x), gdzie U jest pewna funkcja. W wczas  jest oczekiwana
użytecznościa.
0 "
(v)  (F) = [g (1 - F (x)) - 1] dx + g (1 - F (x)) dx, gdzie g : [0, 1] [0, 1] jest funkcja
-" 0
rosnaca, g (0) = 0, g (1) = 1. W szczeg lności gdy g jest identycznościa w wczas otrzymujemy
przypadek (i).
(vi)  (F) = F-1 (1 - ą) jest rodzajem skladki V aRą.
Przyk ad
Niech X = (X1, ..., Xn), gdzie Xi oznacza zwroty z inwestycji jednostkowej w i-ty instrument
finansowy. Problem wyboru portfela sprowadza sie do takiej alokacji jednostki kapitalu,
aby uzyskać optymalny wzgledem danej relacji preferencji zwrot z inwestycji portfela. Jeżeli
Xi, i = 1, ..., n sa liniowe, to Y = y1X1+...+ynXn jest zyskiem portfela, gdzie yi jest procentem
udzialu kapitalu zainwestowanego w i-ty instrument. Zbiorem możliwych rezultat w jest
n
n
S " , D = (y1, ..., yn) : yi e" 0, yi = 1 , zaś R " oraz (FY ) = f (y). Zatem problem
i=1
wyboru optymalnego portfela polega na szukaniu minimum (badz maksimum) funkcji f (y).
Przyk ad
Niech Ą bedzie miara ryzyka. Dobieramy Ą w taki spos b, by dla straty X o dystrybuancie FX
obliczona skladka wynosila P = Ą (X). Niech ! bedzie zbiorem ryzyk nieujemnych. W wczas
Ą : ! *" {"}. Najprostszym przypadkiem jest Ą (X) = EX.
+
R żnice Ą (X) - EX e" 0 nazywamy ladowaniem ubezpieczenia.
2
Niech X, Y , Z e" 0 beda wielkościami ryzyk. W wczas miara ryzyka Ą może mieć
nastepujace wlasności:
1. Ą (X) e" EX
2. "ae"0 Ą (a) = a - brak nieuzasadnionego ladowania ubezpieczenia
3. "ae"0 Ą (X + a) = Ą (X) + a - zgodność
4. "ae"0 Ą (aX) = aĄ (X) - proporcjonalność
5. Ą (X + Y ) d" Ą (X) + Ą (Y ) - subaddytywność
6. Ą (X + Y ) = Ą (X) + Ą (Y ) - addytywność (zwykle żadana dla ryzyk niezależnych)
7. X d"st Y =! Ą (X) d" Ą (Y )
8. "a"(0,1) [Ą (X) = Ą (Y ) =! Ą (aX + (1 - a) Z) = Ą (aY + (1 - a) Z)].
Podstawowe rodzaje skladek to:
1. Ą (X) = EX
2. Ą (X) = (1 + a) EX, a e" 0 - skladka wartości oczekiwanej
3. Ą (X) = EX + aV arX, a e" 0
"
4. Ą (X) = EX + a V arX, a e" 0
5. Ą (X) = EX + aV arX, a e" 0, EX > 0
EX
1
ln EeaX a > 0
a
6. Ąa (X) = .
EX a = 0
Lemat (nier wność Lapunowa)
1 1
v w
Niech X e" 0 i 0 < v < w < ". Wtedy (EXv) d" (EXw) , przy czym nier wność jest ostra
gdy X ma rozklad niezdegenerowany.
Dow d
w
v
Zastosujemy nier wność Jensena dla funkcji h (x) = x i Y = Xv. Mamy
w 1 1
v w v
EXw = Eh (Y ) e" h (EY ) = (EXv) =! (EXw) e" (EXv) ,
przy czym r wność w nier wności Jensena zachodzi wtedy i tylko wtedy, gdy Y ma rozklad
jednopunktowy, czyli gdy X ma rozklad jednopunktowy.
Twierdzenie
0
Zal żmy, że X e" 0 bedzie takie, że Eea X < " dla pewnego a0 > 0. Wtedy
1. Ąa jest ściśle rosnaca funkcja a dla a " (0, a0], o ile X ma rozklad niezdegenerowany
2. lim Ąa (X) = EX
a0+
3. Jeżeli EeaX < " dla wszystkich a > 0, to lim Ąa (X) = rF := sup {t " : FX (t) < 1}.
a"
3
Dow d
1. Z nier wności Lapunowa dla 0 < v < w < a0 mamy
1 1
v w
EXv < EXw
1 1
Ąv (X) = ln EXv < ln EXw = Ąw (X), gdzie X = eX.
v w
2. Dla a " (0, a0] mamy ln (1 + x) = x + o (x), gdzie limo(x) = 0. Stad
x
x0
1
ln EeaX = E e aX - 1 + o E eaX - 1 =
a
o E eaX - 1
a0+
1
= E eaX - 1 1 + EX.
a
E [eaX] - 1
!a0+
1
3. Dla a > 0 mamy
rF
F F
X d" rF =! eaX d" ea =! EeaX d" Eear =! ln EeaX d" ln Eaar = arF =!
1
=! Ąa (X) = ln EeaX d" rF.
a
0 X d" 
Dla 0 <  < rF zdefiniujmy X = . Z definicji X wynika, że X d" X. Stad
 X > 
eaX d" eaX =! EeaX d" EeaX '" P (X d" ) + eaP (X > ) e" ea (1 - FX ()) =!
1 1
=! a + ln (1 - FX ()) d" ln EeaX =!  + ln (1 - FX ()) d" ln EeaX = Ąa (X).
a a
Zatem lim Ąa (X) e" . Z dowolności  < rF nier wność zachodzi dla rF, tzn. lim Ąa (X) e" rF.
a" a"
"
1
p
Skladka proporcjonalna do hazardu nazywamy skladke postaci Ą (X) = [1 - FX (t)] dt,
0
1
1
v
v
p e" 1. Oznaczmy FX (t) = 1 - [1 - FX] = 1 - F . W wczas jeżeli X <" fX, to
mX(t)
d
mX (t) = - ln FX (t) = .
dt p
Skladka V aR nazywamy skladke postaci Ą (X) = V aR (X) = F-1 (1 - ), gdzie
F-1 (y) = inf {t " : F (t) e" y}.
Lemat
Jeżeli F : jest dystrybuanta, to
1. F-1 jest niemalejaca
2. F jest prawostronnie ciagla
3. F-1 (y) d" x !! y d" F (x).
Twierdzenie
Jeżeli X <" F oraz Z jest zmienna losowa o rozkladzie jednostajnym na przedziale [0, 1] dla
pewnej przestrzeni probabilistycznej (&!, F, P), to F-1 (Z) ma rozklad o dystrybuancie F.
Dow d
Z faktu, że F-1 (y) d" x !! y d" F (x) mamy P (F-1 (Z) d" x) = P (Z d" F (x)) = F (x).
4
Uwaga
1
EX = EF-1 (Z) = F-1 (t) dt.
0
Przypuśćmy, że danej wartości pienie żnej x indywidualnie dla każdego decydenta przypisana
jest użyteczność v, kt ra jest funkcja rosnaca. Postuluje sie r wnież, że v jest wkesla
(użyteczność dla malych przyrost w prowadzi do wiekszych przyrost w wartości pienie żnej
oraz dla malych x otrzymujemy wiekszy przyrost niż dla dużych). Niech zysk z inwestycji
opisany bedzie dwiema zmiennymi losowymi X, Y o wartościach rzeczywistych. Dla dw ch
decyzji X i Y możemy por wnać użyteczności E [v (X)] d" E [v (Y )]. Decyzja prowadzaca do
wiekszej użyteczności jest lepsza. Każda funkcje v : (b1, b2) rosnaca i wklesla nazywać
bedziemy funkcja użyteczności. Jeżeli X i Y sa stratami, to użyteczności maja postać v (-X),
v (-Y ). Zakladajac, że sa to wielkości losowe możemy policzyć ich średnie Ev (-X) e" Ev (-Y ).
Zdefiniujmy funkcje pomocnicza w (X) = -v (-X) bedaca funkcja rosnaca i wypukla. Każda
rosnaca i wypukla funkcje w : (b1, b2) , gdzie (b1, b2) " nazywamy funkcja straty.
Definicja
Relacje z" w zbiorze  nazywamy cze ściowym porzadkiem, jeżeli
(i) "x" x z" x
(ii) "x,y" x z" y '" y z" x =! x = y
(iii) "x,y" x z" y '" y z" z =! x z" z.
W prowadzonych dalej rozważaniach jako  przyjmować bedziemy zbi r ryzyk na .
Definicja
Niech X, Y beda zmiennymi losowymi o wartościach rzeczywistych.
(i) Powiemy, że zmienna losowa X jest stochastycznie mniejsza od Y (poprzedza Y w porzadku
stochastycznym) i napiszemy X d"st Y jeśli nier wność
(") Eg (X) d" Eg (Y )
zachodzi dla wszystkich rosnacych funkcji g : , dla kt rych wartości oczekiwane Eg (X),
Eg (Y ) istnieja i sa skończone.
(ii) Niech EX+ < " oraz EY+ < ". Powiemy, że zmienna losowa X jest mniejsza od
Y w porzadku stop-loss (X poprzedza Y w porzadku stop-loss) i napiszemy X d"sl Y jeśli
(") zachodzi dla wszystkich rosnacych i wypuklych funkcji g : , dla kt rych wystepujace
w (") wartości oczekiwane istnieja i sa skończone.
(iii) Niech E (-X)+ < " oraz E (-Y )+ < ". Powiemy, że zmienna losowa X poprzedza Y
w porzadku rosnacym wkleslym i napiszemy X d"icv Y jeśli (") zachodzi dla wszystkich
rosnacych i wkleslych funkcji g : , dla kt rych wartości oczekiwane w (") istnieja
i sa skończone.
5
Umowa
W dalszym ciagu bedziemy oznaczali X d" Y jeżeli X i Y sa zmiennymi losowymi określonymi
na tej samej przestrzeni probabilistycznej (&!, F, P) oraz P (X d" Y ) = 1.
Twierdzenie o couplingu dla porzadku stochastycznego
Nastepujace warunki sa r wnoważne:
(a) X d"st Y
(b) istnieje przestrzeń probabilistyczna (&! , F , P ) oraz istnieja zmienne losowe X , Y określone
d d
na tej przestrzeni takie, że X = X, Y = Y oraz X d" Y
(c) "x" FX (x) e" FY (x).
Dow d
(a) =! (c) . Niech x " . Wystarczy przyja ć g (t) = 1(x,") (t). Wtedy
P (Y > x) = E1(x,") (Y ) = Eg (Y ) = Eg (X) = E1(x,") (X) = P (X > x).
Stad FX (x) e" FY (x).
(c) =!(b) . Niech (&! , F , P ) := ((0, 1], B ((0, 1]) , ), Z () = . Mamy
-1 -1
P (Z d" x) =  ((0, 1]) = x, zatem Z <" U (0, 1). Zdefiniujmy X = FX (Z), Y = FY (Z).
d d
Z odpowiedniego twierdzenia wynika, że X = X, Y = Y . Niech  " (0, 1). Wtedy
-1
X () = FX (Z ()) = inf {x " : FX (x) e" Z ()} d" inf {x " : FY (x) e" Z ()} =
-1
= FY (Z ()) = Y ().
Zatem X d" Y .
(b) =! (a) . Niech g : bedzie funkcja rosnaca taka, że Eg (X), Eg (Y ) istnieja i sa
d d
skończone. Z zalożenia wynika istnienie X , Y takich, że X = X, Y = Y oraz X d" Y .
Ponieważ X d" Y oraz g jest rosnaca, wiec g (X ) d" g (Y ), a wiec
Eg (X) = Eg (X ) d" Eg (Y ) = Eg (Y ).
Twierdzenie
Nastepujace warunki sa r wnoważne:
(a) X d"sl Y
(b) "x" E (X - x)+ d" E (Y - x)+.
Dow d
(a) =! (b) . Niech x " . Rozważmy g (t) = (t - x)+, t " . Zauważmy, że g jest
funkcja rosnaca i wypukla. Zatem na mocy (a) E (Y - x)+ = Eg (Y ) e" Eg (X) = E (X - x)+.
Z dowolności x otrzymujemy, że E (X - x)+ d" E (Y - x)+.
(b) =! (a) . Niech g : bedzie funkcja rosnaca i wypukla taka, że Eg (X), Eg (Y )
istnieja i sa skończone. Rozważmy przypadki:
6
(i) g (-") > -". Wtedy
x x t x x
g (x) = g (-") + g+ (t) dt = g (-") + dg+ (u) dt = g (-") + dtdg+ (u) =
-" -" -" -" u
x
= g (-") + (x - u) dg+ (u).
-"
Stad
" x
Eg (X) = g (-") + (x - u) dg+ (u) dFX (x) =
-" -"
" " " "
= g (-") + (x - u)+ dg+ (u) dFX (x) = g (-") + (x - u)+ dg+ (u) dFX (x) =
-" -" -" -"
" " "
(b)
= g (-") + (x - u)+ dFX (x) dg+ (u) = g (-") + E (X - u)+ dg+ (u) d"
-" -" -"
"
d" g (-") + E (Y - u)+ dg+ (u) = Eg (Y ).
-"
(ii) g (-") = -". Zdefiniujmy ciag funkcji gn (x) = max {-n, g (x)}. Sa to funkcje rosnace
i wypukle. Z (i) mamy Egn (X) d" Egn (Y ). Z twierdzenia Lebesgue a o zbieżności
monotonicznej mamy lim Egn (X) d" lim Egn (Y ) =! Eg (X) d" Eg (Y ).
n" n"
Twierdzenie o couplingu dla porzadku stop-loss
Nastepujace warunki sa r wnoważne:
(a) X d"sl Y
(b) istnieje przestrzeń probabilistyczna (&! , F , P ) oraz zmienne losowe X , Y określone na tej
d d
przestrzeni takie, że X = X, Y = Y oraz X d" E [Y |X ].
Dow d
(b) =! (a) . Niech x " . Mamy
E (X - x)+ = E (X - x)+ d" E (E [Y |X ] - x)+ d" E E (Y - x)+ |X =
= E (Y - x)+ = E (Y - x)+.
Dow d implikacji przeciwnej pominiemy ze wzgledu na jego trudność.
Lemat
"
Niech h : bedzie taka funkcja calkowalna, że h (t) dt e" 0. Jeżeli h (t) d" 0 t < t0,
-"
"
gdzie t0 " oraz h (t) e" 0, to "x" h (t) dt e" 0.
x
Dow d
"
Definiujac g : wzorem g (x) = h (t) dt mamy, że g jest ciagla. Ponadto g (-") e" 0
x
oraz g (") = 0. Ponieważ g jest rosnaca dla t < t0 oraz malejaca dla t > t0, wiec "x" g (x) e" 0.
7
Twierdzenie (lemat Ohlina, kryterium Karlina, kryterium Karlina-Novikoffa
jednego przeciecia)
Zal żmy, że X, Y sa takimi calkowalnymi zmiennymi losowymi, że EX d" EY . Jeżeli dla
pewnego t0 " FX (t) d" FY (t) dla t t0, to X d"sl Y .
0
Dow d
Niech h : , h (t) = FX (t) - FY (t) = FY (t) - FX (t). Wtedy h (t) d" 0 dla t < t0 oraz
h (t) e" 0 dla t > t0. Mamy
" 0 " 0 "
h (t) dt = h (t) dt + h (t) dt = - [FX (t) - FY (t)] dt + FY (t) - FX (t) dt =
-" -" 0 -" 0
0 " 0 "
= - FY (t) dt + FY (t) dt - - FX (t) dt + FX (t) dt = EY - EX e" 0.
-" 0 -" 0
" "
Z lematu "x" h (t) dt e" 0. Zatem "x" FY (t) - FX (t) dt e" 0, czyli
x x
" "
(") "x" FY (t) dt e" FX (t) dt.
x x
Pokażemy, że (") r wnoważna jest z definicja porzadku stop-loss, tzn.
("") "x E (X - x)+ d" E (Y - x)+.
Wniosek
Warunkiem wystarczajacym, aby X d"sl Y jest warunek (").
Twierdzenie
Niech X bedzie dowolnym ryzykiem o skończonej wartości oczekiwanej . Wtedy
Y <" 1[,") :=  d"sl FX.
Uwaga
Jeżeli v jest rosnaca i wklesla funkcja użyteczności, to z nier wności Jensena mamy
" "
v (x) dF (x) = E [v (X)] d" v (EX) = v (x) d (x) = Ev (Y ).
-" -"
Definicja
Funkcje v : nazwiemy 2-wklesla jeśli v jest ograniczona z g ry oraz
+
"
2
"x" v (x) = v (") - (t - x)2 d (t), gdzie (t - x)2 = (t - x)+ , zaś  jest funkcja
+
+ +
-"
"
niemalejaca, prawostronnie ciagla taka, że t2d (t) < " lub v jest granica monotonicznego
-"
ciagu takich funkcji.
8
Twierdzenie
Jeżeli v : jest funkcja 2-wypukla, zaś X jest dowolnym ryzykiem nieujemnym
+
o dystrybuancie F i skończonych momentach = EX oraz 2 = EX2, to
" " "
2 2
v (x) dFm (x) d" v (x) dF (x) d" v (x) d (x), gdzie Fm (x) = 1 - 0 +  .
(2) (2) (2)

0 0 0
Dow d
Zauważmy, że
" " " " "
v (x) dF (x) = v (") - (t - x)2 d (t) dF (x) = v (") - (t - x)2 d (t) dF (x) =
+ +
0 0 -" 0 -"
" " " t
= v (") - (t - x)2 dF (x) d (t) = v (") - (t - x)2 dF (x) d (t).
+
-" 0 -" 0
t t
Pokażemy, że (t - x)2 dF (x) d" (t - x)2 dFm (x). Rozważmy przypadki:
0 0
t
(2) 2
(i) t < . Wtedy (t - x)2 dFm (x) = t2 1 - . Ponadto
(2)
0
" t
E (t - X)2 = (t - x)2 dF (x) = (t - x)2 dFm (x).
+ + +
0 0
(2)
(ii) t e" . Wtedy

t
2
2 (2) 2
(t - x)2 dFm (x) = t2 1 - + t - =
(2) (2)
0
2
2 2 (2) 2 (2) 2
= t2 - t2 + t2 - 2t + = t2 - 2t + (2).
(2) (2) (2) (2)
Ponadto
t " " "
(t - x)2 dF (x) d" (t - x)2 dF (x) = t2 - 2t xdF (x) + x2dF (x) = t2 - 2t + (2).
0 0 -" -"
Pokażemy teraz, że
2
(") E (t - X)2 d" t2 1 - .
(2)
2
1
Zauważmy, że dla z = (") jest r wnoważna z E (1 - zX)2 d" 1 - dla z > =: z0.
+
t (2) (2)
Mamy
z>z0
2
E (1 - zX)2 d" E (1 - z0X)2 d" E (1 - z0X)2 = 1 - 2z0EX + z0EX2 =
+ +
2 2 2 2
= 1 - 2 + (2) = 1 - 2 + = 1 - .
2
(2) (2) (2) (2)
(2)
( )
Stad wnioskujemy, że zachodzi (").
Definicja
Niech v : bedzie ściśle rosnaca funkcja użyteczności. Skladke Ą (X) za ryzyko X
nazywamy skladka zerowej użyteczności jeżeli
(1) E [v (Ą (X) - X)] = v (0).
9
Twierdzenie
Skladka zdefiniowana jako rozwiazanie (1) ma nastepujace wlasności:
1. nieujemne ladowanie bezpieczeństwa
2. brak nieuzasadnionego ladowania bezpieczeństwa
3. jeżeli X d"sl Y , to Ą (X) d" Ą (Y ).
Dow d
1. v (0) = E [v (Ą (X) - X)] d" v (Ą (X - EX)), a wiec 0 d" Ą (X) - EX.
2. E [v (Ą (x) - x)] = v (0) =! v (Ą (x) - x) = v (0) =! Ą (x) - x = 0 =! Ą (x) = x.
3. X d"sl Y wtedy i tylko wtedy, gdy dla każdej funkcji rosnacej i wypuklej g mamy
Eg (X) d" Eg (Y ). Pol żmy g (x) = -v (c - x), c " . Mamy
v (0) = Ev (c - X) e" Ev (c - Y ) = v (0) =! Ą (X) d" Ą (Y ).
Przyk ad
1
Rozważmy v (x) = (1 - e-ax), a > 0. Zakladamy, że EeaX < ". Mamy v (0) = 0 oraz
a
1
Ea [1 - exp {-a (Ą (X) - X)}] = 0
e-aĄ(X)EeaX = 1
1
Ąa (X) = ln E eaX .
a
Zatem skladka wykladnicza jest skladka zerowej użyteczności dla wykladniczej funkcji
użyteczności. Dla ryzyk niezależnych mamy ponadto Ąa (X + Y ) = Ąa (X) + Ąa (Y ).
Dla ustalonych b > 0 oraz p " [0, 1] rozważmy ryzyko Xb o rozkladzie dwupunktowym:
pb + (1 - p) 0. Oznaczmy przez b (p) skladke zerowej użyteczności za ryzyko Xb, tzn.
b (p) = Ą (Xb) = Ą (pb + (1 - p) 0), czyli
(2) Ev (b (p) - Xb) = 0 !! pv (b (p) - b) + (1 - p) v (b (p)) = 0.
Lemat
Dla ustalonego b > 0 funkcja b : [0, 1] jest klasy C2.
+
Dow d
Rozważmy funkcje F : [0, 1] określona r wnaniem
+
(") F (x, y) = xv (y - x) + (1 - x) v (y).
Zauważmy, że F " C2, gdyż v " C2. Ponadto
Fy = xv (y - b) + (1 - x) v (y) = v (y) + x (v (y - b) - v (y)) > 0.
e"0
>0 e"0
Wobec tego funkcja uwiklana dana r wnaniem (") istnieje i jest klasy C1. Wnioskujemy zatem,
że b jest klasy C2.
10
Lemat
Zal żmy, że spelnione sa zalożenia twierdzenia. Jedynym rozwiazaniem r wnania
(3) v (h + t) - v (t) v (t) - v (h) v (t) - av (h) v (t) = 0
jest funkcja
1
(1 - e-ax) a > 0
a
(4) v (x) = .
x a = 0
Dow d (szkic)
Latwo sprawdzić, że v dana przez (4) spelnia (3). Rozważmy przypadki:
1. a > 0. Zauważmy, że "t>0 v (2t) d" 2v (t). Istotnie,
1 1 1 1 1
v (t) = v 2t + 0 e" v (2t) + v (0) = v (2t) =! 2v (t) e" v (2t).
2 2 2 2 2
v(2t)-av2(t) 2v(t)-av2(t) av(t)
Wynika stad, że v (t) = d" = 1 - .
2v(t) 2v(t) 2
Kladac h = t > 0 w (3) mamy
v (2t) - 2v (t) v (t) - av2 (t) = 0
v(h+t) v(h)v (t)
- v (h) - - av (h) = 0.
v(t) v(t)
Przechodzac z t " mamy
1 - v (h) - 0 - av (h) = 0, czyli 1 - v (h) - av (h) = 0.
R wnanie to ma dokladnie jedno rozwiazanie takie, że v (0) = 0. Zatem rozwiazaniem tym
1
musi być funkcja (1 - e-ax). W polaczeniu z przykladem otrzymujemy teze dla a > 0.
a
2. a = 0. Przypuśćmy, że v jest ograniczona. Rozważania jak w punkcie 1. doprowadzaja
nas do r wnania 1 - v (h) = 0. Rozwiazaniem jest v (h) = h, nie bedaca funkcja ograniczona.
t"
v(h)v (t)
W szczeg lności v nie jest ograniczona z g ry. Zauważmy, że 0. Ponadto
v(t)
v(h) v(t+h)
v (t) + v (h) e" v (t + h) e" v (t) =! 1 + e" e" 1.
v(t) v(t)
t"
v(t+h)
Z twierdzenia o trzech funkcjach 1.
v(t)
Twierdzenie
Zal żmy, że v : jest funkcja użyteczności klasy C2 oraz v (0) = 0, v (0) = 1,
v (0) = -a dla pewnego a e" 0. Niech Ą bedzie skladka zerowej użyteczności zdefiniowana
przez (1) dla ryzyk nieujemnych. Jeżeli Ą jest addytywna dla niezależnych ryzyk X, Y , tzn.
Ą (X + Y ) = Ą (X) + Ą (Y ), dla kt rych wielkości te istnieja i sa skończone, to
1
ln EeaX a > 0
a
Ą (X) = .
EX a = 0
Dow d (szkic)
R żniczkujac po p r wnanie pv (b (p) - b) + (1 - p) v (b (p)) = 0 mamy
v (b (p) - b) + pv (b (p) - b)  b (p) - v (b (p)) + (1 - p) v (b (p))  b (p) = 0.
Kladac p = 1 mamy v (b (1) - b) + v (b (1) - b)  b (1) - v (b (1)) = 0.
Wiedzac, że b (1) = b mamy v (0) + v (0)  b (1) - v (b) = 0. Stad
11
(5)  b (1) = v (b).
Dla ryzyk niezależnych Xb <" pb +(1 - p) 0, b > 0 oraz Xt <" qt +(1 - q) 0, t > 0 z zalożenia
wynika, że Ą (Xb + Xt) = b (p) + t (q). Mamy
pqv (b (p) + t (q) - b - t) + p (1 - q) v (b (p) + t (q) - b) +
+ (1 - p) qv (b (p) + t (q) - t) + (1 - p) (1 - q) v (b (p) + t (q)) = 0.
R żniczkujemy otrzymane r wnanie najpierw po p a nastepnie po q. Kladziemy p = q = 1
i korzystamy z r wnania (5) otrzymujac r wnanie (3).
Analogiczne rozumowanie należy przeprowadzić dla h, t < 0.
Dokonajmy nastepujacej modyfikacji zasady zerowej użyteczności.
1. Niech v : bedzie ściśle rosnaca funkcja użyteczności. Jeżeli u jest kapitalem
poczatkowym, w wczas szukamy Ą (X) takiej, aby Ev (u + Ą (X) - X) = v (u). W wczas
Ą (X) nazywamy skladka jednakowej użyteczności.
2. Jeżeli u : jest funkcja ściśle rosnaca i wypukla, w wczas Ą (X) spelniajace warunek
Eu (X - pĄ (X)) = u ((1 - p) Ą (X)), p " [0, 1] nazywamy skladka szwajcarska.
3. Ą (X) = EX + E (X - aEX)+,  " (0, 1), a e" 1 nazywamy skladka holenderska.
E XeZ
[ ], gdzie Z jest pewna zmienna losowa nazywamy skladka Esschera.
4. Ą (X) =
E[eZ]
Zal żmy, że na rynku ubezpieczeniowym X1, ..., Xn sa ryzykami, kt rymi firmy
i
ubezpieczeniowe moga sie wymieniać w celu maksymalizacji użyteczności. Niech ui (w) = e-ą w
beda funkcjami użyteczności i-tej firmy ubezpieczeniowej. W warunkach r wnowagi, tzn.
w sytuacji gdy każdy z ubezpieczycieli maksymalizuje swoja użyteczność ryzyko wyceniane
E XeąZ
[ ], gdzie Z = X1 + ... + Xn oraz 1 = 1 + ... + 1 .
jest Ą (X) =
EeąZ ą ą1
ąn
Definicja
Zmienne losowe X, Y nazywamy komonotonicznymi, jeśli istnieje przestrzeń probabilistyczna
(&!, F, P) oraz zmienna losowa Z określona na tej przestrzeni i funkcje rosnace u, v :
d
takie, że (X, Y ) = (u (Z) , v (Z)).
Twierdzenie
Jeżeli Ą :  ma nastepujace wlasności:
+
1. Jest monotoniczna, tzn. "X,Y " X () d" Y () =! Ą (X) d" Ą (Y )
2. Brak nieuzasadnionego ladowania bezpieczeństwa
3. Jest addytywna dla ryzyk komonotonicznych - "X,Y " X, Y - komonotoniczne, to
Ą (X + Y ) = Ą (X) + Ą (Y )
4. Jest ciagla, tzn. lim Ą (min {a, X}) = Ą (X) oraz lim Ą (max {X - a, 0}) = Ą (X),
a"
a0+
to istnieje funkcja g : [0, 1] [0, 1] niemalejaca taka, że g (0) = 0, g (1) = 1 oraz
"
Ą (X) = g FX (x) dx.
0
12
Uwaga
Jeżeli dodamy zalożenie subaddytywności, to g jest fukcja wklesla.
Jeżeli spelnione sa zalożenia 1.-4. oraz Ą (I X) = Ą (I) Ą (X) dla dowolnych mierzalnych
ryzyk I, X "  takich, że I <" b (1, p), to g (p) = pc.
Definicja
Skladke Ą : X nazywamy koherentna jeśli
1. Ą jest monotoniczna
2. Ą jest subaddytywna
3. Ą jest proporcjonalna
4. Ą jest zgodna.
Definicja
Skladka Conditional Tail Expectation (CTE) nazywamy skladke postaci
P(X>V aRX(ą))
CTEX (ą) = V aRX (ą) + E [X - V aRX (ą) |X > V aRX (ą)].
1-ą
Uwaga
Można pokazać, że CTE jest skladka koherentna oraz skladka Wanga dla
0 u < ą
g (u) = . Ponadto każda skladka Wanga z ciagla funkcja g jest skladka
u-ą
u e" ą
1-ą
koherentna.
Reasekuracja
Niech X bedzie ryzykiem, zaś h (X) retencja czyli ryzykiem, za kt re odpowiada cedent.
W wczas k (X) = X-h (X) jest ryzykiem, za kt re odpowiada reasekurator. O funkcji retencji
zakladamy zazwyczaj, że spelnia warunki:
1. "xe"0 0 d" h (x) d" x
2. x - h (x) jest rosnaca oraz x - x - h (x) jest rosnaca.
Przykladami reasekuracji sa:
1. reasekuracja proporcjonalna, tzn. h (x) = ax, a " (0, 1)
2. reasekuracja stop-loss, tzn. h (x) = min {X, a}, a > 0.
N
Niech X = Ui, gdzie U1, U2, ... > 0. Przypuśćmy, że dane sa hi (Ui), ki (Ui), i = 1, 2, ....
i=1
w wczas mamy do czynienia z reasekuracja lokalna. Zal żmy dalej, że v jest funkcja wypukla
i rosnaca. Jeżeli reasekurator przejmuje od cedenta pewne ryzyko za skladke Ą (X), to jego
N
użyteczność wynosila bedzie v Ą (X) - ki (Ui) . Jeżeli z kolei rozważamy reasekuracje
i=1
13
z funkcjami h (X) i k (X), to mamy m wimy o reasekuracji globalnej. W wczas funkcja
użyteczności reasekuratora bedzie przyjmowala wartość v (Ą (X) - k (X)). Powstaje pytanie
kt ry rodzaj reasekuracji jest korzystniejszy dla reasekuratora.
Twierdzenie
N
Niech X = Ui, gdzie Ui sa nieujemnymi niezależnymi zmiennymi losowymi o skończonej
i=1
wartości oczekiwanej, zaś N zmienna losowa niezależna od U1, U2, ... taka, że EN < ".
Jeżeli ki, i = 1, 2 sa funkcjami kompensacji, zaś v jest rosnaca i wklesla funkcja użyteczności
reasekuratora, to istnieje funkcja k taka, że
N
(1) Ek (X) = E ki (Ui)
i=1
N
oraz Ev Ą (X) - ki (Ui) d" Ev (Ą (X) - k (X)).
i=1
Dow d
Definiujemy
N
(3) k (x) := E ki (Ui) |X = x .
i=1
Z wlasności warunkowej wartości oczekiwanej wynika, że zachodzi (1). Istotnie
N N
E [k (X)] = E E ki (Ui) |X = E ki (Ui).
i=1 i=1
Z nier wności Jensena dla warunkowej wartości oczekiwanej mamy
N N
Ev Ą (X) - ki (Ui) = E E v Ą (X) - ki (Ui) |X d"
i=1 i=1
N
d" Ev Ą (X) - ki (Ui) |X = Ev (Ą (X) - k (X)).
i=1
Definicja
n
M wimy, że wektor losowy X o wartościach w jest stochastycznie mniejszy niż Y
n n
o wartościach w jeśli dla każdej funkcji mierzalnej g : /, kt ra jest funkcja rosnaca
każdego argumentu zachodzi Eg (X) d" Eg (Y ), o ile wartości oczekiwane istnieja i sa skończone.
Definicja
M wimy, że f : jest funkcja typu P lya 2 rodzaju (TP2), jeśli
+
f (x1 - y1) f (x1 - y2)
e" 0, x1 d" x2, y1 d" y2.
f (x2 - y1) f (x2 - y2)
n
W dalszym ciagu dla wektora losowego X = (X1, ..., Xn) " poprzez Xt oznaczali
n
bedziemy pewna zmienna losowa o takim samym rozkladzie jak rozklad X| Xi = t.
i=1
Lemat Efrona
Jeżeli f1, ..., fn sa gestościami nieujemnych zmiennych losowych X1, ..., Xn bedacymi funkcjami
typu TP2, to Xt d"st Xt dla t1 < t2.
1 2
14
Twierdzenie
n
Niech X = Ui, gdzie Ui, i = 1, ..., n sa nieujemnymi niezależnymi zmiennymi losowymi
i=1
o skończonej wartości oczekiwanej i gestościami typu TP2. Jeżeli ki sa funkcjami kompensacji,
to funkcja k zdefiniowana przez (3) jest funkcja kompensacji.
Dow d
n
Z lematu Efrona Ut d"st Ut dla 0 d" t1 d" t2. Ponieważ funkcja g (u1, ..., un) = ki (ui)
1 2
i=1
jest funkcja rosnaca każdego argumentu, wiec z definicji porzadku stochastycznego wynika, że
k (t1) d" k (t2). Mamy
n n
h (t) = t - k (t) = t - E ki (Ui) |X = t = E t - ki (Ui) |X = t =
i=1 i=1
n n n
= E Ui - ki (Ui) |X = t = E (Ui) - ki (Ui) |X = t .
i=1 i=1 i=1
n
Ponieważ g (u1, ..., un) = (ui - ki (ui)) jest funkcja rosnaca każdego argumentu, wiec
i=1
z definicji porzadku stochastycznego i lematu Efrona mamy h (t1) d" h (t2). Wystarczy pokazać,
że "xe"0 0 d" h (x) d" x ( !! 0 d" k (x) d" x). Mamy
n n
"te"0 0 d" k (t) = E ki (Ui) |X = t d" E Ui|X = t = t.
i=1 i=1
Arrow pokazal, że w klasie wszystkich reasekuracji z retencja h spelniajaca warunki
0 d" h (x) d" x oraz eh (X) = P = const optymalna forma reasekuracji w sensie maksymalizacji
oczekiwanej użyteczności dla ściśle rosnacej i ściśle wypuklej funkcji użyteczności cedenta jest
reasekuracja h" (x) = min (x, M), gdzie M jest jedynym rozwiazaniem r wnania Eh" (X) d" P.
Definicja
Dla ustalonego ryzyka X powiemy, że reasekuracja z funkcja retencji h jest zgodna formula
funkcji kalkulacji skladki Ą jeśli Ą (X) = Ą (h (X)) + Ą (X - h (X)).
Lemat
Jeżeli v, w : sa funkcjami rosnacymi i lewostronnie ciaglymi, to dla dowolnej
-1 -1 -1
zmiennej losowej Z o wartościach rzeczywistych Fv(Z)+w(Z) = Fv(Z) + Fw(Z), gdzie
F-1 (y) = inf {x " : f (x) e" y}.
Dow d
Zauważmy, że jeżeli f, g sa funkcjami rosnacymi i lewostronnie ciaglymi oraz
("") "x "t [f (x) d" t !! g (x) d" t],
bo "x f (x) = g (x). Przypuśćmy, że spelnione sa zalożenia oraz istnieje x0 takie, że
f (x0) d" g (x0). Z lewostronnej ciaglości i monotoniczności funkcji wynika, że istnieje  > 0
f(x1)-g(x1)
x0-+x0 
taki, że f (x) < g (x) dla x " (x0 - , x0]. Niech x1 = = x0 - i niech t1 = .
2 2 2
Wtedy f (x1) < g (x1) oraz f (x1) d" t1 i g (x1) > t1. Otrzymujemy zatem sprzeczność z ("").
15
Zdefiniujmy teraz v(-1) (t) = sup {s " : v (s) d" t}. Jeżeli v jest rosnaca i lewostronnie ciagla,
to "x,y v(-1) (y) e" x !! y e" v (x). Ustalmy
-1
Fv(Z) (y) d" x !! y d" Fv(Z) (x) !! y d" P (v (Z) d" x) !! y d" P Z d" v(-1) (x) !!
-1 -1
!! y d" FZ v(-1) (x) !! FZ (y) d" v(-1) (x) !! v FZ (y) d" x !!
-1
!! v ć% FZ (y) d" x.
-1 -1
Z dowolności x, y pokazliśmy, że Fv(Z) = v ć% FZ . Analogicznie można pokazać, że
-1 -1 -1 -1
Fw(Z) = w ć% FZ i Fv(Z)+w(Z) = (v + w) ć% FZ . Zatem
-1 -1 -1 -1 -1 -1
Fv(Z)+w(Z) = (v + w) ć% FZ = v ć% FZ + w ć% FZ = Fv(Z) + Fw(Z).
Twierdzenie
Jeżeli h jest ciagla funkcja retencji, to reasekuracja odpowiadajaca h jest zgodna ze skladka
odchylenia przecietnego od mediany.
Dow d
Ponieważ h i k sa rosnace, wiec dla a e" 0 z lematu mamy
1
1
2
-1 -1
Ą (X) = Ą (h (X) + k (X)) = Fh(X)+k(X) (z) (1 - a) dz + Fh(X)+k(X) (z) (1 + a) dx =
1
0
2
1
1
2
-1 -1 -1 -1
= Fh(X) (z) + Fk(X) (z) (1 - a) dz + Fh(X) (z) + Fk(X) (z) (1 + a) dz =
1
0
2
= Ą (h (X)) + Ą (k (X)).
Kolektywna teoria ryzyka
Niech U1, ..., Un beda ryzykami nieujemnymi. Wtedy możemy zapisać FU = (1 - ) 0+Fv ,
i i
n
vi > 0. Wtedy Xind = Ui. W modelu kolektywnym zakladamy, że U1, U2, ... sa ryzykami
i=1
N
dodatnimi oraz N jest zmienna losowa w zbiorze *" {0}. Wtedy Xkol = Ui przy konwencji
i=1
0
Ui = 0. W og lności jeżeli przyjmiemy, że U1, U2, ... e" 0, zaś N zmienna losowa o wartościach
i=1
N
w , to możemy zapisać X = Ui. Bedziemy zakladać zwykle, że U1, U2, ... sa i.i.d., zaś
i=1
N, U1, U2, ... sa niezależne. Ponadto
"
k"
1. Jeżeli N <" {pk : k " }, U1 <" FU , to można pokazać, że FX (x) = pkFU (x). Rozklad
1
1
k=0
tej postaci nazywamy rozkladem zlożonym wyznaczonym przez rozklady N, U1, U2, ....
2. Latwo pokazać, że X = N ć% ln U , gdzie  jest funkcja generujaca momenty lub
1
transformata Laplace a.
3. EX = EN EU1, o ile N, U1 sa calkowalne.
2 2
4. V arX = E (U1) V arN + V arU1 EN, o ile U1 i N2 sa calkowalne.
16
Twierdzenie
Jeżeli X1, ..., Xn sa niezależnymi zmiennymi losowymi o zlozonych rozkladach Poissona
n n
i
z parametrami (i, Fi), to X1 + ... + Xn ma zlożony rozklad Poissona i = , Fi .

i=1 i=1
Lemat
N n
Jeżeli X = Ui, gdzie Ui, i = 1, 2, ... sa i.i.d. oraz X = Ui , gdzie U1, ..., Un sa i.i.d., to
i=1 i=1
i). jeżeli U1 d"st U1, to S d"st X .
ii). jeżeli U1 d"sl U1, to S d"sl X .
Twierdzenie
N N
Jeżeli X = Ui oraz X = Ui sa zmiennymi losowymi zlożonymi, to
i=1 i=1
i). jeżeli N d"st N oraz U1 d"st U1, to X d"st X .
ii). jeżeli N d"sl N oraz U1 d"sl U1, to X d"sl X .
Dow d
i). Zdefiniujmy h (x) = 1 {x>b} dla ustalonego b " oraz
n n
an := Eh Ui d" Eh Ui =: a n, n = 0, 1, .... Ciagi (an) i (a n) sa rosnace. Rozważmy
i=1 i=1
N " N " n
Eh Ui = E h Ui |N = n P (N = n) = Eh Ui pn =
i=1 k=0 i=1 n=0 i=1
" " N
Nd"stN "
= anpn d" anp n d" a np n = Eh Ui . Zatem X d"st X .
n=0 n=0 n=0 i=1
n
ii). Zdefiniujmy h (x) = (x - b)+ dla ustalonego b " oraz an := Eh Ui , n = 0, 1, ....
i=1
Zauważmy, że h jest funkcja wypukla i rosnaca, a zatem ciag (an) jest rosnacy, gdyż U1 e" 0.
n
Rozważmy funkcje pomocnicza k (x) = Eh Ui + x , x e" 0. Zauważmy, że jest to funkcja
i=1
wypukla. Istotnie, dla x, y e" 0 oraz  " (0, 1) mamy
n
k (x + (1 - ) y) = Eh Ui + x + (1 - ) y =
i=1
k n
= Eh  Ui + x + (1 - ) Ui + y d" k (x) + (1 - ) k (y).
i=1 i=1
k(x+y)-k(y) k(x)-k(0)
Ponadto z wypuklości k mamy e" =! k (x + y) + k (x) e" k (x) + k (y).
x x
n+2 n n+1
Kladac x = Un+1, y = Un+2 mamy Eh Ui + Eh Ui e" 2Eh Ui . Zatem
i=1 i=1 i=1
an+2+an
e" an+1, n = 0, 1, .... Stad
2
N N " N
Eh Ui = E E h Ui |N = E h Ui |N P (N = n) =
i=1 i=1 n=0 i=1
" (") " N
Nd"slN "
= anpn d" anp n d" a np n = Eh Ui , gdzie
n=0 n=0 n=0 i=1
" "
(") Ef (N) = f (n) pn d" f (n) p n dla funkcji wypuklej i rosnacej f.
n=0 n=0
Z odpowiedniej charakteryzacji porzadku stop-loss wynika, że X d"sl X .
17
Rozk ady lekkoogonowe
Zal żmy, że funkcja generujaca momenty MX (t) = E esX jest skończona dla
pewnego s = 0. Dla X <" F oznaczmy s+ = sup {x > o : MX (s) < "} oraz

F
s- = inf {s < 0 : MX (s) < "}. Funkcja MX : s-, s+ jest ściśle rosnaca i ciagla.
F F F
Ponadto
" "
(1) MX (s) - 1 = esxdF (x) - 1 = (esx - 1) dF (x) =
-" -"
0 " 0 0 " x
= (esx - 1) dF (x) + (esx - 1) dF (x) = - sestdtdF (x) + sestdtdF (x) =
-" 0 -" x 0 0
0 x 0 t " "
= - sestdtdF (x) = - sestdF (x) dt + sestdF (x) dt =
-" -" -" -" 0 t
0 "
= - sestF (t) dt + sestF (t) dt.
-" 0
Twierdzenie
i) Jeżeli MX (s) jest skończona dla pewnego s0 > 0, to istnieje b > 0 takie, że
0
(2) "x>0 F (x) d" be-s x.
Ponadto jeżeli zachodzi (1), to MX (s) < " dla 0 < s < s0.
ii) Jeżeli MX (s) jest skończona dla pewnego s0 < 0, to istnieje b > 0 takie, że
0
(2) "x<0 F (x) d" be-s x.
Ponadto jeżeli zachodzi (1), to MX (s) < " dla s0 < s < 0.
Dow d
Zal żmy, że zachodzi (1). W wczas
" "
(2)
MX(s)-1
0
d" estF (t) dt d" estbe-s tdt = bs 1 < " dla s < s0.
s
0-s
0 0
Zal żmy teraz, że MX (s) < " dla pewnego s0 > 0. w wczas dla x > 0 mamy
0 x 0 x
MX(s0)-1
0 0 0 0
e" - es tF (t) dt + es tF (t) dt e" - es tdt + F (x) es tdt =
s0
-" 0 -" 0
1 1 1
0 0
= -s1 + F (x) [es x - 1] e" -s1 + F (s0) es x - =!
s0 s0 s0
0 0
0 0
=! MX (s0) + 1 e" F (x) es x =! F (x) d" [MX (s0) + 1] e-s x.
Wystarczy polożyć b = [MX (s0) + 1], by otrzymać teze.
Twierdzenie
i) Jeżeli a+ = lim inf -ln F(x) > 0, to s+ = a+.
F
x
x"
ii) Jeżeli a- = lim sup -ln F(x) < 0, to s- = a-.
F
x
x-"
18
Dow d
Niech  > 0 bedzie takie, że  < a+. Z definicji granicy dolnej istnieje x0 taki, że -ln F(x) e" a+-
x
dla x > x0. Stad
+
"x>x F (x) d" e-(a -)x.
0
Z dowolności  mamy
+
"x>x F (x) d" e-a x.
0
Zatem na mocy rozumowania z dowodu poprzedniego twierdzenia MX (s) < " dla 0 < s < a+.
Przypuśćmy, że MX (s) < " dla s > a+. Z dowodu poprzedniego twierdzenia
"x>0 F (x) d" be-sx
-ln F(x) e" -ln b + s0 x" s0.

x x
Zatem a+ = lim inf -ln F(x) > a+.
x
x"
Zakladać bedziemy teraz, że zmienna losowa N ma rozklad geometryczny, tzn.
P (N = k) = (1 - p) pk, k = 0, 1, 2, .... Wtedy
" "
"(k-1)+1
FX (x) = (1 - p) pkFU = (1 - p) 0 + p (1 - p) pkF"(k+1) =
k=0 k=0
x
"
"k
= (1 - p) 0 + p (1 - p) pk FU (x - y) dFU (y) =
k=0 0
x
"
"k
= (1 - p) 0 + p (1 - p) pkFU (x - y) dFU (y) = (1 - p) 0 + pFU " FX.
0 k=0
Zatem
(2) FX = (1 - p) 0 + pFU " FX.
Można udowodnić, że ograniczone rozwiazanie r wnania ze wzgledu na X jest wyznaczone
jednoznacznie. Wiadomo, że FX = lim Fn, gdzie Fn = (1 - p) 0 + pFU " Fn-1, zaś
n"
F0 jest dowolna dystrybuanta rozkladu skoncentrowanego na przedziale [0, "). Bedziemy dalej
zakladać, że istnieje rozwiazanie r wnania
1
(1) MU (s) = .
p
Jeżeli rozwiazanie dodanie istnieje, to nazywamy je wsp lczynnikiem dopasowania. Można
xą-
U
wykazać, że jeżeli ąU = lim sup- ln FU(x) > 0 oraz MU (x) ", to wsp lczynnik dopasowania
x
x"
istnieje. Oznaczmy dalej x0 = sup {x " : FU (x) < 1}.
Twierdzenie (oszacowanie Lundberga dla z ożonego rozk adu geometrycznego)
Przy dotychczasowych zalożeniach, jeżeli istnieje dodatnie rozwiazanie r wnania (1), to
a-e-łx d" FX (x) d" a+e-łx,
ełxFU(x) ełxFU(x)
gdzie a+ = sup , zaś a = inf .
" "
x"[0,x0)
ełydFU(y) ełydFU(y)
x"[0,x0)
x x
19
Dow d
x
Wiadomo, że Fi " U = Fi (x - y) dFU (y). Dow d przeprowadzimy w oparciu o indukcje.
0
Znajdziemy F0 tak, aby F1 wyznaczone ze wzoru (2) bylo takie, że F0 d" F1. Nastepnie
zakladajac, że Fn-1 d" Fn wykażemy, że Fn d" Fn+1. Jest tak, gdyż
Fn = (1 - p) 0 + pFn " Fn-1 d" (1 - p) 0 + FU " Fn = Fn+1.
Zatem stad i z pierwszego kroku indukcyjnego wynika, że ... e" Fn e" Fn-1 e" ... e" F0, a zatem
FX e" F0, czyli FX (x) d" F0 (x) dla x e" 0.
Przyjmijmy F0 (x) = 1 - ae-łx = (1 - a) 0 (x) + aG (x), gdzie G (x) = 1 - e-łx, x e" 0.
Z (2) mamy
x
F1 (x) = (1 - p) + p (1 - a) FU (x) + a G (x - y) dFU (y) =
0
x
= (1 - p) + p FU (x) - aFU (x) + aFU (x) - ae-łx ełydFU (y) .
0
Chcemy, aby
x
(1 - p) + p FU (x) - ae-łx ełydFU (y) e" 1 - ae-łx
0
x
-pFU (x) ełx - pa ełydFU (y) e" -a
0
x
a 1 - p ełydFU (y) e" pFU (x) ełx.
0
Jeżeli x > x0, to otrzymujemy 0 e" 0, co dowodzi prawdziwości tezy. Jeżeli x < x0, to z faktu,
" x "
1
iż MU (ł) = mamy p ełxdFU (x) = 1, czyli p ełxdFU (x) + p ełxdFU (x) = 1, a wiec
p
0 0 x
"
ap ełydFU (y) e" pFU (x) ełx
x
ełxFU(x)
a e" =: f (x).
"
ełydFU(y)
x
Stad a e" sup f (x) = a+. Zatem F1 e" F0 kladac a = a+. Po wykonaniu drugiego kroku
x"[0,x0)
indukcyjnego otrzymujemy teze dla nier wności g rnej. Dow d dla nier wności dolnej jest
analogiczny.
Uwaga
a- d" a+ d" 1.
Wniosek
Jeżeli U1 <" Exp (), N <" Geo (p), to FX (x) = pe-(1-p)x, x e" 0. Oznacza to, iz dla szk d
wykladniczych w nier wności Lundberga otrzymujemy r wność.
20
Zal żmy, że dla pewnego  " (0, 1) rozklad liczby szk d N spelnia warunek
(3) {pk}x d"st p00 + (1 - p0) TG (),
gdzie Y <" TG () = P (Y = k) = k-1 (1 - ), k = 1, 2, ...
"
Niech rj = pk. Zauważmy, że (3) zachodzi wtedy i tylko wtedy, gdy rj+1 d" (1 - p0) j.
k=j
"
Istotnie, mamy rj+1 d" (1 - p0) k-1 (1 - ). Można podać r wnież sam warunek
k=j+1
wystarczajacy zachodzenia (3). Okazuje sie, że (3) zachodzi, jeśli
(4) "j rj+1 < rj.
"
W tym celu mamy r1 = 1 - p0 oraz rj+1 d" r1j = (1 - p0) k-1 (1 - ), a zatem na mocy
k=j+1
rekurencji mamy, że "j rj+1 < rj.
Twierdzenie
1
Jeżeli zachodzi (3) oraz istnieje dodatnie rozwiazanie r wnania MU (ł) = , to

1-p0 ełxFU(x)
FX (x) d" a+e-łx, x e" 0, gdzie a+ = sup .
"

ełydFU(y)
x"[0,x0)
x
Dow d
Niech x e" 0. Mamy
" k
"j "(j-1)
"k "0
FX (x) = pkFU (x) = pk FU (x) - FU + FU (x) =
k=0" k=0 j=1
" k-1 " k-1
"(j+1) "j "j "(j+1)
= 1 + pk FU (x) - FU (x) =! FX (x) = pk FU (x) - FU (x) =
k=0 j=0 k=0 j=0
" " " "
"j "(j+1) "j "(j+1)
= pk FU (x) - FU (x) = FU (x) - FU (x) pk d"
j=0 k=j+1 j=0 k=j+1
" " "
"j "(j+1) "j "(j+1)
d" FU (x) - FU (x) (1 - p0) j = FU (x) - FU (x) (1 - p0) k-1 (1 - ) =
j=0 j=0 k=j+1
" k-1
"j "(j+1)
= (1 - p0) k-1 (1 - ) FU (x) - FU (x) =
k=0 j=0
" k-1 "
1-p0 "j "(j+1)
1-p0
"0 "k
= k (1 - ) FU (x) - FU (x) = k (1 - ) FU (x) - FU (x) =
 
k=0 j=0 k=0
" "
1-p0 1-p0 1-p0
"k "k
= k (1 - ) 1 - FU (x) = 1 - (1 - ) kFU (x) d" a+e-łx.
  
k=0 k=0
Wniosek
Przy odpowiednich zalożeniach, jeżeli {pk}k" jest logarytmiczno wklesly, tzn. pk+2pk d" p2
k+1
(1-p0)2
oraz p0 + p1 < 1, to FX (x) d" a+e-łx, gdzie ł jest dodatnim rozwiazaniem r wnania
1-p0-p1
-1
1-p0-p1
MU (ł) = .
1-p0
21
Dow d
rj+1
1-p0-p1 r2 1-p0-p1
Pokażemy, że {pk} spelnia (4) dla  = . Mamy = = . Pokażemy, że jest
1-p0 r1 1-p0 rj
ciagiem malejacym. Mamy
"
pk+pj-pj
rj+1 k=j+1 pj
1
= = 1 - = 1 - pj+1 pj+2 =
" "
rj
1+ + +...
pk pk pj pj
k=j k=j
rj+2
1
= 1 - pj+1 p pj+1 p pj+2 pj+1 e" ,
rj+1
1+ +pj+2 +pj+3 +...
pj j+1 pj j+2 pj+1 pj
rj+1
zatem ciag jest malejacy, a wiec zachodzi (4), a w konsekwencji (3), co daje teze dla
rj
1-p0-p1
 = .
1-p0
Uwaga
Można pokazać, że w oszacowaniach typu Lundberga ł nie jest optymalne.
Estymacja wsp czynnika dopasowania
Niech U1, U2, ... <" F beda zmiennymi losowymi i.i.d. Interesuje nas rozwiazanie r wnania
MU (ł) = c, c > 1. Jednym z pomysl w jest zastapienie dystrybuanty F dystrybuanta
n
1
empiryczna Fn (x) = 1 (Ui d" x). Nastepnie dla tej dystrybuanty znajdujemy funkcje
n
i=1
generujaca momenty MF (łn) = c, tzn.
n
n n
1 1
i i
MF (s) = esxdFn (x) = esU = esU .
n
n n
i=1 i=1
Lemat
Jeżeli ąU > 0 oraz MU (ąU) = ", to dla każdego przedzialu domknietego I " (-", ąU) mamy
p.n.
(k) (k)
"k" lim sup MU (s) - MF (s) = 0. Stad wynika, że łn ł.
n
n"
s"I
Twierdzenie
"
V ar ełU
d ( )
Jeżeli MU (2ł) < ", to n (łn - ł) N 0, .
(EUełU)2
Dyskretny model ryzyka
Niech X1, X2, ... beda zmiennymi losowymi i.i.d. o rozkladzie dyskretnym pk = P (X1 = k),
k " . Zakladamy, że w poszczeg lnych okresach skladki wplywaja w spos b ciagly w wysokości
n
1 oraz że rezerwy poczatkowe wynosza u e" 0, u " . Wtedy Rn = u+n- Xi. W wczas Rn
i=1
nazywamy procesem rezerw (dyskretnym procesem rezerw). Zdarzenie {R1 < 0}*"{R2 < 0}*"...
nazywamy ruina techniczna. Prawdopodobieństwo  (u) = P ({R1 < 0} *" {R2 < 0} *" ...)
nazywamy prawdopodobieństwem ruiny w nieskończonym horyzoncie czasu dla rezerw
22
poczatkowych u. Momentem ruiny nazywamy d (u) = min {k : Rk < 0}. Wtedy
 (u) = P (d (u) < "). Funkcje u  (u) nazywamy funkcja ruiny, zaś 1 -  (u)
funkcja przeżycia. Momentem ruiny w skończonym horyzoncie czasowym nazywamy
d (u, n) = min {k d" n, Rk < 0}. Wtedy  (u, n) = P (d (u, n) < ") jest
prawdopodobieństwem ruiny w skończonym horyzoncie czasu. Zamiast procesu rezerw
n n n
warto rozważać r wnież proces nadwyżki, tj. Sn = Xi - n = (Xi - 1) = Yi, n " .
i=1 i=1 i=1
Wtedy  (u) = P (S1 > u (" S2 > u (" ...) = P (max {S1, S2, ...} > u), gdzie max " = ". Niech
(") M = max {0, S1, S2, ...}.
Wtedy  (u) = P (M > u). Jeżeli zalożymy, że E |Y1| < ", to z Mocnego Prawa Wielkich
p.n.
Sn p.n.
Liczb wynika, że EY1. Zatem jeśli EY1 > 0, to Sn ", a stad wynika, że
n
n" n"
 (u) = 1. Można wykazać, że gdy EY1 = 0, to r wnież  (u) = 1. Natomiast gdy EY1 < 0,
p.n.
to Sn -". Wobec tego rozsadne jest przyjmowanie zalożenia, że EYi < 0, a wiec
n"
EXi < 1, czyli przecietna szkoda jest mniejsza od zebranej skladki. Można r wnież zauważyć,
że lim  (u, n) =  (u) oraz  (u, n) d"  (u).
n"
Twierdzenie
Zmienna losowa M określona wzorem (") ma zlożony rozklad geometryczny, w kt rym liczba
szk d ma rozklad geometryczny z parametrem  = P (N e" 1), natomiast wartości szk d maja
P(X>k)
rozklad P (U = k) = ,  = EX, k " .

Twierdzenie
Przy dotychczasowych zalożeniach, jeśli EY1 < 0, u e" 0, to  (u) = P (M > u) dla
M = max {0, S1, S2, ...}.
Dow d
d
Pokażemy, że M = (M + Y )+ := max {0, M + Y }, gdzie Y jest niezależna kopia zmiennej
losowej Y . Rozważmy przypadki:
1. u < 0, to 0 = 0 = P (M d" u) = P (M + Y )+ d" u .
2. u e" 0, to
P (M d" u) = P (max {S1, S2, ...} d" n) = P max Y1, Y1 + S1, Y1 + S2, ... d" u =
= P (M + Y )+ d" u ,
gdzie S1 = Y2, S2 = Y2 + Y3, ....
Niech gM (s) = EsM, gX (s) = EsX beda funkcjami tworzacymi prawdopodobieństwo,
 = EX oraz X bedzie niezależna kopia zmiennej losowej X.
Twierdzenie
(1-)(1-s)
i) gM (s) = , s " (-1, 1).
gX(s)-s
23
ii) M ma zlożony rozklad geometryczny, przy czym N ma rozklad geometryczny z parametrem
P(X>x)
, zaś P (U = k) = , k " .

Dow d
"
+ +
i) gM (s) = EsM := Es(M+X-1) = s(k-1) P (M + X = k) =
k=0
" "
1
= s0P (M + X = 0) + sk-1P (X + M = k) = P (X + M = 0) + skP (X + M = k) =
s
k=1 k=1
nzl M,X
1 1
= P (M + X = 0) - P (M + X = 0) + gX+M (s) =
s s
gX(s)
s-1 1 s-1
= P (M + X = 0) + gX (s) gM (s) =! P (M + X = 0) = gM (s) 1 - =!
s s s s
(s-1)P(M+X=0)
=! gM (s) = .
s-gX(s)
P(M+X=0)
Przechodzac do granicy z s 1- mamy z twierdzenia de l Hopitala 1 = . Ponadto
1-gX(1)
gX (s) = E XsX-1 |s=1 = EX = 1 - . Zatem P (M + X = 0) = 1 - , co daje teze.
" " " " i-1
1 1
ii) gU (s) = sk P(X>k) = sk P (X = i) = skP (X = i) =
  
k=0 k=0 i=k+1 i=1 k=0
" "
1 1-si 1 1
= P (X = i) = 1 - p0 - pisi = {1 - gX (s)} =!
 1-s (1-s) (1-s)
i=1 i=1
=! gX (s) = 1 -  (1 - s) gU (s).
N
(1-s)(1-) 1-
Z i) mamy gM (s) = = . Zatem M = Uj ma zlożony rozklad
(1-s)-(1-s)gU(s) 1-gU(s)
i=1
d
geometryczny (, FU ). Wykażemy, że M = M. Zauważmy najpierw, że
n
Ui n
1
i=1
E sM|N = n = E s = E sU = [gU (s)]N.
"
Stad gM (s) = EsM = E E sM|N = E [gU (s)]N = (1 - ) [gU (s)]n n = gM (s).
n=0
Otrzymaliśmy zatem r wność funkcji tworzacych, a zatem M, M maja ten sam rozklad. Wobec
tego  (u) = P (M > u).
Ciag y model ryzyka
Zakladamy, że szkody dodatnie zachodza w losowych momentach czasu 0 = 0 < 1 < ...,
zaś Tn = n - n-1, n = 1, 2, ... jest czasem oczekiwania na n-ta szkode. W wczas
T1+...+Tn = n. Niech U1, U2, ... > 0 beda zmiennymi losowymi i.i.d. o rozkladzie warunkowym
"
X pod warunkiem X > 0, zaś N (n) = 1 (k d" n). Można r wnież najpierw określić
k=1
1k = 1 (Xk > 0), k = 1, 2, ..., a nastepnie zdefiniować 0 = 0 oraz n = n-{k > n-1 : Ik = 1}.
N(n)
Przy danych oznaczeniach można pokazać, że Rn = u + n - Ui <" Rn, a także
i=1
"n R1, ..., Rn = (R1, ..., Rn), gdzie u e" 0 sa rezerwami poczatkowymi. Zal żmy dalej, że
skladki wplywaja w spos b ciagly ze stala intensywnościa , tzn. skladka kt ra wplynela
w dowolnym okresie czasu o dlugości t wynosi t. Proces rezerw ma postać
24
N(t)
" "
R (t) = u + t - Ui1 (i d" t) = u + t - Ui, gdzie N (t) = 1 (i d" t), t e" 0.
i=1 i=1 i=1
Analogicznie jak w modelu dyskretnym można rozważać proces nadwyżki
N(t)
St = Ui - t, t e" 0 oraz  (u) = min {t e" 0 : Rt < 0} = min {t e" 0 : St > u}.
i=1
Wtedy  (u) = P ( (u) < ") i analogicznie dla skończonego horyzontu czasu dla pewnego
momentu t0. Bedziemy dalej zakladać, że T1, T2, ... sa i.i.d. oraz T1 <" Exp (). Ponadto
N(t)
zakladamy, że ciagi (Ti), (Ui) sa niezależne. Wtedy X (t) = Ui ma zlożony rozklad Poissona.
i=1
25


Wyszukiwarka

Podobne podstrony:
Teoria ryzyka finansowego
teoria ryzyka
Teoria ryzyka
Kulturowa teoria ryzyka, Rippl, 2002
egzamin stary teoria ryzyka
Teoria ryzykawywij
pawlikowski, fizyka, szczególna teoria względności
Teoria i metodologia nauki o informacji
teoria produkcji
Cuberbiller Kreacjonizm a teoria inteligentnego projektu (2007)
Teoria B 2A
Teoria osobowości H J Eysencka
Ocena Ryzyka Zawodowego HAŁAS PORADNIK
silnik pradu stalego teoria(1)
Rachunek prawdopodobieństwa teoria
ocena ryzyka dla mechanika

więcej podobnych podstron