Matematyka ubezpieczeń majątkowych

background image

ELEMENTY TEORII U ·

ZYTECZNO´SCI

Fenomen funkcji u·

zyteczno´sci wynika z faktu, ·

ze bardzo cz ¾

esto nie stosujemy zasady

multiplikatywno´sci rozwa·

zaj ¾

ac nasz maj ¾

atek. W pewnym sensie go "przedominowujemy". Dla

konkretnego przypadku de…niujemy funkcj ¾

e u·

zyteczno´sci u(w) : [0; 1) ! R. Maj ¾

ac okre´slon ¾

a

funkcj ¾

e u·

zyteczno´sci w celu rozwa·

zania ró·

znych sytuacji losowych mo·

zemy stosowa´c poj ¾

ecie

warto´sci oczekiwanej. Oczywistym jest, ·

ze funkcja u·

zyteczno´sci musi by´c niemalej ¾

aca.

Niech X, Y oznaczaj ¾

a dwa projekty ekonomiczne okre´slone przez zmienne losowe. Za÷

ó·

zmy,

·

ze mamy okre´slon ¾

a funkcj ¾

e u·

zyteczno´sci u(w). Zasada wyboru jest prosta:

X

lepsze ni·

z Y () E [u(X)] > E [u(Y )].

Powy·

zsze uporz ¾

adkowanie projektów ekonomicznych pozwala na rozwa·

zenie rodziny funkcji

zyteczno´sci równowa·

znych funkcji u:

(u (w)

() u(w)) () u (W ) = a u(w) + b, a > 0.

Istotnie,

E[u (X)] > E[u (Y )]

() E[a u(X) + b] > E[a u(Y ) + b] () E[u(X)] > E[u(Y )].

Powy·

zsze rozwa·

zenie pozwala na taki dobór funkcji u·

zyteczno´sci, by np. u(0) =

1

oraz

u(w

max

) = 0

.

Przyk÷

ad

Za÷

ó·

zmy, ·

ze w

max

= 20000

. Przypu´scmy, ·

ze prawdopodobie´nstwo ca÷

kowitej straty maj ¾

atku

wynosi

1
2

. Zadajmy pytanie decydentowi (decision maker, owner) jak ¾

a maksymalnie sk÷

adk¾

e

b ¾

edzie sk÷

onny zap÷

aci´c, by ubezpieczy´c si ¾

e ca÷

kowicie od szkody. Niech G oznacza maksymaln ¾

a

sk÷

adk¾

e za ubezpieczenie si ¾

e od szkody. Wówczas

u(20000

G) =

1
2

u(0) +

1
2

u(20000)

.

Niech G = 12000. Wtedy u(20000

12000) =

1
2

+

1
2

0 =

1
2

, a zatem u(8000) =

1
2

.

Rozwi ¾

azuj ¾

ac powy·

zszy przyk÷

ad wypisali´smy równanie u·

zyteczno´sci dla decydenta.

W ogólnym przypadku równanie to wygl ¾

ada nast ¾

epuj ¾

aco: u(w

max

G) = E [u(w

max

X)]

.

Zauwa·

zmy, ·

ze w przypadku gdy u(w) =

w +

,

> 0

mamy

(w

G) +

= E [

(w

X) + ]

() G = E[X].

W praktyce ubezpieczeniowej G = (1 + ) E[X] + C. Zatem G > E[X].

Mówimy, ·

ze decydent jest risk-averse, je·

zeli jego funkcja u·

zyteczno´sci ma dwie w÷

asno´sci:

1. u

0

(w) > 0

2. u

00

(w) < 0

.

1

background image

Poka·

zemy, ·

ze dla sytuacji, gdy decydent jest risk-averse i ubezpieczyciel jest risk-

averse istnieje mo·

zliwo´s´c zawarcia ubezpieczenia. Wpierw napiszemy równanie u·

zyteczno´sci

dla ubezpieczyciela (insurer).

Niech u

i

b ¾

edzie funkcj ¾

a u·

zyteczno´sci dla ubezpieczyciela,

w

i

maj ¾

atkiem ubezpieczyciela, za´s H sk÷

adk ¾

a jak ¾

a godzi si ¾

e przyj ¾

a´c ubezpieczyciel za ryzyko

X

. Wówczas u

i

(w

i

) = E [u

i

(w

i

X + H)]

. Poka·

zemy, ·

ze je·

zeli w÷

a´sciciel i ubezpieczyciel s ¾

a

risk-averse to jest mo·

zliwo´s´c do zawarcia ubezpieczenia. W dowodzie wykorzystamy znan ¾

a

z rachunku prawdopodobie´nstwa nierówno´s´c Jensena: E[u(X)]

u (E [X])

. Mamy

u(w

G) = E[u(w

X)]

u(w

E[X])

() w

G < w

E[X]

() G > E[X]

u

i

(w

i

) = E[u(w

i

X + H)]

u

i

(w

i

E[X] + H) =

) w

i

< w

i

E[X] + H

() H > E[X].

Przyk÷

ady

1. Rozwa·

zmy funkcj ¾

e u(w) =

e

w

,

> 0

. Zauwa·

zmy, ·

ze u

0

(w) =

e

w

> 0

oraz

u

00

(w) =

2

e

w

< 0

. Zatem funkcja ta opisuje decydenta typu risk-averse. Niech X > 0

b ¾

edzie strat ¾

a losow ¾

a. Wówczas

u(w

G) = E[u(w

X)]

e

(w G)

= E[ e

(w X)

]

e

G

= E[e

X

] = M

X

( )

G =

1

ln M

X

( )

.

Zatem sk÷

adka w tym przypadku nie zale·

zy od warto´sci maj ¾

atku w. Przy tej samej funkcji

zyteczno´sci dla ubezpieczyciela mamy:

u

i

(w

i

) = E[u

i

(w

i

X + H)]

e

w

i

= E[ e

(w

i

X+H)

]

1 = E[e

H

e

X

] = e

H

E[e

X

]

e

H

= E[e

X

]

H =

1

ln M

X

( )

.

W tym przypadku sk÷

adka równie·

z nie zale·

zy od maj ¾

atku w.

2. Niech u(w) =

p

w

. Wówczas u

0

(w) =

1

2

p

w

> 0

oraz u

00

(w) =

1

4

p

w

3

< 0

. Zatem tak

zde…niowana funkcja u·

zyteczno´sci odpowiada równie·

z decydentowi typu risk-averse. Zauwa·

zmy

ponadto, ·

ze

u(w

G) = E[u(w

X)]

p

w

G = E[

p

w

X]

G = w

E[

p

w

X]

2

.

3. Za÷

ó·

zmy, ·

ze u(w) = ln w. Wtedy u

0

(w) =

1

w

> 0

oraz u

00

(w) =

1

w

2

< 0

. Zatem tak

okre´slona funkcja u·

zyteczno´sci okre´sla decydenta typu risk-averse. Ponadto

u(w

G) = E[u(w

X)]

ln(w

G) = E[ln(w

X)]

G = w

e

E[ln(w X)]

.

2

background image

4. Rozwa·

zmy funkcj ¾

e u·

zyteczno´sci u(w) = w

w

2

. Zauwa·

zmy, ·

ze u

0

(w) = 1

2 w

oraz

u

00

(w) =

2

. Funkcja ta opisuje decydenta typu risk-averse je·

zeli

2 0;

1

2w

. Wówczas

u(w

G) = E[u(w

X)]

w

G

(w

G)

2

= E[w

X

(w

X)

2

]

G

2

+ (1

2 w) G = E[X] +

E[ 2wX + X

2

]

.

Ubezpieczenie optymalne

Za÷

ó·

zmy, ·

ze decydent ma funkcj ¾

e u·

zyteczno´sci u(w) i jest risk-averse. Niech posiada on

maj ¾

atek w, za´s X oznacza strat ¾

e losow ¾

a tego maj ¾

atku. Za÷

ó·

zmy, ·

ze decydent ma do wyboru

wszystkie dost ¾

epne na rynku typy polis w celu zabezpieczenia si ¾

e na wypadek straty. Jedn ¾

a

z polis jest I

d

(x) =

(

0

x

d

x

d x > d

. Jest to rodzaj polisy stop loss (excess of loss), tzn. polisy

która wyp÷

aca zawsze mniej, ni·

z wynosi szkoda.

Lemat

Funkcja g(d) =

1

R

d

(x

d) f (x)dx

, gdzie f jest g ¾

esto´sci ¾

a zmiennej losowej X (o ile EX

istnieje i jest sko´nczona), jest monotoniczna.

Dowód

Poka·

zemy, ·

ze

1

R

d

(x

d) f (x)dx =

1

R

d

[1

F (x)]dx

, gdzie F jest dystrybuant ¾

a zmiennej losowej

X

. Istotnie, ca÷

kuj ¾

ac przez cz ¾

e´sci mamy

1

R

d

(x

d) f (x)dx =

[(x

d) (1

F (x))]

1
d

+

1

R

d

[1

F (x)]dx

.

Do wykazania tezy wystarczy wykaza´c, ·

ze lim

x!1

[(x

d) (1

F (x))] = 0

, co jest równowa·

zne

temu, ·

ze lim

x!1

[x

(1

F (x)] = 0

.

Z za÷

zenia wiadomo, ·

ze E[X] =

1

R

0

x

f (x)dx <

1.

Z odpowiedniego twierdzenia wiemy, ·

ze

1

R

0

g(x)dx <

1

()

1

R

G

g(x)dx

G!1

!

0

.

St ¾

ad

0

x [1

F (X)] = x

1

R

x

f (t)dt

1

R

x

t f (t)dt

x!1

! 0. Wobec tego lim

x!1

[x (1

F (x)] = 0

,

a wi ¾

ec ostatecznie funkcja g jest monotoniczna.

Wniosek

Z dowodu lematu wnioskujemy, ·

ze badanie monotoniczno´sci funkcji g sprowadza si ¾

e do

badania monotoniczno´sci funkcji

1

R

d

[1

F (x)]dx

. Ponadto g

0

(d) =

[1

F (d)] = F (d)

1 < 0

,

zatem funkcja g jest malej ¾

aca. Co wi ¾

ecej, g(0) = E[X] oraz lim

d!1

g(d) = 0

.

Zauwa·

zmy równie·

z, ·

ze równanie P =

1

R

d

(x

d) f (x)dx

posiada jednoznaczne rozwi ¾

azanie

dla 0 < P

E[X]

.

3

background image

Twierdzenie (o optymalnym ubezpieczeniu)

Niech X b ¾

edzie zmienn ¾

a losow ¾

a straty decydenta. Je´sli

1. E[X] istnieje

2. decydent przeznacza na ubezpieczenie kwot ¾

e 0 < P

E[X]

3. na rynku dost ¾

epne s ¾

a wszystkie mo·

zliwe ubezpieczenia I(x) z uwag ¾

a, ·

ze I(X)

X

4. decydent jest risk-averse i ma funkcj ¾

e u·

zyteczno´sci u oraz maj ¾

atek w

5. ka·

zde ubezpieczenie kupowane jest za warto´s´c oczekiwan ¾

a wyp÷

aty E[I(X)]

to oczekiwana warto´s´c u·

zyteczno´sci decydenta osi ¾

aga maksimum przy zakupie ubezpieczenia

I

d

(x)

, gdzie d jest rozwi ¾

azaniem równania P =

1

R

d

(x

d) f (x)dx

.

Dowód

Zauwa·

zmy, ·

ze u(a)

u(b)

u

0

(b) (a

b)

dla dowolnych a; b 2 D

u

. Wobec tego otrzymujemy

u(w

x + I(w)

P )

u(w

x + I

d

(x)

P )

(I(x)

I

d

(x)) u

0

(w

x + I

d

(x)

P )

( )

[I(x)

I

d

(x)] u

0

(w

d

P )

.

Poka·

zemy teraz prawdziwo´s´c nierówno´sci ( ). Rozwa·

zmy trzy przypadki:

1. Je·

zeli I(x) = I

d

(x)

to w nierówno´sci ( ) zachodzi równo´s´c.

2. Je·

zeli I

d

(x) > I(x)

, to z faktu, ·

ze I

d

(x) > 0

mamy I

d

(x) = x

d

, co z kolei implikuje

nierówno´s´c x > d . Wówczas L = [I(x)

I

d

(x)] u

0

(w

d

P ) = P

.

3. Je·

zeli I

d

(x) < I(x)

, to I(x)

I

d

(x) > 0

. Zauwa·

zmy, ·

ze I

d

(x)

x

d

. Zatem

w

x + I

d

(x)

P > w

d

P

. Poniewa·

z u

00

< 0

, a wi ¾

ec funkcja u

0

jest malej ¾

aca wobec

ostatniej nierówno´sci wnioskujemy, ·

ze u

0

(w

x+I

d

(x)

P )

u

0

(w

d

P )

, zatem nierówno´s´c

( )

jest prawdziwa dla tego przypadku.

Wobec powy·

zszych rozwa·

za´n mamy, ·

ze

8

x

u(w

x + I(x)

P )

u(w

x + I

d

(x)

P )

[I(x)

I

d

(x)] u

0

(w

d

P )

.

Wstawiaj ¾

ac w powy·

zszej nierówno´sci X w miejsce x otrzymujemy

u(w

X + I(X)

P )

u(w

X + I

d

(X)

P )

[I(X)

I

d

(X)] u

0

(w

d

P )

gdzie X jest strat ¾

a losow ¾

a.

Przyk÷

adaj ¾

ac stronami w powy·

zszej nierówno´sci warto´s´c

oczekiwan ¾

a mamy

E [u(w

X + I(X)

P )]

E[u(w

X + I

d

(X)

P )]

E [I(X)

I

d

(X)] u

0

(w

d

P )

.

Z za÷

ze´n twierdzenia wynika jednak, ·

ze E[I(X)]

E[I

d

(X)] = E[I(X)]

P = P

P = 0

.

Wobec tego

E[u(w

X + I(X)

P )]

E[u(w

X + I

d

(X)

P )]

.

Ostatnia nierówno´s´c dowodzi zapowiadanej tezy, poniewa·

z oczekiwana u·

zyteczno´s´c dla

dowolnej polisy z rozwa·

zanego zbioru jest niewi ¾

eksza ni·

z dla polisy stop loss.

4

background image

Uwagi

1. Teza twierdzenia nie zale·

zy ani od funkcji u·

zyteczno´sci, ani od maj ¾

atku decydenta, co

jest korzy´sci ¾

a tego twierdzenia.

2. Ograniczeniem stosowalno´sci tego twierdzenia jest za÷

zenie, ·

ze cena polisy jest równa

warto´sci oczekiwanej wyp÷

at.

3. Drugim ograniczeniem jest za÷

zenie o z góry zadanej wysoko´sci sk÷

adki.

Przyk÷

ad

Niech u(w) =

e

w

, W oznacza maj ¾

atek decydenta, za´s X zmienn ¾

a losow ¾

a, która oznacza

brak straty z prawdopodobie´nstwem q, za´s zaj´scie straty z prawdopodobie´nstwem p. Je·

zeli

zasz÷

a strata, wówczas X ma g ¾

esto´s´c dan ¾

a wzorem f (x) = p

e

x

, x > 0. Wówczas mamy

u(w

G) = E[u(w

X)]

e

(w G)

= q u(w) +

1

R

0

u(w

x) p

e

x

dx

e

(w G)

=

q e

w

p

1

R

0

e

(w x)

e

x

dx

e

G

= q + p

1

R

0

e

(

) x

dx = q + p

1

G =

1

ln q +

p

.

Przyk÷

ad

Niech u(w) =

e

w

, W oznacza maj ¾

atek decydenta, za´s X zmienn ¾

a losow ¾

a, która oznacza

brak straty z prawdopodobie´nstwem q, za´s zaj´scie straty z prawdopodobie´nstwem p. Je·

zeli

zasz÷

a strata, wówczas X ma g ¾

esto´s´c dan ¾

a wzorem f (x) = p

e

x

, x > 0. Za÷

ó·

zmy, ·

ze

decydent nie chce ubezpieczy´c ca÷

ego ryzyka, tylko po÷

ow¾

e ryzyka, tzn. I(x) =

x
2

. Wówczas

E u w

x

2

G

= E[u(w

X)]

q u(w

G) + p

1

R

0

u w

x

2

G

e

x

dx = q u(w) + p

1

R

0

u (w

x) e

x

dx

q e

(w G)

+ p

1

R

0

e

(

w

x
2

G

) e

x

dx = q e

w

+ p

1

R

0

e

(w x)

e

x

dx

q e

G

+ p

1

R

0

e

(

x
2

G

) e

x

dx = q + p

1

R

0

e

(

) x

dx

q e

G

+ p

e

G

1

2

= q +

p

e

G

=

q+

p

q+

p

2

G =

1

ln

q+

p

q+

p

2

.

5

background image

INDYWIDUALNA TEORIA RYZYKA

Niech X

1

; :::; X

n

b ¾

edzie ci ¾

agiem nieujemnych niezale·

znych zmiennych losowych, które

interpretujemy jako ´swiadczenia wyp÷

acone z i-tej polisy. Inaczej, zak÷¾

adamy, ·

ze w ustalonym

czasie mamy ustalony niezmienny portfel n polis. Taki portfel polis nazywamy zamkni ¾

etym.

Naszym celem b ¾

edzie badanie zmiennej losowej X = X

1

+ ::: + X

n

. W celu ustalenia sk÷

adki

za polis ¾

e nale·

zy z regu÷

y zbada´c S, które z natury rzeczy jest zmienn ¾

a losow ¾

a lub procesem.

Przyk÷

ad

acimy b z÷

otych w przypadku ´smierci, która nast ¾

epuje z prawdopodobie´nstwem q. Niech

X = I b

, gdzie I

0

1

p

q

. Zmienna losowa I nosi nazw¾

e indykatora. Rozumowanie mo·

zemy

rozszerzy´c w nast ¾

epuj ¾

acy sposób: niech X = I B, gdzie I jest indykatorem, który przyjmuje

warto´s´c 0, gdy z danej polisy nie by÷

o ·

zadnych wyp÷

at, za´s 1, gdy by÷

a cho´c jedna wyp÷

ata.

Zmienna losowa B przyjmuje warto´sci równe wyp÷

acie, gdy jakakolwiek szkoda mia÷

a miejsce.

Przyk÷

ad

Rozwa·

zmy ubezpieczenie na ·

zycie z dodatkow ¾

a wyp÷

at ¾

a, je·

zeli ´smier´c nast ¾

epuje w wyniku

nieszcz ¾

e´sliwego wypadku. Niech b b ¾

edzie wyp÷

at ¾

a za ´smier´c naturaln ¾

a, za´s 2b wyp÷

at ¾

a za ´smier´c

w nieszcz ¾

e´sliwym wypadku. Przyjmijmy, ·

ze P (B = b^I = 1) = p

1

, za´s P (B = 2b^I = 1) = p

2

,

przy czym p

2

< p

1

. Chcemy pozna´c rozk÷

ad zmiennej losowej X = I B.

P (X = 0) = P (X = 0

jI = 0) P (I = 0) + (X = 0jI = 1) P (I = 1) =

= P (X = 0

jI = 0) P (I = 0) + 0 = 1 P (I = 0) = P (I = 0)

P (I = 1) = P (I = 1

^ (B = b _ B = 2b)) = P (I = 1 ^ B = b) + P (I = 1 ^ B = 2b) = p

1

+ p

2

P (I = 0) = 1

P (I = 1) = 1

p

1

p

2

P (X = b) = P (X = b

jI = 1) P (I = 1) + P (X = bjI = 0) P (I = 0) =

= P (X = b

jI = 1) P (I = 1) = P (B = bjI = 1) P (I = 1) = p

1

P (X = 2b) = p

2

.

Zatem X

0

b

2b

1

p

1

p

2

p

1

p

2

.

Policzymy teraz E[X] oraz V ar[X].

Zak÷

adamy,

·

ze

=

E[B

jI

=

1]

, za´s

2

= V ar[B

jI = 1]. Przy obliczeniach podstawowym narz¾

edziem b ¾

ed ¾

a wzory znane z rachunku

prawdopodobie´nstwa.

Dla zmiennych losowych X, Y zachodz ¾

a E[X] = E [E [XjY ]] oraz

V ar[X] = E [V ar[X

jY ]] + V ar[E[XjY ]]. Zauwa·

zmy, ·

ze XjI = s

s

0

P (X

jI = s) p q

.

Wobec tego E[X] = E [E [XjI]] =

q = q

oraz V ar[EjI] = V ar[

I] =

2

V ar[I] =

2

pq

.

Ponadto V ar[XjI = 0] = 0, V ar[XjI = 1] = V ar[BjI = 1] =

2

oraz E[V ar[XjI]] =

2

q

.

Zatem V ar[X] =

2

q +

2

pq

. Z niezale·

zno´sci X

1

; :::; X

n

÷

atwo policzy´c E[S] oraz V ar[S].

6

background image

Niech X, Y b ¾

ed ¾

a niezale·

znymi zmiennymi losowymi. Znajdziemy rozk÷

ad zmiennej losowej

S = X + Y

.

1. Niech X, Y b ¾

ed ¾

a ci ¾

ag÷

ymi zmiennymi losowymi. Wówczas

F

S

(s) = P (X + Y

s) =

1

R

0

P (X + Y

s

jY = y) f

Y

(y)dy =

=

s

R

0

P (X + Y

s

jY = y) f

Y

(y)dy =

s

R

0

P (X

s

y) f

Y

(y)dy =

=

s

R

0

F

X

(s

y) f

Y

(y)dy = (F

X

F

Y

)(s)

.

2.

Niech X

x

1

x

2

:::

x

n

:::

p

1

p

2

:::

p

n

:::

, Y

y

1

y

2

:::

y

n

:::

p

2

1

p

2

2

:::

p

2

n

:::

b ¾

ed ¾

a dyskretnymi

zmiennymi losowymi. Wówczas

P (X + Y = x

l

+ y

k

) =

1

P

k=1

P (X + Y = x

l

+ y

k

jY = y

k

) P (Y = y

k

) =

=

P

y

k

P (X = x

l

) P (Y = y

k

) = P

X

P

Y

.

Ogólnie F

S

(s) =

P

y

k

s

F

X

(s

y

k

) P (Y = y

k

)

.

Przyk÷

ad

Niech X

U ((0; 2))

, Y

U ((0; 3))

. Znadziemy dystrybuant ¾

e zmiennej losowej S = X + Y .

Wiadomo, ·

ze F

X

(s) =

8

>

>

<

>

>

:

0

s < 0

s
2

s

2 [0; 2)

1

s > 2

, f

Y

(y) =

(

1
3

y

2 (0; 3)

0 y =

2 (0; 3)

. Rozwa·

zmy przypadki:

1. s

0

. Wtedy F

S

(s) = 0

2. 0 < s < 2. Wówczas

F

S

(s) =

1
3

s

R

0

F

X

(s

y)dy =

1
3

s

R

0

1
2

(s

y)dy =

1

12

(s

y)

2 y=s

y=0

=

1

12

s

2

.

3. 2 < s

3

. Zauwa·

zmy, ·

ze je·

zeli s

y > 2

, to y 2 (0; 2). Zatem

F

S

(s) =

1
3

s

R

0

F

X

(s

y)dy =

1
3

s 2

R

0

1dy +

s

R

s 2

1
2

(s

y)dy =

1
3

(s

2)

1

12

(s

y)

2 y=s

y=s 2

=

=

1
3

(s

1)

.

4. 3 < s

5

. Wówczas je´sli s

y > 2

, to y < s

2

. St ¾

ad

F

S

(s) =

1
3

3

R

0

F

X

(s

y)dy =

1
3

s 2

R

0

1dy +

3

R

s 2

1
2

(s

y)dy

=

=

1
3

h

s

2

1
4

(s

y)

2 y=3

y=s 2

i

=

1
3

(s

1

1
4

s

2

+

3
2

s

9
4

) =

1
3

1
4

s

2

+

5
2

s

13

4

.

5. s > 5. Wtedy F

S

(s) = 1

.

Ostatecznie F

S

(s) =

8

>

>

>

>

>

>

>

<

>

>

>

>

>

>

>

:

0

s

0

1

12

s

2

s

2 (0; 2]

1
3

(s

1)

2 < s

3

1
3

1
4

s

2

+

5
2

s

1

13

3 < s

5

1

s > 5

.

7

background image

Przyk÷

ad

Niech

dane

b ¾

ed ¾

a

zmienne

losowe

X

,

Y

,

Z

o

rozk÷

adach

dyskretnych:

X

x

1

2

3

P (X = x)

1
3

1
3

1
3

, Y

x

1

2

4

P (Y = x)

1
2

1
4

1
4

, Z

x

2

3

P (Z = x)

1
3

2
3

.

Znajdziemy rozk÷

ad zmiennej losowe X + Y + Z.

x

P (X = x)

P (Y = x)

P (Z = x)

F

X

(x)

F

X+Y

(x)

F

X+Y +X

(x)

0

0

0

0

0

0

0

1

1
3

1
2

0

1
3

0

0

2

1
3

1
4

1
3

2
3

1
6

0

3

1
3

0

2
3

1

5

12

0

4

0

1
4

0

1

2
3

1

18

5

0

0

0

1

10
12

1
4

6

0

0

0

1

11
12

1
2

7

0

0

0

1

1

13
18

8

0

0

0

1

1

31
36

9

0

0

0

1

1

17
18

10

0

0

0

1

1

1

.

Metoda splotów, pozwala na znalezienie sumy dowolnej ilo´sc zmiennych losowych jest do´s´c

·

zmudna. W niektórych wypadkach warto stosowa´c funkcj ¾

e generuj ¾

ac ¾

a momenty do wyznaczenia

rozk÷

adu sumy niezale·

znych zmiennych losowych.

Niech X

1

; :::; X

n

b ¾

ed ¾

a niezale·

znymi

zmiennymi losowymi o funkcji generuj ¾

acej momenty M

X

k

(s)

. Niech S = X

1

+:::+X

n

. Wówczas

M

S

(s) = E e

s (X

1

+:::+X

n

)

nzl

= E[e

sX

1

] ::: E e

sX

n

= M

X

1

(s) ::: M

X

n

(s)

.

Przyk÷

ad

Niech X

k

N (

k

;

2

)

, k = 1; 2; :::; n b ¾

ed ¾

a niezale·

znymi zmiennymi losowymi. Wiadomo,

·

ze M

X

k

(s) = e

k

s+

2s2

2

. Wówczas

M

X

1

+:::X

n

(s) = e

1

s+

2s2

2

::: e

k

s+

2s2

2

= e

s (

1

+:::+

k

)+

n 2s2

2

N (

1

+ ::: +

n

;

p

n

2

)

.

Inny spsób wyznaczania rozk÷

adu sumy niezale·

znych zmiennych losowych jest aproksymacja

rozk÷

adem normalnym. Podstawowym twierdzeniem wykorzystywanym w tym sposobie jest

twierdzenie Linderberga-Levy’ego:

Niech X

1

; :::; X

n

b ¾

edzie ci ¾

agiem wzajemnie niezale·

znych zmiennych losowych o sko´nczonej

warto´sci oczekiwanej i wariancji. Rozwa·

zmy zmienn ¾

a losow ¾

a S = X

1

+ ::: + X

n

, n = 1; 2; :::.

Wóczas Y

n

=

S

n

EX

n

p

V arS

n

F

! N(0; 1). Dla n

30 Y

n

N (0; 1)

.

8

background image

Przyk÷

ad

Ubezpieczyciel ma nast ¾

epuj ¾

acy portfel polis:

q

k

b

k

ilo´s´c polis

1

a

1

b

1

n

1

2

a

2

b

1

n

2

3

a

1

b

2

n

3

4

a

2

b

2

n

4

przy czym

n

1

+ n

2

+ n

3

+ n

4

> 100

. Ubezpieczyciel planuje zebra´c sk÷

adk¾

e wed÷

ug wzoru P = (1 + ) EX,

gdzie S jest sum ¾

a polis, za´s

wzgl ¾

ednym wspó÷

czynnikiem bezpiecze´nstwa.

Dla jakiego

zebrana sk÷

adka b ¾

edzie s prawdopodobie´nstwem 0; 95 wi ¾

eksza ni·

z wyp÷

acone ´swiadczenie?

P (S < (1 + ) ES) = 0; 95

P

S ES

p

V arS

EX

p

V arS

= 0; 95

ES

p

V arS

= 0; 95

ES

p

V arS

= 1; 645

=

1;645

p

V arS

ES

przy czym ES = n

1

a

1

b

1

+ n

2

a

2

b

1

+ n

3

a

1

b

2

+ n

4

a

2

b

2

oraz

V arS = n

1

b

2

1

a

1

(1

a

1

) + n

2

b

2

1

a

2

(1

a

2

) + n

3

b

2

2

a

1

(1

a

1

) + n

4

b

2

2

a

2

(1

a

2

)

.

Przyk÷

ad

Towarzystwo ubezpiecze´n na ·

zycie posiada 16000 polis jednorocznego ubezpieczenia na ·

zycie

o nast ¾

epuj ¾

acych sumach ubezpieczenia:

b

k

ilo´s´c polis

10000

8000

20000

3500

30000

2500

50000

1500

100000

500

. Prawdopodobie´nstwo szkody

q

k

dla ka·

zdej z 16000 polis wynosi 0; 02. Zak÷

adamy, ·

ze ·

zycia s ¾

a niezale·

zne. Towarzystwo

ustanawia limit retencyjny (zatrzymania). Polega on na tym, ·

ze dla ka·

zdej polisy limit retencji

poni·

zej której towarzystwo "zatrzymuje" odpowiedzialno´s´c, a nadwy·

zka jest sprzedawana

reasekurantowi, np. je·

zeli limit retencji wynosi 20000 to towarzystwo zatrzymuje do 20000

w÷¾

acznie na ka·

zdej polisie i sprzedaje nadwy·

zk¾

e powy·

zej 20000.

Jako kryterium decyzji

towarzystwo chce zminimalizowa´c prawdopodobie´nstwo, ·

ze "zatrzymane" szkody powi ¾

ekszone

o koszty reasekuracji przekrocz ¾

a 8250000.

Cena reasekuracji wynosi 0,025 za z÷

otówk¾

e

przekazanej sumy. Za÷

ó·

zmy, ·

ze mamy do czynienia z zamkni ¾

etym uk÷

adem polis.

9

background image

W celu uproszczenia rachunków dokonajmy nast ¾

epuj ¾

acej denominacji: niech portfel polis

ma posta´c

b

k

ilo´s´c polis

1

8000

2

3500

3

2500

5

1500

10

500

, za´s warto´s´c graniczna wynosi 825. Niech d b ¾

edzie kwot ¾

a retencji.

Oznaczmy poprzez S zmienn ¾

a losow ¾

a opisuj ¾

ac ¾

a portfel cedenta, za´s przez E kwot ¾

e, jak ¾

a cedent

musi zap÷

aci´c reasekuratorowi za przekazanie ryzyka. Zadanie polega na zminimalizowaniu

P (S + E > 825)

. Zauwa·

zmy, ·

ze

P (S + E > 825) = 1

P (S + E

825) = 1

P (S

825

E) =

= 1

P

S E[S]

p

V ar[S]

825 E E[S]

p

V ar[S]

1

825 E E[S]

p

V ar[S]

.

Aby

zminimalizowa´c

rozwa·

zane

prawdopodobie´nstwo

potrzeba

zmaksymalizowa´c

825 E E[S]

p

V ar[S]

, co z monotoniczno´sci dystrybuanty równowa·

zne jest zmaksymalizowaniu

825 E E[S]

p

V ar[S]

. Rozwa·

zmy nast ¾

epuj ¾

ace przypadki:

1. d 2 [0; 1]. Wówczas portfel cedenta ma posta´c

b

k

ilo´s´c polis

d

16000

za´s portfel reasekuranta

b

k

ilo´s´c polis

1

d

8000

2

d

3500

3

d

2500

5

d

1500

10

d

500

. Zatem

E = 0; 025 [(1

d) 8000 + (2

d) 3500 + (3

d) 2500 + (5

d) 1500 + (10

d) 500] =

= 875

400d

E[S] = 16000 d 0; 02 = 320d

V ar[S] = d

2

16000 0; 02 0; 98 = 313; 6d

2

825 E E[S]

p

V ar[S]

=

825 875+400d 320d

p

313;6d

=

80d 50

p

313;6d

.

Zauwa·

zmy, ·

ze

d

dd

80d 50

p

313;6d

=

80d

2

p

313;6

p

313;6 (80d 50)

313;6d

2

=

50

p

313;6d

2

zatem wyra·

zenie

80d 50

p

313;6d

jest rosn ¾

ace dla d 2 [0; 1]. Zatem najwi¾

eksz ¾

a warto´s´c przyjmuje dla

d = 1

. Jest ona równa

80 50

p

313;6

1; 694

.

10

background image

2.

d

2 (1; 2].

Porfel cedenta ma posta´c

b

k

ilo´s´c polis

1

8000

d

8000

, za´s portfel reasekuranta

b

k

ilo´s´c polis

2

d

3500

3

d

2500

5

d

1500

10

d

500

. Mamy

E = 0; 025 (3500 (2

d) + 2500 (3

d) + 1500 (5

d) + 500 (10

d)) = 675

200d

E[S] = 0; 02 (8000 + 8000d) = 160 + 160d

V ar[S] = 0; 02 0; 98 (8000 + d

2

) = 156; 8 + 156; 8d

2

825 E E[S]

p

V ar[S]

=

825 675+200d 160 160d

p

156;8 (1+d

2

)

=

40d 10

p

156;8 (1+d

2

)

.

Zauwa·

zmy, ·

ze

d

dd

40d 10

p

156:8 (1+d

2

)

=

40 156;8 (1+d

2

) 6272d

2

+1568d

(

p

156: 8d

2

+156: 8

)

2

=

6272+1568d

p

156:8 (1+d

2

)

3

zatem wyra·

zenie

40d 10

p

156;8 (1+d

2

)

jest rosn ¾

ace dla d 2 (1; 2]. Dla d = 2 warto´s´c wyra·

zenia

wynosi

70

p

156;8 5

= 2; 5

.

3.

d

2 (2; 3].

Portfel cedenta ma posta´c

b

k

ilo´s´c polis

1

8000

2

3500

d

4500

za´s portfel reasekuranta

b

k

ilo´s´c polis

3

d

2500

5

d

1500

10

d

500

. St ¾

ad

E = 0; 025 (2500 (3

d) + 1500 (5

d) + 500 (10

d)) = 500

112; 5d

E[S] = 0; 02 (8000 + 2 3500 + d 4500) = 300 + 90d

V ar[S] = 0; 02 0; 98 (8000 + 4 3500 + d

2

2500) = 431; 2 + 88; 2d

2

825 E E[S]

p

V ar[S]

=

825 500+112;5d 300 90d

p

431;2+88;2d

2

=

25+22;5d

p

431;2+88;2d

2

.

Ponadto

d

dd

25+22;5d

p

431;2+88;2d

2

=

22: 5

(

431;2+88;2d

2

)

1984;5d

2

2205d

p

88;2d

2

+431; 2

3

=

9702 2205d

p

88;2d

2

+431;2

3

zatem dla d 2 (2; 3] wyra·

zenie

25+22;5d

p

431;2+88;2d

2

jest rosn ¾

ace. Ponadto dla d = 3 przyjmuje ono

warto´s´c 2; 6429.

11

background image

4.

d

2 (3; 5].

Portfel cedenta ma posta´c

b

k

ilo´s´c polis

1

8000

2

3500

3

2500

d

2000

za´s portfel reasekuranta

b

k

ilo´s´c polis

5

d

1500

10

d

500

. Zatem

E = 0; 025 (1500 (5

d) + 500 (1

d)) = 312; 5

50d

E[S] = 0; 02 (8000 + 2 3500 + 3 2500 + d 2000) = 450 + 40d

V ar[S] = 0; 02 0; 98 (8000 + 4 3500 + 9 2500 + d

2

2000) = 872; 2 + 39; 2d

2

825 E E[S]

p

V ar[S]

=

825 312;5+50d 450 40d

p

872;2+39;2d

2

=

62;5+10d

p

872;2+39;2d

2

.

Ponadto

d

dd

62:5+10d

p

872:2+39:2d

2

=

10

(

872;2+39;2d

2

)

392d

2

2450d

p

39;2d

2

+872; 2

3

=

8720 2450d

p

39;2d

2

+872;2

3

zatem wyra·

zenie

62;5+10d

p

872;2+39;2d

2

osi ¾

aga maksimum dla d =

8720
2450

=

872
245

2 (3; 5] i jego warto´s´c

wynosi

9613

98

p

37

2; 6513

.

5. d 2 (5; 10]. Wówczas portfel cedenta ma posta´c

b

k

ilo´s´c polis

1

8000

2

3500

3

2500

5

1500

d

500

za´s portfel reasekuranta

b

k

ilo´s´c polis

10

d

500

. Wówczas

E = 0; 025 (500 (10

d)) = 125

12; 5d

E[S] = (8000 + 2 3500 + 3 2500 + 5 1500 + d 500) = 600 + 10d

V ar[S] = 0; 02 0; 98 (8000 + 4 3500 + 9 2500 + 25 1500 + d

2

500) = 1607; 2 + 9; 8d

2

825 E E[S]

p

V ar[S]

=

825 125+12;5d 600 10d

p

1607;2+9;8d

2

=

100+2;5d

p

1607;2+9;8d

2

.

Zauwa·

zmy, ·

ze

d

dd

100+2;5d

p

1607;2+9;8d

2

=

2; 5

(

1607;2+9;8d

2

)

24;5d

2

980d

p

9; 8d

2

+1607; 2

3

=

4018 980d

p

9;8d

2

+1607;2

3

czyli wyra·

zenie

100+2;5d

p

1607;2+9;8d

2

jest malej ¾

ace dla d 2 (5; 10]. Jego warto´s´c w punkcie d = 5

wynosi 2; 614.

Z powy·

zszych rozwa·

za´n otrzymujemy, ·

ze wyra·

zenie

825 E E[S]

p

V ar[S]

przyjmuje warto´s´c najwi ¾

eksz ¾

a

2; 6513

dla d =

872
245

. Ponadto

(2; 6513) = 0; 99599

. Zatem P (S + E > 825) b ¾

edzie minimalne,

je·

zeli limit retencji wynosi÷b ¾

edzie

872
245

3; 56

i równe wynosi´c b ¾

edzie 1

0; 99599 = 0; 00401

.

12

background image

KOLEKTYWNA TEORIA RYZYKA

Niech X

1

; :::; X

n

b ¾

edzie ci ¾

agiem i.i.d. zmiennych losowych oraz X

k

0

, k = 1; :::; n. Niech N

b ¾

edzie zmienn ¾

a losow ¾

a przyjmuj ¾

ac ¾

a warto´sci ca÷

kowite nieujemne. Za÷

ó·

zmy, ·

ze zmienne losowe

N; X

1

; :::; X

N

s ¾

a wzajemnie niezale·

zne. Rozwa·

za´c b ¾

edziemy zmienn ¾

a losow ¾

a S = X

1

+ ::: + X

N

.

Zmienn ¾

a losow ¾

a S zde…niowan ¾

a w powy·

zszy sposób nazywamy zmienn ¾

a o rozk÷

adzie z÷

zonym

(compund distribution). Mo·

zna j ¾

a interpretowa´c jako sum ¾

e wyp÷

at z danego portfela polis

w okre´slonym czasie.

Niech P (x) oznacza dystrybuant ¾

e zmiennej losowej X

k

= X

, za´s

p

k

= E X

k

. Znajdziemy dystrybuant ¾

e zmiennej losowej S:

P (S

s) =

1

P

n=0

P (S

s

jN = n) P (N = n) =

1

P

n=0

P (X

1

+ ::: + X

n

s) P (N = n) =

=

1

P

n=0

p

(n)

(s) P (N = n)

.

Przyk÷

ad

Niech X

1

2

3

1
3

1
3

1
3

za´s N

0

1

2

0; 2

0; 3

0; 5

.

Przyjmujemy, ·

ze p

(0)

(s)

0

1

.

Wówczas

P (S = s) =

1

P

n=0

p

(n)

(s) P (N = n) =

= p

(0)

(s) P (N = 0) + p

(1)

(s) P (N = 1) + p

(2)

(s) P (N = 2)

.

s

p(s)

p

(0)

(s)

p

(2)

(s)

P (S = s)

0

0

1

0

0; 2

1

1
3

0

0

0; 1

2

1
3

0

1
9

7

45

3

1
3

0

2
9

19
90

4

0

0

3
9

1
6

5

0

0

2
9

1
9

6

0

0

1
9

1

18

Je·

zeli X ma rozk÷

ad dyskretny, to S ma równie·

z rozk÷

ad dyskretny. Je·

zeli natomiast X ma

rozk÷

ad ci ¾

ag÷

y, to S nie musi mie´c rozk÷

adu ci ¾

ag÷

ego.

Inn ¾

a metod ¾

a wyznaczania rozk÷

adu zmiennej losowej S jest metoda funkcji generuj ¾

acej

momenty. Wyznaczymy funkcj ¾

e generuj ¾

ac ¾

a momenty zmiennej losowej S.

E e

tS

=

1

P

n=0

E e

tS

jN = n

P (N = n) =

1

P

n=0

E e

t (X

1

+:::+X

n

)

P (N = n) =

=

1

P

n=0

E e

tX

n

P (N = n) =

1

P

n=0

[M

X

(t)]

N

P (N = n) =

1

P

n=0

e

ln M

X

(t) n

P (N = n) =

= M

N

(ln M

X

(t))

.

Zatem M

S

(t) = M

N

[ln M

X

(t)]

.

13

background image

Uwaga

Poka·

zemy, ·

ze je·

zeli rozk÷

ad jest kombinacj ¾

a liniow ¾

a dwóch innych rozk÷

adów, tzn.

F (x) =

F

1

(s) + (1

) F

2

(x)

, to M

F

(T ) =

M

F

1

(t) + (1

) M

F

2

(t)

.

M

F

(t) = E e

tX

=

1

R

1

e

tx

dF (x) =

1

R

1

e

tx

d [

F

1

(x) + (1

) F

2

(x)] =

=

1

R

1

e

tx

dF

1

(x) + (1

)

1

R

1

e

tx

dF

2

(x)

.

Z wzajemnej jednoznaczno´sci rozk÷

adu i funkcji generuj ¾

acej momenty wynika, ·

ze inaczej by´c

nie mo·

ze.

Przyk÷

ad

Niech zmienna losowa N ma rozk÷

ad geometryczny, za´s zmienna losowa X rozk÷

ad

wyk÷

adniczy. Wówczas P (x) = 1

e

x

, x > 0. W tym przypadku

M

S

(t) =

p

1 q M

X

(t)

=

p [1 qM

X

(t)+qM

X

(t)]

1 qM

X

(t)

= p + q

pM

X

(t)

1 qM

X

(t)

.

Zatem

M

S

(t) = p + q

p

1

t

1

q

1

t

= p + q

p

p t

.

Zauwa·

zmy przy tym, ·

ze 1 = M

0
1

(t)

. Z wcze´sniejszej uwagi wynika, ·

ze

S

p

0
1

+ q (1

e

px

)

.

Zatem F

S

(x) = p+q (1

e

px

) = 1

qe

px

. St ¾

ad wniosek, ·

ze S ma rozk÷

ad typu mieszanego

ze skokiem s = p w punkcie 0. Ponadto

E [S] = E [E [S

jN]] = p

1

E [N ]

E[S

jN] = n E [X] = p

1

n

V ar[S] = E [V ar[S

jN]] + V ar [E [SjN]] = E [n V ar[X]] + p

2

1

V ar[N ] =

= (p

2

p

2

1

) E[N ] + p

2

1

V ar[N ] = (p

2

p

2

1

) E [N ] + p

2

1

V ar[N ]

.

Przyk÷

ad

Je´sli N

P ( )

to M

S

(t) = M

N

(ln M

X

(t)) = e (

e

ln MX (t)

1

) = e

(M

X

(t) 1)

.

Ponadto

E[S] = p

1

E[N ] = p

1

oraz V ar[S] = (p

2

p

2

1

) + p

2

1

= p

2

.

Przyk÷

ad

Niech zmienna losowa N ma rozk÷

ad dwumianowy ujemny. Wówczas M

N

(t) =

p

1 qe

t

r

.

Zatem M

S

(t) =

h

p

1 qM

X

(t)

i

r

. Wiadomo, ·

ze E[N ] =

rq

p

za´s V ar[N ] =

rq
p

2

. Zatem

E[S] = p E[N ] = p

1

rq

p

V ar[S] = (p

2

p

2

1

)

rq

p

+ p

2

1

rq
p

2

=

rq

p

p

2

+ p

2

1

rq

p

1 +

1
p

=

rq

p

p

2

+

p

2

1

rq

p

q
p

=

rq

p

p

2

+

rq

2

p

2

1

p

2

.

14

background image

Przyk÷

ad

Za÷

ó·

zmy, ·

ze dana jest rodzina zmiennych losowych o rozk÷

adzie Poissona taka, ·

ze

N

j

=

P ( )

.

Niech

b ¾

edzie zmienn ¾

a losow ¾

a ci ¾

ag÷¾

a o g ¾

esto´sci u( ).

Wyznacz

bezwarunkowy rozk÷

ad zmiennej losowej N .

P (N = n) =

1

R

0

P (N = n

j = ) u( )d =

1

R

0

e

n

n!

u( )d

.

Za÷

ó·

zmy, ·

ze u( )

( ; )

. Wówczas

P (N = n) =

1

R

0

e

n

n!

( )

e

1

d =

( ) n!

1

R

0

+n 1

e

( +1)

d =

=

( ) n!

( +1)

+n

( +1)

( +n)

( +1)

+n

1

R

0

+n 1

e

( +1)

d =

( +1)

n+

( +n)

( ) n!

.

Przyk÷

ad

Niech X

1

; :::; X

n

b ¾

ed ¾

a niezale·

znymi zmiennymi losowymi o rozk÷

adzie

( ; )

, czyli

f (x) =

( )

x

1

e

x

. Wówczas M

X

(s) =

s

. Korzystaj ¾

ac z niezale·

zno´sci zmiennych

losowych X

1

; :::; X

n

oraz z w÷

asno´sci funkcji generuj ¾

acej momenty mamy, ·

ze

M

X

1

+:::+X

n

(s) =

s

n

(n ; )

Przyk÷

ad

Niech N

P ( )

oraz X

1

; :::; X

N

b ¾

ed ¾

a niezale·

znymi zmiennymi losowymi o rozk÷

adzie

(1; 1) = Exp(1)

. Na mocy poprzedniego przyk÷

adu otrzymujemy, ·

ze

X

1

+ ::: + X

n

(n; 1)

1

(n)

e

x

x

n 1

dla x > 0. Znajdziemy teraz dystrybuant ¾

e zmiennej

losowej X

1

+ :::X

N

. Dla ustalenia uwagi przyjmijmy, ·

ze s > 0. Mamy

1

F

X

1

+:::+X

N

(s) = 1

F

(n)

(s) = 1

1

P

n=0

P (N = n) F

(n)

(s) =

=

1

P

n=0

P (N = n)

1

F

(n)

(s) =

1

P

n=1

P (N = n)

1

R

s

1

(n 1)!

e

x

x

n 1

dx =

=

1

P

n=1

1

R

s

1

(n 1)!

e

x

x

n 1

dx

n

e

n!

.

Zauwa·

zmy, ·

ze

g(n) =

1

(n 1)!

s

R

0

e

x

x

n 1

dx =

1

(n 1)!

[ e

x

x

n 1

]

1
s

+ (n

1)

1

R

s

e

x

x

n 2

dx =

=

e

s

s

n

1

(n 1)!

+

1

(n 2)!

1

R

s

e

x

x

n 2

dx

.

Zatem g(n) =

e

s

s

n

1

(n 1)!

+ g(n

1)

. St ¾

ad

g(n) =

e

s

s

n

1

(n 1)!

+

h

e

s

s

n

2

(n 2)!

+ g(n

2)

i

= ::: =

e

s

s

n

1

(n 1)!

+

e

s

s

n

2

(n 2)!

+ ::: +

e

s

s

1!

+ e

s

=

n 1

P

k=0

e

s

s

k

k!

.

Zatem

1

F

X

1

+:::+X

N

(s) =

1

P

n=1

1

R

s

1

(n 1)!

e

x

x

n 1

dx

n

e

n!

=

1

P

n=1

n

e

n!

n 1

P

k=1

s

k

e

s

k!

,

a wi ¾

ec ostatecznie

F

S

(s) = 1

1

P

n=1

n

e

n!

n 1

P

k=1

s

k

e

s

k!

.

15

background image

Uwaga

Poniewa·

z w teoretycznie prostym przypadku dla rozk÷

adu wyk÷

adniczego dystrybuanta

rozk÷

adu z÷

zonego jest skomplikowana nale·

zy zastanowi´c si ¾

e nad aproksymacj ¾

a. Przypu´s´cmy,

·

ze X daje si ¾

e przybli·

zy´c rozk÷

adem dyskretnym o sko´nczonej ilo´sci warto´sci.

Twierdzenie

Je·

zeli S

1

; :::; S

m

s ¾

a zmiennymi losowymi niezale·

znymi o z÷

zonych rozk÷

adach Poissona

z parametrami (

i

; p

i

)

, i = 1; :::; m (gdzie p

i

jest dystrybuant ¾

a X

i

), to zmienna losowa

S = S

1

+ ::: + S

m

ma z÷

zony rozk÷

ad Poissona o parametrach

=

m

P

i=1

i

; p =

m

P

i=1

i

p

i

.

Dowód

M

S

(t) = M

S

1

(t) ::: M

S

m

(t) = e

1

[

M

X1

(t) 1

] ::: e

m

[M

Xm

(t) 1]

= e

m

P

i=1

i

M

Xi

(t)

m

P

i=1

i

=

= e

m

P

i=1

i

m

P

i=1

i

M

Xi

(t) 1

.

Korzystaj ¾

ac z jednoznaczno´sci funkcji generuj ¾

acej momenty i z faktu, ·

ze kombinacja

funkcji generuj ¾

acej momenty odpowiada kombinacji liniowej dystrybuant otrzymujemy tez ¾

e

twierdzenia.

Przyk÷

ad

Niech x

1

; :::; x

m

b ¾

edzie dowolnym uk÷

adem liczb rzeczywistych oraz N

1

; :::; N

m

b ¾

edzie

ci ¾

agiem niezale·

znych zmiennych losowych o rozk÷

adzie Poissona z parametrami

1

; :::;

m

.

Ustalimy jaki jest rozk÷

ad S = x

1

N

1

+ ::: + x

m

N

m

.

Zauwa·

zmy, ·

ze x

i

N

i

mo·

zna traktowa´c jako zmienn ¾

a losow ¾

a o z÷

zonym rozk÷

adzie Poissona

gdzie P (X = x

i

) = 1

. Po krótkim namy´sle stwierdzamy, ·

ze ka·

zd ¾

a ze zmiennych x

i

N

i

ma

zony rozk÷¾

ad Poissona z parametrami

i

oraz P (X = x

i

) = 1

. Mo·

zemy zatem zastosowa´c

udowodnione twierdzenie. Wynika z niego, ·

ze S ma z÷

zony rozk÷

ad Poissona z parametrami

=

n

P

i=1

i

; p =

m

P

i=1

i

p

i

.

De…nicja

Niech dany b ¾

edzie wektor losowy X = [X

1

; :::; X

m

]

. Wówczas

M

[X

1

;:::;X

n

]

(t

1

; :::; t

m

) = E

"

e

m

P

i=1

t

i

X

i

#

.

Twierdzenie

Zmienne losowe X

1

; :::; X

m

s ¾

a niezale·

zne wtedy i tylko wtedy, gdy

M

[X

1

;:::;X

n

]

(t

1

; :::; t

m

) =

m

Q

i=1

M

X

i

(t

i

)

.

16

background image

Uwaga

Wiadomo, ·

ze (a

1

+ ::: + a

m

)

n

=

P

n

1

;:::;n

m

n1+:::+nm=n

n!

n

1

! ::: n

m

!

a

n

1

1

::: a

n

m

m

. Za÷

ó·

zmy, ·

ze wykonujemy

n

niezale·

znych do´swiadcze´n, przy czym ka·

zde do´swiadczenie mo·

ze si ¾

e zako´nczy´c jednym

z m wyników x

1

; :::; x

m

,

1

, przy czym p(x

i

) =

i

.

Niech N

i

oznacza zmienn ¾

a losow ¾

a

"zliczaj ¾

ac ¾

a" ilo´s´c wyników x

i

w serii m do´swiadcze´n. Otrzymujemy zatem wektor losowy

[N

1

; :::; N

m

]

. Mówimy, ·

ze ta m-wymiarowa zmienna ma rozk÷

ad wielomianowy je·

zeli

P (N

1

= n

1

; :::; N

m

= n

m

) =

n!

n

1

! ::: n

m

!

n

1

1

:::

n

m

m

.

Rozk÷

ad dwumianowy jest szczególnym przypadkiem rozk÷

adu wielomianowego.

Twierdzenie

Rozwa·

zmy zmienn ¾

a losow ¾

a S = X

1

+ ::: + X

N

. Za÷

ó·

zmy, ·

ze

1. X

x

1

x

2

:::

x

m

1

2

:::

m

2. N

P ( )

.

Zauwa·

zmy po pierwsze, ·

ze S = x

1

N

1

+ ::: + x

m

N

m

gdzie

m

P

i=1

N

i

= N

. Przy spe÷

nionych

za÷

zeniach mamy:

1. N

1

; :::; N

m

s ¾

a niezale·

znymi zmiennymi losowymi o rozk÷

adzie Poissona

2.

i

=

i

.

Bardzo istotn ¾

a rol ¾

e odgrywa za÷

zenie, ·

ze S ma z÷

zony rozk÷

ad Poissona.

Dowód

M

[N

1

;:::;N

m

]

(t

1

; :::; t

m

) = E

"

e

m

P

i=1

t

i

N

i

#

=

1

P

n=0

E

"

e

n

P

i=1

t

i

M

i

jN = n

#

P (N = n) =

=

1

P

n=0

e

n

n!

P

n

1

;:::;n

m

n1+:::+nm=n

e

t

1

n

1

+:::+n

m

t

m

n!

n

1

! ::: n

m

!

n

1

1

:::

n

m

m

=

=

1

P

n=0

e

n

n!

P

n

1

;:::;n

m

n1+:::+nm=n

n!

n

1

! ::: n

m

!

(e

t

1

1

)

n

1

::: (e

t

m

m

)

n

m

=

=

1

P

n=0

e

n

n!

(

1

e

t

1

+ ::: +

m

e

t

m

)

n

= e

e [

1

e

t1

+:::+

m

e

tm

] =

= e

e

1 1

e

t1

::: e

m m

e

tm

= e

(

1

+:::+

m

)

e

1

e

t1

::: e

m

e

tm

=

= e

1

(

e

t1

1

) ::: e

m

(

e

tm

1

).

Wida´c zatem, ·

ze zmienne N

1

; :::; N

m

s ¾

a niezale·

zne oraz zmienna losowa N

i

ma rozk÷

ad

Poissona z parametrem

i

.

17

background image

Przyk÷

ad

Niech X

1

2

3

0; 1

0; 4

0; 5

i N

P (

= 2)

. Wówczas S = N

1

+ 2N

2

+ 3N

3

, gdzie

N

1

p

1

, N

2

p

2

, N

3

p

3

. Wiadomo, ·

ze

1

= 2 0; 1 = 0; 2

,

2

= 2 0; 4 = 0; 8

,

3

= 2 0; 5 = 1

. St ¾

ad mamy

x

N

1

2N

2

3N

3

N

1

+ 2N

2

N

1

+ 2N

2

+ 3N

3

0

e

0;2

0; 819

e

0;8

0; 449

e

1

0; 368

0; 367731

0; 135325

1

0; 2 e

0;2

0; 164

0

0

0; 073636

0; 027098048

2

(0;2)

2

e

0;2

2!

0; 016

0; 8 e

0;8

0; 359

0

0; 301205

0; 11084344

3

(0;2)

3

e

0;2

3!

0; 001

0

e

1

0; 368

0; 059325

0; 157156608

4

(0;2)

4

e

0;2

4!

0; 00005

(0;8)

2

e

2

2!

0; 144

0

0; 12370245

0; 07262

5

(0;5)

5

e

0;2

5!

0; 000002

0

0

0; 023975898

0; 1196665705

:

Uwaga

Je´sli S = x

1

N

1

+ ::: + x

m

N

m

to

E [S] = x

1

E [N

1

] + ::: + x

m

E [N

m

] = x

1

1

+ ::: + x

m

m

= x

1

p(x

1

) + ::: + x

m

p(x

m

) =

=

m

P

i=1

x

i

p(x

i

) = p

1

oraz V ar [S] =

m

P

k=1

V ar [x

k

N

k

] =

m

P

k=1

x

2
k

V ar [N

k

]

.

Twierdzenie (wzór Panjera)

Je·

zeli S ma z÷

zony rozk÷

ad Poissona gdzie N

i X przyjmuje warto´sci naturalne

1, 2, 3, ... to zachodzi równo´s´c

( ) f

S

(x) =

1

P

i=1

i

x

i

f

S

(x

i)

,

i

= p(i)

, x = 1; 2; 3:::.

Uwaga

Po prawej stronie wzoru ( ) wyst ¾

epuje jedynie sko´nczona suma sk÷

adników niezerowych.

Uwaga

Gdyby X mia÷rozk÷

ad o sko´nczonej ilo´sci warto´sci, to suma jest sko´nczona i sk÷

ada si ¾

e co

najwy·

zej z minfx; x

m

g sk÷adników, gdzie x

1

; :::; x

m

s ¾

a realizacjami zmiennej losowej X.

18

background image

Dowód

Rozwa·

zmy warto´s´c oczekiwan ¾

a

(

) E [X

k

jX

1

+ ::: + X

n+1

= x]

dla k = 1; :::; n + 1.

Zauwa·

zmy, ·

ze wyra·

zenie (

)

jest sta÷

e ze wzgl ¾

edu na k. Z drugiej strony

E [X

1

+ ::: + X

n+1

jX

1

+ ::: + X

n+1

= x] = x =

n+1

P

k=1

E [X

k

jX

1

+ ::: + X

n+1

= x] =

= (n + 1) E [X

k

jX

1

+ ::: + X

n+1

= x]

E [X

k

jX

1

+ ::: + X

n+1

= x] =

x

n+1

dla k = 1; :::; n + 1

P (X

1

= i

jX

1

+ ::: + X

n+1

= x) =

P (X

1

=i^X

1

+:::+X

n+1

=x)

P (X

1

+:::+X

n+1

=x)

=

P (X

2

+:::+X

n+1

=x i) P (X

1

=i)

p

(n

1)

(x)

P (X

k

= i

jX

1

+ ::: + X

n+1

= x) =

p(i) p

(n)

(x i)

p

(n

1)

(x)

=

x

n+1

.

Przekszta÷

´cmy praw ¾

a stron ¾

e wzoru ( ). Mamy

1

P

i=1

i

x

i

1

P

k=0

P (N = k) p

(k)

(x

i) =

1

P

i=1

i

x

i

1

P

k=0

e

k

k!

p

(k)

(x

i) =

=

1

P

k=0

1

P

i=1

i

x

i

e

k

k!

p

(k)

(x

i) =

1

P

k=0

e

k

k!

1

P

i=1

i

x

i

p

(k)

(x

i) =

=

1

P

k=0

1
x

e

k

k!

1

P

i=1

i

i

p(i)p

(k)

(x

i) =

1

P

k=0

1
x

e

k+1

k!

1

P

i=1

ip(i)p

(k)

(x

i) =

=

1

P

k=0

1
x

e

k+1

k!

x

k+1

p

(k+1)

(x) =

1

P

k=0

e

k+1

(k+1)!

p

(k+1)

(x) =

1

P

k=1

e

k

k!

p

(k)

(x) =

=

1

P

k=0

e

k

k!

p

(k)

(x) = f

S

(x)

.

Przyk÷

ad

Niech X

1

2

3

0; 1

0; 4

0; 5

i N

P (

= 2)

.

Obliczy´c f

S

(5)

.

Wiadomo, ·

ze

S = N

1

+ 2N

2

+ 3N

3

, gdzie N

1

p

1

, N

2

p

2

, N

3

p

3

. Ponadto

1

= 2 0; 1 = 0; 2

,

2

= 2 0; 4 = 0; 8

,

3

= 2 0; 5 = 1

. St ¾

ad mamy

f

S

(0) = e

2

f

S

(1) =

1

P

i=1

i

1

i

f

S

(1

i) =

1

f

S

(1

1) =

1

e

2

= 0; 2e

2

f

S

(2) =

1
2

(1

1

f

S

(1) + 2

2

f

S

(0)) =

1
2

(0; 2 0; 2e

2

+ 2 0; 8 e

2

) = 0; 82e

2

f

S

(3) =

1
3

(

1

f

S

(2) + 2

2

f

S

(1) + 3

3

f

S

(0)) =

=

1
3

(0; 2 0; 82 e

2

+ 2 0; 8 0; 2 e

2

+ 3e

2

) =

3;484

3

e

2

=

871
750

e

2

f

S

(4) =

1
4

(

1

f

S

(3) + 2

2

f

S

(2) + 3

3

f

S

(1)) =

1
4

0; 2

871
750

e

2

+ 2 0; 8 0; 82e

2

+ 3 0; 2 e

2

=

8041

15000

e

2

f

S

(5) =

1
5

(

1

f

S

(4) + 2

2

f

S

(3) + 3

3

f

S

(2)) =

=

1
5

0; 2:

8041

15000

e

2

+ 2 0; 8

871
750

e

2

+ 3 0; 82 e

2

0; 8850693333e

2

.

19

background image

Twierdzenie

Je·

zeli S ma z÷

zony rozk÷

ad Poissona z parametrem

i rozk÷

adem pojedynczej szkody p(x),

to lim

!1

S

p

1

p

p

2

F

= N (0; 1)

.

Dowód

Skorzystamy z metody funkcji generuj ¾

acej momenty. Mamy

M

S

p1

p

p2

(t) = E

"

e

t

S

p1

p

p2

#

= M

S

t

p

p

2

e

t p1

p

p2

= e

h

M

X

t

p

p

1

i

e

p1

p

p2

t

ln M

S

p1

p

p2

(t) =

h

M

X

t

p

p

2

1

i

p

1

p

p

2

t =

=

1 + p

1

t

p

p

2

+

p

2

2!

t

2

(

p

p

2

)

2

+

p

3

3!

t

p

p

2

3

+ :::

1

p

1

p

p

2

t =

=

p

1

t

p

p

2

+

p

2

2!

t

2

p

2

+

p

3

3!

t

3

3

2

p

3

2

2

+ :::

p

1

p

p

2

t =

=

p

2

2!

t

2

p

2

+

p

3

3!

t

3

3

2

p

3

2

2

+ ::: =

t

2

2

+

t

3

p

3

3!

1

2

p

3

2

2

+ :::

ln M

S

p1

p

p2

(t) =

t

2

2

+

t

3

p

3

3!

1

2

p

3

2

2

+ :::

lim

!1

ln M

S

p1

p

p2

(t) =

t

2

2

=

) M

S

p1

p

p2

(t)

!1

! e

t2

2

= M

N (0;1)

(t)

.

Uwaga

Niech g(x) =

( )

x

1

e

x

dx

dla x > 0, h(x) =

( )

(x

x

0

)

1

e

(x x

0

)

dla x > x

0

.

Wówczas

E [ ( ; )] =

V ar [ ( ; )] =

2

E (X

EX)

3

= ln M

( ; )

(t)

000
t=0

=

h

ln

t

i

000

t=0

=

h

2

(

t)

3

i

t=0

=

2

3

.

Aproksymacja przesuni ¾

etego rozk÷

adu gamma polega na tym, ·

ze dobieramy wspó÷

czynniki

,

, x

0

w ten sposób, by pierwsze trzy momenty centralne w rozk÷

adzie aproksymowanym

i aproksymuj ¾

acym by÷

y równe, tzn. E [H] = x

0

+

, V ar [H] =

2

oraz E [(H

EX)

3

] =

2

3

.

Zatem

=

V arX

2E[(X EX)

3

]

=

h

2V arX

E[(X EX)

3

]

i

2

V arX =

4(V arX)

3

[E[(X EX)

3

]]

2

x

0

= EX

.

20

background image

Przyk÷

ad

Niech S b ¾

edzie z÷

zonym rozk÷

adem Poissona o parametrze

= 4

oraz rozk÷

adzie

pojedynczej szkody 2e

2x

. Wyznaczy´c przesuni ¾

ety rozk÷

ad gamma aproksymuj ¾

acy dany z÷

zony

rozk÷

ad Poissona.

Wiadomo, ·

ze

E [S] = p

1

= 4

1
2

= 2

V ar [S] = p

2

= 4

2
4

= 2

E (S

ES)

3

= 3

2 =

+ x

0

2 =

2

3 =

2

3

2
3

=

2

=

)

=

4
3

= 2

16

9

=

32

9

x

0

= 2

32

9

3
4

= 2

8
3

=

2
3

.

Zatem aproksymuj ¾

acym rozk÷

adem jest H

32

9

;

4
3

;

2
3

.

ELEMENTY TEORII RUINY

Zajmowa´c b ¾

edziemy si ¾

e w tym rozdziale procesem stochastycznym postaci

U (t) = u + ct

S(t)

, t

0

, u

0

, c > 0.

S(t) = X

1

+ ::: + X

N (t)

jest funkcj ¾

a liniow ¾

a opisuj ¾

ac ¾

a proces szkodowy. Jest to zatem suma

wyp÷

at do momentu t. Proces U (t) nazywa si ¾

e procesem nadwy·

zki ubezpieczyciela. u oznacza

kapita÷pocz ¾

atkowy za´s c intensywno´s´c wyp÷

acania sk÷

adek.

Niech T oznacza moment ruiny, tzn. T = infft : U(t) < 0g. Przyjmujemy ponadto T = 1

gdy dla dowolnego t

0 U (t)

0

. Zasadniczym problemem jest badanie prawdopodobie´nstwa

P (T <

1) = (u). Szczególnym tego przypadkiem jest zajmowanie si¾

e prawdopodobie´nstwem

P (T < t

0

)

, t

0

> 0

.

Zak÷

ada´c b ¾

edziemy, ·

ze N (t) jest procesem Poissona, tzn.

P (N (t + h)

N (t) = k

jN(s); s

t) =

e

h

( h)

k

k!

. Niech T

1

; T

2

; :::

b ¾

ed ¾

a momentami czasu,

w których wyst ¾

api÷

y kolejne szkody.

Niech W

1

= T

1

, W

2

= T

2

T

1

, W

3

= T

3

T

2

,

W

k

= T

k

T

k 1

. Wtedy P (W

k

> h

jT

k 1

= t) = P (N (t + h)

N (t) = 0

jT

k 1

= t) = e

h

.

Wobec tego S(t) nazywamy z÷

ozonym procesem Poissona.

Zauwa·

zmy, ·

ze E [S(t)] = tp

1

. B ¾

edziemy zak÷

ada´c, ·

ze c > p

1

, czyli c = (1 + ) p

1

,

> 0

.

Rozwa·

zmy równanie

( )

+ ct = M

X

(t)

,

21

background image

gdzie M

X

(t)

jest funkcj ¾

a generuj ¾

ac ¾

a momenty rozk÷

adu pojedynczej szkody. O funkcji M

X

(t)

zak÷

adamy, ·

ze istnieje

> 0

, ·

ze t 2 ( 1; ) oraz lim

t!

M

X

(t) =

1. Wnioskujemy, ·

ze równanie

( )

równowa·

zne jest równaniu

(

)

+ (1 + ) p

1

t = M

X

(t)

.

Twierdzenie

Równanie

(

) 1 + (1 + )p

1

t = M

X

(t)

, t 2 ( 1; )

posiada dok÷

adnie jedno rozwi ¾

azanie niezerowe R.

Rozwi ¾

azanie to nazywamy

wspó÷

czynnikiem dostosowania (adjustment coe¢ cient).

Dowód

Zauwa·

zmy, ·

ze M

0

X

(t) = E Xe

tX

> 0

, M

00

X

(t) = E X

2

e

Xt

> 0

, M

X

(0) = 1

, M

0

X

(0) = p

1

.

Poniewa·

z funkcja po lewej stronie równanie (

)

jest liniowa i w punkcie t = 0 przyjmuje

warto´s´c 1, wi ¾

ec wobec faktu, ·

ze M

X

(t)

jest rosn ¾

aca i wypuk÷

a oraz M

X

(0) = 1

otrzymujemy,

·

ze istnieje dok÷

adnie jedno dodatnie rozwi ¾

azanie równania (

)

.

Przyk÷

ady

1.

Wyznaczymy wspó÷

czynnik dostosowania w przypadku, gdy zmienna losowa X ma

rozk÷¾

ad wyk÷

adniczy, tzn. f

X

(x) = e

x

1

(0;1)

(x)

. Korzystaj ¾

ac ze wzoru (

)

mamy

1 + (1 + )

1

t =

t

2

t + (1 + )(

t) =

2

+ (1 + ) (

t) = 0

+

t +

t = 0

t (

1) +

= 0

t =

1+

.

Zatem w przypadku rozk÷

adu wyk÷

adniczego R =

1+

.

2. Je·

zeli X jest zmienn ¾

a losow ¾

a o rozk÷

adnie zdegenerowanym, tzn. P (X = a) = 1, wówczas

korzystaj ¾

ac ze wzoru (

)

otrzymujemy równanie postaci

1 + (1 + )at = e

at

.

Równania tego w dowolnym przypadku nie da si ¾

e rozwi ¾

aza´c w sposób dok÷

adny, dlatego te·

z

w celu znalezienia wspó÷

czynnika dostosowania stosujemy metod ¾

e kolejnych przybli·

ze´n.

Twierdzenie (o prawdopodobie´

nstwie ruiny)

Zachodzi równo´s´c

(#)

(u) =

e

Ru

E

[

e

RU (T )

jT <1

]

.

Jest to wzór na prawdopodobie´nstwo ruiny w sko´nczonym horyzoncie czasowym.

22

background image

Uwaga

Prawdopodobie´nstwo ruiny w ogólnym przypadku nie daje si ¾

e policzy´c w sposób dok÷

adny,

co wynika w g÷

ównej mierze ze skomplikowanej struktury zmiennej losowej U (T ). Istniej ¾

a

jednak pewne oszacowania prawdopodobie´nstwa ruiny:

1.

(u) < e

Ru

(= U(T ) < 0 ()

U (T ) > 0

() e

RU (T )

> 1

Czasami przyjmuje si ¾

e pewne przybli·

zenie, bo warto´s´c w mianowniku (#) jest trudna do

policzenia i przyjmujemy

(u)

e

Ru

.

2. Za÷

ó·

zmy, ·

ze 9

m

P

X

(m) = 1

, tzn. P (X

m) = 1

. Wóczas wszystkie pojedyncze szkody

s ¾

a niewi ¾

eksze od m. Moment ruiny jest to pierwsza chwila, w której nadwy·

zka jest ujemna.

Przed ruin ¾

a nadwy·

zka jest dodatnia, wi ¾

ec zaistania÷

a szkoda o warto´sci X

m

implikuje, ·

ze

U (T )

m

, a zatem e

RU (T )

e

Rm

<

1. Poniewa·

z

RU (T )

Rm

, wi ¾

ec

E e

RU (T )

jT

1

e

Rm

oraz

(u) =

e

Ru

E

[

e

RU (T )

jT <1

]

e

Ru

e

Rm

= e

R(u+m)

.

Zatem w przypadku, gdy warto´sci szkoód s ¾

a ograniczone przez sta÷¾

a m, to otrzymujemy

oszacowanie

(u)

e

R(u+m)

.

3. Poka·

zemy, ·

ze lim

!0

+

(u) = 1

zachodzi dla

> 0

oraz udowodnimy, ·

ze nie ma sensu

rozwa·

zania przypadku, gdy

0

. We´zmy c = (1 + ) p

1

oraz

> 0

. Wówczas, je·

zeli

! 0,

to R ! 0. Poniewa·

z U (T ) < 0, wi ¾

ec

RU (T )

! 0

+

oraz e

RU (T )

! 1. Zatem je´sli

! 0, to

e

Ru

! 1 oraz E e

RU (T )

jT < 1 ! 1. St ¾

ad lim

!0

+

(u) = 1

.

Niech teraz

0

. Wtedy c

p

1

. Dla c

1

< c

2

mamy wówczas

c

1

(u)

c

2

(u)

, a st ¾

ad

wynika, ·

ze

9

c

c

p

1

^ (u) = 1.

Przyk÷

ad

Obliczymy prawdopodobie´nstwo ruiny w przypadku, gdy X ma rozk÷

ad wyk÷

adniczy

z parametrem

. Wiadomo, ·

ze w tym przypadku R =

1+

. Niech U (t) tu·

z przed momentem

ruiny ma warto´s´c ^

u

0

. Policzmy

P ( U (T ) > y) = P (X > ^

u + y

jX > ^u) =

e

( ^

u+y)

e

^

u

= e

y

.

Zatem P ( U (T ) > y) = e

y

, wi ¾

ec P ( U (T )

y) = 1

e

y

. Wnioskujemy st ¾

ad, ·

ze

U (T )

ma rozk÷

ad wyk÷

adniczy z parametrem . Wobec tego

E e

RU (T )

jT < 1 = M

U (T )

(R) =

R

.

Czyli

(u) =

e

Ru

(

R)

=

e

1+

u

(

R)

=

e

1+

u

(

1+

)

=

1

1+

e

1+

u

.

Zatem gdy

! 0, to (u) ! 1.

23

background image

Rozwa·

zmy

teraz

proces

nadwy·

zki

ubezpieczyciela

z

czasem

dyskretnym,

tzn.

U

n

= u + nc

S(N )

, n = 0; 1; 2; :::. Rezygnujemy tutaj z za÷

zenia, ·

ze S

n

jest z÷

zonym

procesem Poissona. Rozwa·

zmy teraz

( ) U

n

= u + nc

(W

1

+ ::: + W

n

)

.

O zmiennych losowych W

k

za÷

ó·

zmy, ·

ze s ¾

a niezale·

zne i o identycznym rozk÷

adzie. Wówczas

S(n)

oznacza ilo´s´c wyp÷

aconych szkód do chwili n. Zmienne W

k

mo·

zna traktowa´c jako sum ¾

e

wyp÷

aconych szkód w danym roku (je´sli za÷

zymy, ·

ze W

k

maj ¾

a rozk÷

ad Poissona z parametrem

, to otrzymamy poprzednio rozwa·

zany proces).

Podobnie jak dla przypadku ci ¾

ag÷

ego mo·

zna zde…niowa´c moment i prawdopodobie´nstwo

ruiny:

^

T = min

fn : U

n

< 0

g

(u) = P

^

T <

1 .

Wprowad´zmy oznaczenia:

= E [W

k

]

oraz za÷

ó·

zmy, ·

ze c >

jest intensywno´sci ¾

a wp÷

ywania

sk÷

adki, która jest niemniejsza ni·

z warto´s´c oczekiwana W

k

. Rozwa·

zmy równanie postaci

(

) e

rc

M

W

(r) = 1

.

Poka·

zemy, ·

ze równanie (

)

posiada dok÷

adnie 1 rozwi ¾

azanie dodatnie.

To niezerowe

rozwi ¾

azanie b ¾

edziemy nazywa´c wspó÷

czynnikiem dostosowania dla przypadku dyskretnego

i oznaczamy symbolem ^

R

.

Za÷

ó·

zmy, ·

ze W

P ( ; P (x))

, czyli W jest z÷

zonym rozk÷

adem Poissona (wówczas S(n)

jest równie·

z z÷

zonym rozk÷

adem Poissona). Wówczas równanie (

)

mo·

zna zapisa´c w postaci

rc + ln M

W

(r) = 0

M

W

(r) = e

[M

X

(r) 1]

rc +

[M

X

(r)

1] = 0

()

+ cr = M

X

(r)

.

Zatem otrzymali´smy znane z poprzedniego przypadku równanie na wspó÷

czynnik

dostosowania.

W przypadku ogólnym rozwa·

zamy dowolne rozk÷¾

ady zmiennych losowych W , a co za tym

idzie rozk÷

ady zmiennej losowej S z czasem dyskretnym.

Zbadajmy funkcj ¾

e f (r) = e

rc

M

W

(r) = e

rc

E e

rW

.

Funkcja ta ma nast ¾

epuj ¾

ace

elementarne w÷

asno´sci:

1. f (0) = 1.

2. f

0

(r) = E e

(W

c)r 0

= E (W

c) e

(W

c)r

oraz f

0

(0) = E [W

c] =

c < 0

.

Przyjmijmy, ·

ze zmienna losowa W przyjmuje z prawdopodobie´nstwem dodatnim warto´sci

wi ¾

eksze ni·

z c. Wówczas lim

r!1

f

0

(r) =

1.

3. f

00

(r) = E (W

c)

2

e

(W

c)r

> 0

.

Zatem f jest funkcj ¾

a rosn ¾

ac ¾

a oraz wypuk÷¾

a.

St ¾

ad wnioskujemy, ·

ze równanie (

)

ma

dok÷

adnie jedno rozwi ¾

azanie, którym jest R.

24

background image

Twierdzenie (o prawdopodobie´

nstwie ruiny w przypadku dyskretnym)

Zachodzi równo´s´c:

^ (u) =

e

^

Ru

E

[

e

^

RU (T )

jT <1

]

.

Policzymy wspó÷

czynnik dostosowania w przypadku, gdy W

N ( ;

2

)

. Wobec równania

(

)

mamy

e

rc

M

W

(r) = 1

()

rc + ln M

W

(r) = 0

()

rc + r +

1
2

2

r

2

= 0

()

()

c +

+

1
2

2

r = 0

() ^

R =

2(c

)

2

.

Za÷

ó·

zmy teraz, ·

ze W jest zmienn ¾

a losow ¾

a o dowolnym rozk÷

adzie. Wówczas z równania na

wspó÷

czynnik dostosowania mamy

rc + ln M

W

(r) = 0

rc + ln E e

rW

= 0

E e

rW

= E

h

1 + rW +

r

2

W

2

2!

+

r

3

W

3

3!

+ :::

i

= 1 + r +

r

2

p

2

2

+ :::

rc + ln 1 + r +

r

2

p

2

2

+ ::: =

rc + r +

r

2

p

2

2

+ :::

r +

r2p2

2

+:::

2

2

+ ::: = 0

rc + r +

r

2p2

2

r

2

2

= 0

c +

+

1
2

rp

2

1
2

r

2

= 0

c +

+

1
2

r (p

2

2

) = 0

c +

+

1
2

r

2

= 0

czyli ^

R

2(

c)

2

.

Zatem wszystkie inne zmienne losowe o dowolnym rozk÷

adzie maj ¾

a

przybli·

zon ¾

a posta´c wspó÷

czynnika dostosowania do rozk÷

adu normalnego.

Uogólnimy model dyskretny na pewien przypadek zale·

zno´sci zmiennych losowych W

i

.

Rozwa·

zmy model z autoregresj ¾

a pierwszego rodzaju.

Niech Y

1

; :::; Y

n

b ¾

edz ¾

a zmiennymi

losowymi i.i.d.

Niech W

i

= Y

i

+ aW

i 1

, i = 1; :::; n, gdzie a 2 ( 1; 1), W

0

= w

oraz

E [W

i

] =

< c

. St ¾

ad mamy

E [W

i

] = E [Y

i

] + aE [W

i

]

E [Y

i

] = E [W

i

]

aE [W

i 1

] < (1

a) c

W

1

= Y

1

+ aw

W

2

= Y

2

+ a (Y

1

+ aw) = Y

2

+ aY

1

+ a

2

w

W

3

= Y

3

+ a (Y

2

+ aY

1

+ a

2

w) = Y

3

+ aY

2

+ a

2

Y

1

+ a

3

w

W

i

= Y

i

+ aY

i 1

+ a

2

Y

i 2

+ ::: + a

i 1

Y

1

+ a

i

w

.

Uwzgl ¾

edniaj ¾

ac fakt, i·

z U

n

= u + cn + S

n

oraz

S

n

= W

1

+ ::: + W

n

S

1

= Y

1

+ aw

S

2

= Y

1

+ aw + Y

2

+ aY

1

+ a

2

w = Y

2

+ (1 + a) Y

1

+ (a

2

+ a) w

S

3

= Y

2

+ (1 + a) Y

1

+ (a + a

2

) w + Y

3

+ aY

2

+ a

2

Y

1

+ a

3

w =

25

background image

= Y

3

+ (1 + a) Y

2

+ (1 + a + a

2

) Y

1

+ (a + a

2

+ a

3

) w

S

n

= Y

n

+

(1 a)

2

1 a

Y

n 1

+

1 a

3

1 a

Y

n 2

+ ::: +

1 a

n

1 a

Y

1

+

1 a

n

1 a

aw

otrzymujemy

^

U

n

= U

n

a

1 a

W

n

^

U

n

= u + cn

Y

n

+

(1 a)

2

1 a

Y

n 1

+

1 a

3

1 a

Y

n 2

+ ::: +

1 a

3

1 a

Y

1

+

1 a

3

1 a

aw

+

a

1 a

(Y

n

aY

n 1

+ a

2

Y

n 2

+ ::: + a

n 1

Y

1

+ a

n

w)

^

U

n

= u + cn

Y

n

1 a

+

Y

n

1

1 a

+ ::: +

Y

1

1 a

a

1 a

^

U

n

= u

a

1 a

w + cn

Y

1

1 a

+

Y

2

1 a

+ ::: +

Y

n

1 a

^

U

n

= ^

u + cn

Y

1

1 a

+

Y

2

1 a

+ ::: +

Y

n

1 a

.

Wnioskujemy zatem, ·

ze R jest rozwi ¾

azaniem nast ¾

epuj ¾

acego równania:

e

cr

M

Y

1

a

(r) = 1

.

Ponadto

^

T = min

fn : U

n

< 0

g

(u; w) =

e

^

R ^

U

E

[

e

^

R ^

U ( ^

T )

j ^

T <1

]

.

26


Wyszukiwarka

Podobne podstrony:
ubezpieczenie majątkowe, Ubezpieczenia społeczne
System zabezpieczenia emerytalnego Ubezpieczenia zdrowotne i ubezpieczenia majątkowe
Zestaw 2 Mat Ubezp, AJD Częstochowa 2010-2013 Matematyka Finansowa, ROK 3, TYRALA Matematyka Ubezpie
Zestaw 4 Mat Ubezp, AJD Częstochowa 2010-2013 Matematyka Finansowa, ROK 3, TYRALA Matematyka Ubezpie
Zestaw 1 Mat Ubezp, AJD Częstochowa 2010-2013 Matematyka Finansowa, ROK 3, TYRALA Matematyka Ubezpie
Ubezpieczenia majątkowe, Zarządzanie
Zadanie z UBEZPIECZEŃ MAJĄTKOWYCH - lato 2012-13 (2B332R), WSZiB Kraków
Zestaw 3 Mat Ubezp, AJD Częstochowa 2010-2013 Matematyka Finansowa, ROK 3, TYRALA Matematyka Ubezpie
UBEZPIECZENIA MAJĄTKOWE allinz duże prz wa 6ALPCPDAL5L4N4DQAGLKMLVLWXZM3CB27NJOMKY 6ALPCPDAL5L4N4DQA
Zadanie z UBEZPIECZEŃ MAJĄTKOWYCH (1B334- zima 2010-11), Zadania
UBEZPIECZENIA MAJĄTKOWE I OSOBOWE, WSFIZ B-stok, finanse
ubezpieczenia majątkowe (2)
ubezpieczenia majatkowe (techniki sprzedaży grupa 462)
wy 5 Ubezpieczenia majatku rzeczowego
Umowa ubezpieczenia majątkowego (12 stron) LFJDZCFP7WLUCGIMUTWQI2TDZBEI2DAZ4FUWV4I
Ubezpieczenia Majątkowe w Rolnictwie

więcej podobnych podstron