swd, mala sciaga


Dane są przestrzenie x={x1,x2,x3} oraz y={y1,y2}, zbiór rozmyty A={(x1, 0.4), (x2, 1), (x3, 0.6)} określany na przestrzeni x

Oraz relacja rozmyta R={((x1, y1), 0.5), ((x1,y2), 0.7), ((x2,y1), 0.2), ((x2,y2), 1), ((x3,y1), 0.9), ((x3,y2), 0.3)}W wyniku złożenia AoR powstaje zbiór rozmyty, w którym wartość funkcji przynależności do elementu y1 wynosi:

0,5 (wyszlo 0,54)

Dana jest siec neuronowa, dwuwarstwowa, złożona z neuronów liniowych. Neurony warstwy pierwszej maja po dwa wejścia. W warstwie pierwszej SA dwa neurony, przy czym wszystkie wagi neuronow warstwy pierwszej sa rowne 1. W warstwie drugiej, będącej warstwa wyjsciowa, również sa dwa neurony,ale wszystkie wagi neuronow sa rowne 2.

a)siec ta może zastąpić siecia jednowarstwowa skladajaca się z dwóch neuronow logicznych, z których każdy ma dwa wejścia i w której wszystkie wagi sa rowne 4.

b) siec ta może zastąpić siecia jednowarstwowa skladajaca się z dwóch neuronow logicznych, z których każdy ma dwa wejścia i w której wszystkie wagi sa rowne 2.

c)sieci tej nie można zastąpić jednowarstwowa siecia liniowa.

Decyzje sugerowane przez komputerowy system wspom.decyzji:

Są tym bardziej trafne im bardziej adekwatny jest model zjawiska, w oparciu o który zostaly wzbudzone.

Funkcja dana wzorem f(x,y)=(x*y)/max{x*y*0,5} gdzie x,y naleza [0,1]:

jest T-norma.

Jesli chcemy używać sieci neuronowej od przewidywania ceny papierów wartościowych to :

nie musimy podawać żadnej informacji na temat cen, bo siec w procesie nauki dopasuje wagi pozwalające przewidywać ceny

Modyfikacja wag w sieci Kohonena dana jest wzorem(zakładając że zwycięzcą jest i-ty neuron)

wj (k+1)= wj(k) + α*h(i,j)*(x(k)-w(k))

gdzie α jest współczynnikiem nauki, natomiast h jest funkcją sąsiedztwa.

Nauka sieci neuronowej metodą „bez nauczyciela „ polega na

grupowaniu wzorców podobnych do siebie

Neuron dwuwejściowy z progiem tzn. taki , którego całkowite wzbudzenie dane jest wzorem s = w1*x1+w2*x2 + p z funkcją Heaviside'a jako funkcją aktywacji może modelować

8 dwuargumentowych operatorów logiki klasycznej

Pojedyńczy neuron posiadający dwa wejścia uczymy metoda najw. spadku gradientu(czy czegoś takiego). Zakładamy ze funkcja aktywacji neuronów dana jest wzorem:

f(s)=1/1+e-3 gdzie s=w1*x1 + w2*x2

dany jest ciąg {(x(1) ,z1 )...x(N), zN)} oraz ze funkcja błędu dana jest wzorem

E(w1,w2)=1/2* ENn=1 (y(n) -z(n))2 wzór ma zmianę i-tej wagi neuronu (i należy{1,2}) ma postać:

w2(k+1)= wi(k)-h*En=1(y(n)-z(n))*f(s)*(1-f(s))*x2

Proces wnioskowania w systemie expertowym, w którym baza wiedzy ma postać sieci semantycznej polega na:

c)przeszukiwaniu pewnego grafu.

Proces nauki neuronowej polega na:

ustaleniu wag wszystkich neuronów w siec.

Rozpoznawanie wzorca przez siec Hopfilda:

jest procesem składającym się na ogol z więcej niż jednego kroku.

Sieci neuronowe są używane do modelowania zjawisk ekonomicznych bo

mogą odwzorować zależności nieliniowe

Sieć Hopfielda w której zakodowano co najmniej 3 wzorce posiada fałszywy

atraktor

/*********************************

Sieci Kohonena mogą być zastosowane do

klasyfikacji

Sieci Kohonena mogą być zastosowane do

filtracji danych

/*********************************

Sieć z przeciwpropagacją (sieć CP)

jest siecią nie rekurencyjną dwuwarstwowa

/*********************************

System expertowy

a)zawsze dziala w oparciu zarówno zarówno logike rozmyta.

b)zawsze dziala w oparciu o logike dwuwartosciowa.

c)może działać w oparciu zarówno zarówno logike klasyczna jak i rozmyta.

system ekspertowy

może działać w oparciu zarówno o logikę klasyczną jak i rozmytą

/*********************************

Warstwowa sieć neuronowa dla której mamy ciąg uczący

a)zawsze jest uczona metodami gradientowymi

b)może być uczona przy pomocy algorytmu genetycznego

c)zawsze można przeprowadzić naukę metodą algebraiczną rozwiązując pewien układ nierówności

warstwowa sieć neuronowa dla którejmamy ciąg uczący zawsze można przeprowadzić naukę metodą algebraiczną rozwiązując pewien układ nierówności

/*********************************

W algorytmach genetycznych operator mutacji

zmienia z niewielkim prawdopodobieństwem pojedynczą wartość w skończonym ciągu modelującym genotyp

W binarnej sieci hopfielda kodujemy wektor [11000] oraz [00011] element a12 w macierzy wag jest równy.

2

W binarnej sieci Hopfilda kodujemy wektory [1100] oraz [0011].Gdy na wejście sieci podajemy wektor [1111] to na wyjście otrzymamy wektor:

[1111]

W czasie nauki sieci Kohonena przed podaniem kolejnego wzorca

unormowane są wszystkie wektory wag i wektor wejściowy

Wejscie sieci neuronowej:

jest wektorem

W klasycznym (nierozmytym) systemie expertowym:

graf skierowany może modelować bazę wiedzy.

W procesie wnioskowania rozmytego

składanie zbioru rozmytego i realizacji jest zawsze realizowane przy pomocy T-normy

W procesie wnioskowania rozmytego w wyniku zastosowania rozmytej reguły modus poneus(pojedynczej) otrzymujemy:

zbiór rozmyty będący złożeniem pewnego zbioru rozmytego i relacji rozmytej będącej rozmytą implikacją

W regularnym systemie exper. w którym występują miedzy innymi następujące reguły

Ri : IF(a AND NOT a) THEN b

Rj : If a THEN c

Rk : If b THEN NOT c

i-ta reguła jest zbędna

W rozmytym systemie expertowym blok rozmywania sluzy do:

przedstawienia danych wejściowych jako zbioru rozmytego.

W wyniku krzyżowania osobników o genotypach [00110101] i [11011110] przy założeniu ze genotyp przecięty jest w jednym miejscu w połowie swej długości.

Powstają dwa osobniki potomne o genach [00111110] i [11010101]

Wypowiedz ^ x należy R V y=R x<y

jest zdaniem logicznym prawdziwym

Zdanie [(~p)=>(q^(~q))] =>p

jest reguła wnioskowania

Zdanie [~(p=>q)]^ r ^ (q=>p)

jest prawdziwe wtedy i tylko i tylko wtedy gdy p jest prawdziwe , q falszywe i r prawdziwe

zdanie logiczne postaci ((a ^ (~β)) => (γ ^ (~γ)))=>(α ^ β)

nie jest reguła wnioskowania bo nie jest tautologią

/*********************************Zdefiniujemy w logice rozmytej operatory alternatywny i komunikacji w sposób następujący w(a^b =w(a)*w(b), a(a v b)= w(a)+w(b)-w(a)*w(b) wtedy:

a) dla dowolnych a,b w (a^b) < w(avb)

b)dla dowolnych a,b w (a^b) > w(avb)

c) isteja a1,b1 takie ze (a1^b1) < w(a1vb1) oraz istnieja a2,b2 takie ze w(a2^b2)>w(a2vb2).

/*********************************

Zmienna, która w neuronie typu McCullocha-Pittasa jest przetwarzana przez funkcje aktywacji jest

całkowite wzbudzenie neuronu



Wyszukiwarka

Podobne podstrony:
Finanse mala sciaga
mala sciaga z prawa cywilnego, Prawo cywilne(1), Pr. cywilne

więcej podobnych podstron