Dane są przestrzenie x={x1,x2,x3} oraz y={y1,y2}, zbiór rozmyty A={(x1, 0.4), (x2, 1), (x3, 0.6)} określany na przestrzeni x
Oraz relacja rozmyta R={((x1, y1), 0.5), ((x1,y2), 0.7), ((x2,y1), 0.2), ((x2,y2), 1), ((x3,y1), 0.9), ((x3,y2), 0.3)}W wyniku złożenia AoR powstaje zbiór rozmyty, w którym wartość funkcji przynależności do elementu y1 wynosi:
0,5 (wyszlo 0,54)
Dana jest siec neuronowa, dwuwarstwowa, złożona z neuronów liniowych. Neurony warstwy pierwszej maja po dwa wejścia. W warstwie pierwszej SA dwa neurony, przy czym wszystkie wagi neuronow warstwy pierwszej sa rowne 1. W warstwie drugiej, będącej warstwa wyjsciowa, również sa dwa neurony,ale wszystkie wagi neuronow sa rowne 2.
a)siec ta może zastąpić siecia jednowarstwowa skladajaca się z dwóch neuronow logicznych, z których każdy ma dwa wejścia i w której wszystkie wagi sa rowne 4.
b) siec ta może zastąpić siecia jednowarstwowa skladajaca się z dwóch neuronow logicznych, z których każdy ma dwa wejścia i w której wszystkie wagi sa rowne 2.
c)sieci tej nie można zastąpić jednowarstwowa siecia liniowa.
Decyzje sugerowane przez komputerowy system wspom.decyzji:
Są tym bardziej trafne im bardziej adekwatny jest model zjawiska, w oparciu o który zostaly wzbudzone.
Funkcja dana wzorem f(x,y)=(x*y)/max{x*y*0,5} gdzie x,y naleza [0,1]:
jest T-norma.
Jesli chcemy używać sieci neuronowej od przewidywania ceny papierów wartościowych to :
nie musimy podawać żadnej informacji na temat cen, bo siec w procesie nauki dopasuje wagi pozwalające przewidywać ceny
Modyfikacja wag w sieci Kohonena dana jest wzorem(zakładając że zwycięzcą jest i-ty neuron)
wj (k+1)= wj(k) + α*h(i,j)*(x(k)-w(k))
gdzie α jest współczynnikiem nauki, natomiast h jest funkcją sąsiedztwa.
Nauka sieci neuronowej metodą „bez nauczyciela „ polega na
grupowaniu wzorców podobnych do siebie
Neuron dwuwejściowy z progiem tzn. taki , którego całkowite wzbudzenie dane jest wzorem s = w1*x1+w2*x2 + p z funkcją Heaviside'a jako funkcją aktywacji może modelować
8 dwuargumentowych operatorów logiki klasycznej
Pojedyńczy neuron posiadający dwa wejścia uczymy metoda najw. spadku gradientu(czy czegoś takiego). Zakładamy ze funkcja aktywacji neuronów dana jest wzorem:
f(s)=1/1+e-3 gdzie s=w1*x1 + w2*x2
dany jest ciąg {(x(1) ,z1 )...x(N), zN)} oraz ze funkcja błędu dana jest wzorem
E(w1,w2)=1/2* ENn=1 (y(n) -z(n))2 wzór ma zmianę i-tej wagi neuronu (i należy{1,2}) ma postać:
w2(k+1)= wi(k)-h*En=1(y(n)-z(n))*f(s)*(1-f(s))*x2
Proces wnioskowania w systemie expertowym, w którym baza wiedzy ma postać sieci semantycznej polega na:
c)przeszukiwaniu pewnego grafu.
Proces nauki neuronowej polega na:
ustaleniu wag wszystkich neuronów w siec.
Rozpoznawanie wzorca przez siec Hopfilda:
jest procesem składającym się na ogol z więcej niż jednego kroku.
Sieci neuronowe są używane do modelowania zjawisk ekonomicznych bo
mogą odwzorować zależności nieliniowe
Sieć Hopfielda w której zakodowano co najmniej 3 wzorce posiada fałszywy
atraktor
/*********************************
Sieci Kohonena mogą być zastosowane do
klasyfikacji
Sieci Kohonena mogą być zastosowane do
filtracji danych
/*********************************
Sieć z przeciwpropagacją (sieć CP)
jest siecią nie rekurencyjną dwuwarstwowa
/*********************************
System expertowy
a)zawsze dziala w oparciu zarówno zarówno logike rozmyta.
b)zawsze dziala w oparciu o logike dwuwartosciowa.
c)może działać w oparciu zarówno zarówno logike klasyczna jak i rozmyta.
system ekspertowy
może działać w oparciu zarówno o logikę klasyczną jak i rozmytą
/*********************************
Warstwowa sieć neuronowa dla której mamy ciąg uczący
a)zawsze jest uczona metodami gradientowymi
b)może być uczona przy pomocy algorytmu genetycznego
c)zawsze można przeprowadzić naukę metodą algebraiczną rozwiązując pewien układ nierówności
warstwowa sieć neuronowa dla którejmamy ciąg uczący zawsze można przeprowadzić naukę metodą algebraiczną rozwiązując pewien układ nierówności
/*********************************
W algorytmach genetycznych operator mutacji
zmienia z niewielkim prawdopodobieństwem pojedynczą wartość w skończonym ciągu modelującym genotyp
W binarnej sieci hopfielda kodujemy wektor [11000] oraz [00011] element a12 w macierzy wag jest równy.
2
W binarnej sieci Hopfilda kodujemy wektory [1100] oraz [0011].Gdy na wejście sieci podajemy wektor [1111] to na wyjście otrzymamy wektor:
[1111]
W czasie nauki sieci Kohonena przed podaniem kolejnego wzorca
unormowane są wszystkie wektory wag i wektor wejściowy
Wejscie sieci neuronowej:
jest wektorem
W klasycznym (nierozmytym) systemie expertowym:
graf skierowany może modelować bazę wiedzy.
W procesie wnioskowania rozmytego
składanie zbioru rozmytego i realizacji jest zawsze realizowane przy pomocy T-normy
W procesie wnioskowania rozmytego w wyniku zastosowania rozmytej reguły modus poneus(pojedynczej) otrzymujemy:
zbiór rozmyty będący złożeniem pewnego zbioru rozmytego i relacji rozmytej będącej rozmytą implikacją
W regularnym systemie exper. w którym występują miedzy innymi następujące reguły
Ri : IF(a AND NOT a) THEN b
Rj : If a THEN c
Rk : If b THEN NOT c
i-ta reguła jest zbędna
W rozmytym systemie expertowym blok rozmywania sluzy do:
przedstawienia danych wejściowych jako zbioru rozmytego.
W wyniku krzyżowania osobników o genotypach [00110101] i [11011110] przy założeniu ze genotyp przecięty jest w jednym miejscu w połowie swej długości.
Powstają dwa osobniki potomne o genach [00111110] i [11010101]
Wypowiedz ^ x należy R V y=R x<y
jest zdaniem logicznym prawdziwym
Zdanie [(~p)=>(q^(~q))] =>p
jest reguła wnioskowania
Zdanie [~(p=>q)]^ r ^ (q=>p)
jest prawdziwe wtedy i tylko i tylko wtedy gdy p jest prawdziwe , q falszywe i r prawdziwe
zdanie logiczne postaci ((a ^ (~β)) => (γ ^ (~γ)))=>(α ^ β)
nie jest reguła wnioskowania bo nie jest tautologią
/*********************************Zdefiniujemy w logice rozmytej operatory alternatywny i komunikacji w sposób następujący w(a^b =w(a)*w(b), a(a v b)= w(a)+w(b)-w(a)*w(b) wtedy:
a) dla dowolnych a,b w (a^b) < w(avb)
b)dla dowolnych a,b w (a^b) > w(avb)
c) isteja a1,b1 takie ze (a1^b1) < w(a1vb1) oraz istnieja a2,b2 takie ze w(a2^b2)>w(a2vb2).
/*********************************
Zmienna, która w neuronie typu McCullocha-Pittasa jest przetwarzana przez funkcje aktywacji jest
całkowite wzbudzenie neuronu