Decyzje sugerowane przez komputerowy system wspomagania decyzji :: są tym bardziej trafne im bardziej adekwatny jest model zjawiska w oparciu o który zostały zbudowane
Dane są przestrzenie x={x1,x2,x3} oraz y={y1,y2}, zbiór rozmyty A={(x1, 0.4), (x2, 1), (x3, 0.6)} określany na przestrzeni x Oraz relacja rozmyta R={((x1...pominalem... 0.9), ((x3,y2), 0.3)} W wyniku... :: 0,5 (wyszlo 0,54)
Dana jest siec neuronowa, dwuwarstwowa, złożona z neuronów liniowych. Neurony warstwy pierwszej maja po dwa wejścia. W warstwie pierwszej SA dwa neurony, przy czym wszystkie wagi neuronow warstwy pierwszej sa rowne 1. W warstwie drugiej, będącej warstwa wyjsciowa, również sa dwa neurony,ale wszystkie wagi neuronow sa rowne 2.:: sieci tej nie można zastąpić jednowarstwowa siecia liniowa
Funkcja dana wzorem f(x,y) = x * y / max {x,y} gdzie x, y należy [0,1]:: jest T - normą
Jesli chcemy używać sieci neuronowej od przewidywania ceny papierów wartościowych to :: nie musimy podawać żadnej informacji na temat cen, bo siec w procesie nauki dopasuje wagi pozwalające przewidywać ceny
Modyfik wag w sieci Kohon dana jest wzor(zakład że zwycię jest i-ty neur)::c)wj (k+1)= wj(k) + α*h(i,j)*(x(k)-w(k)) gdzie α jest współ nauki, natomiast h jest funkcją sąsiedztwa
Neuron dwuwej z progiem tzn taki którego całk wzbudz dane jest wzor s = w1*x1+w2*x2 + p z funk Heaviside'a jako funk aktyw może model:: 8 dwuargum operat logiki klasycznej
Nauka sieci neuronowej metodą „bez nauczyciela „ polega na :: grupowaniu wzorców podobnych do siebie
Proces nauki sieci neuronowej polega na :: ustaleniu wag wszystkich neuronów w sieci
Proces wnioskowania w systemie eksportowym w którym baza wiedzy ma postać sieci symantycznej polega na:: przeszukiwaniu pewnego grafu
Pojedyńczy neur poś 2 wej uczymy met najw spadku gradientu Zakład ze funk aktyw neur dana jest wzor: f(s)=1/1+e-3 gdzie s=w1*x1 + w2*x2 dany jest ciąg {(x(1) ,z1 )...x(N), zN)} oraz ze funk błędu dana jest wzorem E(w1,w2)=1/2* ENn=1 (y(n) -z(n))2 wzór ma zmianę i-tej wagi neuronu (i należy{1,2}) ma postać:: w2(k+1)= wi(k)-h*En=1(y(n)-z(n))*f(s)*(1-f(s))*x2
Rozpoznanie wzorca przez sieć Hopfielda:: jest procesem składającym się na ogół z więcej niż jednego kroku
Sieć Hopfielda w której zakodowano co najmniej 3 wzorce:: posiada fałszywy atraktor
Sieć z przeciwpropagacją (sieć CP):: jest siecią nierekurencyjną dwuwartościową
Sieci Kohonena mogą być zastosowane do:: filtracji danych
Sieci neuronowe są używane do modelowania zjawisk ekonomicznych bo:: mogą odwzorować zależności nieliniowe
System ekspertowy:: może działać w oparciu zarówno o logikę klasyczną jak i rozmytą
W rozmytym systemie ekspertowym blok rozmywania służy do:: przedstawienia danych wejściowych jako zbioru rozmytego
Wejście sieci neuronowej :: jest zmienną wektorową (??jest wektorem)
W klasycznym (nierozmytym)systemie ekspertowym:: graf skierowany może modelować strukturę bazy reguł
W czasie nauki sieci Kohonena przed podaniem kolejnego wzorca :: unormowane są wszystkie wektory wag i wektor wejściowy
W binarnej sieci hopfielda kodujemy wektor [11000] oraz [00011] element a12 w macierzy wag jest równy:: -2
W algorytmach genetycznych operator mutacji:: zmienia z niewielkim prawdopodobieństwem pojedynczą
wartość w skończonym ciągu modelującym genotyp
Warstwowa sieć neuronowa dla której mamy ciąg uczący :: zawsze można przeprowadzić naukę metodą algebraiczną rozwiązując pewien układ nierówności
W procesie wnioskowania rozmytego:: składanie zbioru rozmytego i realizacji jest zawsze realizowane przy pomocy T-normy
Wypowiedz ^ x należy R V y=R x<y:: jest zdaniem logicznym prawdziwym
W binarnej sieci Hopf koduj wekt [1100]oraz[0011]Gdy na wej sieci pod wektor[1111] to na wyjście otrzymamy wektor:: [1111]
W wyniku krzyż osob o genot[00110101]i[11011110]przy założ ze genotyp przec jest w jednym miejscu w poł swej dług:: Powst 2 osobniki potomne o genach [00111110] i [11010101]
W regularnym systemie exper. w którym występują miedzy innymi następujące reguły Ri : IF(a AND NOT a) THEN b /Rj : If a THEN c/ Rk : If b THEN NOT c :: i-ta reguła jest zbędna
Zdanie logiczne postaci ((a ^ (~β)) => (γ ^ (~γ)))=>(α ^ β):: nie jest reguła wnioskowania bo nie jest tautologią
Zmienną która w neuronie jest przetwarzana przez funkcje aktywacji jest::całkowicie wzbudzenie neuronu
Zdefinujmy w logice rozmytej operatory alternatywy i koniunkcji w sposób następujący W(a^b)=w(a)*w(b) , w(aVb)=w(a)+w(b)-w(a)*w(b):: istnieją a1,b1 takie że w(a1^b1) < w(a1Vb1) oraz istnieją a2,b2 takie że w(a2 ^ b2)> w (a2 V b2)
Zdanie [~(p=>q)]^ r ^ (q=>p)::jest prawdziwe wtedy i tylko i tylko wtedy gdy p jest prawdziwe , q falszywe i r prawdziwe
Zdanie [(~p)=>(q^(~q))] =>p ::jest reguła wnioskowania
Zmienną, którą w neuronie typu McCullocha-Pittasa jest przetwarzana przez funkcje aktywacji jest :: całkowite wzbudzenie neuronu