Cw1 Matlab


Przebieg ćwiczenia 1. Podstawy obsługi pakietu MATLAB
MATLAB jest interakcyjnym środowiskiem do wykonywania odliczeń naukowych i inżynierskich. Umożliwia
testowanie algorytmów, modelowanie i symulację, analizę i wizualizację danych, sygnałów oraz wyników obliczeń.
Zasadnicze jego zalety to możliwość szybkiego uzyskania rezultatów skomplikowanych obliczeń i przedstawienie ich w
postaci wykresów dwu- lub trójwymiarowych, a także w postaci map wielobarwnych.
MATLAB jest językiem programowania wysokiego poziomu. Podstawowymi typami danych w MATLAB-ie są
tablice o elementach rzeczywistych lub zespolonych oraz struktury i obiekty. Zmienne przechowywane sÄ… w przestrzeni
roboczej (ang. workspace) i są dostępne przez nazwę. W MATLAB-ie nie stosuje się deklaracji zmiennych. Zmienne
wybranego typu określa (definiuje) użytkownik. MATLAB automatycznie rozpoznaje typ zmiennej. Rezultaty
wykonywanych operacji matematycznych lub funkcji zależą od rozpoznanego typu.
1. Wykonywanie obliczeń
Wynik obliczeń wartości wyrażenia jest dostępny jako wartość zmiennej, której to wyrażenie przypisano. Dla
polecenia w postaci:
>> zmienna = wyrażenie
po naciśnięciu klawisza ENTER, zostanie obliczona wartość wyrażenia i przypisana zmiennej. Zmienna zostanie
wprowadzona do przestrzeni roboczej (ang. workspace)  jeśli zmienna już istniała, to przyjmie nową wartość. Na
ekranie pojawi siÄ™ odpowiedz w postaci:
zmienna = wartość wyrażenia
Możliwe jest także wykonywanie polecenia w postaci:
>> wyrażenie
W tym przypadku wynik obliczeń będzie przypisany standardowej zmiennej ans. Odpowiedz na takie polecenie jest
następująca:
ans = wartość wyrażenia
Dodanie średnika po wyrażeniu powoduje, że wartość wyrażenia nie jest wypisywana na ekranie.
W jednej linii można wpisać wiele poleceń, jeśli oddzieli się je średnikiem.
Wykonać następujące polecenia:
>> 1+3 >> pi >> c=a+b
>> 1e4 >> sin(pi/2) >> z1=1+2i
>> 1e4 + 2e4 >> 2^3 >> z2=10j
>> log(2) >> sin(0.4)^2+cos(0.4)^2 >> real(z1)
>> log(2.7183) >> a = 12.5 >> imag(z1)
>> exp(1) >> a >> sqrt(-1)
>> log(exp(1)) >> a=5 >> i^2
>> log10(2.7183) >> a >> sqrt(-4)
>> log10(10) >> b=5+4 >> 1/0
2. Przydatne polecenia
who  lista zmiennych obecnych w przestrzeni roboczej programu
whos  lista zmiennych obecnych w przestrzeni roboczej programu wraz z formatem
clear  usuwa zmienne z przestrzeni roboczej
clear nazwa_zmiennej  usuwa zmiennÄ… z przestrzeni roboczej
3. Niektóre typy danych
W MATLAB-ie podstawowym typem danych jest tablica. Jej elementami mogą być liczby rzeczywiste lub
zespolone, znaki albo inne tablice. Macierz jest szczególnym przypadkiem tablicy. Jest to tablica dwuwymiarowa, na
której elementach wykonuje się operacje algebry liniowej.
Filozofię działania MATLAB-a oparto na operacjach wektorowo macierzowych. Pojedyncza wartość liczbowa jest
traktowana jako macierz o wymiarach (1x1). Wektor jest to macierz, która składa się z jednego wiersza lub jednej
kolumny.
1
Nie stosuje siÄ™ deklarowania zmiennych, Tworzenie zmiennych wybranego typu wykonuje siÄ™ poprzez instrukcje
przypisywania lub użycie odpowiedniej funkcji. Zestaw funkcji stosowanych do tworzenia i przekształcania typów
danych uzyskuje siÄ™ poleceniem help datatypes.
" macierze  tablice dwuwymiarowe prostokÄ…tne o elementach rzeczywistych lub zespolonych. Elementy macierzy
zapisuje się w nawiasach kwadratowych, kolumny oddziela się spacją lub przecinkiem, a wiersze średnikiem.
Wykonać następujące polecenia:
>> A = [1 2 3; 4 5 6; 7 8 9]
4. Dwukropek  operator generowania wektorów i tablic
Dwukropek (:) jest jednym z częściej używanych operatorów w MATLAB-ie. Jest on wykorzystywany przy
tworzeniu wektorów o równomiernie rozłożonych elementach. Umożliwia łatwe wyselekcjonowanie żądanych wierszy,
kolumn lub elementów tablic.
" Generowanie wektorów
Generowanie wektorów, z zastosowaniem notacji dwukropkowej, przebiega według następujących zasad:
- j:k  taki zapis definiuje wektor [j, j+1, j+2, ..., k],
- j:d:k  taki zapis określa wektor [j, j+d, j+2d, ..., k].
Wykonać następujące polecenia:
>> w1 = 1:6
>> w2 = 1:0.1:2
>> w11 = 1:6.5
>> w22 = 10:10:55
>> A = [1:5; 6:10; 11:15; 16:20; 21:25]
>> b = [0:0.1:0.5]
>> B = [b; b+1; b+2; b+3; b+4; b+5; b+6]
" Wybór żądanych wierszy, kolumn i elementów tablicy
Wyboru żądanych wierszy, kolumn i elementów tablicy dokonuje się za pomocą podanych poniżej zapisów:
- A(i, j)  wypisanie elementu z i-tego wiersza i j-tej kolumny,
- A(:, j)  wypisanie j-tej kolumny macierzy A,
- A(i, :)  wypisanie i-tego wiersza macierzy A,
- A(k)  wypisanie k-tego elementu macierzy A,
- A(:)  wypisanie wszystkich elementów macierzy A w jednej kolumnie,
Wykonać następujące polecenia:
>> A >> A
>> A(1,1) >> A(1)
>> A(1,2) >> A(2)
>> A(:, 1) >> A(6)
>> A(:, 3) >> A(7)
>> A(:, end) >> A(1:10)
>> A(1, :) >> A(1:end)
>> A(3, :) >> A(:)
>> A(end, :) >> A
5. Operatory arytmetyczne i operacje na macierzach
W MATLAB-ie wykonuje się za pomocą operatorów dwa rodzaje operacji na macierzach. Pierwszy rodzaj to
arytmetyczne operacje macierzowe określone regułami algebry liniowej (np. X*Y). Drugi rodzaj to tzw. arytmetyczne
operacje tablicowe, które są wykonywane na elementach macierzy (np. X .* Y  realizuje mnożenie elementów
wektorów lub macierzy o tych samych indeksach  X(i,j)*Y(i,j)). Operatory arytmetyczne zestawiono w poniższej
tabeli. Informacje, dotyczące sposobu działania operatorów, można uzyskach wykonując polecenia: help arith, help
slash, help ctranspose, help kron.
2
Symbol operacji Nazwa operacji Symbol operacji
macierzowej tablicowej
+ dodawanie +
 odejmowanie 
* mnożenie .*
^ potęgowanie .^
/ dzielenie prawostronne ./
\ dzielenie lewostronne .\
 sprzężenie macierzy
. transpozycja macierzy
kon iloczyn tensorowy Kroneckera
Wykonać następujące polecenia:
>> A = [1 2 3; 4 5 6; 7 8 9] >> B = [1 1 1; 2 2 2; 3 3 3] >> A*B
>> A + 1 >> A.*B >> A+B
>> A * 2
6. Elementy grafiki dwuwymiarowej
Zapoznać się z opisem poleceń plot, grid, xlabel, ylabel, title, hold korzystając z systemu pomocy MATLAB-a.
Wykonać następujące polecenia:
>> x = 0:0.5:2*pi >> plot(x,y, - ) >> hold on
>> y = sin(x) >> plot(x,y, * ) >> plot(x,y1, g )
>> plot(x,y) >> plot(x,y, -* )>> plot(x,y,'-*g') >> hold off
>> plot(x,y, : ) >> grid >> plot(x,y)
>> plot(x,y, -- ) >> y1 = cos(x) >> y
>> plot(x,y, -. ) >> plot(x,y, b )
7. Elementy grafiki trójwymiarowej
Zapoznać się z opisem poleceń plot3, meshgrid, mesh, surf, colormap, gray korzystając z systemu pomocy
MATLAB-a.
Wykonać następujące polecenia:
>> t=0:0.1:20; >> x = -5:5 >> surf(x,y,Z)
>> plot3(sin(t),cos(t),t) >> y = -8:2 >> surf(X,Y,Z)
>> [X Y] = meshgrid(x,y) >> colormap(gray)
>> t=pi:0.01:62; >> Z = -X.^2 - Y.^2 >> help gray
>> plot3(sin(t)./t,cos(t)./t,t) >> mesh(X,Y,Z) >> colormap(hot)
>> xlabel('x') >> mesh(x,y,Z) >> colormap(pink)
>> ylabel('y') >> colormap(flag)
>> zlabel('t')
3
Ćwiczenie 2. Teoria: sieci neuronowe
1. Model sztucznego neuronu
Podobnie jak w przypadku neuronowych sieci biologicznych, podstawowymi elementami z których buduje się
sztuczne sieci neuronowe są sztuczne neurony. Sztuczny neuron jest elementem, którego własności odpowiadają
wybranym własnościom neuronu biologicznego. Z założenia nie jest więc on jego wierną kopią, lecz elementem, który
powinien spełniać określone funkcje w sztucznej sieci neuronowej.
Ogólnie sztuczny neuron można rozpatrywać jako specyficzny przetwornik sygnałów działający według
następującej zasady: na wejście przetwornika doprowadzone są sygnały wejściowe, które następnie są mnożone przez
odpowiednie współczynniki wag, ważone sygnały wejściowe są następnie sumowane i na tej podstawie wyznacza się
aktywność neuronu.
Na rys. 1 przedstawiono model sztucznego neuronu. Składa się on z dwóch bloków: bloku sumowania " i bloku
aktywacji f(Õ).
Rys. 1. Model neuronu
W bloku sumowania wykonywane jest algebraiczne sumowanie ważonych sygnałów wejściowych, oraz
generowany jest sygnaÅ‚ wyjÅ›ciowy Õ :
R
Õ = ui + b = wTu + b (1)
"w
1,i
i=1
gdzie: w  wektor współczynników wag w1,i, u  wektor sygnałów wejściowych ui, R  liczba wejść neuronu, b  próg
(bias).
SygnaÅ‚ Õ poddawany jest przetwarzaniu przez blok aktywacji f(Õ) realizujÄ…cy zależność y = f(Õ). Ostatecznie
sygnał wyjściowy ma postać:
R
ëÅ‚ öÅ‚
y = f (Õ)= f ìÅ‚ ui + b÷Å‚ = f (wTu + b) (2)
"w1,i
íÅ‚ i=1 Å‚Å‚
Funkcja aktywacji, w zależności od konkretnego celu, jakiemu służy neuron, może przyjmować różne postacie.
Niektóre z nich to:
" funkcja skokowa unipolarna (funkcja Heaviside a)
1
1 jeśli x > 0
Å„Å‚
0.5
f (x)=1(x)= (3)
òÅ‚0 jeÅ›li x d" 0
0
ół
-5 0 5
" funkcja skokowa bipolarna
1
1 jeśli x > 0
Å„Å‚
0
f (x)=1(x)= (4)
òÅ‚
-1
ół-1 jeśli x d" 0
-5 0 5
5
" funkcja liniowa
0
f (x)= ax (5)
-5
-5 0 5
4
" funkcja sigmoidalna unipolarna
1
1 0.5
f (x)= (6)
1+ e-² x 0
-10 0 10
" funkcja sigmoidalna bipolarna (tangensoidalna)
1
ex - e- x x 1- e- x
0
f (x)= tanh(x)= lub f (x)= tanhëÅ‚ öÅ‚ = (7)
ìÅ‚ ÷Å‚
ex + e-x 2 1+ e-x
íÅ‚ Å‚Å‚
-1
-10 0 10
2. Sieci jednokierunkowe
Neurony połączone między sobą tworzą układ nazywany sztuczną siecią neuronową (w skrócie siecią
neuronową). W zależności od sposobu połączenia neuronów można wyróżnić sieci jednokierunkowe lub rekurencyjne
(ze sprzężeniem zwrotnym).
Sieć neuronowa jednokierunkowa jest złożona z neuronów ułożonych w warstwy o jednym kierunku przepływy
sygnałów. Połączenia międzywarstwowe występują jedynie między sąsiednimi warstwami.
Najprostszą siecią neuronową jest sieć jednowarstwowa. Tworzą ją neurony ułożone w jednej warstwie (rys. 2a,
2b). Każdy neuron posiada próg (bias) bi oraz wiele wag wij prowadzonych do sygnałów wejściowych uj. Neurony
ułożone w pojedynczej warstwie działają niezależnie od siebie, stąd możliwości takiej sieci są ograniczone do
możliwości pojedynczych neuronów.
Rys. 2. Jednowarstwowa sieć neuronowa o R wejściach i S wyjściach: a) schemat pełny, b) schemat uproszczony
Każdy neuron realizuje odwzorowanie funkcyjne:
R
ëÅ‚ öÅ‚
ìÅ‚
yi = f u + bi ÷Å‚ (8)
"wij j
ìÅ‚ ÷Å‚
j=1
íÅ‚ Å‚Å‚
gdzie: R  liczba wejść, yi  i-te wyjście, wij  waga dla i-tego neuronu i j-tego wejścia.
Powyższe równanie można zapisać również w zwięzłej postaci macierzowej:
y = f (Wu + b) (9)
gdzie: u  wektor wejścia, y  wektor wyjścia, W  macierz wag.
Sieć jednowarstwowa ma niewielkie znaczenie praktyczne, jakkolwiek stosuje się ją nadal tam, gdzie istnienie
jednej warstwy jest wystarczające do rozwiązania określonego problemu.
Sieć wielowarstwową tworzą neurony ułożone w wielu warstwach, przy czym oprócz wejść i warstwy
wyjściowej istnieje co najmniej jedna warstwa ukryta.
Na rys. 3 przedstawiono sieć o jednej warstwie ukrytej, a na rys. 4 sieć o dwóch warstwach ukrytych (w
oznaczeniach przyjęto stosować indeks górny do oznaczania numeru warstwy).
5
Rys. 3. Sieć dwuwarstwowa
Rys. 4. Sieć trójwarstwowa
Sieć dwuwarstwowa realizuje następujące odwzorowanie wektora wejściowego u na wektor wyjściowy y:
2 2 1
y = f (W2y1 + b2)= f (W2 f (W1u + b1)+ b2), (10)
lub dla k-tego wyjścia:
S1 S1 R
ëÅ‚ öÅ‚
ëÅ‚ öÅ‚ ëÅ‚ öÅ‚
2 2 1 2 2 1 1
ìÅ‚
ìÅ‚ ìÅ‚ ÷Å‚
yk = f yi + bk ÷Å‚ = f f f (u )+ bi ÷Å‚ + bk ÷Å‚ (11)
"wki "wki "wij j
ìÅ‚ ÷Å‚ ìÅ‚
ìÅ‚ ÷Å‚
i=1 i=1 j=1
íÅ‚ Å‚Å‚ íÅ‚ Å‚Å‚
íÅ‚ Å‚Å‚
gdzie: R  liczba wejść, S1  liczba neuronów w 1-szej warstwie ukrytej, yk  k-te wyjście, wij, wki  wagi, bk, bi  progi.
Sieci neuronowe wykorzystujące ciągłe funkcje aktywacji mają ciągłe charakterystyki. Pozwala to na
bezpośrednie zastosowanie algorytmów gradientowych do uczenia takich sieci (uczenie polega na doborze wartości
wag według określonego algorytmu, które umożliwi dostosowanie działania sieci do warunków środowiskowych
określonych w postaci określonych wymagań co do odwzorowania danych wejściowych na wyjściowe).
Sieci z funkcjami liniowymi mają nieograniczony zakres wartości wyjściowej, ale realizują tylko odwzorowanie
liniowe. Z kolei sieci zawierające funkcje sigmoidalne mogą tworzyć dowolne odwzorowanie nieliniowe o
ograniczonym zakresie wyjściowym. Aby połączyć zalety obu tych sieci  zdolność realizowania nieliniowych
odwzorowań i nieograniczoność zakresu wyjściowego  należy w warstwach ukrytych zastosować sigmoidalne funkcje
aktywacji, natomiast w warstwie wyjściowej  liniowe.
Skokowe funkcje aktywacji przyjmuje się w tego typu systemach, gdzie sygnał wyjściowy powinien
przyjmować jedną z dwóch wartości dyskretnych. W tym przypadku algorytmy gradientowe, uznawane za
najskuteczniejsze w uczeniu, nie mogą mieć zastosowania, gdyż podstawowe wymaganie dotyczące funkcji celu nie
jest spełnione.
6
Przebieg ćwiczenia 2. Sieci neuronowe
1. Perceptron
Opis zastosowanych funkcji:
newp  tworzy nowy perceptron
NET = NEWP(PR,S,TF,LF)
PR  macierz określająca zakres wartości wejść sieci (liczba wejść jest określana na podstawie rozmiaru tej macierzy),
S  liczba neuronów,
TF  funkcja wyjścia perceptronu, domyślnie 'hardlim',
LF  funkcja ucząca, domyślnie 'learnp',
Funkcja zwraca: nowy perceptron net.
Więcej informacji: help newp.
newff  tworzy sieć neuronową propagacji wstecznej
NET = NEWFF(PR,[S1 S2...SNl],{TF1 TF2...TFNl},BTF,BLF,PF) takes,
PR - macierz określająca zakres wartości wejść sieci (liczba wejść jest określana na podstawie rozmiaru tej macierzy),
Si - liczba neuronów w i-tej warstwie, N1  liczba warstw,
TFi  funkcja wyjścia neuronów w i-tej warstwie, domyślnie 'tansig'.
BTF  funkcja ucząca sieć, domyślnie 'trainlm'.
BLF  funkcja ucząca wagi/bias, domyślnie 'learngdm'.
PF - funkcja błędu, domyślnie 'mse'.
Zwraca N warstwową sieć neuronową propagacji wstecznej.
Więcej informacji: help newff.
sim  oblicza odpowiedz sieci neuronowej na dany sygnał wejściowy
[Y,Pf,Af,E,perf] = SIM(net,P,Pi,Ai,T)
Parametry:
NET  Sieć neuronowa.
P  Wektor wejściowy.
Pi, Ai,T  parametry nieobowiÄ…zkowe
Funkcja zwraca:
Y  Wektor odpowiedzi sieci.
Więcej informacji: help network/sim.m.
Wykonać następujące polecenia:
Funkcją wyjścia perceptronu jest funkcja skokowa unipolarna.
Stworzenie wykresu funkcji wyjścia:
>> x=-5:0.1:5;
>> y=hardlim(x);
>> plot(x,y)
Sprawdzenie wartości funkcji w punkcie 0:
>> hardlim(0)
Tworzenie wektorów uczących P oraz T:
 wektor wejściowy sieci  pary liczb rzeczywistych (punkty na płaszczyznie):
>> P=[-5, -5, 3, -1; -5, 5, -5, 10]
 wektor wyjściowy sieci  wartość odpowiadająca danej parze wektora wejściowego:
>> T=[1 1 0 0]
Tworzenie nowego perceptronu i przypisanie go zmiennej net:
>> net=newp([-10 10; -10 10], 1);
Inicjowanie wag sieci (nadawanie przypadkowych wartości wagom):
>> net=init(net);
Wyświetlenie wektora wag (zapisać wartości):
>> net.IW{1}
Wyświetlenie wartości biasu (zapisać wartość):
7
>> net.b{1}
Obliczenie odpowiedzi sieci na wektor wejściowy P:
>> sim(net,P)
Czy odpowiedz sieci jest równa wektorowi wyjściowemu T (wyświetlić wektor T)?
Uczenie sieci:
>> net=train(net,P,T);
Przeanalizować wykres średniokwadratowego błędu uczenia sieci.
Wyświetlenie wektora wag:
>> net.IW{1}
Wyświetlenie wartości biasu:
>> net.b{1}
Czy wektor wag oraz bias uległy zmianie?
Obliczenie odpowiedzi sieci na wektor wejściowy P:
>> sim(net,P)
Czy odpowiedz jest równa wektorowi wyjściowemu T (wyświetlić wektor T)?
Wagi oraz bias wyznaczają prostą o równaniu y=(-net.IW{1}(1)*x - net.b{1})./net.IW{1}(2) rozgraniczającą
dwie półpłaszczyzny. Do jednej z nich należą punkty, którym przyporządkowano wartości 1, a na drugiej punkty,
którym przyporządkowano wartości 0.
Wyświetlenie wektora wejściowego i wyjściowego;
symbolem kółko (o) oznaczono współrzędne punktów, którym przyporządkowano wartość 0,
symbolem plus (+) oznaczono współrzędne punktów, którym przyporządkowano wartość 1:
>> plotpv(P,T); grid
Wyświetlenie prostej rozdzielającej półpłaszczyzny:
>> plotpc(net.IW{1}, net.b{1})
Sprawdzić odpowiedz sieci dla punktów należących do pierwszej i drugiej półpłaszczyzny, np. punkty (-6,6) i (10,6):
>> sim(net,[-6;-6])
>> sim(net,[10;6])
Tworzenie wektorów uczących P oraz T:
 wektor wejściowy sieci  pary liczb rzeczywistych (punkty na płaszczyznie):
>> P=[-5, -5, 3, -1, 4; -5, 5, -5, 10, 10]
 wektor wyjściowy sieci  wartość odpowiadająca danej parze wektora wejściowego:
>> T=[1 1 0 0 1]
Wyświetlenie wektora wejściowego i wyjściowego:
>> plotpv(P,T); grid
Zwrócić uwagę na położenie dodanego punktu (4,10).
Inicjowanie wag sieci (nadawanie przypadkowych wartości wagom):
>> net=init(net);
Uczenie sieci:
>> net=train(net,P,T);
Obliczenie odpowiedzi sieci na wektor wejściowy P za pomocą funkcji sim
>> sim(net,P)
Porównać odpowiedz sieci z wektorem T.
Czy sieć została poprawnie wytrenowana? Dlaczego?
2. Aproksymacja funkcji
2.1 Dokładność aproksymacji
Tworzenie wektorów uczących P oraz T:
>> P=-10:0.2:10;
>> T=sin(P);
>> plot(P,T,'-o'); grid
Tworzenie dwuwarstwowej sieci neuronowej (10 neuronów w warstwie wejściowej i 1 w wyjściowej):
>> net=newff([-10 10],[10 1],{'tansig' 'purelin'});
Maksymalna liczba prezentacji danych uczÄ…cych (liczba epok):
>> net.trainParam.epochs=7;
Inicjowanie wag sieci (nadawanie przypadkowych wartości wagom):
>> net=init(net);
Obliczenie odpowiedzi nie wytrenowanej sieci na wektor wejściowy P:
8
>> y=sim(net,P);
>> figure
>> plot(P,T,'-o',P,y,'-*'); grid
Uczenie sieci:
>> net=train(net,P,T);
Obliczenie odpowiedzi wytrenowanej sieci na wektor wejściowy P:
>> y=sim(net,P);
>> figure
>> plot(P,T,'-o',P,y,'-*'); grid
Ocenić dokładność aproksymacji (powiększyć wykres). Zapamiętać końcowy błąd uczenia.
Ponownie zainicjować wagi sieci i przeprowadzić jej uczenie dla 100 epok (net.trainParam.epochs=100).
Przedstawić dane uczące oraz odpowiedz sieci na wykresie.
Jak wpływa liczba epok na dokładność wytrenowania sieci neuronowej (na dokładność aproksymacji) oraz czas
uczenia.
Stworzyć sieć dwuwarstwową:
- warstwa 1. (ukryta): 4 neuronów, tangensoidalna funkcja wyjścia (tansig),
- warstwa 2. (wyjściowa): 1 neuron, liniowa funkcja wyjścia (purelin).
Przyjąć liczbę epok równą 100, przeprowadzić uczenie sieci dla danych uczących P oraz T.
Przedstawić na wykresie dane uczące oraz odpowiedz sieci na wektor P.
Ocenić dokładność aproksymacji.
Jak wpływa liczba neuronów w warstwie ukrytej na dokładność wytrenowania sieci neuronowej (na dokładność
aproksymacji) oraz czas uczenia.
2.2 Zdolność uogólniania sieci neuronowej
Generowanie danych uczÄ…cych:
>> P=-pi:0.4:pi;
>> T=sin(P);
>> plot(P,T,'-*');
>> grid
Stworzyć sieć dwuwarstwową (zakres wartości wejść [-pi, pi]):
- warstwa 1. (ukryta): 6 neuronów, tangensoidalna funkcja wyjścia (tansig),
- warstwa 2. (wyjściowa): 1 neuron, liniowa funkcja wyjścia (purelin).
Przyjąć liczbę epok równą 100, przeprowadzić uczenie sieci dla danych uczących P oraz T.
Przedstawić na wykresie dane uczące oraz odpowiedz sieci na wektor P.
Ocenić dokładność aproksymacji.
Obliczenie odpowiedzi sieci na wektor wejściowy P1, zawierający punkty, których sieć neuronowa nie była
uczona:
Wygenerować wektor P1 z zakresu od -Ą do Ą, z rozdzielczością 0,1.
Obliczyć odpowiedzi sieci y1 na wektor wejściowy P1.
Przedstawić na wykresie dane uczące oraz odpowiedz sieci na wektor P.
Przyjrzeć się otoczeniom ekstremów funkcji sinus (powiększyć wykres w tych przedziałach).
Porównanie odpowiedzi sieci na wektor wejściowy P1 z dokładnymi wartościami funkcji sin:
Wygenerować wektor ys wartości funkcji sinus dla wektora P1.
Przedstawić na wykresie funkcję sinus (wektora P1 oraz ys) oraz odpowiedz sieci na wektor P1.
Przyjrzeć się otoczeniom ekstremów funkcji sinus (powiększyć wykres w tych przedziałach).
2.3 Zdolność aproksymacyjna dwuwarstwowej sieci liniowej
Generowanie danych uczÄ…cych:
>> P=-pi:0.4:pi;
>> T=sin(P);
>> plot(P,T,'-*');
>> grid
Stworzyć sieć dwuwarstwową:
9
- warstwa 1. (ukryta): 10 neuronów, liniowa funkcja wyjścia (purelin),
- warstwa 2. (wyjściowa): 1 neuron, liniowa funkcja wyjścia (purelin).
Przeprowadzić uczenie sieci dla danych uczących P oraz T.
Przedstawić na wykresie dane uczące oraz odpowiedz sieci na wektor P.
Ocenić dokładność aproksymacji (powiększyć wykres).
Czy sieć liniowa może dobrze aproksymować funkcję nieliniową?
10
Rozmyty system wyznaczania napiwków
1. Jedno wejście, jedno wyjście
Wejście 1: obsługa
funkcje Gaussa (gaussmf)
zła  parametry [1.5, 0], dobra  parametry [1.5, 5], bardzo dobra  parametry [1.5, 10]
1
zla dobra b.dobra
0.8
0.6
0.4
0.2
0
0 2 4 6 8 10
Wyjście: napiwek
funkcje trójkątne (trimf)
mały  parametry: [0, 5, 10], średni  parametry: [10, 15, 20], wysoki  parametry: [20, 25, 30]
1
maly
sredni
wysoki
0.8
0.6
0.4
0.2
0
0 5 10 15 20 25 30
Baza reguł:
R1: Jeśli (obsługa = zła), to (napiwek = mały),
R2: Jeśli (obsługa = dobra), to (napiwek = średni),
R3: Jeśli (obsługa = bdobra), to (napiwek = wysoki).
2. Dwa wejścia, jedno wyjście
Wejście 2: jedzenie
funkcje trapezowe (tramf)
niesmaczne  parametry: [0, 0, 1, 3], wyśmienite  parametry: [7, 9, 10, 10]
1
wysmienite
niesmaczne
0.8
0.6
0.4
0.2
0
0 2 4 6 8 10
Baza reguł:
R1: Jeśli (obsługa = zła) lub (jedzenie = niesmaczne), to (napiwek = mały),
R2: Jeśli (obsługa = dobra), to (napiwek = średni),
R3: Jeśli (obsługa = bdobra) lub (jedzenie = wyśmienite), to (napiwek = wysoki).
11


Wyszukiwarka

Podobne podstrony:
PAIII cw1 matlab
MATLAB cw Skrypty
SIMULINK MATLAB to VHDL Route
IMiR NM2 Introduction to MATLAB
001 PMP cw1
Wyniki cw1
matlab skrypty
MATLAB2
cw1
statystyka w matlabie
cw1
Matlab Kosinska
MS cw1
Slowniczek matlab
pn10 Matlab lab3 Bubak
borland cpp builder cw1

więcej podobnych podstron