D Podstawy podejmowania辌yzji i in偶ynierii wiedzy


  1. Podstawy podejmowania decyzji i in偶ynierii wiedzy

    1. Architektura systemu ekspertowego: definicje systemu ekspertowego, metody reprezentacji wiedzy, metody pozyskiwania wiedzy, metody wnioskowania w systemach ekspertowych, elementy badania poprawno艣ci bazy wiedzy.

System ekspertowy to:

Cech膮 charakterystyczn膮 systemu eksperckiego jest wyr贸偶nienie reprezentacji wiedzy o dziedzinie, kt贸rej dotyczy system oraz mechanizmu rozumowania na podstawie zasob贸w wiedzy z tej dziedziny. System ekspercki w swej strukturze zawiera takie elementy, kt贸re umo偶liwiaj膮 jego dzia艂anie w spos贸b por贸wnywalny z najlepszymi specjalistami tzn. ma zdolno艣膰:

W systemie eksperckim wyr贸偶nia si臋 nast臋puj膮ce elementy g艂贸wne :

          1. elementy programu wykonywane podczas wsp贸艂dzia艂ania u偶ytkownika z systemem eksperckim

            • procedury sterowania dialogiem pomi臋dzy u偶ytkownikiem systemu a systemem eksperckim

            • procedury wnioskowania

            • procedury obja艣niania

            • procedury aktualizacji bazy wiedzy

        1. elementy nie wykonywane stanowi膮ce odpowiednie bazy a wi臋c

          • baza wiedzy

          • baza danych sta艂ych

          • baza danych zmiennych

W sk艂ad systemu eksperckiego wchodz膮:

0x08 graphic
0x01 graphic

METODY POZYSKIWANIA WIEDZY:

METODY REPREZENTACJI WIEDZY - to metody zapisania pozyskanej wiedzy w maszynach cyfrowych, w spos贸b najbli偶szy sposobowi rozumowania cz艂owieka. P

powinna umo偶liwia膰 prosty, kompletny (wyczerpuj膮cy), zwi臋z艂y, zrozumia艂y i wyra藕ny zapis wiedzy.

Podzia艂 reprezentacji wiedzy ze wzgl臋du na techniki zapisu wiedzy :

Wnioskowanie - proces, w kt贸rym na podstawie zada艅 uznanych za prawdziwe dochodzi si臋 do nowego zdanie dot膮d nieuznanego (konkluzji).

METODY WNIOSKOWANIA

                1. wnioskowanie logiczne

                  • dedukcja

                  • abdukcja

                  • indukcja

                  • wnioskowanie na bazie niesp贸jno艣ci

                  • wnioskowanie nie monotoniczne

              1. wnioskowanie pochodne od logiki

                • wstecz

                • wprz贸d

                • mieszane

            1. algorytmy dopasowania wzorca

            2. metody szukania

            3. wnioskowanie przez analogi臋

            4. metody uczenia parametrycznego i strukturalnego

Ze wzgl臋du na metod臋 prowadzenia procesu wnioskowania systemy ekspertowe dzieli si臋 na:

聽Ze wzgl臋du na rodzaj przetwarzanej informacji systemy ekspertowe dziel膮 si臋 na dwie grupy:

BADANIA POPRAWNO艢CI BAZY WIEDZY

Sp贸jno艣膰 - wykrywanie regu艂 zb臋dnych, sprzecznych, poch艂aniaj膮cych, ze sprzecznym warunkiem oraz zap臋tlonych, kompletno艣膰 bazy regu艂 - poszukiwanie regu艂 brakuj膮cych.

Sp贸jno艣膰 regu艂:

Sprzeczno艣膰: dwie regu艂y s膮 sprzeczne, je艣li ich cz臋艣ci warunkowe s膮 r贸wnocze艣nie spe艂nione lub nie spe艂nione we wszystkich mo偶liwych przypadkach oraz ich konkluzje s膮 r贸偶ne. Przyk艂ad: (a,L) ^ (c, 3)=>(d,H), (a,L) ^ (c, 3) =>(d,L)

Regu艂y poch艂aniaj膮ce - jedna regu艂a jest poch艂aniana w贸wczas, gdy cz臋艣膰 warunkowa pierwszej regu艂y jest spe艂niona, je艣li jest spe艂niona cz臋艣膰 warunkowa drugiej regu艂y i konkluzje obu regu艂 s膮 identyczne. Przyk艂ad: (a,L) ^ (c, 3)=>(d,H), (c,3)=>(d,H)

Niepotrzebne warunki: dwie regu艂y maj膮 niepotrzebne warynki, je艣li obie s膮 poch艂aniane przez trzeci膮 regu艂臋. Przyk艂ad: (a,L)^(b,D)^(c,5)=>(d,H), (a,R)^(b,D)^(c,5)=>(d,H).

Zap臋tlenie regu艂: Zestaw regu艂 tworzy p臋tl臋 je艣li zap臋tlenie tych regu艂 jest cykliczne. Przyk艂ad: (a,L)^(c,5)=>(d,H), (d,H)=>(f,2), (f,2)^(g,4)=>(c,5)

Wielokrotne odwo艂ywanie do jednego atrybutu: Wyst臋puje wtedy, gdy w cz臋艣ci warunkowej s膮 cz艂ony zawieraj膮ce ten sam atrybut. Przyk艂ad: (a,L)^(a,R)=>(d,H)

    1. Teoria zbior贸w rozmytych - definicje zbioru, liczby i przyk艂ady operacji, przyk艂ad wnioskowania rozmytego.

Teoria zbior贸w rozmytych jest uog贸lnieniem klasycznej teorii zbior贸w. Teoria klasyczna m贸wi ze element nale偶y b膮d藕 nie nale偶y do zbioru. Czyli funkcja przynale偶no艣ci wed艂ug klasycznej teorii zbior贸w mo偶e przyjmowa膰 tylko warto艣膰 0 lub 1. W teorii zbior贸w rozmytych element mo偶e cz臋艣ciowo nale偶e膰 do jakiego艣 zbioru a przynale偶no艣膰 t臋 mo偶na wyrazi膰 z pomoc膮 liczby rzeczywistej z zakresu 0 do 1Toj臋cie ZBIOR脫W ROZMYTYCH jako uog贸lnienie zbior贸w zwyk艂ych (nie rozmytych) zosta艂o wprowadzone przez L. Zadehaw w 1965r. Tradycyjny spos贸b reprezentowania elementu x zbioru A odbywa si臋 za po艣rednictwem funkcji charakterystycznej 渭(x) r贸wnej jeden, gdy element nale偶y do zbioru A lub zero gdy element nie nale偶y do tego zbioru. W systemach rozmytych element mo偶e nale偶e膰 do ka偶dego zbioru cz臋艣ciowo. Stopie艅 przynale偶no艣ci do zbioru A stanowi膮cy uog贸lnienie funkcji charakterystycznej jest zwany funkcj膮 przynale偶no艣ci 渭(x), przy czym 渭(x) 鈭 [0, 1]

Operacje na liczbach rozmytych

Wprowad藕my definicj臋 liczby rozmytej (Zadeh 1965).

Definicja. Liczb膮 rozmyt膮 A nazywamy zbi贸r rozmyty okre艣lony na zbiorze liczb rzeczywistych R co zapisujemy:

A 鈯 R., 渭: R 鈫 [0,1]

Podstawowe operacje na liczbach rozmytych mo偶na zdefiniowa膰 stosuj膮c zasad臋 rozszerzania (Zadeh 1965):

Definicja. Niech dana b臋dzie pewna operacja dwuargumentowa na

liczbach rzeczywistych:

* : R x R 鈫 R

Ponadto, niech A i B b臋d膮 liczbami rozmytymi A, B 鈯 R, wtedy operacj臋 `*' mo偶na rozszerzy膰 na argumenty rozmyte A i B w nast臋puj膮cy spos贸b:

渭(z) = min {渭(x), 渭(y)}

OPERACJE NA ZBIORACH ROZMYTYCH

渭(x) = 渭(x) 鈭 渭(y) = Max [A(x), B(x)]

gdzie znak 鈭 oznacza operator Max

przyk艂ad:

A= {, , , }

B= {, , , }

C = A 鈭 B

C = {, , , }

渭鈭 (x) = 渭(x) 鈭 渭(x) = Min [A(x), B(x)]

przy czym symbol 鈭 oznacza operator Min

C = A 鈭〣

C = {, , , }

渭(x) = 1 - 渭(x)

w odr贸偶nieniu od zbior贸w zwyk艂ych gdzie negacja element贸w nale偶膮cych do zbioru tworzy艂a zbi贸r pusty, negacja w odniesieniu do zbior贸w rozmytych definiuje zbi贸r niepusty o elementach z funkcjami przynale偶no艣ci nale偶膮cymi r贸wnie偶 do przedzia艂u

[0, 1]

Zbiory rozmyte A(x) i B(x) s膮 sobie r贸wne, gdy dla wszystkich element贸w xi obu zbior贸w zachodzi 渭(xi) = 渭(xi)

渭(x) = [渭(x)]虏

jest to szczeg贸lnie cz臋sto u偶ywana operacja w dzia艂aniach na zmiennej lingwistycznej gdzie uto偶samia si臋 ja z intensyfikatorem „bardzo”

渭(x) = [渭(x)]

operacja ta w znaczeniu lingwistycznym oznacza „mniej wi臋cej”

渭(x) = 渭(x) * 渭(x)

渭(x) = min {1, 渭(x) + 渭(x)}

渭(x) = max {0, 渭(x) - 渭(x)}

渭(x) = max {0, 渭(x) + 渭(x) - 1}

渭(x) =

Zbi贸r A zawiera si臋 w zbiorze B to jest A鈯侭 je艣li dla wszystkich element贸w zachodzi nier贸wno艣膰:

渭(xi) 鈮 渭(xi)

Zbiory rozmyte (ang. fuzzy sets) s膮 wykorzystywane do formalnego okre艣lania nieostrych, nieprecyzyjnych lub wieloznacznych poj臋膰, np. "wysokie drzewo", "pi臋kny krajobraz", itd. Maj膮 one swoje 藕r贸d艂o w rozwoju teorii sterowania, teorii system贸w i zw. logik wielowarto艣ciowych. Zauwa偶ono, bowiem, 偶e chocia偶 umys艂 ludzki jest zdolny do rozumowania w kategoriach przybli偶onych, to mimo to jest w stanie przetwarza膰 dane przybli偶one i niejednoznaczne oraz wyznacza膰 przybli偶one rozwi膮zania, czego nie s膮 w stanie zrobi膰 komputery dzia艂aj膮ce w oparciu o 艣cis艂e regu艂y. W teorii zbior贸w rozmytych funkcja charakterystyczna zosta艂a uog贸lniona i nazywa si臋 funkcj膮 przynale偶no艣ci. Przyporz膮dkowuje ona ka偶demu elementowi zbioru warto艣ci z przedzia艂u [0,1], zamiast tylko jedn膮 z warto艣ci z dwuelementowego zbioru {0,1}, jak to jest w klasycznej teorii zbiory.

Logiczn膮 podstaw膮 poj臋cia podzbioru rozmytego jest logika wielowarto艣ciowa. Podzbi贸r rozmyty umo偶liwia opisanie poj臋膰, kt贸rych granica mi臋dzy posiadaniem pewnej w艂asno艣ci i jej brakiem jest rozmyta.

    1. Zadania realizowane przez sieci neuronowe - architektura przyk艂adowych sieci i metody uczenia.

SIE膯 NEURONOWA - jest r贸wnoleg艂ym systemem wieloprocesorowym, zorganizowanym na wz贸r struktur przetwarzania w biologicznej sieci neuronowej (w m贸zgu cz艂owieka). Podstawowym elementem tej sieci jest prosty procesor dokonuj膮cy dwuwarto艣ciowej selekcji sumarycznego pobudzenia wej艣膰 i wytwarzaj膮cy jedno z alternatywnych wyj艣膰 odpowiadaj膮cych pobudzeniu podprogowemu i ponad progowemu. Wielko艣膰 pobudzenia jest funkcj膮 wag poszczeg贸lnych wej艣膰, w procesie uczenia warto艣ci wag s膮 modyfikowane. Procesor realizuj膮cy tak膮 funkcj臋 jest nazywany neuronem, przez analogi臋 do sieci biologicznej.

ZADANIA REALIZOWANE PRZEZ SIECI NEURONOWE

METODY UCZENIA SIECI

  1. Uczenie pod NADZOREM

Przy tym uczeniu ka偶demu wektorowi wej艣ciowemu towarzyszy zadany wektor wyj艣ciowy. Dane ucz膮ce s膮 podane w postaci par ucz膮cych.

Celem uczenia pod nadzorem minimalizacja odpowiednio zdefiniowanej funkcji celu, kt贸ra w wyniku umo偶liwi dopasowanie warto艣ci aktualnych odpowiedzi neuron贸w wyj艣ciowych do warto艣ci 偶膮danych dla wszystkich par ucz膮cych.

  1. Uczenie z KRYTYKIEM

Uczenie z krytykiem jest odmian膮 uczenia pod nadzorem, w kt贸rym nie wyst臋puje informacja o warto艣ciach 偶膮danych na wej艣ciu systemu a jedynie informacja czy podj臋ta przez system akcja daje wyniki pozytywne w sensie po偶膮danego zachowania systemu czy negatywne.

  1. Uczenie samoorganizuj膮ce si臋 typu HEBBA

W modelu Hebba wykorzystuje si臋 wynik obserwacji neurobiologicznych zgodnie, z kt贸rymi waga powi膮za艅 mi臋dzy dwoma neuronami wzrasta przy jednoczesnym stanie pobudzenia obu neuron贸w w przeciwnym wypadku maleje.

  1. Uczenie samoorganizuj膮ce si臋 typu KONKURENCYJNEGO

W uczeniu typu konkurencyjnego neurony wsp贸艂zawodnicz膮 ze sob膮, aby sta膰 si臋 aktywnymi (pobudzonymi). W odr贸偶nieniu do uczenia Hebba gdzie dowolna liczba neuron贸w mo偶e by膰 aktywna w uczeniu konkurencyjnym tylko jeden z neuron贸w mo偶e by膰 aktywny a pozosta艂e pozostaj膮 w stanie spoczynku z tego powodu uczenie to nosi tez nazw臋 WTA (Winner Takes All). Uczenie typu WTA nie wymaga nauczyciela i odbywa si臋 zwykle z zastosowaniem znormalizowanych wektor贸w wyj艣ciowych

Uczenie metod膮 wstecznej propagacji b艂臋d贸w:

Pierwsz膮 czynno艣ci膮 w procesie uczenia jest przygotowanie dw贸ch ci膮g贸w danych: ucz膮cego i weryfikuj膮cego. Ci膮g ucz膮cy jest to zbi贸r takich danych, kt贸re w miar臋 dok艂adnie charakteryzuj膮 dany problem. Jednorazowa porcja danych nazywana jest wektorem ucz膮cym. W jego sk艂ad wchodzi wektor wej艣ciowy, czyli te dane wej艣ciowe, kt贸re podawane s膮 na wej艣cia sieci i wektor wyj艣ciowy, czyli takie dane oczekiwane, jakie sie膰 powinna wygenerowa膰 na swoich wyj艣ciach. Po przetworzeniu wektora wej艣ciowego, nauczyciel por贸wnuje warto艣ci otrzymane z warto艣ciami oczekiwanymi i informuje sie膰 czy odpowied藕 jest poprawna, a je偶eli nie, to, jaki powsta艂 b艂膮d odpowiedzi. B艂膮d ten jest nast臋pnie propagowany do sieci, ale w odwrotnej ni偶 wektor wej艣ciowy kolejno艣ci (od warstwy wyj艣ciowej do wej艣ciowej) i na jego podstawie nast臋puje taka korekcja wag w ka偶dym neuronie, aby ponowne przetworzenie tego samego wektora wej艣ciowego spowodowa艂o zmniejszenie b艂臋du odpowiedzi. Procedur臋 tak膮 powtarza si臋 do momentu wygenerowania przez sie膰 b艂臋du mniejszego ni偶 za艂o偶ony. Wtedy na wej艣cie sieci podaje si臋 kolejny wektor wej艣ciowy i powtarza te czynno艣ci. Po przetworzeniu ca艂ego ci膮gu ucz膮cego (proces ten nazywany jest epok膮) oblicza si臋 b艂膮d dla epoki i ca艂y cykl powtarzany jest do momentu, a偶 b艂膮d ten spadnie poni偶ej dopuszczalnego. Jak to ju偶 by艂o zasygnalizowane wcze艣niej, SSN wykazuj膮 tolerancj臋 na nieci膮g艂o艣ci, przypadkowe zaburzenia lub wr臋cz niewielkie braki w zbiorze ucz膮cym. Jest to wynikiem w艂a艣nie zdolno艣ci do uog贸lniania wiedzy.

Algorytm uczenia Kohonena:

Sie膰 Kohonena posiada tylko dwie warstwy: warstw臋 wej艣ciow膮 oraz warstw臋 wyj艣ciow膮, sk艂adaj膮c膮 si臋 z neuron贸w radialnych. Warstwa ta znana jest r贸wnie偶 jako warstwa tworz膮ca map臋 topologiczn膮, poniewa偶 takie jest jej najcz臋stsze zastosowanie. Neurony w warstwie tworz膮cej map臋 topologiczn膮 s膮 rozwa偶ane w taki spos贸b, jakby by艂y rozmieszczone w przestrzeni wed艂ug jakiego艣 ustalonego wzoru.

Sieci Kohonena uczone s膮 przy wykorzystaniu algorytmu iteracyjnego. Rozpoczynaj膮c od pocz膮tkowych, wybranych w spos贸b losowy centr贸w radialnych, algorytm stopniowo modyfikuje je w taki spos贸b, aby odzwierciedli膰 skupienia wyst臋puj膮ce w danych ucz膮cych.

Siec Hopfielda:

Struktur臋 sieci Hopfielda mo偶na opisa膰 bardzo prosto - jest to uk艂ad wielu identycznych element贸w po艂膮czonych metod膮 ka偶dy z ka偶dym. Jest, zatem najcz臋艣ciej rozpatrywana jako struktura jednowarstwowa. W odr贸偶nieniu od sieci warstwowych typu perceptron sie膰 Hopfielda jest sieci膮 rekurencyjn膮, gdzie neurony s膮 wielokrotnie pobudzane w jednym cyklu rozpoznawania, co uzyskuje si臋 poprzez p臋tle sprz臋偶enia zwrotnego.

Wagi po艂膮cze艅 wyliczane s膮 w sieci Hopfielda a priori, jej faza uczenia ogranicza si臋 do wyliczenia warto艣ci wag zgodnie zasad膮 uczenia Hebba.

ZASTOSOWANIE SIECI NEURONOWYCH

Sztuczne sieci neuronowe maj膮 zastosowanie w dzia艂aniach wymagaj膮cych kojarzenia, rozpoznawania i przewidywania na podstawie poznanych wcze艣niej danych. SSN znajduj膮 zastosowanie r贸wnie偶 tam, gdzie ze wzgl臋du na z艂o偶ono艣膰 opisywanego procesu czy obiektu trudno jest sformu艂owa膰 klasyczny model.

Sztuczne sieci neuronowe stosowane s膮 w wielu problemach, g艂ownie takich, gdzie nie sprawdzaj膮 si臋 metody tradycyjne i analityczne. Problemy te mo偶na sklasyfikowa膰 w kilku grupach, nie zawsze roz艂膮cznych:

- aproksymacja

- autoasocjacja

- klasyfikacja

- podobie艅stwo, rozpoznawanie

- analiza czynnik贸w g艂贸wnych - (przyk艂adem zastosowania mo偶e by膰 diagnostyka medyczna. Je艣li na wej艣ciu sieci zaprezentujemy objawy wyst臋puj膮ce u pacjenta, zdefiniujemy czynniki g艂贸wne jako jednostki chorobowe zwi膮zane z pewnymi zespo艂ami objaw贸w, to sie膰 poda na wyj艣ciu w jakim stopniu ka偶da z okre艣lonych jednostek chorobowych dotyczy prezentowanego zbioru objaw贸w rozpatrywanego przypadku klinicznego.)

- kodowanie i dekodowanie

- uog贸lnienie

- optymalizacja - (szukanie wzgl臋dnego maksimum i minimum pewnej funkcji, gdy inne metody zawodz膮 lub sa zbyt wolne, a maks czy min globalne nie jest konieczne. Problem komiwoja偶era. W problemach optymalizacyjnych cz臋sto wykorzystywane s膮 sieci rekurencyjne Hopfielda. )

ZASTOSOWANIE:

- zastosowanie w sterowaniu

- po偶yczki bankowe - ocena ryzyka przed udzieleniem pozyczki.

- gie艂da - przewidywanie zachowanai si臋 gie艂dy

- rozpoznawanie pisma r臋cznego

- rozpoznawanie znak贸w drukowanych

- walka z przest臋pczo艣ci膮 (wykrywanie fa艂szerstw zwi膮zanych z wykorzystaniem kart kredytowych.)

  1. Algorytmy genetyczne, programowanie genetyczne, programowanie ewolucyjne, podstawowe poj臋cia , strategie algorytmy.

ALGORYTMY GENETYCZNE

S膮 to algorytmy optymalizacyjne, kt贸rych zasady dzia艂ania oparte s膮 na mechanizmach znanych od stuleci a mianowicie na mechanizmach doboru naturalnego i dziedziczno艣ci. Zasada prze偶ycia najlepszych osobnik贸w zosta艂a przeniesiona wprost do algorytm贸w genetycznych.

Celem optymalizacji jest zwi臋kszenie efektywno艣ci a偶 do osi膮gni臋cia pewnego optimum, takiego rezultatu, kt贸ry b臋dzie najbardziej odpowiedni dla badanego przypadku.

Chromosomy s膮 to uporz膮dkowane zbiory gen贸w, ci膮gi kodowe sk艂adaj膮ce si臋 z gen贸w. W algorytmach genetycznych jako chromosomy b臋dziemy rozumieli binarny ci膮g kodowy.

Genem nazywamy cech臋, znak, detektor. Jest to pojedynczy element genotypu a w szczeg贸lno艣ci chromosomu.

Obecnie wyr贸偶niamy 3 metody poszukiwania: metody analityczne, metody enumeracyjne i metody losowego poszukiwania rozwi膮za艅.

Metody enumeracyjne s膮 to metody oparte na przeszukiwaniu ca艂ej przestrzeni rozwi膮za艅 i obliczanie dla ka偶dego punktu warto艣ci funkcji celu.

Dla ka偶dego punktu w przestrzeni poszukiwa艅 wyliczana jest warto艣膰 funkcji przystosowania. Wynikiem jest najlepszy zapami臋tany rezultat.

Algorytmy genetyczne wykorzystuj膮 elementy losowego wyboru jako przewodnika w prowadzeniu wysoce ukierunkowanego poszukiwania przestrzeni rozwi膮za艅. Takie metody poszukiwa艅 z elementami losowego wyboru nazywamy technikami zrandomizowanymi.

Na klasyczny algorytm genetyczny, nazywanym tak偶e elementarnym lub prostym algorytmem genetycznym , sk艂adaj膮 si臋 nast臋puj膮ce kroki:

- inicjacja czyli wyb贸r pocz膮tkowej populacji chromosom贸w

- ocena przystosowania chromosom贸w

- sprawdzanie warunku zatrzymania,

- selekcja chromosom贸w,

- zastosowanie operator贸w genetycznych,

- utworzenie nowej populacji

- wynik w postaci „najlepszego” osobnika.

Inicjacja, czyli utworzenie populacji pocz膮tkowej, polega na wyborze 偶膮danej liczby chromosom贸w reprezentowanych przez ci膮gi binarne okre艣lonej d艂ugo艣ci.

Ocena przystosowania chromosom贸w w populacji polega na obliczeniu warto艣ci funkcji przystosowania (funkcji celu np. f(x)= x^2) dla ka偶dego chromosomu z tej populacji. Im wi臋ksza jest warto艣膰 tej funkcji, tym lepsza ”jako艣膰” chromosomu.

Sprawdzenie warunku zatrzymania. Okre艣lenie warunku zatrzymania algorytmu genetycznego zale偶y od konkretnego zastosowania tego algorytmu i mo偶e nast膮pi膰 w przypadkach gdy:

- uzyskamy warto艣膰 maksymaln膮 znan膮 wcze艣niej

- nie poprawia si臋 uzyskiwana warto艣膰 (np. je艣li przez 3 generacje wynik si臋 nie zmieni)

- po okre艣lonej liczbie generowanych populacji (np. przetwarzania ma trwa膰 6 generacji)

Selekcja chromosom贸w polega na wybraniu, na podstawie obliczonych warto艣ci funkcji przystosowania, tych chromosom贸w, kt贸re b臋d膮 bra艂y udzia艂 w tworzeniu potomk贸w do nast臋pnego pokolenia, czyli nast臋pnej generacji. Najcz臋艣ciej stosowana jest metoda ruletki. (na podstawie wzoru wyliczany jest wycinek okr臋gu dla ka偶dego chromosomu). Selekcja chromosomu mo偶e by膰 widziana jako obr贸t ko艂em ruletki.

Do operator贸w genetycznych zaliczamy krzy偶owanie i mutacj臋.

Krzy偶owanie polega na wymianie informacji genetycznej (bit贸w) mi臋dzy parami chromosom贸w.

- kojarzymy losowo chromosomy w pracy rodzic贸w

- dla ka偶dej pary wybieramy losowo punkt krzy偶owania

- i zamieniamy pary potomk贸w

Mutacja polega na wymianie pojedynczego bitu w chromosomie z bardzo ma艂ym prawdopodobie艅stwem.

- dla ka偶dego genu w chromosomach potomk贸w sprawdzamy prawdopodobie艅stwo mutacji.

Utworzenie nowej populacji. Chromosomy otrzymane w wyniku dzia艂ania operator贸w genetycznych na chromosomy tymczasowej populacji rodzicielskiej wchodz膮 w sk艂ad nowej populacji.

Wprowadzenie najlepszego chromosomu. Je偶eli spe艂niony jest warunek zatrzymania algorytmu genetycznego, nale偶y wprowadzi膰 wynik dzia艂ania algorytmu w postaci najlepszego chromosomu.

0x01 graphic

1



Wyszukiwarka

Podobne podstrony:
Egzamin, C. Podstawy podejmowania decyzji i in偶ynierii wiedzy, C
Etap podstawowy XXV Olimpiady Wiedzy Ekologicznej ODPOWIEDZI
in偶, administracja, II ROK, III Semestr, podstawy budownictwa + in偶ynieria komunikacyjna
Podstawy geodezji Inzynieria Srodowiska S 2013 2014
Podsta~1-wyk艂ady, in偶ynieria ochrony 艣rodowiska kalisz, Rok 1 IOS, Ekonomia
Podstawy projektowania inzynierskiego
Katedra In偶ynierii Wiedzy
pytania1, administracja, II ROK, III Semestr, podstawy budownictwa + in偶ynieria komunikacyjna, od Da
Przedszkole2, Zarz膮dzanie i in偶ynieria produkcji, Semestr 6, Podstawy projektowania in偶ynierskiego,
pytania&odp teoretyczne, administracja, II ROK, III Semestr, podstawy budownictwa + in偶ynieria komun
sprawko 3, studia, semestr V, podstawy projektowania inzynierskiego II, Podstawy projektowania in偶yn
drzewo niezdatno艣ci, Podstawy projektowania in偶ynierskiego
Do kolokwium, Pytania do kolokwium z PPI nr2, PYTANIA DO KOLOKWIUM NR 2 Z WYK艁AD脫W „PODSTAWY P
Do kolokwium, Pytania do kolokwium z PPI nr2, PYTANIA DO KOLOKWIUM NR 2 Z WYK艁AD脫W „PODSTAWY P
Podstawy politologii konspekt wiedzy
Etap podstawowy XXVI Olimpiady Wiedzy Ekologicznej TEST
Etap podstawowy XXIII Olimpiady Wiedzy Ekologicznej TEST
Etap podstawowy XXIV Olimpiady Wiedzy Ekologicznej TEST
Podstawy Grafiki Inzynierskiej Nieznany

wi臋cej podobnych podstron