1
Sztuczna inteligencja sem. VI wykładE 30 godz.
Podstawowe Zadaniem przedmiotu jest wprowadzenie do
cele wykładu aktualnych metod i zastosowań nowej, rozwijającej się
od kilkunastu lat, dziedziny informatyki, zwanej
sztuczną inteligencją, a mówiąc ściślej inteligencją
obliczeniową.
Definicja pojęcia sztucznej inteligencji. Słaba i silna sztuczna
inteligencja. Test Turinga i Chiński pokój . Główne działy sztucznej
inteligencji.
Ogólny przegląd metod sztucznej inteligencji. Automatyczne
wnioskowanie. Transmutacje wiedzy. Inteligentne przeszukiwanie.
Metody heurystyczne. Maszynowe uczenie się. Algorytmy mrówkowe.
Odkrywanie asocjacji i wzorców sekwencji. Boty.
Inteligentne przeszukiwanie i uczenie się systemów
Sztuczne sieci neuronowe.
Algorytmy ewolucyjne.
Zbiory rozmyte. Wnioskowanie rozmyte i sterowanie rozmyte.
Zbiory przybliżone. Drzewa i tablice decyzyjne oparte na teorii
zbiorów przybliżonych.
Grupowanie danych i odkrywanie wiedzy.
Systemy hybrydowe.
Literatura podstawowa:
1. Leszek Rutkowski: Metody i techniki sztucznej inteligencji,
Wydawnictwo Naukowe PWN, Warszawa 2006
2. Piotr Cichosz: Systemy uczące się, Wydawnictwo Naukowo-
Techniczne, Warszawa, 2000
Literatura uzupełniająca:
1. S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, Wydawnictwa
Naukowo-Techniczne, Warszawa 1999.
2. J. Arabas, Wykłady z algorytmów ewolucyjnych, Wydawnictwa
Naukowo-Techniczne, Warszawa 2001.
2
Definicja pojęcia sztucznej inteligencji
Sztuczna inteligencja (Artificial inteligence AI) jest dziedziną badań na
pograniczu informatyki i innych dziedzin pokrewnych, której celem jest
tworzenie systemów informatycznych (i maszyn) posiadających takie
cechy jak:
- zdolność uczenia się i pozyskiwania wiedzy,
- adaptacyjność, to jest zdolność przystosowywania się do zmiennych
warunków otoczenia,
- autonomiczność.
Wymienione wyżej cechy są charakterystyczne dla inteligencji ludzkiej,
stąd termin sztuczna inteligencja. Literatura przedmiotu dzieli dziedzinę
sztucznej inteligencji na dwa działy:
- silną sztuczną inteligencję,
- słabą sztuczną inteligencję.
Pierwsza z nich zakłada możliwość zbudowania systemów myślących o
poziomie intelektualnym zbliżonym do ludzkiego, lub nawet go
przewyższającym. Stąd silne powiązania tej dziedziny z takimi
dziedzinami nauki, jak: psychologia, neurofizjologia, filozofia i
lingwistyka. W rezultacie wykształciła się nowa dziedzina badań zwana
kognitywistyką, która zajęła się głównie badaniem i modelowaniem
działania umysłu. Zagadnieniami tymi nie będziemy się zajmowali.
Słaba sztuczna inteligencja zajmuje się natomiast problemami
szczegółowymi o dobrze określonych celach i kryteriach ich osiągnięcia.
Stąd coraz bardziej ugruntowuje się termin inteligencja obliczeniowa na
określenie słabej sztucznej inteligencji. Używa się też określenia soft
computing. Jest ona częścią informatyki i jak przystało na dziedzinę
inżynierską jest często stymulowana przez zastosowania praktyczne. W
dalszej części wykładu pod pojęciem sztucznej inteligencji rozumieć
będziemy właśnie ową słabą sztuczną inteligencję. Dziedzina ta
wykorzystuje takie dziedziny matematyki i innych nauk pokrewnych, jak:
- logika formalna,
- teoria automatów,
- teoria zbiorów rozmytych,
- teoria zbiorów przybliżonych,
- rachunek prawdopodobieństwa i statystyka.
3
Ogólny przegląd metod sztucznej inteligencji:
- automatyczne wnioskowanie,
- transmutacje wiedzy,
- inteligentne przeszukiwanie,
- stosowanie heurystyk,
- algorytmy mrówkowe,
- maszynowe uczenie się,
- odkrywanie asocjacji i wzorców sekwencji,
- boty.
Automatyczne wnioskowanie
Metody te opierają się na osiągnięciach logiki formalnej.
Niech P oznacza zbiór przesłanek, W wiedzę posiadaną przez system,
K zbiór konkluzji (wniosków).
Do opisu wnioskowania wykorzystuje się znany związek logicznej
konsekwencji P Ł Wś= K, gdzie ś= jest symbolem logicznej
konsekwencji.
wiedza W
system wnioskujący
przesłanki P konkluzje K
Rys. 1. System dedukcyjny wykorzystujący związek logicznej
konsekwencji
Metody automatycznego wnioskowania stanowią podstawę tzw.
systemów eksperckich oraz systemów automatycznego dowodzenia
twierdzeń.
Powyższe związek jest też często wykorzystany w systemach uczących
się. Jeśli za zbiór przesłanek podstawimy informacje trenującą, wówczas
otrzymany zbiór konkluzji możemy uznać za nową wiedzę nabytą przez
system. Wiedze tę system może wykorzystać w dalszym procesie uczenia
się. Taki rodzaj uczenia się nazywamy też uczeniem dedukcyjnym. Jego
właściwością jest zachowanie prawdy . Bowiem tylko z prawdziwości
przesłanek P wynika prawdziwość konkluzji logicznej K.
4
Wyobrazmy teraz sobie, że K jest informacją trenującą, a P jest
generowaną w procesie uczenia się nową wiedzą. To samo równanie
opisywać teraz będzie wnioskowanie indukcyjne, czyli uczenie
indukcyjne. Teraz z prawdziwości K wcale nie musi wynikać
prawdziwość P. Jedyne co naprawdę wiadomo to, że jeśli K jest fałszywe,
to P też musi być fałszywe, ale fakt ten trudno wykorzystać w praktyce.
Rozumowanie dedukcyjne w odróżnieniu od rozumowania
indukcyjnego nie wymaga tworzenia nowych twierdzeń czy pojęć, lecz
jest tylko prostym wyciąganiem wniosków.
Przykład: { każdy prostokąt jest czworokątem; suma kątów czworokąta
wynosi 360 stopni} {suma kątów prostokąta wynosi 360 stopni}.
Problem: Na czym polega tu błąd rozumowania dedukcyjnego?
{wszystkie ryby mają płetwy; nurek ma płetwy} {nurek jest rybą}.
Indukcja logiczna to sposób rozumowania polegający na
wyprowadzaniu nowych pojęć, twierdzeń lub sugerowaniu możliwości
zaistnienia nowych faktów na podstawie intuicyjnej analizy wejściowych
przesłanek. Indukcji logicznej nie należy mylić z indukcją matematyczną,
gdyż mimo zbieżności nazwy pojęcia te nie mają z sobą wiele wspólnego.
Indukcja to rozumowanie "w odwrotnym kierunku" - ze zbioru
przesłanek wyprowadzamy wniosek ogólny, teorię czy prawo. Na
przykład, na podstawie wielokrotnej obserwacji można zauważyć, że
przed deszczem jaskółki latają nisko nad ziemią. Wniosek - jeżeli jaskółki
nisko latają, to znaczy, że będzie padać deszcz. Takie wnioskowanie nie
musi zawsze jednak prowadzić do prawdziwych konkluzji, gdyż z tego, że
coś wydarzyło się wiele razy, nie wynika jeszcze, że zdarzy się następnym
razem.
Intuicja (wg. Kopalińskiego) to wyczucie, przeczucie; albo: proces
bezpośredniego uzyskiwania wiedzy, pewność w jakiejś sprawie bez
rozumowania, lub wnioskowania. Intuicja jest więc procesem myślowym
polegającym na dopasowaniu danej sytuacji, problemu, zagadnienia do
znanych już szablonów i zależności.
W uczeniu opartym na wnioskowaniu indukcyjnym wiedza nabyta i
informacja trenująca nie wyznaczają jednoznacznie hipotezy indukcyjnej.
Zależy ona również od algorytmu wnioskującego.
5
Rzeczywiste myślenie człowieka jest ciągiem wnioskowań
dedukcyjnych, intuicyjnych, wnioskowania na podstawie wzorców i
transmutacji wiedzy nabytej.
Transmutacje wiedzy
Są to różnego rodzaju przekształcenia (dedukcyjne, lub indukcyjne)
stosowane do wiedzy wrodzonej lub nabytej i informacji trenującej, w
celu generowania nowej wiedzy. Wiedza ta ma zwykle postać opisów
odnoszących się do obiektów pewnej dziedziny.
W inferencyjnej teorii uczenia się przekształcenia te są pogrupowane
w pary transmutacji o działaniu w przybliżeniu odwrotnym:
Generalizacja/specjalizacja transmutacja polegająca na
poszerzaniu/zawężaniu zbioru obiektów, do którego odnosi się opis
Abstrakcja/konkretyzacja transmutacja polegająca na
zmniejszaniu/zwiększaniu liczby szczegółów, do których odnosi się
opis
Podobieństwo/kontrastowanie transmutacja polegająca na
generowaniu wiedzy o pewnych zbiorach na podstawie
ich podobieństwa/różnic w stosunku do innych zbiorów obiektów
Wyjaśnianie/predykcja transmutacja polegająca na
znajdowaniu wiedzy wyjaśniającej wiedzę posiadaną wcześniej, lub
na przewidywaniu na jej podstawie nowej wiedzy.
Wymieniono tylko główne transmutacje wiedzy.
W inferencyjnej teorii uczenia się twierdzi się, że zapominanie jest
wynikiem konkurencji (wzajemnego oddziaływania na siebie) reakcji
należących do dwóch zdań A i B. W sytuacji przypominania lub
ponownego uczenia się pierwszego zadania A, reakcje należące do
drugiego zadanie B przeszkadzają w przywołaniu zdania.
Inteligentne przeszukiwanie i uczenie się systemów
D. Harel daje następujący przykład: Komuś upada soczewka kontaktowa.
Osoba A schyla się i szuka po omacku (na ślepo) szukanie nie
gwarantuje znalezienie rozwiązania w przewidywalnym czasie.
6
Osoba B stosuje przeszukiwanie wyczerpujące rozszerzając
przeszukiwaną przestrzeń w sposób metodyczny i zorganizowany. Metoda
zawsze gwarantuje sukces, ale może być bardzo czasochłonna.
Osoba C stosuje przeszukiwanie analityczne rozwiązując równania
matematyczne uwzględniające opór powietrza, siłę i kierunek wiatru, itd.
Metoda powinna gwarantować sukces, ale jest bardzo uciążliwa i
niepraktyczna.
Osoba D podejmuje przeszukiwanie heurystyczne określając
przybliżony kierunek upadku i domyślając się na jaka odległość może
upaść szkło. Jest to najbardziej naturalna dla człowieka (inteligencji
naturalnej) metoda przeszukiwania.
Z powyższych metod tylko przeszukiwanie heurystyczne zaliczamy do
metod sztucznej inteligencji.
Osoba L może podjąć przeszukiwanie leniwe polegające na znalezieniu
najbliższego optyka i zakupie nowego szkła kontaktowego. Ta metoda też
bywa bardzo naturalna dla człowieka (to żart oczywiście !!!)
Przeszukiwanie wyczerpujące
Zakłada się tutaj, że problem jest charakteryzowany przez przestrzeń
możliwych stanów z wyróżnionymi stanami końcowymi. Oczekuje się
optymalnego (wg. pewnych kryteriów) rozwiązania, zwykle w postaci
osiągnięcia jednego ze stanów końcowych przy możliwie małym zużyciu
pamięci i czasu obliczeń.
Przeszukiwania wyczerpującego zawsze wiąże się z potrzebą dużych
zasobów pamięci lub/i bardzo dużych (wykładniczych) czasów obliczeń.
21 22 23 24 25
16 17 18 19 20
11 12 13 14 15
6 7 8 9 10
1 2 3 4 5
Rys. 2. Poszukiwanie drogi w labiryncie jako modelowy przykład
przeszukiwania wyczerpującego
7
Przeszukiwanie dynamiczne przestrzeni stanów (gry)
Tutaj przestrzeń możliwych stanów zostaje jeszcze rozszerzona na
skutek reakcji przeciwnika, który dąży do maksymalizacji swoich celów
minimalizując szansę na znalezienie optymalnego rozwiązania przez
gracza pierwszego. Prowadzi to do przeszukiwania drzewa gry,
powstałego przez rozważenie sytuacji wynikających z możliwych do
wykonania ruchów gracza, następnie dla każdej z tych sytuacji,
rozważenie konsekwencji możliwych ruchów przeciwnika.
Metody heurystyczne
Metody heurystyczne były pierwszymi metodami sztucznej inteligencji
wspierającymi przeszukiwanie przestrzeni stanów (lata 50-te XX wieku).
Jak wiadomo, metody heurystyczne na ogół nie dają gwarancji poprawy
efektywności w przypadku pesymistycznym, lecz wyraznie poprawiają
oczekiwaną efektywność w przypadku przeciętnym. Najczęściej opierają
się one na liczbowym szacowaniu jakości stanów (np. ze względu na
odległość do stanu końcowego) w przypadku przeszukiwania
wyczerpującego, lub całych sytuacji występujących w grze ze względu na
szansę zwycięstwa w przypadku przeszukiwania dynamicznego (gry).
Dla przykładu poszukiwania ścieżki w labiryncie (zarówno dla
statycznych, jak i dynamicznych przegród) metoda heurystyczna mogłaby
polegać na wyborze ze zbioru możliwych położeń następnych, tych
położeń, których indeks jest możliwie duży. Naturalnie jeśli droga w
labiryncie wiedzie od położenia o niskiej wartości indeksu do położenia o
wysokiej wartości indeksu.
Algorytmy mrówkowe
Zasadą działania algorytmu mrówkowego jest naśladowanie zachowań
społecznych mrówek a raczej ich sposobu poszukiwania najkrótszej
drogi od mrowiska do pożywienia. Mrówki wędrując pozostawiają na
przebytej drodze substancję zwaną feromonem. Poszczególne osobniki
decydują o wyborze dalszej drogi na podstawie ilości feromonu
pozostawionego przez poprzedniczki.
Oczywiście osobnik, który znajdzie najwcześniej najkrótszą drogę od
mrowiska do pożywienia, najwcześniej pozostawi feromon na swojej
8
trasie. Kolejne mrówki opuszczające mrowisko, lub do niego
powracające, będą zatem preferowały tę trasę.
Tego rodzaju zachowania nazywamy komunikacją pośrednią między
osobnikami. Jest to rodzaj uczenia się grupowego,lub mówiąc inaczej
inteligencji grupowej. Algorytmy mrówkowe są blisko spokrewnione z
metodami uczenia się ze wzmocnieniem. Metodę tę poznamy przy
okazji poznawania sztucznych sieci neuronowych.
Początkowo algorytmy mrówkowe (AM) zastosowano do rozwiązania
problemu komiwojażera i problemu plecakowego (przełom XX i XXI
wieku). Znane są zastosowania AM do rozwiązywania problemów
harmonogramowania produkcji. Powstają również metody hybrydowe
łączące AM z innym metodami sztucznej inteligencji, na przykład z
algorytmem genetycznym.
Główne różnice w zachowaniu sztucznych mrówek w porównaniu z
rzeczywistymi:
poruszają się zwykle między wierzchołkami grafu,
szybkość zaniku śladu feromonowego można regulować,
ilość feromonu zostawionego przez mrówkę, zależy od jakości
otrzymanego przez nią rozwiązania.
Rozwiązywane przez algorytmy mrówkowe problemy należą do tzw.
problemów kombinatorycznej optymalizacji. Klasyczny problem z tej
dziedziny to problem komiwojażera. Złożoność obliczeniowa tego
problemu jest taka, że już dla kilkunastu miast klasyczny algorytm
przeszukiwania wyczerpującego potrzebuje wykonać liczbę operacji rzędu
109.
Algorytmy mrówkowe znalazły zastosowanie w takich dziedzinach,
jak: sortowanie sekwencyjne, wyznaczanie tras pojazdów, wyznaczanie
tras w sieciach komputerowych i telekomunikacyjnych. Sztuczne
mrówki pracują m. in. w sieciach France Telecom i British
Telecommunications kształtując połączenia tak, aby omijać przeciążone w
danej chwili odcinki sieci.
9
Rys. 3. Porównanie średniej procentowej ilości mrówek, które docierały
do pokarmu w kolejnych cyklach obliczeń algorytmu
mrówkowego dla przypadków kiedy: czuły feromon , miały
wyłączone czucie feromonu, oraz - wybierając kolejny punkt
grafu uwzględniały odległości między punktami grafu.
( dane pochodzą w badań autora wykładu).
Interesującą aplikację, wykonaną przez studentów Uniwersytetu
Wrocławskiego, rozwiązującą problem komiwojażera znalezć można
pod adresem
http://www.iis.pwr.wroc.pl/~kwasnick/lindaabrichwww/index.html
Maszynowe uczenie się
Uczenie się można w przybliżeniu zdefiniować jako proces zmian
autonomicznie zachodzących w systemie na podstawie jego
doświadczeń prowadzących do poprawy jego jakości działania.
Maszynowe uczenie się należy do najważniejszych działów
sztucznej inteligencji. Systemy uczące się mają też bezpośrednie
odniesienie do dwóch innych głównych działów sztucznej
inteligencji: automatycznego wnioskowania i przeszukiwania
heurystycznego.
10
Inferencyjna teoria uczenia się opisuje to uczenie jako proces
wnioskowania na podstawie wiedzy wrodzonej i informacji
trenującej, realizowany za pomocą różnych transmutacji wiedzy, w
wyniku którego powstaje nowa wiedza, zapamiętywana następnie
przez system.
Najważniejsze zastosowania systemów uczących się, to:
odkrywanie wiedzy w bazach danych, automatyczne sterowanie,
adaptacyjne interfejsy użytkownika, i wiele innych.
Odkrywanie asocjacji i wzorców sekwencji
Odkrywanie w danych zależności asocjacyjnych sprowadza się do
wydobywania z nich statystycznie istotnego współwystępowania pewnych
określonych wartości atrybutów.
Owo współwystępowanie można opisać za pomocą reguł
asocjacyjnych. Każda z nich zawiera dwie listy wartości atrybutów, z
których jedna jest listą wartości warunkujących, a druga listą wartości
warunkowanych. Wzorce sekwencji dotyczą współwystępowania
wartości atrybutów w układach z pewną dynamiką.
Boty (inteligentni agenci)
Są to inteligentne programy komputerowe służące najczęściej do
przeszukiwania i pozyskiwania wiedzy. Inteligentne boty mogą
dodatkowo podejmować decyzje na bazie wcześniej zdobytej wiedzy.
Wymieńmy najczęściej identyfikowane boty:
chatterboty automaty do pogawędek,
searchboty zajmują się automatyczną obsługą baz danych,
shoppingboty pomagają przy robieniu zakupów przez Internet,
databoty są oparte na sieciach neuronowych z funkcjonalnością
podobną do searchbotów,
updateboty służą do uaktualniania danych i programów
użytkownika,
infoboty programy automatycznie udzielające odpowiedzi za
pomocą poczty elektronicznej.
Najbardziej znanym botem jest chyba ALICE (Artifical Linguistic Internet
Computer Entity www.alicebot.org). Swoją sławę zawdzięcza
11
użytkownikom, z którymi rozmawiał, wzbogacając swoją wiedzę. Nie
zdołał jednak przejść testu Turinga.
Poniżej zestawienie wyników gry mistrza szachowego z komputerem.
Widać znaczenie posiadanej wiedzy w stosunku do posiadania nawet
ogromnej informacji.
Rok 1996, Garii Kasparow maszyna Deep Blue, wynik 4:2
Rok 1997, porównanie w tabeli poniżej
Gracz Własności Liczba analizowanych Baza wiedzy Wynik
stanów / sek.
Garii 2,5
Kasparow
Deep Blue II 256 procesorów 200 mln / sek Wszystkie 3,5
otwarcia z
ostatnich 100
lat + miliard
możliwych
końcówek gry
Rok 2003, porównanie w tabeli poniżej
Gracz Własności Liczba analizowanych Baza wiedzy Wynik
stanów / sek.
Garii Do 3 pozycji / sek 3
Kasparow
Deep Junior 7 8 procesorów 3-7 mln / sek Duża, 3
ukształtowana
baza wiedzy
Co dalej ? Rozdział opracowano na podstawie pozycji literatury podstawowej nr [1]
1. Żadna z maszyn dotychczas stworzonych nie wyszła poza
zaproponowany przez człowieka zestaw zasad.
2. Sztuczne systemy inteligentne nie symulują w zasadzie działania
naszego mózgu.
3. Maszyny przechodzą test Turinga w wąskim zakresie tematycznym
(sport, szachy, medycyna).
12
4. Jeżeli czasem nam się wydaje, że maszyny przejawiają oznaki
świadomości, to nie jest to świadomość w sensie filozoficznym.
5. W perspektywie kilkudziesięciu lat inteligentne maszyny będą
naszymi partnerami w pracy i w domu.
6. Następnie komputery będą projektowały nowe generacje
komputerów i robotów, odgrywając znaczącą rolę w rozwoju
inteligencji mieszkańców Ziemi.
Koniec części I
Wyszukiwarka
Podobne podstrony:
Sztuczna inteligencja wykład cz 5 1Sztuczna inteligencja wykład cz2Sztuczna inteligencja wykład cz7Sztuczna inteligencja wykład cz8sciaga okb wyklad 3 cz 6Wykłady cz 6gleby wykłady cz 1WYKŁAD 5 cz 1Wykład cz 2 Choroby zawodoweWyklad cz 2E FILIPOWICZ I J KWIECIEă ANALIZA MO˝LIWO—CI ZASTOSOWANIA METOD SZTUCZNEJ INTELIGENCJI W MEDYCYNIEsztuczna inteligencja logik rozmyta 0więcej podobnych podstron