Wstęp do Metod Sztucznej Inteligencji
drugi. Bardzo szybko okazało się, że nie potrafimy znaleźć algorytmów na rozwiązywanie tego typu zagadnień, wymagają one „inteligencji”. Ludzie wykonują pewne czynności nie zdając sobie sprawy z tego, w jaki sposób to robią. Zrozumienie tego faktu w latach 50-tych (bynajmniej nie było to wtedy takie oczywiste, wydawało się wówczas, że zaprogramowanie bardzo złożonych zachowań to tylko kwestia wielkości pamięci i szybkości działania komputera) stanowi początek Al jako dziedziny nauki. Formalnie jako nauka Al powołana została do życia w 1956 roku, podczas jednej z konferencji specjalistycznych, a więc powstała na długo przed powstaniem nazwy „informatyka”. Najlepsza jednozdaniowa definicja Al brzmi następująco:
Sztuczna inteligencja to dziedzina nauki zajmująca się rozwiązywaniem zagadnień niealgorytmizowalnych przy pomocy komputerów.
Al formalnie stanowi część informatyki, ale bliska jest psychologii i „cognitive science” czyli, „naukom poznawczym” lub „kognitywnym”, w skład których wchodzą takie dziedziny jak neuropsychologia, teoria mózgu, psycho i neurolingwistyka, zagadnienia filozofii umysłu. Jednocześnie rozwijają się zastosowania: wszędzie tam, gdzie nie ma pełnej teorii i wymagane są inteligentne decyzje (często próby zgadnięcia bardziej niż udowodnienia), w tym w badaniach naukowych, potrzebne są metody Al. Być może jednym z najbardziej udanych zastosowań metod sztucznej inteligencji są popularne obecnie programy do obliczeń symbolicznych przy pomocy algebry komputerowej.
Najsilniejsze ośrodki w tej dziedzinie to najlepsze amerykańskie uczelnie: MIT, Stanford, CalTech, Berkeley. W Europie uprawia się Al nie tylko na uniwersytetach (Edynburg w Szkocji i Marsylia w Francji to jedne z najlepszych ośrodków) lecz również w wielkich firmach komputerowych.
Al zajmuje się projektowaniem inteligentnych systemów, tj. wykazujących cechy podobne do cech inteligentnego działania człowieka: rozumowania, uczenia się, rozumienia języka, rozwiązywania problemów. Celem głównym jest zrobienie mądrzejszych komputerów. Celem wtórnym (dla chętnych na Nobla) jest zrozumienie czym jest inteligencja. Dla niektórych badaczy stało się to jednym z głównych celów. Pionier badań w dziedzinie Al, Allen Newell, zaproszony został w 1987 roku do prowadzenia serii niezwykle prestiżowych wykładów Williama Jamesa (najsłynniejszego amerykańskiego psychologa) na Harvard University. Przy tej okazji wygłosił swoje kredo: psychologia dojrzała już do zunifikowanych teorii poznania, czyli takich teorii, które postulują spójny system mechanizmów pozwalających wyjaśnić wszystkie aspekty działania umysłu. Teorie poznania odwołują się do modeli komputerowych rozwijanych przez specjalistów od sztucznej inteligencji. Pogląd taki w dalszym ciągu uznawany jest za kontrowersyjny. Dążenia i ambicje sztucznej inteligencji jako gałęzi nauk formułuje się w dwóch wersjach:
Wersja słaba Al mówi, że komputer pozwala formułować i sprawdzać hipotezy dotyczące mózgu. W tej wersji Al nie ma wielu oponentów gdyż jest wiele dowodów na jej oczywistą przydatność. Nie ma również wątpliwości, że niektóre metody Al, chociaż odmienne od stosowanych przez układy biologiczne, pozwalają na osiągnięcie podobnych rezultatów, a więc możliwa jest komputerowa symulacja inteligentnego działania.
Wersja silna Al mówi, że komputer odpowiednio zaprogramowany jest w istotny sposób równoważny mózgowi i może mieć stany poznawcze. Wersja ta jest często atakowana i toczą się niekończące się spory filozoficzne, czy jest to w ogóle możliwe. Nie chodzi tu już tylko o symulacje inteligencji ale o osiągnięcie „prawdziwej inteligencji”, a więc czegoś, czego nikt nie potrafi do końca zdefiniować.
Takie rozróżnienie pochodzi od specjalistów w zakresie filozofii sztucznej inteligencji. Niezależnie od wyników takich dyskusji Al jest dziedziną, która może zmienić całkowicie nasz świat i z tego względu jest potencjalnie bardzo niebezpieczna. Dla badacza jest to dziedzina trochę niewdzięczna bo trudno jest znaleźć (tak jak w fizyce) proste i ładne rozwiązania, prawa inteligencji. Być może prawa takie nie istnieją, a być może jakieś są np. zasada nieoznaczoności wiążąca ścisłość wyniku (rozwiązania) z jego złożonością tj. liczbą operacji potrzebną do jego znalezienia.
Według Patrica Winston'a w rozwoju Al wyróżnić można kilka okresów, które nazywa on następująco:
Era prehistoryczna: od maszyny analitycznej Charles'a Babbage (1842) do około 1960 roku, kiedy pojawiły się powszechnie dostępne komputery.
Era romantyczna, 1960-1965, kiedy przewidywano, że Al osiągnie swoje cele w ciągu 10 lat i odniesiono sporo początkowych sukcesów.