Pięta achillesowa robota
Przed 50 laty naukowcy stworzyli pojęcie „sztucznej inteligencji”. Niestety, jak na razie żaden jeszcze komputer nie nauczył się myśleć.
„Sztuczna inteligencja zmarła śmiercią kliniczną”. Autorem tej cierpkiej diagnozy jest ojciec AI (Artificial Intelligence - przyp. Onet), Marvin Minsky.
„Nie odnotowujemy żadnego postępu w kierunku ogólnej inteligencji” - mówi Minsky, który przed 50 laty wspólnie z Johnem McCarthym był gospodarzem słynnej konferencji w Darmouth poświęconej Artificial Intelligence. To na niej międzydyscyplinarny dział badań otrzymał swą nazwę. Minsky i McCarthy, liczący dzisiaj po 78 lat, ciągle prowadzą naukowe poszukiwania: pierwszy w Massachusetts Institute of Technology, drugi w Stanford. Niedawno znów spotkali się w Dartmouth College w New Hampshire, by wspólnie z innymi badaczami dyskutować o tym, jak inteligentne stały się maszyny.
|
|
Nie wszyscy poddają tę dyscyplinę tak miażdżącej ocenie jak Minsky. O wiele łagodniej wypowiada się na jej temat na przykład Niemiec, 39-letni Sebastian Thrun, szef założonego niegdyś przez McCarthy`ego laboratorium AI w Stanford. W zeszłym roku jego VW Tuareg, kierowany bez pomocy człowieka, w niecałe siedem godzin pokonał ponad 200-kilometrową trasę po pustyni i tym samym wygrał konkurs rozpisany przez departament obrony. „Dzisiaj chodzi po prostu o to, aby budować mądre systemy - wyjaśni Thrun. - Nasz robot potrafi jechać po pustyni i nikt nie powie: to nie jest rozwiązanie problemów z ludzką inteligencją!”.
Od samego początku pojęcie sztucznej inteligencji wzbudzało wiele kontrowersji, ponieważ słowo „inteligencja” opisuje różne specyficzne umiejętności człowieka (liczba rzekomych inteligencji rośnie z roku na rok, od abstrakcyjnej przez emocjonalną po społeczną). Naukowcom chodziło właściwie jedynie o to, by komputery i roboty wyposażyć w umiejętności wymagające - tak jak w przypadku ludzi - przejawów inteligencji. Lecz gdy tylko uczeni posunęli się o krok naprzód, zaraz ktoś narzekał: to przecież jedynie zwykły program, to nie ma nic wspólnego z inteligencją!. „Kiedy sztuczna inteligencja zaczyna wreszcie funkcjonować, przestaje się ją określać tym terminem” - stwierdza Wilfried Brauer z Uniwersytetu Technicznego w Monachium. Dlatego on woli określenie „futurologiczna informatyka“.
Jej najlepszym przykładem jest gra w szachy. Współczesne programy szachowe, podobnie jak te sprzed 30 lat, liczą z wyprzedzeniem wszystkie możliwe ruchy (poza kilkoma „inteligentnymi“ skrótami). Wystarczyło tylko poczekać, aż system komputerowy będzie miał wystarczająco dużą pamięć, by w 1997 roku program IBM Deep Blue pokonał szachowego mistrza świata Garri Kasparowa. Programy te nie mają wprawdzie ludzkiej intuicji, za to potrafią liczyć szybciej niż jakikolwiek człowiek.
Szachy należą do trudnych zagadnień - dla nas, ale nie dla maszyn. Już pionierzy sztucznej inteligencji wiedzieli, że dla komputerów skala trudności przebiega odwrotnie niż u ludzi. W 1961 roku Jim Slagle napisał program matematyczny na poziomie uniwersyteckim, który potrafił rozwiązywać rachunki całkowe. Program był tak dobry jak student pierwszego semestru. W 1964 roku Dan Bobrow rozwinął software, który rozumiał zadania tekstowe z wyższej matematyki i potrafił dokonać czegoś nieporównanie trudniejszego - przekształcać je we wzory. Program był tak dobry jak uczeń liceum. Mimo to do dzisiaj nie udało się stworzyć komputera rozumiejącego historie w czytankach dla pierwszoklasistów.
Powodem tego stanu rzeczy jest zawiły problem informacji z życia codziennego. Ludzie dysponują rozległą wiedzą o świecie, częściowo wrodzoną, częściowo wyuczoną. Minsky ocenia rozmiary wiadomości zdroworozsądkowych na 30 do 50 milionów „faktów“. Oto kilka przykładów. Sznurek można ciągnąć, ale nie można go pchać. Data narodzin człowieka przypada przed datą jego zgonu. Drzewa stoją stale w tym samym miejscu. Gdy zawodzą programy sztucznej inteligencji, problem rozbija się zawsze o tego rodzaju codzienne informacje - czy to w tłumaczeniu tekstów, czy rozpoznawaniu obiektów.
Jak nauczyć komputery wiedzy ogólnej? Dziwak i odludek Doug Lenat kieruje w Teksasie firmą Cycorp. Czterdziestu pracowników jego projektu o nazwie „Cyc“ od ponad dwudziestu lat wprowadza do programu pojedyncze informacje o świecie. Do dzisiaj zapisali miliony szczegółów. Większość badaczy sztucznej inteligencji uważa projekt za nieudany, przede wszystkim dlatego, że „Cyc“ nie toleruje jakichkolwiek sprzeczności. „Lenat odnotował tak mały postęp, ponieważ nie miał żadnej konkurencji“ - uważa Marvin Minsky. On sam prowadzi w internecie podobny zapis zbioru faktów pod nazwą „Open mind“. Reszta środowiska naukowego nadal usiłuje obejść problem wiedzy zdroworozsądkowej.
Również Sebastian Thrun przyznaje, że codzienna wiedza jest piętą achillesową sztucznej inteligencji. Nie ma jednak wysokiego mniemania o próbach jej zaprogramowania. „W nas też nikt nie zapisuje praw rządzących światem” - zauważa. Specjaliści od robotyki interesują się systemami, które samodzielnie obserwują świat i na tej podstawie są w stanie się uczyć. „Nie oznacza to, że mam gotowe rozwiązanie, ale myślę, że posługując się metodą statystyczną można je znaleźć” - dodaje Thrun.
Metody statystyczne uchodzą za ostatni krzyk mody w badaniach nad sztuczną inteligencją. Od kiedy komputery potrafią w ciągu ułamków sekundy przeszukać ogromne banki danych, „data mining” znajduje coraz częstsze zastosowanie. Wyszukiwarkę Google można traktować jako największą na świecie firmę AI. Zbiera ona bowiem informacje o miliardach stron w sieci. Źródłem jej sukcesu nie jest liczba zgromadzonych danych, ale metoda (jej szczegóły są utrzymywane w tajemnicy) dostarczająca najlepsze znalezione odpowiedzi na zadane pytanie bez ich wartościowania. Obecnie naukowcy wykorzystują metodę Googla w maszynowym tłumaczeniu. Dzięki analizie wielu przetłumaczonych tekstów mają zostać stworzone połączenia między słowami dwóch języków, co pozwoli na nowe tłumaczenia. Dotychczas programy komputerowe potrafiły pomóc w powierzchownym zrozumieniu zawartości obcojęzycznego tekstu, zwykle jednak nie tworzyły poprawnych zdań i popełniały często zabawne błędy.
„Jesteśmy nauką, która potrafi radzić sobie z ogromną liczbą danych” - mówi o statystycznej metodzie badania AI Sebastian Thrun. Jest ona wykorzystywana w wielu dyscyplinach, na przykład w badaniach genetycznej budowy człowieka. „Biologia uległa całkowitej zmianie i przekształciła się w dyscyplinę przetwarzającą dane - stwierdza badacz. - To samo nastąpi również w innych dyscyplinach: w ekonomii czy w większości nauk technicznych. Może kiedyś poznamy nawet punkt widzenia sztucznej inteligencji na historię i obliczymy, dlaczego doszło do jakiegoś wydarzenia”.
Starzy wyjadacze ze zdrowym sceptycyzmem obserwują euforię, jaką wywołały nowe metody. Już w wielu modelowych próbach usiłowano znaleźć rozwiązania fundamentalnych problemów. W późnych latach siedemdziesiątych były to tak zwane systemy eksperckie, mające odzwierciedlać specjalistyczną wiedzę lekarzy lub geologów. Mimo hojnych dotacji metodę tę zastosowano tylko w marginalnym wymiarze. Jej porażka doprowadziła w latach osiemdziesiątych do „zimy sztucznej inteligencji”, największego kryzysu w badaniach.
Naukowcy popadli w inną skrajność. Uczony zajmujący się robotami, Todney Brooks, dzisiaj kierownik laboratorium sztucznej inteligencji w Massachusetts Institute of Technology, wziął za wzór insekty, które w zadziwiający sposób radzą sobie bez abstrakcyjnych umiejętności i centralnego systemu przetwarzania wiedzy. Proste roboty funkcjonowały bez zarzutu. Potem, na początku lat dziewięćdziesiątych Brooks skupił uwagę na pomyśle, że wystarczy pozwolić robotowi, wyposażonemu w zwykłe procesory decentralne, przebywać długo w ludzkiej społeczności. Wtedy pewnego dnia zacznie gaworzyć jak dwuletnie dziecko i zachowywać się inteligentnie niczym człowiek. Projekt o nazwie „Cog“ zniknął równie szybko, jak się pojawił.
Dzisiaj Minsky wykpiwa metafizyczne nadzieje, że abstrakcyjne umiejętności mogą rozwijać się samoistnie. Skarży się na sytuację panującą w robotyce. „Nikt nie pracuje nad robotami, które myślą o tym, co robią. Wszystkie wysiłki koncentrują się na płaszczyźnie zachowań, całą energię poświęca się robotom piłkarskim i niewiele się z tego można nauczyć“ - stwierdza.
Jesienią ukaże się na rynku książka starego mistrza pod tytułem „The emotion machine“. Zawarta w niej teza brzmi: wszystkie metody badania sztucznej inteligencji mają swoje uzasadnienie, ale i ograniczenia. „Prawdziwa inteligencja naszego mózgu polega na tym, że w zależności od rodzaju zagadnienia włącza on i wyłącza różne „podmoduły” - stwierdza Minsky. - Nie istnieje jeden tylko sposób myślenia.” Cóż, badacze mózgu zbyt mało wiedzą jeszcze o lokalnych strukturach naszego umysłu.
Dzisiaj młodzi praktycy w pytaniach dotyczących świadomości i inteligencji widzą raczej rodzaj filozoficznego wyzwania. Nie mają ambicji, by zbudować prototyp mózgu. „Komputery są dobre w obliczaniu, ale kiepskie w ocenie sytuacji“ - zauważa Sebastian Thrun.
Wynika z tego, że strategia we współczesnych badaniach nad sztuczną inteligencją polega na tym, by podobnie jak w grze w szachy „wyliczać do upadłego” kompleksowe problemy z pomocą wysokowydajnych komputerów. Ale nawet jeśli pewnego dnia samochód Thurna będzie szusował bez kierowcy po ulicach San Francisco, starzy sceptycy jak Marvin Minsky z pewnością nie dadzą się przekonać.