Stanisław Just
Konspekcik
23 maj, 2006
“ C
“ C
O M P U T I N G
O M P U T I N G
M A C H I N E R Y
M A C H I N E R Y
A N D
A N D
I N T E L L I G E N C E
I N T E L L I G E N C E
”
”
A. M. Turing (1950). Computing Machinery and Intelligence. Mind 49: 433-460.
Główne pytanie
Czy maszyny mogą myśleć?
Zarys problematyki
Posługując się powszechnymi definicjami pojęć “maszyna” i “myśleć” to główne pytanie jest
absurdalne. Inaczej problem wygląda w “grze imitacjnej”.
Grają w niej: mężczyzna, kobieta i przesłuchujący, który może być obojga płci. Zadaniem
przesłuchującego jest odgadnięcie, która z osób (jemu przedstawiona jako X i Y) jest mężczyzną, a która
kobietą. Osoba przesłuchująca może pytać innych graczy, ale ich nie widzi ani nie słyszy. Odpowiedzi są
na kartkach. Jedna osoba z przesłuchiwanych ma ułatwić zadanie przesłuchującemu, a druga utrudnić.
Co będzie jeśli miejsce np. kobiety zajmie maszyna? Czy przesłuchujący będzie miał taką samą
skuteczność odgadywania jak w sytuacji, gdy w grze brali udział tylko ludzie? Te pytania zastąpią
pierwotne: “Czy maszyny myślą?”.
Krytyka nowego problemu
Wiadomym jest, że człowiek nie jest w stanie skutecznie imitować maszyny, ale czy maszyna jest
w stanie skutecznie uchodzić za człowieka. Ułatwieniem dla maszyny są warunki zadania, gdyż
wykluczają one wszelkie możliwości rozpoznania sensorycznego. Z kolei takie wskaźniki jak szybkość
liczenia, czy umiejętność gry w szachy można ustawić na komputerze w taki sposób by właściwie
imitował możliwości człowieka. Innym przykładem było pisanie poezji. Jednakże poezji nie pisze nie
tylko komputer, ale i wielu ludzi... Wobec czego, wstępne obiekcje są stosunkowo łatwo odrzucane.
Maszyna, która podejmuje wyzwanie
Komputer cyfrowy, jako maszyna dyskretnego stanu, czyli taka, która porusza się przeskakując z jednego
stanu na inny. Nie ma takich maszyn, bo wszelkie operacje są wykonywane szeregowo. Taki komputer składa się z:
(i) magazynu, (ii) jednostki wykonawczej, (iii) kontroli. W magazynie przechowywane są wszystkie możliwe stany
maszyny. Rozpatrujemy komputer cyfrowy, który ma odpowiednią bazę danych i odpowiedni program.
Przeciwne perspektywy wobec głównego pytania
I ) Obiekcja teoretyczna
Myślenie jest funkcją ludzkiej, nieśmiertelnej duszy. Bóg nie dał duszy maszynom lub zwierzętom, więc
one nie myślą.
ALE: Powyższe poglądy bynajmniej nie są przekonujące. Są raczej kwestią wiary. Nie mają one postaci
empirycznych dowodów.
II ) Obiekcja “głowa w piasek”
Konsekwencja myślących maszyn byłaby zbyt przeraźliwa.Wolimy myśleć, że człowiek jest czymś
wyższym, zawsze. Wizja myślących maszyn nie jest nam na rękę. Mamy monopol na myślenie i nie chcemy go
stracić.
ALE: Argument jest szczerym wyrazem zrozumiałych obaw. Jednakże w dalszym ciągu nie są to
wiarygodne i odpowiednie argumenty...
III ) Obiekcja matematyczna
Są dowody matematyczne na ograniczoność mocy komputerów dyskretnego stanu. Maszyna albo mówi
bezbłędnie, albo nie podaje wyniku. Na pytania otwarte komputer mógłby odpowiadać tylko w sposób, jaki został
Stanisław Just
Konspekcik
23 maj, 2006
zaprogramowany by na nie odpowiadać...czyli bardzo ograniczony.
ALE: Nie ma najmniejszych dowodów na to by mózg ludzki różnił się w tym względzie (ograniczonej
pojemności) od magazynu pamięci maszyny/komputera cyfrowego.
IV ) Argument świadomościowy
Żadna maszyna nie jest świadoma, nie potrafi stworzyć niczego oryginalnego, a także jest zupełnie
pozbawiona emocjonalności.
ALE: Badając emocjonalność czy świadomość ludzi również nigdy nie mamy pewności o tym, że dany
człowiek doznaje jakiś emocji lub jest czegoś świadomy...
V ) Argumenty mnogości niemożności
Można zlecić komputerowi by robił to a to, ale nie żeby się zachowywał w określony sposób. Nie można
zaprogramować komputera by był miły, miał poczucie humoru, oddzielał dobro od zła, czasami popełniał błędy,
zakochiwał się, lubił truskawki z kremem. Komputer też nie może sie uczyć, np. na własnych błędach.
ALE: Różnorodność zachowania i odpowiedzi jest jedynie kwestią ilości stanów zaprogramowanych w
magazynie pamięciowym (o określonej pojemności) komputera.
VI ) Obiekcja pani Lovelas
Maszyny nigdy nas nie zaskoczą, ponieważ potrafią robić tylko to, co my wiemy jak im rozkazać.
ALE: Praktyka pokazuje, że maszyny często zaskakują ludzi, czasem nawet swoich własnych twórców!
VII ) Argument ciągłości systemu nerwowego
Maszyny dyskretnego stanu nie potrafią naśladować mimiki człowieka wyposażonego w system nerwowy.
ALE: Mimika i naśladowanie organizmu wyposażonego w system nerwowy w tej grze nie jest istotne!
VIII ) Argument nieformalności zachowania
Niemożliwe jest stworzenie schematów zachowania z góry zdefiniowanych do wszystkich rodzajów
możliwych zdarzeń w życiu. Człowiek tego nie jest w stanie wytworzyć i maszyna też nie. Człowiek reguluje
swoje zachowania przez podporzadkowanie się jakimś nadrzędnym prawom, które przyjął wcześniej.
ALE: Podobnie przecież działać może komputer! Napotykając jakąś nieznaną i nieprzewidzianą sytuację o
pewnych cechach stosuje wobec niej takie zachowanie, jakie ma zaprogramowane, żeby stosować do sytuacji o
danej cesze. Wobec czego, zaprogramowanie takich ogólnych praw w maszynie dyskretnego stanu powinno być
możliwe.
IX ) Argument nadzwyczajnej percepcji
Psychokineza, telepatia, wizjonerstwo etc. Wiele z tego typu zjawisk jest bardzo dobrze
udokumentowanych, więc nie można ich pominąć. Uwzględnienie takich niezwykłych zjawisk w naszej grze może
zaburzyć jej wyniki. Przesłuchujący może zadać pytanie np. O figurę karty, którą właśnie trzyma w ręku.
Komputer będzie zgadywał, a osoba poprzez telepatię zgadnie poprawnie częściej.
ALE: Jest to poniekąd rozpoznawanie sensoryczne (tzw. Szósty zmysł), wobec czego jest niezgodne z
regułami. Pomieszczenia powinny więc być nie tylko dźwiękoszczelne, ale i “telepatoszczelne”.
Podsumowanie
Najwidoczniej problem nie jest tak prosty jakby się z początku mogło zdawać.
Ostatecznie artykuł zakończony jest wywodem nt. uczącej się maszyny. Założmy, że maszyna analizując
rezultat swojej działalności jest w stanie wyciągnąć z niego naukę przydatną w przyszłości do efektywniejszego
wykonywania podobnych problemów. Wynikiem tego założenia jest wniosek, że maszyna jest w stanie uczyć się
na własnych błędach.
Autor proponuje więc by owa maszyna przybrała postać dziecka-maszyny, któremu zaimplementowano
funkcję uczenia się i poddano edukacji oraz wychowaniu jak zwykłe, ludzkie dziecko. Czy po przejściu tych
procesów dziecko-maszyna, już jako “dorosła-maszyna”, która nauczyła się wszystkiego tego, czego uczy się
człowiek, może myśleć? Czy zostanie wtedy uznana za inteligentną? Dochodzimy z powrotem do pytania
wyjściowego: Czy maszyna może myśleć..?