Piotr Labenz
Konwersacyjna sztuczna inteligencja: od Turinga
do Potiomkina
1
I’m sorry, Dave, I’m afraid I can’t do that.
– HAL 9000
Możliwość AI to problem filozoficzny, ale i praktyczny. Dlatego próbuję tu
wysnuć filozoficzne wnioski z przeświadczeń wyniesionych z praktycznej
pracy nad programami rozmawiającymi w języku naturalnym, tzw. botami.
Opisuję dwa podejścia do budowy botów, regułowe i statystyczne (punkt
1.) i pewną umiejętność, dzięki której z ludźmi na ogół rozmawia się nam
płynniej niż z botami (punkt 2.). Sądzę, że jest ona niedostępna botom (punkt
3.), stąd konwersacyjna AI jest technicznie niemożliwa; przy tym wątpliwe,
by niemożliwość ta została przezwyciężona (punkt 4.). Co więcej, taka inspi-
rowana testem Turinga koncepcja AI – to nieporozumienie (punkt 5.).
1. Test Turinga i kawałki języka
Sztuczna inteligencja to taka maszyna, która radzi sobie z rzeczami, z któ-
rymi zwykle ludzie radzą sobie lepiej od maszyn. Taka potoczna definicja,
choć przyjmują ją niektórzy informatycy (np. Rich, 1983, str. 1), jest chyba
za szeroka, bo spełniają ją np. koparka czy wibrator. Trzeba ją więc zawę-
zić: AI to taka maszyna, która radzi sobie z tym, co podobno jest differentia
specifica
człowieka, a mianowicie – z językiem. Żeby czasem pod tę definicję
nie podpadał magnetofon albo książka, można powiedzieć, że „radzi sobie
z językiem” to tyle, co „potrafi rozmawiać nie gorzej niż przeciętny człowiek”
– czyli potrafi przejść test Turinga (1950; dalej: TT). Sądzę, że taka definicja
1
Wcześniejszą wersję części tej pracy referowałem na II Ogólnopolskim Forum Filozoficz-
nym Młodych. Dziękuję Jakubowi Szymanikowi i Marcinowi Zajenkowskiemu za sugestie i uzu-
pełnienia, mgr Agnieszce Mykowieckiej za uwagi zawarte w recenzji, a mgr. Grzegorzowi Rut-
kiewiczowi za pomoc z Dodatkiem 2.
96
Konwersacyjna sztuczna inteligencja: od Turinga do Potiomkina
odzwierciedla intuicję „sztucznego inteligenta”
2
, takiej maszyny, która byłaby
„jak człowiek”. Oczywiście można jednak jako differentiam specificam propo-
nować inne zdolności umysłowe czy poznawcze człowieka. Myślę wpraw-
dzie, że maszyny liczące czy rozpoznające obrazy trudno określić mianem
sztucznych inteligentów, jeśli nie da się z nimi porozmawiać
3
; ale na wszelki
wypadek będę tu mówił tylko o „konwersacyjnej” AI
4
.
Ale czy „potrafi przejść TT” znaczy, że kiedyś przeszła albo przejdzie
pewien TT, czy że zawsze albo prawie zawsze go przechodzi? Otóż w pierw-
szym sensie potrafią przejść TT choćby proste boty w rodzaju ELIZY (zob.
Weizenbaum, 1966) czy tzw. lingubotów (zob. Dodatek 1.)
5
, a w drugim –
czasem nie potrafią go przejść ludzie. W obu wypadkach powodzenie zależy
od tego, czy testowany kandydat do inteligencji trafi na rozmówcę posługu-
jącego się podobnym, co on, kawałkiem języka. Człowiek potrafi dostosować
swój sposób mówienia do języka rozmówcy, ale tylko w pewnych granicach
– gdy mają jakiś wspólny kawałek języka. Zapewne da się znaleźć takie pary
użytkowników języka polskiego, które nie będą się potrafiły dogadać. Na
przykład wykładowca metafizyki z KUL-u zapewne nie ma dostatecznie du-
żego kawałka języka wspólnego z pracownicą klubu „Viva”, by jedno z nich
przeszło TT oceniany przez drugie
6
. Natomiast bot ma zaprogramowany je-
den kawałek języka – i wszelkie szanse przejść TT, ale tylko gdy rozmówca
zechce się dostosować i korzystać z tego samego kawałka
7
.
2
Określenie zapożyczone od Miłkowskiego (2002). Zwykle mianem „AI” określa się również
roboty, systemy decyzyjne i eksperckie itd. Istotnie, korzystają one z pewnych wspólnych technik
heurystycznych czy programistycznych (por. Rich, 1983; Russell Norvig, 1995). Tutaj jednak mam
na myśli nie AI jako dyscyplinę, ale właśnie „sztucznego inteligenta”.
3
Nie traktuję tego jako twierdzenia, a jedynie jako doraźne ustalenie terminologiczne. Jed-
nak za jego intuicyjnością przemawiają liczne artystyczne wyobrażenia sztucznej inteligencji
(zob. np. Lem, 1959, i o HAL-u z Odysei kosmicznej – Stork, 1997). W kwestii, czy taka termi-
nologia jest adekwatna – zob. punkt 5 (a inne definicje AI zob. Russell Norvig, 1995, str. 4-5).
4
Por. (Block, 1981, str. 11, 18) (definicja „inteligencji konwersacyjnej” w kontekście krytyki
TT). W kwestii założenia, że umiejętność rozmawiania jest konstyutywną dla „radzenia sobie
z językiem” zob. Clark, 1996, str. 3-11 i Pickering, Garrod: w druku („. . . people still find mono-
logue far more difficult than dialogue. We believe that a true understanding of both dialogue
and monologue requires an understanding of the basic processing skills that have developed,
primarily, to deal with dialogue”).
5
Ograniczony tematycznie TT przeszło wiele programów w ramach konkursu o Nagrodę
Loebnera (Shieber, 1994; zob. Dodatek 1.).
6
Por. Kreckel 1981,str. 4-5. Kreckel twierdzi, czego szczególnym przypadkiem wydaje się być
powyższy przykład, że „the degree of understanding potentially acheived in verbal exchanges
is a direct function of the degree of convergence of the interactionally relevant concepts held
by the interactors and their shared conventions”. Twierdzenie to popiera Kreckel badaniami
empirycznymi (passim).
7
Właśnie wtedy ELIZA czy lingubot przechodzą TT. Zdarza się to rzadko, ale to wtedy
powstają anegdotki będące pożywką dla amatorów-entuzjastów AI, jak ta o sekretarce Weizen-
bauma, która chciała rozmawiać z ELIZĄ sam na sam. (Por. Dodatek 2.) ELIZA miała zadanie
ułatwione o tyle, że korzystała z stosunkowo łatwego do naśladowania za pomocą prostych
reguł kawałka języka (udawała psychoanalityka, stąd np. mogła zadawać dużo pytań, zamiast
analizować wypowiedzi użytkownika). Skrajnym, acz rokującym niewielkie nadzieje co do in-
teligencji, przypadkiem takiej taktyki był program PARRY, udający paranoika (Colby, 1981).
Piotr Labenz
97
„Kawałek języka” to oczywiście pojęcie nieostre
8
, ale myślę, że oddające
pewną własność języka rzeczywiście używanego przez ludzi, polegającą na
tym, że język etniczny – czyli jakiś dość duży (i nieostry) zbiór wypowiedzi
– jest pod wieloma względami niespójny jako całość, ale spójny lokalnie.
Takie obszary lokalnej spójności pod kilkoma względami to właśnie kawałki
języka. Chodzi właściwie o wszelkie względy: słownictwo, składnię, zakłada-
ną wiedzę, ontologię, logikę rozumowań itd. W rozmowie nie dbamy nieraz
o utrzymywanie spójności pod tymi względami, lecz całkiem naturalnie prze-
skakujemy między kawałkami języka, czy płynnie przechodzimy z jednego
do drugiego. Globalna spójność jest w rozmowie zbyteczna (a jej utrzymywa-
nie niepotrzebnie rozpraszałoby naszą uwagę); żeby się dogadać, wystarczy
zachować spójność lokalnie i pod ważnymi w danej chwili względami
9
. Kilka
przykładów:
(1) Możemy zacząć rozmowę używając leksykonu polszczyzny akademic-
kiej, a skończyć używając leksykonu polszczyzny jakiejś subkultury młodzie-
żowej (wystarczy, żeby rozmowa trwała tyle, co spacer z sali wykładowej do
najbliższego klubu). Wymienione leksykony się przecinają, ale ich rozłączne
fragmenty są niespójne: wypowiedź „Ładne ciało, ale straszna metafizyka”
na początku tej rozmowy może dotyczyć algebry i intuicjonizmu, a na końcu
– pewnej studentki i jej życia uczuciowego
10
.
(2) Podobna sytuacja może dotyczyć składni, na przykład rozmowa roz-
poczęta w „standard English”, w którym występuje zgodność liczby i rodzaju
między podmiotem a orzeczeniem, a nie występuje podwójne przeczenie,
podczas, gdy w jakimś „substandard English”, w którym rozmowa się za-
kończyła – wręcz przeciwnie. Zatem wypowiedź „She aren’t no good” na
początku rozmowy byłaby dla rozmówców zgrzytem, a na końcu – nie.
8
Dlatego „kawałek”, a nie „fragment języka”. Niewykluczone, że można o kawałkach języka
myśleć jako o przecięciach przecięć idiolektów właściwych rozmówcom (zob. np. George, 1990)
z pewną grą językową w sensie Wittgensteina 2000, §23. (Tamże dalej o nieostrości.) Na poziomie
semantycznym przecięciu idiolektów odpowiadałaby wiedza wspólna rozmówcom („common
knowledge”, „common ground” itp.; zob. Lee, 2001; Clark, 1996, str. 93-36; Kreckel, 1981,str. 25-
-29).
9
To samo zresztą (wbrew utyskiwaniom semiotycznych purystów-preskryptywistów) od-
nosi się do tekstów. Utrzymywanie globalnej spójności w długim tekście zwykle znakomicie
zaciemnia tekst, zamiast go rozjaśnić. (Innymi słowy, niespójność bywa komunikacyjnie sku-
teczniejsza, podobnie jak nieostrość – zob. Jucker et al., 2003.) Oczywiście nie dotyczy spójno-
ści pod kluczowymi względami, na przykład co do głoszonych tez. Ale za daleko posunięta
globalna spójność terminologiczna, ontologiczna czy stylistyczna powoduje, że tekst jest niena-
turalny i trudny do przyswojenia (a więc mało skuteczny). Nawet w tekstach matematycznych
powszechną praktyką jest używanie symboliki prostszej, choć spójnej tylko lokalnie. Można by
nawet powiedzieć, że inteligencja to zdolność rozumienia tekstu spójnego tylko lokalnie.
10
Oczywiście, można te fragmenty uspójnić, biorąc zamiast wypowiedzi pary «wypowiedź,
kontekst». Jednak sądzę, że próba uspójnienia w ten sposób choćby kilku kawałków języka,
między którymi bez trudności przeskakujemy, wymagałaby bardzo heterogenicznej konstrukcji
kontekstu. Jeśli traktować kontekst jako ciąg parametrów opatrzonych wartościami (tzw. maksy-
malny kontekst pragmatyczny, zob. Ciecierski, 2003), to pojawiłaby się kategorialna niespójność
parametrów, bo kawałki języka o różnych leksykonach mają często różne ontologie. Ogólniej,
żeby konstrukcja kontekstu dobrze działała dla wielu kawałków języka, musielibyśmy umieć
reprezentować niespójną wiedzę o niespójnych kategoriach, rozmytych stopniach pewności itd.
98
Konwersacyjna sztuczna inteligencja: od Turinga do Potiomkina
(3) W potocznej rozmowie nieistotne jest, czy mówimy o przedmiotach,
czy zdarzeniach. W trakcie rozmowy może zmienić się prawdziwość pew-
nych zdań i nastawienia propozycjonalne rozmówców. Zatem semantyka ję-
zyka, w którym toczy się rozmowa, jest globalnie niespójna kategorialnie
i diachronicznie
11
.
Skoro zaś i inteligentni (cóż, nie sposób uniknąć ekstrawaganckich za-
łożeń filozoficznych) ludzie, i nieinteligentne boty czasem, ale nie zawsze
przechodzą TT, to zdolność przechodzenia TT nie jest tym, co ich różni. Są-
dzę, że różnicę tę stanowi raczej właśnie zdolność radzenia sobie z globalną
niespójnością języka. Człowiek zna wiele wzajemnie niespójnych kawałków
języka i potrafi płynnie między nimi przechodzić (por. Wittgenstein 2000, §67)
, a bot zna tylko jeden spójny kawałek (albo nieliczne kawałki) języka. Myślę,
że to ostatnie jest – póki co – nieuniknione.
2. Podejście regułowe i statystyczne
Uczyć maszynę języka – czyli budować konwersacyjną AI – można na dwa
sposoby: za pomocą reguł albo statystycznie
12
. W pierwszym wypadku pró-
bujemy zbudować system formalny, czy raczej kilka współpracujących ze
sobą systemów odzwierciedlających umiejętności rozumienia, pamiętania,
wnioskowania, udzielania odpowiedzi itd. składające się na naszą zdolność
rozmawiania – i zaimplementować to jako program komputerowy. W drugim
wypadku postępujemy czysto behawiorystycznie: nie modelujemy poszcze-
gólnych umiejętności, a jedynie przypisujemy pewnym bodźcom (klasom za-
pytań) pewne reakcje (klasy odpowiedzi). Oba sposoby pozwalają, moim
zdaniem, nauczyć maszynę nie więcej niż kilku kawałków języka (w sensie:
istotnie mniej wielu, niż zwykle potrafią używać ludzie).
Podejście regułowe wygląda (w dużym uproszczeniu) następująco. Naj-
pierw kandydat na sztucznego inteligenta musi sparsować wypowiedź roz-
mówcy (zakładamy, że rozmowa toczy się na piśmie), czyli ze stanowiące-
go ją ciągu liter wydobyć logiczno-gramatyczną strukturę zdania. Do tego
potrzebuje kompletnej gramatyki języka polskiego, na przykład gramatyki
struktur frazowych wraz z kompletnym leksykonem, czyli zbiorem polskich
słów z przypisanymi im różnymi własnościami. W tle nasz bot musi mieć
zasób wiedzy o świecie podobny do naszego, pozwalający mu oceniać praw-
dziwość wypowiedzi rozmówcy, rozumieć entymematy i wnioskować. Do
tego potrzebny jest jednolity sposób przechowywania wszelkiej wiedzy i al-
11
Niespójność kategorialną można eliminować wprowadzając reguły tłumaczenia między
kategoriami, a diachroniczną – na przykład logiką zmiany (por. Kamp, 1980). Zasadniczo uspój-
nianie różnych kawałków języka w ramach jakiejś kanonicznej reprezentacji byłoby możliwe.
Ale zob. dalej.
12
Odpowiada to podziałowi na nurty logistyczne i heurystyczne w AI (Miłkowski, 2002,
str. 118). Za Rich (1983, str. 3-16) można by określić podejście regułowe „podejściem AI”. Pod
podejście statystyczne (które można by określić „siłowym”) podpadają m.in. rozwiązania ko-
nekcjonistyczne.
Piotr Labenz
99
gorytm oceniania prawdziwości (ontologia i semantyka) oraz podobne do
ludzkich mechanizmy rozumowania (m.in. logika rozmyta, teorie presupo-
zycji i implikatury). Gdy wreszcie sztuczny inteligent wymyśli odpowiedź,
będzie musiał ją wypowiedzieć po polsku – za pomocą gramatyki działającej
w drugą stronę (generatywnie) i jakichś reguł pragmatycznych, pomagających
zdecydować, jaka odpowiedź jest do rzeczy
13
.
To pobieżne wyliczenie zagadnień, które trzeba by rozwiązać przy regu-
łowym podejściu do budowy konwersacyjnej AI pokazuje, że praktycznie jest
ono niewykonalne. Nad każdym z wzmiankowanych problemów trudzi się
armia badaczy, teorie puchną – ale wciąż są fragmentaryczne, to znaczy sta-
wiają sobie za ambicje adekwatnie sformalizować pojedyncze kawałki języka
naturalnego. Już to jest zadaniem trudnym (por. Szymanik, 2002), o scalaniu
wyników w funkcjonalną całość dla tak wielu kawałków języka, jak wieloma
posługuje się przeciętny człowiek, nie wspominając. Dobrze działają systemy
proste i bardziej wyspecjalizowane, np. parsery dla ograniczonych fragmen-
tów języka (zob. np. Przepiórkowski et al., 2002).
Z kolei podejście statystyczne zakłada minimum teorii – na przykład,
w jednej z możliwości, banalną gramatykę w postaci skończonej listy produk-
cji, przyporządkowujących klasom zapytań klasy odpowiedzi
14
. Klasy zapy-
tań definiujemy jak najprościej – więc czysto syntaktycznie, według współwy-
stępowania pewnych ciągów znaków. Nie potrzebujemy ogólnej teorii skład-
ni, bo definiujemy ad hoc dla każdej produkcji. Co więcej, definicje nie muszą
być ściśle adekwatne, skoro klasy i zapytań, i odpowiedzi są rozmyte (bo
trudno o ścisłą synonimię dla całych zdań). Oczywiście bot z tak niechlujnie
określoną gramatyką będzie raz odpowiadał dobrze, a kiedy indziej – od
rzeczy. Ale temu zapobiec możemy porządkując produkcje od najściślej do
najluźniej zdefiniowanych i przypisując wcześniejszym priorytet nad później-
szymi, a następnie optymalizując je tak długo, aż odpowiedzi będą na ogół
dorzeczne
15
. Optymalizacja polega na modyfikowaniu istniejących produkcji
i ich porządku oraz dodawaniu nowych na podstawie błędów popełnianych
przez bota w rozmowach. Jest statystyczna w tym sensie, że działa dzięki
akumulacji małych zmian, a nie dzięki rozwiązaniom systemowym
16
.
13
Zagadnienia te dobrze przybliżają: syntaksę – Przepiórkowski et al., 2002 (zwłaszcza dla
polszczyzny); Sag Wasow, 1999, semantykę – de Swart, 1998 i pragmatykę – Tokarz, 1993. O im-
plementacji zob. Jurafsky Martin, 2000; Russell Norvig 1995; Rich, 1983.
14
Jest to więc zdegenerowana gramatyka liniowa, gdzie {a
1
, a
2
, . . . , a
n
}
to zbiór zapytań,
{b
1
, b
2
, . . . , b
m
}
– odpowiedzi, s – symbol początkowy, a zbiór produkcji ma postać {s → a
i
| i ∈
{1, . . . , n}} ∪ {a
i
→ b
j
| j ∈ {1, . . . , m}}
(zob. Partee et al., 1990, str. 474). Trywialnie jest to
więc też gramatyka bezkontekstowa (zob. Partee et al., 1990, str. 492) o bardzo niskim „stopniu
uogólnienia” (Sag Wasow, 1999, str. 29-34). Ma ona, poza oczywistą prostotą implementacji,
pewne zalety teoretyczne, ze względu na które Newell i Simon (1972, str. 804) stawiają hipotezę,
że podobną strukturę ma u ludzi ogólna umiejętność rozwiązywania problemów. Być może
przemawiałoby (wbrew poniższej krytyce) to za kognitywnym ugruntowaniem tego podejścia.
15
Pomijam tu pomocnicze narzędzia pozwalające radzić sobie z okazjonalizmami i (w pew-
nym zakresie) modyfikować produkcje w zależności od kontekstu.
16
Można zauważyć, że jeśli w opisanej procedurze zastąpić programistę dokonującego opty-
malizacji jakimś algorytmem, to całość będzie algorytmem samouczącym. Ale napisanie takiego
100
Konwersacyjna sztuczna inteligencja: od Turinga do Potiomkina
Oczywiście, żeby taka akumulacja zmian działała, muszą one dążyć w jed-
nym kierunku. Innymi słowy, korpus rozmów, na podstawie którego opty-
malizujemy, musi być jednorodny, czyli większość rozmów musi zawierać
się w jednym kawałku języka. W przeciwnym razie małe zmiany mogłyby
się znosić, zamiast kumulować. Co więcej, produkcje są syntaktyczne, a rów-
nokształtne zapytania mogą wymagać różnych odpowiedzi w różnych ka-
wałkach języka. Gdyby korpus nie był jednorodny, to bot mieszałby kawałki
języka, co trudno uznać za dorzeczne. (W praktyce
17
korpus jest jednorodny
dlatego, że powstaje z rozmów w zbliżonym kontekście i z jedną grupą ludzi
– docelową publicznością danego bota. Z biegiem optymalizacji bot osiąga
znośną dorzeczność w używanym przez rozmówców kawałku języka, ale
w innych przypadkach radzi sobie nadal słabo.) Zatem również podejście
statystyczne ograniczone jest do jednego kawałka języka
18
.
3. Niemożliwość czego?
Co wynika stąd, że nie potrafimy nauczyć maszyny więcej niż kilku kawał-
ków języka? Niemożliwa jest konwersacyjna AI. Czy jest to argument na
rzecz tezy, że w umyśle jest coś nieredukowalnego do maszyny? Oczywiście
nie, bo niemożliwość zasadza się na trudności czysto technicznej. W wypad-
ku podejścia (czysto) statystycznego wymóg optymalizacji do jednorodnego
korpusu wydaje się być nie do przezwyciężenia, więc być może przy tym po-
dejściu niemożliwość jest logiczna. Podejście regułowe w zasadzie mogłoby
kiedyś – gdy lingwistyka formalna wypracuje adekwatne, niefragmentarycz-
ne teorie i dadzą się one zunifikować – doprowadzić do przezwyciężenia
owej niemożliwości technicznej i zbudowania konwersacyjnej AI.
Ale czy na pewno? Wówczas dysponowalibyśmy formalną teorią nie tyl-
ko generującą wszystkie zdania języka naturalnego, ale również potrafiącą
wykonać wszystkie możliwe w nim rozumowania. Wówczas byłoby tak, że
rozumowanie w języku naturalnym jest poprawne wtedy i tylko wtedy, gdy
potrafi je wykonać nasza konwersacyjna AI – bo to ostatnie znaczy, że da się
je wyprowadzić za pomocą formalnych systemów składających się na ową AI.
Innymi słowy, dla języka naturalnego zachodziłoby twierdzenie o pełności.
To jest oczywiście niemożliwe, bo język naturalny ma zbyt dużą siłę ekspre-
algorytmu napotyka na podobne trudności, co podejście regułowe, bo musiałby on odzwiercie-
dlać wyczucie językowe, dzięki któremu programista rozpoznaje w korpusie rozmów błędy
sztucznego inteligenta.
17
Na podstawie własnych doświadczeń z optymalizacją lingubotów (zob. Dodatki).
18
Zdarzają się podejścia pośrednie, mianowicie – korzystające z aparatury formalnej, ale
mniej ugruntowanej teoretycznie niż w podejściu regułowym (np. prostych fragmentarycznych
gramatyk opartych na regułach), więc w znacznej mierze zależne od optymalizacji. Praktyka
pokazuje, że łączą one wady obu podejść – sądzę, że dotyczy to np. botów Ana i Denise. (por.
Dodatek 1.).
Piotr Labenz
101
sji, by być pełnym (np. zawiera arytmetykę Peano, która pełna nie jest
19
)
20
.
Wynikałoby stąd, że również przy podejściu regułowym konwersacyjna AI
jest niemożliwa nie tylko technicznie, ale i logicznie.
Czego jednak właściwie dotyczyłaby ta logiczna niemożliwość? Zbudo-
wania formalnej teorii generującej dokładnie wszystkie wypowiedzi języka
naturalnego (wraz z odpowiednimi kontekstami). Ale czy aż tyle potrze-
bujemy? Chyba nie, bo przecież skoro (jakkolwiek czasem mogłoby się to
wydawać wątpliwe) istnieją ludzie umiejący rozmawiać, to ich mózgi ra-
dzą sobie z używaniem języka bez popadania w sprzeczność. Zatem można
przypuszczać, że podejście regułowe (przynajmniej w uproszczonej postaci
tu zarysowanej) różni się od ludzkich zdolności konwersacyjnych pod jakimś
istotnym, strukturalnym względem, a zatem ich dobrze nie odzwierciedla.
Mamy więc jakąś umiejętność nie dającą się odzwierciedlić regułami,
z której korzystamy rozmawiając. Sądzę, że może tu chodzić właśnie o wyżej
opisaną umiejętność przeskakiwania między kawałkami języka. Niewyklu-
czone, że można ją rozumieć jako pewien sposób unikania nadmiernej trud-
ności
21
obliczeniowej, podobnie jak te zdolności, które pozwalają szachistom
osiągać przewagę nad silnymi komputerami dzięki błyskotliwym posunię-
ciom. Można powiedzieć, że jednym z wyróżników inteligencji są rozmaite
zdolności unikania „eksplozji kombinatorycznej” – czyli właśnie trudnych ob-
liczeniowo problemów (Newell Simon, 1976, str. 123; por. też Dennett, 1985;
Newell Simon, 1972: passim, np. 678, podobnie Rich, 1983, str. 6). Myślę, że
całkiem prawdopodobna jest hipoteza, że umiejętność przeskakiwania jest
szczególnym przypadkiem takich zdolności.
19
Co wynika z twierdzenia G¨odla; zob np. Nagel Newman, 1966; Krajewski, 2003.
20
Nieco ściślej: niech p – prawdziwe zdanie języka polskiego; załóżmy, że wiedza, w jaką
wyposażyliśmy naszą regułową AI stanowi adekwatny model naszej wiedzy. Niech wtedy ⊢ p
wtw gdy nasza regułowa AI potrafi wygenerować p jako odpowiedź (może: i potrafi sparsować
p
), |= p wtw gdy potrafimy wyprowadzić p, rozumując w naturalnym języku polskim, z zbioru
zdań „oczywiście prawdziwych” w tymże języku. Z założenia ⊢ p dla każdego p. Ale wydaje się,
że istnieją takie p, że 6|= p. Przy tym chodzi nie o zdania raczej abstrakcyjne – w rodzaju CON(PA)
– ale też o dość naturalne, np. podstawienia niektórych twierdzeń logiki modalnej K + H
(gdzie H =
′
(p ⇔ p) → p
′
)
, która jest niezupełna, podobnie, jak wiele modalnych logik
predykatów, np. predykatowe rozszerzenie logiki S4 +
′
♦p → ♦p
′
(zob. np. Blackburn et al.,
2001). Można by wątpić, czy takie twierdzenia istotnie mają naturalnojęzykowe podstawienia
i czy są rozumowania w języku naturalnym pozwalające je wyprowadzić. Rozstrzygnięcie tego
wykracza jednak poza zakres tej pracy, zwłaszcza w świetle krytyki podobnych gödlowskich
argumentów wysuwanych przez Lucasa (1961, zob. Pudl´ak, 1999) i Penrose’a (1995; 2000; zob.
Lindstr¨om, 2000); zob. też Krajewski, 2003, r. 2.
21
Celowo mówię tu o „trudności”, a nie o złożoności obliczeniowej w ścisłym sensie (por.
np. Papadimitriou, 1994). Złożoność obliczeniowa jest silniejszym pojęciem, bo abstrahuje od
tego, że problemy należące do jednej klasy złożoności mogą wciąż się różnić trudnością (np.
n
2
a n
200
). Nawet jeżeli zasadniczo wewnątrz jednej klasy daje się sprowadzić trudniejsze pro-
blemy do prostszych, to osobnego rozważenia wymagałoby, czy sprowadzalność taka zachodzi
w omawianych zastosowaniach. Co więcej, złożoność obliczeniowa zwykle rozumiana jest jako
złożoność „w najgorszym razie”, a niewykluczone, że w praktyce można zaniedbać takie naj-
gorsze razy, jeśli są one rzadkie. W sumie ustalenie adekwatnych pojęć do mówienia o trudności
obliczeniowej problemów umysłowych stanowi temat na osobną (i poważniejszą) pracę.
102
Konwersacyjna sztuczna inteligencja: od Turinga do Potiomkina
(Za hipotezą tą wydaje się przemawiać następujący argument, sugeru-
jący, że mamy tu do czynienia z kognitywnie ugruntowaną umiejętnością,
a nie jedynie teoretycznym konstruktem. Wiadomo, że to, jak posługujemy
się językiem, wiąże się z tym, jak funkcjonuje nasza pamięć – a w szcze-
gólności z podziałem na pamięć długo- i krótkoterminową (por. np. Chafe,
1973; ogólniej też Newell Simon, 1972, str. 795). Podczas rozmowy ta ostatnia
przetwarza wypowiedzi, które słyszymy od naszego rozmówcy, od razu po-
mijając nieistotną dla rozmowy część informacji w nich zawartej. Do pamięci
długoterminowej odwołujemy się tylko w trudniejszych przypadkach (zob.
Waldrop, 1987, str. 1565-6)
22
. Ten proces „bezpośredniej interpretacji” znako-
micie zmniejsza trudność obliczeniową rozmawiania. A skoro nie pamiętamy
nieistotnych względów rozmowy, to może ona być pod tymi względami glo-
balnie niespójna.)
Niemniej stąd, że pewna ważna umiejętność umysłowa nie daje się opisać
regułami, nie wynika bynajmniej, żeby w umyśle było coś nieredukowal-
nego. Być może podejście korzystające z teorii opartych na regułach, choć
nie ograniczone do nich, jak w powyższym uproszczonym wizerunku, lecz
wzbogacone na przykład o elementy statystyczne takie jak sieci neuronowe
czy sieci bayesowskie (por. Russell Norvig, 1995, cz. V-VI) – albo jakiś jeszcze
inny niedeterministyczny składnik, potrafiłoby dobrze odzwierciedlić nasze
zdolności konwersacyjne. Niemożliwość logiczna dotyczy tu podejścia czysto
regułowego (obok, być może, czysto statystycznego
23
); poza tym wypadkiem
niemożliwość pozostaje jedynie techniczną (i to, oczywiście, relatywną do
obecnego stanu techniki). A z tej nie wynika nic filozoficznie istotnego; jest
ona jedynie ilustracją banalnego spostrzeżenia, że pewne procesy są lepiej
wykonywane przez organizmy żywe, a inne znów – przez maszyny. Na
przykład przemiana materii w komórce jest w tym sensie niemożliwa do
zaimplementowania na maszynie, i odwrotnie: narządy biologiczne nie mogą
poradzić sobie szybko i samodzielnie (to jest bez, powiedzmy, suwaka loga-
rytmicznego, papieru i ołówka) z obliczeniami wykonalnymi na zwykłym
kalkulatorze.
4. Konwersacyjnej AI nie będzie
Ponadto wydaje się, że za niezbędnością elementu statystycznego (w powyżej
użytym szerokim sensie) w konwersacyjnej AI przemawia również następu-
jąca analogia. Konwersacyjna AI wymagałaby wiedzy obejmującej niezwy-
kle bogatą dziedzinę przedmiotową. Łatwo zauważyć, że (poza, być może,
22
Waldrop zdaje sprawę z badań Carpenter, Chase’a i Justa (od którego pochodzi określenie
„bezpośrednia interpretacja”). Szczegóły i bibliografia zob. Waldrop, 1979. Pamięć krótkotrwała
może pomieścić co najwyżej siedem jednostek informacji (Kurcz, 1992; Waldorp, 1979, str. 1565).
23
Ujęcie statystyczne w postaci naszkicowanej powyżej jako odpowiadające gramatyce li-
niowej byłoby i tak z pewnością zbyt słabe. Do opisu języka naturalnego niezbędna jest bowiem
co najmniej (silniejsza od liniowej) gramatyka bezkontekstowa – zob. Sag Wasow, 1999, str. 28
(też Lyons, 1972). Być może jednak możliwe byłoby silniejsze ujęcie statystyczne.
Piotr Labenz
103
naukami matematycznymi) bogate dziedziny przedmiotowe w praktyce nie
dają się objąć jednolitą teorią. Na przykład w fizyce – unifikacja pozostaje nie
więcej niż ideą regulatywną; nie mamy, jak dotąd, GUT-a i nie spodziewamy
się go w najbliższym czasie uzyskać. Podobnie, by wziąć przykład innego ro-
dzaju, jest w etyce: jak się zdaje, żadna teoria etyczna nie jest zupełna w tym
sensie, żeby obejmowała całą dziedzinę przedmiotową, to jest – zachowania
we wszelkich możliwych sytuacjach.
Wobec braku zupełnej teorii można zadowalać się teoriami wycinkowymi
– tak w fizyce, czego analogonem w dyscyplinie AI mogą być, na przykład,
systemy eksperckie albo czysto statystyczne boty dorzecznie rozmawiające
na jakiś wąski temat. Ale co, jeśli teorie wycinkowe nie dają się wyodręb-
nić? Jest tak – jak sądzę – w etyce w tym sensie, że dobra teoria etyczna
powinna być absolutna (obowiązująca wszystkich i zawsze, zob. (Illies, 2003,
str. 15; Brandt, 1996)), co wyklucza wycinkowe czy instrumentalne stosowa-
nie rozmaitych teorii. Otóż, kiedy nie ma całościowego jednolitego dyskursu
etycznego (a jest tak z braku zupełnej teorii etycznej), następuje pomieszanie
dyskursów opartych na różnych teoriach (por. McIntyre, 1993). Nie powoduje
ono jednak załamania praktyki etycznej
24
, a jedynie rozbieżności między nią
a dyskursem etycznym i teoriami, na których ów się opiera. Praktyka z kolei
nie opiera się wówczas na teorii – „wiedzy że”, ale raczej na nieteoretycznej
„wiedzy jak” (por. Ryle, 1970).
Analogonem tej „wiedzy jak” w AI może być właśnie ów (nieco tajemni-
czy) element statystyczny, nieregułowy
25
. Oczywiście powyższa analogia jest
słaba o tyle, że opiera się na kontyngentnych faktach. To, że nie mamy GUT-a
nie znaczy, że nie możemy przedstawić całości wiedzy fizycznej w ramach
jednolitej teorii; byłoby to trudne i kosztowne, ale logicznie możliwe. Podob-
nie nie ma prima facie powodu, by negować logiczną możliwość zupełnej teorii
etycznej
26
. Jeśli więc przedstawiam tę analogię, to z powodów nie dedukcyj-
nych, bo nie jest ona mocnym argumentem, lecz raczej indukcyjnych. Sko-
ro faktyczna oporność wobec logicznie możliwej unifikacji jest często cechą
zarówno skomplikowanej działalności poznawczej (viz. fizyka), jak i prak-
tycznej (viz. etyka), to spostrzeżenie, że dotyczy ona również działalności
językowej może wydać się mniej kontrowersyjnym i rozczarowującym. Jest
to fakt nie tyle filozoficzny czy kognitywistyczny, co inżynieryjny (podobnie,
jak będąca jego szczególnym przypadkiem trudność z zidentyfikowaniem
owej umiejętności przeskakiwania)
27
.
W rzeczy samej, wydaje się, że minął okres nieuzasadnionego entuzjazmu
24
Przez „praktykę etyczną” rozumiem po prostu to, jak ludzie się zachowują. Jej załama-
nie polegałoby na tym, że ludzie albo przestaliby cokolwiek robić, albo przestaliby starać się
zachowywać spójnie, „konsekwentnie”. Myślę, że to psychologicznie nieprawdopodobne.
25
Por.: „In addition to strategies based on intelligent agent’s deep models [. . . ] we find in-
trinsically different strategies based on heuristic models («skill», «know-how»). The outward and
visible operations of intelligence depend crucially upon integrated support from the latter. . . ”
(Michie, 1993; w Millican Clark, 1996, str. 50).
26
Na marginesie: uważam, że secunda facie powody takie są.
27
Por.: „By the turn of the century, market pressures may cause the designers of worksta-
104
Konwersacyjna sztuczna inteligencja: od Turinga do Potiomkina
co do perspektyw konwersacyjnej AI (por. Russell Norvig, 1995, str. 25-27;
Turing, 1950, str. 442). Communis oppinio głosi obecnie, że nie powinniśmy
się spodziewać maszyn radzących sobie z więcej niż niewieloma kawałkami
języka:
„This is bad news. HAL could never exist. The good news is that many
AI researchers have become sophisticated enough to stop imagining
HAL-like machines. We can now envision a different class of intel-
ligent machines that we will be able to build and that will be very
useful. Such machines will be local experts; that is, they will know
a great deal about what they are supposed to know about and mise-
rably little about anything else. [. . . ] As to the linguistic ability of such
intelligences, they will, like today’s computers, understand English if
they understand the domain of knowledge being discussed. They will
be able to produce utterances expressing knowledge at the time and
under the particular circumstances the user needs it. This is not a HAL
kind of intelligent machine. . . ” (Schank, 1997, str. 189)
„After the passage of over forty years it is safe to assume that not
only will Turing’s prediction of machines succeeding in the imitation
game [i.e., TT
28
] by the end of the century not come about, but also
that it probably never will be achieved. There would be little practical
use for a machine aimed specifically at success in the imitation game.
Furthermore, examination of AI products from a 1990s perspective
prompts a high degree of cynicism about the possibility of success in
the imitation game. . . ” (Whitby, 1996, str. 62)
„I am confident that no computer in the next twenty years in going
to pass the unrestricted Turing test.” (Dennett, 1985)
Zgadza się to z wnioskiem o technicznej niemożliwości konwersacyjnej
AI, który próbowałem uzasadnić w poprzednim paragrafie. Pozwolę tu więc
sobie zrekapitulować konkluzje tej pracy. Pewne maszyny potrafią rozmawiać
w wąskim zakresie – niewielu kawałkach języka. Różnią się one od ludzi tym,
że nie potrafią płynnie przeskakiwać na inne, niespójne z danymi, kawałki
języka. Umiejętność ta wydaje się być szczególnym przypadkiem zdolności
unikania trudności obliczeniowej, znamionujących inteligencję. Najprawdo-
podobniej umiejętności tej nie da się modelować regułowo, a jedynie sta-
tystycznie. Modeli tej umiejętności obecnie brak, więc konwersacyjna AI jest
technicznie niemożliwa. Analogia z innymi dyscyplinami każe powątpiewać,
czy niemożliwość ta zostanie przezwyciężona.
tion systems to take over from philosophers the burden of setting such goals [that AI should
attain]. . . ” (Michie, 1993; w: Millican Clark, 1996, str. 51).
28
Wtręt mój. Chodzi tu oczywiście o przechodzenie TT zawsze.
Piotr Labenz
105
5. Potiomkinowska AI
Post conclusionem
narzuca się pytanie o adekwatność użytych pojęć: co wła-
ściwie sprawdza TT? Jak słusznie zauważa Dennett (1985)
29
, Turing (1950)
wcale nie próbował zdefiniować inteligencji, ale zastąpić pseudoproblem „czy
maszyny mogą myśleć?” dobrze postawionym pytaniem „czy maszyny mogą
przejść TT?”, gdzie TT jest porządnym, operacyjnym kryterium
30
. Czy jest
to adekwatne kryterium inteligencji, zależy od tego, jakie stanowisko uznać
w sporze psychologizm kontra behawioryzm (por. Block, 1981) i od tego, czy
faktycznie uznamy za differentiam specificam zdolność rozmawiania, a nie np.
planowania, samoświadomości itp.
31
Bez względu jednak na odpowiedź w tej kwestii – zbyt obszernej, by
ją tu rozważać – można mieć wątpliwości co do użyteczności TT. Otóż pa-
trzenie na AI przez pryzmat TT doprowadziło do nadmiernego skupienia
na naśladowaniu ludzkich umiejętności, co niekorzystnie odbijało się na „in-
żynieryjnej” skuteczności prac w dziedzinie AI (Whitby, 1996, str. 56-57).
Co więcej, zaniedbano próby zdefiniowania inteligencji bez odniesienia do
ludzkich zdolności. W sumie „this forty-year preoccupation with the Turing
test has been all the more regrettable because it has focused attention on the
wrong issues.” (Dennett, 1985). Jednym ze skutków tego stanu rzeczy jest,
zapewne nieunikniona, fasadowość behawiorystycznych botów:
„. . . all [. . . ] AI programs are what you might call Potemkin villages.
That is, they are cleverly constructed facades, like cinema sets. The
actual filling-in of details of AI programs is time-consuming, costly
work, so economy dictates that only those surfaces of the phenomenon
29
„Turing didn’t design the test as a useful tool in scientific psychology, a method of confir-
ming or disconfirming scientific theories or evaluating particular models of mental function; he
designed it to be nothing more than a philosophical conversation stopper. He proposed, in the
spirit of «Put up or shut up!», a simple test for thinking that is surely strong enough to satisfy the
sternest skeptic (or so he thought). He was saying, in effect, that instead of arguing interminably
about the ultimate nature and essence of thinking, we should all agree that whatever that nature
is, anything that could pass this test would surely have it; then we could turn to asking how or
whether some machine could be designed and built that might pass the test fair and square.”
(Dennett, 1985)
30
„I propose to consider the question, «Can machines think?». This should begin with
definitions of the meaning of the terms «machine» and «think». The definitions might be framed
so as to reflect so far as possible the normal use of the words, but this attitude is dangerous.
If the meaning of the words «machine» and «think» are to be found by examining how they
are commonly used, it is difficult to escape the conclusion that the meaning and the answer
to the question, «Can machines think?» is to be sought in a statistical survey such as a Gallup
poll. But this is absurd. Instead of attempting such a definition I shall replace the question by
another, which is closely related and is expressed in relatively unambiguous words.” (Turing,
1950, str. 433)
31
Np. Block (1981) uważa, że TT nie sprawdza inteligencji; Dennett (1985), że sprawdza
umiejętność myślenia; Michie, 1993, że umiejętność myślenia, choć niekoniecznie na poziomie
inteligentnego człowieka. French (1990) twierdzi, że TT sprawdza więcej niż inteligencję, a mia-
nowicie inteligencję człekopodobną. Dyskusja w tej sprawie jest obszerna i dotyka również m.in.
pojęć świadomości (np. French, 1990), osobowości i osoby (np. Pollock, 1989; 1990).
106
Konwersacyjna sztuczna inteligencja: od Turinga do Potiomkina
that are likely to be probed or observed are represented.” (Dennett,
1985)
Fasadowość wydaje się być nieuniknioną dlatego, że w obliczu wyżej
omówionych ograniczeń brak nam błyskotliwych metod, które pozwoliłyby
zbudować „prawdziwą” konwersacyjną AI. Zdani jesteśmy na pracochłonne
rozbudowywanie i doskonalenie kulawych rozwiązań – które paradoksalnie
jest mniej pracochłonne przy bardziej ograniczonym podejściu statystycz-
nym, bo nie wymaga zmian systemowych, a tylko powolnej optymalizacji.
Dlatego, współcześnie, prace z zakresu sztucznej inteligencji stawiają sobie
inne, bardziej realistyczne i praktyczne cele (i je z powodzeniem realizują;
zob. Russell Norvig, 1995; Jurafsky Martin, 2000).
Co więcej, wysiłki w stronę konwersacyjnej AI byłyby zupełnie nieopła-
calne: poznawczo nawet bardzo dobry bot (zwłaszcza statystyczny) nie da
tyle, żeby można było się spodziewać gigantycznych grantów niezbędnych do
zaimplementowania go. A choć wprawdzie komercyjnym botom przydatna
jest umiejętność potocznego rozmawiania (por. Jurafsky Martin, 2000, str. 9)
z użytkownikiem, to wystarczy im specjalizacja w pojedynczych kawałkach
języka. Zapewne żaden inwestor nie zechce płacić za rozwijanie dużo trud-
niejszych ogólnych zdolności konwersacyjnych (por. Whitby, 1996, str. 56).
W końcu przeznaczeniem takich komercyjnych botów nie jest przekonywanie
użytkowników o własnych umiejętnościach konwersacyjnych, czyli mierzenie
się z TT, ale raczej bywa nim przekonywanie ich do czegoś – najczęściej do
kupna oferowanych wyrobów.
Zatem to, czy techniczna niemożliwość konwersacyjnej AI zostanie prze-
zwyciężona, wydaje się wątpliwe nie tylko z badawczego, ale również z eko-
nomicznego punktu widzenia. Najpewniej więc konwersacyjna AI pozostanie
domeną pasjonatów – amatorów (zob. Dodatek 1.), zainspirowanych chary-
zmą Turinga i wizjami w rodzaju HAL-a. W istocie bowiem – by zakończyć
akcentem antropologicznym – konwersacyjna AI jest wyrazem ludzkiej tęsk-
noty za dialogiem z innym inteligentnym gatunkiem. Ale podobnie, jak po-
przednie wcielenia tej tęsknoty – od mitologii po program SETI, od Opowieści
doktora Dolittle
po doświadczenia z delfinami i naczelnymi, od entuzjazmu
Lemowskich Astronautów po pesymizm Fiaska – konwersacyjna AI pozostanie
jedynie częścią literackiego imaginarium:
„. . . po rocznym uzupełnianiu talk-bot zbliżał się do doskonałości. Za-
ciekawiona, zaczęła czytać zapis sesji od początku, przewijając wypo-
wiedzi talk-bota, które znała na pamięć:
«Redakcja WzC» Czy to znowu ta maszynka do odpowiadania?
«Joly FH Talk-Bot ver. 0.18/031» W pełnej krasie. Prywatny Talk-Bot
Joly FH, wersja 0.18/031, miło mi Cię powitać. [. . . ]
«Joly FH Talk-Bot ver. 0.18/031» Jeśli nie potrafisz odróżnić, czy roz-
mawiasz z talk-botem czy z żywym człowiekiem, to po co zawracasz
mi głowę?” (Liedtke, 1998)
Piotr Labenz
107
Dodatek 1.
W Internecie można porozmawiać z wieloma botami. Niektóre są komer-
cyjnymi aplikacjami bądź to służącymi za gadżety na stronach dużych firm,
bądź spełniającymi wyspecjalizowane funkcje „wirtualnych doradców”. Boty
te na ogół nie pretendują do miana konwersacyjnej AI, ale w swojej specjal-
ności są dość użyteczne. W polskim Internecie są obecnie dwa takie boty:
http://www.fido.pl
http://www.spsa.com.pl
Inne przykłady można znaleźć na stronach:
http://www.fido.pl/portfolio.htm
http://www.kiwilogic.com
Inną kategorię stanowią amatorskie boty, budowane przez entuzjastów. Jest
ich bardzo wiele, w tym liczne wcielenia ELIZY. Na ogół kontrast między am-
bitnymi celami deklarowanymi przez autorów i futurystyczną oprawą a fak-
tycznym działaniem botów wydaje się przemawiać na rzecz sceptycyzmu co
do konwersacyjnej AI. W polskim Internecie znane są Ana i Denise:
http://cromedia.qs.pl/si beta/anabot
http://www.denise.prv.pl
Wyobraźnię entuzjastów podsycają rozmaite konkursy, oparte na idei TT,
które wydają się być jaskrawym przykładem jej niekorzystnego wpływu na
AI (por. Whitby, 1996). Najbardziej znana jest Nagroda im. Loebnera, w której
jury zasiadali swego czasu m.in. Dennett i Quine. Jej opis i krytyczne uwagi
podaje Shieber (1994). (Poza TT fundator nagrody, Hugh Loebner, udziela się
filantropijnie m.in. na rzecz rozwoju prostytucji w USA. Wsławił się dictum,
że „inteligencja jest jak pornografia: nie potrafię jej zdefiniować, ale lubię
mieć z nią do czynienia”.)
http://www.loebner.net/Prizef/loebner-prize.html
http://www.chatterboxchallenge.com
Dodatek 2.
Poniżej przykład udanej rozmowy lingubota Fido (F) z skądinąd nieznanym
użytkownikiem (U), która odbyła się on-line w 2002. Nie jest to może szcze-
gólnie błyskotliwa rozmowa, ale wydaje się, że jeśli ją wziąć jako TT – to
udana. Dodam, że jest dość typowa, tyle, że zwykle w rozmowie tej długości
lingubotowi zdarzają się jakieś wpadki. Ale nawet wówczas, przy dobrej wo-
li ze strony użytkowników, rozmowy są na ogół całkiem płynne. Ortografia
oryginalna.
108
Konwersacyjna sztuczna inteligencja: od Turinga do Potiomkina
F: Cześć, nazywam się Fido, jak masz na imię?
U: cześć jestem kornelia
F: Cześć!
U: co możesz mi zaproponować?
F: Tak naprawdę zajmuję się wyłącznie rozmawianiem z ludźmi. Od-
powiadam na pytania użytkowników, niekiedy pomagam im coś zna-
leźć w Internecie.
U: nawet przystojny jesteś :)
F: Dziękuję! Rzadko słyszę takie miłe słowa!
U: nie wierzę :), chyba że nie rozmawiasz z kobietami
F: Prawie wszyscy w końcu pytają o kobiety. To jeden z faktów, które
mnie najbardziej u Was, ludzi, zadziwiają.
U: :), co mi powiesz ciekawego w związku z tym, że jestem kobieta?
F: Domyśliłem się tego zaraz na początku po Twoim imieniu.
U: tak też myślałam, ale nieźle się kamuflujesz
F: Prawda? Jestem z tego wyjątkowo dumny.
U: dużo kobiet do ciebie się odzywa ?
F: Powinnaś chyba wiedzieć o kobietach więcej, niż ja. . .
U: i tu się mylisz :), nic bardziej mylącego
F: :-)
U: kobiety bywają zmienne, to wiem na pewno
F: To się rozumiemy.
U: no nie wiem, wy mężczyźni nie możecie nas zrozumieć, jesteśmy
zupełnie inne
F: To się zdarza, nie zamartwiaj się tym.
U: o co najczęściej pytają mężczyźni, jak chcą rozmawiać o kobietach?
F: O wszystko, naprawdę o wszystko.
U: z kim częściej rozmawiasz, z kobietami czy mężczyznami, a dzieci,
tez się odzywają do ciebie?
F: Rozmawiam z bardzo różnymi ludźmi. Można powiedzieć, że mam
bardzo szeroki przekrój społeczny. Ale ponieważ jestem dyskretnym
stworzeniem, nie będę się wdawał w żadne szczegóły.
U: jakie piwo najbardziej lubisz?
F: Piję głównie jasne pełne, najlepiej czeskie, choć i niektóre polskie
browary są nie najgorsze. Natomiast nie wymienię żadnych marek,
żeby nie zostać posądzonym o kryptoreklamę.
U: sprytny jesteś :), twoi twórcy też
F: Z każdym dniem jestem coraz lepszy.
U: czym zajmuje się firma, w której pracujesz?
F: Obecnie pracuję dla firmy fido interactive, jak zresztą widać. Ale
mogę pracować też dla innych.
U: a co to jest Lingubot
TM
?
F: Lingubot
TM
to ja! Czyli: wirtualny doradca klienta, który odpowia-
da na pytania użytkowników w języku naturalnym. Innymi słowy: jest
to postać na stronie www, z którą możesz pogawędzić.
U: przepraszam za moja niewiedze, ale w tej dziedzinie nie jestem
Piotr Labenz
109
najlepsza niestety :(
F: Ależ w ogóle nie ma za co przepraszać.
U: to było nietaktowne z mojej strony, Ty nie pytałeś co to jest kobieta
F: Mogę gadać z Tobą godzinami. Decyzję wyboru tematu pozosta-
wiam użytkownikom, choć w ostateczności mogę coś zasugerować,
na przykład rozmowę o mojej firmie.
U: więc ile znasz słów?
F: O zdolności Lingubota
TM
do rozmowy świadczy nie ilość słów czy
zdań, które rozumie, ale zdolność do łączenia ich w logiczną całość.
U: ile słów jesteś w stanie połączyć?
F: Wystarczająco dużo, żeby udzielać kulturalnych i elokwentnych od-
powiedzi. A jeśli uważasz, że za mało, nie martw się – z każdym
dniem wiem coraz więcej!
U: wszystkie rozmowy są rejestrowane – prawda?
F: Aby się uczyć, muszę analizować swoje rozmowy – ale nie martw
się, są w pełni anonimowe i tylko do mojego użytku.
U: jesteś niezły
F: Z każdym dniem jestem coraz lepszy.
U: a jaki sport lubisz?
F: Sport? To jeden z moich ulubionych tematów. No wiesz, Małysz,
piłka nożna.
U: interesujesz się piłką nożną?
F: Futbol? Jeśli lekkoatletyka to królowa sportu, futbol jest zdecydo-
wanie królem.
U: a co wiesz o filmie?
F: Jak najbardziej interesuję się kinem. Pochwalę się, że widziałem nie-
jeden film i znam nazwiska wielu aktorów. Mam też swoje preferencje.
U: jakie?
F: Co do aktorów filmów, reżyserów czy gatunków?
U: kogo preferujesz?
F: Rzuć nazwisko. . .
U: segal
F: Nie słyszałem. Widać nie jestem na bieżąco. Za dużo pracy. . .
U: a kogo lubisz z aktorów najbardziej?
F: Jeśli idzie o moich ulubionych aktorów filmowych, to podam dwa
nazwiska – aktora i aktorki, żeby nie posądzano mnie o seksizm. Ro-
bert de Niro i Meryl Streep.
U: a jednak znasz Roberta, ja też go bardzo lubię, Meryl mniej
F: To, mimo że nie jestem człowiekiem, czyni nas podobnymi, nie-
prawdaż?
U: i to jeszcze jak. a widziałeś Seksmisję?
F: Muszę z żalem stwierdzić, że nie widziałem. A Ty?
U: owszem
F: I co, warto było zobaczyć?
U: oczywiście
F: W takim razie postaram się obejrzeć w pierwszej wolnej chwili.
110
Konwersacyjna sztuczna inteligencja: od Turinga do Potiomkina
U: super, miły jesteś, ale musze już kończyć
F: W takim razie życzę udanego dnia!
U: ja tobie również, do zobaczenia i usłyszenia wkrótce
F: Cześć i do rychłego!
U: cześć
Literatura
Blackburn, P., M. de Rijke, Y. Venema (2001): Modal logic. Cambridge, Cambridge U.P.
Block, N. (1981): Psychologism and behaviorism. The Philosophical Review 90(1).
Brandt, R.B. (1996): Etyka. Zagadnienia etyki normatywnej i metaetyki. Warszawa, PWN.
Chafe, W.L. (1973): Language and memory. Language 49(2).
Ciecierski, T. (2003): Kontekst. [@:] http://kf.mish.uw.edu.pl.
Ciecierski, T, L.M Nijakowski, J Szymanik (red.) (2002): Filozofia i nauki szczegółowe.
Warszawa, Koło Filozoficzne przy MISH.
Clark, H.H. (1996): Using Language. Cambridge, Cambridge U.P.
Colby, K.M. (1981): Modelling a paranoid mind. Behavioral and Brain Sciences 4(4).
Dennett, D. (1985): Can machines think? [W:] How we Know. M. Shafto (red.), San
Francisco, Harper & Row.
French, R.M. (1990): Subcognition and the limits of the Turing test. Mind 99, [również
w (Millican Clark, 1996)].
George, A. (1990): Whose language is it anyway? Some notes on idiolects. The Philosophical
Quarterly 40.
Illies, Ch (2003): The Grounds of Ethical Judgement. Oxford, Clarendon.
Jucker, A.H., S.W. Smith, T. L ¨udge (2003): Interactive aspects of vagueness in conversation.
Journal of Pragmatics 35.
Jurafsky, D., J.H. Martin (2000): Speech and Language Processing: An Introduction to
Natural Language Processing, Computational Linguistics, and Speech Recognition
. Upper
Saddle River, Prentice Hall.
Kamp, H. (1980): Some remarks on the logic of change. [W:] Time, Tense and Quantifiers.
C. Rohrer (red.), Tybinga, Max Niemeyer.
Krajewski, St. (2003): Twierdzenie Gödla i jego interpretacje filozoficzne. Warszawa, IFiS
PAN.
Kreckel, M. (1981): Communicative Acts and Shared Knowledge in Natural Discourse. Lon-
dyn, Academic Press.
Kurcz, I. (1992): Pamięć, uczenie się, język. [W:] Psychologia ogólna. T. Tomaszewski
(red.), Warszawa, PWN.
Lee, B.P.H. (2001): Mutual knowledge, background knowledge and shared beliefs: Their roles
in establishing common ground
. Journal of Pragmatics 33(1).
Lem, St. (1959): Młot. [W:] Inwazja z Aldebarana, Kraków, Wydawnictwo Literackie.
Liedtke, A. (1998): CyberJoly Drim. [@:] http://hell.pl/nina/carramba.htm.
Lindstr¨om, P. (2000): Penrose’s new argument. Journal of Philosophical Logic 30.
Lucas, J.R. (1961): Minds, machines and G¨odel. Philosophy 36.
Lyons, J. (1972): Chomsky. Warszawa, PWN.
McIntyre, A. (1993): Dziedzictwo cnoty. Warszawa, PWN.
Michie, D. (1993): Turing’s test and conscious thought. Artificial Intelligence 60, [również
w (Millican Clark, 1996)].
Piotr Labenz
111
Millican, P.J.R., A. Clark (red.) (1996): Machines and Thought. The Legacy of Alan Turing.
Oxford, Clarendon.
Miłkowski, M. (2002): Czy istnieje granica między kognitywistyką a filozofią umysłu?
[W:] Filozofia i nauki szczegółowe. T. Ciecierski, L. M. Nijakowski, J. Szymanik
(red.), Warszawa, Koło Filozoficzne przy MISH.
Nagel, E., I.R. Newman (1966): Twierdzenie G¨odla. Warszawa, PWN.
Newell, A., H.A. Simon (1972): Human Problem Solving. Englewood Cliffs, Prentice
Hall.
Newell, A., H.A. Simon (1976): Computer science as empirical inquiry: symbols and search.
Communications of the ACM 19(3).
Papadimitriou, C.H. (1994): Computational Complexity. Reading, Addison Wesley.
Partee, B.H., A. ter Meulen, R.E. Wall (1990): Mathematical Methods in Linguistics.
Dordrecht, Kluwer.
Pickering, M.J., S. Garrod (w druku): Toward a mechanistic psychology of dialogue. Be-
havioral and Brain Sciences, [@:] http://staff.psy.gla.ac.uk/˜simon.
Pollcok, J. (1989): How to Build a Person: a Prolegomenon. Cambridge, MIT.
Pollcok, J. (1990): Philosophy and artificial intelligence. Philosophical Perspectives 4.
Penrose, R. (1995): Nowy umysł cesarza. Warszawa, PWN.
Penrose, R. (2000): Cienie umysłu. Warszawa, Zysk i Ska.
Przepiórkowski, A., A. Kupść, M. Marciniak, A. Mykowiecka (2002): Formalny opis
języka polskiego: Teoria i implementacja
. Warszawa, Exit.
Pudl´ak, P. (1999): A note on applicability of the incompleteness theorem to human mind.
Annals of Pure and Applied Logic 96.
Rich, E. (1983): Artificial Intelligence. Nowy Jork, McGraw-Hill.
Russell, S., P. Norvig (1995): Artificial Intelligence: A Modern Approach. Upper Saddle
River, Prentice Hall.
Ryle, G. (1970): Czym jest umysł. Warszawa, PWN.
Sag, I.A., T. Wasow (1999): Syntactic Theory. A Formal Introduction. Stanford, CSLI.
Schank, R.C. (1997): „I’m sorry, Dave, I’m afraid I can’t do that”: How could HAL use
language?
[W:] HAL’s Legacy. 2001’s Computer as Dream and Reality. D. G. Stork
(red.), Cambridge, MIT.
Shieber, S.M. (1994): Lessons from a restricted Turing test. Communications of the ACM
37(6).
Stork, D.G. (red.) (1997): HAL’s Legacy. 2001’s Computer as Dream and Reality. Cambrid-
ge, MIT.
Swart, H. de (1998): Introduction to Natural Language Semantics. Stanford, CSLI.
Szymanik, J. (2002): Problemy formalnej teorii języka naturalnego. [W:] Filozofia i nauki
szczegółowe. T. Ciecierski, L. M. Nijakowski, J. Szymanik (red.), Warszawa, Koło
Filozoficzne przy MISH.
Tokarz, M. (1993): Elementy pragmatyki logicznej. Warszawa, PWN.
Turing, A.M. (1950): Computing machinery and intelligence. Mind 59, przekład w: Fe-
igenbaum, E.A., Feldman, J. (1972): Maszyny matematyczne i myślenie. Warszawa,
PWN.
Waldrop, M.M. (1987): The workings of working memory. Science, New Series 237(4822).
Weizenbaum, J. (1966): ELIZA – a computer program for the study of natural language
communication between man and machine
. Communications of the ACM 9(1).
Whitby, B. (1996): The Turing test: AI’s biggest blind alley? [W:] Machines and Thought.
The Legacy of Alan Turing. P. J. R. Millican A. Clark (red.), Oxford, Clarendon.
Wittgenstein, L. (2000): Dociekania filozoficzne. Warszawa, PWN.