uproszczona definicja zachwieje się jednak, gdy zostaniemy zmuszeni do dokładnego sprecyzowania słów „maszyna” i „myślenie”. Z „myśleniem” będą niemal takie same kłopoty jak z „inteligencją”. „Maszyna” natomiast skojarzy się tradycyjnie z brzydkim hałaśliwym mechanizmem przeznaczonym do wykonywania paru niezbyt złożonych czynności, urządzeniem na tyle automatycznym w zachowaniu, że z natury rzeczy niezdolnym do myślenia. Jedyne, co wtedy pozostanie, to odwrócić uwagę dyskutantów jakimś związanym z tematem (choć niekoniecznie wyszukanym) dowcipem. Na przykład: „Maszyny istotnie nie myślą, są jak kobiety — kalkulują”.
Chyba więc trzeba porzucić tego typu rozważania i na roboczo zgodzić się z definicjami proponowanymi przez samych twórców sztucznej inteligencji. Choćby z tą, którą przyjęli Feigenbaum i Feldman: „Budowanie takich programów dla maszyn cyfrowych, które zachowują się w sposób nazywany przez nas w odniesieniu do ludzkich istot inteligentnym zachowaniem się»”.1 Tu już spory nomenklaturowe zawęziły się do grona czujących sprawę specjalistów. Z pewnością domagaliby się oni uzupełnień, np. wzmianki o sprzęcie lub układach komunikacji człowiek—maszyna, ale rozmowa przebiegałaby znacznie spokojniej.
Zawiłości terminologiczne odpadają, gdy definicja sztucznej inteligencji opiera się na wyniku jakiegoś prostego doświadczenia, na podstawach empirycznych. Tak właśnie swego czasu postąpił Alan Turing. Zamiast rozstrzą-sać w abstrakcyjnych kategoriach problem: „czy maszyny mogą myśleć?”, uzależnił sprawę od wyniku testu nazwanego „grą w naśladownictwo”. Pomysłem natchnęła go „sa-
1 Cyt. wyd.