Część I - Zagadnienia ogólne
Jak pisałam w mojej książce Semantic Primitives (Wierzbicka 1972: 3), twórcy i hadac?eję/yków sztucznych często przywiązują dużą wagę do arbitralności „terminów elementarnych" używanych w tych językach. Na przykład Nel-900 Goodman (1951: 57) pisał tak: „Dany termin uznawany jest za elementarny wdanym systemie nie dlatego, że jest niedefiniowalny; przeciwnie - traktuje się go jako niedefiniowalny właśnie dlatego, że został on uznany za elementarny w danym systemie [...] Ogólnie rzecz biorąc, terminy przyjęte jako jednostki elementarne w danym systemie można z powodzeniem zdefiniować w innym. Nie ma czegoś takiego, jak jednostka absolutnie elementarna czy jedyny właściwy zestaw takich jednostek".
Jednak przekonanie, że dotyczy to również języka naturalnego, jest błędne i przyczynia się do stagnacji w badaniach semantycznych. Nie ma rzecz jasna powodów, dla których językoznawcy nie mieliby wynajdywać arbitralnych zestawów jednostek elementarnych i „definiować” za ich pomocą tego, co chcą; mamy byłby jednak z tego pożytek, jeżeli zależy nam na zrozumieniu natury języka i poznania Zacytujmy Leibniza:
Gdyby nie istniało nic zrozumiałego samo przez się, w ogóle nie bylibyśmy w stanie nic zroaunieć To, co można zrozumieć poprzez coś innego, może być zrozumiałe tylko na tyle. aa ile zrozumiała jest u druga rzecz i tak dalej. Możemy dlatego uznać, że coś zrozumieliśmy tylko wtedy, kiedy rozbiliśmy to na części zrozumiałe same przez się. (Leib-tuz 1903b:430)
Semantyka może mieć wartość wyjaśniającą tylko wtedy, gdy zdoła zdefiniować (lub wyeksplikować) złożone i niejasne znaczenia w kategoriach znaczeń prostych i zrozumiałych same przez się. Jeżeli rozumiemy wyrażenia językowe (wypowiadane przez kogoś innego lub nas samych), dzieje się tak tylko dzięki temu, że wyrażenia te zbudowane są z elementów prostych, które rozumiemy niezależnie od innych.
To podstawowe założenie, zapomniane przez współczesne językoznawstwo, było często przywoływane w pismach wielkich myślicieli siedemnastowiecznych, takich jak Kartezjusz, Pascal. Amauld i Leibniz. W swoim Poszukiwaniu pra1dy poprze: świtało przyrodzone rozumu Kartezjusz pisał tak:
Ponadto isuńeją pewne rzeczy, loóre chcąc zdefiniować jeszcze bardziej zaciemniamy,
|wn ir tą one, moim zdaniem, tak bardzo proste i bardzo jasne, iż nie dadzą się poznać mu pojąć lepiej, jak tylko same przez się. Wszak do głównych pono błędów, jakie można popełnić w naukach, należy zaliczyć błąd tych, którzy chcą definiować to, co da tię jedynie pojąć, i którzy nic są w stanie odróżnić rzeczy jasnych od ciemnych, tego, co, aby je poznać, domaga się definicji i co na określenie zasługuje, od tego, co najlepiej można poznać tamo przez Ńę. (Descartes 1958: 149 ).
Dla Kartezjusza, tak jak i dla Leibniza, nie istniał więc problem „wyboru” jakiegoś arbitralnego zestawu jednostek elementarnych; chodziło o to, by ustalić, które pojęcia faktycznie są tak jasne, że nie można ich zrozumieć inaczej niż przez nie same oraz o to, by wyjaśnić wszystko za ich pomocą.
Ta podstawowa zasada została przede wszystkim zastosowana do semantyki leksykalnej i wyrażona w kategoriach definiowalności słów. Zacytujmy Pascala (1667/1954: 580):
Jasne jest, że istnieją słowa niedefiniowalne i że gdyby natura nie zatroszczyła się o ten stan rzeczy, dając wszystkim ludziom tę samą ideę [związaną z danym słowem - A.G.], wszystkie nasze wyrażenia byłyby niejasne. Możemy jednak używać tych słów z taką ufnością i pewnością, jak gdyby były one zdefiniowane w sposób najklarowniejszy z możliwych, ponieważ sama natura dała nam [...] lepsze ich rozumienie niż osiągnęlibyśmy dzięki jakimkolwiek objaśnieniom.
Podobnie sądził Amauld (Amauld i Nicole 1958: 121-122):
Zauważmy po pierwsze, że błądzi ten, kto chce definiować wszystkie wyrazy; jest to bowiem niepotrzebne a nawet niewykonalne. Powiadam, że pewnych wyrazów nie trzeba definiować, bo zdarza się, że ludzie mają jasną i wyraźną ideę jakiejś rzeczy i że wszyscy, którzy rozumieją dany język, słysząc pewien wyraz, tworzą sobie tę samą ideę. Wtedy zaś nie ma potrzeby definiowania tego wyrazu, gdyż posiada się już to, co jest celem definicji: wyraz jest związany z jasną i wyraźną ideą. Z taką sytuacją mamy do czynienia w wypadku rzeczy bardzo prostych, które wszyscy ujmują przy pomocy tej samej idei, tak iż słowa wyrażające te idee są w ten sam sposób rozumiane przez wszystkich ludzi, którzy się nimi posługują. [...]
Twierdzę też, że nie można by zdefiniować wszystkich wyrazów. Chcąc bowiem zdefinować jakiś wyraz, to jest chcąc związać go z pewną ideą, trzeba wskazać na nią przy pomocy innych wyrazów; a gdyby się chciało z kolei zdefiniować wyrazy użyte przy definiowaniu tamtego, potrzebowałoby się innych znowu wyrazów; i tak dalej w nieskończoność. Trzeba więc koniecznie zatrzymać się przy pewnych terminach pierwotnych, których się już nie definiuje. I byłoby to równie wielkim błędem chcieć zbyt wiele definiować, co nie dosyć definiować; jedno i drugie bowiem powodowałoby nieja-
9
sność, której właśnie chce się uniknąć . (wyróżnienie A. W.)
Pomimo zapewnień, iż gramatyka generatywna stanowi kontynuację językoznawstwa kartezjańskiego” (por. Chomsky 1966), Chomsky unikał jakiejkolwiek wzmianki na temat omawianego w powyższych cytatach centralnego wątku kartezjańskiej (a także leibnizowskiej) teorii języka i umysłu (por. także odniesienia do „kartezjańskiej koncepcji” języka i poznania w późniejszych pracach Chomsky'ego, np. Chomsky 199 la).
Moje własne zainteresowanie niearbitralnymi elementarnymi jednostkami semantycznymi zrodziło się podczas wykładu, który wygłosił w Uniwersytecie Warszawskim w roku 1965 polski językoznawca Andrzej Bogusławski. „Złoty sen” siedemnastowiecznych myślicieli, którego nie dało się zrealizować na polu
‘‘ Tłum. Seweryna Romahnowa. [przyp. tłum.]
Tłum Ludwik Chana), [przyp tłum.]