Współczesne językoznawstwo do dziś odwołuje się do teorii powstałych w początkach XX w. Trzy aktualne przyjmowane teorie języka to:
strukturalizm (pierwsza połowa XX wieku);
generatywizm (od połowy XX wieku);
językoznawstwo kognitywne (od lat 80. XX wieku).
STRUKTURALIZM
Za twórcę strukturalizmu uważany jest Ferdynand de Saussure (1857—1913). [Wiele z jego tez jest uznawanych przynajmniej przez niektórych językoznawców - do dnia dzisiejszego.
Najważniejsze elementy jego teorii to:
uznanie, że wyrazy języka naturalnego są znakami, a nie nazwami;
stworzenie bilateralnej teorii znaku (teza, że na znak językowy składa się kształt i pojęcie;
teza o konwencjonalnym charakterze związku między kształtem a znaczeniem znak;
oddzielenie języka jako systemu (franc. langue) od zdolności człowieka do posługiwania się językiem (franc. langage) i faktycznego wykorzystania konkretnego systemu językowego (franc. parole);
uznanie, że langue (język jako system) jest zjawiskiem społecznym, danym wszystkim użytkownikom danego języka;
określenie, na czym polega systemowość języka.
Inne ważne tezy de Saussure'a to:
postulat rozdzielenia badań synchronicznych nad językiem od badań diachronicznych;
postulat autonomii językoznawstwa (oderwania od psychologii, literaturoznawstwa itd.).
Poglądy zbliżone do tez de Saussure'a głosili wcześniej przedstawiciele szkoły kazańskiej; najsłynniejszy z nich to Jan Baudouin de Courtenay (1845—1929).
W ramach strukturalizmu wyodrębnia się zwykle co najmniej cztery różne szkoły, dwie zaliczane do tzw. strukturalizmu europejskiego (szkoła kopenhaska i szkoła praska), dwie zaliczane do strukturalizmu amerykańskiego (deskryptywizm i etnolingwistyka).
Wspominamy je dlatego, że wywarły one największy wpływ na dalszy rozwój językoznawstwa, a w szczególności cieszą się dużą popularnością w Polsce.
1.1. Szkoła kopenhaska
Jej najsłynniejszym przedstawicielem i twórcą był Luis Hjelmslev (1899—1965). Szkoła ta miała charakter skrajnie teoretyczny. Na współczesne językoznawstwo największy wpływ wywarły stworzona przez Hjemsleva teoria komutacji (pozwalająca odróżnić to. co należy do systemu języka, od tego, co do niego nie należy) oraz teoria znaków i figur. U podstaw obu teorii leży rozszerzona bilateralna teoria znaku, każąca oddzielić tzw. plan wyrażania (zawierający kształt znaku) od planu treści (zawierającego znaczenie znaku). Wyrażenia języka naturalnego podlegają podziałowi na znaki - (z zachowaniem bilateralnego charakteru) tylko do pewnego momentu, a mianowicie do wyodrębnienia znaków prostych, już dalej niepodzielnych na znaki.
Dalsza analiza jest możliwa tylko po oddzieleniu planu wyrażania i planu treści i podziale na figury, czyli jednostki unilateralne. Istnieją figury planu wyrażenia (fonemy, diakryty) i figury planu treści (składniki znaczenia).
Wspomniane wcześniej podwójne rozczłonkowanie znaku (nie jest niczym innym niż właśnie wyodrębnianiem w nim figur planu wyrażenia. Natomiast semantyka składnikowa zajmuje się wyodrębnianiem figur planu treści.
Wielu współczesnych lingwistów, może z wyjątkiem uprawiających językoznawstwo kognitywne (por. XI.3), mniej lub bardziej świadomie wykorzystuje metody sformułowane przez Hjelmsleva.
1.2. Szkoła praska
Szkole praskiej współczesne językoznawstwo zawdzięcza całą swoją fonologię, a także teorię perspektywy funkcjonalnej wypowiedzenia. Jeden z przedstawicieli tej szkoły, Roman Jakobson (1896 1982), jest również autorem najpełniejszej teorii funkcji języka.
1.3. Deskryptywizm
Szkoła ta powstała i rozwijała się w drugim ćwierćwieczu XX wieku, głównie w Stanach Zjednoczonych. Największy wpływ na ukształtowanie się jej poglądów miał behawioryzm w psychologii oraz fakt, że amerykańscy językoznawcy tego okresu byli nie tylko teoretykami języka, ale przede wszystkim antropologami, badającymi języki i kultury indiańskie.
Za behawioryzmem deskryptywizm przyjął tezę, że wypowiedź językowa jest - jak każde ludzkie zachowanie reakcją na bodziec. Dla odbiorcy natomiast jest bodźcem, czyli wywołuje jakieś jego zachowanie (językowe lub nie). Ponieważ to, co nazywamy pojęciami, wyobrażeniami, myślami itd., jest niedostępne poznaniu zewnętrznemu (wiemy, co ktoś myśli, tylko na podstawie tego, co powiedział), jakiekolwiek twierdzenia o znaczeniu wypowiedzi są niesprawdzalne.
Dlatego też badacz choć wie, że wyrażenia językowe mają znaczenie nie bada znaczenia wyrażeń, lecz ich występowanie (dystrybucję).
(Od słowa dystrybucja pochodzi druga nazwa tej szkoły, dystrybucjonizm, a nazwa deskryptywizm od opisowego (a nie analitycznego) charakteru badań.)
Jedynym kryterium wyodrębniania jednostek językowych jest ich rozkład w tekstach (wspomniana wyżej dystrybucja). Aby ją opisać, badacz musi zebrać odpowiednio duży zestaw wypowiedzi danego języka (korpus). Analizując korpus, identyfikuje najpierw jednostki dźwiękowe języka (z grubsza głoski), a następnie łączy je w klasy. Fonem zdefiniowany jest jako klasa głosek (inaczej niż u de Saussure'a, gdzie był wyobrażeniem akustycznym). Klasę taką stanowią głoski pozostające w dystrybucji kontrastowej (część kontekstów wspólna, część rozłączna) cechy dystynktywne nie są tu istotne.
Przez wspólne konteksty rozumie się występowanie głosek w dokładnie takich samych otoczeniach (sąsiedztwach z innymi głoskami). Innymi słowy mamy wyrazy różniące się tylko jednym dźwiękiem.
Na przykład słowa pas, bas; pól, ból; grupy, gruby to przykłady występowania wspólnych kontekstów dźwięków [p] i {b]. Odpowiednio są to konteksty _as, _ól i gru_y Przez konteksty rozłączne rozumie się sytuacje, w których dwa dźwięki nigdy nie występują w tym samym otoczeniu. Oznacza to, że nie ma słów różniących się tym jednym dźwiękiem. Jako przykłady takich kontekstów podaje się różne słowa, takie że zamiana jednego dźwięku na inny z badanej pary powoduje stworzenie słowa nieistniejącego.
Tak na przykład dla języka polskiego można wykazać, że głoski [n] i [ń] mają dystrybucję kontrastową - przykład wspólnego kontekstu to para [ton] i [toń], przykład rozłącznego kontekstu to [nota] i [tańce] nie ma [*ńota], [*tanec].
Głoski pozostające w dystrybucji uzupełniającej, inaczej komplementarnej (żadnych wspólnych kontekstów), lub w dystrybucji identycznej (wszystkie konteksty wspólne) należą do jednego fonemu i stanowią jego allofony.
Przykłady polskich allofonów o dystrybucji komplementarnej to [n] i [ŋ], takie jak w wyrazach bank, ranga. Allofonami o dystrybucji identycznej jest standardowe polskie [r] przedniojęzykowe i drżące oraz jego wariant „grasejowany” języczkowe i szczelinowe [R].
Po ustaleniu inwentarza fonemów i ich allofonów dokonuje się dalszej segmentacji tekstu na morfy.
Morfami są na przykład miast- i mieść- z form odmiany rzeczownika MIASTO.
Morfy o dystrybucji uzupełniającej stanowią klasę allomorfów jednego morfemu tak jak w przykładzie powyżej.
Przykłady allomorfów o dystrybucji komplementarnej to dziś i dzisiaj, tu i tutaj. (podziały dziś+aj i tu-t-taj nie są podziałami na morfy, czyli znaki).
W obrębie składni ważnym dokonaniem szkoły deskryptywnej jest opracowanie zasad analizy na składniki bezpośrednie.
Deskryptywizm pokazuje, jak analizować język:
bez opisu znaczenia, jakby poprzez „deszyfrację” tekstów;
bez wstępnych założeń co do jego budowy.
To ostatnie podejście pozwoliło na zdanie sprawy z ogromnej różnorodności języków pod względem ich budowy gramatycznej.
Opracowane przez deskryptywistów metody znalazły zastosowanie w:
rzeczywistych technikach deszyfracji (łamaniu kodów);
komputerowym przetwarzaniu tekstów;
nauczaniu języków obcych, czego przykładem jest odtwarzanie tych samych struktur składniowych, do dziś wykorzystywane w materiałach audio.
Oparta na zasadzie bodziec-reakcja metoda uczenia języków obcych okazała się skuteczniejsza i szybsza niż metoda gramatyczno-tłumaczeniowa - pozwała ona bowiem bardzo szybko nauczyć się budować wypowiedzi w języku obcym.
W polskim (i słowiańskim) językoznawstwie właśnie z deskryptywizmu pochodzi definicja leksemu jako klasy słowoform.
1.4. Etnolingwistyka
Druga ważna szkoła lingwistyki amerykańskiej nawiązuje do teorii relatywizmu językowego, czyli przekonania, że świat, w jakim żyje dana społeczność, i jej sposób myślenia wpływa na język, ale i odwrotnie - język, jakim ludzie się posługują, wpływa na ich sposób myślenia.
Za największych przedstawicieli tej szkoły uważa się Edwarda Sapira (1884—1939) i Beniamina Lee Whorfa (1897—1941). Wspomniana wyżej główna teza tej szkoły nosi nazwę hipotezy Sapira-Whorfa.
Najczęściej przytaczanym argumentem za wpływem sposobu życia na język jest fakt, że w językach eskimoskich istnieje około 30 słów określających różne rodzaje śniegu, nie ma natomiast jednego ogólnego określenia na śnieg.
Hipoteza Sapira-Whorfa idzie jednak dalej i obejmuje również fakt, że gramatyka języka wpływa na organizację myślenia o świecie.
Ktoś mówiący po polsku stale musi podejmować decyzje (nieuświadomione), czy chce mówić o danej czynności, procesie, zdarzeniu itd. jako dokonanym czy jako niedokonanym. Zmusza go do tego fakt, że prawie każdy czasownik polski jest albo dokonany, albo niedokonany. Natomiast nie musi - jak się wydaje - podejmować równie wyraźnej decyzji, czy używa rzeczownika jako określonego, czy nie, gdyż po polsku nie wyraża się w sposób gramatyczny tej różnicy. Z kolei osoba posługująca się językiem angielskim musi podejmować decyzję co do określoności rzeczownika, ale nie musi podejmować decyzji co do dokonaności lub niedokonaności zdarzenia. Oczywiście, nie znaczy to, że nie jest w stanie takich decyzji podejmować - czyni to, lepiej lub gorzej, posługując się wyuczonym językiem obcym.
Whorf pokazał, że języki indiańskie wcale nie są bardziej „prymitywne” niż języki europejskie organizują wypowiedź inaczej i bardzo często pozwalają w sposób prostszy niż w językach europejskich wyrazić bardzo skomplikowane zależności.
Ogólnie znana jest bardzo strywializowana wersja tezy o relatywizmie językowym. Często można się spotkać ze stwierdzeniem, że w niektórych językach brakuje pojęć abstrakcyjnych i że takie języki są prymitywniejsze. Nie jest to prawda. Brak słowa określającego śnieg w ogóle w językach eskimoskich wcale nie świadczy o tym, że Eskimosi nie potrafią myśleć abstrakcyjnie.
Badane przez Whorfa języki to głównie języki polisyntetyzujące, czyli takie, w których fragmenty odpowiadające polskim konstrukcjom składniowym są wyrazami. Innymi słowy zamiast konstrukcji składniowych występują tam rozbudowane wieloelementowe kompozycje podobne do (wymyślonej przez nas): „mówiący+papier+pisanie+czynić” pisać książkę”. W związku z tym określenia pewnych zjawisk mają budowę złożoną. Na przykład nazwa samolotu składa się z morfemów `że1azo' i `latać'. Równie „prymitywna” jest polska nazwa tego obiektu, składająca się ze morfemów `sam (odzielnie)' i `1atać'.
Wysoki stopień rozkładalności słowotwórczej wyrażeń danego języka nie świadczy o jego niższości, a niski - o wyższości, lecz zależy od budowy danego języka albo od przypadku. Tak na przykład polski posiada czytelne słowotwórczo określenie samolotu, ale nieczytelne słowotwórczo określenie „kolej”.
Francuski, uważany za język wyjątkowo wyszukany, ma nieczytelne słowotwórczo określenie samolotu (avion), ale za to nazwa kolei jest zestawieniem (chemin-de-fer dosł. droga z żelaza”).
Inną ważną obserwacją Whorfa jest to, że języki wywodzące się z Europy, mimo że nie wszystkie są ze sobą spokrewnione, są do siebie dość podobne typologicznie. Ukuł dla nich termin „standardowy przeciętny język europejski” (ang. SAE Standard Average European) i przeciwstawia je językom o innej budowie.
Hipoteza Sapira-Whorfa nigdy nie została ani udowodniona, ani sfalsyfikowana i jest częstym składnikiem rozważań na temat języka.
1.5. Strukturalizm europejski a strukturalizm amerykański
Między tymi dwoma odmianami strukturalizmu zaobserwować można bardzo charakterystyczne różnice: strukturalizm europejski poszukuje ogólnej teorii języka i uniwersaliów językowych (elementów wspólnych wszystkim językom świata). Strukturalizm amerykański podkreśla odrębność języków.
1