Bobrowski, Zaproszenie do językoznawstwa streszczenie

Ireneusz Bobrowski, Zaproszenie do językoznawstwa

Wstęp. Od intuicyjnego do naukowego myślenia o języku

Językoznawstwo jest zbiorem naukowych sądów na temat języka. Sąd naukowy to sąd racjonalny – da się udowodnić rozumowo.

Każdy człowiek posiada wiedzę jasną (implicytną) – rozumie wypowiedzi w danym języku i potrafi się nim posługiwać, wiedzy tej nie musi sobie jednak uświadamiać. Innym rodzajem wiedzy jest wiedza wyraźna (eksplicytna) – to zbiór sądów, które możemy sformułować na temat naszej wiedzy jasnej. Językoznawcy mają zatem wiedzę wyraźną, a „zwykli” ludzie jasną.

Tekst: byt konkretny – możliwy do zaobserwowania za pomocą zmysłów; byt jednostkowy – niepowtarzalny, tworzony przez konkretnego człowieka w konkretnej sytuacji; byt momentalny – powstaje w pewnym momencie i trwa krótko.

System językowy – zbiór powiązanych ze sobą reguł tworzenia tekstu. W przeciwieństwie do tekstu, system jest bytem abstrakcyjnym, społecznym i trwałym.

Wiedza wyraźna nie może być identyczna z jasną, ale co najwyżej przybliżonym wyobrażeniem – modelem systemu językowego. Językoznawca zajmuje się budowaniem modelu systemu językowego. Modeli takich może być nieskończenie wiele.

Część I. Co to jest myślenie naukowe?

I. Klasyczne poglądy na temat nauki

Nauka powinna mieć:
- przedmiot materialny (jakiś wycinek rzeczywistości),
- przedmiot formalny (czyli aspekt – punkt widzenia przedmiotu materialnego),
- cel,
-metodę.

Nauka, której przedmiotem dociekań jest sama nauka to metanauka.
Przedmiotem językoznawstwa jest język. Przedmiotem metalingwistyki jest lingwistyka. Można by budować kolejne piętra meta-, ale nie ma po co mnożyć bytów (brzytwa Ockhama).

Budowanie nauki rozpoczyna się od stawiania pytań naukowych dot. przedmiotu materialnego. Pytanie naukowe powinno być: poprawne (sensowne i jednoznaczne – pyt. Czy zielone idee śpią? nie jest. ;)), trafne, zasadnerozstrzygalne.

By uniknąć wieloznaczności stosuje się definiowanie. Definicja klasyczna składa się z członu definiowanego (definiendum), spójnika definicyjnego (to, jest to, nazywamy) i członu definiującego (definiens). W członie definiującym powinien być rodzaj najbliższy i różnica gatunkowa. Błędy w definiowaniu: idem per idem – to samo przez to samo, ignotum per ignotum – nieznane przez nieznane.

Funkcję porządkującą pełni podział logiczny – na podtawie pewnego kryterium dzieli zbiór na podzbiory. W językoznawstwie najczęściej stosowany jest podział dychotomiczny (binarny: cecha jest lub jej nie ma). Podział wielostopniowy to klasyfikacja. Gdy nie jest możliwy jednoznaczny podział stosuje się typologię.

Wnioskowanie – wyprowadzanie sądów z innych sądów (przesłanki>wnioskowanie>wnioski). Wnioskowanie, które przechodzi od jednostkowych przesłanek do ogólniejszych wniosków to indukcja. Wnioskowanie indukcyjne jest jedynie uprawdopodobniające, nie jest niezawodne. Wnioskowanie jest niezawodne, gdy prawdziwość wniosku gwarantują prawa logiki – wnioskowanie dedukcyjne. W systemie dedukcyjnym z formuł podstawowych (aksjomaty) dzięki przyjętym regułom wyprowadza się formuły pochodne (teorematy).

Nauka jako zbiór zdań (sądów). Tylko zdania oznajmujące, bo tylko im można przypisać wartość logiczną (prawda/fałsz). Zdania mogą być szczegółowe lub ogólne.

Wyjaśnianie – formułowanie prawdziwych zdań o rzeczywistości. Przy stosowaniu dedukcji – wyjaśnienie nomotetyczne, przy indukcji – idiograficzne. (Potocznie: wyjaśnianie nomotetyczne – gdy nauka formułuje ogólne prawa, idiograficzne – gdy nauka opisuje i porządkuje fakty jednostkowe).

Podział na nauki dedukcyjne i indukcyjne. „Czystą” metodę dedukcyjną stosuje jedynie matematyka i logika. Inne nauki (fizyka, chemia, językoznawstwo) – wykorzystanie dedukcji, ale na tym się nie kończy > konfrontacja z danymi empirycznymi. W dziedzinach przyrodniczych i humanistycznych (biologia, geografia, literaturoznawstwo) – nie jest to, jakby się mogło wydawać „czysta” indukcja, konieczne jest przyjęcie na początku pewnej teorii.

Racjonalizm analityczny – krok po kroku sprawdza prawdziwość formułowanych sądów.
Racjonalizm globalny – zestawianie teorii z innymi teoriami, także tworzącymi spójne całości.
Racjonalizm umiarkowany – nie da się wyeliminować z poznania naukowego pewnych sądów irracjonalnych (choćby wybór metody to kwestia intuicji).
Racjonalizm absolutny = scjentyzm – założenie, że dzięki metodologii wiedza naukowa jest wiedzą pewną, obiektywną.
Agnostycyzm – przeciwny do scjentyzmu – zupełny irracjonalizm – negacja rozumowego poznania rzeczywistości obiektywnej.

Racjonalista umiarkowany pośrodku – balans: w nauce muszą być elementy racjonalne i irracjonalne.

II. Logiczne zasady budowania zdań naukowych

W zdaniu logicznym są następujące elementy:
- nazwa – językowy odpowiednik pojęcia (myślowego wyobrażenia jakiegoś elementu rzeczywistości),
- predykacja – orzeczenie czegoś o nazwie,
- kwantyfikacja – dookreślenie zakresu nazwy.

Zakres (denotacja, odniesienie, referencja, ekstensja, oznaczanie) nazwy to zbiór obiektów, do których nazwa się odnosi, tj. desygnatów. Jeżeli nazwa ma jeden desygnat – nazwa jednostkowa, jeśli wiele – nazwa ogólna. Oprócz zakresu nazwy posiadają też treść (konotację, znaczenie, intensję) – zbiór cech przysługujących desygnatom nazwy .

Kwantyfikatory ogólne – wszyscy, każdy; szczegółowe – pewien, ten.

Nazwy złożone tworzy się za pomocą funktorów nazwotórczych, zdania powstają dzięki funktorom zdaniotwórczym.

Rachunek zdań. Negacja – nieprawdą jest, że…; koniunkcja – i, alternatywa – albo, implikacja – jeśli…, to…; równoważność – wtedy i tylko wtedy.

III. XX-wieczne poglądy na temat nauki i tzw. paradygmaty

Paradygmat – zespół norm, wzorców, reguł postępowania, które zna każdy naukowiec zajmujący się daną nauką.

Schemat rozwoju nauki:

Prenauka > Nauka normalna > Kryzys > Rewolucja > Nowa nauka normalna

4 odmienne paradygmaty naukowe XX wieku:
1. Indukcjonizm
2. Weryfikacjonizm
3. Falsyfikacjonizm
4. Postmodernizm

Indukcjonizm – II poł. XIX w./I poł. XX w.
Główne zadanie – nieustanne dochodzenie od faktów i zdań szczegółowych do uogólnień (indukcja).
Należy przeprowadzić wiele obserwacji i eksperymentów i na tej podstawie sformułować wnioski.

Weryfikacjonizm – okres międzywojenny
Odwrotność indukcjonizmu – procedura polegająca na weryfikowaniu, potwierdzaniu zdań ogólnych zdaniami szczegółowymi. Zastąpienie indukcji dedukcją. Zaproponowany przez uczonych z Koła Wiedeńskiego. Wyjście od hipotetycznego założenia ogólnego > potwierdzenie empiryczne.

Falsyfikacjonizm – po II wojnie światowej (dominujący od lat 70.)
Źródła w teorii Karla Poppera (akceptował krytykę indukcjonizmu, ale uważał, że zdań ogólnych nie da się potwierdzić zdaniami szczegółowymi, bo zawsze może znaleźć się fakt, który przeczy hipotezie ogólnej, ale który nie został akurat wzięty przez badacza pod uwagę). Dużo owocniejsze niż potwierdzanie jest szukanie faktów falsyfikujących hipotezę. Nauka w f. – zbiór hipotez funkcjonujących dopóki nie zostaną sfalsyfikowane.

Postmodernizm – od lat 80. XX w.
Twórcą i propagatorem Paul Feyerabend – autor maksymy Anything goes (wszystko wolno). Paradygmat postmodernistyczny bazuje na anarchistycznej koncepcji wiedzy (odejście od metodologii, stosowanie środków niekonwencjonalnych) i na dekonstrukcjonizmie J. Derridy ( rozmontować dotychczasowe teksty i zbudować na nowo z odkryciem innych sensów). Paradygmat zróżnicowany z natury – skoro sam zaprzecza istnieniu jednej recepty na tworzenie prac naukowych. W nauce postmodernistycznej miejsce wyjaśniania ma zastąpić rozumienie (cel jest piękny, ale to mrzonki – nikt się nie trzyma metodologii, to jak mają się nawzajem zrozumieć?).

W dzisiejszej nauce współistnieją te 4 paradygmaty, przenikają się więc wzajemnie i mają inne kształty niż dawniej.

Część II. Język jako system znaków

I. Semiotyka, czyli nauka o systemach znakowych

Znak – dowolny element rzeczywistości, który jest nośnikiem jakiejś dodatkowej treści, informuje o czymś różnym od siebie. Znaki naturalne (symptomy, oznaki) vs znaki umowne (sygnały). Niezbędna jest konwencja, którą muszą znać użytkownicy (nadawcy i odbiorcy) > używają znaków w akcie komunikacji. Korzystając z sytemu znakowego – kodu nadawca tworzy tekst (komunikat), który dzięki kanałowi informacyjnemu dociera do odbiorcy. Każdy znak ma formę (znaczące) i treść (znaczone).

Semiotyka bada wszelkie systemy znakowe wytworzone przez ludzi.
Syntaktyka bada jaka jest relacja między znakami.
Semantyka bada jaka jest relacja znaków do rzeczywistości pozaznakowej.
Pragmatyka opisuje relacje między nadawcą i odbiorcą tekstu a systemem znakowym, w ramach którego powstaje tekst.

Językoznawstwo (nauka, która bada język naturalny uznając go za system znakowy – semiotyczny) mieści się w ramach semiotyki – ogólniejszej nauki o znakach. Tak więc jak w semiotyce można w lingwistyce wydzielić 3 działy: syntaktykę językoznawczą, czyli gramatykę, semantykę językoznawczą i pragmatykę językoznawczą.

II. Działy językoznawstwa

Syntaktyka

Syntaktyka językoznawcza, czyli gramatyka, formułuje przepisy, w jaki sposób najmniejsze znaki językowe łączy się ze sobą w czasie budowania tekstu. Bada związki i relacje pomiędzy znakami. W obrębie syntaktyki łączeniem znaków w tekstach (ustalaniem schematów tekstowych) zajmuje się syntagmatyka; ukazywaniem relacji między znakami w systemie znakowym zajmuje się paradygmatyka.

Morfologia zajmuje się opisem budowy leksemów. W obrębie morfologii słowotwórstwo ustala relacje pomiędzy leksemami, fleksja opisuje budowę i określa wszystkie formy leksemu.

Składnia zajmuje się budową tekstów.
Fonologia zajmuje się fonemami, fonetyka opisem głosek.
Morfonologia zajmuje się wymianami alternacyjnymi w obrębie jednego fonemu.

Semantyka

Celem semantyki językoznawczej jest wyjaśnienie znaczeń wyrażeń językowych. W Polsce najpopularniejsze do tego metody to: 1. metoda reprezentacji logicznej wyrażeń predykatowo-argumentowych (w wyjaśnianiu znaczenia zdań – znaczenie jako przynajmniej jednoargumentowy predykat) oraz 2. metoda eksplikacji (w wyjaśnianiu znaczenia leksemów). Struktura semantyczna jest zdeterminowana aktualnym rozczłonkowaniem – tj. podziałem na człon wyjściowy, o którym się mówi – temat i człon rozwijający, czyli remat (w zdaniu Jan śpi. Jan – temat, śpi – remat, w zdaniu Śpi Jan. śpi – temat, Jan – remat).

Eksplikacja polega na tym, że do wyjaśniania znaczenia wyrażeń używa się takich wyrażeń, które są semantycznie prostsze, przy założeniu, że istnieją wyrażenia elementarne (nierozkładalne). Eksplikacja powinna składać się z wyrażeń elementarnych. > korzystając z listy wyrażeń elementarnych Anny Wierzbickiej powstał (Wierzbicka, Bogusławski, Grochowski) język semantyczny, czyli metajęzyk.

Frazeologizmy to wyrażenia (jednostki leksykalne), które stanowią ustalone połączenia wielosegmentowych znaczeń, ich znaczenia nie można wyprowadzić od poszczególnych segmentów – są znaczeniowo niepodzielne. Semantyka opisuje je tak samo jak znaczenia leksemów jednosegmentowych.

Pragmatyka

Pragmatyka językoznawcza formułuje zasady optymalnego (takiego, który pozwoli być zrozumianym przez odbiorcę) korzystania przez nadawcę z systemu językowego w czasie aktu komunikacji. Tak pojmowana pragmatyka bliska jest więc stylistyce, lingwistyce tekstu, retoryce i erystyce. Aparat pojęciowy pragmatyki zbudował John Langshaw Austin formułując teorię aktów mowy. Duży wpływ wywarła też wcześniejsza teoria funkcji mowy Romana Jakobsona. Jest 6 stałych elementów aktu komunikacji: nadawca > odbiorca ^ kontekst, kontakt ˅ komunikat, kod. W zależności od tego, który jest najważniejszy komunikat spełnia określoną funkcję: kontekst- f. informacyjna, nadawca – f. ekspresywna, odbiorca – f. impresywna, kontakt – f. fatyczna, kod – f. metajęzykowa, komunikat – f. poetycka.

Koncepcję tę inni badacze uzupełniali o kolejne funkcje, jedną z ważniejszych jest f. performatywna – sprawcza, wykonawcza (np. formuła Ja ciebie chrzczę, nadaję ci imię Jan.). Jest to pojęcie kluczowe w nowoczesnej pragmalingwistyce, gdyż pojawia się nie tylko w wypowiedziach obrzędowych. Wg Austina występuje ona w aktach mowy o wiele częściej. Austin dzieli wyrażenia językowe na konstatywy (wyrażenia opisujące rzeczywistość) i performatywy (wyrażenia wykonawcze, które zawierają w sobie zarówno działanie nadawcy, np. obietnica, rozkaz, prośba, jak i wyrażające sposób oddziaływania na odbiorcę). Austin mówi o lokucyjnym (przekazującym znaczenie), illokucyjnym (ukazującym działanie nadawcy) i perlokucyjnym (wyrażającym sposób działania nadawcy na odbiorcę) akcie mowy. Akty mowy mogą być bezpośrednie (nie mają ukrytej treści) i pośrednie (można odczytać dodatkową treść illokucyjną). Pragmalingwiści nie mają precyzyjnego narzędzia badawczego i spierają się – czym jest powitanie? Czym jest prośba? Wyjaśnienie językowe nie wystarcza, potrzebny jest kontekst kulturowy.

W ramach pragmatyki formułuje się też teorie skutecznego porozumiewania – reguły konwersacyjne podobne do gry. Gry językowe – pojęcie to wprowadził Paul Grice, podstawową regułą jest reguła kooperacji – rozmówca powinien wnosić swój wkład w rozmowę kierując się maksymami: ilośći, jakości, stosunku i sposobu.

Pragmalingwistyka tak rozumiana stawia sobie za cel uczenie skutecznej komunikacji językowej.

III. Różne punkty spojrzenia na system językowy

Trzy najważniejsze pozycje do budowania zdań o systemie językowym: syntaktyka, semantyka i pragmatyka. Nauka jest jednocześnie systemem i procesem.

  1. Językoznawstwo teoretyczne i opisowe (empiryczne)
    Cel – opis warstwy syntaktycznej, semantycznej lub pragmatycznej języka/języków. Językoznawstwo opisowe jest z natury empiryczne. Językoznawstwo teoretyczne (ogólne) tworzy teorie i narzędzia badawcze, które służą do opisu, szuka uniwersaliów (tego co wspólne wszystkim językom).

  2. Językoznawstwo synchroniczne i diachroniczne
    System językowy można badać w danym momencie – synchronicznie (statycznie – stop klatka) lub skupiać się na zmianach na przestrzeni czasu – diachronicznie (dynamicznie – film).

  3. Językoznawstwo porównawcze i kontrastywne
    Językoznawstwo porównawcze zwraca większą uwagę na diachronię, językoznawstwo kontrastywne zakłada w czasie porównywania języków synchroniczny punkt widzenia. Istotą językoznawstwa kontrastywnego jest to, że zestawia ono 2 opisy języków, które zostały wykonane na podstawie tej samej teorii. Teoria te jest więc dla obu języków tertium comparationis, czyli punktem odniesienia (podstawą porównania). Dzięki zastosowaniu tej samej teorii w opisie można odkryć w odmiennych językach pewne podobieństwa strukturalne bądź różnice.

  4. Psycholingwistyka
    Psycholingwistyka i socjolingwistyka – spojrzenie interdyscyplinarne – z perspektywy innych nauk. Psycholingwistyka (psychologia języka) – zajmuje się powstawaniem i przebiegiem procesów psychicznych człowieka. W jaki sposób człowiek uczy się języka? Eksperymenty, na podstawie danych empirycznych (teksty) obserwuje się rozwój systemu językowego u dzieci/osób uczących się języka obcego. Formułuje się wnioski o wpływie pierwszego systemu językowego na system nabywany.

  5. Socjolingwistyka
    Patrząc na język z punktu widzenia socjologii można dostrzec, że przedstawiciele różnych warstw społecznych tworzą podobne, ale różne jakościowo teksty. Socjolingwistyka próbuje więc ustalić zależności między rozwarstwieniem społ. a odmianami systemu językowego. Proces interferencji – zlewania się, zachodzenia na siebie odmian systemów językowych. Bliska jest temu problematyka dialektologii (opis geograficznego zróżnicowania języka), etnolingwistyki (lingwistyki antropologicznej, kulturowej), przy czym ta ostatnia interesuje się bardziej niż syntaktyką kwestiami semantycznymi i pragmatycznymi, próby rekonstruowania językowego obrazu świata.

Część III. Dwudziestowieczne koncepcje i paradygmaty językoznawcze

I. Prenaukowe sądy o języku

Prenaukowa wiedza zbliża się do wiedzy intuicyjnej (potocznej).

Spór naturalistów i konwencjonalistów – czy znaki językowe są zdeterminowane przez naturę czy też nie? Dziś jesteśmy pewni, że znaki języka mają charakter konwencjonalny. Główna teza naturalistów opierała się na dźwiękonaśladownictwie, ale jest to teza łatwa do obalenia. Zauważano jednak, że dawniej związki między językiem a naturą mogły być ściślejsze i zaczęto rekonstruować dawniejsze formy > badania etymologiczne. Pojawiły się tezy o symbolicznym charakterze podstawowych dźwięków języka (np. nazwy broni związane z wykrzyknieniami w walce). Dzięki badaniom etymologicznym zauważono pewne analogie.

Arystoteles (twórca logiki) podzielił wyrażenia wchodzące w skład zdania na: nazwy (imiona, rzeczowniki), predykaty (słowa, czasowniki), i funktory (spójniki). Dzięki temu podziałowi można było opracować wzorce odmiany klas wyrazów. Gramatyka miała być jednak nie celem samym w sobie, ale miała służyć poprawnemu mówieniu.

O językoznawstwie jako nauce możemy mówić dopiero od wieku XIX, okres wcześniejszy to czas językoznawstwa prenaukowego.

II. Językoznawstwo historyczno-porównawcze jako przejaw paradygmatu indukcjonistycznego

XIX- wieczne językoznawstwo – paradygmat indukcjonistyczny – wychodzenie od zdań obserwacyjnych > zdania szczegółowe > do uogólnień. Inne XIX-wieczne teorie: historyzm, ewolucjonizm, genetyzm > stąd badanie różnych stadiów rozwoju i porównywanie z innymi językami > językoznawstwo historyczno-porównawcze (największe sukcesy tzw. Młodogramatycy – sformułowali wiele zasad rozwoju języków – praw językowych).

Nie była to zupełnie czysta indukcja (ale indukcja naiwna), ponieważ nie jest możliwe podchodzenie do obserwacji bez żadnych założeń teoretycznych (bo nawet byśmy nie wiedzieli, co obserwować). Niemniej jednak językoznawcy historyczno-porównawczy wierzyli, że wyłącznie na podstawie zdań obserwacyjnych można dojść do naukowych wniosków (o istnieniu przodka – języka praindoeuropejskiego). Praindoeuropejska wspólnota językowa uległa rozpadowi na przełomie III i II tysiąclecia przed Chrystusem, podział na poszczególne grupy sprzężony był z prawami językowymi. Młodogramatykom strukturaliści stawiali zarzut, że nie podchodzili do języka systemowo, lecz rozpatrywali elementy w izolacji > zmiana w podejściu do opisu języka > Jerzy Kuryłowicz.

III. Strukturalizm jako przejaw paradygmatu weryfikacjonistycznego

Hipoteza – zdania ogólne > potwierdzanie za pomocą zdań obserwacyjnych – weryfikacjonizm – jego przejawem jest strukturalizm. Strukturalizm potwierdzał przede wszystkim podstawową swoją hipotezę – że język jest systemem (strukturą) znaków. Prekursorzy strukturalizmu: Jan Badouin de Courtenay i Mikołaj Kruszewski: rozgraniczyć język (abstrakcyjny zestaw elementów) od mówienia (konkretne) – uczeni tworzyli w dalekim Kazaniu, a poza tym wobec panującego paradygmatu indukcjonistycznego było za wcześnie na takie teorie.

Za twórcę paradygmatu strukturalistycznego uważa się Ferdinanda de Saussure’a (Kurs językoznawstwa ogólnego, 1916 – uczniowie, notatki z wykładów). Przypuszcza się, że FdS mógł znać niektóre prace BdC i Krusz. Język wg dS. jest bytem abstrakcyjnym i społecznym, w miarę trwałym – jest przede wszystkim systemem znaków (langue). Realizacją langue jest parole (mówienie) – konkretne, jednostkowe, momentalne. DS. oddzielił też synchronię od diachronii (metafora szachów albo filmu i stopklatki). Znak składa się z dwóch warstw: strony znaczącej – formy (signifiant) i znaczonej – treści (signifie). Pomiędzy znakami w systemie zachodzą dwa rodzaje związków: syntagmatyczne i paradygmatyczne.

FdS wyznaczył tylko kontury strukturalizmu jako paradygmatu weryfikacjonistycznego. Paradygmat ten był następnie rozwijany w różnych szkołach strukturalnych.

Szkoła praska – podejście funkcjonalne

Szkoła amerykańska – podejście dystrybucjonistyczne

Glossematyka – podejście falsyfikacjonistyczne

Szkoła Praska

II poł. Lat 20. – językoznawcy czescy – Mathesius, Havranek, Mukarowski oraz osiedli w Pradze emigranci rosyjscy – Jakobson i Trubieckoj założyli Praskie Koło Lingwistyczne. Akcpetacja wszystkich poglądów FdS (zwłaszcza tezy o systemowości języka). Uznali przy tym, że system składa się z elementów, z których każdy spełnia w procesie komunikacyjnym określoną funkcję > funkcjonalizm. Każdy element systemu pozostaje w opozycji do innych elementów. Funkcję danego elementu można opisać przez wskazanie opozycji pomiędzy tymi elementami a innymi elementami. Jednostki między którymi opozycje są bardziej uchwytne należą do tego samego podsystemu języka (4 podsystemy: fonologiczny, morfonologiczny,składniowy, morfologiczny > słowotwórczy i fleksyjny). Ustalając opozycje między elementami systemu, ustala się relacje paradygmatyczne między nimi. W szkole praskiej szczególną wagę przywiązuje się do badania relacji paradygmatycznych.

Szczególnie dokładnie opisywał Trubiecki podsystem fonologiczny. Fonem – jednostka podsystemu fonologicznego składająca się z cech dystynktywnych, które używa się do odróżnienia wyrazów o różnym znaczeniu.
Szkole praskiej wiele zawdzięcza stylistyka, która stara się uchwycić system zasad, którymi się kieruje nadawca w czasie tworzenia tekstu. Sam tekst jest strukturą, ta sama treść może otrzymać różną strukturę tekstową. Styl to jakość strukturalna tekstu wynikła z celowego doboru jednostek języka przez nadawcę > zainteresowanie tekstami literackimi, gdzie na pierwszy plan wysuwa się funkcja poetycka.

Dystrybucjonizm amerykański

Gdy w Europie powstawały teorie strukturalistyczne, w Ameryce – próbowano opisywać języki indiańskie, mniej liczyło się językoznawstwo teoretyczne, a bardziej opisowe (deskryptywne) > strukturalizm amerykański = deskryptywizm. Nie można jednak opisywać niczego bez jakiejś założonej teorii > Leonard Bloomfield > teoria lingwistyczna pozwalająca na opis języka na podstawie samej formy tekstów powstających w tym języku.
Dystrybucja i taksonomia (rodzaj klasyfikacji): rozkładamy tekst na czynniki pierwsze i klasyfikujemy cząstki.

Przez dystrybucję należy rozumieć zbiór otoczeń (kontekstów), w jakich dany element tekstowy występuje w tekstach. Czasem 2 el. występują w tych samych kontekstach – dystrybucja identyczna, inne rodzaje: inkluzywna, krzyżująca się, komplementarna. Żeby zbadać dystrybucję tekstu należy najpierw przeprowadzić jego segmentację, czyli wydobyć z tekstów segmenty. Gdy jednostki są w dystrybucji komplementarnej > warianty pozycyjne tej samej jednostki, gdy jednostki są w dystrybucji inkluzywnej, krzyżującej się lub identycznej > osobne jednostki języka.

Próby dystrybucyjnego dochodzenia do struktury języka nie brały pod uwagę znaczenia, dlatego były niewystarczające. Bez znajomości znaczenia można mylnie klasyfikować jednostki (litościwy vs myśliwy). > zmiana podejścia strukturalistów ameryk. > odchodzenie od ścisłego dystrybucjonizmu.

Badanie znaczenia w amer. tradycji językoznawczej – hipoteza Sapira i Whorfa. Hipoteza ta głosi, że człowiek postrzega świat poprzez język – struktura języka narzuca człowiekowi sposób widzenia świata. W związku z tym wprowadzenie jednolitego języka semantycznego do opisu znaczenia języka naturalnego jest bezsensowne.

Z drugiej jednak strony Leonard Bloomfield przeniósł na grunt językoznawcza psychologiczną koncepcję behawioryzmu. Zachowania językowe jako bodźce i reakcje na te bodźce. Tekst językowy jest więc bodźcem (zastępczym) do pewnej reakcji albo reakcją (zastępczą) na bodziec. Behawioryzm został przez współczesną psychologię odrzucony, ponieważ jego wyjaśnienia ludzkich działań są zbyt ogólne i nie sposób ich sfalsyfikować.

Porównując szkołę praską i dystrybucjonizm amerykański różnicuje je podejście do znaczenia wyrażeń językowych. W szkole praskiej funkcje elementów systemu określało się na podstawie znaczenia lub jego stosunku do znaczenia wyrażeń. W szkole amerykańskiej opozycje pomiędzy jednostkami języka wynikały z dystrybucji tych jednostek w tekstach. Stąd wynika druga różnica: szkoła praska zwraca bardziej uwagę na relacje paradygmatyczne w systemie językowym, szkoła amerykańska natomiast na związki syntagmatyczne. Obie jednak akceptują ogólną hipotezę, że język jest strukturą (systemem) znaków i obie starają się podać jak najwięcej argumentów przemawiających na korzyść tej hipotezy.

Glossematyka

Najbliższe teorii dS. poglądy głosili przedstawiciele Kopenhaskiego Koła Lingwistycznego (przed II wojną światową) – neosaussuryzm, sami jednak określali się mianem glossematyków, najbardziej znany przedstawiciel Louis Hjelmslev.

Część typowo strukturalistycznych poglądów Hjelmsleva mieści się w paradygmacie strukturalistycznym, jednak jego poglądy metalingwistyczne są bardzo bliskie falsyfikacjonistycznemu paradygmatowi nauki (którego przejawem jest w językoznawstwie generatywizm).

Dla Hjelmsleva zadaniem językoznawstwa jest badanie struktury języka, językoznawstwo to przede wszystkim nauka synchroniczna. Dopiero po zbudowaniu teorii języka jako systemu znaków można patrzeć na język z punktu widzenia innych nauk, a więc także historii. Jednocześnie H. rozbudował dwudzielną teorię znaku językowego zaproponowaną przez dS.

W języku należy odróżnić płaszczyznę (plan) treści od płaszczyzny (planu) wyrażania. Treść języka to rzeczywistość, o której język może komunikować, wyrażenie języka to natomiast wszystkie środki, z pomocą których komunikuje się o treści. Jednocześnie na obu tych płaszczyznach można wyróżnić 2 odrębne zjawiska: substancję i formę. Substancją na płaszczyźnie wyrażania są ruchy narządów mowy powodujące powstawanie fal dźwiękowych, substancją zaś na płaszczyźnie treści jest tzw. obiektywna rzeczywistość. Formą na płaszczyźnie wyrażania jest psychiczny obraz substancji wyrażania (psychiczny obraz dźwięków języka), a formą na płaszczyźnie treści jest psychiczny obraz substancji treści. Językoznawstwo powinno badać psychiczny obraz znaku językowego w jego relacji do psychicznego obrazu rzeczywistości.

W koncepcji języka jest H. bardzo podobny do dS., ale w koncepcji budowania nauki o języku (poglądy metalingwistyczne) rozmija się z jego poglądami i odchodzi od strukturalizmu. Zdaniem H. teorię językoznawczą należy budować na wzór systemów dedukcyjnych, wychodząc od aksjomatów, dochodząc do rozbudowanego zbioru teorematów. Można przy tym skonstruować wiele takich teorii. Dlatego H. proponuje 3 kryteria oceny teorii:
- niesprzeczność wewnętrzna,
- zupełność (opisuje i przewiduje wszystkie teksty danego języka),
- prostota.
Idee H. urzeczywistniły się dopiero w paradygmacie generatywistycznym.

IV. Generatywizm jako przejaw falsyfikacjonizmu

Hipoteza obowiązuje dopóki się jej nie sfalsyfikuje. Po sfalsyfikowaniu tworzy się nową teorię – lepszą, bo pozbawioną błędów poprzedniczki.

Przejawem paradygmatu falsyfikacjonistycznego jest w językoznawstwie paradygmat generatywny, czyli generatywizm. Generatywizm: 1. wychodzi się od przekonania, że zdania języka naturalnego powstają w wyniku łączenia lub przekształcania jednostek niższego rzędu, 2. utrzymuje się, że językoznawca powinien naśladować twórców systemów dedukcyjnych.

Chodzi więc o to, by zbudować taki model języka, za pomocą którego można nie tylko analizować zdania tekstowe, ale by tworzyć takie ciągi, które mają identyczną formę jak zdania tekstowe. Model generuje – tworzy potencjalne zdania. Ponieważ zdań w języku może być nieskończenie wiele, dlatego gramatyce należy nadać charakter rekurencyjny > model generatywny języka naturalnego ma generować nieskończony zbiór zdań za pomocą skończonej liczby reguł.

Gramatyka generacyjno-transformacyjna – najbardziej znana teoria w paradygmacie generatywistycznym, zapoczątkowana przez Noama Chomskiego (II poł. lat 50.). Dzielił on zdania jęz. naturalnego na 2 zbiory: generowane za pomocą gramatyki bez reguł transformacyjnych (gramatyki struktur frazowych) i za pomocą gramatyki z regułami transformacyjnymi. Ciągi końcowe otrzymane za pomocą reguł przepisywania są przekształcane (transformowane) na inne ciągi.

V. Kognitywizm jako przejaw postmodernizmu

Kognitywizm jako przejaw paradygmatu postmodernistycznego w językoznawstwie jest paradygmatem niejednorodnym. Niejednorodność (eklektyczność) jest bowiem cechą definicyjną postmodernizmu, pm uważają, że rozumienie powinno bazować na opisie niejednorodnym, gdyż rzeczywistość jest złożona, różnorodna. Poza tym właśnie zrozumienie (a nie wyjaśnianie) jest najważniejsze.

Umownie należy zresztą traktować naukę, gdyż nie można postawić ścisłej granicy między wiedzą naukową i wiedzą intuicyjną (to, co jest nauką i kto jest naukowcem jest wiedzą umowną). W kognitywizmie jest więc zgoda na to, że mogą funkcjonować bardzo różne metody, nie dąży się do formułowania spójnych modeli teoretycznych (twierdzą, że za wcześnie na teorię).

Dla kognitywistów podstawowym zadaniem językoznawstwa jest opis metaforyki języka naturalnego, która wpływa na sposób widzenia świata przez użytkowników tego języka. Rezygnują przy tym z kategorii opisu opartych na podziale logicznym i klasyfikacji, a proponują kategorie typologiczne, korzystając przy tym z psychologicznej teorii prototypów (ta z kolei odwołuje się do matematycznej teorii zbiorów rozmytych). Zadaniem językoznawstwa ma być zrekonstruowanie na podstawie tekstowych zbitek słownych tzw. językowego obrazu świata. JOŚ zawiera elementy wartościujące, w ramach k. mieściłyby się więc dociekania na temat wartości w języku. J. kognitywne stara się więc określić, jaka jest rola języka w poznaniu świata.

Kognitywiści zarzucają, że w dotychczasowych paradygmatach nie rozpatrywano zjawisk językowych holistycznie (całościowo), ale preparowano sztucznie takie byty jak synchronia, diachronia, morfologia, składnia. K. kwestionuje więc zasadność i potrzebę tych kategorii (nie zwraca jednak uwagi, że w dotychczasowym językoznawstwie były one powiązane w jeden wielki system. Drugi zarzut to nadmierne modelowanie matematyczne, które czasami staje się sztuką dla sztuki (to zasadny zarzut). Zarzut trzeci dotyczy tezy o konwencjonalnym charakterze języka naturalnego, przy czym k. nie negują samej konwencjonalności, zwracają jednak uwagę na symboliczność (pewien związek z rzeczywistością, którą język opisuje – to, że nie jest już dziś widoczny nie znaczy, że nie da się go odszukać > powrót do jęz. historyczno-porównawczego).

Kognitywiści podkreślają rolę metafory – człowiek nie tylko używa wyrażeń metaforycznych, ale też przyczyniają się one do postrzegania i konceptualizacji (ujmowania) świata przez człowieka > metaforyka walki w sporze, leksyka związana z budowaniem przy tworzeniu tekstu. Metafora jest dla kognitywistów narzędziem człowieka, pozwalającym ująć w sposób konkretny pewne działania i treści abstrakcyjne. Dzięki metaforze człowiek może lepiej zrozumieć to, czego do końca zrozumieć i tak nie może (uczuć, wartości, procesów psychicznych).

Kognitywiści zamiast kategorii klasyfikacji używają typologii. Ustalają kategorię prototypową i włączają do niej dostrzegane elementy rzeczywistości – jedne są bardziej bliskie prototypu inne mniej (bliższe jakiemuś innemu prototypowi). Kategorie prototypowe kategoryzują elementy w zbiory o rozmytych brzegach (zbiory rozmyte) – dany element może być zaliczony zarówno do jednej jak do innej kategorii, zbiory mogą się zazębiać. > kaczka na obrzeżach ptakowatości ;). Zdaniem k. kategorie prototypowe powinny mieć też zastosowanie w gramatyce.
*Gdy natomiast ciężko sformułować jakiś prototyp stosuje się kryterium podobieństwa rodzinnego < Wittgenstein.

Językowy obraz świata – zawarta w języku interpretacja rzeczywistości, dająca się ująć w formę uporządkowanego zbioru zdań. JOŚ rekonstruuje się na podstawie stereotypów językowychfrazeologizmów i kolokacji (powtarzających się zbitek wyrazowych) spotykanych w tekstach tego języka. Wykorzystuje się też konotacje (zabarwienia wyrazów), na podstawie których można wartościować elementy językowego obrazu świata. > wnioskuje się, że osioł jest uparty, pies wierny itd. B. ma zastrzeżenia, że jest to urywkowe i nie tworzy całościowego obrazu świata – jest to raczej pozostałość obrazu świata (nie: językowego) z dawnych epok.

Do paradygmatu kognitywistycznego zalicza się też pewną gałąź badań nad sztuczną inteligencją > skonstruowanie takich zasad konwersacji i rozumienia tekstu, by człowiek porozumiewał się z komputerem. Kognitywni informatycy (np. Robert Schank) proponują koncepcję reprezentacji wiedzy, do której dochodzi się za pomocą języka. Komputer powinien zostać wyposażony w wiedzę o świecie – leksemy ujęte w ramy + znajomość możliwych scenariuszy (sytuacji, w których wypowiada się dany tekst).

VI. Wzajemne oddziaływanie paradygmatów

Pojawienie się nowego paradygmatu wcale nie znaczy, że poprzedni przestaje istnieć, raczej zmienia się, odchodzi od swoich skrajnych poglądów.
Najsilniejszy wpływ – paradygmat strukturalistyczny na historyczno-porównawczy: dawniej badano rozwój głosek, form, konstrukcji, ale bez ujmowania całości jako systemu.
Pod wpływem paradygmatu generatywistycznego zmienił się paradygmat strukturalistyczny: w pewnym momencie oprócz procedur potwierdzających (weryfikacjonizm) zaczęto stosować też procedury falsyfikujące (*nieakceptowalne ciągi).
Pod wpływem paradygmatu kognitywistycznego zmienił się generatywizm: do opisów generatywnych dołączane są opisy samego języka, czyli metaopisy (dzięki nim formułuje się informacje o naturze reguł gramatycznych i poszczególnych kategorii > w opisach klasyfikacja, w metaopisach nieostre granice).

Zdarza się tak, że nowy paradygmat odcina się od p. poprzedniego, ale zawiera elementy jeszcze wcześniejszego > jeśli ten stary jeszcze istnieje to dostaje powiew świeżości i staje się nagle aktualny. > Kognitywizm wyraźnie nawiązuje do p. historyczno-porównawczego: powrót do badania achronicznego (bez oddzielania procesu od stanu) i symbolizmu (wszystkie języki powstały od jednego, który wykształcił się na bazie dźwięków wydawanych przez człowieka w sytuacjach życiowych > dowodzić tego mają języki prymitywne).

Część IV. Generatywne modele języka

I. Język językoznawczy

Zadaniem językoznawstwa generatywnego jest stworzenie modelu języka, za pomocą którego można by generować nieskończony zbiór zdań danego języka. Zbiór zdań języka naturalnego jest rzeczywiście nieskończony, ponieważ do każdego zdania (które z założenia musi mieć skończoną liczbę elementów) zawsze możemy dodać jeszcze jakiś element (Chomsky). Model generatywny generuje zarówno ciągi, które mają identyczną formę jak zdania pojawiające się w tekstach, jak i ciągi, które w tekstach nigdy nie wystąpią. Ciągi generowane przez model są więc pewnymi abstrakcyjnymi konstrukcjami językoznawczymi (zdaniami językoznawczymi).

Tak jak w strukturalizmie odróżnia się system języka od tekstu, tak w generatywizmie odróżnia się kompetencję językową (wiedzę jasną o tym, jak tworzyć zdania) od wykonania językowego (tworzenia jednorazowych i empirycznych zdań tekstowych, które składają się w teksty językowe). Gramatyka generatywna ma być zatem modelem kompetencji językowej (przybliżonym obrazem bytu abstrakcyjnego – niedostępnego obserwacji – obserwować możemy tylko konkretny rezultat wykonania językowego, czyli teksty językowe).

Na podstawie czego pewne zdania tekstowe uznajemy za nieakceptowalne? Na podstawie własnej wiedzy jasnej, czyli na podstawie kompetencji językowej. W zdaniach tekstowych zawsze mogą wystąpić jakieś usterki wykonania, zdania językoznawcze generowane przez model są wolne od tych usterek. Stosuje się redukcję teoriopoznawczą (jak w fenomenologii: od przeżycia jednostkowego do zjawiska psychicznego). Falsyfikowanie zupełności w generatywizmie polega zatem na sprawdzaniu, czy wygenerowane zdanie językoznawcze ma swój odpowiednik wśród zdań tekstowych. Gramatyka powinna być modelem wyidealizowanej kompetencji językowej (modelem kompetencji językowej idealnego użytkownika języka).

Każde zdanie językoznawcze jest akceptowalne, jego istniejący empirycznie odpowiednik może być poprawny, jeżeli ten odpowiednik nie jest identyczny, to jest niepoprawny. Zdania generowane przez gramatykę to zdania gramatyczne – zbiór ten powinien być tożsamy ze zbiorem zdań akceptowalnych, w przeciwnym razie gramatyka będzie nieadekwatna. By sprawdzić, czy gramatyka jest adekwatna konstruuje się ciągi nieakceptowalne – ciągi takie nie powinny być generowane przez gramatykę, jeśli je generuje to jest nieadekwatna. Nieakceptowalność jest przy tym stopniowalna (ilość gwiazdek) – określamy to na mocy swojego doświadczenia i intuicji.

II. Zasady budowania modelu generatywnego

Reguły przepisywania nazywa się też regułami frazowymi.
Każdą regułę przepisywania można przedstawić w formie odwróconego drzewka i podczepić do niego poddrzewka.
Słownik danego języka –zestaw leksemów, każdy leksem oznaczony jest symbolem przyporządkowującym go do kategorii (kategoryzacja). Po podstawieniu leksemów musi zajść akomodacja, czyli dostosowanie formy jednego leksemu do reszty. By zablokować powstawanie ciągów nieakceptowalnych do haseł słownikowych oprócz kategoryzacji i akomodacji należy dodać subkategoryzację (informację co z czym może, a co nie może się łączyć – dzieli na 2 podkategorie). Gramatyka generatywna generuje nieskończony zbiór zdań języka naturalnego, używając skończonej liczby reguł gramatycznych dzięki regule rekurencji. Rozwiązaniem dla generowania zdań z przestawnym szykiem jest komponent transformacyjny. Reguły przepisywania stanowią jedynie bazę gramatyki. W bazie otrzymujemy struktury wyjściowe (głębokie), po zastosowaniu komponentu transformacyjnego można otrzymać struktury powierzchniowe. Transformacje mogą zmieniać szyk (permutacyjne), przenosić elementy, wycierać je, zastępować lub dodawać.

Dotychczasowy model uwzględnia jedynie stronę syntaktyczną języka. Dołączamy komponent semantyczny, skonstruowany w taki sposób, by można było wskazać, który element struktury syntaktycznej koresponduje z którym elementem struktury semantycznej.

Opis semantyczny wyrażeń językowych wychodzi od ich struktury predykatowo-argumentowej. Opis ten zakłada, że podstawowe znaczenie zdania da się ująć w postaci co najmniej jednoargumentowego predykatu (funkcji). Oprócz tego w strukturze znaczeniowej językowego wyrażenia zdaniowego jest jeszcze składnik modalny, składnik temporalny i składnik lokatywny. Dodatkowo każda struktura znaczeniowa jest zdeterminowana aktualnym rozczłonkowaniem (podział na temat i remat).

Komponent semantyczny będzie w zintegrowanym modelu interpretował reguły syntaktyczne (ale tylko komponent bazowy, nie struktury powierzchniowe). Jest to możliwe, gdy za transformacje uzna się jedynie te reguły, które nie wpływają na zmianę znaczenia struktury wyjściowej. Każda reguła przepisywania, która powstaje w komponencie bazowym trafia do komponentu semantycznego, tam następuje interpretacja znaczeniowa. Komponent semantyczny składa się z części: 1. zbioru formuł semantycznej reprezentacji zdań przedstawiających elementarne struktury znaczeniowe; 2. reguł interpretacji semantycznej wg reguł przepisywania z komponentu bazowego, tj. dopasowania do nich odpowiednich elementów struktur znaczeniowych; 3. eksplikacji znaczeniowej poszczególnych jednostek słownikowych.

Model generuje zdania językoznawcze, nie da się tak go rozbudować, by generował zdania tekstowe i teksty języka naturalnego (bo to zawsze niepowtarzalna struktura znaczeniowa o przemyślanej kompozycji – powstaje w określonym celu, w określonej sytuacji komunikacyjnej). Zdania językoznawcze mogą być tylko budulcem dla tekstu, nie można przewidzieć reguł organizacji tekstów.

W modelu generatywnym znajdują się też inne podsystemy gramatyczne i odpowiadające im komponenty: fonologiczny (przekształcenia ciągów fonologicznych), morfonologiczny (reguły wymian fonemów w obrębie tematów) i morfologiczny (fleksyjny – relacje między wszystkimi formami wszystkich leksemów i słowotwórczy – relacje między leksemami).

III. Ocena modeli generatywnych

Modeli generatywnych może być nieskończenie wiele. Nie ma jednak takiego modelu, którego nie można by zastąpić lepszym. Żeby uznać jeden model za lepszy od innego nie wystarczy posługiwać się intuicją, potrzebne są racjonalne kryteria oceny.

Trzy kryteria zaproponowane przez Hjelmsleva:
niesprzeczności wewnętrznej, zupełności i prostoty.
Wymóg niesprzeczności wewnętrznej jest podstawowy w stosunku do modeli dedukcyjnych, wewnętrznie sprzeczny system nie może działać. System dedukcyjny powinien generować pełny zbiór zdań tego języka – powinien być zupełny – to też istotne kryterium. Zawodne jest jednak kryterium prostoty, gdyż termin ten nie jest jednoznaczny.

Inną hierarchię zaproponował Noam Chomsky: najpierw modele należy oceniać z punktu widzenia ich adekwatności opisowej. I stopień – słaba adekwatność opisowa. II stopień – mocna adekwatność opisowa – modele są w stanie opisywać pełny zbiór zdań językoznawczych, ale nie są w stanie przypisać tym zdaniom struktur zgodnych z intuicją użytkownika języka. Modele o mocnej adekwatności opisowej oceniane są na III poziomie, który nazywa się adekwatnością wyjaśniającą (upraszczając: naturalnością modelu – model adekwatny w stopniu wyjaśniającym ma formę zbliżoną do gramatyki naturalnej, którą każdy użytkownik języka ma w głowie).

I poziom – słaba adekwatność opisowa – jak u H. zupełność (ale jeszcze z zastrzeżeniem, że nie mogą tworzyć ponadgeneracji).
Zamiast kryterium prostoty u H. – Chomsky proponuje swoje II poziomy: poziom II – mocna adekwatność opisowa i poziom III – adekwatność wyjaśniająca.
Mocną adekwatność opisową będzie miała gramatyka, która przypisuje zdaniu, które można odczytać dwojako dwie struktury, a nie tylko jedną (Morderstwo króla było straszne.)
B. nie zgadza się z kryterium adekwatności wyjaśniającej, czyli by oceniać gramatyki ze względu na zgodność z ludzką kompetencją językową, ponieważ jest ona bytem abstrakcyjnym – nie jest dostępna obserwacji. Kryterium adekwatności wyjaśniającej Chomskiego jest więc bardziej niejednoznaczne niż kryterium prostoty zaproponowane przez Hjelmsleva.

Proponowane przez B. kryteria oceny modeli gramatycznych:
1) niesprzeczność wewnętrzna
2) adekwatność opisowa
a) słaba
b) mocna
3) eksplicytność
a) pregeneratywna
b) generatywna
α) modeli bez metagramatyki
β) modeli zawierających metagramatykę
γ) modeli zawierających metagramatykę i komentarz kognitywny
4) sprawność formalna

Wszystkie gramatyki są eksplicytne (są zbiorami reguł konstruowania zdań, a nie wyliczeniami tych zdań > zbiór zdań jest nieskończony – więc nie można „wyczytać” gramatyki z wyliczonych zdań). Skoro każda gramatyka jest z natury eksplicytna to po co takie kryterium? Wśród gramatyk mogą być bardziej lub mniej eksplicytne: 2 stopnie: eksplicytność pregeneratywna i eksplicytność generatywna. Gramatyka eksplicytna pregeneratywnie nie musi być zapisana w postaci systemu formalnego). Wszystkie gramatyki adekwatne opisowo w stopniu mocnym są automatycznie eksplicytne pregeneratywnie (zarówno nieformalne gramatyki strukturalistyczne, jak i formalne gramatyki generatywne. Nieformalne gramatyki strukturalistycznie nie przedostają się jednak na poziom eksplicytności generatywnej – przysługuje ona jedynie modelom formalnym, są one bardziej falsyfikowalne, bo same przez się wyznaczają granice swoich produkcji, czyli zdań gramatycznych. Eksplicytność generatywna jest również stopniowalna – by gramatykę uznać za eksplicytną generatywnie wystarczy, by była adekwatna opisowo w stopniu mocnym i miała postać formalnego systemu dedukcyjnego. Gramatyki z dwoma zbiorami reguł (1 zbiór reguł generuje reguły drugiego zbioru) to gramatyki z metagramatyką. Gramatyki zbudowane z gramatyki i metagramatyki są bardziej eksplicytne – w jawny sposób informują o naturze reguł gramatyki. Dodatkowo można metagramatykę wyposażyć w informacje o naturze reguł gramatycznych, które można wyczytać z prac kognitywistów > + komentarz kognitywistyczny to jeszcze wyższy stopień eksplicytności. Ostatnie kryterium to sprawność formalna (matematycy).

Wyjaśnianie nomotetyczne jest charakterystyczne dla nauk, które konstruują systemy dedukcyjne > skoro tak, to w językoznawstwie powinien być ten rodzaj wyjaśniania obecny. B. utrzymuje jednak, że w językoznawstwie funkcjonuje jedynie wyjaśnianie idiograficzne – nie może być mowy o nomotetycznym. Wprawdzie można skonstruować model gramatyczny w postaci systemu dedukcyjnego, nie można jednak porównać go z oryginałem, gdyż jest on bytem abstrakcyjnym – nie jest dostępny obserwacji. Zaproponowana hierarchia oceny modeli pozwala jedynie ograniczyć zakres modeli gramatycznych, nie pozwala jednak uznać któregokolwiek z modeli za najlepszy. Traktować ją więc trzeba raczej jako zbiór wytycznych do konstruowania i falsyfikowania gramatyk.

IV. Z historii generatywizmu

Paradygmat generatywistyczny został zapoczątkowany w roku 1957 przez Noama Chomskiego > książka Syntactic Structures. Głosił w niej tezę, że gramatyka języka naturalnego powinna generować nieskończony zbiór zdań za pomocą skończonej liczby reguł. Gramatykę należy zatem sformułować zgodnie z zasadami budowania systemów dedukcyjnych (aksjomatycznych). Rozważa przy tym 3 klasy systemów dedukcyjnych: system skończenie stanowy, system frazowych reguł przepisywania i system złożony ze zbioru frazowych reguł przepisywania i zbioru transformacji.

System skończenie stanowy nie jest dobrym kandydatem na gramatykę języka naturalnego, ponieważ w zdaniach języka naturalnego nie da się tak podzielić elementów, by nie było wśród nich elementów nieciągłych (np., grupa ładną dziewczynę w zdaniu Ładną mój brat ma dziewczynę.), a mając określoną liczbę stanów trudno wykorzystać ten mechanizm do generowania zdań języka naturalnego, który może mieć nieprzewidywalną liczbę elementów pomiędzy elementami składowymi elementu nieciągłego.

Lepszym kandydatem na gramatykę języka naturalnego jest system frazowych reguł przepisywania. Można go przekształcić na gramatykę struktur frazowych. W trakcie konstruowania gramatyki na bazie tego systemu również jednak pojawiają się kłopoty (nie może oddać różnych rodzajów szyku?). Najlepszy jest więc system dedukcyjny złożony ze zbioru reguł struktur frazowych i zbioru transformacji przekształcających produkcje reguł struktur frazowych na struktury powierzchniowe. Taki system Chomsky nazwał gramatyką transformacyjną.

Postulując zbudowanie gramatyki w postaci systemu dedukcyjnego zrywał Chomsky z dystrybucjonizmem amerykańskim, który zakładał, że gramatykę języka deszyfrujemy z korpusu istniejących tekstów dzięki procedurom dochodzenia do gramatyki. Z drugiej strony przejął od dystrybucjonizmu pewne założenia. W pierwszym modelu Ch. nie było miejsca na komponent semantyczny, w strukturalizmie amerykańskim również eliminowano znaczenie wyrażeń – opisywano wyłącznie stronę syntaktyczną. Pierwsze gramatyki generatywne również opisują tylko syntaktyczne związki między elementami zdań.

Książka SS przyniosła Chomskiemu duży rozgłos, co spowodowało, że przybywało zwolenników paradygmatu generatywnego. Szybko zauważono, że należy uzupełnić opis generatywny języka, dołączając do reguł składniowych reguły semantyczne. W 1965 Chomsky opublikował książkę Aspects of the Theory of Syntax, w której przedstawił nową wersję gramatyki transformacyjnej. Wersja ta nazwana została potem teorią standardową.

Teoria standardowa jest podobna do omówionego modelu lansowanego przez B. Do komponentu syntaktycznego dołączony został komponent semantyczny, który interpretował znaczeniowo składnię. Oba komponenty były więc od siebie niezależne (autonomiczne). Taki zintegrowany model zyskał jeszcze większe grono zwolenników. Poszczególne hipotezy Chomskiego ulegały ciągłym przeobrażeniom, gdyż dla wielu lingwistów były przedmiotem falsyfikacji. Pojawili się krytycy umiarkowani i krytycy fundamentalni.

II poł. lat 60. i pocz. 70 – umiarkowani krytycy teorii standardowej (w tym sam Chomsky) akceptowali ogólny schemat, falsyfikowali poszczególne reguły frazowe, a zwłaszcza reguły transformacyjne. Okazało się bowiem, że generują one znaczne ilości ciągów nieakceptowalnych (komponent transformacyjny – zbyt potężne narzędzie), zaczęli więc wyposażać transformacje w ograniczenia (filtry) zapobiegające generowaniu ciągów nieakceptowalnych. Ogólnie zatem można powiedzieć, że krytycy umiarkowani ograniczali model generatywny > model przebudowano – powstał nowy, zwany rozszerzoną teorią standardową gramatyki transformacyjnej. Umiarkowanych krytyków teorii standardowej nazywano interpretatywistami (ponieważ przyjmowali – jak w teorii standardowej – że komponent semantyczny pełni funkcję interpretatywną wobec komponentów składniowych (syntaktycznych).

W tym samym czasie fundamentalni krytycy teorii standardowej godzili się tylko z najogólniejszymi założeniami generatywizmu. Nie godzili się z zaproponowanym przez Ch. schematem modelu generującego, w którym komponent semantyczny interpretował składnię. Ich zdaniem bardziej naturalna jest gramatyka, która w czasie generowania zdań wychodzi od komponentu semantycznego, dochodząc do syntaktycznych struktur powierzchniowych zdań. Krytyków fundamentalnych nazywa się semantykami generatywnymi (np. teoria głębokiego przypadka Charlesa Fillmore’a).

Cechą wspólną wszystkich propozycji semantyków generatywnych było założenie, że składnia i semantyka nie są autonomicznymi komponentami gramatyki – semantyka jest prymarna w stosunku do składni (semantyka determinuje składnię). Semantyka generatywna nie doczekała się jednak eksplicytnego modelu, który można by poddać falsyfikacji (jak robiono to z teorią standardową), np. Lakoff początkowo propagujący sg porzucił tę ideę i zwrócił się w kierunku kognitywnego badania metafor. Na uboczu głównego nurtu powstała jednak teoria sens > tekst Mielczuka, wywarła ona wpływ na jęz. slawistyczne, nawiązuje do niej Żółta składnia.

Krytycy uważali, że transformacje są narzędziem zbyt potężnym, należało więc ograniczyć zasięg ich działania. Na pocz. lat 80. pojawił się jednak pomysł dalej idący – by zupełnie z transformacji zrezygnować, budując gramatykę jęz. nat. składającą się z reguł struktur frazowych i ich interpretacji semantycznej. Autorem tego pomysłu był Gerard Gazdar: uogólniona gramatyka struktur frazowych (GPSG).

Chomsky na początku rozważał taką koncepcję, uznał jednak, że to bardzo trudne zadanie i zaproponował model transformacyjny. Gazdar zaproponował natomiast, by podzielić gramatykę na 2 zbiory reguł: pierwszy bierze bezpośredni udział w generowaniu zdań (złożony tylko z reguł struktur frazowych zinterpretowanych znaczeniowo), drugi zbiór reguł należy do metagramatyki (pomnaża reguły zawarte w pierwszym zbiorze). Za pomocą reguł metagramatycznych można uzyskać takie nowe struktury frazowe, które umożliwią generowanie zdań otrzymywanych do tej pory za pomocą transformacji. W ten sposób gramatyka struktur frazowych uzyskuje mocną adekwatność opisową. W 1985 r. powstała synteza tego modelu, główny jednak nacisk położono w niej na opis cech poszczególnych symboli gramatyki. W następnych latach GPSG przekształciła się w HPSG (Head-driven Phrase Structure Grammar), która jeszcze bardziej szczegółowo rozpatrywała cechy poszczególnych symboli, dlatego m.in. stała się pożytecznym narzędziem opisu akomodacji syntaktycznej.

Najnowszą teorią Chomskiego jest tzw. program minimalistyczny (wszystko w klockach z wypustkami, nie ma planszy – plansza sama się zbuduje, główna zasada: łączenie! program minimalistyczny: 2 moduły: - zbiór pojęć i myśli abstrakcyjnych > język zbiór jednostek < język jest więc narzędziem do przekazywania myśli). Chomsky w programie tym broni kryterium adekwatności wyjaśniającej (w GPSG i HPSG przekonanie, że wartość poznawcza modelu zależy od jego sprawności). By zbudować gramatykę adekwatną z wyjaśniającego punktu widzenia, trzeba obserwować, jakie dane empiryczne potrzebne są człowiekowi do opanowania języka. Na podstawie tych obserwacji można (+teoria psychologiczna) przyjąć jakie reguły formalne odpowiadają umysłowym procesom tworzenia gramatyki naturalnej. Rozważania te są istotne dla badaczy, których interesują uniwersalia językowe (zbiór reguł i kategorii wspólnych wszystkim językom). Obecnie program minimalistyczny uważa się za utopię.

Zanim jednak powstał program minimalistyczny, zaproponował Chomsky teorię rządu i wiązania (government and binding), (w momencie gdy swoją teorię formułował Gazdar). Teoria rządu i wiązania to inaczej teoria zasad i parametrów (wszystkie języki mają uniwersalne zasady, różnią się jedynie na poziomie parametrów). Dotychczasowe teorie generatywne uznał Chomsky za pozbawione większego znaczenia teoretycznego, gdyż zamiast uniwersalnych zasad konstruujących uniwersalną gramatykę, posługują się one kategoriami, które można wydobyć z powierzchownej dość obserwacji modeli generatywnych.

Uniwersalną gramatykę należy budować z dwóch różnych perspektyw, wnikając głębiej w istotę procesu dedukcyjnego. P1: ogólny system gramatyczny, który składa się z 3 komponentów: leksykonu, składni (komponent bazowy i transformacyjny) i komponentu interpretującego. P2: system uniwersalnych zasad, zawierający m.in. teorię wiązania, teorię rządu i teorię ograniczeń (P2 przypomina metagramatykę z modelu Gazdara). W takiej gramatyce uniwersalnej nie jest istotne opisywanie procesu generowania poszczególnych zdań, ma ona bowiem składać się z zasad bardzo ogólnych. Reguły gramatyczne formułowane dla poszczególnych języków powinny mieścić się w ogólnych zdaniach gramatyki uniwersalnej.

V. Językoznawstwo generatywne a filozofia

W klasycznych systemach filozoficznych wyróżnia się 3 dziedziny: bytu (wyjaśniany w ramach metafizyki), myśli (zajmuje się nią teoria poznania) i języka (zajmuje się nią logika). W wielkim uproszczeniu, język był dla filozofów narzędziem poznania bytu. Filozofowie XX wieku przejawiają jeszcze większe zainteresowanie językiem, głosząc tezę, że nie da się oddzielić dziedziny myśli od dziedziny języka (skrajna teza: granice mojego języka są granicami mojego poznania). Zainteresowanie filozofów budzą integralne teorie, które są sprawdzalne – czyli generatywistyczne.

Na podstawie odróżnienia struktury głębokiej od struktury powierzchniowej Chomsky (a za nim pewni filozofowie) głosili tezę, że dzięki badaniom generatywnym odkrywa się racjonalne układy w podświadomości człowieka. Językoznawstwo generatywne zatem, głosząc sądy na temat sposobu organizowania ludzkiego myślenia, staje się jednocześnie ważnym czynnikiem warunkującym teorię poznania (a przez nią całą filozofię).

Inni filozofowie byli sceptyczni – nie ma to wpływu na strukturę rzeczywistości (Chomsky był zainteresowany stroną syntaktyczną najbardziej), a w samym generatywizmie nie ma konieczności wyodrębniania struktury głębokiej (GPSG też ma mocną adekwatność opisową) – jest ona tylko jedną z kategorii taksonomicznych, nie można jej utożsamiać z żadną kategorią psychiczną > nie warunkuje więc ani poznania, ani tym bardziej całej filozofii.

Część V. Zastosowanie teoretyczne wiedzy lingwistycznej

I. Leksykografia

Leksykografia to jeden z działów językoznawstwa stosowanego, zajmuje się budowaniem słowników. Najpierw zbiera się empiryczny materiał językowy, czyli teksty (ale przed ich gromadzeniem trzeba ustalić jakiego rodzaju słownik ma powstać i dobrać materiał odpowiednio pod tym kątem). Zebrane teksty należy poddać ekscerpcji, czyli wybrać z tekstów wyraz i jego kontekst – to na podstawie kontekstu określa się później znaczenie tego wyrazu i podaje jego cechy składniowe. Obecnie praca oczywiście komputerowo, przyjmuje się, że korpus tekstów potrzebny do opracowania dużego słownika języka polskiego powinien liczyć co najmniej 30 milionów wyrazów tekstowych, lepsze są korpusy 100 milionowe.

Opis języka składa się z gramatyki i słownika, przy czym działy te są ze sobą powiązane – jednostka leksykalna ma swoje miejsce wyznaczone przez reguły gramatyczne, opisy gramatyczne współtworzą zatem warsztat leksykografii. W haśle słownikowym każdego wyrazu musi być miejsce na jego cechy gramatyczne (kategoria, czyli część mowy, cechy fleksyjne, cechy składniowe). Nie może oczywiście zabraknąć eksplikacji semantycznej wyrazu – są one formułowane na podstawie korpusu. Powinno się przy tym posługiwać wypracowanym w ramach teorii semantyki metajęzykiem, w którym jednostkami podstawowymi są nierozkładalne jednostki znaczeniowe. Osobna część hasła powinna dotyczyć cech pragmatycznych – jaki jest zakres użycia, wpływ na odbiorcę tekstu.

Najważniejszy polski słownik współczesny to 11-tomowy Słownik języka polskiego (1958-1969) pod redakcją Witolda Doroszewskiego. Liczy ok. 125 tys. haseł ilustrowanych przykładami użycia, głownie z literatury.
W słowniku tym nie zastosowano jednak spójnego metajęzyka semantycznego do opisu znaczeń (próby stworzenia takiego języka dopiero gdy drukowano ostatnie tomy). Znaczenie pewnych wyrazów stara się słownik Doroszewskiego przybliżyć podając ich synonimy, przy opisie leksemów rzeczownikowych jest często stosowana tzw. definicja realnoznaczeniowa, tworzona na wzór definicji klasycznej. Mimo niedociągnięć (krytykował np. Bańko) – wielkie dzieło i na jego podstawie powstały inne słowniki – np. Słownik poprawnej polszczyzny, Mały SJP i 3-tomowy SJP pod red. Mieczysława Szymczaka.

Słowniki historyczne to:
1) zabytki: XVI-wieczny słownik polsko-łaciński Jana Mączyńskiego, XVII-wieczny słownik Grzegorza Knapiusza i XVIII-wieczny Abrahama Trotza. Na początku XIX w. pierwszy polski słownik jednojęzyczny – 6-tomowy SJP Samuela Bogumiła Lindego
2)słowniki historyczne języka polskiego: 11-tomowy Słownik staropolski (słownictwo do roku 1500), Słownik polszczyzny XVI wieku; słowniki etymologiczne – np. Słownik etymologiczny JP Aleksandra Brucknera

II. Pedagogika językowa

W metodyce nauczania języka polskiego nastąpiła zmiana akcentów – od większego skupienia się na wiedzy wyraźnej (językoznawczej) do wiedzy jasnej. W nauczanym w szkole składniowym opisie języka polskiego łączono w całość kategorie syntaktyczne i semantyczne, teraz postuluje się bardziej ćwiczyć sprawność językową uczniów.

W metodyce nauczania języków obcych najważniejsze jest opanowanie wiedzy jasnej (umieć się posługiwać językiem), czyli opanowanie nowej kompetencji językowej. Przydają się kontrastywne opisy językoznawcze. Jest różnica czy osoba ucząca się języka obcego zna już jakiś inny język obcy czy nie – przez pryzmat jakiego języka nabywa wiedzę – tylko ojczystego czy jakiegoś innego.

Logopedia. Leczenie afazji – zespołu zaburzeń mówienia, który wynika z zaburzeń pracy jakiegoś obszaru mózgu.

Zakończenie

Potocznie rozumie się językoznawstwo jako naukę związaną z normą i poprawnością językową. B. zauważa, że wypowiadający się w kwestii poprawności językoznawcy popełniają nadużycie. Nie ma bowiem racjonalnych kryteriów do ustalenia, co jest w języku poprawne, a co nie – sądy normatywne (o poprawności językowej) nie są naukowe. Kwestia ta bardziej niż nauki dotyczy raczej kultury (to, czy ktoś wypowiada się poprawnie czy nie jest wartościujące).


Wyszukiwarka

Podobne podstrony:
Peter L Berger Zaproszenie do socjologii (streszczenie)
Zaproszenie do Opola
jez, Wstęp do językoznawstwa
Duży?kolt to nie zaproszenie do gwałtu
Wstęp do językoznawstwa  X 11
WSTĘP DO JEZYKOZNAWSTWA OGÓLNEGO, WYKŁAD, XI, 4 05 11
Bobrowski, Jęz racjonalne krótkie streszczenie
Sklepy cynamonowe - biografia Schulza - opracowanie i streszczenia, Przydatne do szkoły, streszczeni
marketing do egzaminu streszczenie wykładów
Peter L. Berger - ZAPROSZENIE DO SOCJOLOGII, 3. ZAPROSZENIE DO SOCJOLOGII - 3 DYGRESJA ALTERNACJA l
Wniosek o wpisanie zaproszenia do ewidencji zaproszeń, Wniosek o wpisanie zaproszenia do ewidencji z
zaproszenie do rozwoju i pełni w Chrystusie
Język w relacji do a językoznawstwo kognitywne ebook demo
Wstęp do językoznawstwa  XI 11
080413kon03 zaproszenie do przyjazni
zaproszenia do druku

więcej podobnych podstron