kompilacja MBJ, Filologia


  1. Bogusławski, O proporcjonalności w języku i jej warunkach.

Na początku autor artykułu zaznacza, iż zjawisko proporcjonalności odnosi się do synchronii i diachronii. Hasłem odsyłającym do zjawiska proporcjonalności jest analogia (zbieżność, podobieństwo).

Mając na uwadze dzieje językoznawstwa i moment zainteresowania opisem poszczególnych języków z uwzględnieniem zaleceń normatywnych, mówiąc o analogii, miano na uwadze myśl o szczególnej wszelkiej regularności. Chodziło tu przede wszystkim o mniej lub bardziej systematyczną korelację różnych cech (np. korelację rodzaju gramatycznego rzeczowników z ich właściwościami znaczeniowymi).

Takie „nomiczne” stanowisko „analogistów” było przeciwne w stosunku do „animalistów”, którzy zmierzali do podważenia związku języka z regularnością i ukazywali język jako zbiór faktów idiosynkratycznych, ustalonych mocą zwyczaju czy uzusu.

Tak więc zjawisko proporcjonalności w odniesieniu do walki analogistów z animalistami pojawiło się w obserwacjach związanych z fleksją.

Wieki nowożytne, zwłaszcza XIX wiek, przynoszą rozwój językoznawstwa porównawczego, historycznego i historyczno-porównawczego, w których to pojęcie analogii zostaje trwale związane z badaniem mechanizmów zmian językowych.

H. Paul kładł nacisk na to, że zróżnicowanie tworów językowych jest sprzężone z procesami upodobań. Natomiast Humboldtowska wizja języka to zorganizowana, całościowa i dynamiczno-duchowa siła tworząca i należy wiązać ją z myślą o przekształcaniu się i kształtowaniu tworów językowych, napędzanych w dużej mierze przez analogię.

Paul wypracowuje zaawansowaną doktrynę analogii jako filaru wyjaśnień w historycznej charakterystyce języka, która jest jedyną charakterystyką naukową (miejsce uprzywilejowane zyskuje proces wyrównania proporcjonalnego i formuła proporcji).

W artykule autor spogląda na fenomen proporcjonalności jak na sprawę kluczową. I tak wyodrębnia się mu okres postmłodogramatyczny, związany z dokonaniami de Saussure'a, któremu to przypisuje zasadniczą nowość myśli dotyczącej proporcjonalności, a także wspomnianego już Paula - głównego teoretyka młodogramatyzmu.

Nowość de Saussure'a, zwana kopernikańską lub kantowską, polega na tym, iż dostrzegł on w proporcjonalnym układzie elementów samą istotę języka. De Saussure głosił, iż: „analogia pozwala nam dotknąć palcem gry mechanizmu językowego”. Powiązał także fenomen układów proporcjonalnych bezpośrednio z nadrzędną myślą o języku jako systemie zróżnicowania, w którym „to, co odróżnia dany znak, jest tym, co go stanowi”, w którym jednostki nie są dane z góry, ale ustalane są wtórnie wobec primum, jakie reprezentuje abstrakcyjna potencja zróżnicowania, formująca układy symetryczne.

U Paula mamy natomiast zbiór danych na zasadzie implicytnie założonej oczywistości, gotowych form o statusie bytów pierwotnych, które dopiero ex post są grupowane przez psychologiczny mechanizm asocjacji, łączącej je ze względu na podobieństwa, mającej na uwadze różne względy. Analogia i podobieństwo to w tym przypadku zjawiska przygodne. Owego psychologizmu w badaniach de Saussuer'a nie ma.

Bogusławski w swoim artykule zastanawia się ponadto nad cechami charakterystycznymi czwórek sekwencji sylabicznych (dokładnie sekwencji dwusylabowych: ae, ao, ue, uo) i czwórek osób (Zbigniew i Ewa jako ojciec i matka w rodzinie Kowalskich, a także Karol i Jadwiga jako ojciec i matka w rodzinie Kwiatkowskich). Zauważa na przykład te same różnice między elementami pierwszej pary „ae” i elementami pary drugiej „ao”. W przykładzie tym przeciwstawiają się sobie te same dwa elementy: e i o. Autorowi chodzi tu o przeciwstawianie się elementów poprzedzających i następujących. Dalej Bogusławski rozważa różnice między czwórkami wspomnianych osób i dochodzi do wniosku, iż Zbigniew i Ewa nie różnią się między sobą dokładnie tak samo jak Karol i Jadwiga. Jedyne, co może się różnić w tym przypadku to „pojęcia” (ojciec, matka, rodzina Kowalskich, rodzina Kwiatkowskich) i tak na przykład pojęcia ojca przeciwstawia się pojęciu matka. Tu układ proporcjonalny jest układem językowym, podobnie jak układ sekwencji sylabicznych. Przytoczone imiona to tylko argumenty czterech złożonych pojęć. Proporcjonalność tych argumentów to cecha relatywna względem czystej proporcji językowej, w której kompozycje pojęciowe sprowadzają się do rezultatów przemiennego zespalania się czterech elementów pojęciowych.

Bogusławski ma w tym przypadku na względzie przeciwstawienie proporcjonalności bezwzględnej (charakterystycznej dla elementów językowych) i proporcjonalności relatywnej (charakterystycznej dla obiektów i sytuacji zewnętrznych, pozajęzykowych).

Mając na uwadze świat pozajęzykowy, bezwzględną proporcję prezentują następujące układy: O'W-t1 : O''W-t1 :: O'W-t2 : O''W-t2; (O', O'' - dowolne dwa przedmioty przeciwstawiające się reszcie świata, występujące w dwóch różnych momentach; W-t1, W-t2 - są to te właśnie dwa różne momenty). Zatem proporcja bezwzględna jest konstytutywna dla języka i wnoszona przez język.

Autor zauważa także, iż próba upodobnienia proporcji językowych do proporcji pochodnych załamuje się w obliczu nieuchronnego regresu nieskończonego. Dodaje ponadto: Gdyby proporcje, w których występują elementy językowe, miały zależeć od proporcji pojęciowych (na wzór proporcji ojców i matek), to te ostatnie proporcje pojęciowe, które też obserwujemy wyłącznie na elementach językowych w ich z kolei proporcjach, musiałyby znowu być relatywizowane do jakichś wyrażeń i tak bez końca.

Podsumowując swe rozważania Bogusławski stwierdza, iż wszelkie obiekty językowe wchodzą od początku w układy proporcjonalne bezwzględne. Realizują one proporcje płaszczyzny treści, płaszczyzny wyrażenia bądź te dwie płaszczyzny razem. Ponadto byty zwane okurencjami wyrażeń w konkretnym miejscu i czasie mają wiele niepowtarzalnych cech. Jednocześnie cechy te są wymuszane przez techniczną niemożliwość stosowania zawsze jednego indywiduum.

Bogusławski twierdzi, iż musimy mieć na uwadze istnienie „inwariantów” językowych, pojęciowych i wyrażeniowych, które są pierwotne wobec okurencji wyrażeniowych. Musimy także być świadomi istnienia innych bytów, takich jak: indywidua, które są pierwotne, niezastępowalne wzajemnie. Wszystko to, co zostało przedstawione dotychczas to próba interpretacji badań de Saussera, jego idei proporcjonalności jako novum w stosunku do dokonań Paula.

Autor dostrzega także, iż Paul znajduje swoje „równanie proporcjonalne” w różnych układach wielkości językowych, nie dokonując przy tym dyferencjacji.

Mając na uwadze interpretację dziejową językoznawstwa, można rzec, iż: Humboldt znamionuje przejście do lingwocentrycznej wizji ducha ludzkiego, de Saussure - przy zachowaniu myśli Humboldta przechodzi do proporcjocentrycznej wizji języka, dodając, że język jest systemem różnicowania, w którym rolę centralną odgrywa proporcjonalność.

Mówiąc o proporcjonalności warto także przywołać nazwisko Wittgenstein'a i jego „obrazkową teorię języka”. Nowe spojrzenie na język to także zasługa Frege i jego teorii znaczenia wyrażeń powiązana z teorią logicznej struktury zdań i kompozycjonalności, czy z myślą o nieprzekraczalnej barierze oddzielającej obiekty i pojęcia.

Nosicielem pokrewnym wobec idei de Saussure'a był Peirce. Wprowadził on pojęcie „gramatyczności języka” jako rodzaj „ikoniczności” czyli obrazowania (znak ikoniczny oparty na proporcji).

Wszyscy wymienieni myśliciele starali się znaleźć sedno tego, o co chodzi w języku. Widzieli je w koniecznej różnorodności złożoności w sensie kompozycyjności tworów językowych, w relacji do różnorodności i złożoności świata i jego mozaikowej natury.

Wyłaniający się z powstałych w XX wieku prac, obraz języka to także klasyczne ujęcie proporcjonalności Evansa czy dokonania Rodel-Kappla odnośnie pojawienia się form dopełniacza liczby mnogiej na -ov w deklinacji dawnych tematów na -o- na miejscu form identycznej z mianownikiem liczby pojedynczej.

Bogusławski w swoim artykule zwraca uwagę na praktyczną realizację idei proporcji w badaniach lingwistycznych, w badaniach synchronicznych. Zgodnie ze stanowiskiem de Sauuseura śledzenie układów proporcjonalnych w ciągach wstępnie niezróżnicowanych ma za zadanie prowadzić do ustalenia rzeczywistych tożsamości lub bytów językowych zwanych jednostkami języka.

Podsumowując artykuł, Bogusławski dodaje, iż aby zrozumieć ideę proporcjonalności trzeba wyjść od omówionych wcześniej układów czwórkowych, nawet jeśli element relewantny nie zasłuży sobie w końcowym etapie na miano jednostki języka. Mimo to, ma jednak wyróżniony jakiś status, bo spełnia elementarny warunek konieczny, który jest nałożony na jednostkę języka. Stara się też wytłumaczyć, co taki status zapewnia.

Wspomina o delimitacji o charakterze funkcjonalnym. Identyczność pozytywnych różnic w kontekście proporcji, musi dotyczyć cech funkcjonalnych, ale nie jako samych w sobie, lecz o korelację danych cech określonymi, a nie dowolnymi cząstkami o charakterze perceptybilnym (tzw. delimitacja tekstualna). Chodzi tu głównie o określoność cząstek funkcjonalnych. W związku z tym autor stawia pytanie o minimalny warunek takiej określoności cząstek w korelacji z cechami funkcjonalnymi. Odpowiada, iż wystarczy powtarzalność jednej cząstki w czwórce, jeżeli brak, czyli zero paradygmatycznego symetrycznie powtarzalnego i pozytywnego odpowiednika tej cząstki da się związać z zerem cechy funkcjonalnej, w przeciwnym wypadku potrzebna jest powtarzalność co najmniej dwóch cząstek.

Powyższe ujęcie implikuje, iż większa niż dwa liczba elementów powtarzalnych nie jest delimitacji konieczna. Chodzi tu zatem o różnice dźwiękowe skorelowane z różnicami signifie. Takie różnice dźwiękowe otrzymujemy na przykład przy cząstkach niepowtarzalnych, wtedy gdy stanowią resztę wyrażenia przy cząstce powtarzalnej. Tak jest w sytuacjach proporcji z jedną cząstką powtarzalną i proporcji z dwiema cząstkami powtarzalnymi.

Na koniec Bogusławski w celu rozjaśneinia swoich wywodów, przywołuje przykłady czwórek z jedną cząstką powtarzalną i czwórek z dwiema cząstkami powtarzalnymi.

Przykładem czwórki z dwiema cząstkami powtarzalnymi jest: ja idę : ja siedzę :: ty idziesz : ty siedzisz. Autor zakłada, iż wyrażenia te należą do tekstów z emfatycznym oznaczeniem osoby lub do tekstów uwarunkowanych pod względem pragmatycznym. W granicach tych tekstów idę, idziesz, siedzę, siedzisz są całkowicie idiosynkratyczne i ograniczone do połączeń, respective, z ja i ty. Jednak korelacja właściwości semantycznych z określonymi i nie dowolnymi cząstkami tekstów (ja idę, ja siedzę, ty idziesz, ty siedzisz) jest w tym przypadku oczywista, za sprawą powtarzalności ja, ty.

Na koniec Bogusławski stwierdza, iż kwestia delimitacji, którą podjął w artykule jest ulepszeniem wcześniejszych swoich wypowiedzi dotyczących tej tematyki.

Pojęcie paradygmatu nauki:

Przez paradygmat należy rozumieć zespół norm, wzorców, reguł postępowania, które zna każdy naukowiec zajmujący się daną nauką. Naukowiec nie zawsze ma świadomość metodologiczną, niekoniecznie musi umieć odpowiadać na fundamentalne pytanie typu co to jest nauka? A mimo to jest w stanie stworzyć prace naukowe.

Zanim jednak ten paradygmat powstanie, mamy okres, który określić można mianem prenauki. W okresie tym pojawiają się rozmaite sądy na temat interesującego naukę przedmiotu. Nie są to jednak jeszcze sądy uporządkowane. Z czasem jednak sądów wypowiedzianych na temat przedmiotu jest tak dużo i tak są one różnorodne, iż środowisku naukowemu zależy na ich uporządkowaniu. Pojawia się zatem uczony, który wyznacza kontury paradygmatu nowej nauki. Następnie kontury tej nowej nauki wypełnia się szczegółowymi treściami.

W pewnym jednak momencie rozwoju nauki w ramach jakiegoś paradygmatu następuje kryzys. Poprzedza on rewolucję, w wyniku której powstaje nowy paradygmat nauki, który bardzo się różni od paradygmatu dotychczasowego.

FALSYFIKACJONIZM

Źródeł tego paradygmatu należy szukać w teorii nauki autorstwa Karla Poppera, który - akceptując krytykę indukcjonizmu - sprzeciwia się jednak weryfikacjonizmowi, twierdząc, że hipotezy ogólnej nie można potwierdzić zdaniami szczegółowymi. Nauka więc zawsze będzie tylko prawdopodobna, nigdy pewna. Dlatego dużo owocniejsze przy tym dla nauki jest szukanie faktów falsyfikujących hipotezę.

Stąd też w falsyfikacjonizmie naukę uznaje się za zbiór hipotez obowiązujących dopóty, dopóki nie znajdzie się faktów sprzecznych z tą hipotezą. Jeżeli takie fakty się znajdzie, należy hipotezę dotychczasową zastąpić nową hipotezą lub ją odrzucić.

Nowa hipoteza powinna być od poprzedniej ogólniejsza, a przez to bardziej podatna na falsyfikowanie. Unikać więc należy tzw. hipotez ad hoc. (Przykład z psem*)

Falsyfikacjonizm ukształtował się w nauce po II wojnie światowej. Nie wyparł on jednak ani indukcjonizmu, ani weryfikacjonizmu, choć do lat 70 był paradygmatem dominującym.

GENERATYWIZM JAKO PRZEJAW FALSYFIKACJONIZMU

Generatywizm jest to taki paradygmat badań nad językiem, w którym:

- wychodzi się od przekonania, że zdania języka naturalnego powstają w wyniku łączenia lub przekształcenia jednostek niższego rzędu,

- utrzymuje się, że językoznawca powinien naśladować twórców systemów dedukcyjnych.

Chodzi więc w generatywizmie o to, by zbudować taki model języka, za pomocą którego można by nie tylko analizować zdania tekstowe, ale by tworzyć takie ciągi, które mają identyczną formę. Należy dążyć do budowania takich modeli języka, które pokazywałyby jak to się dzieje, że powstają zdania i teksty.

Istotą bowiem modelu generatywnego języka naturalnego jest to, iż generuje on nieskończony zbiór zdań za pomocą skończonej liczby reguł. Dlatego takiego typu gramatyka ma charakter rekurencyjny.

GRAMATYKA GENERATYWNO-TRANSFORMACYJNA

Zapoczątkowana przez Naoma Chomskiego w II poł. Lat 50. Zdaniem Chomskiego zdania języka naturanego można podzielic na 2 zbiory:

  1. Zdania generowane za pomocą gramatyki, w której nie ma reguł transformacyjnych.

  2. Zdania generowane za pomocą gramatyki, w której sa reguły transformacyjne.

Zdania typu:

Idzie chłopiec.

Idzie dziewczyna.

Siedzi chłopiec.

Siedzi dziewczyna.

mogą być generowane w taki sposób, iż ciągi końcowe otrzymane dzięki regułom przepisywania są przekształcane/transformowane na inne ciągi.

Gramatykę generatywną, która zawiera w zbiorze swoich reguł transformacje, nazywa się gramatyką generatywno-transfomacyjną.

Generatywizm jest zatem przejawem paradygmatu falsyfikacjonistycznego w językoznawstwie, ponieważ można teoretycznie zaproponować wiele modeli generatywnych i je sprawdzać. Zaś porces spawdzania jest jednocześnie falsyfikowaniem pewnych gramatyk z powodu sprzeczności wewnętrznej, nastepnych gramatyk z powodu ich niezupełności, pozostałych zaś z punktu widzenia braku prostoty.

Magdalena Danielewiczowa - Ferdinand de Saussure. Siła paradoksu

De Saussure'a dziwi złożoność ludzkiej mowy; temu osłupieniu towarzyszy czasem bezradność - uczony pragnie systematycznie, niewyrywkowo i nieimpresyjnie opisać złożoność języka w jego istocie. Owo zdumienie doprowadziło badacza do zanegowania dotychczasowyh tez dotyczących lingwistyki („Nie zgadzam się, ogólnie rzecz biorąc, z żadną szkołą odnośnie cech uniwersalnych języka”).

Współczesna lingwistyka skrzywdziła głęboką, dociekliwą i wielowątkową myśl de Saussure'a, przekuwając jego dorobek w prostą formułkę: „język to system znaków”. Sformułowanie to odziera język z tajemniczości (mamy tu do czynienia z pewnymi zalążkami filozofii języka: „w każdym ze stanów języka duch tchnie w materię i ożywia ją”). Najgroźniejsze dla badacza nie jest popełnianie błędów, lecz przeświadczenie, że „z ciemności można uczynić jasność”.

De Saussure stawia tezę o czystej negatywności zjawisk językowych (nie ma w żadnym elemencie języka stałego punktu odniesienia). Bogusławski zauważa, że może prowadzić to do regresu nieskończonego.

Uchwycenie i zdanie sprawy z istoty mowy ludzkiej jest możliwe - po pewnych przewartościowaniach metodologicznych oraz zmianie sposobu prezentacji określonych treści. Tak powyższe założenia realizował sam de Saussure:

- fragmentaryczność myśli (pozostało niewiele jego notatek oraz notatki jego uczniów składające się na Kurs językoznawstwa ogólnego). Ta niekompletność stanowi o sile wyrazu myśli de Saussure'a.

- de Saussure wierzył w siłę metafor, porównań, przykładów (słynny przykład z grą w szachy czy porównanie wypowiedzi do kompozycji muzycznej).

- badacz twierdził, że nie istnieje jedna prawda o języku (jest ich kilka i powinny być zaprezentowane jako logicznie z siebie wynikające).

- istotna jest również paradoksalność wykładu: jej powodem jest dualność języka (pozwala to myśleć czasem o kwestiach wykluczających się, jak np. o tym, że język jest zdeponowany w umysłach użytkowników, będąc zarazem zjawiskiem o charakterze społecznym).

Język jest zmienny w czasie i zarazem ciągły, trwa w czasie. Język nigdy nie umiera sam z siebie; jego śmierć ma charakter zewnętrzny (np. eksterminacja ludu posługującego się danym językiem). Język sztuczny nigdy nie przyjmie się tak jak naturalny, bo nie ożywia go zasada zmiany w trwaniu i trwania w zmienności. Język jest zmienny także w przestrzeni (wędrowiec oddalający się od wioski może być na większym bądź mniejszym terenie zrozumiany przez innych - ciągłość przestrzenna języka).

CZYM JEST LUDZKA MOWA? Paradoks:

- należy zarejestrować maksymalnie dużo szczegółów z języków etnicznych

- należy dokonać wstępnego uogólnienia, które wytyczy pracy kierunek.

Wszelkie dane językowe są efektem działania ukrytego mechanizmu językowego (a więc umysłowego).

W lingwistyce przedmiot rozważań nie jest dany jak w innych naukach: niezależnie od pewnego punktu widzenia. Najpierw istnieją właśnie owe punkty widzenia, a dopiero wybór jednego z nich pozwala zaistnieć przedmiotowi badawczemu. De Saussure opisuje cztery punkty widzenia w lingwistyce:

  1. Synchroniczny, czyli morfologiczny

  2. Diachroniczny, czyli fonetyczny

  3. Anachroniczny, czyli etymologiczny

  4. Historyczny

Dwa pierwsze wynikają z natury języka i konstytuują dwa kolejne punkty. Nie należy mylić ze sobą i mieszać tych perspektyw!

Język jest rodzajem algebry (proporcjonalnym układem tożsamości i różnic). Metodologiczna podstawa de Saussure'a: językoznawstwo nie może obejść się bez logiki matematycznej.

W języku nie zachodzi istotna różnica między tym, co daną rzecz z pozostałych wyróżnia, a tym, co ją stanowi. To, co ustanawia dany znak jest tym, co go wyróżnia (jeżeli dwie wielkości się od siebie nie różnią, to być może nie ma dwóch wielkości, tylko jedna?; wskazanie na różnicę między A i B jest zarazem powołaniem tych znaków do istnienia - jest to problem ontologiczny). Znaki językowe (mające charakter bilateralny) cechuje dowolność, gdyż związek między nimi, a tym, co oznaczają ma charakter czysto arbitralny, nieumotywowany (nie da się uzasadnić, że między czymś a czymś zachodzą jakieś relacje). Bilateralność (zespolenie strony oznaczającej signifiant i oznaczanej signifie) czyni znak nierozerwalnym i zarazem go konstytuuje.

De Saussure chciał opracować osobno gramatykę języka, a osobno gramatykę mowy („dyskursu”), stawiając np. pytanie: „co trzeba zrobić, żeby coś komuś powiedzieć?” (pradziadek pragmatyki).

„Naukowy temperament znosi de Saussure'a w kierunku uogólnienia”.

Ferdinand de Saussure, O dwoistej naturze języka, [w:] tegoż, Szkice z językoznawstwa ogólnego, przeł. M. Danielewiczowa.

Podstawowa zasada semiologii: nie ma w języku ani znaków, ani znaczeń, ale są RÓŻNICE znaków i RÓŻNICE znaczeń: jedne istnieją dzięki drugim, ale nie są w stanie odpowiadać sobie bezpośrednio. W języku wszystko więc sprowadza się do OPOZYCJI, RÓŻNIC (nie ważne ile trwa „a długie”, ważne, że jest w opozycji do „a krótkiego”).

Nie ma różnicy między znaczeniem dosłownym a znaczeniem przenośnym danego słowa, ponieważ znaczenie słów jest rzeczą zasadniczo negatywną. Już samo znaczenie ogólne - możemy wyróżnić tylko w obecności innych wyrażeń, jest ono ograniczone istnieniem opozycji.

Nazwy mają charakter negatywny, znaczą coś jedynie w odniesieniu do pojęć zawierających się w innych wyrażeniach. Słowo dotyka materialnego obiektu wyłącznie przez pewne pojęcie, nie należy więc oczekiwać, że wyrażenia odnoszą się do określonych obiektów materialnych bądź innych.

Rozważany z dowolnego punktu widzenia, język nie zasadza się na zestawie wartości pozytywnych i absolutnych, ale wyłącznie negatywnych lub względnych, nie mających innego istnienia, jak tylko na mocy faktu zachodzenia opozycji między nimi.

De Saussure postuluje trzy sposoby przedstawiania słowa w językoznawstwie:

  1. Słowo to byt istniejący całkowicie poza nami, jego znaczenie to także byt niezależny od nas.

  2. Słowo pozostaje niewątpliwie poza nami, ale jego znaczenie tkwi w nas (tkwi w nas zarówno rzecz materialna, którą stanowi to właśnie słowo oraz rzecz niematerialna, którą stanowi jego znaczenie).

  3. Słowo i jego znaczenie istnieją poza pojęciem, które sobie o nich tworzymy.

Nie istnieje słowo-jednostka, jest tylko RÓŻNICA. Jedynym miejscem istnienia samego słowa jest nasz umysł.

Ważne spostrzeżenie ogólnometodologiczne de Saussure'a: podstawa naukowa objawia się tylko przy jasno sformułowanej metodzie.

Nie ma rzeczy, która mogłaby być rozpatrywana jednocześnie „w swojej epoce” (synchronia, aktualny stan gry na szachownicy) i zarazem „na przestrzeni dziejów” (diachronia, dotychczasowy przebieg danej partii szachów). Nie istnieje spojrzenie synchroniczno-diachroniczne, są one od siebie niezależne. Synchronia i diachronia pozostają w jaskrawej opozycji.

Stefan Amsterdamski

Tertium non datur? Szkice i polemiki

Tradycja i nowatorstwo

Thomas Kuhn swoją Strukturą rewolucji naukowych dał początek nowemu spojrzeniu na przedmiot badania dziedzin humanistycznych, mechanizmy ich rozwoju oraz osadzenie w kulturze.

Zbiorem rozpraw Dwa bieguny postawił pewien problem: jaką rolę w rozwoju wiedzy naukowej odgrywa tradycja, co jest jej nośnikiem, jak jest przekazywana i łamana?

Wszelkie dziedziczenie kultury jest zawsze i kontynuacją i łamaniem tradycji. Stąd zainteresowanie poglądami Kuhna żywe jest w wielu obszarach współczesnej humanistyki. Okazuje się tymczasem, że bardziej szczegółowe badanie konkretnego fragmentu kultury przynieść może interesujące wnioski nie mieszczące się w utartych stereotypach.

Rozwój nauki należy badać biorąc pod uwagę różne kwestie:

* teoriopoznawcze: potrzebne do wyjaśniania,

* historyczne: wykrywanie wątków ciągłych oraz punktów zwrotnych (przeobrażania tradycji) zmusza do śledzenia faktycznego rozwoju poznania naukowego w ogóle,

* socjologiczne: tradycja uprawiania nauki stanowi własność grupową i funkcjonować może jako tradycja wyłącznie wówczas, gdy jest zbiorowo, przez społeczność badaczy akceptowana. Jej łamanie również jest faktem znaczącym, gdy wykracza poza indywidualność.

Panowało niegdyś przekonanie, że w odróżnieniu do innych dziedzin działalności umysłowej - filozofii, literatury, sztuki, religii - rozwój nauki ma charakter kumulatywny, dokonuje się wyłącznie przez przejmowanie i eliminację. Nowe osiągnięcia unieważniają stare w tym sensie, że je w sobie zawierają w ulepszonej postaci, uwolnione od błędów, ograniczeń. Współczesny fizyk miał zatem prawo sądzić, że nie musi czytać w oryginale dzieł Galileusza czy Newtona, a nawet Einsteina, jako że ich osiągnięcia dostępne są w prostszych, lepiej usystematyzowanych opracowaniach następców. Natomiast rzeczą nie do pomyślenia było, aby filozof uznał, że zbędna mu jest bezpośrednia znajomość pism Platona, Kartezjusza czy Kanta. Rozwój zatem dziedzin kultury oprócz nauki dokonuje się raczej metodą pomnażania niż przyjmowania i eliminacji.

Pytanie o wzajemny stosunek tradycji i nowatorstwa w nauce rozstrzygane było (w największym skrócie) stwierdzeniem: „Wierność metodzie narzucającej nieograniczony krytycyzm wobec uzyskanego dorobku”. Odkrycie metody stanowić miało punkt zwrotny w rozwoju nauki. Mistrzowskie zastosowanie metody do trafnie sformułowanego problemu.

Od tego momentu dzieje nauki przestały być w gruncie rzeczy procesem historycznym. Historia nauki nie stanowiła już z założenia fragmentu historii powszechnej czy historii myśli. Wewnętrzny mechanizm rozwoju wiedzy miał być autonomiczny wobec okoliczności zewnętrznych - historycznych, socjologicznych, kulturowych. Opór wobec takiego uproszczonego pojmowania mechanizmów rozwoju wiedzy sprawiał, że epistemologia w sposób równie skrajny traktować musiała poznanie naukowe i jego ewolucję jako wynik niezmiennych, niczym niezapośredniczonych zdolności natury ludzkiej, jako ucieleśnienie jej racjonalności, zawsze takiej samej i na tym samym polegającej. Co z taką racjonalnością się nie zgadzało, musiało być uznawane za rezultat działania czynników pozaracjonalnych, odstępstw od metody, za dewiację.

Taka właśnie wizja nauki została zakwestionowana przede wszystkim przez Thomasa Kuhna. Naszkicowaną wyżej tradycyjną wizję rozwoju poznania naukowego przedstawia on jako produkt rekonstrukcji jego dziejów na gruncie określonych założeń filozoficznych (radykalny empiryzm, pozytywizm), które odrzuca między innymi dlatego, że - jak twierdzi - rekonstrukcja ta nie daje się pogodzić z dziejami rzeczywistymi i z rzeczywistą praktyką badawczą uczonych. Domaga się zatem, aby „teoria wiedzy stosowała się do zjawisk ujawnianych przez historię sztuki”, odrzuca zdecydowanie radykalny empiryzm.

Należy jednak zaznaczyć, że pisanie historii związane jest zawsze z rozmaitymi zabiegami interpretacyjnymi stosowanymi wobec tego, co zwykło się nazywać faktami historycznymi. Nadawanie znaczeń, sposób formułowania pytań, ocenianie ważności zjawisk nie są na tyle filozoficznie niewinne, aby narrację historyczną traktować jako bezstronnego arbitra. Nie ma zespołu takich faktów, które dopuszczałyby rozmaitych interpretacji, odmiennych ich uporządkowań w sensowne całości.

Centralnym pojęciem dla Kuhna dla zdania sprawy z różnicy między rozwojem nauki a innych dziedzin twórczości intelektualnej oraz zerwania z tradycją był paradygmat.

Paradygmat, czyli zespół zasadniczych przekonań i uprzedzeń wspólnoty badaczy, umożliwiający niewracanie już do kwestii raz rozstrzygniętych, rozwiązywanie kolejnych. Zmiany paradygmatów powodują nowe widzenie całego pola badań, jego restrukturyzację, reinterpretację uznanych dotąd faktów, które stają się czym innym, niż dotąd były. Zmiany te są - wbrew kumulatywnej koncepcji rozwoju wiedzy - punktami nieciągłości procesu. W ich rezultacie uczony znajduje się nagle w nowym świecie, który nie całkiem jest porównywalny ze starym, nie koresponduje z nim, wymaga nowego uporządkowania zgodnie z przyjętymi w wyniku rewolucji założeniami teoretycznymi.

W toku paradygmatu, który stanowi consensus omnium uczeni starają się raczej rozbudowywać aktualnie uznane teorie, niż nieustannie podejmować próby ich obalenia. Starają się raczej rozwiązywać niż szukać nowych, raczej bronić niż rezygnować z nich, gdy tylko pojawi się jakaś niezgodność z empirią. W rezultacie napięcie między tradycją a nowatorstwem wpisane zostaje w obraz nauki jako jej cecha immanentna, a nie dająca się uniknąć sprzeczność. Żadna metoda nie może nigdy konkluzywnie rozstrzygnąć , czy w danej sytuacji konfliktu między teorią a doświadczeniem należy poprzez rozmaite interpretacje i dodatkowe hipotezy bronić dotychczasowej teorii, czy też ją porzucić i opowiedzieć się za nową. Nauka normalna nie tylko zatem istnieje, ale istnieć musi, by możliwe były jej rewolucje naukowe, i że rozwoju wiedzy nie można zrozumieć, jeśli owego napięcia między tradycją a nowatorstwem nie traktuje się właśnie jako niezbywalnej cechy twórczości naukowej.

Kuhn odróżnia pojęcie consensus omnium, które nazywa matrycą dyscyplinarną od pojęcia paradygmatu w węższym sensie, to jest okazu wzorca rozwiązywania problemów w danej dziedzinie. Kuhn i inni zwrócili większą uwagę na problemie consensus omnium, na programach badawczych, ideałach nauki, a zwłaszcza na roli czynników pozametodologicznych (socjologicznych).

Filozof nauki dotąd nie bada faktycznych użyć terminów oraz pojęć i jest to jeden z jego grzechów. Można zauważyć u Kuhna tendencję do takiego pojmowania, iż znaczenie terminu wyznaczają jego potoczne, niesformalizowane użycia.

Kuhn nie mówi o rewolucjach w nauce, a raczej o rewolucjach w poszczególnych dyscyplinach, termin nauka używany jest przez niego jako nazwa zbioru rozmaitych dyscyplin, nie zaś jako nazwa pewnego szczególnego rodzaju poznania. Ale zamiast podać coś, co byłoby wspólne wszystkiemu, co nazywamy nauką, można powiedzieć, że nie wcale czegoś jednego, co wszystkim tym zjawiskom byłoby wspólne i ze względu na co stosowalibyśmy do nich wszystkich to samo słowo. Są one natomiast rozmaicie ze sobą spokrewnione. I ze względu na to pokrewieństwo, czy też te pokrewieństwa nazywamy je wszystkie naukami. Amsterdamski proponuje zatem wprowadzenie pojęcia „ideału nauki” - mówiącego o nauce jako o pewnej całości, nie zaś tylko jako o zbiorze różnych dyscyplin. Kuhn natomiast zrezygnował z mówienia o nauce danego okresu jako całości kulturowej i skupił swe zainteresowanie wyłącznie na przemianach w poszczególnych wąskich specjalnościach, uznając, że nie ma czegoś jednego, co wszystkim tym zjawiskom byłoby wspólne. Kuhn zaciera różnicę między nauką normalną a stanem kryzysu w nauce, stanem, który charakteryzuje się brakiem uznanego paradygmatu.

O ewolucji stanowiska Kuhna świadczy chociażby artykuł Obiektywność, sądy wartościujące i wybór teorii. Teza o tym, że reguły metodologiczne nie wyznaczają wyboru teorii w sytuacji konfliktu z doświadczeniem, lecz decyzja w tej kwestii wyznaczona jest przez czynniki pozametodologiczne (pozaracjonalne), zastąpiona zostaje twierdzeniem, iż w sytuacji takiej nie istnieje algorytm stosowania tych reguł. Teraz natomiast Kuhn skłonny jest sądzić, że wybór pomiędzy teoriami dokonuje się na mocy takich metodologicznych kryteriów, jak dokładność, spójność, ogólność, prostota, owocność, z tym wszakże, że nie funkcjonują one jako jednoznaczne kryteria, lecz raczej jako wartości nauki. Zespół tych wartości, nie dających się ułożyć na jednej skali, nie wyznacza jednoznacznie wyboru jednej z konkurujących teorii. Kuhn zdaje się szukać rozwiązania, które tłumaczyłoby przejście od jednej teorii do drugiej jako immanentny proces nauki, proces ścierania się elementów tradycji i nowatorstwa. Amsterdamski twierdzi, że intencją Kuhna jest właśnie historycznie ukształtowany ideał nauki, na którego gruncie dokonują się rewolucje w poszczególnych dyscyplinach.

Kuhn rozróżnia nauki klasyczne od baconowskich. Jest to związane z teorią, która zakłada, iż nowy paradygmat uzyskuje sukces stopniowo, w wyniku rekonstrukcji wizji świata, jaką narzucił poprzedni. Realizacja nowego ideału nauki, który dokonał się w siedemnastym wieku, obejmowała i rodziła coraz to nowe dziedziny wiedzy, formułując je na własną modłę. Pierwszym paradygmatem były według Kuhna nauki klasyczne. Natomiast dyscypliny, które rozwinęły się dzięki stosowaniu metody badawczej przedstawionej przez Bacona Kuhn zwykł nazywać baconowskimi.

Na koniec Amsterdamski zastanawia się, dlaczego zaczęto stosować consensus omnium do nauk przyrodniczych, skoro Kuhn mówił jedynie o historii myśli społecznej oraz historii filozofii. W związku z tym taki paradygmat jest jedynie modna nazwa, użyta zresztą niezgodnie z treścią.

Daria Jaranowska

Louis Hjelmslev „Langue i parole”

  1. W momencie wygłaszania przez Ferdynanda de Saussure swoich wykładów z językoznawstwa ogólnego, lingwistyka była całkowicie ograniczona do badania zmian językowych z punktu widzenia filologicznego i psychologicznego.

  2. F. de Saussure uświadomił nam, że współczesne jemu językoznawstwo zaniedbywało swój prawdziwy przedmiot badań, gdyż zajmowało się nie językiem lecz mówieniem! Dlatego uznał, że trzeba stworzyć nowe podstawy dla językoznawstwa.

  3. Przed F. de Saussure każdy problem lingwistyczny formułowano w terminach indywidualnego aktu mowy. Mowę ujmuję się jako sumę aktów indywidualnych. Dlatego F. de Saussure uznając wagę indywidualnego aktu mowy, stworzył coś zupełnie odmiennego - językoznawstwo strukturalne.

  4. Jedno z podstawowych zadań lingwistyki strukturalnej powinno polegać na badaniu funkcji i ich typów. Hjelmslev ograniczył się do dwu par pojęć : interdependencja ( zależność obustronna między takimi dwoma elementami, z których każdy wymaga w sposób konieczny obecności drugiego) i determinacja (zależność jednostronna między takimi dwoma elementami, z których jeden wymaga w sposób konieczny obecności drugiego).

  5. Z drugiej strony odróżnia komutacje (zachodzi miedzy dwoma elementami planu wyrażania, jeżeli ich zmiana wywołuje zamianę odpowiednich elementów planu treści, albo na odwrót - między inwariantami) od substytucji (gdy dwa człony nie spełniają warunku, o którym była mowa w komutacjach - między wariantami).

  6. Oba terminy langue i parole można rozmaicie interpretować.

  7. Język (langue) można interpretować jako:

  1. Jako czystą formę - zdefiniowaną niezależnie od jej społecznej realizacji i od jej przejawów materialnych,

  2. jako formę materialną - zdefiniowaną z uwzględnieniem określonej realizacji społecznej,

  3. jako po prostu zespół zwyczajów przyjętych w danym społeczeństwie.

  1. Odpowiadają im:

  1. Schemat - jako czysta forma;

  2. Norma - język jako forma materialna;

  3. Uzus - czyli zespół zwyczajów.

  1. Wg Hjemsleva najbliższym znaczeniu wyrazu język jest znaczenie języka jako schematu. Gdyż takie rozumienie języka uwalnia język od wszystkiego, co materialne i umożliwia odgraniczenie rzeczy istotnych od drugorzędnych. Ono jedyne uzasadnia porównanie języka do gry w szachy. Jednak z drugiej strony wie, że nie jest ono wystarczającym składnikiem, gdyż obraz akustyczny to psychiczne odbicie faktu materialnego, które wiąże język z określona substancją i utożsamia go z normą. W rezultacie Hjelmslev uważa, że najtrafniejszą definicją języka byłoby ujęcie go jako systemu znaków.

  2. Zależności:

  1. Norma determinuje (tj. zakłada ) uzus i akt mowy, ale nie odwrotnie. Norma rodzi się z uzusu i aktu mowy, ale nie odwrotnie.

  2. Między uzusem a aktem mowy zachodzi interdependencja: każdy z nich zakłada obecność drugiego.

  3. Schemat jest determinowany przez akt mowy, uzus i normę, ale nie odwrotnie.

Hjemslev zauważa, że zmienna zawsze determinuje stałą, nigdy zaś odwrotnie.

Pytanie 1. Różnica między wyjaśnianiem wg. Bogusławskiego a Zgółki

U Bogusławskiego:

Wyjaśniania to pewny rodzaj działania, dlaczego jest tak ,a tak. Nie ma przyjętych ograniczeń ,nie każde zdanie formułowane w taki sposób można odnieść. W nauce dąży sie do uzyskania odpowiedzi generalizującej. Podstawą wyjaśniania naukowego są empiryczne prawa i nauki i generalizacja ,sądy ogólne nie mogą być puste. Prawidłowości ogóle:

-deterministyczne(charakter bezwyjątkowy, ogólny , ile należy do kat A tyle do B)

-statystyczne(wykrywanie względnej częstości współwystępowania określonych jednostkowych - stan rzeczy z innymi elementami stanu rzeczy)

Ogólne założenia-istotą jest dobranie do pewnego zdania jego racji logicznej. Są dwa warunki:

1.Następstwo może być konstatacją lub autentyczną hipotezą

2.Racja ma większą zawartość informacyjną niż następstwo(wykluczamy tautologię i nie może być sprzeczność między racją a następstwem)

U Zgółki

Wyjaśnianie - dobranie do pewnego zdania jego racji logicznej, czyli wskazanie relacji wynikania logicznego między tą wlaśnie racja a następstwem. Istnienie tej relacji nie może być interpretowane bez nakładania na tą relacje żadnych ograniczen.

Pytanie 40. Jak Hjemslev przedstawia koncepcję języka

Hjemslev podsumowuje swoje rozważania stwierdzeniem, iż najbliższe znaczenie wyrazu „język” to ujęcie języka jako schematu. (francuski w alfabecie morsa i francuski dla gluchoniemych to ten sam język, co francuski „normalny”). Rozumienie języka jako schematu wg Hjemsleva uwalnia język od wszystkiego co materialne i umożliwia ograniczenie rzeczy istotnych od tych drugorzędnych. Ono jedynie uzasadnia porównanie języka do gry w szachy, w której materialne tworzywo figur nie ma żadnego znaczenia, natomiast o wszystkim decyduje ich liczba oraz rozmieszczenie.

Z drugiej strony Hjemslev zauważa, że pomimo dominującego pojęcia języka jako schematu, nie jest ono wystarczającym składnikiem, ponieważ obraz akustyczny to psychiczne odbicie faktu materialnego, który wiąże język z określoną substancją i utożsamia go z normą. W innych miejscach „Kursu językoznawstwa ogólnego” Hjemslev mówi, że język to ogół zwyczajów językowych (uzus). Ostatecznie Hjemslev stwierdza więc, że jedyną poprawną definicją języka jest ujęcie go jako systemu znaków. Dlatego też próbuje ustalić zależności pomiędzy językiem - schematem, językiem - normą, językiem uzusem.

Hjemslev dochodzi do wniosku, że schemat języka to tylko gra. Zauważa ze wszędzie zmienna determinuje stałą, nie zaś odwrotnie.

Pytanie 13: Teoria paradygmatów Kuhna

Thomas Kuhn(1922-1996) był fizykiem i filozofem amerykańskim (Cambrige) - twórca teorii paradygmatu. Teorii ujmującej w sposób syntetyczny mechanizm rozwoju nauk. Autor dwóch głównych dzieł : ,,Struktura ewolucji naukowych(1962)- pol. 1968,

,,Dwa bieguny .tradycje i nowatorstwo w badaniach naukowych (1977)-pol. 1985. Przed śmiercią udzielił wywiadu, który stanowi pozycję książkową ,,Droga po strukturze -wywiad rzeka z autorem słynnej struktury rewolucji naukowej(2000)-pol. 2003.

Pojęcie paradygmatu nie jest zdefiniowane, kłopoty te są uzasadnione (paradygmat to rodzaj wspólnoty przekonań założeń, modeli przekonania badawczego, charakterystyczny dla przedstawicieli danej dyscypliny). Paradygmat jest podzielony przez czołowych przedstawicieli. Funkcjonowanie paradygmatu umożliwia kumulację i rozwój postępu. Każdy następny paradygmat będzie reprezentował wyższy etap rozwoju niż poprzedni. Rozwój nauki odbywa się według ściśle określonych etapów: powtarzalność. Zmiana paradygmatu wg Kuhna:

-proces kształtowania się dyscypliny (prenauka), sukcesywne kształtowanie się paradygmatu (nauka normalna), kryzys, rewolucja naukowa, zaczyna się kształtować nowa nauka. Badacze nie potrafią rozwiązywać zasadniczych problemów jakie stawia im dyscyplina. Dla każdego paradygmatu charakterystyczne jest to że ma swoja metodologię. Wypracowanie nowej metodologii nie może powstać szybko. W tym czasie kiedy upada paradygmat, dochodzi do głębszej krytyki. Nowe metody kształtują sie przez dłuższy czas. Metodologia nie wyklucza ewentualności występowania w danym czasie czy jednego czy więcej paradygmatów. Metodologia Kuhna sprawdza się w naukach przyrodniczych, które dysponują prawami ściśle ogólnymi. Im większa jest konkurencyjność programów badawczych, tym większe jest ścieranie się paradygmatów na niższych szczeblach dyscypliny. Program metodologiczny Kuhna wykorzystywał spojrzenie na naukę jakie cechowało Ludwiga Wittgensteina-1953. Ta różnica jest głęboka, że trudno jest znaleźć takiego uczonego, który by tak zanegował program badawczy. Wittgenstein operuje pojęciem - gra. Nie ma możliwości odpowiedzieć na pytanie jakie są wspólne cechy wszystkich gier (ogranicza się do rozważań o niektórych grach). Służy to temu by pokazać ogromne zróżnicowanie ludzkich działań, by pokazać co określa mianem podobieństwa rodzinnego. Przeszło to do historii nauki (teoria podobieństwa, wszystkie gry są do siebie podobne jak członkowie rodziny. Różnice, które istnieją uniemożliwiają charakterystyczną całość. Podobnie jest u Kuhna z paradygmatem. Nie potrafił podać ścisłej definicji tego pojęcia. W kształtowaniu paradygmatu ściera się to, co należy do historycznego punktu widzenia (tradycja ściera się z nowatorstwem). Kuhn uważał, że bardzo trudno jest mówić czym jest paradygmat.. Łatwiej odnosić tą kategorię do poszczególnych dyscyplin.

To jest z notatek z meila ogólego - nie wiem kto jest autorem tego meila!

Pytanie 24. Jaka jest różnica pomiędzy poprawną definicją terminu naukowego a poprawną definicją jednostki leksykalnej?

Definicja jednostki leksyklanej - właściwości wyrażeń językowych

Definicja terminu naukowego - opisuje świat, rzeczywistość pozajęzykową a nie samo wyrażenie języka

Tej odp nie jestem pewna na 100 %

Pytanie8. Na czym polega asymetria pomiędzy weryfikacjonizmem a falsyfikacjonizmem? Kto, kiedy i w jakim dziele (+ gdzie) zauważył i opisał to zjawisko?

Asymetria weryfikacji i falsyfikacji Zachodzi stosunek oparty na asymetrii zdań uniwersalnych nie da się wyprowadzać ze zdań jednostkowych, mogą być ze zdaniami jednostkowymi sprzeczne. Fałszywość można wykryć na podstawie określonej wartości logicznej zdań jednostkowych

Autor: K. Popper

Dzieło:”Logika ogólna”

Ja jestem pewna tej odpowiedzi!!!

Pytanie 40. Destrukcjonizm (co to, kto,gdzie)

Destrukcjonizm polega na dążeniu do negowania, demaskowania, demitologizowania, podważania, kwestionowania i destrukcji w stosunku do całej zastanej kultury, w stosunku do wszystkich istniejących w niej struktur, schematów, instytucji itd. Chociaż moderna odrzucała tzw. przesądy, zwłaszcza religijne i obyczajowe, to wysoko jednak ceniła prawo, ład , porządek i rozum naukowy. Postmoderna natomiast wszystko to odrzuca a stawia na nieograniczoną niczym wolność, otwartość, tolerancję, pluralizm i globalizm.

F. de Saussure'a

„Kurs językoznawstwa ogólnego”

Pytanie 29. Różnica miedzy WYJAŚNIANIEM nomotetycznym a idiograficznym

Wyjaśnianie nomotetyczne: klasyczne podejście naukowe mające za cel wykrywanie i formułowanie ogólnych praw naukowych

Wyjaśnianie idiograficzne: zajmujemy się opisem i wyjaśnianiem zjawisk zaistniałych jednorazowo i niepowtarzalnych, nie formułujemy ogólnych praw, natomiast  koncentrujemy się na konkretnych faktach jednostkowych

Wyjaśnianie nomotetyczne: hipotetyczne, konstatacyjne

Wyjaśnianie idiograficzne : analogizujące i rozwijające: inkorporujące i specyfikujące

Pytanie 11 Klasyfikacja poprawna logicznie

Klasyfikowanie - przeprowadzanie wielostopniowych podziałów logicznych

Podział logiczny - tj. operacja na zbiorze w wyniku której otrzymuje się przeciwstawne podzbiory, a podział, który został przeprowadzony musi być adekwatny i rozłączny. Adekwatny czyli suma podzbiorów, które są członami podziału równa się dzielonemu zbiorowi. A rozłączny tzn uzyskane podzbiory nie mają elementów wspołnych.

Twoja odp była troche nie jasna dlatego opracowałam to jeszcze raz sama

Pytanie 16. 4 podstawowe paradygmaty

Paradygmat indukcjonistyczny - czyli indukcjonizm, dominował w nauce drugiej polowy XIX wieku i pierwszej polowy XX. Głównym zadaniem nauki w ramach tego paradygmatu było dochodzenie od faktów i zdań bardziej szczegółowych do uogólnień. Sformułowanie zdania ogólnego można było osiągnąć poprzez obserwacje i eksperymenty. W związku z tym podstawą tej nauki były zdania obserwacyjne.

Paradygmat weryfikacjonistyczny, czyli weryfikacjonizm zadomowił się w nauce w okresie międzywojennym. Jest odwrotnością indukcjonizmu. Polega więc na potwierdzeniu zdań ogólnych, zdaniami szczegółowymi (zastąpienie indukcji dedukcją). Tworząc naukę w ramach paradygmatu weryfikacjonistycznego należy wyjść od hipotetycznego zdania ogólnego, zdanie to następne trzeba potwierdzić empirycznie. Jeśli poprze prowadzeniu wielu prób sprawdzających zdanie ogólne nie znajdzie się żadnego zdania szczegółowego, które byłoby z nim sprzeczne, to sprawdzane zdanie ogólne staje się zdaniem ogólnym potwierdzonym

Paradygmat falsyfikacjonistyczny czyli falsyfikacjonizm swoją obecność zaznaczył po II wojnie światowej i do lat 70 tych XX wieku był paradygmatem dominującym. Źródła tego paradygmatu pojawiły się w teorii Karla Poppera. W falsyfikacjonizmie naukę uznaje się za zbiór hipotez, obowiązujących do momentu znalezienia faktów sprzecznych z daną hipotezą. Po odnalezieniu tych faktów, hipotezę dotychczasową należy zastąpić nową hipotezą lub ją odrzucić. Nowa hipoteza powinna być ogólniejsza od poprzedniej, a tym samym bardziej falsyfikowana.

Paradygmat postmodernistyczny czyli postmodernizm. Istotne są tu dwie koncepcje: tzw. anarchistyczna koncepcja wiedzy oraz tzw. koncepcja dekonstrukcji. Ta pierwsza polega na odejściu od zasad racjonalizmu i stosowaniu niekonwencjonalnych środków rozumienia rzeczywistości. Druga koncepcja spostrzega naukę jako zbiór tekstów, w których wbudowane są inne teksty. Nauka polega więc tutaj na nieustannym tworzeniu nowych tekstów, które można uznać za teksty naukowe. Zadaniem dekonstrukcji jest rozłożenie tego zbioru tekstów na poszczególne sensy, a potem konstruowanie łagodnych przejść od sensu A do całkowicie innego od sensu a sensu B.

Pytanie 20 . Które założenia F. de Saussure'a dotyczą weryfikacjonizmu?

- weryfikowanie

tj. potwierdzanie zdań ogólnych zdaniami szczegółowymi.

Przejawem tego paradygmatu w językoznawstwie jest

Strukturalizm, którego przedstawicielem był właśnie F. de Saussure.

- relatywizm: (strukturalizm) wyodrębnił

się dzięki rozpatrywaniu języka jako społecznie relewantnego

systemu kodowania informacji, w którym immanentne funkcje

jednostek językowych mniejszego formatu mają pierwszeństwo

wobec jednostek większego formatu. Strukturaliści wprowadzili

nowe zasady opisu lingwistycznego: klasyfikację synchroniczną,

analizę dystrybutywną, modelowanie, formalizację, opis kwantytatywno-

statystyczny, eksperyment psycholingwistyczny i in.

Pytanie 3. Konotacja wg. Buhlera.

U Buhlera konotacja jest interpretowana na zasadzie asocjacji. Ta istota konotacji z lat 30 - tych dopiero w ostatnich latach jest wykorzystywana.

U Buhlera konotacja rozumiana jest jako współnazywanie, współoznaczanie.

Np. nie ma białości jako takiej, jest biały przedmiot.

Pytanie 21. Falsyfikacjonizm Poppera

Falsyfikacjonizm jest to zbiór procedur metodologicznych, które, w opinii autorów tego stanowiska, chcący się przyczynić do rozwoju wiedzy naukowej badacz musi stosować. Osią tego ujęcia jest przekonanie, że dla teorii naukowych nie należy szukać potwierdzenia (weryfikacji), lecz kontrprzypadków, mogących badanej teorii zaprzeczyć. Należy zatem dążyć do sfalsyfikowania teorii (wykazania jej niezgodności z doświadczeniem), a jeśli próba się nie powiedzie uznać, tymczasowo, teorię, aż do następnej próby falsyfikacji, która dla teorii skończyć się może obaleniem. Falsyfikacjonizm występuje w trzech odmianach: dogmatycznej, naiwnej i wyrafinowanej. Niekiedy używa się też określenia "hipotetyzm", zwłaszcza dla późniejszych wersji falsyfikacjonizmu.

Falsyfikacjonizm Poppera scharakteryzować można za pomocą następującego zespołu fundamentalnych twierdzeń:

  1. Myślenie to rozwiązywanie problemów, dokonujące się drogą dedukcji. Umysł nasz konstruuje pojęcia, domysły, teorie i hipotezy które później poddaje krytycznej obróbce. Ta praca umysłu nie ma ani początku ani końca.

  2. Nie istnieją ani żadne pojęcia pierwotne, ani pierwotne elementy poznania, które umysł ma wydobyć na jaw. Wszelka praca umysłu ma tymczasowy charakter, w tym sensie, że nie tworzy on, ani nie odkrywa żadnych niezmiennych praw. To, co dziś uznane zostało za pewne, może jutro zostać poddane krytycznej dyskusji, bowiem struktury jakie podmiot narzuca na świat są zmienne. Ich narzucanie dokonuje się metodą prób i błędów. Poznający podmiot odpowiada na wynikłe w trakcie rozwoju wiedzy pytania - sytuacje problemowe. Wiedza mająca tymczasowy charakter służy przetrwaniu gatunku ludzkiego i przystosowaniu się do wrogiego środowiska.

  3. Celem nauki jest tworzenie nowych, coraz bardziej śmiałych, bo opisujących większą klasę zjawisk, teorii.

  4. Krytyczny racjonalizm

Pytanie 22. De Saussure i jego język w znaczeniu formy a nie substancji.

Język jako system relacji jest formą, a nie substancją. Forma ta dotyczy z jednej strony płaszczyzny fonicznej, a z drugiej pojęciowej, które ze swej strony są warunkowane naturą znakową języka. Do formy danej płaszczyzny (fonicznej lub pojęciowej) należy tylko to, co wywołuje konsekwencje na płaszczyźnie przeciwstawnej, reszta należy do substancji. Wynika to z zasady:

    1. nierozerwalności signifiant i signifie.

    2. istniejącej między nimi proporcjonalności

W ten sposób język jako forma referencjalna pośredniczy między dźwiękami a myślami.

Język jako urządzenie pośredniczące między obu substancjami: foniczna i pojęciową jest

Równocześnie czynnikiem kształtującym i porządkującym w ich zakresie.

Ta odppochodzi z Internetu, informacje dodatkowe znajdziesz na http://język-polski.pl/lingwistyka/269-strukturalizm/566-strukturalizm-ferdinanda-de-saussurea.html

Pytanie 18. Wyjaśnianie naukowe i jego schemat

Wyjaśnianie - dobranie do pewnego zdania jego racji logicznej, czyli wskazanie relacji wynikania logicznego między tą właśnie racją a następstwem. Istnienie tej relacji nie może być interpretowane bez nakładania na tą relacje żadnych ograniczeń.

Schemat:

Typy wyjaśnień

Nomotetyczne idiograficzne

- hipotetyczne - anologizujące

- konstatacyjno hipotetyczne - rozwijające

Pytanie 23. Dlaczego zdaniem A. Bogusławskiego w językoznawstwie nie może istnieć wyjaśnianie nomotetyczne?

W językoznawstwie możemy mieć doczynienia tylko z wyjaśnieniami idiograficznymi. Powodem tego jest to, że nie ma takich tez językoznawczych, które mogłyby się odnosić do zbiorów otwartych, gdzie zależność między R a N byłaby przesądzona przez odwołanie się do zdania ogólnego. Każda generalizacja językowa jeżeli nie jest tautologią, to musi odnosić się do pewnych rzeczywistości jednostkowych stanów rzeczy. Chodzi tu o wykluczenie wyjaśnień, które nazywamy pseudowyjaśnieniami np: zdania fałszywe, bo nie są prawdziwe-takie są sądy tautologiczne.

To tez mam z tego meila ogólnego wysłanego do wszystkich

 

Odpowiedzi:

Pytanie 7:

WYJAŚNIANIE NAUKOWE. PODAJ RÓŻNICE MIĘDZY IDIOGRAFICZNYM A NOMOTETYCZNYM.

Wyjaśnianie-operacja, która ma na celu odpowiedzieć na pytanie ,,dlaczego jest tak a tak?”. Przedmiotem wyjaśniania naukowego jest ogólne zdanie, które można wyjaśniać w bardzo różny sposób.

0x08 graphic
WYJAŚNIANIE

0x08 graphic
Nomotetyczne Idiograficzne

0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic

Hipotetyczne konstatacyjno- rozwijające analizujące

Hipotetyczne inkorporujące specyfikujące

Wyjaśnianie idiograficzne- prawdziwość zdań, które są racją i następstwem musi być przesądzona. Nie może być zdań ogólnych negatywno-egzystencjalnych. O co tu chodzi?

Wyjaśnianie nomotetyczne-dąży do formułowania ogólnych twierdzeń

Istota wyjaśniania-szuka się racji logicznych, z których wynika twierdzenie, które względem racji jest następstwem. Racja to zdanie, z którego wynikałoby, dlaczego np., dąb traci liście, bo....z racji wynika następstwo, nie odwrotnie

.

Wyjaśnianie idiograficzne a nomotetyczne

Wyjaśnianie to pewien rodzaj działania ,dlaczego jest tak i tak. Podstawą wyjaśniania naukowego są empiryczne prawa i nauki, generalizacja, sądy ogólne nie mogą być puste .

Wyjaśnianie nomotetyczne: hipotetyczne, konstatacyjne

Wyjaśnianie idiograficzne: analogizujące i rozwijające: inkorporujące i specyfikujące

W językoznawstwie możemy mieć tylko doczynienia z wyjaśnieniami idiograficznymi. Powodem tego jest fakt, że nie ma takich tez językoznawczych, które mogłyby sie odnosić do zbiorów otwartych, gdzie zależność między R a N byłaby przesądzona przez odwołanie się do zdania ogólnego. Każda generalizacja językowa jeżeli nie jest tautologią to musi odnosić się do pewnych rzeczywistości jednostkowych stanów rzeczy. Chodzi tu o wykluczenie wyjaśnień, które nazywamy pseudowyjaśnieniami np. zdania fałszywe (tautologia).

Pytanie 30

CARL POPPER I JEGO TEORIA METODOLOGII.

Karol Popper (1902-1994), autor ,,Logiki odkrycia naukowego” wydanej w 1934r.”Wiedza obiektywna” 1972r. Hipotetyzm, Falsyfikacjonizm i racjonalny krytycyzm to podstawy jego metodologii. Według Poppera całą wiedza jest hipotetyczna, należy ją magazynować poprzez 3 poziomy („Wiedza obiektywna”)

  1. istnieje świat przedmiotów i stanów fizycznych

  2. istnieje świat stanów psychicznych człowieka

  3. świat obiektywny ( wytworów ludzkiego myślenia).

Wiedza obiektywna ma zasadniczy wpływ na kształtowanie stanu świadomości poszczególnych ludzi. Dochodzi się do tej wiedzy poprzez poszukiwanie dobrych wyjaśnień.

  1. Hipotetyzm - twierdzenia naukowe podlegają krytyce i rewizji, trzeba je eliminować, zastępując lepszymi twierdzeniami.

  2. Racjonalny krytycyzm - podstawą jest rozwój ludzkiej wiedzy. Najpierw wysnuwa się problem badawczy, później formułuje się hipotezę, poddaje się ją krytyce. Krytyka hipotezy prowadzi doi nowego problemu. Cykl nie ma końca.

  3. Pierwotność teorii względem doświadczenia- najpierw ustała się zasady postępowania badawczego i aparat, później odnosi się aparat do danych, które stanowić mają przedmiot badań

  4. Realizm, antypsychologizm, intuicjonizm, historycyzm - trzeba znać stan badań w odniesieniu do problemu i wiedzieć jak proponowano wcześniej rozwiązanie problemu. Teorie wcześniejsze powinny być zawsze traktowanie jako konkurencyjne

  5. Antyindukcjonizm i redukcjonizm - Popper odrzuca metody indukcyjne.

  6. Asymetria weryfikacji i falsyfikacji - falsyfikowalność to kryterium rozstrzygalności w naukach empirycznych (jakich?) hipotezy falsyfikowane można uważać za naukowe! Jeden sąd niezgodny z hipotezą jest wystarczający, żeby uznać sąd za fałszywy, przy weryfikacji na odwrót.

  7. Falsyfikacjonizm

  8. Wewnętrzna niesprzeczność teorii jako warunek jej naukowości. - teoria wewnętrznie sprzeczna jest informacyjnie pusta, dlatego można z niej wyprowadzić dowolny sąd

  9. Uniwersalność, ścisłość i prostota teorii jako warunku jej naukowości

  10. Obiektywizm i tymczasowość teorii - istotą obiektywizmu teorii polega na tym, że teoria lub twierdzenie naukowe mogą podlegać sprawdzaniu.. każde twierdzenie naukowe musi pozostać tymczasowe - można je uznać za prawdziwe tylko w określonym czasie

Nauki podlegają krytyce, dlatego mają charakter hipotetyczny.

Odp 32

  1. KLASYFIKACJA POPRAWNA LOGICZNIE

  1. Musi być oparta na wielostopniowych podziałach logicznych

  2. Podział logiczny musi być rozłączny i adekwatny (ja mam rozłączny i wyczerpujący)

  3. Podział rozłączny i adekwatny jest podziałem dychotomicznym wg cech kontradyktorycznym.

Rozłączny czyli - żadne dwa podzbiory nie mogą mieć wspólnych elementów, suma podzbiorów, które powstaną musi być równa temu zbiorowi, który stanowił punkt wyjścia. Istotą podziału logicznego jest podział dychotomiczny - na 2 części wg cech wykluczających się (wzajemnie sprzecznych). Drugi człon podziału względem pierwszego to dopełnienie logiczne, jeżeli pierwszy człon jest bez negacji - drugi musi zawierać negację. Podziły oparte na wyliczeniu nie zgodne z podziałem logicznym, bo wyliczenie nie ma końca.


odp 23

  1. DLACZEGO WEDŁUG BOGUSŁAWSKIEGO W JĘZYKOZNAWSTWIE NIE MOŻNA STOSOWAĆ WYJAŚNIANIA NOMOTETYCZNEGO?

Wyjaśnianie to operacja mająca na celu odpowiedzieć na pytanie DLACZEGO JEST TAK A TAK. Wyjaśnianie nomotetyczne

(hipotetyczne i konstatacyjno- hipotetyczne) jest wyjaśnianiem idiograficznym. Wyjaśnianie nomotetyczne formułuje prawa ściśle ogólne (wykrywanie i formułowanie ogólnych prawdziwości). Według Bogusławskiego nie ma praw ściśle ogólnych opisujących język. Istnieją reguły od których mogą być wyjątki. Nie może być zdań ogólnych negatywno-egzystencjalnych.

Odp13

Teoria Kuhna

T.Kuhn (1922-1996),twórca teorii paradygmatu, teorii ujmującej w sposób syntetyczny mechanizm rozwoju nauk. ,,Struktura ewolucji naukowych"-1962,pol1968;,,Dwa bieguny ,tradycje i nowatorstwo w badaniach naukowych"-1977,pol1985.

Uważał, że pojęcie paradygmatu nie jest zdefiniowane, a kłopoty są uzasadnione, gdyż paradygmat to rodzaj wspólnoty przekonań ,założeń, modeli przekonania badawczego dla danej dyscypliny. Paradygmat jest podzielony na czołowych przedstawicieli. Funkcjonowanie paradygmatu umożliwia kumulację i rozwój postępu. Każdy następny paradygmat będzie reprezentował wyższy etap rozwoju niż poprzedni. Rozwój według ściśle określonych etapów :powtarzalność. Zmiana paradygmatu wg Kuhna :proces kształtowania się dyscypliny(prenauka),sukcesywne kształtowanie się paradygmatu(nauka normalna),kryzys, rewolucja naukowa, zaczyna się kształtować nowa nauka. Badacze nie potrafią rozwiązywać zasadniczych problemów jakie stawia im dyscyplina. Dla każdego paradygmatu charakterystyczne jest to, że ma swoją metodologię. Wypracowanie nowej metodologii nie może powstać szybko. W tym czasie kiedy upada paradygmat dochodzi do głębszej krytyki. Nowe metody kształtują się przez dłuższy czas. Metodologia nie wyklucza występowania w tym samym czasie jednego czy więcej paradygmatów. Metodologia Kuhna sprawdza się w naukach przyrodniczych, które dysponują prawami ściśle ogólnymi. Program metodologiczny Kuhna wykorzystywał spojrzenie na naukę jakie cechowało Ludwiga Wittgensteina-1953.Operuje on pojęciem gra ,nie ma możliwości odpowiedzieć na pytanie jakie są cechy wszystkich gier> przeszło to do historii nauki(wszystkie gry są do siebie podobne jak członkowie rodziny, różnice, które istnieją uniemożliwiają charakterystyczną całość)Podobne spojrzenie jest Kuhna na pojęcie paradygmatu. Nie potrafił go ściśle określić, w kształtowaniu się paradygmatu ściera się to co historyczne z tym co nowatorskie.

Odp 16

Paradygmaty w językoznawstwie

Cztery paradygmaty

1.Indukcjonizm - zgodnie z główną metodą badawczą (indukcją) istota polegała na przechodzeniu od zdań szczegółowych do ogólnych. Punkt wyjścia obserwacja i elementy dotyczące konkretnych faktów - i tak formułowano hipotezy ogólne.

2.Weryfikacjonizm- ukształtowanie w filozofii Koła Wiedeńskiego (lata XX przez M Schlick,R.Carnapa). Sądy ogólne ,hipotezy w postaci zdań ogólnych. Dążył do potwierdzenia takich sądów za pomocą zdań szczegółowych

3.Falsyfikacjonizm-ukształtowany przez K.Poppera lata 30 XX. ,,Logika odkrycia naukowego"-1934. Obalenie hipotez, które są z nimi sprzeczne

4.Postmodernizm-lata 70 XX w. Różnice między nim a pierwszym paradygmatem- dla pierwszych podstawowy cel sprowadzał się do wyjaśnienia otaczającego ludzi świata. Postmodernizm dążenie do rozumienia i interpretowania rzeczywistości otaczającej człowieka .Ogólne- dekonstrukcjonizm, anarchistyczna koncepcja wiedzy .Takie szkoły badawcze, dla których podstawową rolę odgrywa indywidualne podejście badaczy.

Odp 19 Klasyfikowanie i podział logiczny wyjaśnij na przykładach

Klasyfikowanie- polega na wielokrotnym dokonywaniu podziałów logicznych. Warto uchwycić zasady podziału logicznego, który jest taką operacją na zbiorze w wyniku czego otrzymuje się 2 przeciwstawne podzbiory- rozłączny i adekwatny.

Podział rozłączny- polega na tym, że nie ma takich elementów, które by należały równocześnie do 2 podzbiorów(wyklucza elem. wspólne)

Adekwatność- cecha podziału logicznego; suma tych podzbiorów, które wynikają z podziału, jest równa dzielonemu zbiorowi. Zapewnia to, że każdy elem należący do nadrzędnego zbioru znajdziecie się w jakimś podzbiorze.

Istota podziału logicznego sprawdza się do tego, że jest to podział dychotomiczny na wykluczające się podzbiory(wg cech kontradyktorycznych , czyli sprzecznych) Zawsze ma dwie części, które są od siebie niezależne, wykluczają się nawzajem.

Odp. 2 Kto i kiedy wprowadził kontekst odkrycia i kontekst uzasadniania oraz na czym polegał?

Wprowadzona do metodologii przez H. Reichenbacha w 1949r.w Doświadczenie i przewidywanie. Istotą jest to, że I człon opozycji (kontekst odkrycia ) nie może być brany pod uwagę (usuwa się go), bierzemy tylko kontekst uzasadnienia - to jest antypsychologizm. Kontekst odkrycia może być przedmiotem metodologii nauk.

Odp. 15 zasada redukcjonizmu-kto kiedy i gdzie ja wprowadził, opisać

Zasada redukcjonizmu Wiliam Ockham, nazwa pochodzi od angielskiego XIV w. filozofa; autor „Sumy logicznej” - brzytwa Ockhama, usunięcie, wyrzucenie. Należy eliminować z nauki wszelkie wielkości zbędne, za których istnieniem nie przemawiają racje logiczne ani dane empiryczne. Należy za punkt wyjścia przyjmować realnie istniejące wielkości, a nie aparat opisywany, który do analizy mógłby się nie przydać. Należy wychodzić od zjawisk, a potem je nazywać, odnosić określony aparat. Błędne są wyliczenia wielu typów, podtypów części zdania, za wyróżnieniem części nie stoi nic innego niż termin

Odp. 3 Konotacja wg Buhlera

Konotacja (kategorialna bądź składniową) według Karola Buhlera jest otwieraniem miejsc dla innych wyrazów. Każdy czasownik otwiera co najmniej jedno miejsce dla innego wyrazu- miejsce, w które wstawić można nazwę wykonawcy czynności. W ten sposób powstaje podstawowy związek składniowy, czyli połączenie podmiotu i orzeczenia

Dotyczy wyrazów nazywających, które zawierają w sobie określenie istoty nazwanej rzeczy; współnazywanie

Konotacja jest typem oddziaływań semantyczno-semantycznych. Występują dwa rodzaje konotacji: składniowa i kategorialna .W przypadku konotacji składniowej nadrzędnik wymusza na podrzędniku określonej formy, gdyż podrzędnik nie może samodzielnie występować w pozycji składniowej a jedynie współwystępować, a konotacja kategorialna zachodzi wtedy kiedy nadrzędnik określa podrzędnikowi kategorię i klasę, w której musi wystąpić.

Odp.8 Na czym polega asymetria pomiędzy weryfikacjonizmem a falsyfikacjonizmem. Kto, kiedy i w jakim dziele zauważył i opisał?

Te procedury są względem siebie asymetryczne; jeden fakt zgodny z daną hipotezą nie jest wystarczającym warunkiem jej prawdziwości, natomiast jeden fakt niezgodny z daną hipotezą jest wystarczającym warunkiem jej fałszywości. K. Popper, „Logika ogólna” 1934rok (ale z tym nie jestem pewna!!)

Rozdział pierwszy - Prenaukowe sądy o języku

PRENAUKA - Okres, który istnieje zanim dana nauka zacznie być uprawiana w ramach swojego paradygmatu bądź paradygmatów. Okres ten trwał do XIX wieku.

Prenaukowa wiedza może zbliżać się do wiedzy intuicyjnej (potocznej) lub być wiedzą pozyskaną w ramach innej nauki.

Spór naturalistów i konwencjonalistów - spór pomiędzy nimi podzielił filozofów greckich na dwa obozy. Dotyczył pytania, czy znaki językowe są zdeterminowane przez naturę.

Naturaliści uważali, że forma nazw jest zdeterminowana przez rzeczywistość. Najważniejszym argumentem było istnienie dźwiękonaśladowczych wyrazów typu kukułka.

Konwencjonaliści uważali, że formę nadaje się nazwom na mocy konwencji. Jest to teza powszechnie przyjmowana również dziś.

Owoce sporu: Złagodzona teza umiarkowanych naturalistów zakładała ściślejszy związek języka z rzeczywistością w odległych czasach, dzięki czemu podjęto pierwsze badania etymologiczne. Pod wpływem etymologii pojawiła się także teza o symbolicznym charakterze podstawowych dźwięków języka (teza powracająca co jakiś czas). Zauważono też, że w języku jest wie analogii, np. na polu odmiany wyrazów. Dzięki wymianie poglądów coraz lepiej poznawano język grecki i mogły powstać pierwsze gramatyki.

Podział wyrazów przez Arystotelesa - Arystoteles podzielił wyrażenia wchodzące w skład zdania na nazwy (imiona, rzeczowniki), predykaty (słowa, czasowniki), funktory (spójniki). Dzięki temu można było lepiej opracowywać wzorce odmiany wyrazów - osobno wzorce koniugacyjne, deklinacyjne...

Rozdział drugi - językoznawstwo hostoryczno-porównawcze jako przejaw paradygmatu indukcjonistycznego

Zdania obserwacyjne. Indukcjonizm był paradygmatem panującym w XIX wieku, więc językoznawstwo historyczni-porównawcze również mieściło się w jego obrębie. Wychodzono od zdań obserwacyjnych, przekształcano je w zdania szczegółowe, a następnie uogólniano.

Nauka dziewiętnastowieczna była pod wpływem teorii Darwina, przez co kluczowe są dla niej pojęcia historycyzmu, genetyzmu i ewolucjonizmu. Językoznawcy starali się poznać dzieje języka i badali je w różnych fazach rozwoju, głównie poprzez obserwacje zabytków językowych. Ponadto porównywali wyniki obserwacji różnych języków, stąd nazwa językoznawstwo historyczno - porównawcze. Największe osiągnięcia mieli Młodogramatycy, którzy sformułowali szereg praw językowych, które są już sądami ogólnymi.

Przykładem obserwacji ówczesnych językoznawców jest występowanie jerów w języku dawnych Słowian.

Uogólnienia - sądy wywiedzione z obserwacji szczegółowych. Według wniosku ogólnego językoznawstwa historyczno-porównawczego wszystkie podobne do siebie języki pochodzą od jednego przodka. Jako przykład Bobrowski wymienia rodzinę języków indoeuropejskich, które pochodzą od hipotetycznego przodka - języka praindoeuropejskiego. Poszczególne języki różnicowały się zgodnie z prawami językowymi (głównie fonetycznymi).

Młodogramatykom zarzucano niesystemowe podejście do języka, co spowodowało zmianę myślenia u kontynuatorów (np. Jerzy Kuryłowicz).

Rozdział trzeci - strukturalizm jako przejaw paradygmatu weryfikacjonistycznego

Przejawem paradygmatu weryfikacjonistycznego w językoznawstwie jest strukturalizm.

Podstawowa teza strukturalistów - język jest systemem (strukturą) znaków. Nauka o języku opiera się na szeregu opozycji.

Prekursorzy - Jan Baudouin de Courtenay i Mikołaj Kruszewski. Postulowali rozgraniczenie pomiędzy statycznym i dynamicznym sposobem patrzenia na zjawiska językowe. Proponowali oddzielić język od mówienia.

Twórca paradygmatu - szwajcarski językoznawca Ferdinand de Saussure. Kurs językoznawstwa ogólnego - 1916 r - notatki z wykładów zebrane przez jego uczniów.

Opozycja langue - parole:

Język - la langue: - system

Mówienie - la parole - tekst

Opozycja synchronia - diachronia - aby ją zobrazować, de Saussure posługuje się metaforą szachów . Można obserwować sytuację w danym momencie (synchronia) lub jako rozgrywkę w czasie (diachronia).

Opozycja formy i treści - dotyczy znaku językowego. Znak składa się x formy, czyli strony znaczącej oraz z treści, czyli strony znaczonej.

Relacje między znakami:

SZKOŁY STRUKTURALNE

Szkoła praska. Reprezentuje funkcjonalne podejście do strukturalizmu (funkcjonalizm).

Praskie Koło Lingwistyczne - założone zostało w połowie lat dwudziestych XX wieku przez językoznawców czeskich V.Mathesiusa, B. Havranka i J. Mukarowskiego oraz przez emigrantów rosyjskich R. Jakobsona i N.S. Trubieckoja.

Wg strukturalistów praskich funkcję danego elementu można opisać za pomocą wskazania opozycji w stosunku do innego elementu. Opozycje mogą być bardziej lub mniej uchwytne, co zależy od tego, czy dane elementy należą do tego samego podsystemu języka.

Podsystemy języka: fonologiczny, morfonologiczny, morfologiczny (fleksyjny + słowotwórczy), składniowy.

W badaniach skupiano się na związkach paradygmatycznych.

Prowadzono badania nad strukturą tematyczno - rematyczną zdania.

Zasługą prażan jest opis fonologiczny języka. Wprowadzono pojęcie fonemu jako jednostki podsystemu fonologicznego języka składającego się z cech dystynktywnych, tzn. takich cech dźwiękowych, które używane są w danym języku do odróżnienia wyrazów o różnym znaczeniu. Dwie głoski różniące się cechami niedystynktywnymi mogą być uważane za warianty tego samego fonemu.

Strukturaliści prascy rozwinęli także badania nad stylistyką. (Styl - jakość strukturalna tekstu wynikła z celowego doboru przez nadawcę jednostek języka). Szczególnie zajmowali się tekstami o przeważającej funkcji poetyckiej (Mukarowski, Jakobson).

Dystrybucjonizm amerykański. Czołowym deskryptywistą był Leonard Bloomfield. Głównym celem językoznawców amerykańskich był opis bardzo różniących się od siebie języków indiańskich. Bardziej interesowało ich więc językoznawstwo opisowe (deskryptywne) niż teoretyczne. Stąd nazwa alternatywna DA - deskryptywizm. Deskryptywiści próbowali stworzyć taką teorię językoznawczą, dzięki której możliwe byłoby badanie języka na podstawie samej tylko formy tekstów, bez znajomości treści. W czasie budowania tej teorii wykorzystano pojęcie dystrybucji

dystrybucja- zbiór otoczeń (kontekstów), w jakich dany element tekstowy występuje w tekstach. Dystrybucja identyczna - dwa elementy tekstowe występują w tych samych kontekstach; dystrybucja inkluzywna - A zawiera się w B; dystrybucja krzyżująca się -zbiór otoczeń elementu A i zbiór otoczeń elementu B mają część wspólną; dystrybucja komplementarna - zbiór otoczeń elementu A jest różny od zbioru otoczeń elementu B i nie ma elementów wspólnych. ::: Żeby zbadać dystrybucję, należy dokonać segmentacji tekstu.

Jeżeli dwie jednostki były w pozycji komplementarnej, uznawano je za warianty tej samej jednostki języka.

Jeżeli dwie jednostki były w pozycji identycznej, inkluzywnej lub krzyżującej się, uznawano je za realizacje tekstowe dwóch odrębnych jednostek języka.

(Próby opisu języka bez znajomości znaczenia nie przynosiły oczekiwanych rezultatów, później zrezygnowano z takiego podejścia.)

Hipoteza Sapira -Whorfa - Edward Sapir i Beniamin Lee Worf - Człowiek postrzega świat poprzez język, a przt tym struktura języka narzuca użytkownikowi sposób widzenia świata.

Zdaniem Leopolda Bloomfielda, skoro wprowadzenie jednolitego języka semantycznego do opisu jęz. naturalnych jest niemożliwe, można zrezygnować z semantyki i badać tylko stronę czysto syntaktyczną.

Ponadto Bloomfield przeniósł na grunt językoznawstwa nurt psychologiczny zwany behawioryzmem. Za jego pomocą próbowano wyjaśniać funkcjonowania języka w procesie komunikacji

Glossematyka - kopenhaska szkoła lingwistyczna

Przedstawiciele Kopenhaskiego Koła Lingwistycznego przedstawiali poglądy najbliższe poglądom de Saussure'a. Zawiązało się ono tuż przed drugą wojną światową, najważniejszym przedstawicielem był Louis Hjemslev.

Wg Hjemsleva językoznawstwo to nauka przede wszystkim synchroniczna, której zadaniem jest badanie struktury języka. Najmniejsze, niepodzielne elementy językowe nazywa glossemami.

Zdaniem Hjemsleva znak i jego znaczenia należy rozpatrywać na czterech płaszczyznach:

odróżnienie płaszczyzny (planu) treści od płaszczyzny (planu) wyrażania.

w płaszczyźnie treści i w płaszczyźnie formy wyróżnienie substancji i formy. Zadaniem glossematyków było badanie formy wyrażania i firmy treści oraz stosunków między nimi zachodzących.

Trzy kryteria oceny teorii lingwistycznej. Teoria powinna być:

  1. Niesprzeczna wewnętrznie

  2. Zupełna (wyczerpująca)

  3. Prosta.

Rozdział czwarty - Generatywizm jako przejaw falsyfikacjonizmu.

Przejawem falsyfikacjonizmu w językoznawstwie jest paradygmat generatywny, czyli generatywizm. W generatywizmie:

  1. wychodzi się od przekonania, że zdania języka naturalnego powstają w wyniku łączenia lub przekształcania jednostek niższego rzędu

  2. Utrzymuje się, że językoznawca powinien naśladować twórców systemów dedukcyjnych

Podstawą modelu generatywnego języka naturalnego jest to, iż generuje on nieskończony zbiór zdań za pomocą skończonej liczby reguł. Chodzi o to, by zbudować model języka, dzięki któremu można nie tylko analizować zdania tekstowe, ale także tworzyć ciągi o identycznej formie jak zdania tekstowe.

Prosty generatywny model języka można wyobrazić sobie jako grę składającą się z planszy (2 pola - zielone i czerwone), klocków (4 sztuki - 2 zielonych z napisami chłopiec i dziewczyna i dwóch czerwonych z napisami idzie i siedzi) i instrukcji składającej się z dwóch przepisów:

  1. zielone klocki możesz położyć tylko na zielonych polach planszy

  2. czerwone klocki możesz położyć tylko na czerwonych polach planszy

Zestaw ten jest modelem generatywnym, generuje cztery potencjalne zdania języka polskiego. W bardziej rozbudowanym modelu zawierać się będzie więcej równań, symboli leksykalnych i reguł.

Najbardziej znaną teorią w paradygmacie generatywistycznym jest gramatyka generatywno-transformacyjna Noama Chomsky'ego. Zdaniem Chomsky'ego zdania można podzielić na zbiory:

  1. zdania generowane za pomocą gramatyki, w której nie ma reguł transformacyjnych

  2. zdania generowane za pomocą gramatyki, w której są reguły transformacyjne.

KOGNITYWIZM

Rozdział szósty - wzajemne oddziaływanie paradygmatów

Zmiany w paradygmacie poprzednim pod wpływem następnego

  1. Oddziaływanie paradygmatu strukturalistycznego na historyczno-porównawczy. Pod wpływem hipotezy głoszącej, że język jest systemem, inaczej zaczęto pojmować diachronię języka. Np. prace historycznojęzykowe Ireny Bajerowej, która stawia ogólne hipotezy, a następnie pokazuje fakty potwierdzające.; synchroniczny opis polszczyzny XV wieku kontrastowany z opisami synchronicznymi stanu prasłowiańskiego i współczesnej polszczyzny.

  2. Oddziaływanie paradygmatu generatywnego na strukturalistyczny - w pewnym momencie w strukturalizmie zaczęto wprowadzać także procedury falsyfikujące. Testy falsyfikujące - nieakceptowalne ciągi z gwiazdką.

  3. Oddziaływanie kognitywizmu na generatywizm - do opisów generatywnych dołączane są także opisy samych opisów, czyli metaopisy. Metaopisy są w stanie wykazać, że pomiędzy poszczególnymi kategoriami nie istnieją wyraźne granice.

Odkrywanie poprzednich paradygmatów.

1) Paradygmat kognitywistyczny wyraźnie nawiązuje do treści głoszonych przez paradygmat historyczno-porównawczy, i to takich, które wcześniej zostały zaniechane pod wpływem strukturalizmu. Postulowane są np., badania achroniczne - takie, w których nie oddziela się procesu od stanu.

●Amsterdamski na początku swojego artykułu przywołuje nazwisko Thomasa Kuhna i jego dwa dzieła: Dwa bieguny oraz Struktury rewolucji naukowych. Określa główny problem jego pisarstwa i formułuje go w formie pytanie: jaką rolę w rozwoju wiedzy naukowej odgrywa tradycja, co jest jej nośnikiem, jak jest przekazywana i łamana? Od razu podkreśla, że wszelkie dziedziczenie kultury jest zawsze i kontynuacją, i łamaniem tradycji. W odniesieniu do rozwoju nauki powyższe pytanie dotyczy kilku różnych kwestii:

→ teoriopoznawczych - bowiem wymaga wyjaśnienie sposobu porzucania jednych poglądów dla innych oraz ich wzajemnego stosunku treściowego

→ historycznych - chodzi tutaj o wykrywanie wątków ciągłych oraz punktów zwrotnych, zmusza do śledzenia faktycznego rozwoju poznania w ogóle

→ socjologicznych - gdyż tradycja uprawiania nauki stanowi własność grupową i funkcjonować może jako tradycja wyłącznie wówczas, gdy jest zbiorowo, przez społeczność badaczy akceptowana.

W pytaniu tym chodzi o przezwyciężenie zwyczajowej izolacji rozmaicie ukierunkowanych dociekań, o wzajemne naświetlanie i konfrontowanie uzyskanych wyników. Dotychczasowa sytuacja nie była zadowalająca, bowiem filozofowie nauki najczęściej sądzili, że problemy historyczne i socjologiczne są nieistotne dla przedmiotu badania ich dyscypliny. Panowało przekonanie, że rozwój nauki ma kumulatywny charakter, dokonuje się wyłącznie przez przejmowanie i eliminację. Nowe osiągnięcia unieważniają stare w tym sensie, że je w sobie zawierają w ulepszonej postaci, uwolnione od błędów, nieścisłości, ograniczeń. Natomiast wszelkie inne dziedziny kultury, poza nauką i może techniką, rozwijają się metodą pomnażania, a nie metodą przejmowania i eliminacji.

● Tutaj Amsterdamski skupia się na metodzie badania, która ma niby być ucieleśnieniem tradycji i gwarantką dokonującego się postępu. Pytanie o wzajemny stosunek tradycji i nowatorstwa w nauce był rozstrzygany najczęściej tak: „Wierność metodzie narzucającej nieograniczony krytycyzm wobec uzyskanego dorobku”. W ogóle odkrycie metody (datowane z reguły na wiek 16. czy 17.) stanowić miało punkt zwrotny w rozwoju nauki. Od tego momentu dzieje nauki przestały być w gruncie rzeczy procesem historycznym. I właśnie ta wizja nauki i jej rozwoju została zakwestionowana w ciągu ostatnich dziesięcioleci, a jednym z czołowych jej obrazoburców jest właśnie Thomas Kuhn.

● Kuhn przedstawia tradycyjną wizję rozwoju poznania naukowego jako produkt rekonstrukcji jego dziejów na gruncie określonych założeń filozoficznych. Założenie te są to: radykalny empiryzm i pozytywizm. Kuhn odrzuca je m.in. dlatego, że rekonstrukcja ta nie daje się pogodzić z dziejami rzeczywistymi i z praktyką badawczą uczonych. Radykalny empiryzm traktuje wiedzę naukową jako nadbudowę wznoszoną na faktach i w zasadzie odrzucenie radykalnego empiryzmu jest wystarczającym warunkiem zakwestionowania owej kumulatywnej koncepcji rozwoju wiedzy, lecz Kuhn nie jest ani pierwszym, ani jedynym, który ten wniosek wyciągnął. Wniosek ten formułowali m.in. P. Duhem, A. Koyre`, A. O. Lovejoy czy K. Popper. Jednak samo odrzucenie radykalnego empiryzmu nie implikuje jeszcze akceptacji proponowanego przez Kuhna modelu.

● Amsterdamski przywołuje podstawowe założenia Kuhna z „Struktur rewolucji naukowych”. Przypomina, że centralnym pojęciem był tam paradygmat, czyli zespół zasadniczych przekonań i uprzedzeń wspólnoty badaczy. Historycznie zmienny consensus omnium (łac. `zgoda wszystkich, powszechna zgoda`) grupy umożliwia szybki postęp, niewracanie do kwestii już raz rozstrzygniętych. To właśnie paradygmat i oparta na uznaniu go „normalna” działalność badawcza wyznaczać ma tradycję badań, sposób rozwiązywania problemów. Funkcjonuje do czasu, gdy wskutek kryzysu, to jest uporczywej niemożliwości rozwiązania jakiegoś problemu zgodnie z jej założeniami, zostaje odrzucona, zastąpiona przez inną, niewspółmierną ze swoją poprzedniczką. Zmiany paradygmatów powodują nowe widzenie całego pola badań, jego restrukturyzację, reinterpretację uznanych dotąd faktów, które stają się czym innym, niż dotąd były. Zmiany te - wbrew kumulatywnej koncepcji rozwoju wiedzy - są punktami nieciągłości procesu. Na pewno osiągnięciem Struktury rewolucji naukowych było zwrócenie uwagi na consensus omnium, jego zmienność i rolę w „normalnej”m codziennej działalności uczonych. Starają się bowiem raczej rozbudowywać aktualnie uznane teorie, niż nieustannie podejmować próby ich obalenia. Upadek obowiązującego paradygmatu (consensus omnium) jest odbierany raczej jako zło konieczne, zburzenie dotychczasowego świata. W rezultacie napięcie między tradycją a nowatorstwem wpisane zostaje w obraz nauki jako cecha immanentna. Wniosek ten oparty jest na słusznym przekonaniu, że żadna metoda nie może nigdy rozstrzygnąć, czy w danej sytuacji konfliktu między teorią a doświadczeniem należy poprzez rozmaite interpretacje i dodatkowe hipotezy bronić dotychczasowej teorii, czy też ją porzucić i opowiedzieć się za nową. Takie pojęcie stosunku między tradycją a nowatorstwem przeciwstawia poglądy Kuhna nie tylko zwolennikom czysto kumulatywnego rozwoju nauki, o którym poprzednio była mowa. Zgodnie z Kuhnem nauka normalna nie tylko istnieje, ale musi istnieć, by możliwe były rewolucje naukowe, i że rozwoju wiedzy nie można zrozumieć, jeśli owego napięcia między tradycją a nowatorstwem nie traktuje się właśnie jako niezbywalnej cechy twórczości naukowej.

● Pod wpływem rozmaitych krytyk skierowanych przeciwko przedstawionemu w Strukturze... modelowi rozwoju nauki, a przede wszystkim przeciwko wieloznaczności terminu „paradygmat” autor skłonny jest dziś odróżniać pojęcia consensus omnium, które nazywa „matrycą dyscyplinarną” od pojęcia paradygmatu w węższym sensie, to jest „okazu” wzorcu rozwiązywania problemów w danej dziedzinie. Teraz to już nie teza o tym, że paradygmaty są sposobem widzenia świata (badacza obszaru) przez uczonego, lecz kwestia roli owych rozwiązań wzorcowych w kształtowaniu dyscyplinarnego consensus omnium stanowi punkt ciężkości wywodów autora.

●Amsterdamski pokazuje pewne podobieństwa poglądów Kuhna do koncepcji języka Wittgensteina, co można podsumować tak, że Kuhn zamiast podać coś, co byłoby wspólne wszystkiemu, co nazywamy nauką, powiada, że nie ma wcale czegoś jednego, co wszystkim tym zjawiskom byłoby wspólne i ze względu na co stosowalibyśmy do nich wszystkich to samo słowo. Są one natomiast rozmaicie ze sobą spokrewnione. I ze względu na to pokrewieństwo nazywamy je wszystkie „naukami”. Z kolei Amsterdamski chce wprowadzić pojęcie „ideału nauki”, które ma oznaczać to, co decyduje, że paradygmaty poszczególnych specjalności uchodzić mogą w danym czasie za naukowe, że można, przynajmniej synchroniczne, mówić o nauce jako o pewnej całości, nie zaś jako o zbiorze różnych dyscyplin. Wprowadzenie tego pojęcia usuwa wiele trudności, które napotyka toeria Kuhna:

→ usuwa trafny zarzut, iż nie każda paradygmatycznie zorientowana działalność ludzka uchodzi za naukową,

→ uzasadnia odróżnienie rewolucji lokalnych, dokonujących się w poszczególnych specjalnościach od globalnych, obejmujących całą naukę danej epoki.

→ dopuszcza zmianę paradygmatu dyscyplinarnego, która nie jest równoznaczna z całkowitym złamaniem consensus omnium, albowiem uznawany ideał nauki nie musi się wskutek tego zmienić, a tym samym zapewnia możliwość racjonalnego dyskursu między zwolennikami starego i nowego paradygmatu, co teoria Kuhna odrzuca.

Kuhn po prostu odrzucił mówienie o nauce danego okresu jako całości kulturowej i skupił swe zainteresowanie wyłącznie na przemianach w poszczególnych wąskich specjalnościach, uznając, że nie ma czegoś jednego, co wszystkim tym zjawiskom byłoby wspólne.

●Stanowisko Kuhna ewaluowało. Widać to m.in. w artykule „Obiektywność, sądy wartościujące i wybór teorii”. Wcześniej pisał, że wybór między konkurencyjnymi paradygmatami z reguły rodzi problemy, których nie można roztrzygnąć na mocy kryteriów nauki normalnej. Teraz natomiast Kuhn skłonny jest sądzić, że wybór pomiędzy teoriami dokonuje się na mocy takich metodologicznych kryteriów, jak dokładność, spójność, ogólność, prostota, owocność, z tym wszakże, że nie funkcjonują one jako jednoznaczne kryteria, lecz raczej jako wartości nauki: mogą popadać ze sobą w konflikty, a sposób ich stosowania dla oceny teorii nie jest jednoznaczny.

● Na koniec Amsterdamski pisze, że od zakwestionowania radykalnie kumulatywnego modelu rozwoju przyrodoznawstwa, niezmienności jego metody, daleka jest jeszcze droga do uznania, że kumulacja wiedzy jest w ogóle mitem. To, co Kuhn ma do powiedzenia nowego o mechanizmach rozwoju nauk przyrodniczych, było niemal powszechnie uznawane w odniesieniu do dyscyplin społecznych i humanistycznych, a w każdym razie nie stanowiło niczego nowego dla historii myśli społecznej czy też historii filozofii. Właśnie te dyscypliny były, jak sam Kuhn stwierdza, głównym źródłem intelektualnym jego koncepcji uprawiania historii nauki.
●Amsterdamski dochodzi do wniosku, że istnieje wystarczająco wiele powodów, by sądzić, że zasadniczym problemem współczesnej humanistyki jest raczej zachowanie przez nią jej wieloparadygmatyczności niż poszukiwanie ujednoliconej wizji świata. Do rozstrzygnięcia pozostaje kwestia: jak w ramach takiej wieloparadygmatycznej struktury jego dyscypliny dokonywać się w niej może jakaś kumulacja wiedzy?

T. Zgółka

Zasada konwencjonalności języka a procedury eksplanacyjne w lingwistyce.

Przedmiot opracowania - kwestia stosowalności procedur eksplanacyjnych, rozważanych

w kontekście założenia o konwencjonalności języka naturalnego.

Główna teza dotyczy zależności między konwencjonalistycznym sposobem ujmowania przedmiotu badań językoznawczych oraz statusu poznawczego teorii językoznawczych z jednej strony a możliwością stosowania ekplanacyjnego uzasadniania twierdzeń z drugiej.

Procedury wyjaśniające - rozumiane w tradycyjny sposób, skodyfikowany w klasycznych ujęciach Hempla-Oppenheima, Ajdukiewicza oraz Nagla wraz z późniejszymi uzupełnieniami, uszczegółowieniami tych modeli.

Uwaga porządkowa - odróżnienie między wyjaśnianiem a wynikaniem (logicznym):

- istnieją w językoznawstwie propozycje, w których wyjaśnianiem nazywa się wszelkie związki dedukcyjne, oparte na wynikaniu

- co NIE JEST wyjaśnianiem w świetle przyjętego tu tradycyjnego ujęcia?

wynikanie zdania „As jest psem rasowym” ze zdania „As jest terierem”

pseudowynikanie zdania „Ta Łowiczanka nosi swój strój ludowy” ze zdania „Większość Łowiczanek nosi swoje stroje ludowe”

Kwestie związane ze stosowalnością wyjaśniania w językoznawstwie zostały postawione w sposób szczególnie istotny wraz z narodzinami nowożytnego językoznawstwa, co nastąpiło w momencie wystąpienia młodogramatyków.

MŁODOGRAMATYCY:

- postawa badawcza i program miały charakter skrajnie scjentystyczny

- cel działalności - unaukowienie dyscypliny, dla której miała teraz obowiązywać nazwa Sprachwissenschaft.

- językoznawstwo oskarżano o deskryptywizm i preskryptywizm, idiografizm i normatywizm!

Preskryptywizm - określanie elementów języka naturalnego jako "poprawnych" bądź "błędnych", w przeciwieństwie do podejścia deskryptywnego, czyli neutralnego opisywania realnie używanego języka.

Idiografizm - nauki idiograficzne zajmują się opisem i wyjaśnianiem faktów jednostkowych, a nie formułowaniem ogólnych praw.

Nomotetyzm - poszukiwanie ogólnych, uniwersalnych (tzn. ahistorycznych) praw rządzących społecznym funkcjonowaniem jednostek Nauki nomotetyczne zajmowały się formułowaniem praw naukowych, w opozycji do nauk idiograficznych, opisujących i wyjaśniających jednostkowe fakty.

- postulowali historyzm i nomotetyzm - zadaniem językoznawcy nie ma być kodyfikowanie reguł poprawnego mówienia czy pisania, ale opis i wyjaśnianie zjawisk językowych, zwłaszcza postrzeganych w ich historycznym rozwoju

-> ograniczenie do synchronicznego punktu widzenia uniemożliwia stosowanie procedur eksplanacyjnych, językoznawstwo pozostaje na poziomie idiograficznego deskryptywizmu, co z kolei skazuje je na normatywność

- atomizm - próbowali wyjaśniać zmiany historyczne, którym podlegały określone głoski / ściśle określone ich kombinacje, stosowanie końcówek fleksyjnych itp.

STRUKTURALIŚCI:

- zakwestionowali program młodogramatyków

- F. de Saussure -> semiologiczna teoria języka ze słynnym schematem przecięcia osi synchronii i diachronii i wyprowadzonym z tego przecięcia postulatem oddzielenia językoznawstwa synchronicznego i diachronicznego

- przejęli od młodogramatyków wymóg nomotetyczności

- zasada systemowości znaków językowych - przeciwieństwo atomizmu; akcentowanie podporządkowania poszczególnych elementów zasadom organizującym cały system języka

System:

- ściśle określona siatka relacji (zwłaszcza relacji opozycji) zachodzących między składnikami

- każdy z elementów rozumiany jest przede wszystkim jako człon owych relacji

- własności przysługujące poszczególnym składnikom są atrybutami niezbędnymi dla zachowania równowagi systemu jako całości

- system (struktura) sam decyduje o tym, jakiego typu zmiany mogą być przeprowadzone, jakie tendencje, zaczyny zmian muszą być zablokowane itp. -> mechanizm zmian historycznych jest autodynamiczny

KONCEPCJE ZAPROPONOWANE PRZEZ WPROWADZENIE DO JĘZYKOZNAWSTWA DWU POJĘĆ: KOMPETENCJI JĘZYKOWEJ I GRAMATYK GENERATYWNO-TRANSFORMACYJNYCH:

- nurt ten rozpoczyna znany referat Chomsky'ego „Modele wyjaśniania w lingwistyce”

- charakterystyczną cechą wspólną całej serii prac, kompendiów, publikacji etc. skupionych wokół tematu wyjaśniania w lingwistyce jest przekonanie, że problematyka ta wcześniej (przed wspomnianym referatem Chomsky'ego) przez językoznawców nie była zauważana

Typy wyjaśniania stosowane przez językoznawców:

a) wyjaśnianie przyczynowo-skutkowe

- swego czasu uważane za jedyny możliwy sposób ujmowania związku między poprzednikami a następnikami twierdzeń proponowanych do miana prawa naukowego

- młodogramatycy zadowalali się przesłankami eksplanansu, mającymi wyrazisty charakter generalizacji historycznej (a nie prawa ściśle ogólnego), schemat przyczynowo-skutkowy stosowany był z reguły dopiero dla wyjaśniania owych generalizacji, czyli wtedy, gdy generalizacja taka występowała jako eksplanandum.

- przyczynowo-skutkowe wyjaśnianie może być stosowane wyłącznie w odniesieniu do zmian historycznych, eksplanandum stanowi zdanie konstatujące zajście właśnie takiej zmiany

- jeśli eksplanandum stanowi zdanie stwierdzające fakt o charakterze synchronicznym, konstatujące np., że określona forma gramatyczna ma taką a taką postać, eksplanans będzie zawierał zdania przedstawiające ewolucję tej formy, wywiedzionej z form wcześniejszych oraz odpowiednią generalizację, zwaną zwykle „prawem językowym”

b) schematy wnioskowań funkcjonalnych:

- synchroniczno-funkcjonalne

- diachroniczno-funkcjonalne

- funkcjonalno-genetyczne

Cecha wspólna wszystkich schematów - akceptacja zespołu hipotez czy postulatów strukturalistycznych, sprowadzających się do przypisania językowi statusu homogenicznej całości zorganizowanej tak, aby mogła być ona narzędziem komunikacji lub ekspresji lub kreowania wartości estetycznych i artystycznych lub kategoryzowania i nazywania świata (pozajęzykowego).

- poszczególne składniki języka są podporządkowane owej naczelnej własności

- pochodzenie, geneza, historyczny rozwój poszczególnych składników, ich ewolucja historyczna stają się nieistotne, a jedynym uzasadnieniem ich kształtu i obecności w języku jest niezbędność dla konstrukcji całości

- postulat pierwotności poznawczej własności orzekanych o języku jako całości wobec własności przysługujących składnikom owej całości

- (u strukturalistów) rezygnacja z założenia, że zdań kandydujących do roli przesłanek eksplanansów można poszukiwać jedynie w dziejach języka; przesłanki takie mogą stanowić również zdania wskazujące nie na genezę, ale na funkcję, rolę poszczególnych składników w całości języka

c) stosowanie rozumowań operujących wyłącznie terminologią gramatyczną

- typ wyjaśniania charakterystyczny przede wszystkim dla pewnych generatywistycznych ujęć języka

- gramatyki typu generatywnego skoncentrowane są na rekonstrukcji reguł, o których domniemywa się, iż są one stosowane (respektowane) przez idealnych rodzimych użytkowników języków naturalnych

- punkt wyjścia dla rekonstrukcji - ustalenie zbioru konstrukcji językowych, które taki użytkownik mógłby uznać za naturalne, poprawne, gramatyczne itp. - najczęściej ten zbiór ogranicza się do klasy poprawnych zdań

- „klasa wyrażeń bezsensownych”

- zadanie językoznawcy - uzasadnienie, dlaczego podział jest jaki jest -> rekonstrukcja gramatyki rozumianej jako zbiór reguł

- reguły muszą być tak dobrane, aby pozwalały na wykonywanie wszystkich (i tylko takich) operacji na słowach, których wyniki będą należały do zbioru zdań -> „eksplanatoryjny model” stosowany w lingwistyce

- eksplanatoryjność w tym wypadku to możliwość udzielenia odpowiedzi na pytania o to, dlaczego dana konstrukcja jest (poprawnym, gramatycznym) wyrażeniem danego rozważanego języka naturalnego; zwłaszcza zaś, dlaczego określona sekwencja słów jest zdaniem takiego języka

Realizm vs instrumentalizm

- spór dotyczący statusu poznawczego teorii naukowej poddawanej konfrontacji z rzeczywistością

- problematyczna kwestia „rzeczywistości” badanej przez językoznawcę

  1. zbiór wypowiedzi (zwłaszcza zdań) faktycznie skonstruowanych i dopuszczalnych w badanym języku

  2. kolekcja fizykalnie rozumianych próbek idiolektalnych, tzn. konkretnych porcji zjawisk akustycznych, będących zrealizowanymi hic et nunc, przez konkretnych użytkowników, sekwencji jednostek językowych (zwłaszcza dźwięków) - RADYKALNA POSTAĆ ZASADY FIZYKALIZMU (zwł. amerykańska wersja strukturalizmu)

  1. koncepcje mentalistyczne

Zarzuty wobec „pseudowyjaśniania gramatycznego”:

- nieuniknioność błędnego koła

- nie można stosować w eksplanansie reguł, dyrektyw, tylko twierdzenia, a więc zdania w sensie logicznym

- muszą to być zdania o charakterze empirycznym

- muszą posiadać ewidencję empiryczną niezależną od faktów stwierdzanych w zdaniach wyjaśnianych (eksplanandach)

- brak możliwości wyjaśnienia poszczególnych wypowiedzi -> idiografizm, deskryptywizm - można jedynie dokonywać rekonstrukcji reguł składających się na opis gramatyczny określonego języka czy stworzyć dychotomiczny podział konstrukcji na poprawne i niepoprawne

Kompetencja językowa - płaszczyzna świadomościowa (wiedza o języku posiadana przez idealnego rodzimego użytkownika języka), do niej relatywizowane są poszczególne reguły

Jedna z propozycji głosi, iż kompetencja językowa może być rozważana jako kategoria, o której można orzekać jej „realność psychologiczną”. Zespół danych eksperymentalnych służących do rozstrzygania, czy określone przekonanie o obowiązywaniu odpowiedniej reguły gramatycznej jest empirycznie zasadne, czy nie, to dane zaczerpnięte z psychologicznych czy psycholingwistycznych badań nad jednostką ludzką, będącą m. in. użytkownikiem języka. -> próba redukcji eksplanacyjnej badań językoznawczych do psychologii

Postawy badawcze językoznawców zajmujących się rekonstrukcją opisu gramatycznego języka:

  1. postawa instrumentalistyczna (w sensie instrumentalizmu metodologicznego) -

- oparcie rekonstrukcji na materiale stricte językowym: korpusie danych materiałowych, na które składają się wypowiedzi zrealizowane w języku rekonstruowanym i uznane za poprawne (naturalne, wellformed)

- adekwatna, trafna, empirycznie uzasadniona będzie każda taka gramatyka, która zawierać będzie reguły umożliwiające zbudowanie wszystkich tych zdań i żadnych innych

- nie jest konieczne odwoływanie się do intuicji, wiedzy, świadomości mówiących rekonstruowanym językiem, zrekonstruowanej gramatyce ani żadnemu z jej składników - reguł językoznawca nie musi przypisywać „realności psychologicznej”

  1. postawa realistyczna - uwzględnia wspomnianą „realność psychologiczną

Rozróżnienie na lingwistykę autonomiczną i zredukowaną:

  1. lingwistyka autonomiczna - przedmiot zainteresowania lingwisty stanowi jedynie gramatyczna rekonstrukcja poszczególnych języków, lingwista nie szuka potwierdzenia w dziedzinach sąsiednich

  2. lingwistyka zredukowana - redukcjonistyczny charakter (zwłaszcza w sensie redukcji eksplanacyjnej) ma koncepcja uwzględniająca kategorię kompetencji językowej. Wprowadzenie przez lingwistę elementów eksplanacyjnych zmusza go do skorzystania z wyników psycholingwistyki eksperymentalnej

Umieszczenie wśród pojęć lingwistycznych kompetencji językowej jest niezbędne po to, aby językoznawca mógł stosować procedury eksplanacyjne w sposób uprawniony metodologicznie. Procedury eksplanacyjne mają zazwyczaj hierarchiczny charakter, co oznacza, że twierdzenia występujące w jednym schemacie w roli przesłanek mogą w innych schematach występować jako eksplananda.

Poszukiwanie przesłanek poza samym językiem:

GRAMATYKA UNIWERSALNA:

- hipoteza natywistyczna - g. u. ma charakter wrodzony, biologicznie dziedziczony przez egzemplarze gatunku homo sapiens i stanowi podstawę dla kształtowania się reguł obecnych w kompetencjach charakterystycznych dla poszczególnych języków etnicznych; uniwersalność umieszczana w umyśle, duszy, psychice indywiduum

- semantyka generatywna - głosi pierwotność schematu semantycznego wobec schematu syntaktycznego w wypowiedzi językowej, konstruowanie wypowiedzi polega na dopasowywaniu jednostek językowych do schematu semantycznego uprzednio zamierzonego, semantyka wyznacza poszczególnym jednostkom składniowym ich miejsca w strukturach syntaktycznych, takich jak predykat, argument itp.; uniwersalność umieszczana w świecie odzwierciedlanym w języku, naturalność gramatyki uniwersalnej - stanowi odwzorowanie „składni świata”

Naturalność vs. konwencjonalność języka - spór:

- fundamentalny spór funkcjonujący w refleksji nad językiem od samego jej zarania

- kwestie związane z konwencjonalnością znaków językowych to problem stricte semiotyczny

- może być rozumiany szeroko i ujmowany w różnych perspektywach (np. glottogonicznej, synchronicznej, diachronicznej)

- pytanie o związek między formą znaku a jego znaczeniem

de Saussure -> konwencjonalność związku między płaszczyznami signiant i signifie - kształt brzmieniowy wypowiedzi językowej (w szczególności nazwy) nie może być uzasadniony przez odwołanie się do własności, atrybutów itp. Przysługujących obiektowi (stanowi rzeczy, zjawisku itp.) stanowiącemu płaszczyznę signifie.

Zasada konwencjonalności stanowi podstawę dychotomicznego podziału wszystkich wypowiedzi językowych (zwłaszcza w zakresie nazw) na dwie kategorie: znaki arbitralne i naturalne.

Znaki arbitralne to znaki konwencjonalne.

Znaki naturalne:

- klasa wypowiedzi (nazw) onomatopeicznych - uznanie, że określone wyrażenie ma onomatopeiczny charakter jest równoznaczne z uznaniem naturalnego charakteru związku między signifiant i signifie

- spójniki - nie sposób wskazać autonomicznej płaszczyzny signifie powiązanej ze spójnikami

- wykrzykniki (wykrzyknienia) -> naturalność ekspresywna

Konwencjonalizm dotyczy także płaszczyzny gramatycznej - to konwencja decyduje o tym, co jest wyrażeniem językowym (morfemem, leksemem, zdaniem itp.), a co jedynie potencjalnym połączeniem fonemów, morfemów czy słów.

Konwencjonalizm związany z wartościowaniem wypowiedzi językowych, z przypisywaniem im walorów estetycznych i artystycznych. Wypowiedzi skonstruowane tak, że podlegają tylko konwencjom lingwistycznym mogą być oceniane jako standardowe i w tym sensie neutralne pod względem wartości artystycznej. Przypisywanie im owych wartości związane jest z dobudowaniem konwencji dodatkowych, naddanych wobec tych czysto lingwistycznych lub stwierdzenie odpowiedniego naruszenia tych pierwszych.

-> konwencje wersyfikacyjne jako przykład naddanych

-> łamanie, naruszanie konwencji leży u podstaw konstruowania metafor - złamanie dotychczasowych ustabilizowanych związków zarówno w układzie signifiant-signifie, jak również tzw. związków konotacyjnych

Dwa rodzaje twierdzeń lingwistycznych:

  1. stwierdzające przysługiwanie określonym obiektom (wypowiedziom, poszczególnym ich składnikom etc.) odpowiednich własności lub zachodzenie między nimi stosownych relacji

R (a, b)

schemat przedmiotowy, obrazuje zachodzenie relacji R między elementami a, b

  1. stwierdzające przypisywanie takich własności (stanowienie relacji) przez podmioty mówiące

S (P, R (a, b))

podmiot P stanowi (ustanawia) relację R miedzy elementami a, b

S. Amsterdamski, Tertium non datur? Szkice i polemiki, Warszawa 1994, rozdz. „Tradycja

i nowatorstwo”[posłowie do Dwóch biegunów].

tytuł sygnalizuje problem

  1. teoriopoznawczych - wymaga wyjaśnienia sposobu porzucania jednych poglądów dla innych oraz ich wzajemnego stosunku treściowego, także rozważań na temat autonomii poznania naukowego wobec czynników związanych z jego historycznym umiejscowieniem w kulturze danego czasu;

  2. historycznych - wykrywanie wątków ciągłych oraz punktów zwrotnych zmusza do śledzenia faktycznego rozwoju poznania naukowego w ogóle, identyfikacji jego aktualnych składników i badania ewolucji każdego z nich;

  3. socjologicznych - tradycja uprawiania nauki stanowi własność grupową i może funkcjonować jako tradycja tylko wtedy, gdy jest zbiorowo, przez społeczność badaczy akceptowana

chodzi o przezwyciężenie zwyczajowej izolacji, o konfrontowanie uzyskiwanych wyników;

różnorodność wizji rozwoju poznania naukowego (od Bacona o Kartezjusza) → wydawało się, że problem dziedziczenia i łamania tradycji jest dobrze wyjaśniony: panowało przekonanie, że w odróżnieniu od innych dziedzin działalności umysłowej - rozwój nauki ma charakter kumulatywny, dokonuje się wyłącznie przez przejmowanie
i eliminację (tu: nowe osiągnięcia unieważniają stare w tym sensie, że je w sobie zawierają w ulepszonej postaci, uwolnione od błędów, nieścisłości, ograniczeń - to korespondencja teorii)

rozwój wszystkich dziedzin kultury oprócz nauki dokonuje się metodą pomnażania;

pytanie o wzajemny stosunek tradycji i nowatorstwa w nauce = wierność metodzie narzucającej nieograniczony krytycyzm wobec uzyskanego dorobku (XVI-XVII w. = początek metody) - historia nauki nie stanowiła już z założenia fragmentu historii powszechnej czy historii myśli (przedmiot metody rozwijał się raczej w czasie fizycznym niż historycznym);

jeśli socjolog nie zgadzał się z deklaratywnym twierdzeniem o roli nauki w kulturze (wewnętrzny mechanizm wiedzy miał być autonomiczny wobec okoliczności zewnętrznych), popadał w wyjaśnienia przeczące jej intelektualnej autonomii (tu: jej dorobek jako niezapośredniczona odpowiedź na sytuację ekonomiczną czy polityczną);

epistemologia w sposób skrajny musiała traktować poznanie naukowe i jego ewolucję - jako wynik niezmiennych, niczym niezapośredniczonych zdolności natury ludzkiej, jako ucieleśnienie jej racjonalności, zawsze takiej samej i na tym samym polegającej;

2

tradycyjną wizję rozwoju poznania naukowego przedstawia jako produkt rekonstrukcji jego dziejów na gruncie określonych założeń filozoficznych (radykalny empiryzm, pozytywizm), które odrzuca: 1) rekonstrukcja ta nie daje się pogodzić z dziejami rzeczywistymi
i rzeczywistą praktyką badawczą uczonych

domaga się, aby teoria wiedzy stosował się do zjawisk ujawnianych przez historię nauki

(uwaga: samo odrzucenie radykalnego empiryzmu, choć wyklucza czysto kumulatywną koncepcję rozwoju wiedzy, nie implikuje akceptacji proponowanego przez Kuhna modelu → od czasów Paula Duhema);

czy model ten da się uzasadnić? - pisanie historii jest przecież związane z zabiegami interpretacyjnymi stosowanym wobec faktów historycznych (nadawanie znaczeń słowom, sposób formułowania pytań względem zbiorów uznanych informacji źródłowych, ocenia ważności zjawisk)

Kuhn wie, że nie ma zespołu takich faktów historycznych, które nie dopuszczałyby rozmaitych interpretacji (nie ma faktów niezależnych od teorii)

jakie są przesłanki teoretyczne stanowiące zaplecze historiografii i historiozofii nauki Kuhna?

3

centralne pojęcie Struktury rewolucji naukowej to paradygmat - kategoria wprowadzona, aby: 1) zdać sprawę z zasadniczej różnicy między rozwojem nauki a innych dziedzin twórczości intelektualnej, 2) wytłumaczyć zjawisko zerwania z tradycją, rewolucji
w nauce;

paradygmat = zespół zasadniczych przekonań i uprzedzeń wspólnoty badaczy - jej roboczym instrumentarium ma stanowić historycznie zmienny consensus omnium grupy umożliwiający postęp, nawracanie do kwestii już raz rozstrzygniętych, rozwiązywanie kolejnych łamigłówek (na jego podstawie dokonuje się kumulacja wiedzy, postęp);

funkcjonuje do czasu, gdy wskutek kryzysu ( = niemożności rozwiązania jakiegoś problemu zgodnie z jej [tradycji] założeniami), [tradycja] zostaje odrzucona, zastąpiona przez inną, niewspółmierną ze swą poprzedniczką; zmiany są punktami nieciągłości procesu (nowy świat nie koresponduje ze starym);

upadek paradygmatu to zło konieczne, zburzenie dotychczasowego świata, podważenie własnych rezultatów

= napięcie między tradycją a nowatorstwem zostaje wpisane w obraz nauki jako jej cecha immanentna (autor: żadna metoda nie może nigdy konkluzywnie rozstrzygnąć, czy bronić hipotezy, czy ją porzucić);

autor (A. Amsterdamski): nauka formalna musi istnieć, aby były możliwe rewolucje naukowe;

4

eksplikacje teoriopoznawcze pojęcia „paradygmat”: kwestia roli rozwiązań wzorcowych w kształtowaniu dyscyplinarnego consensus omnium;

  1. monopolistyczne panowanie jednego paradygmatu w okresach normalnego rozwoju dyscypliny;

  2. rola czynników pozalogicznych;

  3. wzajemny stosunek (niewspółmierność) kolejnych paradygmatycznych punktów widzenia;

stosunek do języka nauki bliski koncepcji L. Wittgensteina/ T. Kuhn: istnieje zmiana sensu lub zakresu stosowalności terminu; jeśli znaczenie nie zależy od uprzedniego wyznaczenia granic, zależ od użytku, jak robimy z tym terminem (przypisanie znaczenia na mocy podobieństwa);

5

tłumaczy zarzuty-trudności wobec teorii Kuhn:

1) nie każda paradygmatycznie zorientowana działalność ludzka uchodzi za naukową, 2) pozwala zachować pojęcie normalnej działalności naukowej, 3) uzasadnia odróżnienie rewolucji lokalnych od globalnych, 4) dopuszcza zmianę paradygmatu dyscyplinarnego (nie oznacza złamania consensu omnium),

5) traktowanie reguł metodologicznych jako norm służących realizacji określonego ideału poznania (tu: ich zmienność historyczna, istnienie kilku metodologii na gruncie tego samego ideału poznania);

u Kuhna: skupił zainteresowania na przemianach w poszczególnych wąskich specjalnościach;

autor: języki sztuczne są wyspami na morzu języka potocznego, ale [wbrew koncepcji Kuhna] rola badacza polega na wyznaczeniu ich granic i zamykania ich; rewolucja czyni wyrwy w tej pracy;

6

wybór metodologii na podstawie dokładności, spójności, ogólności, prostoty, owocności, ale mogą one (te kryteria) popadać ze sobą w konflikty, sposób ich zastosowania dla oceny teorii nie jest jednoznaczny; istnieje wspólna instancja nadrzędna: zespół wartości uznawanych w całej społeczności (autor: jest nią historycznie ukształtowany ideał nauki);

7

8

problem współczesnej humanistyki: wieloparadygmatyczność (tu: globalne wizje świata narzędziem i środkiem, w humanistyce - celem) [zdanie autor];

„Zasada konwencjonalności języka a procedury eksplanacyjne w lingwistyce”

I PROGRAM MŁODOGRAMATYKÓW:

- Kwestie związane z wyjaśnianiem w językoznawstwie stały się bardzo istotne, gdy narodziło się nowożytne językoznawstwo. Stało się to w chwili wystąpienia młodogramatyków.

- Głosili zasady skrajnie scjentystyczne.

- Dążyli do tego, by zadaniem językoznawcy nie było kodyfikowanie reguł poprawnego mówienia, pisania. Nie mieli osądzac co jest zgodne z gerułami, a co nie. Mieli natomiast zająć się opisem i wyjaśnianiem zjawisk językowych, zwłaszcza spostrzeganych w ich historycznym rozwoju.

Historyzm - dyrektywa metodologiczna.

Sposób myślenia młodogramatyków:

Jeśli językoznawca ograniczy się tylko do synchronicznego punktu widzenia, to nie jest w stanie stosowac procedur eksplanacyjnych. Pozostanie jedynie na poziomie idiograficznego deskryptywizmu, który skazuje językoznawcę na normatywność.

Językoznawstwo nomotetyczne musi poszukiwać praw naukowych w zakresie historycznej zmienności języków, ich pokrewieństwa, formowania się i rozpadania rodzin językowych, nakładania substratów i superstratów.

- Program młodogramatyków został zakwestionowany przez orientacje strukturalistyczne, które chciały rewaloryzacji lingwistyki synchronicznej.

- Przejęto od nich wymóg nomotetyczności. By językozn. Synchroniczne zasłużyło na miano naukowości, powinno również uwzględniać i stosować procedury eksplanacyjne.

- Przeciwstawiano się atomizmowi młodogramatyków. Młodogramatycy próbowali wyjaśniać zmiany historyczne, którym podlegały określone głoski, stosowanie określonych końcówek fleksyjnych. Strukturaliści natomiast akcentowali podporządkowanie tego typu elementów zasadom organizującym cały tzw. system języka.

- Strukturalna teoria języka powstała w opozycji do językoznawstwa historyczno-porównawczego młodogramatyków.

- Strukturaliści w swoim programie umieścili jeden z naczelnych postulatów scjentystycznych - nomotetyczność lingwistyki.

II

NAJISTOTNIEJSZE TYPY WYJAŚNIANIA STOSOWANE PRZEZ JĘZYKOZNAWCÓW:

  1. przyczynowo-skutkowe

  1. synchroniczno-funkcjonalne

  2. diachroniczno-funkcjonalne

  3. funkcjonalno-genetyczne

  1. teleologiczne

  2. stosowanie rozumowań operujących wyłącznie terminologią gramatyczną.

III

Dyrektywalny charakter reguł - przy ich pomocy usiłuje się konstruować pseudowyjaśnianie gramatyczne. Polega to na zanurzeniu gramatyki w tym, co się nazywa kompetencją językową (płaszczyzna świadomościowa, do niej relatywizowane są poszczególne reguły. Jest tym składnikiem teorii lingwistycznej, którą można uznać za niezbędny dla formułowania procedur eksplanacyjnych.)

IV

Językoznawca, który rekonstruuje gramatyczny opis języka, ma do wyboru dwie drogi:

  1. Postawa instrumentalistyczna - oparcie dokonywanej rekonstrukcji na twardym materiale stricte językowym: korpusie danych materiałowych, na który składaja się wypowiedzi zrealizowane w języku rekonstruowanym i uznane za poprawne.

  2. Postawa realistyczna - można spróbować waloryzować gramatyki stosując takie kryteria, jak: prostota, elegancja, pojemność generatywna itd. Nie jest konieczne odwoływanie się do intuicji, wiedzy, świadomości mówiących.

Pojęcie gramatyki uniwersalnej

Przywoływana w dwu przypadkach ( dwa sposoby wykorzystania idei gramat.uniwers.)

  1. hipoteza natywistyczna - gramat. Uniwersa. Ma charakter wrodzony, biologicznie dziedziczony przez poszczególne egzemplarze gatunku homo-sapiens.

  2. 2. przykład może być zilustrowany przykładem teorii zwanej semantyką generatywną.

Zwolennicy przyjmuja pierwotność schematu semantycznego wobec schematu syntaktycznego w wypowiedzi. Konstruowanie takiej wypowiedzi polega na dopasowywaniu jednostek językowych do schematu semantycznego uprzednio zamierzonego.

Uniwersalność umieszczona jest nie w umyśle, duszy, psychice, lecz raczej w świecie odzwierciedlanym w języku. Gramatyka jest nie tylko uniwersalna ale i naturalna.

PODSUMOWUJĄC. GŁOWNE SPOSTRZEŻENIA DOT. STOSOWANIA W JĘZYKOZNAWSTWIE PROCEDUR EKSPLANACYJNYCH:

- Procedury tego typu były postulowane i realizowane na długo przed powstaniem serii tekstów zapoczątkowanych przez Chamskiego.

- Filozoficzne zaplecze, dające się stwierdzić w każdym przypadku sporu o stosowalność wyjaśniania oraz o jego rodzaje.

Fundamentalne dla językoznawców zagadnienie konwencjonalności czy naturalności języka.

REFLEKSJE NAD JĘZYKIEM

Spór: naturalność vs. konwencjonalność języka. Dotyczy tez epok, kiedy język stanowił przedmiot zainteresowania jeszcze nie lingwistów, lecz raczej mędrców.

- konwencjonalność znaków językowych, to problem stricte semiotyczny. Może być ujmowany w perspektywie czysto synchronicznej lub historycznej, filogenetycznej, ontogenetycznej, glottogonicznej itd. Zawsze będzie dotyczyć podstawowego pytania o związek między formą znaku, a jego znaczeniem. U de Saussure'a jest to konwencjonalność związku miedzy płaszczyznami signifiant i signifie.

Zasada konwencjonalności stanowi podstawę dychotomicznego podziału wszystkich wypowiedzi językowych na dwie kategorie: 1. znaki arbitralne 2, znaki naturalne.

REFERAT:

ANNA WIERZBICKA, W POSZUKIWANIU TRADYCJI. IDEE SEMANTYCZNE LEIBNIZA

Anna Wierzbicka zaczyna swoje rozważania od wskazania na niemal odwieczne zainteresowanie zagadnieniem znaczenia słów. Zauważa, że temat ten interesował już Arystotelesa (np. w traktacie dotyczącym dociekań semantycznych, w Topikach). Jednak jego sformułowany program nie został zrealizowany po dzień dzisiejszy. Autorka zauważa, że semantyka jest jedną z najstarszych dyscyplin i jedną z najmniej poznanych. Dlaczego tak się dzieje? Odpowiedź przynosi specyfika tej nauki. Wierzbicka pisze, że nie ma nic łatwiejszego niż obalić jakąś definicję (Topiki, Arystoteles) oraz że nie ma nić trudniejszego niż zbudować definicję nie do obalenia.

Arystoteles krytykował praktykę semantyczną, a właściwie leksykograficzną. Praktyka ta nie różni się właściwie niczym od tej, która była uprawiana w czasach nowożytnych i jest uprawiana nadal. Reguły Arystotelesa pokrywają się z formułami Apresjana, teoretyka semantyki, dlatego mówimy o zasadach Arystotelesowsko-Apresjanowskich. Pierwsza zasada głosi, że eksplikacje słowne muszą się różnić od doraźnych parafraz swoim ukierunkowaniem. Eksplikować to z kolei sprowadzać słowa semantycznie złożone do słów prostych, niezrozumiałych do zrozumiałych, ciemnych i zawiłych do jasnych. Jednak dobór takich słów musi być przemyślany. Wśród słów istnieje bowiem hierarchia i poprawne definicje muszą tę hierarchię uwzględnić. Dlatego też definicja musi być eksplikacją, rozkładem na czynniki prostsze, w którym każde słowo jest konieczne. Definicja powinna być definicją minimalną. W takim rozumieniu definiować nie można poprzez użycie synonimów, homonimów, metafor, upiększeń, wariacji. Definicja nie jest też komentarzem, opisem. Niedopuszczalna jest niejasność, zawiłość, dublowanie znaczeń (redundancja).

Definicja powinna być adekwatna, co oznacza, że znaczenie definiens powinno równać się znaczeniu definiendum. Dlatego też definicje nie mogą być zbyt wąskie, ani zbyt szerokie. Dla Arystotelesa oprócz wspomnianych wyżej raczej oczywistych cech ważny jest także postulat „strukturalności” opisu. Strukturalizm semantyczny łączy się przede wszystkim z tożsamością definiens z definiendum. W tym znaczeniu definicja przez przeciwieństwo (to znaczy dobry= niezły, mądry=niegłupi jest nie do przyjęcia. Narusza bowiem ona zasadę hierarchii, prowadzi do powstania błędnego koła. Nie pokazuje prawdziwej relacji między przeciwnościami, bowiem ich znaczenia są częściowo identyczne.

Koncepcja Arystotelesa mimo że bardzo bliska programowi Apresjana to nie jest ona z nią identyczna, bowiem Arystotelesowska teoria semantyczna wiązała się z jego filozofią bytu. Jednak mimo wszystko koncepcje pochodzące z XVII wieku wydają się kontynuacją myśli Arystotelesa. W tym momencie należy wspomnieć o Leibnizu, który bronił Arystotelesa-semantyka przed napaściami swoich współczesnych. Jednakże Pascal, Locke, którzy zauważali wyraźną lukę w koncepcji Arystotelesa zdają się mieć wiele racji. Zauważają bowiem duży brak koncepcji filozofa, który nie zwraca uwagi na terminy pierwsze, nieredukowalne, takie których nie da się zdefiniować. Dlatego Arystoteles, który wyśmiewał błędne koła w definicjach, nie obronił się przed zarzutem - jak definiować słowa proste?

W wieku XVII wiadome już było, że koncepcja Arystotelesa, program definicji słownych może zostać urzeczywistniony, ale tylko w oparciu o indefinibilia (pojęcia proste). Także w XVII wieku zauważano hierarchię słów, zależności między terminami mniej i bardziej złożonymi. Jednak gdzie przebiega granica między pojęciami prostymi a złożonymi, między tym co jest do zdefiniowania, a tym co nie jest, między definibiliami a indefinibiliami. Kartezjanistom sprawa ta wydawała się jasna. Uważali oni, że jeśli słowo jest już samo przez się związane z ideą jasną i oczywistą, wszelkie próby dalszego jego definiowania mogłoby je zaciemnić. Idee jasne są bowiem takie same dla wszystkich. Dlatego ustalenie zbioru indefinibiliów nie jest problemem, bowiem sama jasność odpowiadających im idei jest wystarczającym kryterium. Podobnie myślał Locke, uważał, że ustalenie takiego zbioru idei prostych i złożonych jest bardzo proste.

Stanowisko Leibniza było inne. Wierzył on w istnienie uniwersalnych idei wrodzonych, ale nie wierzył, w to aby sama „jasność” była ich wystarczającą cechą rozpoznawczą. Przez całe życie pasjonował go problem wrodzonego „alfabetu myśli ludzkiej”. Ustalenie takiego alfabetu było dla niego bardzo trudnym zadaniem, chwilami uważał je nawet za niemożliwe do wykonania. Uważał, że jedyną metodą, która go do sformułowania swojego alfabetu doprowadzi jest metoda prób i błędów, poprzez wstępne próby eksplikacyjne, poprzez żmudną analizę sematyczną. Do swoich rozstrzygnięć podchodził z pokorą. Dlatego zamiast wyrokować, która jego zdaniem jest definicja prosta a która złożona, używał nazwy: „terminy prostsze” (termina simpliciora). Tak powstał unikalny w historii semantyki tekst - Tablice definicji.

Leibniz podczas swoich poszukiwań pojęć prostych zauważył, że nasze intuicje mogą być omylne. Przekonywał się o tym na podstawie wielu pojęć prostych Locke. Jako przykład można podać słowo „ruch” według Locke'a jest pojęciem pierwszym. Leibniz zauważył jednak, że ruch implikuje zmianę. Te dwa pojęcia - ruchu i zmiany mając coś wspólnego. Każdy ruch stanowi jakąś zmianę. Dlatego też ruch jest semantycznie bardziej złożony od zmiany. Ruch nie może być pojęciem prostym.

Leibniz jako strukturalista zdawał sobie sprawę z relacji semantycznych, dlatego tak ważne dla niego było aby pojęcia proste były rzeczywiście proste, czyli niezależne jedne od drugich. Chciał stworzyć alfabet minimalny, który będzie pokazywał wszystkie istniejące relacje. Takie podejście było inne np. od Locke'a, który uważał, że liczba idei prostych jest nieograniczona. Uważał np, że każdy kolor, smak, zapach stanowi ideę prostą. Dla Leibniza nazwy poszczególnych kolorów, smaków nie mogą być semantycznie proste, ponieważ wchodzą one w relacje semantyczne między sobą, a także z pojęciami z innych sfer.

Tablice definicji, które stworzył Laibniz nie spełniają jego wszystkich postulatów. Sa tylko próbą, przybliżeniem do tematu. Tablice miały być cząstką „słownika łacińsko-filozoficznego”. Leibniz chciał stworzyć bowiem specjalny „język semantyczny”, niezbędnego narzędzia do analizy semantycznej. Swoją analizę semantyczną traktował filozof jako przekład z języka naturalnego na filozoficzny. Pomyślany w ten sposób „słownik łacińsko-filozoficzny” miał mieć charakter nie tylko teoretyczny, ale także praktyczny. Miał służyć nie tylko lepszemu rozumieniu myśli ludzkiej, ale także jej doskonaleniu. W ten sposób miał powstać idealny język filozoficzny, który miał służyć także podczas komunikowania się.

Podobne marzenia o stworzeniu idealnego języka filozoficznego miał John Wilkins. Książka Wilkinsa na ten temat ukazał się w 1668 roku w Londynie. Przeczytał ją też Leibniz. Jednak koncepcja tych dwóch myślicieli była różna. Wilkins chciał bowiem stworzyć język sztuczny. Miejsce niedefiniowalnych wyrazów języka naturalnego, czyli pojęć prostych zajęły arbitralne symbole zwane „cząstkami transcendentalnymi”. W intencji Wilkinsa symbole te miały odpowiadać rzeczywistym relacjom semantycznym - i w tym sensie nie były arbitralne. Realność ich jednak podkreślana w tytule dzieła była realnością optymalnego modelu, a nie czymś absolutnym. Dlatego liczba owych cząstek transcendentalnych była w pewnej mierze sprawą arbitralnej decyzji. Dla Leibniza, który odrzucał wszelki arbitralizm w pracach nad „alfabetem ludzkich myśli” pojęcie „dogodnej liczby” jednostek elementarnych było nie do przyjęcia. Leibniz arbitralizmowi Wilkinsa przeciwstawiał ideał „czystej” analizy. Siła języka filozoficznego Leibniza wskazuje na pewną relację. Pokazywanie związków semantycznych między wyrazami języka naturalnego pokazuje zarazem związki logiczne.

Dla Leibniza pokazywanie związków semantycznych za pośrednictwem cząstek transcedentalnych nie jest możliwa. Dlaczego? Bowiem jednostki sztuczne nie są zrozumiałe same przez się. Dlatego też związki pokazywane poprzez ich kombinacje nie są uchwytne i dlatego jedynie język naturalny jest dobrym kluczem do ich pokazania.

Leibniz długo, bo aż przez trzy stulecia, nie znalazł kontynuatora. Gdy w XX wieku pojawiła się semantyka jako gałąź językoznawstwa prace filozofa przysłoniły odkrycia Wilkinsa. Jednak tylko symbolicznie, bo prace obu myślicieli stały się niemal zapomniane. Dlatego nawet nie dziwi fakt, że wysunięta w 1973 roku propozycja o poszukiwaniu elementarnych jednostek semantycznych w jednostkach leksykalnych języka naturalnego była swego rodzaju odkryciem. Niemal nikt nie pamiętał o tym, że taką potrzebę trzy wieki wcześniej zauważył Leibniz. (Arnold Zwicky). Leibnizystą czystej wody, jak to określa Wierzbicka, był jednak Andrzej Bogusławski, który w połowie lat sześćdziesiątych zainicjował badania semantyczne oparte na maksymalistycznym programie poszukiwania niearbitralnego, uniwersalnego zbioru elementów jednostek myśli ze znaczeniami indefinibiliów języka naturalnego.

Wilkins także nie jest szeroko znany, ale jego idea modelowania rzeczywistych relacji semantycznych przy pomocy sztucznych jednostek elementarnych rozpowszechniła się w językoznawstwie XX wieku.

Pogodzenie dwóch teorii dwóch naukowców jest niemożliwe. Albo Wilkins albo Leibniz. Albo użyteczne praktyczne przybliżenia wyrażone w arbitralnych symbolach takiego czy innego języka, albo - poszukiwanie uniwersalnych idei wrodzonych poprzez redukcję języka naturalnego do indefinibiliów.



Wyszukiwarka

Podobne podstrony:
MBJ - NOTATKI, Filologia
Kompilacja na egzamin z pozytywizmu, Filologia Polska, Pozytywizm
MBJ ściąga, Filologia
Filologia bałkańska
czesci mowy - dodatkowa tabela (1), Filologia polska II rok, fleksja i składnia
Terapia logopedyczna Konspekt 2, PWSZ Tarnów Filologia polska II rok, PWSZ Tarnów Filologia polska I
Inwokacja Odyseja, FILOLOGIA POLSKA, Łacina i kultura antyczna
Mecenat Czartoryskich, Filologia polska
Akropol ateński, Filologia angielska, Praktyki
NAJSTARSZE ZABYTKI JEZYKA POLSKIEGO, filologia polska, staropolska
Uczucia Juliusza Słowackiego na podstawie utworów, Notatki, Filologia polska i specjalizacja nauczyc
Czysta forma wg Witkacego, FILOLOGIA POLSKA UWM, Dwudziestolecie
Obrona Sokratesa, filologia polska, Staropolska
Morfemy, Filologia polska, Gramatyka opisowa języka polskiego
słówka, Filologia polska, Łacina
konsp r, PWSZ Tarnów Filologia polska II rok, PWSZ Tranów Logopedia
Poetyka Arystotelesa, Filologia polska, Teoria literatury i poetyka
Mikołaja Doświadczyńskiego przypadki, Filologia polska, Oświecenie

więcej podobnych podstron