Bogusławski, O proporcjonalności w języku i jej warunkach.
Na początku autor artykułu zaznacza, iż zjawisko proporcjonalności odnosi się do synchronii i diachronii. Hasłem odsyłającym do zjawiska proporcjonalności jest analogia (zbieżność, podobieństwo).
Mając na uwadze dzieje językoznawstwa i moment zainteresowania opisem poszczególnych języków z uwzględnieniem zaleceń normatywnych, mówiąc o analogii, miano na uwadze myśl o szczególnej wszelkiej regularności. Chodziło tu przede wszystkim o mniej lub bardziej systematyczną korelację różnych cech (np. korelację rodzaju gramatycznego rzeczowników z ich właściwościami znaczeniowymi).
Takie „nomiczne” stanowisko „analogistów” było przeciwne w stosunku do „animalistów”, którzy zmierzali do podważenia związku języka z regularnością i ukazywali język jako zbiór faktów idiosynkratycznych, ustalonych mocą zwyczaju czy uzusu.
Tak więc zjawisko proporcjonalności w odniesieniu do walki analogistów z animalistami pojawiło się w obserwacjach związanych z fleksją.
Wieki nowożytne, zwłaszcza XIX wiek, przynoszą rozwój językoznawstwa porównawczego, historycznego i historyczno-porównawczego, w których to pojęcie analogii zostaje trwale związane z badaniem mechanizmów zmian językowych.
H. Paul kładł nacisk na to, że zróżnicowanie tworów językowych jest sprzężone z procesami upodobań. Natomiast Humboldtowska wizja języka to zorganizowana, całościowa i dynamiczno-duchowa siła tworząca i należy wiązać ją z myślą o przekształcaniu się i kształtowaniu tworów językowych, napędzanych w dużej mierze przez analogię.
Paul wypracowuje zaawansowaną doktrynę analogii jako filaru wyjaśnień w historycznej charakterystyce języka, która jest jedyną charakterystyką naukową (miejsce uprzywilejowane zyskuje proces wyrównania proporcjonalnego i formuła proporcji).
W artykule autor spogląda na fenomen proporcjonalności jak na sprawę kluczową. I tak wyodrębnia się mu okres postmłodogramatyczny, związany z dokonaniami de Saussure'a, któremu to przypisuje zasadniczą nowość myśli dotyczącej proporcjonalności, a także wspomnianego już Paula - głównego teoretyka młodogramatyzmu.
Nowość de Saussure'a, zwana kopernikańską lub kantowską, polega na tym, iż dostrzegł on w proporcjonalnym układzie elementów samą istotę języka. De Saussure głosił, iż: „analogia pozwala nam dotknąć palcem gry mechanizmu językowego”. Powiązał także fenomen układów proporcjonalnych bezpośrednio z nadrzędną myślą o języku jako systemie zróżnicowania, w którym „to, co odróżnia dany znak, jest tym, co go stanowi”, w którym jednostki nie są dane z góry, ale ustalane są wtórnie wobec primum, jakie reprezentuje abstrakcyjna potencja zróżnicowania, formująca układy symetryczne.
U Paula mamy natomiast zbiór danych na zasadzie implicytnie założonej oczywistości, gotowych form o statusie bytów pierwotnych, które dopiero ex post są grupowane przez psychologiczny mechanizm asocjacji, łączącej je ze względu na podobieństwa, mającej na uwadze różne względy. Analogia i podobieństwo to w tym przypadku zjawiska przygodne. Owego psychologizmu w badaniach de Saussuer'a nie ma.
Bogusławski w swoim artykule zastanawia się ponadto nad cechami charakterystycznymi czwórek sekwencji sylabicznych (dokładnie sekwencji dwusylabowych: ae, ao, ue, uo) i czwórek osób (Zbigniew i Ewa jako ojciec i matka w rodzinie Kowalskich, a także Karol i Jadwiga jako ojciec i matka w rodzinie Kwiatkowskich). Zauważa na przykład te same różnice między elementami pierwszej pary „ae” i elementami pary drugiej „ao”. W przykładzie tym przeciwstawiają się sobie te same dwa elementy: e i o. Autorowi chodzi tu o przeciwstawianie się elementów poprzedzających i następujących. Dalej Bogusławski rozważa różnice między czwórkami wspomnianych osób i dochodzi do wniosku, iż Zbigniew i Ewa nie różnią się między sobą dokładnie tak samo jak Karol i Jadwiga. Jedyne, co może się różnić w tym przypadku to „pojęcia” (ojciec, matka, rodzina Kowalskich, rodzina Kwiatkowskich) i tak na przykład pojęcia ojca przeciwstawia się pojęciu matka. Tu układ proporcjonalny jest układem językowym, podobnie jak układ sekwencji sylabicznych. Przytoczone imiona to tylko argumenty czterech złożonych pojęć. Proporcjonalność tych argumentów to cecha relatywna względem czystej proporcji językowej, w której kompozycje pojęciowe sprowadzają się do rezultatów przemiennego zespalania się czterech elementów pojęciowych.
Bogusławski ma w tym przypadku na względzie przeciwstawienie proporcjonalności bezwzględnej (charakterystycznej dla elementów językowych) i proporcjonalności relatywnej (charakterystycznej dla obiektów i sytuacji zewnętrznych, pozajęzykowych).
Mając na uwadze świat pozajęzykowy, bezwzględną proporcję prezentują następujące układy: O'W-t1 : O''W-t1 :: O'W-t2 : O''W-t2; (O', O'' - dowolne dwa przedmioty przeciwstawiające się reszcie świata, występujące w dwóch różnych momentach; W-t1, W-t2 - są to te właśnie dwa różne momenty). Zatem proporcja bezwzględna jest konstytutywna dla języka i wnoszona przez język.
Autor zauważa także, iż próba upodobnienia proporcji językowych do proporcji pochodnych załamuje się w obliczu nieuchronnego regresu nieskończonego. Dodaje ponadto: Gdyby proporcje, w których występują elementy językowe, miały zależeć od proporcji pojęciowych (na wzór proporcji ojców i matek), to te ostatnie proporcje pojęciowe, które też obserwujemy wyłącznie na elementach językowych w ich z kolei proporcjach, musiałyby znowu być relatywizowane do jakichś wyrażeń i tak bez końca.
Podsumowując swe rozważania Bogusławski stwierdza, iż wszelkie obiekty językowe wchodzą od początku w układy proporcjonalne bezwzględne. Realizują one proporcje płaszczyzny treści, płaszczyzny wyrażenia bądź te dwie płaszczyzny razem. Ponadto byty zwane okurencjami wyrażeń w konkretnym miejscu i czasie mają wiele niepowtarzalnych cech. Jednocześnie cechy te są wymuszane przez techniczną niemożliwość stosowania zawsze jednego indywiduum.
Bogusławski twierdzi, iż musimy mieć na uwadze istnienie „inwariantów” językowych, pojęciowych i wyrażeniowych, które są pierwotne wobec okurencji wyrażeniowych. Musimy także być świadomi istnienia innych bytów, takich jak: indywidua, które są pierwotne, niezastępowalne wzajemnie. Wszystko to, co zostało przedstawione dotychczas to próba interpretacji badań de Saussera, jego idei proporcjonalności jako novum w stosunku do dokonań Paula.
Autor dostrzega także, iż Paul znajduje swoje „równanie proporcjonalne” w różnych układach wielkości językowych, nie dokonując przy tym dyferencjacji.
Mając na uwadze interpretację dziejową językoznawstwa, można rzec, iż: Humboldt znamionuje przejście do lingwocentrycznej wizji ducha ludzkiego, de Saussure - przy zachowaniu myśli Humboldta przechodzi do proporcjocentrycznej wizji języka, dodając, że język jest systemem różnicowania, w którym rolę centralną odgrywa proporcjonalność.
Mówiąc o proporcjonalności warto także przywołać nazwisko Wittgenstein'a i jego „obrazkową teorię języka”. Nowe spojrzenie na język to także zasługa Frege i jego teorii znaczenia wyrażeń powiązana z teorią logicznej struktury zdań i kompozycjonalności, czy z myślą o nieprzekraczalnej barierze oddzielającej obiekty i pojęcia.
Nosicielem pokrewnym wobec idei de Saussure'a był Peirce. Wprowadził on pojęcie „gramatyczności języka” jako rodzaj „ikoniczności” czyli obrazowania (znak ikoniczny oparty na proporcji).
Wszyscy wymienieni myśliciele starali się znaleźć sedno tego, o co chodzi w języku. Widzieli je w koniecznej różnorodności złożoności w sensie kompozycyjności tworów językowych, w relacji do różnorodności i złożoności świata i jego mozaikowej natury.
Wyłaniający się z powstałych w XX wieku prac, obraz języka to także klasyczne ujęcie proporcjonalności Evansa czy dokonania Rodel-Kappla odnośnie pojawienia się form dopełniacza liczby mnogiej na -ov w deklinacji dawnych tematów na -o- na miejscu form identycznej z mianownikiem liczby pojedynczej.
Bogusławski w swoim artykule zwraca uwagę na praktyczną realizację idei proporcji w badaniach lingwistycznych, w badaniach synchronicznych. Zgodnie ze stanowiskiem de Sauuseura śledzenie układów proporcjonalnych w ciągach wstępnie niezróżnicowanych ma za zadanie prowadzić do ustalenia rzeczywistych tożsamości lub bytów językowych zwanych jednostkami języka.
Podsumowując artykuł, Bogusławski dodaje, iż aby zrozumieć ideę proporcjonalności trzeba wyjść od omówionych wcześniej układów czwórkowych, nawet jeśli element relewantny nie zasłuży sobie w końcowym etapie na miano jednostki języka. Mimo to, ma jednak wyróżniony jakiś status, bo spełnia elementarny warunek konieczny, który jest nałożony na jednostkę języka. Stara się też wytłumaczyć, co taki status zapewnia.
Wspomina o delimitacji o charakterze funkcjonalnym. Identyczność pozytywnych różnic w kontekście proporcji, musi dotyczyć cech funkcjonalnych, ale nie jako samych w sobie, lecz o korelację danych cech określonymi, a nie dowolnymi cząstkami o charakterze perceptybilnym (tzw. delimitacja tekstualna). Chodzi tu głównie o określoność cząstek funkcjonalnych. W związku z tym autor stawia pytanie o minimalny warunek takiej określoności cząstek w korelacji z cechami funkcjonalnymi. Odpowiada, iż wystarczy powtarzalność jednej cząstki w czwórce, jeżeli brak, czyli zero paradygmatycznego symetrycznie powtarzalnego i pozytywnego odpowiednika tej cząstki da się związać z zerem cechy funkcjonalnej, w przeciwnym wypadku potrzebna jest powtarzalność co najmniej dwóch cząstek.
Powyższe ujęcie implikuje, iż większa niż dwa liczba elementów powtarzalnych nie jest delimitacji konieczna. Chodzi tu zatem o różnice dźwiękowe skorelowane z różnicami signifie. Takie różnice dźwiękowe otrzymujemy na przykład przy cząstkach niepowtarzalnych, wtedy gdy stanowią resztę wyrażenia przy cząstce powtarzalnej. Tak jest w sytuacjach proporcji z jedną cząstką powtarzalną i proporcji z dwiema cząstkami powtarzalnymi.
Na koniec Bogusławski w celu rozjaśneinia swoich wywodów, przywołuje przykłady czwórek z jedną cząstką powtarzalną i czwórek z dwiema cząstkami powtarzalnymi.
Przykładem czwórki z dwiema cząstkami powtarzalnymi jest: ja idę : ja siedzę :: ty idziesz : ty siedzisz. Autor zakłada, iż wyrażenia te należą do tekstów z emfatycznym oznaczeniem osoby lub do tekstów uwarunkowanych pod względem pragmatycznym. W granicach tych tekstów idę, idziesz, siedzę, siedzisz są całkowicie idiosynkratyczne i ograniczone do połączeń, respective, z ja i ty. Jednak korelacja właściwości semantycznych z określonymi i nie dowolnymi cząstkami tekstów (ja idę, ja siedzę, ty idziesz, ty siedzisz) jest w tym przypadku oczywista, za sprawą powtarzalności ja, ty.
Na koniec Bogusławski stwierdza, iż kwestia delimitacji, którą podjął w artykule jest ulepszeniem wcześniejszych swoich wypowiedzi dotyczących tej tematyki.
Pojęcie paradygmatu nauki:
Przez paradygmat należy rozumieć zespół norm, wzorców, reguł postępowania, które zna każdy naukowiec zajmujący się daną nauką. Naukowiec nie zawsze ma świadomość metodologiczną, niekoniecznie musi umieć odpowiadać na fundamentalne pytanie typu co to jest nauka? A mimo to jest w stanie stworzyć prace naukowe.
Zanim jednak ten paradygmat powstanie, mamy okres, który określić można mianem prenauki. W okresie tym pojawiają się rozmaite sądy na temat interesującego naukę przedmiotu. Nie są to jednak jeszcze sądy uporządkowane. Z czasem jednak sądów wypowiedzianych na temat przedmiotu jest tak dużo i tak są one różnorodne, iż środowisku naukowemu zależy na ich uporządkowaniu. Pojawia się zatem uczony, który wyznacza kontury paradygmatu nowej nauki. Następnie kontury tej nowej nauki wypełnia się szczegółowymi treściami.
W pewnym jednak momencie rozwoju nauki w ramach jakiegoś paradygmatu następuje kryzys. Poprzedza on rewolucję, w wyniku której powstaje nowy paradygmat nauki, który bardzo się różni od paradygmatu dotychczasowego.
FALSYFIKACJONIZM
Źródeł tego paradygmatu należy szukać w teorii nauki autorstwa Karla Poppera, który - akceptując krytykę indukcjonizmu - sprzeciwia się jednak weryfikacjonizmowi, twierdząc, że hipotezy ogólnej nie można potwierdzić zdaniami szczegółowymi. Nauka więc zawsze będzie tylko prawdopodobna, nigdy pewna. Dlatego dużo owocniejsze przy tym dla nauki jest szukanie faktów falsyfikujących hipotezę.
Stąd też w falsyfikacjonizmie naukę uznaje się za zbiór hipotez obowiązujących dopóty, dopóki nie znajdzie się faktów sprzecznych z tą hipotezą. Jeżeli takie fakty się znajdzie, należy hipotezę dotychczasową zastąpić nową hipotezą lub ją odrzucić.
Nowa hipoteza powinna być od poprzedniej ogólniejsza, a przez to bardziej podatna na falsyfikowanie. Unikać więc należy tzw. hipotez ad hoc. (Przykład z psem*)
Falsyfikacjonizm ukształtował się w nauce po II wojnie światowej. Nie wyparł on jednak ani indukcjonizmu, ani weryfikacjonizmu, choć do lat 70 był paradygmatem dominującym.
GENERATYWIZM JAKO PRZEJAW FALSYFIKACJONIZMU
Generatywizm jest to taki paradygmat badań nad językiem, w którym:
- wychodzi się od przekonania, że zdania języka naturalnego powstają w wyniku łączenia lub przekształcenia jednostek niższego rzędu,
- utrzymuje się, że językoznawca powinien naśladować twórców systemów dedukcyjnych.
Chodzi więc w generatywizmie o to, by zbudować taki model języka, za pomocą którego można by nie tylko analizować zdania tekstowe, ale by tworzyć takie ciągi, które mają identyczną formę. Należy dążyć do budowania takich modeli języka, które pokazywałyby jak to się dzieje, że powstają zdania i teksty.
Istotą bowiem modelu generatywnego języka naturalnego jest to, iż generuje on nieskończony zbiór zdań za pomocą skończonej liczby reguł. Dlatego takiego typu gramatyka ma charakter rekurencyjny.
GRAMATYKA GENERATYWNO-TRANSFORMACYJNA
Zapoczątkowana przez Naoma Chomskiego w II poł. Lat 50. Zdaniem Chomskiego zdania języka naturanego można podzielic na 2 zbiory:
Zdania generowane za pomocą gramatyki, w której nie ma reguł transformacyjnych.
Zdania generowane za pomocą gramatyki, w której sa reguły transformacyjne.
Zdania typu:
Idzie chłopiec.
Idzie dziewczyna.
Siedzi chłopiec.
Siedzi dziewczyna.
mogą być generowane w taki sposób, iż ciągi końcowe otrzymane dzięki regułom przepisywania są przekształcane/transformowane na inne ciągi.
Gramatykę generatywną, która zawiera w zbiorze swoich reguł transformacje, nazywa się gramatyką generatywno-transfomacyjną.
Generatywizm jest zatem przejawem paradygmatu falsyfikacjonistycznego w językoznawstwie, ponieważ można teoretycznie zaproponować wiele modeli generatywnych i je sprawdzać. Zaś porces spawdzania jest jednocześnie falsyfikowaniem pewnych gramatyk z powodu sprzeczności wewnętrznej, nastepnych gramatyk z powodu ich niezupełności, pozostałych zaś z punktu widzenia braku prostoty.
Magdalena Danielewiczowa - Ferdinand de Saussure. Siła paradoksu
De Saussure'a dziwi złożoność ludzkiej mowy; temu osłupieniu towarzyszy czasem bezradność - uczony pragnie systematycznie, niewyrywkowo i nieimpresyjnie opisać złożoność języka w jego istocie. Owo zdumienie doprowadziło badacza do zanegowania dotychczasowyh tez dotyczących lingwistyki („Nie zgadzam się, ogólnie rzecz biorąc, z żadną szkołą odnośnie cech uniwersalnych języka”).
Współczesna lingwistyka skrzywdziła głęboką, dociekliwą i wielowątkową myśl de Saussure'a, przekuwając jego dorobek w prostą formułkę: „język to system znaków”. Sformułowanie to odziera język z tajemniczości (mamy tu do czynienia z pewnymi zalążkami filozofii języka: „w każdym ze stanów języka duch tchnie w materię i ożywia ją”). Najgroźniejsze dla badacza nie jest popełnianie błędów, lecz przeświadczenie, że „z ciemności można uczynić jasność”.
De Saussure stawia tezę o czystej negatywności zjawisk językowych (nie ma w żadnym elemencie języka stałego punktu odniesienia). Bogusławski zauważa, że może prowadzić to do regresu nieskończonego.
Uchwycenie i zdanie sprawy z istoty mowy ludzkiej jest możliwe - po pewnych przewartościowaniach metodologicznych oraz zmianie sposobu prezentacji określonych treści. Tak powyższe założenia realizował sam de Saussure:
- fragmentaryczność myśli (pozostało niewiele jego notatek oraz notatki jego uczniów składające się na Kurs językoznawstwa ogólnego). Ta niekompletność stanowi o sile wyrazu myśli de Saussure'a.
- de Saussure wierzył w siłę metafor, porównań, przykładów (słynny przykład z grą w szachy czy porównanie wypowiedzi do kompozycji muzycznej).
- badacz twierdził, że nie istnieje jedna prawda o języku (jest ich kilka i powinny być zaprezentowane jako logicznie z siebie wynikające).
- istotna jest również paradoksalność wykładu: jej powodem jest dualność języka (pozwala to myśleć czasem o kwestiach wykluczających się, jak np. o tym, że język jest zdeponowany w umysłach użytkowników, będąc zarazem zjawiskiem o charakterze społecznym).
Język jest zmienny w czasie i zarazem ciągły, trwa w czasie. Język nigdy nie umiera sam z siebie; jego śmierć ma charakter zewnętrzny (np. eksterminacja ludu posługującego się danym językiem). Język sztuczny nigdy nie przyjmie się tak jak naturalny, bo nie ożywia go zasada zmiany w trwaniu i trwania w zmienności. Język jest zmienny także w przestrzeni (wędrowiec oddalający się od wioski może być na większym bądź mniejszym terenie zrozumiany przez innych - ciągłość przestrzenna języka).
CZYM JEST LUDZKA MOWA? Paradoks:
- należy zarejestrować maksymalnie dużo szczegółów z języków etnicznych
- należy dokonać wstępnego uogólnienia, które wytyczy pracy kierunek.
Wszelkie dane językowe są efektem działania ukrytego mechanizmu językowego (a więc umysłowego).
W lingwistyce przedmiot rozważań nie jest dany jak w innych naukach: niezależnie od pewnego punktu widzenia. Najpierw istnieją właśnie owe punkty widzenia, a dopiero wybór jednego z nich pozwala zaistnieć przedmiotowi badawczemu. De Saussure opisuje cztery punkty widzenia w lingwistyce:
Synchroniczny, czyli morfologiczny
Diachroniczny, czyli fonetyczny
Anachroniczny, czyli etymologiczny
Historyczny
Dwa pierwsze wynikają z natury języka i konstytuują dwa kolejne punkty. Nie należy mylić ze sobą i mieszać tych perspektyw!
Język jest rodzajem algebry (proporcjonalnym układem tożsamości i różnic). Metodologiczna podstawa de Saussure'a: językoznawstwo nie może obejść się bez logiki matematycznej.
W języku nie zachodzi istotna różnica między tym, co daną rzecz z pozostałych wyróżnia, a tym, co ją stanowi. To, co ustanawia dany znak jest tym, co go wyróżnia (jeżeli dwie wielkości się od siebie nie różnią, to być może nie ma dwóch wielkości, tylko jedna?; wskazanie na różnicę między A i B jest zarazem powołaniem tych znaków do istnienia - jest to problem ontologiczny). Znaki językowe (mające charakter bilateralny) cechuje dowolność, gdyż związek między nimi, a tym, co oznaczają ma charakter czysto arbitralny, nieumotywowany (nie da się uzasadnić, że między czymś a czymś zachodzą jakieś relacje). Bilateralność (zespolenie strony oznaczającej signifiant i oznaczanej signifie) czyni znak nierozerwalnym i zarazem go konstytuuje.
De Saussure chciał opracować osobno gramatykę języka, a osobno gramatykę mowy („dyskursu”), stawiając np. pytanie: „co trzeba zrobić, żeby coś komuś powiedzieć?” (pradziadek pragmatyki).
„Naukowy temperament znosi de Saussure'a w kierunku uogólnienia”.
Ferdinand de Saussure, O dwoistej naturze języka, [w:] tegoż, Szkice z językoznawstwa ogólnego, przeł. M. Danielewiczowa.
Podstawowa zasada semiologii: nie ma w języku ani znaków, ani znaczeń, ale są RÓŻNICE znaków i RÓŻNICE znaczeń: jedne istnieją dzięki drugim, ale nie są w stanie odpowiadać sobie bezpośrednio. W języku wszystko więc sprowadza się do OPOZYCJI, RÓŻNIC (nie ważne ile trwa „a długie”, ważne, że jest w opozycji do „a krótkiego”).
Nie ma różnicy między znaczeniem dosłownym a znaczeniem przenośnym danego słowa, ponieważ znaczenie słów jest rzeczą zasadniczo negatywną. Już samo znaczenie ogólne - możemy wyróżnić tylko w obecności innych wyrażeń, jest ono ograniczone istnieniem opozycji.
Nazwy mają charakter negatywny, znaczą coś jedynie w odniesieniu do pojęć zawierających się w innych wyrażeniach. Słowo dotyka materialnego obiektu wyłącznie przez pewne pojęcie, nie należy więc oczekiwać, że wyrażenia odnoszą się do określonych obiektów materialnych bądź innych.
Rozważany z dowolnego punktu widzenia, język nie zasadza się na zestawie wartości pozytywnych i absolutnych, ale wyłącznie negatywnych lub względnych, nie mających innego istnienia, jak tylko na mocy faktu zachodzenia opozycji między nimi.
De Saussure postuluje trzy sposoby przedstawiania słowa w językoznawstwie:
Słowo to byt istniejący całkowicie poza nami, jego znaczenie to także byt niezależny od nas.
Słowo pozostaje niewątpliwie poza nami, ale jego znaczenie tkwi w nas (tkwi w nas zarówno rzecz materialna, którą stanowi to właśnie słowo oraz rzecz niematerialna, którą stanowi jego znaczenie).
Słowo i jego znaczenie istnieją poza pojęciem, które sobie o nich tworzymy.
Nie istnieje słowo-jednostka, jest tylko RÓŻNICA. Jedynym miejscem istnienia samego słowa jest nasz umysł.
Ważne spostrzeżenie ogólnometodologiczne de Saussure'a: podstawa naukowa objawia się tylko przy jasno sformułowanej metodzie.
Nie ma rzeczy, która mogłaby być rozpatrywana jednocześnie „w swojej epoce” (synchronia, aktualny stan gry na szachownicy) i zarazem „na przestrzeni dziejów” (diachronia, dotychczasowy przebieg danej partii szachów). Nie istnieje spojrzenie synchroniczno-diachroniczne, są one od siebie niezależne. Synchronia i diachronia pozostają w jaskrawej opozycji.
Stefan Amsterdamski
Tertium non datur? Szkice i polemiki
Tradycja i nowatorstwo
Thomas Kuhn swoją Strukturą rewolucji naukowych dał początek nowemu spojrzeniu na przedmiot badania dziedzin humanistycznych, mechanizmy ich rozwoju oraz osadzenie w kulturze.
Zbiorem rozpraw Dwa bieguny postawił pewien problem: jaką rolę w rozwoju wiedzy naukowej odgrywa tradycja, co jest jej nośnikiem, jak jest przekazywana i łamana?
Wszelkie dziedziczenie kultury jest zawsze i kontynuacją i łamaniem tradycji. Stąd zainteresowanie poglądami Kuhna żywe jest w wielu obszarach współczesnej humanistyki. Okazuje się tymczasem, że bardziej szczegółowe badanie konkretnego fragmentu kultury przynieść może interesujące wnioski nie mieszczące się w utartych stereotypach.
Rozwój nauki należy badać biorąc pod uwagę różne kwestie:
* teoriopoznawcze: potrzebne do wyjaśniania,
* historyczne: wykrywanie wątków ciągłych oraz punktów zwrotnych (przeobrażania tradycji) zmusza do śledzenia faktycznego rozwoju poznania naukowego w ogóle,
* socjologiczne: tradycja uprawiania nauki stanowi własność grupową i funkcjonować może jako tradycja wyłącznie wówczas, gdy jest zbiorowo, przez społeczność badaczy akceptowana. Jej łamanie również jest faktem znaczącym, gdy wykracza poza indywidualność.
Panowało niegdyś przekonanie, że w odróżnieniu do innych dziedzin działalności umysłowej - filozofii, literatury, sztuki, religii - rozwój nauki ma charakter kumulatywny, dokonuje się wyłącznie przez przejmowanie i eliminację. Nowe osiągnięcia unieważniają stare w tym sensie, że je w sobie zawierają w ulepszonej postaci, uwolnione od błędów, ograniczeń. Współczesny fizyk miał zatem prawo sądzić, że nie musi czytać w oryginale dzieł Galileusza czy Newtona, a nawet Einsteina, jako że ich osiągnięcia dostępne są w prostszych, lepiej usystematyzowanych opracowaniach następców. Natomiast rzeczą nie do pomyślenia było, aby filozof uznał, że zbędna mu jest bezpośrednia znajomość pism Platona, Kartezjusza czy Kanta. Rozwój zatem dziedzin kultury oprócz nauki dokonuje się raczej metodą pomnażania niż przyjmowania i eliminacji.
Pytanie o wzajemny stosunek tradycji i nowatorstwa w nauce rozstrzygane było (w największym skrócie) stwierdzeniem: „Wierność metodzie narzucającej nieograniczony krytycyzm wobec uzyskanego dorobku”. Odkrycie metody stanowić miało punkt zwrotny w rozwoju nauki. Mistrzowskie zastosowanie metody do trafnie sformułowanego problemu.
Od tego momentu dzieje nauki przestały być w gruncie rzeczy procesem historycznym. Historia nauki nie stanowiła już z założenia fragmentu historii powszechnej czy historii myśli. Wewnętrzny mechanizm rozwoju wiedzy miał być autonomiczny wobec okoliczności zewnętrznych - historycznych, socjologicznych, kulturowych. Opór wobec takiego uproszczonego pojmowania mechanizmów rozwoju wiedzy sprawiał, że epistemologia w sposób równie skrajny traktować musiała poznanie naukowe i jego ewolucję jako wynik niezmiennych, niczym niezapośredniczonych zdolności natury ludzkiej, jako ucieleśnienie jej racjonalności, zawsze takiej samej i na tym samym polegającej. Co z taką racjonalnością się nie zgadzało, musiało być uznawane za rezultat działania czynników pozaracjonalnych, odstępstw od metody, za dewiację.
Taka właśnie wizja nauki została zakwestionowana przede wszystkim przez Thomasa Kuhna. Naszkicowaną wyżej tradycyjną wizję rozwoju poznania naukowego przedstawia on jako produkt rekonstrukcji jego dziejów na gruncie określonych założeń filozoficznych (radykalny empiryzm, pozytywizm), które odrzuca między innymi dlatego, że - jak twierdzi - rekonstrukcja ta nie daje się pogodzić z dziejami rzeczywistymi i z rzeczywistą praktyką badawczą uczonych. Domaga się zatem, aby „teoria wiedzy stosowała się do zjawisk ujawnianych przez historię sztuki”, odrzuca zdecydowanie radykalny empiryzm.
Należy jednak zaznaczyć, że pisanie historii związane jest zawsze z rozmaitymi zabiegami interpretacyjnymi stosowanymi wobec tego, co zwykło się nazywać faktami historycznymi. Nadawanie znaczeń, sposób formułowania pytań, ocenianie ważności zjawisk nie są na tyle filozoficznie niewinne, aby narrację historyczną traktować jako bezstronnego arbitra. Nie ma zespołu takich faktów, które dopuszczałyby rozmaitych interpretacji, odmiennych ich uporządkowań w sensowne całości.
Centralnym pojęciem dla Kuhna dla zdania sprawy z różnicy między rozwojem nauki a innych dziedzin twórczości intelektualnej oraz zerwania z tradycją był paradygmat.
Paradygmat, czyli zespół zasadniczych przekonań i uprzedzeń wspólnoty badaczy, umożliwiający niewracanie już do kwestii raz rozstrzygniętych, rozwiązywanie kolejnych. Zmiany paradygmatów powodują nowe widzenie całego pola badań, jego restrukturyzację, reinterpretację uznanych dotąd faktów, które stają się czym innym, niż dotąd były. Zmiany te są - wbrew kumulatywnej koncepcji rozwoju wiedzy - punktami nieciągłości procesu. W ich rezultacie uczony znajduje się nagle w nowym świecie, który nie całkiem jest porównywalny ze starym, nie koresponduje z nim, wymaga nowego uporządkowania zgodnie z przyjętymi w wyniku rewolucji założeniami teoretycznymi.
W toku paradygmatu, który stanowi consensus omnium uczeni starają się raczej rozbudowywać aktualnie uznane teorie, niż nieustannie podejmować próby ich obalenia. Starają się raczej rozwiązywać niż szukać nowych, raczej bronić niż rezygnować z nich, gdy tylko pojawi się jakaś niezgodność z empirią. W rezultacie napięcie między tradycją a nowatorstwem wpisane zostaje w obraz nauki jako jej cecha immanentna, a nie dająca się uniknąć sprzeczność. Żadna metoda nie może nigdy konkluzywnie rozstrzygnąć , czy w danej sytuacji konfliktu między teorią a doświadczeniem należy poprzez rozmaite interpretacje i dodatkowe hipotezy bronić dotychczasowej teorii, czy też ją porzucić i opowiedzieć się za nową. Nauka normalna nie tylko zatem istnieje, ale istnieć musi, by możliwe były jej rewolucje naukowe, i że rozwoju wiedzy nie można zrozumieć, jeśli owego napięcia między tradycją a nowatorstwem nie traktuje się właśnie jako niezbywalnej cechy twórczości naukowej.
Kuhn odróżnia pojęcie consensus omnium, które nazywa matrycą dyscyplinarną od pojęcia paradygmatu w węższym sensie, to jest okazu wzorca rozwiązywania problemów w danej dziedzinie. Kuhn i inni zwrócili większą uwagę na problemie consensus omnium, na programach badawczych, ideałach nauki, a zwłaszcza na roli czynników pozametodologicznych (socjologicznych).
Filozof nauki dotąd nie bada faktycznych użyć terminów oraz pojęć i jest to jeden z jego grzechów. Można zauważyć u Kuhna tendencję do takiego pojmowania, iż znaczenie terminu wyznaczają jego potoczne, niesformalizowane użycia.
Kuhn nie mówi o rewolucjach w nauce, a raczej o rewolucjach w poszczególnych dyscyplinach, termin nauka używany jest przez niego jako nazwa zbioru rozmaitych dyscyplin, nie zaś jako nazwa pewnego szczególnego rodzaju poznania. Ale zamiast podać coś, co byłoby wspólne wszystkiemu, co nazywamy nauką, można powiedzieć, że nie wcale czegoś jednego, co wszystkim tym zjawiskom byłoby wspólne i ze względu na co stosowalibyśmy do nich wszystkich to samo słowo. Są one natomiast rozmaicie ze sobą spokrewnione. I ze względu na to pokrewieństwo, czy też te pokrewieństwa nazywamy je wszystkie naukami. Amsterdamski proponuje zatem wprowadzenie pojęcia „ideału nauki” - mówiącego o nauce jako o pewnej całości, nie zaś tylko jako o zbiorze różnych dyscyplin. Kuhn natomiast zrezygnował z mówienia o nauce danego okresu jako całości kulturowej i skupił swe zainteresowanie wyłącznie na przemianach w poszczególnych wąskich specjalnościach, uznając, że nie ma czegoś jednego, co wszystkim tym zjawiskom byłoby wspólne. Kuhn zaciera różnicę między nauką normalną a stanem kryzysu w nauce, stanem, który charakteryzuje się brakiem uznanego paradygmatu.
O ewolucji stanowiska Kuhna świadczy chociażby artykuł Obiektywność, sądy wartościujące i wybór teorii. Teza o tym, że reguły metodologiczne nie wyznaczają wyboru teorii w sytuacji konfliktu z doświadczeniem, lecz decyzja w tej kwestii wyznaczona jest przez czynniki pozametodologiczne (pozaracjonalne), zastąpiona zostaje twierdzeniem, iż w sytuacji takiej nie istnieje algorytm stosowania tych reguł. Teraz natomiast Kuhn skłonny jest sądzić, że wybór pomiędzy teoriami dokonuje się na mocy takich metodologicznych kryteriów, jak dokładność, spójność, ogólność, prostota, owocność, z tym wszakże, że nie funkcjonują one jako jednoznaczne kryteria, lecz raczej jako wartości nauki. Zespół tych wartości, nie dających się ułożyć na jednej skali, nie wyznacza jednoznacznie wyboru jednej z konkurujących teorii. Kuhn zdaje się szukać rozwiązania, które tłumaczyłoby przejście od jednej teorii do drugiej jako immanentny proces nauki, proces ścierania się elementów tradycji i nowatorstwa. Amsterdamski twierdzi, że intencją Kuhna jest właśnie historycznie ukształtowany ideał nauki, na którego gruncie dokonują się rewolucje w poszczególnych dyscyplinach.
Kuhn rozróżnia nauki klasyczne od baconowskich. Jest to związane z teorią, która zakłada, iż nowy paradygmat uzyskuje sukces stopniowo, w wyniku rekonstrukcji wizji świata, jaką narzucił poprzedni. Realizacja nowego ideału nauki, który dokonał się w siedemnastym wieku, obejmowała i rodziła coraz to nowe dziedziny wiedzy, formułując je na własną modłę. Pierwszym paradygmatem były według Kuhna nauki klasyczne. Natomiast dyscypliny, które rozwinęły się dzięki stosowaniu metody badawczej przedstawionej przez Bacona Kuhn zwykł nazywać baconowskimi.
Na koniec Amsterdamski zastanawia się, dlaczego zaczęto stosować consensus omnium do nauk przyrodniczych, skoro Kuhn mówił jedynie o historii myśli społecznej oraz historii filozofii. W związku z tym taki paradygmat jest jedynie modna nazwa, użyta zresztą niezgodnie z treścią.
Daria Jaranowska
Louis Hjelmslev „Langue i parole”
W momencie wygłaszania przez Ferdynanda de Saussure swoich wykładów z językoznawstwa ogólnego, lingwistyka była całkowicie ograniczona do badania zmian językowych z punktu widzenia filologicznego i psychologicznego.
F. de Saussure uświadomił nam, że współczesne jemu językoznawstwo zaniedbywało swój prawdziwy przedmiot badań, gdyż zajmowało się nie językiem lecz mówieniem! Dlatego uznał, że trzeba stworzyć nowe podstawy dla językoznawstwa.
Przed F. de Saussure każdy problem lingwistyczny formułowano w terminach indywidualnego aktu mowy. Mowę ujmuję się jako sumę aktów indywidualnych. Dlatego F. de Saussure uznając wagę indywidualnego aktu mowy, stworzył coś zupełnie odmiennego - językoznawstwo strukturalne.
Jedno z podstawowych zadań lingwistyki strukturalnej powinno polegać na badaniu funkcji i ich typów. Hjelmslev ograniczył się do dwu par pojęć : interdependencja ( zależność obustronna między takimi dwoma elementami, z których każdy wymaga w sposób konieczny obecności drugiego) i determinacja (zależność jednostronna między takimi dwoma elementami, z których jeden wymaga w sposób konieczny obecności drugiego).
Z drugiej strony odróżnia komutacje (zachodzi miedzy dwoma elementami planu wyrażania, jeżeli ich zmiana wywołuje zamianę odpowiednich elementów planu treści, albo na odwrót - między inwariantami) od substytucji (gdy dwa człony nie spełniają warunku, o którym była mowa w komutacjach - między wariantami).
Oba terminy langue i parole można rozmaicie interpretować.
Język (langue) można interpretować jako:
Jako czystą formę - zdefiniowaną niezależnie od jej społecznej realizacji i od jej przejawów materialnych,
jako formę materialną - zdefiniowaną z uwzględnieniem określonej realizacji społecznej,
jako po prostu zespół zwyczajów przyjętych w danym społeczeństwie.
Odpowiadają im:
Schemat - jako czysta forma;
Norma - język jako forma materialna;
Uzus - czyli zespół zwyczajów.
Wg Hjemsleva najbliższym znaczeniu wyrazu język jest znaczenie języka jako schematu. Gdyż takie rozumienie języka uwalnia język od wszystkiego, co materialne i umożliwia odgraniczenie rzeczy istotnych od drugorzędnych. Ono jedyne uzasadnia porównanie języka do gry w szachy. Jednak z drugiej strony wie, że nie jest ono wystarczającym składnikiem, gdyż obraz akustyczny to psychiczne odbicie faktu materialnego, które wiąże język z określona substancją i utożsamia go z normą. W rezultacie Hjelmslev uważa, że najtrafniejszą definicją języka byłoby ujęcie go jako systemu znaków.
Zależności:
Norma determinuje (tj. zakłada ) uzus i akt mowy, ale nie odwrotnie. Norma rodzi się z uzusu i aktu mowy, ale nie odwrotnie.
Między uzusem a aktem mowy zachodzi interdependencja: każdy z nich zakłada obecność drugiego.
Schemat jest determinowany przez akt mowy, uzus i normę, ale nie odwrotnie.
Hjemslev zauważa, że zmienna zawsze determinuje stałą, nigdy zaś odwrotnie.
Pytanie 1. Różnica między wyjaśnianiem wg. Bogusławskiego a Zgółki
U Bogusławskiego:
Wyjaśniania to pewny rodzaj działania, dlaczego jest tak ,a tak. Nie ma przyjętych ograniczeń ,nie każde zdanie formułowane w taki sposób można odnieść. W nauce dąży sie do uzyskania odpowiedzi generalizującej. Podstawą wyjaśniania naukowego są empiryczne prawa i nauki i generalizacja ,sądy ogólne nie mogą być puste. Prawidłowości ogóle:
-deterministyczne(charakter bezwyjątkowy, ogólny , ile należy do kat A tyle do B)
-statystyczne(wykrywanie względnej częstości współwystępowania określonych jednostkowych - stan rzeczy z innymi elementami stanu rzeczy)
Ogólne założenia-istotą jest dobranie do pewnego zdania jego racji logicznej. Są dwa warunki:
1.Następstwo może być konstatacją lub autentyczną hipotezą
2.Racja ma większą zawartość informacyjną niż następstwo(wykluczamy tautologię i nie może być sprzeczność między racją a następstwem)
U Zgółki
Wyjaśnianie - dobranie do pewnego zdania jego racji logicznej, czyli wskazanie relacji wynikania logicznego między tą wlaśnie racja a następstwem. Istnienie tej relacji nie może być interpretowane bez nakładania na tą relacje żadnych ograniczen.
Pytanie 40. Jak Hjemslev przedstawia koncepcję języka
Hjemslev podsumowuje swoje rozważania stwierdzeniem, iż najbliższe znaczenie wyrazu „język” to ujęcie języka jako schematu. (francuski w alfabecie morsa i francuski dla gluchoniemych to ten sam język, co francuski „normalny”). Rozumienie języka jako schematu wg Hjemsleva uwalnia język od wszystkiego co materialne i umożliwia ograniczenie rzeczy istotnych od tych drugorzędnych. Ono jedynie uzasadnia porównanie języka do gry w szachy, w której materialne tworzywo figur nie ma żadnego znaczenia, natomiast o wszystkim decyduje ich liczba oraz rozmieszczenie.
Z drugiej strony Hjemslev zauważa, że pomimo dominującego pojęcia języka jako schematu, nie jest ono wystarczającym składnikiem, ponieważ obraz akustyczny to psychiczne odbicie faktu materialnego, który wiąże język z określoną substancją i utożsamia go z normą. W innych miejscach „Kursu językoznawstwa ogólnego” Hjemslev mówi, że język to ogół zwyczajów językowych (uzus). Ostatecznie Hjemslev stwierdza więc, że jedyną poprawną definicją języka jest ujęcie go jako systemu znaków. Dlatego też próbuje ustalić zależności pomiędzy językiem - schematem, językiem - normą, językiem uzusem.
Hjemslev dochodzi do wniosku, że schemat języka to tylko gra. Zauważa ze wszędzie zmienna determinuje stałą, nie zaś odwrotnie.
Pytanie 13: Teoria paradygmatów Kuhna
Thomas Kuhn(1922-1996) był fizykiem i filozofem amerykańskim (Cambrige) - twórca teorii paradygmatu. Teorii ujmującej w sposób syntetyczny mechanizm rozwoju nauk. Autor dwóch głównych dzieł : ,,Struktura ewolucji naukowych(1962)- pol. 1968,
,,Dwa bieguny .tradycje i nowatorstwo w badaniach naukowych (1977)-pol. 1985. Przed śmiercią udzielił wywiadu, który stanowi pozycję książkową ,,Droga po strukturze -wywiad rzeka z autorem słynnej struktury rewolucji naukowej(2000)-pol. 2003.
Pojęcie paradygmatu nie jest zdefiniowane, kłopoty te są uzasadnione (paradygmat to rodzaj wspólnoty przekonań założeń, modeli przekonania badawczego, charakterystyczny dla przedstawicieli danej dyscypliny). Paradygmat jest podzielony przez czołowych przedstawicieli. Funkcjonowanie paradygmatu umożliwia kumulację i rozwój postępu. Każdy następny paradygmat będzie reprezentował wyższy etap rozwoju niż poprzedni. Rozwój nauki odbywa się według ściśle określonych etapów: powtarzalność. Zmiana paradygmatu wg Kuhna:
-proces kształtowania się dyscypliny (prenauka), sukcesywne kształtowanie się paradygmatu (nauka normalna), kryzys, rewolucja naukowa, zaczyna się kształtować nowa nauka. Badacze nie potrafią rozwiązywać zasadniczych problemów jakie stawia im dyscyplina. Dla każdego paradygmatu charakterystyczne jest to że ma swoja metodologię. Wypracowanie nowej metodologii nie może powstać szybko. W tym czasie kiedy upada paradygmat, dochodzi do głębszej krytyki. Nowe metody kształtują sie przez dłuższy czas. Metodologia nie wyklucza ewentualności występowania w danym czasie czy jednego czy więcej paradygmatów. Metodologia Kuhna sprawdza się w naukach przyrodniczych, które dysponują prawami ściśle ogólnymi. Im większa jest konkurencyjność programów badawczych, tym większe jest ścieranie się paradygmatów na niższych szczeblach dyscypliny. Program metodologiczny Kuhna wykorzystywał spojrzenie na naukę jakie cechowało Ludwiga Wittgensteina-1953. Ta różnica jest głęboka, że trudno jest znaleźć takiego uczonego, który by tak zanegował program badawczy. Wittgenstein operuje pojęciem - gra. Nie ma możliwości odpowiedzieć na pytanie jakie są wspólne cechy wszystkich gier (ogranicza się do rozważań o niektórych grach). Służy to temu by pokazać ogromne zróżnicowanie ludzkich działań, by pokazać co określa mianem podobieństwa rodzinnego. Przeszło to do historii nauki (teoria podobieństwa, wszystkie gry są do siebie podobne jak członkowie rodziny. Różnice, które istnieją uniemożliwiają charakterystyczną całość. Podobnie jest u Kuhna z paradygmatem. Nie potrafił podać ścisłej definicji tego pojęcia. W kształtowaniu paradygmatu ściera się to, co należy do historycznego punktu widzenia (tradycja ściera się z nowatorstwem). Kuhn uważał, że bardzo trudno jest mówić czym jest paradygmat.. Łatwiej odnosić tą kategorię do poszczególnych dyscyplin.
To jest z notatek z meila ogólego - nie wiem kto jest autorem tego meila!
Pytanie 24. Jaka jest różnica pomiędzy poprawną definicją terminu naukowego a poprawną definicją jednostki leksykalnej?
Definicja jednostki leksyklanej - właściwości wyrażeń językowych
Definicja terminu naukowego - opisuje świat, rzeczywistość pozajęzykową a nie samo wyrażenie języka
Tej odp nie jestem pewna na 100 %
Pytanie8. Na czym polega asymetria pomiędzy weryfikacjonizmem a falsyfikacjonizmem? Kto, kiedy i w jakim dziele (+ gdzie) zauważył i opisał to zjawisko?
Asymetria weryfikacji i falsyfikacji Zachodzi stosunek oparty na asymetrii zdań uniwersalnych nie da się wyprowadzać ze zdań jednostkowych, mogą być ze zdaniami jednostkowymi sprzeczne. Fałszywość można wykryć na podstawie określonej wartości logicznej zdań jednostkowych
Autor: K. Popper
Dzieło:”Logika ogólna”
Ja jestem pewna tej odpowiedzi!!!
Pytanie 40. Destrukcjonizm (co to, kto,gdzie)
Destrukcjonizm polega na dążeniu do negowania, demaskowania, demitologizowania, podważania, kwestionowania i destrukcji w stosunku do całej zastanej kultury, w stosunku do wszystkich istniejących w niej struktur, schematów, instytucji itd. Chociaż moderna odrzucała tzw. przesądy, zwłaszcza religijne i obyczajowe, to wysoko jednak ceniła prawo, ład , porządek i rozum naukowy. Postmoderna natomiast wszystko to odrzuca a stawia na nieograniczoną niczym wolność, otwartość, tolerancję, pluralizm i globalizm.
F. de Saussure'a
„Kurs językoznawstwa ogólnego”
Pytanie 29. Różnica miedzy WYJAŚNIANIEM nomotetycznym a idiograficznym
Wyjaśnianie nomotetyczne: klasyczne podejście naukowe mające za cel wykrywanie i formułowanie ogólnych praw naukowych
Wyjaśnianie idiograficzne: zajmujemy się opisem i wyjaśnianiem zjawisk zaistniałych jednorazowo i niepowtarzalnych, nie formułujemy ogólnych praw, natomiast koncentrujemy się na konkretnych faktach jednostkowych
Wyjaśnianie nomotetyczne: hipotetyczne, konstatacyjne
Wyjaśnianie idiograficzne : analogizujące i rozwijające: inkorporujące i specyfikujące
Pytanie 11 Klasyfikacja poprawna logicznie
Klasyfikowanie - przeprowadzanie wielostopniowych podziałów logicznych
Podział logiczny - tj. operacja na zbiorze w wyniku której otrzymuje się przeciwstawne podzbiory, a podział, który został przeprowadzony musi być adekwatny i rozłączny. Adekwatny czyli suma podzbiorów, które są członami podziału równa się dzielonemu zbiorowi. A rozłączny tzn uzyskane podzbiory nie mają elementów wspołnych.
Twoja odp była troche nie jasna dlatego opracowałam to jeszcze raz sama
Pytanie 16. 4 podstawowe paradygmaty
Paradygmat indukcjonistyczny - czyli indukcjonizm, dominował w nauce drugiej polowy XIX wieku i pierwszej polowy XX. Głównym zadaniem nauki w ramach tego paradygmatu było dochodzenie od faktów i zdań bardziej szczegółowych do uogólnień. Sformułowanie zdania ogólnego można było osiągnąć poprzez obserwacje i eksperymenty. W związku z tym podstawą tej nauki były zdania obserwacyjne.
Paradygmat weryfikacjonistyczny, czyli weryfikacjonizm zadomowił się w nauce w okresie międzywojennym. Jest odwrotnością indukcjonizmu. Polega więc na potwierdzeniu zdań ogólnych, zdaniami szczegółowymi (zastąpienie indukcji dedukcją). Tworząc naukę w ramach paradygmatu weryfikacjonistycznego należy wyjść od hipotetycznego zdania ogólnego, zdanie to następne trzeba potwierdzić empirycznie. Jeśli poprze prowadzeniu wielu prób sprawdzających zdanie ogólne nie znajdzie się żadnego zdania szczegółowego, które byłoby z nim sprzeczne, to sprawdzane zdanie ogólne staje się zdaniem ogólnym potwierdzonym
Paradygmat falsyfikacjonistyczny czyli falsyfikacjonizm swoją obecność zaznaczył po II wojnie światowej i do lat 70 tych XX wieku był paradygmatem dominującym. Źródła tego paradygmatu pojawiły się w teorii Karla Poppera. W falsyfikacjonizmie naukę uznaje się za zbiór hipotez, obowiązujących do momentu znalezienia faktów sprzecznych z daną hipotezą. Po odnalezieniu tych faktów, hipotezę dotychczasową należy zastąpić nową hipotezą lub ją odrzucić. Nowa hipoteza powinna być ogólniejsza od poprzedniej, a tym samym bardziej falsyfikowana.
Paradygmat postmodernistyczny czyli postmodernizm. Istotne są tu dwie koncepcje: tzw. anarchistyczna koncepcja wiedzy oraz tzw. koncepcja dekonstrukcji. Ta pierwsza polega na odejściu od zasad racjonalizmu i stosowaniu niekonwencjonalnych środków rozumienia rzeczywistości. Druga koncepcja spostrzega naukę jako zbiór tekstów, w których wbudowane są inne teksty. Nauka polega więc tutaj na nieustannym tworzeniu nowych tekstów, które można uznać za teksty naukowe. Zadaniem dekonstrukcji jest rozłożenie tego zbioru tekstów na poszczególne sensy, a potem konstruowanie łagodnych przejść od sensu A do całkowicie innego od sensu a sensu B.
Pytanie 20 . Które założenia F. de Saussure'a dotyczą weryfikacjonizmu?
- weryfikowanie
tj. potwierdzanie zdań ogólnych zdaniami szczegółowymi.
Przejawem tego paradygmatu w językoznawstwie jest
Strukturalizm, którego przedstawicielem był właśnie F. de Saussure.
- relatywizm: (strukturalizm) wyodrębnił
się dzięki rozpatrywaniu języka jako społecznie relewantnego
systemu kodowania informacji, w którym immanentne funkcje
jednostek językowych mniejszego formatu mają pierwszeństwo
wobec jednostek większego formatu. Strukturaliści wprowadzili
nowe zasady opisu lingwistycznego: klasyfikację synchroniczną,
analizę dystrybutywną, modelowanie, formalizację, opis kwantytatywno-
statystyczny, eksperyment psycholingwistyczny i in.
Pytanie 3. Konotacja wg. Buhlera.
U Buhlera konotacja jest interpretowana na zasadzie asocjacji. Ta istota konotacji z lat 30 - tych dopiero w ostatnich latach jest wykorzystywana.
U Buhlera konotacja rozumiana jest jako współnazywanie, współoznaczanie.
Np. nie ma białości jako takiej, jest biały przedmiot.
Pytanie 21. Falsyfikacjonizm Poppera
Falsyfikacjonizm jest to zbiór procedur metodologicznych, które, w opinii autorów tego stanowiska, chcący się przyczynić do rozwoju wiedzy naukowej badacz musi stosować. Osią tego ujęcia jest przekonanie, że dla teorii naukowych nie należy szukać potwierdzenia (weryfikacji), lecz kontrprzypadków, mogących badanej teorii zaprzeczyć. Należy zatem dążyć do sfalsyfikowania teorii (wykazania jej niezgodności z doświadczeniem), a jeśli próba się nie powiedzie uznać, tymczasowo, teorię, aż do następnej próby falsyfikacji, która dla teorii skończyć się może obaleniem. Falsyfikacjonizm występuje w trzech odmianach: dogmatycznej, naiwnej i wyrafinowanej. Niekiedy używa się też określenia "hipotetyzm", zwłaszcza dla późniejszych wersji falsyfikacjonizmu.
Falsyfikacjonizm Poppera scharakteryzować można za pomocą następującego zespołu fundamentalnych twierdzeń:
Myślenie to rozwiązywanie problemów, dokonujące się drogą dedukcji. Umysł nasz konstruuje pojęcia, domysły, teorie i hipotezy które później poddaje krytycznej obróbce. Ta praca umysłu nie ma ani początku ani końca.
Nie istnieją ani żadne pojęcia pierwotne, ani pierwotne elementy poznania, które umysł ma wydobyć na jaw. Wszelka praca umysłu ma tymczasowy charakter, w tym sensie, że nie tworzy on, ani nie odkrywa żadnych niezmiennych praw. To, co dziś uznane zostało za pewne, może jutro zostać poddane krytycznej dyskusji, bowiem struktury jakie podmiot narzuca na świat są zmienne. Ich narzucanie dokonuje się metodą prób i błędów. Poznający podmiot odpowiada na wynikłe w trakcie rozwoju wiedzy pytania - sytuacje problemowe. Wiedza mająca tymczasowy charakter służy przetrwaniu gatunku ludzkiego i przystosowaniu się do wrogiego środowiska.
Celem nauki jest tworzenie nowych, coraz bardziej śmiałych, bo opisujących większą klasę zjawisk, teorii.
Krytyczny racjonalizm
Pytanie 22. De Saussure i jego język w znaczeniu formy a nie substancji.
Język jako system relacji jest formą, a nie substancją. Forma ta dotyczy z jednej strony płaszczyzny fonicznej, a z drugiej pojęciowej, które ze swej strony są warunkowane naturą znakową języka. Do formy danej płaszczyzny (fonicznej lub pojęciowej) należy tylko to, co wywołuje konsekwencje na płaszczyźnie przeciwstawnej, reszta należy do substancji. Wynika to z zasady:
nierozerwalności signifiant i signifie.
istniejącej między nimi proporcjonalności
W ten sposób język jako forma referencjalna pośredniczy między dźwiękami a myślami.
Język jako urządzenie pośredniczące między obu substancjami: foniczna i pojęciową jest
Równocześnie czynnikiem kształtującym i porządkującym w ich zakresie.
Ta odppochodzi z Internetu, informacje dodatkowe znajdziesz na http://język-polski.pl/lingwistyka/269-strukturalizm/566-strukturalizm-ferdinanda-de-saussurea.html
Pytanie 18. Wyjaśnianie naukowe i jego schemat
Wyjaśnianie - dobranie do pewnego zdania jego racji logicznej, czyli wskazanie relacji wynikania logicznego między tą właśnie racją a następstwem. Istnienie tej relacji nie może być interpretowane bez nakładania na tą relacje żadnych ograniczeń.
Schemat:
Typy wyjaśnień
Nomotetyczne idiograficzne
- hipotetyczne - anologizujące
- konstatacyjno hipotetyczne - rozwijające
Inkorporujące
specyfikujące
Pytanie 23. Dlaczego zdaniem A. Bogusławskiego w językoznawstwie nie może istnieć wyjaśnianie nomotetyczne?
W językoznawstwie możemy mieć doczynienia tylko z wyjaśnieniami idiograficznymi. Powodem tego jest to, że nie ma takich tez językoznawczych, które mogłyby się odnosić do zbiorów otwartych, gdzie zależność między R a N byłaby przesądzona przez odwołanie się do zdania ogólnego. Każda generalizacja językowa jeżeli nie jest tautologią, to musi odnosić się do pewnych rzeczywistości jednostkowych stanów rzeczy. Chodzi tu o wykluczenie wyjaśnień, które nazywamy pseudowyjaśnieniami np: zdania fałszywe, bo nie są prawdziwe-takie są sądy tautologiczne.
To tez mam z tego meila ogólnego wysłanego do wszystkich
Odpowiedzi:
Pytanie 7:
WYJAŚNIANIE NAUKOWE. PODAJ RÓŻNICE MIĘDZY IDIOGRAFICZNYM A NOMOTETYCZNYM.
Wyjaśnianie-operacja, która ma na celu odpowiedzieć na pytanie ,,dlaczego jest tak a tak?”. Przedmiotem wyjaśniania naukowego jest ogólne zdanie, które można wyjaśniać w bardzo różny sposób.
WYJAŚNIANIE
Nomotetyczne Idiograficzne
Hipotetyczne konstatacyjno- rozwijające analizujące
Hipotetyczne inkorporujące specyfikujące
Wyjaśnianie idiograficzne- prawdziwość zdań, które są racją i następstwem musi być przesądzona. Nie może być zdań ogólnych negatywno-egzystencjalnych. O co tu chodzi?
Wyjaśnianie nomotetyczne-dąży do formułowania ogólnych twierdzeń
Istota wyjaśniania-szuka się racji logicznych, z których wynika twierdzenie, które względem racji jest następstwem. Racja to zdanie, z którego wynikałoby, dlaczego np., dąb traci liście, bo....z racji wynika następstwo, nie odwrotnie
.
Wyjaśnianie idiograficzne a nomotetyczne
Wyjaśnianie to pewien rodzaj działania ,dlaczego jest tak i tak. Podstawą wyjaśniania naukowego są empiryczne prawa i nauki, generalizacja, sądy ogólne nie mogą być puste .
Wyjaśnianie nomotetyczne: hipotetyczne, konstatacyjne
Wyjaśnianie idiograficzne: analogizujące i rozwijające: inkorporujące i specyfikujące
W językoznawstwie możemy mieć tylko doczynienia z wyjaśnieniami idiograficznymi. Powodem tego jest fakt, że nie ma takich tez językoznawczych, które mogłyby sie odnosić do zbiorów otwartych, gdzie zależność między R a N byłaby przesądzona przez odwołanie się do zdania ogólnego. Każda generalizacja językowa jeżeli nie jest tautologią to musi odnosić się do pewnych rzeczywistości jednostkowych stanów rzeczy. Chodzi tu o wykluczenie wyjaśnień, które nazywamy pseudowyjaśnieniami np. zdania fałszywe (tautologia).
Pytanie 30
CARL POPPER I JEGO TEORIA METODOLOGII.
Karol Popper (1902-1994), autor ,,Logiki odkrycia naukowego” wydanej w 1934r.”Wiedza obiektywna” 1972r. Hipotetyzm, Falsyfikacjonizm i racjonalny krytycyzm to podstawy jego metodologii. Według Poppera całą wiedza jest hipotetyczna, należy ją magazynować poprzez 3 poziomy („Wiedza obiektywna”)
istnieje świat przedmiotów i stanów fizycznych
istnieje świat stanów psychicznych człowieka
świat obiektywny ( wytworów ludzkiego myślenia).
Wiedza obiektywna ma zasadniczy wpływ na kształtowanie stanu świadomości poszczególnych ludzi. Dochodzi się do tej wiedzy poprzez poszukiwanie dobrych wyjaśnień.
Hipotetyzm - twierdzenia naukowe podlegają krytyce i rewizji, trzeba je eliminować, zastępując lepszymi twierdzeniami.
Racjonalny krytycyzm - podstawą jest rozwój ludzkiej wiedzy. Najpierw wysnuwa się problem badawczy, później formułuje się hipotezę, poddaje się ją krytyce. Krytyka hipotezy prowadzi doi nowego problemu. Cykl nie ma końca.
Pierwotność teorii względem doświadczenia- najpierw ustała się zasady postępowania badawczego i aparat, później odnosi się aparat do danych, które stanowić mają przedmiot badań
Realizm, antypsychologizm, intuicjonizm, historycyzm - trzeba znać stan badań w odniesieniu do problemu i wiedzieć jak proponowano wcześniej rozwiązanie problemu. Teorie wcześniejsze powinny być zawsze traktowanie jako konkurencyjne
Antyindukcjonizm i redukcjonizm - Popper odrzuca metody indukcyjne.
Asymetria weryfikacji i falsyfikacji - falsyfikowalność to kryterium rozstrzygalności w naukach empirycznych (jakich?) hipotezy falsyfikowane można uważać za naukowe! Jeden sąd niezgodny z hipotezą jest wystarczający, żeby uznać sąd za fałszywy, przy weryfikacji na odwrót.
Falsyfikacjonizm
Wewnętrzna niesprzeczność teorii jako warunek jej naukowości. - teoria wewnętrznie sprzeczna jest informacyjnie pusta, dlatego można z niej wyprowadzić dowolny sąd
Uniwersalność, ścisłość i prostota teorii jako warunku jej naukowości
Obiektywizm i tymczasowość teorii - istotą obiektywizmu teorii polega na tym, że teoria lub twierdzenie naukowe mogą podlegać sprawdzaniu.. każde twierdzenie naukowe musi pozostać tymczasowe - można je uznać za prawdziwe tylko w określonym czasie
Nauki podlegają krytyce, dlatego mają charakter hipotetyczny.
Odp 32
KLASYFIKACJA POPRAWNA LOGICZNIE
Musi być oparta na wielostopniowych podziałach logicznych
Podział logiczny musi być rozłączny i adekwatny (ja mam rozłączny i wyczerpujący)
Podział rozłączny i adekwatny jest podziałem dychotomicznym wg cech kontradyktorycznym.
Rozłączny czyli - żadne dwa podzbiory nie mogą mieć wspólnych elementów, suma podzbiorów, które powstaną musi być równa temu zbiorowi, który stanowił punkt wyjścia. Istotą podziału logicznego jest podział dychotomiczny - na 2 części wg cech wykluczających się (wzajemnie sprzecznych). Drugi człon podziału względem pierwszego to dopełnienie logiczne, jeżeli pierwszy człon jest bez negacji - drugi musi zawierać negację. Podziły oparte na wyliczeniu nie zgodne z podziałem logicznym, bo wyliczenie nie ma końca.
odp 23
DLACZEGO WEDŁUG BOGUSŁAWSKIEGO W JĘZYKOZNAWSTWIE NIE MOŻNA STOSOWAĆ WYJAŚNIANIA NOMOTETYCZNEGO?
Wyjaśnianie to operacja mająca na celu odpowiedzieć na pytanie DLACZEGO JEST TAK A TAK. Wyjaśnianie nomotetyczne
(hipotetyczne i konstatacyjno- hipotetyczne) jest wyjaśnianiem idiograficznym. Wyjaśnianie nomotetyczne formułuje prawa ściśle ogólne (wykrywanie i formułowanie ogólnych prawdziwości). Według Bogusławskiego nie ma praw ściśle ogólnych opisujących język. Istnieją reguły od których mogą być wyjątki. Nie może być zdań ogólnych negatywno-egzystencjalnych.
Odp13
Teoria Kuhna
T.Kuhn (1922-1996),twórca teorii paradygmatu, teorii ujmującej w sposób syntetyczny mechanizm rozwoju nauk. ,,Struktura ewolucji naukowych"-1962,pol1968;,,Dwa bieguny ,tradycje i nowatorstwo w badaniach naukowych"-1977,pol1985.
Uważał, że pojęcie paradygmatu nie jest zdefiniowane, a kłopoty są uzasadnione, gdyż paradygmat to rodzaj wspólnoty przekonań ,założeń, modeli przekonania badawczego dla danej dyscypliny. Paradygmat jest podzielony na czołowych przedstawicieli. Funkcjonowanie paradygmatu umożliwia kumulację i rozwój postępu. Każdy następny paradygmat będzie reprezentował wyższy etap rozwoju niż poprzedni. Rozwój według ściśle określonych etapów :powtarzalność. Zmiana paradygmatu wg Kuhna :proces kształtowania się dyscypliny(prenauka),sukcesywne kształtowanie się paradygmatu(nauka normalna),kryzys, rewolucja naukowa, zaczyna się kształtować nowa nauka. Badacze nie potrafią rozwiązywać zasadniczych problemów jakie stawia im dyscyplina. Dla każdego paradygmatu charakterystyczne jest to, że ma swoją metodologię. Wypracowanie nowej metodologii nie może powstać szybko. W tym czasie kiedy upada paradygmat dochodzi do głębszej krytyki. Nowe metody kształtują się przez dłuższy czas. Metodologia nie wyklucza występowania w tym samym czasie jednego czy więcej paradygmatów. Metodologia Kuhna sprawdza się w naukach przyrodniczych, które dysponują prawami ściśle ogólnymi. Program metodologiczny Kuhna wykorzystywał spojrzenie na naukę jakie cechowało Ludwiga Wittgensteina-1953.Operuje on pojęciem gra ,nie ma możliwości odpowiedzieć na pytanie jakie są cechy wszystkich gier> przeszło to do historii nauki(wszystkie gry są do siebie podobne jak członkowie rodziny, różnice, które istnieją uniemożliwiają charakterystyczną całość)Podobne spojrzenie jest Kuhna na pojęcie paradygmatu. Nie potrafił go ściśle określić, w kształtowaniu się paradygmatu ściera się to co historyczne z tym co nowatorskie.
Odp 16
Paradygmaty w językoznawstwie
Cztery paradygmaty
1.Indukcjonizm - zgodnie z główną metodą badawczą (indukcją) istota polegała na przechodzeniu od zdań szczegółowych do ogólnych. Punkt wyjścia obserwacja i elementy dotyczące konkretnych faktów - i tak formułowano hipotezy ogólne.
2.Weryfikacjonizm- ukształtowanie w filozofii Koła Wiedeńskiego (lata XX przez M Schlick,R.Carnapa). Sądy ogólne ,hipotezy w postaci zdań ogólnych. Dążył do potwierdzenia takich sądów za pomocą zdań szczegółowych
3.Falsyfikacjonizm-ukształtowany przez K.Poppera lata 30 XX. ,,Logika odkrycia naukowego"-1934. Obalenie hipotez, które są z nimi sprzeczne
4.Postmodernizm-lata 70 XX w. Różnice między nim a pierwszym paradygmatem- dla pierwszych podstawowy cel sprowadzał się do wyjaśnienia otaczającego ludzi świata. Postmodernizm dążenie do rozumienia i interpretowania rzeczywistości otaczającej człowieka .Ogólne- dekonstrukcjonizm, anarchistyczna koncepcja wiedzy .Takie szkoły badawcze, dla których podstawową rolę odgrywa indywidualne podejście badaczy.
Odp 19 Klasyfikowanie i podział logiczny wyjaśnij na przykładach
Klasyfikowanie- polega na wielokrotnym dokonywaniu podziałów logicznych. Warto uchwycić zasady podziału logicznego, który jest taką operacją na zbiorze w wyniku czego otrzymuje się 2 przeciwstawne podzbiory- rozłączny i adekwatny.
Podział rozłączny- polega na tym, że nie ma takich elementów, które by należały równocześnie do 2 podzbiorów(wyklucza elem. wspólne)
Adekwatność- cecha podziału logicznego; suma tych podzbiorów, które wynikają z podziału, jest równa dzielonemu zbiorowi. Zapewnia to, że każdy elem należący do nadrzędnego zbioru znajdziecie się w jakimś podzbiorze.
Istota podziału logicznego sprawdza się do tego, że jest to podział dychotomiczny na wykluczające się podzbiory(wg cech kontradyktorycznych , czyli sprzecznych) Zawsze ma dwie części, które są od siebie niezależne, wykluczają się nawzajem.
musi być oparte na wielostopniowych podziałach logicznych,
podział log musi być rozłączny i adekwatny (rozłączność - dwa zbiory które są efektem podziału nie mają żadnych elem. wspólnych, adekwatność - każdy elem. znajdzie miejsce w jednym z dwóch podzbiór, które są efektem podziału - podział „bez reszty”)
podział r. i a. - jest podziałem dychotomicznym wg cech kontradyktorycznym.
Odp. 2 Kto i kiedy wprowadził kontekst odkrycia i kontekst uzasadniania oraz na czym polegał?
Wprowadzona do metodologii przez H. Reichenbacha w 1949r.w Doświadczenie i przewidywanie. Istotą jest to, że I człon opozycji (kontekst odkrycia ) nie może być brany pod uwagę (usuwa się go), bierzemy tylko kontekst uzasadnienia - to jest antypsychologizm. Kontekst odkrycia może być przedmiotem metodologii nauk.
Odp. 15 zasada redukcjonizmu-kto kiedy i gdzie ja wprowadził, opisać
Zasada redukcjonizmu Wiliam Ockham, nazwa pochodzi od angielskiego XIV w. filozofa; autor „Sumy logicznej” - brzytwa Ockhama, usunięcie, wyrzucenie. Należy eliminować z nauki wszelkie wielkości zbędne, za których istnieniem nie przemawiają racje logiczne ani dane empiryczne. Należy za punkt wyjścia przyjmować realnie istniejące wielkości, a nie aparat opisywany, który do analizy mógłby się nie przydać. Należy wychodzić od zjawisk, a potem je nazywać, odnosić określony aparat. Błędne są wyliczenia wielu typów, podtypów części zdania, za wyróżnieniem części nie stoi nic innego niż termin
Odp. 3 Konotacja wg Buhlera
Konotacja (kategorialna bądź składniową) według Karola Buhlera jest otwieraniem miejsc dla innych wyrazów. Każdy czasownik otwiera co najmniej jedno miejsce dla innego wyrazu- miejsce, w które wstawić można nazwę wykonawcy czynności. W ten sposób powstaje podstawowy związek składniowy, czyli połączenie podmiotu i orzeczenia
Dotyczy wyrazów nazywających, które zawierają w sobie określenie istoty nazwanej rzeczy; współnazywanie
Konotacja jest typem oddziaływań semantyczno-semantycznych. Występują dwa rodzaje konotacji: składniowa i kategorialna .W przypadku konotacji składniowej nadrzędnik wymusza na podrzędniku określonej formy, gdyż podrzędnik nie może samodzielnie występować w pozycji składniowej a jedynie współwystępować, a konotacja kategorialna zachodzi wtedy kiedy nadrzędnik określa podrzędnikowi kategorię i klasę, w której musi wystąpić.
Odp.8 Na czym polega asymetria pomiędzy weryfikacjonizmem a falsyfikacjonizmem. Kto, kiedy i w jakim dziele zauważył i opisał?
Te procedury są względem siebie asymetryczne; jeden fakt zgodny z daną hipotezą nie jest wystarczającym warunkiem jej prawdziwości, natomiast jeden fakt niezgodny z daną hipotezą jest wystarczającym warunkiem jej fałszywości. K. Popper, „Logika ogólna” 1934rok (ale z tym nie jestem pewna!!)
Rozdział pierwszy - Prenaukowe sądy o języku
PRENAUKA - Okres, który istnieje zanim dana nauka zacznie być uprawiana w ramach swojego paradygmatu bądź paradygmatów. Okres ten trwał do XIX wieku.
Prenaukowa wiedza może zbliżać się do wiedzy intuicyjnej (potocznej) lub być wiedzą pozyskaną w ramach innej nauki.
Spór naturalistów i konwencjonalistów - spór pomiędzy nimi podzielił filozofów greckich na dwa obozy. Dotyczył pytania, czy znaki językowe są zdeterminowane przez naturę.
Naturaliści uważali, że forma nazw jest zdeterminowana przez rzeczywistość. Najważniejszym argumentem było istnienie dźwiękonaśladowczych wyrazów typu kukułka.
Konwencjonaliści uważali, że formę nadaje się nazwom na mocy konwencji. Jest to teza powszechnie przyjmowana również dziś.
Owoce sporu: Złagodzona teza umiarkowanych naturalistów zakładała ściślejszy związek języka z rzeczywistością w odległych czasach, dzięki czemu podjęto pierwsze badania etymologiczne. Pod wpływem etymologii pojawiła się także teza o symbolicznym charakterze podstawowych dźwięków języka (teza powracająca co jakiś czas). Zauważono też, że w języku jest wie analogii, np. na polu odmiany wyrazów. Dzięki wymianie poglądów coraz lepiej poznawano język grecki i mogły powstać pierwsze gramatyki.
Podział wyrazów przez Arystotelesa - Arystoteles podzielił wyrażenia wchodzące w skład zdania na nazwy (imiona, rzeczowniki), predykaty (słowa, czasowniki), funktory (spójniki). Dzięki temu można było lepiej opracowywać wzorce odmiany wyrazów - osobno wzorce koniugacyjne, deklinacyjne...
Rozdział drugi - językoznawstwo hostoryczno-porównawcze jako przejaw paradygmatu indukcjonistycznego
Zdania obserwacyjne. Indukcjonizm był paradygmatem panującym w XIX wieku, więc językoznawstwo historyczni-porównawcze również mieściło się w jego obrębie. Wychodzono od zdań obserwacyjnych, przekształcano je w zdania szczegółowe, a następnie uogólniano.
Nauka dziewiętnastowieczna była pod wpływem teorii Darwina, przez co kluczowe są dla niej pojęcia historycyzmu, genetyzmu i ewolucjonizmu. Językoznawcy starali się poznać dzieje języka i badali je w różnych fazach rozwoju, głównie poprzez obserwacje zabytków językowych. Ponadto porównywali wyniki obserwacji różnych języków, stąd nazwa językoznawstwo historyczno - porównawcze. Największe osiągnięcia mieli Młodogramatycy, którzy sformułowali szereg praw językowych, które są już sądami ogólnymi.
Przykładem obserwacji ówczesnych językoznawców jest występowanie jerów w języku dawnych Słowian.
Uogólnienia - sądy wywiedzione z obserwacji szczegółowych. Według wniosku ogólnego językoznawstwa historyczno-porównawczego wszystkie podobne do siebie języki pochodzą od jednego przodka. Jako przykład Bobrowski wymienia rodzinę języków indoeuropejskich, które pochodzą od hipotetycznego przodka - języka praindoeuropejskiego. Poszczególne języki różnicowały się zgodnie z prawami językowymi (głównie fonetycznymi).
Młodogramatykom zarzucano niesystemowe podejście do języka, co spowodowało zmianę myślenia u kontynuatorów (np. Jerzy Kuryłowicz).
Rozdział trzeci - strukturalizm jako przejaw paradygmatu weryfikacjonistycznego
Przejawem paradygmatu weryfikacjonistycznego w językoznawstwie jest strukturalizm.
Podstawowa teza strukturalistów - język jest systemem (strukturą) znaków. Nauka o języku opiera się na szeregu opozycji.
Prekursorzy - Jan Baudouin de Courtenay i Mikołaj Kruszewski. Postulowali rozgraniczenie pomiędzy statycznym i dynamicznym sposobem patrzenia na zjawiska językowe. Proponowali oddzielić język od mówienia.
Twórca paradygmatu - szwajcarski językoznawca Ferdinand de Saussure. Kurs językoznawstwa ogólnego - 1916 r - notatki z wykładów zebrane przez jego uczniów.
Opozycja langue - parole:
Język - la langue: - system
byt abstrakcyjny i społeczny
istnieje w świadomości zbiorowej jako suma świadomości jednostkowej
byt trwały - zmiany ewolucyjne
system znaków
Mówienie - la parole - tekst
konkretne
jednostkowe
momentalne
Opozycja synchronia - diachronia - aby ją zobrazować, de Saussure posługuje się metaforą szachów . Można obserwować sytuację w danym momencie (synchronia) lub jako rozgrywkę w czasie (diachronia).
Opozycja formy i treści - dotyczy znaku językowego. Znak składa się x formy, czyli strony znaczącej oraz z treści, czyli strony znaczonej.
Relacje między znakami:
związki syntagmatyczne - zachodzą pomiędzy wyrazami, grupami, zdaniami (syntagmami)... realizują jakiś systemowy związek syntagmatyczny
związki paradygmatyczne - da się je wyczytać ze związków syntagmatycznych, np. utworzyć relacje formalne między elementami mogącymi realizować określoną pozycję w związku syntagmatycznym. Ustala się paradygmaty w systemie językowym
SZKOŁY STRUKTURALNE
Szkoła praska. Reprezentuje funkcjonalne podejście do strukturalizmu (funkcjonalizm).
Praskie Koło Lingwistyczne - założone zostało w połowie lat dwudziestych XX wieku przez językoznawców czeskich V.Mathesiusa, B. Havranka i J. Mukarowskiego oraz przez emigrantów rosyjskich R. Jakobsona i N.S. Trubieckoja.
Wg strukturalistów praskich funkcję danego elementu można opisać za pomocą wskazania opozycji w stosunku do innego elementu. Opozycje mogą być bardziej lub mniej uchwytne, co zależy od tego, czy dane elementy należą do tego samego podsystemu języka.
Podsystemy języka: fonologiczny, morfonologiczny, morfologiczny (fleksyjny + słowotwórczy), składniowy.
W badaniach skupiano się na związkach paradygmatycznych.
Prowadzono badania nad strukturą tematyczno - rematyczną zdania.
Zasługą prażan jest opis fonologiczny języka. Wprowadzono pojęcie fonemu jako jednostki podsystemu fonologicznego języka składającego się z cech dystynktywnych, tzn. takich cech dźwiękowych, które używane są w danym języku do odróżnienia wyrazów o różnym znaczeniu. Dwie głoski różniące się cechami niedystynktywnymi mogą być uważane za warianty tego samego fonemu.
Strukturaliści prascy rozwinęli także badania nad stylistyką. (Styl - jakość strukturalna tekstu wynikła z celowego doboru przez nadawcę jednostek języka). Szczególnie zajmowali się tekstami o przeważającej funkcji poetyckiej (Mukarowski, Jakobson).
Dystrybucjonizm amerykański. Czołowym deskryptywistą był Leonard Bloomfield. Głównym celem językoznawców amerykańskich był opis bardzo różniących się od siebie języków indiańskich. Bardziej interesowało ich więc językoznawstwo opisowe (deskryptywne) niż teoretyczne. Stąd nazwa alternatywna DA - deskryptywizm. Deskryptywiści próbowali stworzyć taką teorię językoznawczą, dzięki której możliwe byłoby badanie języka na podstawie samej tylko formy tekstów, bez znajomości treści. W czasie budowania tej teorii wykorzystano pojęcie dystrybucji
dystrybucja- zbiór otoczeń (kontekstów), w jakich dany element tekstowy występuje w tekstach. Dystrybucja identyczna - dwa elementy tekstowe występują w tych samych kontekstach; dystrybucja inkluzywna - A zawiera się w B; dystrybucja krzyżująca się -zbiór otoczeń elementu A i zbiór otoczeń elementu B mają część wspólną; dystrybucja komplementarna - zbiór otoczeń elementu A jest różny od zbioru otoczeń elementu B i nie ma elementów wspólnych. ::: Żeby zbadać dystrybucję, należy dokonać segmentacji tekstu.
Jeżeli dwie jednostki były w pozycji komplementarnej, uznawano je za warianty tej samej jednostki języka.
Jeżeli dwie jednostki były w pozycji identycznej, inkluzywnej lub krzyżującej się, uznawano je za realizacje tekstowe dwóch odrębnych jednostek języka.
(Próby opisu języka bez znajomości znaczenia nie przynosiły oczekiwanych rezultatów, później zrezygnowano z takiego podejścia.)
Hipoteza Sapira -Whorfa - Edward Sapir i Beniamin Lee Worf - Człowiek postrzega świat poprzez język, a przt tym struktura języka narzuca użytkownikowi sposób widzenia świata.
Zdaniem Leopolda Bloomfielda, skoro wprowadzenie jednolitego języka semantycznego do opisu jęz. naturalnych jest niemożliwe, można zrezygnować z semantyki i badać tylko stronę czysto syntaktyczną.
Ponadto Bloomfield przeniósł na grunt językoznawstwa nurt psychologiczny zwany behawioryzmem. Za jego pomocą próbowano wyjaśniać funkcjonowania języka w procesie komunikacji
Glossematyka - kopenhaska szkoła lingwistyczna
Przedstawiciele Kopenhaskiego Koła Lingwistycznego przedstawiali poglądy najbliższe poglądom de Saussure'a. Zawiązało się ono tuż przed drugą wojną światową, najważniejszym przedstawicielem był Louis Hjemslev.
Wg Hjemsleva językoznawstwo to nauka przede wszystkim synchroniczna, której zadaniem jest badanie struktury języka. Najmniejsze, niepodzielne elementy językowe nazywa glossemami.
Zdaniem Hjemsleva znak i jego znaczenia należy rozpatrywać na czterech płaszczyznach:
odróżnienie płaszczyzny (planu) treści od płaszczyzny (planu) wyrażania.
w płaszczyźnie treści i w płaszczyźnie formy wyróżnienie substancji i formy. Zadaniem glossematyków było badanie formy wyrażania i firmy treści oraz stosunków między nimi zachodzących.
Trzy kryteria oceny teorii lingwistycznej. Teoria powinna być:
Niesprzeczna wewnętrznie
Zupełna (wyczerpująca)
Prosta.
Rozdział czwarty - Generatywizm jako przejaw falsyfikacjonizmu.
Przejawem falsyfikacjonizmu w językoznawstwie jest paradygmat generatywny, czyli generatywizm. W generatywizmie:
wychodzi się od przekonania, że zdania języka naturalnego powstają w wyniku łączenia lub przekształcania jednostek niższego rzędu
Utrzymuje się, że językoznawca powinien naśladować twórców systemów dedukcyjnych
Podstawą modelu generatywnego języka naturalnego jest to, iż generuje on nieskończony zbiór zdań za pomocą skończonej liczby reguł. Chodzi o to, by zbudować model języka, dzięki któremu można nie tylko analizować zdania tekstowe, ale także tworzyć ciągi o identycznej formie jak zdania tekstowe.
Prosty generatywny model języka można wyobrazić sobie jako grę składającą się z planszy (2 pola - zielone i czerwone), klocków (4 sztuki - 2 zielonych z napisami chłopiec i dziewczyna i dwóch czerwonych z napisami idzie i siedzi) i instrukcji składającej się z dwóch przepisów:
zielone klocki możesz położyć tylko na zielonych polach planszy
czerwone klocki możesz położyć tylko na czerwonych polach planszy
Zestaw ten jest modelem generatywnym, generuje cztery potencjalne zdania języka polskiego. W bardziej rozbudowanym modelu zawierać się będzie więcej równań, symboli leksykalnych i reguł.
Najbardziej znaną teorią w paradygmacie generatywistycznym jest gramatyka generatywno-transformacyjna Noama Chomsky'ego. Zdaniem Chomsky'ego zdania można podzielić na zbiory:
zdania generowane za pomocą gramatyki, w której nie ma reguł transformacyjnych
zdania generowane za pomocą gramatyki, w której są reguły transformacyjne.
KOGNITYWIZM
Rozdział szósty - wzajemne oddziaływanie paradygmatów
Zmiany w paradygmacie poprzednim pod wpływem następnego
Oddziaływanie paradygmatu strukturalistycznego na historyczno-porównawczy. Pod wpływem hipotezy głoszącej, że język jest systemem, inaczej zaczęto pojmować diachronię języka. Np. prace historycznojęzykowe Ireny Bajerowej, która stawia ogólne hipotezy, a następnie pokazuje fakty potwierdzające.; synchroniczny opis polszczyzny XV wieku kontrastowany z opisami synchronicznymi stanu prasłowiańskiego i współczesnej polszczyzny.
Oddziaływanie paradygmatu generatywnego na strukturalistyczny - w pewnym momencie w strukturalizmie zaczęto wprowadzać także procedury falsyfikujące. Testy falsyfikujące - nieakceptowalne ciągi z gwiazdką.
Oddziaływanie kognitywizmu na generatywizm - do opisów generatywnych dołączane są także opisy samych opisów, czyli metaopisy. Metaopisy są w stanie wykazać, że pomiędzy poszczególnymi kategoriami nie istnieją wyraźne granice.
Odkrywanie poprzednich paradygmatów.
1) Paradygmat kognitywistyczny wyraźnie nawiązuje do treści głoszonych przez paradygmat historyczno-porównawczy, i to takich, które wcześniej zostały zaniechane pod wpływem strukturalizmu. Postulowane są np., badania achroniczne - takie, w których nie oddziela się procesu od stanu.
●Amsterdamski na początku swojego artykułu przywołuje nazwisko Thomasa Kuhna i jego dwa dzieła: Dwa bieguny oraz Struktury rewolucji naukowych. Określa główny problem jego pisarstwa i formułuje go w formie pytanie: jaką rolę w rozwoju wiedzy naukowej odgrywa tradycja, co jest jej nośnikiem, jak jest przekazywana i łamana? Od razu podkreśla, że wszelkie dziedziczenie kultury jest zawsze i kontynuacją, i łamaniem tradycji. W odniesieniu do rozwoju nauki powyższe pytanie dotyczy kilku różnych kwestii:
→ teoriopoznawczych - bowiem wymaga wyjaśnienie sposobu porzucania jednych poglądów dla innych oraz ich wzajemnego stosunku treściowego
→ historycznych - chodzi tutaj o wykrywanie wątków ciągłych oraz punktów zwrotnych, zmusza do śledzenia faktycznego rozwoju poznania w ogóle
→ socjologicznych - gdyż tradycja uprawiania nauki stanowi własność grupową i funkcjonować może jako tradycja wyłącznie wówczas, gdy jest zbiorowo, przez społeczność badaczy akceptowana.
W pytaniu tym chodzi o przezwyciężenie zwyczajowej izolacji rozmaicie ukierunkowanych dociekań, o wzajemne naświetlanie i konfrontowanie uzyskanych wyników. Dotychczasowa sytuacja nie była zadowalająca, bowiem filozofowie nauki najczęściej sądzili, że problemy historyczne i socjologiczne są nieistotne dla przedmiotu badania ich dyscypliny. Panowało przekonanie, że rozwój nauki ma kumulatywny charakter, dokonuje się wyłącznie przez przejmowanie i eliminację. Nowe osiągnięcia unieważniają stare w tym sensie, że je w sobie zawierają w ulepszonej postaci, uwolnione od błędów, nieścisłości, ograniczeń. Natomiast wszelkie inne dziedziny kultury, poza nauką i może techniką, rozwijają się metodą pomnażania, a nie metodą przejmowania i eliminacji.
● Tutaj Amsterdamski skupia się na metodzie badania, która ma niby być ucieleśnieniem tradycji i gwarantką dokonującego się postępu. Pytanie o wzajemny stosunek tradycji i nowatorstwa w nauce był rozstrzygany najczęściej tak: „Wierność metodzie narzucającej nieograniczony krytycyzm wobec uzyskanego dorobku”. W ogóle odkrycie metody (datowane z reguły na wiek 16. czy 17.) stanowić miało punkt zwrotny w rozwoju nauki. Od tego momentu dzieje nauki przestały być w gruncie rzeczy procesem historycznym. I właśnie ta wizja nauki i jej rozwoju została zakwestionowana w ciągu ostatnich dziesięcioleci, a jednym z czołowych jej obrazoburców jest właśnie Thomas Kuhn.
● Kuhn przedstawia tradycyjną wizję rozwoju poznania naukowego jako produkt rekonstrukcji jego dziejów na gruncie określonych założeń filozoficznych. Założenie te są to: radykalny empiryzm i pozytywizm. Kuhn odrzuca je m.in. dlatego, że rekonstrukcja ta nie daje się pogodzić z dziejami rzeczywistymi i z praktyką badawczą uczonych. Radykalny empiryzm traktuje wiedzę naukową jako nadbudowę wznoszoną na faktach i w zasadzie odrzucenie radykalnego empiryzmu jest wystarczającym warunkiem zakwestionowania owej kumulatywnej koncepcji rozwoju wiedzy, lecz Kuhn nie jest ani pierwszym, ani jedynym, który ten wniosek wyciągnął. Wniosek ten formułowali m.in. P. Duhem, A. Koyre`, A. O. Lovejoy czy K. Popper. Jednak samo odrzucenie radykalnego empiryzmu nie implikuje jeszcze akceptacji proponowanego przez Kuhna modelu.
● Amsterdamski przywołuje podstawowe założenia Kuhna z „Struktur rewolucji naukowych”. Przypomina, że centralnym pojęciem był tam paradygmat, czyli zespół zasadniczych przekonań i uprzedzeń wspólnoty badaczy. Historycznie zmienny consensus omnium (łac. `zgoda wszystkich, powszechna zgoda`) grupy umożliwia szybki postęp, niewracanie do kwestii już raz rozstrzygniętych. To właśnie paradygmat i oparta na uznaniu go „normalna” działalność badawcza wyznaczać ma tradycję badań, sposób rozwiązywania problemów. Funkcjonuje do czasu, gdy wskutek kryzysu, to jest uporczywej niemożliwości rozwiązania jakiegoś problemu zgodnie z jej założeniami, zostaje odrzucona, zastąpiona przez inną, niewspółmierną ze swoją poprzedniczką. Zmiany paradygmatów powodują nowe widzenie całego pola badań, jego restrukturyzację, reinterpretację uznanych dotąd faktów, które stają się czym innym, niż dotąd były. Zmiany te - wbrew kumulatywnej koncepcji rozwoju wiedzy - są punktami nieciągłości procesu. Na pewno osiągnięciem Struktury rewolucji naukowych było zwrócenie uwagi na consensus omnium, jego zmienność i rolę w „normalnej”m codziennej działalności uczonych. Starają się bowiem raczej rozbudowywać aktualnie uznane teorie, niż nieustannie podejmować próby ich obalenia. Upadek obowiązującego paradygmatu (consensus omnium) jest odbierany raczej jako zło konieczne, zburzenie dotychczasowego świata. W rezultacie napięcie między tradycją a nowatorstwem wpisane zostaje w obraz nauki jako cecha immanentna. Wniosek ten oparty jest na słusznym przekonaniu, że żadna metoda nie może nigdy rozstrzygnąć, czy w danej sytuacji konfliktu między teorią a doświadczeniem należy poprzez rozmaite interpretacje i dodatkowe hipotezy bronić dotychczasowej teorii, czy też ją porzucić i opowiedzieć się za nową. Takie pojęcie stosunku między tradycją a nowatorstwem przeciwstawia poglądy Kuhna nie tylko zwolennikom czysto kumulatywnego rozwoju nauki, o którym poprzednio była mowa. Zgodnie z Kuhnem nauka normalna nie tylko istnieje, ale musi istnieć, by możliwe były rewolucje naukowe, i że rozwoju wiedzy nie można zrozumieć, jeśli owego napięcia między tradycją a nowatorstwem nie traktuje się właśnie jako niezbywalnej cechy twórczości naukowej.
● Pod wpływem rozmaitych krytyk skierowanych przeciwko przedstawionemu w Strukturze... modelowi rozwoju nauki, a przede wszystkim przeciwko wieloznaczności terminu „paradygmat” autor skłonny jest dziś odróżniać pojęcia consensus omnium, które nazywa „matrycą dyscyplinarną” od pojęcia paradygmatu w węższym sensie, to jest „okazu” wzorcu rozwiązywania problemów w danej dziedzinie. Teraz to już nie teza o tym, że paradygmaty są sposobem widzenia świata (badacza obszaru) przez uczonego, lecz kwestia roli owych rozwiązań wzorcowych w kształtowaniu dyscyplinarnego consensus omnium stanowi punkt ciężkości wywodów autora.
●Amsterdamski pokazuje pewne podobieństwa poglądów Kuhna do koncepcji języka Wittgensteina, co można podsumować tak, że Kuhn zamiast podać coś, co byłoby wspólne wszystkiemu, co nazywamy nauką, powiada, że nie ma wcale czegoś jednego, co wszystkim tym zjawiskom byłoby wspólne i ze względu na co stosowalibyśmy do nich wszystkich to samo słowo. Są one natomiast rozmaicie ze sobą spokrewnione. I ze względu na to pokrewieństwo nazywamy je wszystkie „naukami”. Z kolei Amsterdamski chce wprowadzić pojęcie „ideału nauki”, które ma oznaczać to, co decyduje, że paradygmaty poszczególnych specjalności uchodzić mogą w danym czasie za naukowe, że można, przynajmniej synchroniczne, mówić o nauce jako o pewnej całości, nie zaś jako o zbiorze różnych dyscyplin. Wprowadzenie tego pojęcia usuwa wiele trudności, które napotyka toeria Kuhna:
→ usuwa trafny zarzut, iż nie każda paradygmatycznie zorientowana działalność ludzka uchodzi za naukową,
→ uzasadnia odróżnienie rewolucji lokalnych, dokonujących się w poszczególnych specjalnościach od globalnych, obejmujących całą naukę danej epoki.
→ dopuszcza zmianę paradygmatu dyscyplinarnego, która nie jest równoznaczna z całkowitym złamaniem consensus omnium, albowiem uznawany ideał nauki nie musi się wskutek tego zmienić, a tym samym zapewnia możliwość racjonalnego dyskursu między zwolennikami starego i nowego paradygmatu, co teoria Kuhna odrzuca.
Kuhn po prostu odrzucił mówienie o nauce danego okresu jako całości kulturowej i skupił swe zainteresowanie wyłącznie na przemianach w poszczególnych wąskich specjalnościach, uznając, że nie ma czegoś jednego, co wszystkim tym zjawiskom byłoby wspólne.
●Stanowisko Kuhna ewaluowało. Widać to m.in. w artykule „Obiektywność, sądy wartościujące i wybór teorii”. Wcześniej pisał, że wybór między konkurencyjnymi paradygmatami z reguły rodzi problemy, których nie można roztrzygnąć na mocy kryteriów nauki normalnej. Teraz natomiast Kuhn skłonny jest sądzić, że wybór pomiędzy teoriami dokonuje się na mocy takich metodologicznych kryteriów, jak dokładność, spójność, ogólność, prostota, owocność, z tym wszakże, że nie funkcjonują one jako jednoznaczne kryteria, lecz raczej jako wartości nauki: mogą popadać ze sobą w konflikty, a sposób ich stosowania dla oceny teorii nie jest jednoznaczny.
● Na koniec Amsterdamski pisze, że od zakwestionowania radykalnie kumulatywnego modelu rozwoju przyrodoznawstwa, niezmienności jego metody, daleka jest jeszcze droga do uznania, że kumulacja wiedzy jest w ogóle mitem. To, co Kuhn ma do powiedzenia nowego o mechanizmach rozwoju nauk przyrodniczych, było niemal powszechnie uznawane w odniesieniu do dyscyplin społecznych i humanistycznych, a w każdym razie nie stanowiło niczego nowego dla historii myśli społecznej czy też historii filozofii. Właśnie te dyscypliny były, jak sam Kuhn stwierdza, głównym źródłem intelektualnym jego koncepcji uprawiania historii nauki.
●Amsterdamski dochodzi do wniosku, że istnieje wystarczająco wiele powodów, by sądzić, że zasadniczym problemem współczesnej humanistyki jest raczej zachowanie przez nią jej wieloparadygmatyczności niż poszukiwanie ujednoliconej wizji świata. Do rozstrzygnięcia pozostaje kwestia: jak w ramach takiej wieloparadygmatycznej struktury jego dyscypliny dokonywać się w niej może jakaś kumulacja wiedzy?
T. Zgółka
Zasada konwencjonalności języka a procedury eksplanacyjne w lingwistyce.
Przedmiot opracowania - kwestia stosowalności procedur eksplanacyjnych, rozważanych
w kontekście założenia o konwencjonalności języka naturalnego.
Główna teza dotyczy zależności między konwencjonalistycznym sposobem ujmowania przedmiotu badań językoznawczych oraz statusu poznawczego teorii językoznawczych z jednej strony a możliwością stosowania ekplanacyjnego uzasadniania twierdzeń z drugiej.
Procedury wyjaśniające - rozumiane w tradycyjny sposób, skodyfikowany w klasycznych ujęciach Hempla-Oppenheima, Ajdukiewicza oraz Nagla wraz z późniejszymi uzupełnieniami, uszczegółowieniami tych modeli.
Uwaga porządkowa - odróżnienie między wyjaśnianiem a wynikaniem (logicznym):
- istnieją w językoznawstwie propozycje, w których wyjaśnianiem nazywa się wszelkie związki dedukcyjne, oparte na wynikaniu
- co NIE JEST wyjaśnianiem w świetle przyjętego tu tradycyjnego ujęcia?
wynikanie zdania „As jest psem rasowym” ze zdania „As jest terierem”
pseudowynikanie zdania „Ta Łowiczanka nosi swój strój ludowy” ze zdania „Większość Łowiczanek nosi swoje stroje ludowe”
Kwestie związane ze stosowalnością wyjaśniania w językoznawstwie zostały postawione w sposób szczególnie istotny wraz z narodzinami nowożytnego językoznawstwa, co nastąpiło w momencie wystąpienia młodogramatyków.
MŁODOGRAMATYCY:
- postawa badawcza i program miały charakter skrajnie scjentystyczny
- cel działalności - unaukowienie dyscypliny, dla której miała teraz obowiązywać nazwa Sprachwissenschaft.
- językoznawstwo oskarżano o deskryptywizm i preskryptywizm, idiografizm i normatywizm!
Preskryptywizm - określanie elementów języka naturalnego jako "poprawnych" bądź "błędnych", w przeciwieństwie do podejścia deskryptywnego, czyli neutralnego opisywania realnie używanego języka.
Idiografizm - nauki idiograficzne zajmują się opisem i wyjaśnianiem faktów jednostkowych, a nie formułowaniem ogólnych praw.
Nomotetyzm - poszukiwanie ogólnych, uniwersalnych (tzn. ahistorycznych) praw rządzących społecznym funkcjonowaniem jednostek Nauki nomotetyczne zajmowały się formułowaniem praw naukowych, w opozycji do nauk idiograficznych, opisujących i wyjaśniających jednostkowe fakty.
- postulowali historyzm i nomotetyzm - zadaniem językoznawcy nie ma być kodyfikowanie reguł poprawnego mówienia czy pisania, ale opis i wyjaśnianie zjawisk językowych, zwłaszcza postrzeganych w ich historycznym rozwoju
-> ograniczenie do synchronicznego punktu widzenia uniemożliwia stosowanie procedur eksplanacyjnych, językoznawstwo pozostaje na poziomie idiograficznego deskryptywizmu, co z kolei skazuje je na normatywność
- atomizm - próbowali wyjaśniać zmiany historyczne, którym podlegały określone głoski / ściśle określone ich kombinacje, stosowanie końcówek fleksyjnych itp.
STRUKTURALIŚCI:
- zakwestionowali program młodogramatyków
- F. de Saussure -> semiologiczna teoria języka ze słynnym schematem przecięcia osi synchronii i diachronii i wyprowadzonym z tego przecięcia postulatem oddzielenia językoznawstwa synchronicznego i diachronicznego
- przejęli od młodogramatyków wymóg nomotetyczności
- zasada systemowości znaków językowych - przeciwieństwo atomizmu; akcentowanie podporządkowania poszczególnych elementów zasadom organizującym cały system języka
System:
- ściśle określona siatka relacji (zwłaszcza relacji opozycji) zachodzących między składnikami
- każdy z elementów rozumiany jest przede wszystkim jako człon owych relacji
- własności przysługujące poszczególnym składnikom są atrybutami niezbędnymi dla zachowania równowagi systemu jako całości
- system (struktura) sam decyduje o tym, jakiego typu zmiany mogą być przeprowadzone, jakie tendencje, zaczyny zmian muszą być zablokowane itp. -> mechanizm zmian historycznych jest autodynamiczny
KONCEPCJE ZAPROPONOWANE PRZEZ WPROWADZENIE DO JĘZYKOZNAWSTWA DWU POJĘĆ: KOMPETENCJI JĘZYKOWEJ I GRAMATYK GENERATYWNO-TRANSFORMACYJNYCH:
- nurt ten rozpoczyna znany referat Chomsky'ego „Modele wyjaśniania w lingwistyce”
- charakterystyczną cechą wspólną całej serii prac, kompendiów, publikacji etc. skupionych wokół tematu wyjaśniania w lingwistyce jest przekonanie, że problematyka ta wcześniej (przed wspomnianym referatem Chomsky'ego) przez językoznawców nie była zauważana
Typy wyjaśniania stosowane przez językoznawców:
a) wyjaśnianie przyczynowo-skutkowe
- swego czasu uważane za jedyny możliwy sposób ujmowania związku między poprzednikami a następnikami twierdzeń proponowanych do miana prawa naukowego
- młodogramatycy zadowalali się przesłankami eksplanansu, mającymi wyrazisty charakter generalizacji historycznej (a nie prawa ściśle ogólnego), schemat przyczynowo-skutkowy stosowany był z reguły dopiero dla wyjaśniania owych generalizacji, czyli wtedy, gdy generalizacja taka występowała jako eksplanandum.
- przyczynowo-skutkowe wyjaśnianie może być stosowane wyłącznie w odniesieniu do zmian historycznych, eksplanandum stanowi zdanie konstatujące zajście właśnie takiej zmiany
- jeśli eksplanandum stanowi zdanie stwierdzające fakt o charakterze synchronicznym, konstatujące np., że określona forma gramatyczna ma taką a taką postać, eksplanans będzie zawierał zdania przedstawiające ewolucję tej formy, wywiedzionej z form wcześniejszych oraz odpowiednią generalizację, zwaną zwykle „prawem językowym”
w tym sensie zmiany historyczne mogą być traktowane jako przyczyny, a fakty synchroniczne - jako skutki tych zmian.
b) schematy wnioskowań funkcjonalnych:
- synchroniczno-funkcjonalne
- diachroniczno-funkcjonalne
- funkcjonalno-genetyczne
Cecha wspólna wszystkich schematów - akceptacja zespołu hipotez czy postulatów strukturalistycznych, sprowadzających się do przypisania językowi statusu homogenicznej całości zorganizowanej tak, aby mogła być ona narzędziem komunikacji lub ekspresji lub kreowania wartości estetycznych i artystycznych lub kategoryzowania i nazywania świata (pozajęzykowego).
- poszczególne składniki języka są podporządkowane owej naczelnej własności
- pochodzenie, geneza, historyczny rozwój poszczególnych składników, ich ewolucja historyczna stają się nieistotne, a jedynym uzasadnieniem ich kształtu i obecności w języku jest niezbędność dla konstrukcji całości
- postulat pierwotności poznawczej własności orzekanych o języku jako całości wobec własności przysługujących składnikom owej całości
- (u strukturalistów) rezygnacja z założenia, że zdań kandydujących do roli przesłanek eksplanansów można poszukiwać jedynie w dziejach języka; przesłanki takie mogą stanowić również zdania wskazujące nie na genezę, ale na funkcję, rolę poszczególnych składników w całości języka
c) stosowanie rozumowań operujących wyłącznie terminologią gramatyczną
- typ wyjaśniania charakterystyczny przede wszystkim dla pewnych generatywistycznych ujęć języka
- gramatyki typu generatywnego skoncentrowane są na rekonstrukcji reguł, o których domniemywa się, iż są one stosowane (respektowane) przez idealnych rodzimych użytkowników języków naturalnych
- punkt wyjścia dla rekonstrukcji - ustalenie zbioru konstrukcji językowych, które taki użytkownik mógłby uznać za naturalne, poprawne, gramatyczne itp. - najczęściej ten zbiór ogranicza się do klasy poprawnych zdań
- „klasa wyrażeń bezsensownych”
- zadanie językoznawcy - uzasadnienie, dlaczego podział jest jaki jest -> rekonstrukcja gramatyki rozumianej jako zbiór reguł
- reguły muszą być tak dobrane, aby pozwalały na wykonywanie wszystkich (i tylko takich) operacji na słowach, których wyniki będą należały do zbioru zdań -> „eksplanatoryjny model” stosowany w lingwistyce
- eksplanatoryjność w tym wypadku to możliwość udzielenia odpowiedzi na pytania o to, dlaczego dana konstrukcja jest (poprawnym, gramatycznym) wyrażeniem danego rozważanego języka naturalnego; zwłaszcza zaś, dlaczego określona sekwencja słów jest zdaniem takiego języka
Realizm vs instrumentalizm
- spór dotyczący statusu poznawczego teorii naukowej poddawanej konfrontacji z rzeczywistością
- problematyczna kwestia „rzeczywistości” badanej przez językoznawcę
zbiór wypowiedzi (zwłaszcza zdań) faktycznie skonstruowanych i dopuszczalnych w badanym języku
kolekcja fizykalnie rozumianych próbek idiolektalnych, tzn. konkretnych porcji zjawisk akustycznych, będących zrealizowanymi hic et nunc, przez konkretnych użytkowników, sekwencji jednostek językowych (zwłaszcza dźwięków) - RADYKALNA POSTAĆ ZASADY FIZYKALIZMU (zwł. amerykańska wersja strukturalizmu)
TAKSONOMIŚCI - zwolennicy respektowania fizykalnie rozumianej rzeczywistości, z niechęcią traktujący wszelkie twierdzenia i przesłanki odwołujące się do psychiki, umysłu a nawet do uwzględniania takich kategorii, jak znaczenie, wartość semantyczna i ekspresywna wypowiedzi językowych; deksreptywizm ze względu na niechęć do wykraczania poza orzekanie o fizykalistycznie rozumianych próbkach idiolektalnych
koncepcje mentalistyczne
Zarzuty wobec „pseudowyjaśniania gramatycznego”:
- nieuniknioność błędnego koła
- nie można stosować w eksplanansie reguł, dyrektyw, tylko twierdzenia, a więc zdania w sensie logicznym
- muszą to być zdania o charakterze empirycznym
- muszą posiadać ewidencję empiryczną niezależną od faktów stwierdzanych w zdaniach wyjaśnianych (eksplanandach)
- brak możliwości wyjaśnienia poszczególnych wypowiedzi -> idiografizm, deskryptywizm - można jedynie dokonywać rekonstrukcji reguł składających się na opis gramatyczny określonego języka czy stworzyć dychotomiczny podział konstrukcji na poprawne i niepoprawne
Kompetencja językowa - płaszczyzna świadomościowa (wiedza o języku posiadana przez idealnego rodzimego użytkownika języka), do niej relatywizowane są poszczególne reguły
Jedna z propozycji głosi, iż kompetencja językowa może być rozważana jako kategoria, o której można orzekać jej „realność psychologiczną”. Zespół danych eksperymentalnych służących do rozstrzygania, czy określone przekonanie o obowiązywaniu odpowiedniej reguły gramatycznej jest empirycznie zasadne, czy nie, to dane zaczerpnięte z psychologicznych czy psycholingwistycznych badań nad jednostką ludzką, będącą m. in. użytkownikiem języka. -> próba redukcji eksplanacyjnej badań językoznawczych do psychologii
Postawy badawcze językoznawców zajmujących się rekonstrukcją opisu gramatycznego języka:
postawa instrumentalistyczna (w sensie instrumentalizmu metodologicznego) -
- oparcie rekonstrukcji na materiale stricte językowym: korpusie danych materiałowych, na które składają się wypowiedzi zrealizowane w języku rekonstruowanym i uznane za poprawne (naturalne, wellformed)
- adekwatna, trafna, empirycznie uzasadniona będzie każda taka gramatyka, która zawierać będzie reguły umożliwiające zbudowanie wszystkich tych zdań i żadnych innych
- nie jest konieczne odwoływanie się do intuicji, wiedzy, świadomości mówiących rekonstruowanym językiem, zrekonstruowanej gramatyce ani żadnemu z jej składników - reguł językoznawca nie musi przypisywać „realności psychologicznej”
postawa realistyczna - uwzględnia wspomnianą „realność psychologiczną
Rozróżnienie na lingwistykę autonomiczną i zredukowaną:
lingwistyka autonomiczna - przedmiot zainteresowania lingwisty stanowi jedynie gramatyczna rekonstrukcja poszczególnych języków, lingwista nie szuka potwierdzenia w dziedzinach sąsiednich
lingwistyka zredukowana - redukcjonistyczny charakter (zwłaszcza w sensie redukcji eksplanacyjnej) ma koncepcja uwzględniająca kategorię kompetencji językowej. Wprowadzenie przez lingwistę elementów eksplanacyjnych zmusza go do skorzystania z wyników psycholingwistyki eksperymentalnej
Umieszczenie wśród pojęć lingwistycznych kompetencji językowej jest niezbędne po to, aby językoznawca mógł stosować procedury eksplanacyjne w sposób uprawniony metodologicznie. Procedury eksplanacyjne mają zazwyczaj hierarchiczny charakter, co oznacza, że twierdzenia występujące w jednym schemacie w roli przesłanek mogą w innych schematach występować jako eksplananda.
Poszukiwanie przesłanek poza samym językiem:
GRAMATYKA UNIWERSALNA:
- hipoteza natywistyczna - g. u. ma charakter wrodzony, biologicznie dziedziczony przez egzemplarze gatunku homo sapiens i stanowi podstawę dla kształtowania się reguł obecnych w kompetencjach charakterystycznych dla poszczególnych języków etnicznych; uniwersalność umieszczana w umyśle, duszy, psychice indywiduum
- semantyka generatywna - głosi pierwotność schematu semantycznego wobec schematu syntaktycznego w wypowiedzi językowej, konstruowanie wypowiedzi polega na dopasowywaniu jednostek językowych do schematu semantycznego uprzednio zamierzonego, semantyka wyznacza poszczególnym jednostkom składniowym ich miejsca w strukturach syntaktycznych, takich jak predykat, argument itp.; uniwersalność umieszczana w świecie odzwierciedlanym w języku, naturalność gramatyki uniwersalnej - stanowi odwzorowanie „składni świata”
Naturalność vs. konwencjonalność języka - spór:
- fundamentalny spór funkcjonujący w refleksji nad językiem od samego jej zarania
- kwestie związane z konwencjonalnością znaków językowych to problem stricte semiotyczny
- może być rozumiany szeroko i ujmowany w różnych perspektywach (np. glottogonicznej, synchronicznej, diachronicznej)
- pytanie o związek między formą znaku a jego znaczeniem
de Saussure -> konwencjonalność związku między płaszczyznami signiant i signifie - kształt brzmieniowy wypowiedzi językowej (w szczególności nazwy) nie może być uzasadniony przez odwołanie się do własności, atrybutów itp. Przysługujących obiektowi (stanowi rzeczy, zjawisku itp.) stanowiącemu płaszczyznę signifie.
Zasada konwencjonalności stanowi podstawę dychotomicznego podziału wszystkich wypowiedzi językowych (zwłaszcza w zakresie nazw) na dwie kategorie: znaki arbitralne i naturalne.
Znaki arbitralne to znaki konwencjonalne.
Znaki naturalne:
- klasa wypowiedzi (nazw) onomatopeicznych - uznanie, że określone wyrażenie ma onomatopeiczny charakter jest równoznaczne z uznaniem naturalnego charakteru związku między signifiant i signifie
- spójniki - nie sposób wskazać autonomicznej płaszczyzny signifie powiązanej ze spójnikami
- wykrzykniki (wykrzyknienia) -> naturalność ekspresywna
Konwencjonalizm dotyczy także płaszczyzny gramatycznej - to konwencja decyduje o tym, co jest wyrażeniem językowym (morfemem, leksemem, zdaniem itp.), a co jedynie potencjalnym połączeniem fonemów, morfemów czy słów.
Konwencjonalizm związany z wartościowaniem wypowiedzi językowych, z przypisywaniem im walorów estetycznych i artystycznych. Wypowiedzi skonstruowane tak, że podlegają tylko konwencjom lingwistycznym mogą być oceniane jako standardowe i w tym sensie neutralne pod względem wartości artystycznej. Przypisywanie im owych wartości związane jest z dobudowaniem konwencji dodatkowych, naddanych wobec tych czysto lingwistycznych lub stwierdzenie odpowiedniego naruszenia tych pierwszych.
-> konwencje wersyfikacyjne jako przykład naddanych
-> łamanie, naruszanie konwencji leży u podstaw konstruowania metafor - złamanie dotychczasowych ustabilizowanych związków zarówno w układzie signifiant-signifie, jak również tzw. związków konotacyjnych
Dwa rodzaje twierdzeń lingwistycznych:
stwierdzające przysługiwanie określonym obiektom (wypowiedziom, poszczególnym ich składnikom etc.) odpowiednich własności lub zachodzenie między nimi stosownych relacji
R (a, b)
schemat przedmiotowy, obrazuje zachodzenie relacji R między elementami a, b
stwierdzające przypisywanie takich własności (stanowienie relacji) przez podmioty mówiące
S (P, R (a, b))
podmiot P stanowi (ustanawia) relację R miedzy elementami a, b
uwzględnienie konwencjonalności języka naturalnego wymaga uprzedniego zaakceptowania podmiotowej relatywizacji zdań orzekających o języku
respektowanie konwencjonalności języka związane jest z wyodrębnieniem podmiotu będącego nośnikiem konwencji
S. Amsterdamski, Tertium non datur? Szkice i polemiki, Warszawa 1994, rozdz. „Tradycja
i nowatorstwo”[posłowie do Dwóch biegunów].
dzieło T. Kuhna Struktura rewolucji naukowych: początek nowego spojrzenia na przedmiot badania (filozofii, historii, socjologii), mechanizmy jego badania i osadzenie
w kulturze
↓ tytuł sygnalizuje problem
główny problem pisarstwa Kuhna: jaką rolę w rozwoju wiedzy naukowej odgrywa tradycja, co jest jej nośnikiem, jak jest przekazywana i łamana? - teoretyczne znaczenie pytania przekracza granice refleksji nad rozwojem nauki;
wszelkie dziedziczenie kultury jest zawsze i kontynuacją, i łamaniem tradycji;
ww. pytanie dotyczy kilku kwestii:
teoriopoznawczych - wymaga wyjaśnienia sposobu porzucania jednych poglądów dla innych oraz ich wzajemnego stosunku treściowego, także rozważań na temat autonomii poznania naukowego wobec czynników związanych z jego historycznym umiejscowieniem w kulturze danego czasu;
historycznych - wykrywanie wątków ciągłych oraz punktów zwrotnych zmusza do śledzenia faktycznego rozwoju poznania naukowego w ogóle, identyfikacji jego aktualnych składników i badania ewolucji każdego z nich;
socjologicznych - tradycja uprawiania nauki stanowi własność grupową i może funkcjonować jako tradycja tylko wtedy, gdy jest zbiorowo, przez społeczność badaczy akceptowana
↓
chodzi o przezwyciężenie zwyczajowej izolacji, o konfrontowanie uzyskiwanych wyników;
różnorodność wizji rozwoju poznania naukowego (od Bacona o Kartezjusza) → wydawało się, że problem dziedziczenia i łamania tradycji jest dobrze wyjaśniony: panowało przekonanie, że w odróżnieniu od innych dziedzin działalności umysłowej - rozwój nauki ma charakter kumulatywny, dokonuje się wyłącznie przez przejmowanie
i eliminację (tu: nowe osiągnięcia unieważniają stare w tym sensie, że je w sobie zawierają w ulepszonej postaci, uwolnione od błędów, nieścisłości, ograniczeń - to korespondencja teorii)
↓
rozwój wszystkich dziedzin kultury oprócz nauki dokonuje się metodą pomnażania;
jedyną tradycją badawczą byłaby wówczas (wyżej) niezmienna metoda badania: ucieleśnienie tradycji i guwernantka postępu → humanistyczna refleksja nad nauką koncentrowała się na badaniu i rekonstruowaniu tej metody w jej idealnej postaci;
pytanie o wzajemny stosunek tradycji i nowatorstwa w nauce = wierność metodzie narzucającej nieograniczony krytycyzm wobec uzyskanego dorobku (XVI-XVII w. = początek metody) - historia nauki nie stanowiła już z założenia fragmentu historii powszechnej czy historii myśli (przedmiot metody rozwijał się raczej w czasie fizycznym niż historycznym);
jeśli socjolog nie zgadzał się z deklaratywnym twierdzeniem o roli nauki w kulturze (wewnętrzny mechanizm wiedzy miał być autonomiczny wobec okoliczności zewnętrznych), popadał w wyjaśnienia przeczące jej intelektualnej autonomii (tu: jej dorobek jako niezapośredniczona odpowiedź na sytuację ekonomiczną czy polityczną);
epistemologia w sposób skrajny musiała traktować poznanie naukowe i jego ewolucję - jako wynik niezmiennych, niczym niezapośredniczonych zdolności natury ludzkiej, jako ucieleśnienie jej racjonalności, zawsze takiej samej i na tym samym polegającej;
2
Thomas S. Kuhn: z wykształcenia fizyk, z zamiłowania - filozof, z uprawianego zawodu - historyk nauki
↓
tradycyjną wizję rozwoju poznania naukowego przedstawia jako produkt rekonstrukcji jego dziejów na gruncie określonych założeń filozoficznych (radykalny empiryzm, pozytywizm), które odrzuca: 1) rekonstrukcja ta nie daje się pogodzić z dziejami rzeczywistymi
i rzeczywistą praktyką badawczą uczonych
domaga się, aby teoria wiedzy stosował się do zjawisk ujawnianych przez historię nauki
(uwaga: samo odrzucenie radykalnego empiryzmu, choć wyklucza czysto kumulatywną koncepcję rozwoju wiedzy, nie implikuje akceptacji proponowanego przez Kuhna modelu → od czasów Paula Duhema);
czy model ten da się uzasadnić? - pisanie historii jest przecież związane z zabiegami interpretacyjnymi stosowanym wobec faktów historycznych (nadawanie znaczeń słowom, sposób formułowania pytań względem zbiorów uznanych informacji źródłowych, ocenia ważności zjawisk)
↓
Kuhn wie, że nie ma zespołu takich faktów historycznych, które nie dopuszczałyby rozmaitych interpretacji (nie ma faktów niezależnych od teorii)
jakie są przesłanki teoretyczne stanowiące zaplecze historiografii i historiozofii nauki Kuhna?
3
centralne pojęcie Struktury rewolucji naukowej to paradygmat - kategoria wprowadzona, aby: 1) zdać sprawę z zasadniczej różnicy między rozwojem nauki a innych dziedzin twórczości intelektualnej, 2) wytłumaczyć zjawisko zerwania z tradycją, rewolucji
w nauce;
paradygmat = zespół zasadniczych przekonań i uprzedzeń wspólnoty badaczy - jej roboczym instrumentarium ma stanowić historycznie zmienny consensus omnium grupy umożliwiający postęp, nawracanie do kwestii już raz rozstrzygniętych, rozwiązywanie kolejnych łamigłówek (na jego podstawie dokonuje się kumulacja wiedzy, postęp);
funkcjonuje do czasu, gdy wskutek kryzysu ( = niemożności rozwiązania jakiegoś problemu zgodnie z jej [tradycji] założeniami), [tradycja] zostaje odrzucona, zastąpiona przez inną, niewspółmierną ze swą poprzedniczką; zmiany są punktami nieciągłości procesu (nowy świat nie koresponduje ze starym);
upadek paradygmatu to zło konieczne, zburzenie dotychczasowego świata, podważenie własnych rezultatów
= napięcie między tradycją a nowatorstwem zostaje wpisane w obraz nauki jako jej cecha immanentna (autor: żadna metoda nie może nigdy konkluzywnie rozstrzygnąć, czy bronić hipotezy, czy ją porzucić);
autor (A. Amsterdamski): nauka formalna musi istnieć, aby były możliwe rewolucje naukowe;
4
rozróżnienie consensus omnium od paradygmatu w węższym sensie: consensus omnium jako „matryca dyscyplinarna”, paradygmat w węższym sensie: = „okaz” wzorca rozwiązywania problemów w danej dziedzinie - wówczas paradygmat częścią matrycy [uściślenie wprowadzone do drugiego angielskiego wydania Struktury rewolucji naukowej];
eksplikacje teoriopoznawcze pojęcia „paradygmat”: kwestia roli rozwiązań wzorcowych w kształtowaniu dyscyplinarnego consensus omnium;
dotychczas skupiano się na problemie consensus omnium, na „programach badawczych”, „ideałach nauki”, na roli czynników pozametodologicznych (socjologicznych) → zastrzeżenia:
monopolistyczne panowanie jednego paradygmatu w okresach normalnego rozwoju dyscypliny;
rola czynników pozalogicznych;
wzajemny stosunek (niewspółmierność) kolejnych paradygmatycznych punktów widzenia;
stosunek do języka nauki bliski koncepcji L. Wittgensteina/ T. Kuhn: istnieje zmiana sensu lub zakresu stosowalności terminu; jeśli znaczenie nie zależy od uprzedniego wyznaczenia granic, zależ od użytku, jak robimy z tym terminem (przypisanie znaczenia na mocy podobieństwa);
filozof nauki nie powinien (jeśli nie chce wypaczyć) rekonstruować rzeczywistego postępowania uczonych, wprowadzając z zewnątrz definicje i reguły przyporządkowania, wyznaczając pojęciom i twierdzeniom ścisły zakres → powinien badać (opisywać) faktyczne użycie terminów i pojęć = użycia paradygmatyczne i z nimi jakoś spokrewnione;
5
wpływy L. Wittgensteina → u Kuhna [parafraza fragmentu Dociekań filozoficznych]: „Zamiast podać coś, co byłoby wspólne wszystkiemu, co nazywamy nauką, powiadam, że nie wcale czegoś jednego, co wszystkim tym zjawisko byłoby wspólne […]. Są one natomiast rozmaicie ze sobą spokrewnione”;
nie można podać metodologicznego kryterium demarkacji, ale „nauka jako całość” ma sens, gdy oznacza naukę pewnego okresu historycznego lub to, co za naukę w tym okresie uchodziło (paradygmat zgodny z „ideałem nauki” [określ. autora], jest uściśleniem lub uszczegółowieniem dla danego obszaru badań)
↓
tłumaczy zarzuty-trudności wobec teorii Kuhn:
1) nie każda paradygmatycznie zorientowana działalność ludzka uchodzi za naukową, 2) pozwala zachować pojęcie normalnej działalności naukowej, 3) uzasadnia odróżnienie rewolucji lokalnych od globalnych, 4) dopuszcza zmianę paradygmatu dyscyplinarnego (nie oznacza złamania consensu omnium),
5) traktowanie reguł metodologicznych jako norm służących realizacji określonego ideału poznania (tu: ich zmienność historyczna, istnienie kilku metodologii na gruncie tego samego ideału poznania);
u Kuhna: skupił zainteresowania na przemianach w poszczególnych wąskich specjalnościach;
autor: języki sztuczne są wyspami na morzu języka potocznego, ale [wbrew koncepcji Kuhna] rola badacza polega na wyznaczeniu ich granic i zamykania ich; rewolucja czyni wyrwy w tej pracy;
w niektórych sytuacjach uczony musi stosować pojęcia inaczej, niż nakazywałyby to dotychczasowe definicje i reguły przyporządkowania → spór dotyczy tego, że w nauce takie postępowanie jest czymś wyjątkowym, a nie paradygmatycznym, uczony powinien wiedzieć, gdzie i dlaczego gwałci reguły językowe, czyni tak po to, aby zaraz wprowadzić nowe definicje i reguły (tu: zatarcie granic między nauką normalną a stanem kryzysu);
6
ewolucja teorii pojęcia paradygmatu (lata 70.) → [Obiektywność, sądy wartościujące
i wybór teorii] liberalizacja poprzedniego stanowiska: teza, że reguły metodologiczne nie wyznaczają wyboru teorii w sytuacji konfliktu z doświadczeniem, lecz decyzja w tej kwestii jest wyznaczona przez czynniki pozametodologiczne → zastąpiona: w sytuacji takiej nie istnieje algorytm stosowania tych reguł
↓
wybór metodologii na podstawie dokładności, spójności, ogólności, prostoty, owocności, ale mogą one (te kryteria) popadać ze sobą w konflikty, sposób ich zastosowania dla oceny teorii nie jest jednoznaczny; istnieje wspólna instancja nadrzędna: zespół wartości uznawanych w całej społeczności (autor: jest nią historycznie ukształtowany ideał nauki);
7
odróżnienie nauk klasycznych od baconowskich: „Jeśli baconizm niewiele przyczynił się do rozwoju dyscyplin klasycznych, to dał on przynajmniej początek wielu nowym dziedzinom badań, mającym często swe źródła w rzemiosłach” [Dwa bieguny];
w XVI-XVII w. ukształtował się nowy ideał poznania naukowego narzucający nową koncepcję doświadczenia i nowy język (pierwsze sukcesy w dziedzinach klasycznych [określenie Kuhna]) → później zgodnie: nowy paradygmat uzyskuje sukces stopniowo (rekonstrukcja wizji świata, jaką narzucał poprzedni) = procesy dokonujące się w magnetyzmie, chemii, elektryczności to opóźnione w czasie realizacja tego samego ideału na terenie dziedzin klasycznych;
8
consensus omnium w szkołach humanistycznych (historia myśli społecznej, historia filozofii): tu nie istnieje, niczego nowego nie wprowadza/nawet ich przedparadygmatyczność (celem consensus omnium [autor: to byłby ich koniec]);
problem współczesnej humanistyki: wieloparadygmatyczność (tu: globalne wizje świata narzędziem i środkiem, w humanistyce - celem) [zdanie autor];
„Zasada konwencjonalności języka a procedury eksplanacyjne w lingwistyce”
I PROGRAM MŁODOGRAMATYKÓW:
- Kwestie związane z wyjaśnianiem w językoznawstwie stały się bardzo istotne, gdy narodziło się nowożytne językoznawstwo. Stało się to w chwili wystąpienia młodogramatyków.
- Głosili zasady skrajnie scjentystyczne.
- Dążyli do tego, by zadaniem językoznawcy nie było kodyfikowanie reguł poprawnego mówienia, pisania. Nie mieli osądzac co jest zgodne z gerułami, a co nie. Mieli natomiast zająć się opisem i wyjaśnianiem zjawisk językowych, zwłaszcza spostrzeganych w ich historycznym rozwoju.
Historyzm - dyrektywa metodologiczna.
Sposób myślenia młodogramatyków:
Jeśli językoznawca ograniczy się tylko do synchronicznego punktu widzenia, to nie jest w stanie stosowac procedur eksplanacyjnych. Pozostanie jedynie na poziomie idiograficznego deskryptywizmu, który skazuje językoznawcę na normatywność.
Językoznawstwo nomotetyczne musi poszukiwać praw naukowych w zakresie historycznej zmienności języków, ich pokrewieństwa, formowania się i rozpadania rodzin językowych, nakładania substratów i superstratów.
- Program młodogramatyków został zakwestionowany przez orientacje strukturalistyczne, które chciały rewaloryzacji lingwistyki synchronicznej.
- Przejęto od nich wymóg nomotetyczności. By językozn. Synchroniczne zasłużyło na miano naukowości, powinno również uwzględniać i stosować procedury eksplanacyjne.
- Przeciwstawiano się atomizmowi młodogramatyków. Młodogramatycy próbowali wyjaśniać zmiany historyczne, którym podlegały określone głoski, stosowanie określonych końcówek fleksyjnych. Strukturaliści natomiast akcentowali podporządkowanie tego typu elementów zasadom organizującym cały tzw. system języka.
- Strukturalna teoria języka powstała w opozycji do językoznawstwa historyczno-porównawczego młodogramatyków.
- Strukturaliści w swoim programie umieścili jeden z naczelnych postulatów scjentystycznych - nomotetyczność lingwistyki.
II
NAJISTOTNIEJSZE TYPY WYJAŚNIANIA STOSOWANE PRZEZ JĘZYKOZNAWCÓW:
przyczynowo-skutkowe
synchroniczno-funkcjonalne
diachroniczno-funkcjonalne
funkcjonalno-genetyczne
teleologiczne
stosowanie rozumowań operujących wyłącznie terminologią gramatyczną.
III
Dyrektywalny charakter reguł - przy ich pomocy usiłuje się konstruować pseudowyjaśnianie gramatyczne. Polega to na zanurzeniu gramatyki w tym, co się nazywa kompetencją językową (płaszczyzna świadomościowa, do niej relatywizowane są poszczególne reguły. Jest tym składnikiem teorii lingwistycznej, którą można uznać za niezbędny dla formułowania procedur eksplanacyjnych.)
IV
Językoznawca, który rekonstruuje gramatyczny opis języka, ma do wyboru dwie drogi:
Postawa instrumentalistyczna - oparcie dokonywanej rekonstrukcji na twardym materiale stricte językowym: korpusie danych materiałowych, na który składaja się wypowiedzi zrealizowane w języku rekonstruowanym i uznane za poprawne.
Postawa realistyczna - można spróbować waloryzować gramatyki stosując takie kryteria, jak: prostota, elegancja, pojemność generatywna itd. Nie jest konieczne odwoływanie się do intuicji, wiedzy, świadomości mówiących.
Pojęcie gramatyki uniwersalnej
Przywoływana w dwu przypadkach ( dwa sposoby wykorzystania idei gramat.uniwers.)
hipoteza natywistyczna - gramat. Uniwersa. Ma charakter wrodzony, biologicznie dziedziczony przez poszczególne egzemplarze gatunku homo-sapiens.
2. przykład może być zilustrowany przykładem teorii zwanej semantyką generatywną.
Zwolennicy przyjmuja pierwotność schematu semantycznego wobec schematu syntaktycznego w wypowiedzi. Konstruowanie takiej wypowiedzi polega na dopasowywaniu jednostek językowych do schematu semantycznego uprzednio zamierzonego.
Uniwersalność umieszczona jest nie w umyśle, duszy, psychice, lecz raczej w świecie odzwierciedlanym w języku. Gramatyka jest nie tylko uniwersalna ale i naturalna.
PODSUMOWUJĄC. GŁOWNE SPOSTRZEŻENIA DOT. STOSOWANIA W JĘZYKOZNAWSTWIE PROCEDUR EKSPLANACYJNYCH:
- Procedury tego typu były postulowane i realizowane na długo przed powstaniem serii tekstów zapoczątkowanych przez Chamskiego.
- Filozoficzne zaplecze, dające się stwierdzić w każdym przypadku sporu o stosowalność wyjaśniania oraz o jego rodzaje.
Fundamentalne dla językoznawców zagadnienie konwencjonalności czy naturalności języka.
REFLEKSJE NAD JĘZYKIEM
Spór: naturalność vs. konwencjonalność języka. Dotyczy tez epok, kiedy język stanowił przedmiot zainteresowania jeszcze nie lingwistów, lecz raczej mędrców.
- konwencjonalność znaków językowych, to problem stricte semiotyczny. Może być ujmowany w perspektywie czysto synchronicznej lub historycznej, filogenetycznej, ontogenetycznej, glottogonicznej itd. Zawsze będzie dotyczyć podstawowego pytania o związek między formą znaku, a jego znaczeniem. U de Saussure'a jest to konwencjonalność związku miedzy płaszczyznami signifiant i signifie.
Zasada konwencjonalności stanowi podstawę dychotomicznego podziału wszystkich wypowiedzi językowych na dwie kategorie: 1. znaki arbitralne 2, znaki naturalne.
REFERAT:
ANNA WIERZBICKA, W POSZUKIWANIU TRADYCJI. IDEE SEMANTYCZNE LEIBNIZA
Anna Wierzbicka zaczyna swoje rozważania od wskazania na niemal odwieczne zainteresowanie zagadnieniem znaczenia słów. Zauważa, że temat ten interesował już Arystotelesa (np. w traktacie dotyczącym dociekań semantycznych, w Topikach). Jednak jego sformułowany program nie został zrealizowany po dzień dzisiejszy. Autorka zauważa, że semantyka jest jedną z najstarszych dyscyplin i jedną z najmniej poznanych. Dlaczego tak się dzieje? Odpowiedź przynosi specyfika tej nauki. Wierzbicka pisze, że nie ma nic łatwiejszego niż obalić jakąś definicję (Topiki, Arystoteles) oraz że nie ma nić trudniejszego niż zbudować definicję nie do obalenia.
Arystoteles krytykował praktykę semantyczną, a właściwie leksykograficzną. Praktyka ta nie różni się właściwie niczym od tej, która była uprawiana w czasach nowożytnych i jest uprawiana nadal. Reguły Arystotelesa pokrywają się z formułami Apresjana, teoretyka semantyki, dlatego mówimy o zasadach Arystotelesowsko-Apresjanowskich. Pierwsza zasada głosi, że eksplikacje słowne muszą się różnić od doraźnych parafraz swoim ukierunkowaniem. Eksplikować to z kolei sprowadzać słowa semantycznie złożone do słów prostych, niezrozumiałych do zrozumiałych, ciemnych i zawiłych do jasnych. Jednak dobór takich słów musi być przemyślany. Wśród słów istnieje bowiem hierarchia i poprawne definicje muszą tę hierarchię uwzględnić. Dlatego też definicja musi być eksplikacją, rozkładem na czynniki prostsze, w którym każde słowo jest konieczne. Definicja powinna być definicją minimalną. W takim rozumieniu definiować nie można poprzez użycie synonimów, homonimów, metafor, upiększeń, wariacji. Definicja nie jest też komentarzem, opisem. Niedopuszczalna jest niejasność, zawiłość, dublowanie znaczeń (redundancja).
Definicja powinna być adekwatna, co oznacza, że znaczenie definiens powinno równać się znaczeniu definiendum. Dlatego też definicje nie mogą być zbyt wąskie, ani zbyt szerokie. Dla Arystotelesa oprócz wspomnianych wyżej raczej oczywistych cech ważny jest także postulat „strukturalności” opisu. Strukturalizm semantyczny łączy się przede wszystkim z tożsamością definiens z definiendum. W tym znaczeniu definicja przez przeciwieństwo (to znaczy dobry= niezły, mądry=niegłupi jest nie do przyjęcia. Narusza bowiem ona zasadę hierarchii, prowadzi do powstania błędnego koła. Nie pokazuje prawdziwej relacji między przeciwnościami, bowiem ich znaczenia są częściowo identyczne.
Koncepcja Arystotelesa mimo że bardzo bliska programowi Apresjana to nie jest ona z nią identyczna, bowiem Arystotelesowska teoria semantyczna wiązała się z jego filozofią bytu. Jednak mimo wszystko koncepcje pochodzące z XVII wieku wydają się kontynuacją myśli Arystotelesa. W tym momencie należy wspomnieć o Leibnizu, który bronił Arystotelesa-semantyka przed napaściami swoich współczesnych. Jednakże Pascal, Locke, którzy zauważali wyraźną lukę w koncepcji Arystotelesa zdają się mieć wiele racji. Zauważają bowiem duży brak koncepcji filozofa, który nie zwraca uwagi na terminy pierwsze, nieredukowalne, takie których nie da się zdefiniować. Dlatego Arystoteles, który wyśmiewał błędne koła w definicjach, nie obronił się przed zarzutem - jak definiować słowa proste?
W wieku XVII wiadome już było, że koncepcja Arystotelesa, program definicji słownych może zostać urzeczywistniony, ale tylko w oparciu o indefinibilia (pojęcia proste). Także w XVII wieku zauważano hierarchię słów, zależności między terminami mniej i bardziej złożonymi. Jednak gdzie przebiega granica między pojęciami prostymi a złożonymi, między tym co jest do zdefiniowania, a tym co nie jest, między definibiliami a indefinibiliami. Kartezjanistom sprawa ta wydawała się jasna. Uważali oni, że jeśli słowo jest już samo przez się związane z ideą jasną i oczywistą, wszelkie próby dalszego jego definiowania mogłoby je zaciemnić. Idee jasne są bowiem takie same dla wszystkich. Dlatego ustalenie zbioru indefinibiliów nie jest problemem, bowiem sama jasność odpowiadających im idei jest wystarczającym kryterium. Podobnie myślał Locke, uważał, że ustalenie takiego zbioru idei prostych i złożonych jest bardzo proste.
Stanowisko Leibniza było inne. Wierzył on w istnienie uniwersalnych idei wrodzonych, ale nie wierzył, w to aby sama „jasność” była ich wystarczającą cechą rozpoznawczą. Przez całe życie pasjonował go problem wrodzonego „alfabetu myśli ludzkiej”. Ustalenie takiego alfabetu było dla niego bardzo trudnym zadaniem, chwilami uważał je nawet za niemożliwe do wykonania. Uważał, że jedyną metodą, która go do sformułowania swojego alfabetu doprowadzi jest metoda prób i błędów, poprzez wstępne próby eksplikacyjne, poprzez żmudną analizę sematyczną. Do swoich rozstrzygnięć podchodził z pokorą. Dlatego zamiast wyrokować, która jego zdaniem jest definicja prosta a która złożona, używał nazwy: „terminy prostsze” (termina simpliciora). Tak powstał unikalny w historii semantyki tekst - Tablice definicji.
Leibniz podczas swoich poszukiwań pojęć prostych zauważył, że nasze intuicje mogą być omylne. Przekonywał się o tym na podstawie wielu pojęć prostych Locke. Jako przykład można podać słowo „ruch” według Locke'a jest pojęciem pierwszym. Leibniz zauważył jednak, że ruch implikuje zmianę. Te dwa pojęcia - ruchu i zmiany mając coś wspólnego. Każdy ruch stanowi jakąś zmianę. Dlatego też ruch jest semantycznie bardziej złożony od zmiany. Ruch nie może być pojęciem prostym.
Leibniz jako strukturalista zdawał sobie sprawę z relacji semantycznych, dlatego tak ważne dla niego było aby pojęcia proste były rzeczywiście proste, czyli niezależne jedne od drugich. Chciał stworzyć alfabet minimalny, który będzie pokazywał wszystkie istniejące relacje. Takie podejście było inne np. od Locke'a, który uważał, że liczba idei prostych jest nieograniczona. Uważał np, że każdy kolor, smak, zapach stanowi ideę prostą. Dla Leibniza nazwy poszczególnych kolorów, smaków nie mogą być semantycznie proste, ponieważ wchodzą one w relacje semantyczne między sobą, a także z pojęciami z innych sfer.
Tablice definicji, które stworzył Laibniz nie spełniają jego wszystkich postulatów. Sa tylko próbą, przybliżeniem do tematu. Tablice miały być cząstką „słownika łacińsko-filozoficznego”. Leibniz chciał stworzyć bowiem specjalny „język semantyczny”, niezbędnego narzędzia do analizy semantycznej. Swoją analizę semantyczną traktował filozof jako przekład z języka naturalnego na filozoficzny. Pomyślany w ten sposób „słownik łacińsko-filozoficzny” miał mieć charakter nie tylko teoretyczny, ale także praktyczny. Miał służyć nie tylko lepszemu rozumieniu myśli ludzkiej, ale także jej doskonaleniu. W ten sposób miał powstać idealny język filozoficzny, który miał służyć także podczas komunikowania się.
Podobne marzenia o stworzeniu idealnego języka filozoficznego miał John Wilkins. Książka Wilkinsa na ten temat ukazał się w 1668 roku w Londynie. Przeczytał ją też Leibniz. Jednak koncepcja tych dwóch myślicieli była różna. Wilkins chciał bowiem stworzyć język sztuczny. Miejsce niedefiniowalnych wyrazów języka naturalnego, czyli pojęć prostych zajęły arbitralne symbole zwane „cząstkami transcendentalnymi”. W intencji Wilkinsa symbole te miały odpowiadać rzeczywistym relacjom semantycznym - i w tym sensie nie były arbitralne. Realność ich jednak podkreślana w tytule dzieła była realnością optymalnego modelu, a nie czymś absolutnym. Dlatego liczba owych cząstek transcendentalnych była w pewnej mierze sprawą arbitralnej decyzji. Dla Leibniza, który odrzucał wszelki arbitralizm w pracach nad „alfabetem ludzkich myśli” pojęcie „dogodnej liczby” jednostek elementarnych było nie do przyjęcia. Leibniz arbitralizmowi Wilkinsa przeciwstawiał ideał „czystej” analizy. Siła języka filozoficznego Leibniza wskazuje na pewną relację. Pokazywanie związków semantycznych między wyrazami języka naturalnego pokazuje zarazem związki logiczne.
Dla Leibniza pokazywanie związków semantycznych za pośrednictwem cząstek transcedentalnych nie jest możliwa. Dlaczego? Bowiem jednostki sztuczne nie są zrozumiałe same przez się. Dlatego też związki pokazywane poprzez ich kombinacje nie są uchwytne i dlatego jedynie język naturalny jest dobrym kluczem do ich pokazania.
Leibniz długo, bo aż przez trzy stulecia, nie znalazł kontynuatora. Gdy w XX wieku pojawiła się semantyka jako gałąź językoznawstwa prace filozofa przysłoniły odkrycia Wilkinsa. Jednak tylko symbolicznie, bo prace obu myślicieli stały się niemal zapomniane. Dlatego nawet nie dziwi fakt, że wysunięta w 1973 roku propozycja o poszukiwaniu elementarnych jednostek semantycznych w jednostkach leksykalnych języka naturalnego była swego rodzaju odkryciem. Niemal nikt nie pamiętał o tym, że taką potrzebę trzy wieki wcześniej zauważył Leibniz. (Arnold Zwicky). Leibnizystą czystej wody, jak to określa Wierzbicka, był jednak Andrzej Bogusławski, który w połowie lat sześćdziesiątych zainicjował badania semantyczne oparte na maksymalistycznym programie poszukiwania niearbitralnego, uniwersalnego zbioru elementów jednostek myśli ze znaczeniami indefinibiliów języka naturalnego.
Wilkins także nie jest szeroko znany, ale jego idea modelowania rzeczywistych relacji semantycznych przy pomocy sztucznych jednostek elementarnych rozpowszechniła się w językoznawstwie XX wieku.
Pogodzenie dwóch teorii dwóch naukowców jest niemożliwe. Albo Wilkins albo Leibniz. Albo użyteczne praktyczne przybliżenia wyrażone w arbitralnych symbolach takiego czy innego języka, albo - poszukiwanie uniwersalnych idei wrodzonych poprzez redukcję języka naturalnego do indefinibiliów.