Językoznawstwo matematyczne
W początkach XX wieku metoda statystyczna przenika do wszystkich dziedzin naukowych, także do językoznawstwa. Nie tylko statystyce lingwistyka zawdzięcza swój charakter matematyczny. Cały nowoczesny system badań językowych jest zorientowany matematycznie. Głównie dlatego, że logiczny charakter analizy matematycznej odpowiada dążeniu lingwistów do tego aby definicje była jak najbardziej jasne i ścisłe.
Pierwszy krok w kierunku współdziałania matematyki i językoznawstwa: 1913 roku wychodzi studium rosyjskiego uczonego A.A.Markowa, który na tekście Puszkinowskiego „Eugeniusza Oniegina” badał metodami statystycznymi prawidłowości w następstwie spółgłosek i samogłosek. Markow pokazał, ze zależności zachodzące pomiędzy jednostkami językowymi można zmierzyć. Stwierdził, że można ustalić matematycznie na podstawie statystycznego prawdopodobieństwa można ustalić, jaka jest szansa, że po danej jednostce pojawi się ta czy inna jednostka. Oznaczało to początek nowej epoki matematycznej, opartej na rozwijaniu „teorii prawdopodobieństwa”.
Pomysł Mandelbrota: w 1957 roku sformułował pogląd, iż nadszedł czas aby przeklasyfikować studia lingwistyczne na odrębne dwie grupy: studia makrolingwistyczne (czyli wszystkie badania przeprowadzanie za pomocą ścisłych, statystycznych metod) i mikrolingwistyczne (badania prowadzone bez pomocy statystyki).
Teorie Zipfa: Zipf z największym powodzeniem badał frekwencję jednostek językowych. Głównie interesowała go teoria psychobiologii (jego termin!), czyli wykrywanie tych czynników psychofizjologicznych, które bezpośrednio warunkują typ zaangażowania człowieka w wykonywaniu dowolnej czynności. Zdaniem Zipfa o typ typie zainteresowania decyduje dążenie do wydatkowania jak najmniejszego wysiłku. Postulował o wyłączenie jako osobnej dziedziny językoznawstwa bioligwistyki (studia podejmujące zagadnienie zjawisk językowych w związku z zachowaniem komunikacyjnym, uwarunkowanym biologicznie). Twierdzenia statystyczne Zipfa:
Złożoność dźwięku (artykulacyjna) pozostaje w stosunku odwrotnie proporcjonalnym do jego frekwencji w wyrazach
Jeśli obliczy się w większym tekście jednego języka stosunek procentowy różnych dźwięków uzyska się liczbę, która utrzyma się dla większości innych tekstów. W udziale procentowym różnych dźwięków w tekście panują pewne stałe stosunki.
Długość wyrazu jest odwrotnie proporcjonalna do jego frekwencji: najczęstsze wyrazy są z reguły najkrótsze.
Liczba znaczeń kontekstualnych wyrazu odpowiada pierwiastkowi kwadratowemu jego frekwencji :/
Morris Swadesh i glottochronologia: w 1950 roku zaproponował wyłączenie w osobna dziedzinę badań, które stosują metody statystyczne w celu ustalenia pokrewieństwa językowego, a także przybliżonego czasu rozejścia się języków pokrewnych do wspólnego punktu wyjścia- tą nową dyscyplinę oznaczono nazwą glottochronologia (później przemianowano ją na leksykostatystykę). Punktem wyjścia było tu odkrycie przez W .Libby tzw. kalendarza atomowego. Na jego wzór za przedmiot badań wzięto „podstawowe morfemy pierwiastkowe”, czyli mówiąc ogólnie wyrazy oznaczające najbardziej elementarne czynności i przedmioty, zakładając, że:
znajdują się one we wszystkich typach językowych i kulturowych.
ilość ich jest na ogół stała w określonym czasie i w określonej kulturze.
ilość ich zmienia się w stosunkowo stałym tempie, powodując zmniejszenie się pierwotnego zasobu wspólnych wyrazów.
Założenie teoretyczne brzmiało, że porównując ze sobą zasoby wyrazów podstawowych w dwóch pokrewnych językach w danym etapie ich ewolucji, można będzie wnioskować o czasie ich dyferencji.
TEORIA INFORMACJI (w dużym skrócie): obejmuje badania naukowe, które mają rzucać światło na procesy nadawania i odbierania komunikatów wraz ze wszystkim, od czego te procesy zależą. Pionierem był tu Norbert Wiener - twórca cybernetyki. Zasadniczy kierunek jego myśli: sposób zachowania w danej sytuacji jest owocem wyuczonej poprzednio, automatycznej reakcji na bodźce z zewnątrz. W centrum studiów cybernetycznych stanęła teoria informacji. Jej podstawowe idee sformował w 1948 roku Claude Shannon. Ważna była książka którą napisał wraz z W. Weaver „ The mathematical theory of communication” w 1949 roku (przeznaczona dla matematyków - lingwista bez przygotowania nic z niej nie zrozumie). W świetle teorii informacji potwierdzenie uzyskała teoria lingwistyczna R. Jacobsona - wysunął zasadę binarności w języku i podkreślał wagę wyodrębnienia cech dystynktywnych w fonemach. Co ważne, pojęcie „kodu”, również pochodzi z teorii informacji - odnosi się do całego zbioru sygnałów za pomocą których przenosi się konkretna informacja. Każde ujmowanie jakiejś myśli w komunikat stanowi proces kodowania, a każde odebranie wiadomości to proces dekodowania. Ilość informacji zawarta w jednym znaku komunikacyjnym została nazwana entropią. Entropia jest tym większa, im wiadomość mniej banalna i mniej przewidywalna. W obliczaniu entropii respektowana jest zasada dychotomii (binarności). Jednostką miary jest tu bit, którego wartość opiera się na zastosowaniu prostej alternatywy w rozpoznawaniu wiadomości przynoszonej przez znak (tzn. każda wiadomość o zdarzeniach, o których mowa w komunikacie, oznacza wykluczenie tej drugiej, korelatywnej na zasadzie przeciwieństwa, wiadomości). I jeszcze jedna ważna rzecz - pojęcie redundancji: są to elementy w wypowiedziach, które wydają się dla treści informacji nie istotne, ale pomagają w zrozumieniu przekazu.
Przekład maszynowy: to program dla elektronowej maszyny liczącej. Zapoczątkowany w USA - największe osiągnięcia w tej dziedzinie miała grupa harvardzka i grupa z uniwersytety Georgetown. Pierwszą konferencję na temat przekładu maszynowego zorganizowano w USA w 1952 roku. Proces tłumaczenia maszynowego obejmuje następujące fazy:
Przyjęcie tekstu
Rejestrowany tekst przekształca się automatycznie na język wzorów.
Kod matematyczny, który odpowiada tekstowi źródłowemu, przekształca się w kod matematyczny języka, na który się przekłada
Przekształcenie formuł matematycznych na język ludzki - ukończenie przekładu.
Ferdynand de Saussure
Ferdynand de Saussure żył w latach 1857-1913, z pochodzenia był Szwajcarem, twórca tzw. szkoły genewskiej, profesor lingwistyki w Genewie i w Paryżu. Wykładał języki germańskie, łacinę etc. Dopiero w roku 1894 zaczął zajmować się zagadnieniami językoznawstwa ogólnego. Jego idee stanowiły podstawy dla dzisiejszej lingwistyki strukturalnej. Swoje wykształcenie językoznawcze odebrał od młodogramatyków (Brugmanna, Osthoffa), poza tym zapoznał się z poglądami naturalisty Shleichera i geografa lingwistycznego Gillierona. Szczególnie wysokie uznanie miał dla szkoły kazańskiej. Interesował się również socjologią (duży wpływ teorii Durkheima). W pierwszej swojej pracy ogłoszonej w 1878 roku wykazał się dużą samodzielnością w myśleniu, przedstawiając zjawiska językowe w powiązaniu, tj. jako system, co było nowością w językoznawstwie.
Założenia:
W okresie studiów de Saussure zajął się wokalizmem indoeuropejskim. Twierdził, że indoeuropejski system dźwiękowy poza znanymi nam dźwiękami zawierał jeszcze jedną znikłą później głoskę - późniejsze odkrycia językoznawców potwierdziły jego teorię.
Podstawowe poglądy badacza zostały opublikowane w 1916 roku w książce „Cours de linguistique generale”. Sam jej nie napisał - została zredagowana po jego śmierci na podstawie notatek uczniów. Kwestie poruszane w książce to min. rozgraniczenie mowy jednostki (parole) i języka, który jest własnością całej społeczności i który znajdując się w świadomości językowej każdej jednostki determinuje określoną strukturę mowy indywidualnej (langue). De Saussure był entuzjastą wprowadzenia do analizy językowej formuł matematycznych.
De Saussure zadał podstawowe pytanie: czym jest język jako przedmiot badania naukowego? Dla pełniejsze odpowiedzi użył zestawienia z grą w szachy - do gry w szachy używa się figur, które mogą być wykonane z rozmaitego materiału, obowiązująca jest jedynie wartość jaką nadaje się figurom w grze. Tak samo w języku: znaczenie nie jest uwarunkowane samym brzmieniem wyrazu, ale położeniem, jakie zajmuje on, jako znak językowy, w ramach całego systemu. Figurami szachowymi manipulujemy wg. zasad - podobnie z językiem - wszelki znak językowy jest w pewnym sensie dowolny, ale z drugiej obowiązujący ( konkretne przywiązanie strony dźwiękowej do znaczeniowej zmienia się od języka do języka, co wskazuje, ze powstało „dowolnie”, ale raz ustalony związek obowiązuje!). Zjawisko takie jak supletywizm też ma odzwierciedlenie w grze w szachy - zamiast zgubionego pionka można używać czegoś innego, pamiętając, że ten nowy przedmiot ma wartość figury zgubionej. Każda figura szachowa posiada swoją wartość wyznaczoną regułami gry, ale w grze figury zajmują różne pozycje względem siebie. Podobnie konkretna wartość językowych jednostek bywa określana ich aktualnym użyciem.
Język jako system: język wg. De Saussure'a jest systemem znaków, powiązanych ze sobą tak, że wartość jednego znaku zależy od obecności pozostałych. System językowy opiera się na opozycjach. Natura znaku język. jest złożona. Jest to połączenie zjawiska dźwiękowego, którym się coś oznacza (signifiant), ze znaczeniowym (signifie). Z rozważań nad stosunkiem signifiant i signifie powstała semiologia. Możliwości użycia danego wyrazu wyznaczają jego wartość. Dla poznania natury znaku język. Niezbędne jest zbadanie, poza znaczenie, jego wartości. Mowa ludzka jest zjawiskiem typu linearnego - w tym sensie, że wszystkie elementy z których jest zbudowana, wypowiadane są w czasie pojedynczo: tworzą ją jednostki uporządkowane sukcesywnie w łańcuch tekstu. Język (langue) jest właściwością zbiorowości, a jednostka urzeczywistnia go bezpośrednio w mowie (parole). Można go badać na dwóch płaszczyznach: synchronicznej i diachronicznej. Synchronia ujmuje stan językowy w pewnym przekroju czasowym, a diachronia zajmuje się fazami ewolucji językowej. Język rozpatrywany w przekroju synchronicznym przedstawia się jako zorganizowany system, istniejący w świadomości danego kolektywu.
2