Modul 1 Logika

background image

I

Andrzej Indrzejczak

LOGIKA

background image

1

Logika współczesna to kompleks wielu dyscyplin, który trudno jest opisać wyczerpująco w krótki

sposób. Składa się na tę złożoność zarówno historia logiki, jak i jej współczesne związki

z innymi naukami, zwłaszcza z matematyką i informatyką. Tradycyjnie zwykło się dzielić logikę

na trzy podstawowe działy: semiotykę logiczną, logikę formalną i metodologię nauk.

Semiotyka logiczna

to ogólna teoria systemów znakowych. Szczególnie ważna klasa takich

systemów to języki naturalne i sztuczne. Logików interesują zasadniczo tylko pewne

aspekty tworów językowych, związane z ich użyciem dla przekazywania i przetwarzania

informacji. Ważna jest analiza struktury języka, jego składni – te zadania realizowane są na

gruncie

syntaktyki

, czyli nauki o relacjach pomiędzy znakami.

Język przekazuje informację dzięki temu, że jego elementy posiadają znaczenie –

semantyka

jest tą częścią semiotyki, która bada relacje między znakami a ich znaczeniem. Ostatni dział

semiotyki to

pragmatyka

, która analizuje relacje pomiędzy znakami a ich użytkownikami.

Przekaz informacji z pomocą języka naturalnego jest narażony na zakłócenia, wywoływane

przez takie mechanizmy językowe, jak wieloznaczność, nieostrość, chwiejność

znaczeniowa. Stąd dużo uwagi poświęca się analizie błędów logicznych oraz badaniu

środków służących zwiększaniu precyzji komunikacji.

Logika w sensie ścisłym to

logika formalna

. Ten dział zajmuje się analizą rozumowań,

w szczególności zaś badaniem warunków ich poprawności. Analizy tej dokonuje się budując

formalne systemy dedukcyjne w sztucznych językach. Pozwala to uniknąć niebezpieczeństw

związanych z brakiem precyzji charakterystycznym dla języków naturalnych. W logice dedukcyjnej

poprawność rozumowań utożsamia się z zachodzeniem relacji wynikania pomiędzy

przesłankami i wnioskami. Wynikanie można badać na drodze czysto syntaktycznej bądź

semantycznej.

Na gruncie

teorii dowodu

wynikanie opisuje się syntaktycznie, poprzez konstrukcję

odpowiednich zestawów reguł.

Teoria modeli

dostarcza semantycznej charakteryzacji relacji

wynikania poprzez konstrukcję odpowiednich struktur interpretacyjnych. Oba podejścia są

komplementarne.

Ostatnim działem logiki jest

metodologia nauk

, w której analizuje się podstawowe sposoby

postępowania badawczego. Do logiki należy tzw. metodologia ogólna, natomiast metodologie

szczegółowe poszczególnych dyscyplin naukowych należy traktować raczej jako działy tych

nauk. W ramach logiki mieści się ogólny podział typów nauk i związanych z nimi procedur,

background image

2

analiza pojęcia teorii naukowej oraz takich uniwersalnych zabiegów badawczych, jak

definiowanie czy klasyfikowanie. Ważną częścią metodologii jest

metalogika

, w której

ramach dokonuje się badania systemów formalnych.

Obecny kurs logiki ma przede wszystkim dwa cele praktyczne:

- Zaznajomienie studentów z tymi elementami analizy języka, które mogą wpłynąć na większą

kontrolę precyzji wypowiedzi.

- Prezentację pewnych technik, które pozwalają na analizę poprawności rozumowań

w języku naturalnym.

Prezentacja teoretycznych zagadnień jest ograniczona do minimum. Kurs ten zasadniczo nie

zawiera wyników z zakresu metalogiki, chociaż w wielu miejscach podaje się pewne informacje

dotyczące logiki współczesnej, jej działów i podstawowych zagadnień. Poniższy kurs jest

samowystarczalny. Nie zakłada się żadnej wiedzy specjalistycznej, w szczególności z zakresu

logiki. Wiedza wyniesiona ze szkoły średniej powinna wystarczyć do zrozumienia tekstu. Od

czytelnika wymaga się jednak uważnego czytania i rozwiązywania wszystkich zadań. Kurs

obliczony jest na 6 tygodni.

background image

3

W pierwszym module kursu zapoznamy się z podstawowymi zadaniami logiki i jej kluczowymi

pojęciami. Zaczniemy od wyjaśnienia czym jest logika, w różnych znaczeniach tego słowa.

Następnie zastanowimy się nad tym, czym są rozumowania.

Dwa podstawowe pojęcia logiki związane z analizą rozumowań to wynikanie i sprzeczność

– ich omówienie zajmie resztę obecnego modułu. Poniższe wiadomości mają charakter wstępny,

ale ich właściwe zrozumienie i przyswojenie ma fundamentalne znaczenie dla realizacji dalszej

części kursu.

background image

4

Słowo logika jest używane w wielu znaczeniach. Możemy usłyszeć np. o logice biznesu, o tym,

że czyjeś postępowanie jest nielogiczne, że to, iż coś się komuś przydarzyło, jest logicznym

następstwem jego zachowania. Logiczne postępowanie zwykło się przeciwstawiać działaniom

spontanicznym, tak jak rozum przeciwstawia się czasem uczuciom.

Bez względu na różnice się, że można znaleźć coś wspólnego w tych rozmaitych kontekstach.

Słowo logika (lub jego pochodne, jak logiczny) jest używane wtedy, gdy chcemy podkreślić

występowanie jakiejś prawidłowości, kiedy chcemy zaznaczyć, że w grę wchodzi pewna

konsekwencja postępowania, stosowanie pewnych reguł bądź zasad. Przymiotnik (nie)logiczny

stosowany bywa zarówno w odniesieniu do osób, jak i działań, jednak przede wszystkim

stosować go należy w odniesieniu do myślenia. Taki jest źródłosłów tego wyrazu – greckie

logos

tłumaczy się zazwyczaj jako rozum, myśl (czasem słowo).

Słowo logika stosowane jest również, a może przede wszystkim, jako nazwa pewnej dyscypliny

naukowej o wieloletniej tradycji. Za jej twórcę uznać należy Arystotelesa (384–322 r. p.n.e.),

jednego z najwybitniejszych uczonych i myślicieli greckich. Nie znaczy to, że wcześniej ludzie

nie myśleli logicznie – wystarczy poczytać dialogi Platona, nauczyciela Arystotelesa, aby się

o tym przekonać. Jednak same zasady takiego myślenia nie były wcześniej poddane

systematycznej analizie; ludzie intuicyjnie stosujący zasady logiki byli jak Pan Jourdain

z komedii Moliere'a „Mieszczanin szlachcicem”, który z zachwytem stwierdza, że tyle lat mówił

prozą, a o tym nie wiedział! Arystoteles w swoich pracach prezentuje logikę właśnie jako

naukę o zasadach poprawnego myślenia. Naukę tą określał zresztą nazwą

analityka

.

To, że ludzie potrafili myśleć logicznie zanim stworzono logikę jako naukę, może budzić

podejrzenie, że bez studiowania logiki można sobie znakomicie poradzić. Zapewne można

dobrze sobie radzić w praktyce z wieloma zagadnieniami, nie znając teoretycznych zasad, na

background image

5

których się one opierają. Można też doskonale znać teorię, a być kiepskim praktykiem.

Znajomość zasad teoretycznych jednak często pomaga i zwiększa naszą sprawność praktyczną –

z logiką jest podobnie.

Przez wiele wieków logika była nawet postrzegana bardziej jako sztuka, niż jako nauka;

oczekiwano, że jej studiowanie może znacznie usprawnić sposób myślenia. Taki pogląd jest

dość dyskusyjny, gdyż myślenie wydaje się być działaniem zbyt spontanicznym, aby można

było wtłoczyć je w sztywny gorset formalnych zasad. Z pewnością jednak teoretyczna

znajomość logiki może dostarczyć nam narzędzi do oceny wartości wyników myślenia własnego

i cudzego, wyczulić na błędy logiczne, brak precyzji i myślowy chaos.

Logika przechodziła w ciągu ponad 2 tysięcy lat swojego istnienia zarówno okresy wzlotów

jak i upadków. W starożytności i w średniowieczu cieszyła się raczej dużym uznaniem – była

pod nazwą

dialektyki

traktowana jako niezbędny element wykształcenia, jako dyscyplina

propedeutyczna, przygotowująca człowieka do dalszych studiów. Rozwój logiki w tych okresach

miał bardziej charakter ilościowy niż jakościowy; zasadniczo nie zmieniono logiki

Arystotelesowskiej, chociaż pojawiły się nowe, nieznane wcześniej działy. Ulepszono ją też

znacznie pod względem techniki nauczania.

Epoka nowożytna z początku nie ceniła logiki; wielu wybitnych myślicieli uważało jej

studiowanie za stratę czasu (Francis Bacon), a jej rozwój za zakończony (Immanuel Kant).

Zmianę przyniósł wiek XIX – prace Georga Boole'a, Charlesa Saundersa Peirce'a, Ernsta

Schrödera, i przede wszystkim, Gotloba Fregego. Na początku XX wieku ostatecznie stworzono

współczesną logikę formalną. Jej pionierzy to Bertrand Russell, Alfred Northrop Whitehead,

David Hilbert, Kurt Gödel, Alfred Tarski.

Logika tradycyjna była pojmowana jako dyscyplina filozoficzna, logika współczesna jest raczej

postrzegana jako dyscyplina matematyczna. Istotnie, związki logiki współczesnej z matematyką

są rozliczne: personalne – wszyscy wymienieni wyżej logicy to wybitni matematycy;

przedmiotowe – logika jest traktowana (wraz z teorią mnogości i algebrą abstrakcyjną) jako

element podstaw matematyki, a w jej obrębie udowodniono szereg ważnych wyników

dotyczących matematyki jako takiej. Przede wszystkim jednak logika współczesna jest

dyscypliną matematyczną w sensie metodologicznym, bo korzysta szeroko z technik

matematycznych. Nie należy przy tym zapominać, że logika nadal pozostaje również nauką

humanistyczną – zajmuje się przecież ludzkim myśleniem!

background image

6

Na koniec trzeba podkreślić, że słowo logika jest też używane jako określenie pewnych

formalnych systemów, które logicy konstruują. Na konstrukcje te można spojrzeć jako na

matematyczne modele pewnych aspektów myślenia, chociaż nie zawsze (i nie tylko) w tym celu

się je tworzy. Podstawowym systemem nadal pozostaje

logika klasyczna

, której stworzenie

zawdzięczamy Arystotelesowi, ale warto wiedzieć, że powstało wiele innych logik, często

określanych zbiorczo jako

logiki nieklasyczne

. Niektóre z nich są rozwinięciem logiki

klasycznej – najważniejsze to:

logiki modalne

– analizujące pojęcia konieczności i możliwości,

logiki temporalne

– badające zależności czasowe wyrażane w języku,

logiki deontyczne

– czyli logiki norm i zobowiązań,

logiki erotetyczne

czyli logiki pytań,

logiki epistemiczne

analizujące sposoby wyrażania ludzkiej wiedzy i przekonań.

Wiele logik nieklasycznych powstało jako reakcja na pewne niedoskonałości logiki klasycznej –

są to systemy alternatywne. Najważniejsi rywale logiki klasycznej to:

logika intuicjonistyczna

– rezygnująca z niekonstruktywnych metod dowodzenia,

logiki wielowartościowe

– w których dopuszcza się więcej wartości logicznych niż

prawda i fałsz,

logiki parakonsystentne

– tolerujące sprzeczność,

logiki niemonotoniczne

– dopuszczające zmianę wyniku rozumowania w efekcie

uwzględnienia dodatkowych informacji,

logiki relewantne

– w których bada się implikację przy uwzględnieniu związków

treściowych między zdaniami.

Te bardzo skrótowe charakterystyki mają tylko zasygnalizować mnogość kierunków

poszukiwań. Obecny kurs, który ma charakter podstawowy, ogranicza się siłą rzeczy do logiki

klasycznej, należy jednak zdawać sobie sprawę, że choć logika jest jedna (jako nauka), to logik

(jako formalnych systemów) jest wiele. W paru miejscach postaramy się zwrócić uwagę na

podstawowe założenia i na ograniczenia logiki klasycznej i wtedy – tytułem ilustracji –

przypomnimy o istnieniu bardziej wyspecjalizowanych systemów, podając trochę więcej informacji.

background image

7

Wiek XX przyniósł ogromny rozwój logiki, ale ubocznym i szkodliwym efektem tego rozwoju jest

głęboki rozdźwięk pomiędzy potoczną wiedzą na temat logiki a tym, czym współcześni logicy

faktycznie się zajmują i jakie techniki w swoich badaniach stosują. Dlatego paragraf ten

zakończymy kilkoma uwagami na temat ewolucji logiki w XX wieku.

Powstanie logiki matematycznej było związane nie tylko z zastosowaniem matematyki w logice,

ale i odwrotnie – z wykorzystaniem logiki do badania podstaw matematyki. Badania takie

ukazały szereg trudności i ograniczeń związanych z matematyką i jej zastosowaniami

w naukach przyrodniczych. Ujawnione trudności (np. sprzeczności w

teorii mnogości

Cantora

w jej pierwotnym ujęciu) doprowadziły między innymi: do

aksjomatycznego

scharakteryzowania wielu ważnych teorii matematycznych, do precyzyjnego sformułowania pojęcia

teorii naukowej

i warunków jej użyteczności, wreszcie – do utworzenia

definicji prawdy

w teoriach formalnych. Te ostatnie osiągnięcia Tarskiego z pierwszej połowy XX wieku

zainicjowały w późniejszych latach nowy nurt badań na pograniczu logiki i matematyki, zwany

obecnie

teorią modeli

, który wciąż dostarcza nowych, ważnych wyników.

Do najważniejszych rezultatów ukazujących ograniczenia metod formalnych zaliczyć należy

dwa twierdzenia Gödla.

Twierdzenie o niezupełności

pokazuje, że w każdej niesprzecznej

teorii zawierającej arytmetykę liczb naturalnych nie jest możliwe udowodnienie wszystkich praw

tej teorii. Drugie twierdzenie,

o niedowiedlności niesprzeczności

, mówi natomiast, że

niesprzeczność każdej teorii tego typu można wykazać jedynie przez odwołanie się do środków

bardziej zaawansowanych matematycznie (a zatem zakładających już arytmetykę jako

niesprzeczną podstawę).

Konkretne wyniki uzyskano także na polu badań nad możliwością

automatyzacji

procesu

wnioskowania. Idea konstrukcji odpowiednich maszyn sięga XVIII w., kiedy to Gotfried Leibniz,

oczekiwał, że w przyszłości odpowiednie maszyny zwolnią człowieka z wysiłku dowodzenia

twierdzeń.

W XX w. stworzono kilka precyzyjnych, ale równoważnych definicji

algorytmu

(m.in. Allan

Turing) oraz ukazano istotne ograniczenia automatyzacji. Kluczową własnością teorii,

umożliwiającą pełną automatyzację procesu jej poszerzania, jest

rozstrzygalność

. W przypadku

braku rozstrzygalności, nawet jeżeli dysponujemy odpowiednim algorytmem, to nie mamy

gwarancji, czy proces szukania dowodu kiedykolwiek się zakończy. Allonzo Church wykazał, że

logika klasyczna nie jest rozstrzygalna, chociaż istnieje wiele rozstrzygalnych jej części (m.in.

rachunek zdań

omawiany w module 3), zidentyfikowano także wiele rozstrzygalnych teorii

matematycznych.

background image

8

Powstanie komputerów spowodowało praktyczne wykorzystanie powyższych wyników przy

tworzeniu rozlicznych programów automatycznego dowodzenia twierdzeń. To przejście od teorii

do praktyki otworzyło też nowe kierunki badań dotyczące

efektywności

; okazało się np., że

teoretyczna rozstrzygalność to za mało, ważne jest, żeby czas działania (a także potrzebna

pamięć) algorytmu zamykały się w rozsądnych granicach. Analizy tego typu doprowadziły

w latach 70-tych i 80-tych XX wieku do powstania samodzielnych dyscyplin z pogranicza logiki

i informatyki, takich jak teoria

obliczalności

i teoria

złożoności obliczeniowej

.

To tylko kilka aspektów i kierunków rozwoju współczesnej logiki, należy jednak pamiętać, że

w centrum jej badań nadal znajduje się problematyka analizy poprawności rozumowań, czy to

wykonywanych przez człowieka, czy przez maszynę.

background image

9

Wspominaliśmy już kilka razy, że logika zajmuje się w pewien sposób ludzkim myśleniem, a konkretnie

rozumowaniami. To, że rozumowania są ważne dla człowieka, wydaje się nie budzić

żadnych wątpliwości. Każdy z nas w ciągu dnia wykonuje co najmniej kilkaset rozumowań

o różnym stopniu złożoności. Rozumowanie jest bowiem jedną z najważniejszych form

przetwarzania informacji, bez której trudno wyobrazić sobie normalne funkcjonowanie.

Rozumowania, w sensie powyższym, są pewnymi procesami psychicznymi, nas jednak będą

interesowały rozumowania w nieco innym znaczeniu. Należy odróżnić od siebie proces

i wytwór tego procesu (czy generalnie czynność i jej rezultat). Rozumowania jako mentalne

procesy zasadniczo nie interesują logików, są raczej przedmiotem badań psychologii poznawczej.

Nie zawsze tak było; do końca XIX wieku w logice dominował tzw.

psychologizm

, a logika była

pojmowana właśnie jako gałąź psychologii.

Współcześnie logicy zainteresowani są raczej zobiektywizowanymi wytworami tych procesów

psychicznych, czyli rozumowaniami prezentowanymi w jakimś języku jako pewien typ

tekstów

.

Czym charakteryzują się rozumowania jako teksty sformułowane w pewnym języku? Czym

różnią się np. od modlitw albo od wierszy? Nawiasem mówiąc, rozumowania też mogą wystąpić

w kunsztownej, poetyckiej formie (czego dowodem może być np. „O naturze wszechrzeczy”

Lukrecjusza), ale nie tego od nich oczekujemy – tak jak nie wymagamy, by wiersze zawierały

wzory matematyczne. Najlepszym sposobem znalezienia wyznaczników rozumowania jest

przeanalizowanie kilku przykładów rozumowań w języku polskim.

1.

„Kubuś Puchatek usiadł sobie pod tym dębem, podparł głowę na łapkach i zaczął

rozmyślać. Z początku powiedział do siebie samego: – To bzykanie coś oznacza: Takie

bzyczące bzykanie nie bzyka bez powodu. Jeżeli słyszę bzykanie, to znaczy, że ktoś

bzyka, a jedyny powód bzykania, jaki ja znam, to ten, że się jest pszczołą. Potem znów

pomyślał dłuższą chwilę i powiedział: – A jedyny powód, żeby być pszczołą, to ten, żeby

robić miód. Po czym wstał i powiedział: – A jedyny powód robienia miodu to ten, żebym

background image

10

ja go jadł. – I zaczął włazić na drzewo.”

(A. A. Milne, Kubuś Puchatek, tłum. J. Tuwim, Nasza

Księgarnia 1965, s. 10-11)

2.

„W szeregu wszystkich przyczyn sprawczych uporządkowanych pierwszy czynnik jest

przyczyną pośredniego, a ten – czynnika w nim ostatniego. Obojętną przy tym jest

sprawą, czy ów czynnik pośredni jest liczebnie tylko jeden, czy też jest jeden w sensie
zbioru. Jeśli wszakże usunie się przyczynę, tym samym usunie się też to, co jest jej

skutkiem. Skoro przeto usunie się pierwszy czynnik szeregu, to czynnik pośredni też

przestanie być przyczyną. Gdyby więc w szeregu przyczyn sprawczych szło się

w nieskończoność, to żadna z nich nie byłaby pierwsza, a tym samym znikłyby również

i przyczyny pośrednie. To zaś jest oczywistą niedorzecznością; należy przeto uznać
istnienie pierwszej przyczyny sprawczej, a jest nią Bóg.”

(Tomasz z Akwinu, Summa contra

Gentiles, za: L. Wciórka, Wiedzieć, że jest Bóg, PWT Poznań 1994, s. 78)

3.

Twierdzenie 4

.

Zbiór wszystkich warstw lewostronnych dowolnej podgrupy danej

grupy jest podziałem tej grupy.

Dowód

.

Pokazaliśmy przed chwilą, że zbiór G jest sumą warstw gH, a więc musimy

jedynie pokazać, że warstwy, mające elementy wspólne, są identyczne. Pokażemy

najpierw, że jeśli k∈gH, to kH = gH. Ponieważ HH = H, to mamy kH ⊆ gHH = gH.

Jednocześnie, k = gh dla pewnego h∈H, a więc g = kh-1∈kH. Zatem gH ⊆ kHH = kH.

Załóżmy teraz, że warstwy gH i g’H mają niepuste przecięcie; niech, powiedzmy, k∈gH ∩

g’H. Wtedy z tego, co właśnie pokazaliśmy, wynika, że gH = kH = g’H.”

(K. A. Ross, Ch. R.

B. Wright, Matematyka dyskretna, PWN Warszawa1996, s.714)

Nietrudno zauważyć, że podane przykłady rozumowań bardzo się różnią. Przede wszystkim

treścią, ale również język jest bardzo odmienny. Nieporadny i prosty język Kubusia bardzo

odbiega od żargonu filozoficznego Tomasza, a ostatni przykład idzie w tym kierunku jeszcze

dalej – nie za dużo tu języka polskiego! Na czym więc polega, że wszystkie przykłady skłonni

jesteśmy uznać (mam taką nadzieję) za rozumowania?

Przede wszystkim podane przykłady rozumowań składają się ze zdań oznajmujących.

W rozumowaniach mogą się wprawdzie pojawiać, i często się pojawiają, np. zdania pytajne, ale

ich występowanie jest raczej podyktowane względami stylistycznymi. Podstawowym budulcem

rozumowań są zdania oznajmujące, gdyż to one przede wszystkim służą do przekazywania

informacji. Od tej pory będziemy używać określenia zdanie, tylko w odniesieniu do zdań

oznajmujących, zwanych często zdaniami w sensie logicznym. Nie oznacza to, że logika nie

podejmuje się też analizy innych rodzajów wypowiedzi językowych, np. pytań czy norm, ale na

razie ograniczymy się tylko do zdań oznajmujących.

background image

11

Zdania w rozumowaniach występują w towarzystwie pewnych charakterystycznych wyrażeń.

Zwróćmy uwagę, że mimo dużych różnic językowych, w każdym z podanych przykładów

występują pewne słowa niezależne od treści rozważań. Należą do nich wyrażenia typu:

jeżeli...to, skoro...to, a więc, gdyby więc, to zaś, załóżmy więc, z tego...wynika. Niektóre z nich

potraktujemy jako spójniki, inne jako wskaźniki; ich funkcją jest wskazywanie, że zdania,

które po nich występują są bądź

założeniami

(skoro; gdyby; załóżmy, że itd.) tego

rozumowania bądź jego

wnioskami

(a więc; toteż; zatem itd.).

Za wyznacznik rozumowania należy więc przyjąć, że pewne zdania występują w nim jako

przesłanki (założenia), a inne jako wnioski (konkluzje). Dane zdanie może wystąpić zresztą

w obu rolach w obrębie jednego rozumowania, tzn. może być wnioskiem z jakichś przesłanek,

a następnie zostać użyte jako przesłanka do wyprowadzenia kolejnych wniosków. Zawsze

jednak będą w rozumowaniu obecne jakieś przesłanki wyjściowe (zdania, których w obrębie

tego rozumowania już się nie uzasadnia) i jakiś wniosek końcowy (zdanie, które nie jest już

wykorzystywane dalej jako przesłanka w obrębie tego rozumowania). Jest tak dlatego, że

rozumowanie składa się ze skończonej liczby zdań.

W logicznej analizie rozumowań będziemy zazwyczaj abstrahowali od zdań pośredniczących,

tzn. tych, które są zarówno wnioskami, jak i przesłankami – wystarczy nam wyróżnienie

przesłanek początkowych i wniosku końcowego, czyli – krótko – przesłanek i wniosku danego

rozumowania. Przyjmijmy zatem, że kanoniczny zapis danego rozumowania będzie miał

następującą postać:

P

1

,..., P

n

/ W

Gdzie:

P

1

,..., P

n –

to wszystkie przesłanki,

W – to wniosek,

/ – oznacza: zatem.

Kanoniczna forma rozumowania nie tylko może pomijać pewne zdania z oryginalnego

rozumowania (pośredniki), ale również zmieniać szyk zdań. Wniosek często bywa przecież

podawany na początku rozumowania, np. gdy rozumowanie jest częścią czyjejś

argumentacji

,

zazwyczaj zaczyna się od wniosku, a następnie po wskaźniku w rodzaju ponieważ rozpoczyna

się wyliczenie przesłanek. Przesłanki czasem bywają podane razem i na początku, ale znacznie

background image

12

częściej rozproszone są po całym rozumowaniu, gdyż przywoływane są wtedy, kiedy akurat są

potrzebne.

Generalnie porządek, w jakim występują przesłanki, wnioski i zdania pośredniczące

w rozumowaniu, może być rozmaity i podyktowany jest raczej względami stylistycznymi, a nie

logicznymi. Toteż rekonstrukcja kanonicznej formy danego rozumowania bywa często dosyć

trudna, a dobrze sformułowane rozumowanie nie musi wprawdzie przybierać formy

kanonicznej, ale powinno w wyraźny sposób korzystać ze wskaźników, aby jego struktura była

łatwa do przeanalizowania. Forma kanoniczna podaje logiczny, a nie rzeczywisty porządek

zdań w rozumowaniu.

Osobna kwestia, która wymaga krótkiego komentarza to zadania, jakie realizują rozumowania

w naszym życiu i w nauce. W pewnym sensie wracamy tutaj do rozumowań jako procesów

mentalnych, ale tylko częściowo. Jedno z najważniejszych zadań realizowanych przez

rozumowania to poszerzanie naszej wiedzy, a rozumowania stosowane w takim celu to

wnioskowania

. We wnioskowaniu dysponujemy pewnymi zdaniami (przesłankami) jako

danymi, a rozumowanie służy wyprowadzaniu z nich kolejnych zdań jako wniosków.

Często jednak powstanie pewnego rozumowania jest wynikiem procesu odwrotnego;

dysponujemy jakimś zdaniem (wnioskiem), a szukamy dla niego

uzasadnienia

(przesłanek),

np. aby kogoś przekonać, że zdanie to jest prawdziwe. Mamy tutaj do czynienia

z

uzasadnieniem pośrednim

(w przeciwieństwie do bezpośredniego, które uzyskujemy na

drodze np. obserwacji), a najbardziej znaną formą takich rozumowań są

dowody

matematyczne

. W dużym uproszczeniu można powiedzieć, że przeprowadzanie wnioskowań

ma na celu przede wszystkim zdobywanie wiedzy, natomiast uzasadnianie ma związek z silną

potrzebą ugruntowania pewności naszych przekonań.

background image

13

Chociaż rozumowania są niezbędne i powszechne zarówno w nauce jak i w życiu codziennym,

to nie zawsze jesteśmy z nich zadowoleni. Wiele rozumowań uznajemy z jakichś względów za

poprawne, a jeszcze więcej w końcu odrzucamy lub co najmniej modyfikujemy. Logików

interesują rozumowania, ale przede wszystkim poprawne, dlatego skupimy się obecnie na

kwestii wyjaśnienia, na czym (nie)poprawność danego rozumowania polega.

Można zastosować rozmaite kryteria oceny rozumowań, jednak nie wszystkie będą ważne

z punktu widzenia logiki. Tak jest np. z kryteriami estetycznymi – styl jest ważny, ale

z pewnością nie ma wpływu na to, czy dane rozumowanie jest poprawne. Zbliżoną kwestią jest

to, czy jakieś rozumowanie jest dla nas przekonywające, czy nie.

Często zdarza nam się ulec czyjejś argumentacji, ale po jakimś czasie dochodzimy do wniosku,

że czujemy się oszukani. Takie odczucia są powszechne np. u wyborców, którzy po pewnym

czasie porównują społeczną rzeczywistość z przedwyborczymi obietnicami tych, na których

oddali swoje głosy. Może tak być dlatego, że rozumowania, które zostały nam przedstawione

były wprawdzie przekonywające, ale logicznie niepoprawne.

Z drugiej strony, obawiam się, że przykład rozumowania matematycznego podany

w poprzednim paragrafie, dla większości czytelników nie był zbyt przekonywający –

rozumowanie musi być przede wszystkim zrozumiałe, aby trafiało do przekonania. Jednak

gwarantuję, że jest to przykład rozumowania poprawnego. Jak widać poprawność i siła

przekonywania nie muszą iść w parze, chociaż mogą, i dobrze jest, jeżeli udaje się to osiągnąć.

To, czy rozumowanie jest przekonujące, czy nie, i dlaczego, to problemy analizowane na

gruncie

retoryki

, nauki o środkach oddziaływania. Logików interesuje, czy rozumowanie jest

poprawne w sensie obiektywnym.

Na czym zatem polega logiczna poprawność? Przypomnijmy, że we wnioskowaniu mamy

pewne dane i wyprowadzamy z nich wnioski. Jeżeli nasze przesłanki są zdaniami prawdziwymi,

to dobrze by było, aby wnioski też okazały się prawdziwe. Zatem dobre rozumowanie to takie,

background image

14

które nie doprowadzi nas od zdań prawdziwych do fałszywych. Pojawiają się tutaj określenia

prawdziwe i fałszywe jako kwalifikacje zdań, a przy okazji dwa problemy: co to jest prawda

(fałsz) i na czym polega mechanizm dziedziczenia prawdziwości z jednych zdań na drugie?

Pierwszy problem zasadniczo do logiki nie należy, choć można go uznać za problem z zakresu

filozofii logiki. Pewne kwestie dotyczące prawdy i fałszu w kontekście logiki rozważymy

w module 2, na razie wystarczy nam potoczne pojęcie prawdziwości. Zarówno prawdę, jak

i fałsz będziemy odtąd określać jako wartości logiczne zdania. Skupmy się zatem na kwestii

dziedziczenia prawdziwości z przesłanek na wnioski w poprawnym rozumowaniu. Oczywiście

najlepiej, jeżeli rozumowanie konstruowane jest według takich zasad, które gwarantują, że

zawsze od prawdy dojdziemy do prawdy. Rozumowania spełniające ten warunek nazywamy

rozumowaniami dedukcyjnymi

, a relację zachodzącą pomiędzy przesłankami i wnioskiem

takiego rozumowania, nazywamy relacją

wynikania

.

Zasadnicza część tego kursu poświęcona jest

logice dedukcyjnej

, czyli takiej, która bada

zasady gwarantujące zachodzenie wynikania. Warto jednak podkreślić, że w praktyce – nie

tylko potocznej, ale i naukowej – za poprawne rozumowania uważamy często takie, w których

relacja wynikania nie występuje. Należą do nich rozmaite formy

indukcji

i rozumowań przez

analogię

, czasem określane zbiorczo mianem

rozumowań uprawdopodobniających

. Takim

niededukcyjnym – chociaż poprawnym w szerszym tego słowa znaczeniu – rozumowaniom

poświęcimy nieco uwagi w 6 module kursu.

Przyjmijmy następujące

określenie relacji wynikania

:

Wniosek wynika z przesłanek wtw, jeżeli wszystkie przesłanki są prawdziwe, to

i wniosek musi być prawdziwy.

Skrót „wtw” użyty jest tutaj (i w całym kursie) zamiast wyrażenia wtedy i tylko wtedy. W sposób

negatywny, chociaż równoważny, można scharakteryzować wynikanie następująco:

Wniosek wynika z przesłanek wtw, jeżeli jest niemożliwe, żeby wszystkie przesłanki były

prawdziwe, a wniosek fałszywy.

background image

15

Druga charakterystyka daje nam od razu kryterium niepoprawności – wystarczy, aby

rozumowanie miało prawdziwe przesłanki i fałszywy wniosek. W obu przypadkach nacisk pada

na

modalne

zwroty musi i niemożliwe. Z tego powodu trudno określenia te uznać za precyzyjne

definicje relacji wynikania – zwroty modalne są bardzo wieloznaczne i same wymagałyby

najpierw wyjaśnienia. Dlatego powyższe charakterystyki trzeba potraktować jako pierwsze

przybliżenie; w module 3 kursu podamy precyzyjne definicje.

W każdym razie nacisk na słówko musi gwarantuje, że w rozumowaniu dedukcyjnym nie

wystarczy, żeby przesłanki i wniosek po prostu były prawdziwe. W przeciwnym wypadku

należałoby uznać, że ze zdania 2+2=4 wynika zdanie Napoleon Bonaparte był cesarzem

Francji; wydaje się jednak, że w tym wypadku prawdziwość przesłanki, w żaden sposób nie

wymusza prawdziwości wniosku! Na czym polega zatem uzależnienie wartości logicznej

wniosku od wartości logicznej przesłanek? Przeanalizujemy to na przykładzie konkretnego

rozumowania.

1. Azor jest psem. Każdy pies to ssak. / Azor jest ssakiem

Mam nadzieję, że czytelnik zgodzi się, iż powyższe rozumowanie jest poprawne, tzn., że

wniosek wynika w nim z przesłanek i to bez względu na to, o jakim Azorze ono mówi. Druga

przesłanka jest prawdziwa na mocy biologii, natomiast wartość pierwszej może być różna.

Przypuszczalnie Azor jest istotnie psem, a wtedy (jako pies) musi być ssakiem, czyli przy obu

przesłankach wniosek musi być prawdziwy. Może jednak pierwsza przesłanka jest fałszywa? np.

Azor jest kotem.

Wtedy przesłanki są fałszywe (będziemy dla uproszczenia mówić, że przesłanki są fałszywe,

jeżeli co najmniej jedna z nich jest fałszywa – ma to swoje uzasadnienie: często przesłanek jest

wiele i możemy mieć trudności z rozstrzygnięciem, która z nich jest fałszywa, chociaż wiemy, że

nie wszystkie są prawdziwe), natomiast wniosek jest nadal prawdziwy – bo koty to też ssaki.

A gdyby rozważany przez nas Azor był np. złotą rybką, to wtedy nie tylko przesłanki, ale

i wniosek byłby zdaniem fałszywym.

Czy w obu przypadkach, kiedy przesłanki okazały się fałszywe, nasze rozumowanie przestało

być poprawne? Nie! – przecież, gdyby Azor był psem, to musiałby być ssakiem! I tak być

powinno – mało przydatna byłaby taka logika, w której musielibyśmy zmieniać reguły za każdym

razem, kiedy dowiedzielibyśmy się czegoś nowego.

background image

16

Logika nie mówi nam, jaka jest aktualna wartość logiczna używanych zdań, tylko jakie

zachodzą zależności pomiędzy ich wartościami logicznymi. Reguły logiki mają być

niezawodne

bez względu na zastosowania. Powyższy eksperyment myślowy pokazuje, że jeśli w tym

samym rozumowaniu za oba wystąpienia słowa Azor podstawimy jakąś inną

nazwę

indywidualną

, np. Rex (ale i Napoleon Bonaparte, bądź trójkąt bermudzki), to też otrzymamy

rozumowanie poprawne.

Możemy się zresztą posunąć dalej i, zamiast pies lub ssak, użyć innego rzeczownika, tworząc

w ten sposób nowe rozumowania, ale o tej samej

formie

każde z nich będzie poprawne.

Poprawność ta zagwarantowana jest tym, że bez względu na treść, każde rozumowanie tego

typu mówi po prostu, że ilekroć jakiś zbiór obiektów (tutaj psów) jest podzbiorem innego zbioru

(tutaj ssaków), to dowolny element zbioru pierwszego (tu Azor) jest zarazem elementem zbioru

drugiego.

Pojęcie formy rozumowania lub szerzej –

formy logicznej

, które pojawiło się wyżej, nie jest

łatwe do wyjaśnienia. Z drugiej strony – należy do najważniejszych pojęć w logice. Już

Arystoteles zdawał sobie sprawę, że poprawność rozumowania nie zależy od treści zdań, ale od

ich formy, stąd –

logika formalna

! Formę powyższego rozumowania można odtworzyć

następująco:

2. a jest A. Każde A jest B. / a jest B.

Gdzie a jest

zmienną indywidualną

, tzn. taką, za którą można podstawiać dowolne nazwy

indywidualne, natomiast A i B to

zmienne nazwowe

, czyli takie, za które można podstawiać

dowolne

nazwy ogólne

(np. rzeczowniki pospolite). Forma jest zatem pewnym szkieletem

rozumowania, który można przedstawić w postaci schematu, gdzie zamiast pewnych wyrażeń

(uznanych za nieistotne) występują odpowiednie zmienne.

Podsumowując,

zmienne

to wyrażenia użyte do zaznaczenia występowania takich słów,

których znaczenie nie ma wpływu na (nie)poprawność; możemy je dowolnie zastępować przez

inne słowa tej samej kategorii gramatycznej. Innymi słowy, wprowadzając pewien rodzaj

zmiennych, musimy określić ich

zakres podstawiania

. Musimy też pamiętać, że, dokonując

w schemacie rozumowania podstawień za zmienne, należy to samo wyrażenie podstawić za

wszystkie wystąpienia danej zmiennej, inaczej uzyskujemy rozumowanie innego typu. Np.

rozumowanie:

background image

17

3. Tuptuś jest komarem. Każdy komar to owad. / Tuptuś jest zwierzęciem.

nie jest podstawieniem schematu

2.

, gdyż za jedno wystąpienie zmiennej B podstawiliśmy

nazwę owad, a za drugie nazwę zwierzę. Forma tego rozumowania wygląda następująco:

4. a jest A. Każde A jest B. / a jest C.

i nie gwarantuje niezawodności; wystarczy w rozumowaniu

3.

zamienić nazwę zwierzę na

nazwę trójkąt i już mamy podstawienie schematu

4.

, które od prawdy wiedzie do fałszu.

Z drugiej strony, w schemacie za różne zmienne tej samej kategorii można podstawiać to samo

wyrażenie i uzyskiwać rozumowanie o tej samej formie, aczkolwiek mniej zróżnicowane, niż

dozwala forma. Np. jeżeli w schemacie

2.

podstawimy za a – Azor a za A i B – pies, to

otrzymamy (poprawne) rozumowanie, które realizuje formę

2.

, a przy okazji – bardziej ogólną

formę:

5. a jest A. Każde A jest A. / a jest A.

Forma jest determinowana nie tylko przez rodzaj i ilość zmiennych. W schematach

2.

,

4.

i

5.

mamy przecież pewne słowa o ustalonym znaczeniu. Słówka jest i każde to

stałe logiczne

tych

schematów, czyli takie wyrażenia, których nie możemy zamienić na inne przy zachowaniu

gwarancji poprawności. To, które słowa chcemy potraktować jako stałe, a które jako zmienne,

jest do pewnego stopnia decyzją arbitralną.

Na pewno stałą logiczną może zostać tylko takie wyrażenie, które jest używane powszechnie,

w różnych kontekstach. Słowa jest i każde (jak również ich warianty, np. wszystkie czy )

z pewnością ten warunek spełniają, podobnie jak różne rodzaje spójników. To, jakie rodzaje

zmiennych wyróżnimy, zależy głównie od głębokości analizy logicznej, np. w

rachunku zdań

omawianym w module 3 wyróżnimy tylko

zmienne zdaniowe

, a jedyne stałe logiczne dostępne

na tym poziomie to pewne spójniki.

background image

18

Rozważania z poprzedniego paragrafu pokazują, że relacja wynikania, chociaż definiowana

w terminach prawdy i fałszu, jest relacją formalną – jej występowanie (bądź brak) zależy

tylko i wyłącznie od struktury zdań, a nie od ich wartości logicznej czy treści. Spróbujemy trochę

dokładniej przeanalizować charakter tej relacji, wprowadzimy też dla niej specjalny symbol

=,

a litery Z (z ewentualnymi indeksami dolnymi) na oznaczenie dowolnych zdań oznajmujących

w pewnym ustalonym języku. Zatem, stawiając symbol / między przesłankami a wnioskiem

niczego nie przesądzamy, natomiast używając

= zaznaczamy, że rozumowanie jest

dedukcyjne. W oparciu o nasze rozumienie wynikania łatwo stwierdzić, że posiada ono

następujące własności:

a) Zwrotność; Z

= Z

b) Monotoniczność; jeżeli Z

1

,...., Z

n

= Z, to Z

1

,...., Z

n

, Z

n

+1

= Z

c) Przechodniość; jeżeli Z

1

,...., Z

k

= Z

k

+1

i Z

k

+1

, Z

k

+2

,...., Z

n

= Z, to Z

1

,...., Z

k

, Z

k

+1

,...., Z

n

= Z

Pierwsza z nich to cecha dość oczywista: dowolne zdanie wynika samo z siebie, gdyż nie jest

możliwe, aby było jednocześnie prawdziwe (jako przesłanka) i fałszywe (jako wniosek).

Równocześnie wydaje się, że jest to cecha mało przydatna – jesteśmy raczej zainteresowani,

kiedy dane zdanie wynika z jakichś innych zdań. Jednak przy konstruowaniu formalnych

systemów dedukcji uwzględnienie tej własności jest niezwykle ważne.

Monotoniczność wynikania gwarantuje, że poprawności rozumowania nie można zepsuć

dołączając do niego nowe przesłanki. Załóżmy, że Z wynika z Z

1

,...., Z

n

, ale, że nie wynika

z Z

1

,...., Z

n

, Z

n

+1

. Wtedy możliwa jest taka sytuacja, że Z jest fałszywe, ale wszystkie przesłanki

są prawdziwe, ale wtedy również nie może zachodzić wynikanie Z z Z

1

,...., Z

n

,

ponieważ jest to

podzbiór zbioru Z

1

,...., Z

n

, Z

n

+1

.

Monotoniczność gwarantuje nam logiczną poprawność pewnego zabiegu retorycznego; mając

rozumowanie poprawne, możemy w argumentacji dołączać do niego dowolną ilość dodatkowych

przesłanek, aby uczynić je dla kogoś bardziej przekonywającym.

Z punktu widzenia logiki bardziej interesujący jest zabieg odwrotny polegający na sprowadzeniu

nadmiernie rozbudowanego, lecz poprawnego rozumowania do bardziej ekonomicznej postaci.

background image

19

Warto też podkreślić, że można wskazać na rozumowania, które wydają się logicznie poprawne,

ale po dołączeniu dodatkowych przesłanek wniosek zdaje się tracić swoje uzasadnienie. Brak

nam tutaj miejsca na przykłady i analizę tego zjawiska, należy jednak zauważyć, że logicy

z tego powodu uznają za potrzebne konstruowanie tzw.

logik niemonotonicznych

, w których

odpowiednia relacja nie posiada interesującej nas własności.

Przechodniość jest jedną z najbardziej podstawowych cech wynikania. Gwarantuje nam, że

ilekroć we wnioskowaniu jakieś zdanie poprawnie wyprowadzimy z przesłanek, a następnie

użyjemy go jako przesłanki do dalszych (poprawnych) wnioskowań, to bez względu na ilość

takich pośredniczących przejść, końcowy wniosek wynika z pierwotnych przesłanek.

Szczególny przypadek przechodniości, który dobrze ilustruje zasadniczy mechanizm ma postać

następującą:

jeżeli Z

1

= Z

2

i Z

2

= Z

3

, to Z

1

= Z

3

Dla odmiany zwrotność można, w oparciu o monotoniczność, przedstawić w bardziej ogólnej formie:

Z

1

,...., Z

n

, Z

= Z

Omówiliśmy krótko najważniejsze własności relacji wynikania. Przypatrzmy się teraz dokładniej,

jakie wartości logiczne mogą mieć zdania, które występują w rozumowaniu poprawnym.

Wynikanie dopuszcza trzy możliwe konfiguracje wartości logicznych:

a) przesłanki – prawdziwe, wniosek – prawdziwy

b) przesłanki – fałszywe, wniosek – prawdziwy

c) przesłanki – fałszywe, wniosek – fałszywy

Wykluczone jest natomiast, aby przesłanki były prawdziwe a wniosek fałszywy.

Wydaje się, że najważniejsze w wynikaniu jest to, co daje konfiguracja a) – startując od prawdy

i stosując we wnioskowaniu tylko takie reguły, co do których mamy pewność, że są poprawne,

w bezpieczny sposób poszerzamy wiedzę. Jednak w praktyce również konfiguracja c) jest

niezwykle ważna. W życiu stosunkowo rzadko przeprowadzamy rozumowania w komfortowym

przekonaniu, że wszystkie przesłanki, na których się opieramy, są prawdziwe. A nawet jeżeli

takie przekonanie mamy, to często się później okazuje, że byliśmy w błędzie.

Generalnie, znacznie częściej rozumujemy w warunkach ryzyka, tzn. przy nieustalonej wartości

logicznej przesłanek. Jeżeli dojdziemy do wniosku, który jest fałszywy, to oznacza, że

background image

20

popełniliśmy błędy w rozumowaniu lub że opieraliśmy się na fałszywych przesłankach. Wtedy

bardzo ważna staje się możliwość kontroli poprawności naszego rozumowania – jeżeli wiemy,

że wszystkie wnioski wynikały z przesłanek, to mamy pewność, że przesłanki (co najmniej jedna

z nich) są fałszywe. W ten sposób własność c) wynikania, umożliwia nam przeprowadzanie

kontroli i modyfikację naszych przekonań.

Klasycznym przykładem zastosowania tej techniki są liczne dialogi Platona (424–344 r. p.n.e.),

w których jako główna postać występuje jego mistrz Sokrates (469–399 r. p.n.e.). Sokrates

chcąc wykazać, że kogoś przekonania są fałszywe, przy pomocy pytań naprowadzał go na

konsekwencje tychże poglądów. Na każdym kroku upewniał się też, że jego rozmówca zgadza

się, że proponowane wnioski wynikają z przesłanek. W końcu pojawiały się takie wnioski,

których rozmówca już nie mógł zaakceptować, gdyż albo były ewidentnie fałszywe, albo – co

najmniej – nie do przyjęcia dla niego. Skoro jednak zgadzał się, że wynikają z wcześniejszych

zdań, a zatem również – przez przechodniość wynikania – z jego wyjściowych przesłanek,

musiał uznać, że jego poglądy są błędne.

Taki sam mechanizm wykorzystywany jest także w nauce, w szczególności do

sprawdzania

hipotez

. Chcąc wyjaśnić jakieś zjawisko, przyjmuje się wstępnie pewne hipotezy (czyli zdania

ogólne, które tłumaczą, jak do danego zjawiska dochodzi), co do których prawdziwości nie

mamy pewności. Z hipotez (łącznie z innymi uznanymi twierdzeniami) wyprowadzamy

dedukcyjnie wnioski, których wartość logiczną możemy sprawdzić (np. przez

obserwację

lub

eksperymenty

). Jeżeli znajdziemy zdanie, które jest fałszywe, to znaczy, że któraś z naszych

hipotez też jest fałszywa. W ten sposób dokonujemy

falsyfikacji

hipotezy.

Natomiast żadna ilość prawdziwych wniosków nie uprawnia nas do ostatecznego uznania

prawdziwości hipotez. Zwiększa się tylko coraz bardziej prawdopodobieństwo, że przyjęte przez

nas wyjaśnienie jest właściwe – proces

weryfikacji

hipotez teoretycznie jest nieskończony. Oba

omówione przykłady pokazują, że wynikanie pozwala nam nie tylko na poszerzenie wiedzy, ale

również na jej modyfikowanie.

background image

21

Dotychczasowe rozważania pokazują również, w jaki sposób można wykazywać, że dane

rozumowanie jest niepoprawne. Wynikanie wyklucza prawdziwość przesłanek przy fałszywości

wniosku. Natomiast w rozumowaniu niepoprawnym mogą występować wszystkie możliwe

zestawienia wartości logicznych. Jednak aby wykazać, że dane rozumowanie jest niepoprawne,

trzeba udowodnić, że miało ono prawdziwe przesłanki i fałszywy wniosek.

Na ogół konkretne analizowane rozumowanie nie spełnia tego warunku, pamiętajmy jednak, że

chodzi o jego formę, a nie o treść konkretnych zdań. Wystarczy zatem zbudować jakieś inne

rozumowanie, które ma dokładnie taką samą formę i ewidentnie prawdziwe przesłanki, ale

fałszywy wniosek. Technika ta określana bywa jako obalenie rozumowania przez

kontrprzykład

lub jako

falsyfikacja

rozumowania. Oczywiście prawdziwość przesłanek

i fałszywość wniosku w kontrprzykładzie nie mogą budzić żadnych wątpliwości. Zilustrujemy to

na przykładzie:

1. Każdy pies jest kręgowcem. Niektóre kręgowce są ssakami. / Każdy pies jest ssakiem.

Rozumowanie to wydawać się może poprawne. Wystarczy jednak słowo ssak zastąpić przez

np. słowo ryba, a już otrzymamy rozumowanie o tej samej formie (którą czytelnik zechce

zapisać jako schemat), prawdziwych przesłankach i fałszywym wniosku. W dalszej części tego

kursu wielokrotnie będziemy korzystali z techniki udowadniania niepoprawności rozumowania

poprzez znajdywanie odpowiedniego przykładu falsyfikującego.

background image

22

Rozumowania nie są jedynym rodzajem tekstów, a wynikanie nie jest jedynym ważnym pojęciem,

analizowanym na gruncie logiki. Logika pomaga badać dowolne teksty pod kątem ich spójności.

Najgorszym objawem chaosu myślowego jest sytuacja, kiedy ktoś sam sobie przeczy i nawet tego

nie zauważa. Dlatego dla logiki, jako dyscypliny dbającej o porządek i konsekwencję myślenia, nie

mniej ważna jest analiza (nie)sprzeczności ludzkich przekonań. Powiemy, że.:

Zbiór zdań jest sprzeczny wtw, gdy jest niemożliwe, aby wszystkie zdania w tym

zbiorze były prawdziwe.

W powyższym określeniu znów nacisk kładziemy na modalny zwrot niemożliwe. Nie należy

sprzeczności w powyższym sensie mylić z innymi przejawami niekonsekwencji. Człowiek, który

twierdzi, że kłamstwo jest niemoralne, a sam okłamuje swoich bliźnich, jest z pewnością

niekonsekwentny, ale w sensie interesującym raczej etyka niż logika. Ponieważ sprzeczność łatwo

jest pomylić z innymi fenomenami, takimi jak dwulicowość, niesprawiedliwość czy nielojalność, więc

znów zaczniemy od kilku przykładów. Wyobraźmy sobie ludzi wypowiadających poniższe zdania:

1. Byłoby niestosowne poddawać cenzurze programy TV, w których pokazuje się przemoc,

gdyż to, co widać na ekranie, nie ma wpływu na ludzkie zachowania. Natomiast dobrą

ideą jest pokazywanie większej ilości programów, które ukazują nasze osiągnięcia
gospodarcze, gdyż to mogłoby osłabić argumentację, a nawet zmienić poglądy malkontentów.

2. W ciągu ostatnich 5 lat miałem 3 duże i kilka mniejszych wypadków samochodowych.

W 2 przypadkach sąd orzekł moją odpowiedzialność, ale naprawdę jestem bardzo dobrym
kierowcą, tylko nie mam szczęścia.

3. Powierzchnia Ziemi jest płaska (wyjąwszy góry, morza i inne względnie małe wypukłości

i wgłębienia). Kiedy ludzie myślą, że opłynęli Ziemię dookoła, to tak naprawdę tylko

przemieścili się z jednego miejsca do drugiego, które jest identyczne jak to, z którego
wystartowali, ale oddalone od tamtego o tysiące mil.

(źródło: W. Hodges, Logic, Penguin Books

1991)

background image

23

Czy każdy z powyższych tekstów jest sprzeczny? Pierwszy jest sprzeczny bez wątpienia; nie

można równocześnie utrzymywać, że to, co oglądamy w telewizji, nie ma wpływu i zarazem

może mieć wpływ na nasze zachowanie. Autor wypowiedzi

1.

mógłby starać się ją poprawić, na

przykład zaznaczając, że według niego pokazywanie zjawisk negatywnych nie ma wpływu na

ludzi, a pokazywanie zjawisk pozytywnych ma. Poglądy takie nie byłyby już sprzeczne (choć

wydają się dziwaczne).

Tekst 2.

nie jest sprzeczny, choć wydaje się głupi i nierozsądny. Jednak jest możliwe, że autor

istotnie jest dobrym kierowcą, tylko ma niezwykłego pecha. W końcu – jak wiadomo – nawet

sądy często się mylą.

Tekst 3.

jest po prostu fałszywy (w świetle powszechnie uznawanych

poglądów), ale pogląd w nim reprezentowany nie jest niemożliwy w sensie logicznym. Co

więcej, należy podkreślić, że jego autor usilnie stara się o konsekwencję swojego wywodu, np.

tłumaczy, na czym polega zjawisko opłynięcia świata dookoła. Zatem, chociaż

3.

samo w sobie

nie jest sprzeczne, to jest sprzeczne z naszymi poglądami.

W krótkich tekstach sprzeczność jest zazwyczaj dosyć łatwa do wykrycia, a to, że mamy

skłonność uznać za sprzeczność mniej niebezpieczne fenomeny, jak zwykły fałsz lub niskie

prawdopodobieństwo, nie wydaje się groźne. Bardziej niebezpieczne jest to, że możemy

sprzeczność przeoczyć w przypadkach, kiedy ona faktycznie występuje. Jest tak zwłaszcza

w przypadku tekstów długich o skomplikowanej strukturze. Jednak nawet kiedy mamy do

czynienia ze względnie małymi zbiorami zdań, również możemy sprzeczności nie zauważyć,

jeśli zdania te mają wystarczająco złożoną strukturę.

Sprzeczność jest ewidentna, kiedy mamy dwa zdania, z których jedno jest po prostu

zaprzeczeniem drugiego – jest to jawna sprzeczność. W takim przypadku zachodzi między

dwoma zdaniami mocniejsza relacja logiczna, gdyż nie tylko nie mogą być razem prawdziwe,

ale również nie mogą być razem fałszywe; krótko mówiąc, nie mogą mieć równocześnie tej

samej wartości logicznej.

Warto zauważyć, że w tradycyjnej terminologii logicznej, nadal często używanej, właśnie ta

mocna relacja określana jest jako sprzeczność, podczas gdy w przypadku dwóch zdań, które

tylko nie mogą być razem prawdziwe (choć mogą być oba fałszywe), mówi się, że wzajemnie

się

wykluczają

lub że są przeciwne

.

Przykładem może być para zdań: Każdy Polak to pijak

i Żaden Polak nie jest pijakiem. Nie mogą być one oba prawdziwe, chociaż mogą być (i są) oba

fałszywe. Są zatem sprzeczne w sensie definicji podanej na początku tematu, chociaż nie są

background image

24

jawnie sprzeczne. Nasza charakterystyka sprzeczności ma tę przewagę, że stosuje się nie tylko

do par zdań, ale do ich zbiorów o dowolnej wielkości, nawet nieskończonych.

Pokażemy teraz, że zachodzi bardzo bliski związek pomiędzy sprzecznością a wynikaniem.

Twierdzenie 1.

Z

1

,....., Z

n

= Z

n+

1

wtw zbiór {Z

1

,....., Z

n

, negZ

n+

1

} jest sprzeczny

(wyrażeniem negZ oznaczyliśmy we wzorze zaprzeczenie zdania Z)

Aby wykazać prawdziwość twierdzenia o postaci równoważności, należy udowodnić, że z lewej

strony tej równoważności wynika prawa i odwrotnie.

1. Załóżmy, że rozumowanie z lewej strony jest poprawne. Wszystkie możliwe interpretacje

zdań Z

1

,....., Z

n

można podzielić na dwie grupy te, przy których pewne zdanie nie jest

prawdziwe, i te przy których wszystkie są prawdziwe. Dowolna interpretacja, przy której

przynajmniej jedna przesłanka jest fałszywa, da nam (to samo) fałszywe zdanie

w analizowanym zbiorze. Dowolna interpretacja, przy której wszystkie przesłanki są prawdziwe,

musi czynić prawdziwym również Z

n+

1

; inaczej rozumowanie nie byłoby poprawne! Ale wtedy

zaprzeczenie Z

n+

1

jest fałszywe w rozważanym zbiorze. Zatem nie jest możliwe, aby zawierał

on tylko zdania prawdziwe, jest więc sprzeczny.

2. Załóżmy, że zbiór po prawej jest sprzeczny, a rozumowanie po lewej jednak niepoprawne.

Zatem przy pewnej interpretacji zdania Z

1

,....., Z

n

są prawdziwe, a Z

n+

1

jest fałszywe, wtedy

jednak jego przeczenie jest prawdziwe, a więc rozważany zbiór zawiera tylko prawdziwe zdania

i nie jest sprzeczny! Ale to jest sprzeczne z pierwszym założeniem, zatem musimy odrzucić

drugie założenie.

Część 2. naszego dowodu wymaga krótkiego komentarza. Przyjęliśmy tam dwa założenia,

z których jedno jest zaprzeczeniem zdania, które chcemy udowodnić. Takie założenia

określamy jako

założenia niewprost

, a dowód, który takie założenia wykorzystuje, to

dowód

niewprost

albo

apagogiczny

, albo przez redukcję do absurdu. Celem dowodu tego rodzaju,

jest nie tyle dojście do zdania, które chcemy udowodnić, ile raczej dojście do jawnej

sprzeczności (czyli do zaprzeczenia jakiegoś zdania wyżej występującego).

background image

25

Wprawdzie w powyższym przykładzie jawnej sprzeczności dostarczają właśnie założenie

niewprost i zdanie, które chcemy dowieść, ale wcale tak być nie musi. Dowód niewprost

uznamy za poprawny, jeżeli pojawi się w nim jawna sprzeczność dowolnych dwóch zdań.

Dowody tego typu są powszechnie wykorzystywane, chociaż matematycy zazwyczaj wyżej

sobie cenią

dowody wprost

, czyli takie, w których nie używa się założeń niewprost, i których

celem jest dedukcja dowodzonego zdania.

Zwróćmy uwagę na jeszcze jedną własność sprzeczności, określaną czasem jako:

Zasada Dunsa Szkota:

Dowolne zdanie wynika ze sprzecznego zbioru zdań.

Dlaczego? Dlatego, że skoro nie jest możliwe, aby zdania w tym zbiorze były razem prawdziwe,

to nie jest możliwe, aby były prawdziwe, gdy wniosek jest fałszywy. Zatem rozumowanie,

którego przesłanki są sprzeczne, jest poprawne, ale jest to poprawność trywialna, gdyż

przesłanki wcale nie uzasadniają przyjęcia wniosku! Rozumowanie tego typu jest poprawne, ale

bezwartościowe poznawczo.

Powyższa zasada wyjaśnia, dlaczego pojawienie się dowolnej sprzeczności w dowodzie,

stanowi wystarczający warunek dla uznania go za zakończony; ze sprzeczności (jakiejkolwiek)

wynika przecież cokolwiek – również zdanie, które było celem dowodu. Jest tak nawet wtedy,

gdy nie użyliśmy w dowodzie założenia niewprost – widocznie inne założenia były sprzeczne.

Zasada Dunsa Szkota pokazuje również, dlaczego sprzeczność jest taka groźna; dlaczego należy

się starać ją wykryć i wyeliminować. Dowolna teoria naukowa, pojmowana jako zbiór twierdzeń

w pewnym języku, traci swoją użyteczność, jeżeli okaże się sprzeczna. Przecież każde zdanie

w tym języku, wynika z tej sprzeczności, a zatem da się potraktować jako kolejne twierdzenie.

Teoria taka nie daje już podstaw do tego, aby odróżnić od siebie zdania akceptowane i odrzucane

– wszystkie są równie dobre. Obowiązuje tu prosta konsekwencja zasady Dunsa, tzw.:

background image

26

Zasada Przepełnienia:

Teoria sprzeczna jest identyczna ze zbiorem wszystkich

zdań w języku tej teorii.

Właśnie dlatego, udowadnianie niesprzeczności teorii naukowych, uchodziło za podstawowy

wymóg, a rezultat Gödla (por. temat 1, moduł 1) dotyczący niedowiedlności niesprzeczności

w teoriach zawierających arytmetykę, stanowił tak duży wstrząs dla środowiska matematyków.

I znów wypada podkreślić, że logicy starają się negatywne oddziaływanie sprzeczności

ograniczyć, skoro nie zawsze można ją łatwo wykryć. Wyobraźmy sobie program komputerowy

wspomagający policję przy prowadzeniu śledztwa poprzez automatyczne dedukowanie

w oparciu o zebrane dane. Łatwo wyobrazić sobie sytuację, że zbiór danych staje się

sprzeczny, np. ktoś z przesłuchiwanych kłamał. Gdyby program działał w oparciu o logikę

klasyczną, to mógłby z tych danych wyprowadzić dowolny wniosek, np., że sprawca

przestępstwa to główny inspektor!

Jeden z możliwych sposobów przeciwdziałania to wykorzystywanie

logik parakonsystentnych

.

W logikach takich toleruje się sprzeczność, w tym sensie, że nie uznaje się zasady Dunsa

Szkota i zasady przepełnienia. W pozostałej części kursu skupimy się jednak na logice

klasycznej jako na podstawowym systemie dedukcyjnym.


Document Outline


Wyszukiwarka

Podobne podstrony:
Modul 5 Logika
Modul 2 Logika
Modul 3 Logika
Modul 4 Logika
Modul 6 Logika
moduł 1 logika rozumienie i argumentacja, LOGIKA 2006
moduł 5Elementy metodologii, LOGIKA 2006
logika moduł 3-4, Administracja, logika
moduł 6 błędy logiczne, LOGIKA 2006
moduł 3 Klasyczny rachunek zdań, LOGIKA 2006
moduł 2 analiza jesyka, LOGIKA 2006
modul I historia strategii2002

więcej podobnych podstron