I
Andrzej Indrzejczak
LOGIKA
1
Logika współczesna to kompleks wielu dyscyplin, który trudno jest opisać wyczerpująco w krótki
sposób. Składa się na tę złożoność zarówno historia logiki, jak i jej współczesne związki
z innymi naukami, zwłaszcza z matematyką i informatyką. Tradycyjnie zwykło się dzielić logikę
na trzy podstawowe działy: semiotykę logiczną, logikę formalną i metodologię nauk.
Semiotyka logiczna
to ogólna teoria systemów znakowych. Szczególnie ważna klasa takich
systemów to języki naturalne i sztuczne. Logików interesują zasadniczo tylko pewne
aspekty tworów językowych, związane z ich użyciem dla przekazywania i przetwarzania
informacji. Ważna jest analiza struktury języka, jego składni – te zadania realizowane są na
gruncie
syntaktyki
, czyli nauki o relacjach pomiędzy znakami.
Język przekazuje informację dzięki temu, że jego elementy posiadają znaczenie –
semantyka
jest tą częścią semiotyki, która bada relacje między znakami a ich znaczeniem. Ostatni dział
semiotyki to
pragmatyka
, która analizuje relacje pomiędzy znakami a ich użytkownikami.
Przekaz informacji z pomocą języka naturalnego jest narażony na zakłócenia, wywoływane
przez takie mechanizmy językowe, jak wieloznaczność, nieostrość, chwiejność
znaczeniowa. Stąd dużo uwagi poświęca się analizie błędów logicznych oraz badaniu
środków służących zwiększaniu precyzji komunikacji.
Logika w sensie ścisłym to
logika formalna
. Ten dział zajmuje się analizą rozumowań,
w szczególności zaś badaniem warunków ich poprawności. Analizy tej dokonuje się budując
formalne systemy dedukcyjne w sztucznych językach. Pozwala to uniknąć niebezpieczeństw
związanych z brakiem precyzji charakterystycznym dla języków naturalnych. W logice dedukcyjnej
poprawność rozumowań utożsamia się z zachodzeniem relacji wynikania pomiędzy
przesłankami i wnioskami. Wynikanie można badać na drodze czysto syntaktycznej bądź
semantycznej.
Na gruncie
teorii dowodu
wynikanie opisuje się syntaktycznie, poprzez konstrukcję
odpowiednich zestawów reguł.
Teoria modeli
dostarcza semantycznej charakteryzacji relacji
wynikania poprzez konstrukcję odpowiednich struktur interpretacyjnych. Oba podejścia są
komplementarne.
Ostatnim działem logiki jest
metodologia nauk
, w której analizuje się podstawowe sposoby
postępowania badawczego. Do logiki należy tzw. metodologia ogólna, natomiast metodologie
szczegółowe poszczególnych dyscyplin naukowych należy traktować raczej jako działy tych
nauk. W ramach logiki mieści się ogólny podział typów nauk i związanych z nimi procedur,
2
analiza pojęcia teorii naukowej oraz takich uniwersalnych zabiegów badawczych, jak
definiowanie czy klasyfikowanie. Ważną częścią metodologii jest
metalogika
, w której
ramach dokonuje się badania systemów formalnych.
Obecny kurs logiki ma przede wszystkim dwa cele praktyczne:
- Zaznajomienie studentów z tymi elementami analizy języka, które mogą wpłynąć na większą
kontrolę precyzji wypowiedzi.
- Prezentację pewnych technik, które pozwalają na analizę poprawności rozumowań
w języku naturalnym.
Prezentacja teoretycznych zagadnień jest ograniczona do minimum. Kurs ten zasadniczo nie
zawiera wyników z zakresu metalogiki, chociaż w wielu miejscach podaje się pewne informacje
dotyczące logiki współczesnej, jej działów i podstawowych zagadnień. Poniższy kurs jest
samowystarczalny. Nie zakłada się żadnej wiedzy specjalistycznej, w szczególności z zakresu
logiki. Wiedza wyniesiona ze szkoły średniej powinna wystarczyć do zrozumienia tekstu. Od
czytelnika wymaga się jednak uważnego czytania i rozwiązywania wszystkich zadań. Kurs
obliczony jest na 6 tygodni.
3
W pierwszym module kursu zapoznamy się z podstawowymi zadaniami logiki i jej kluczowymi
pojęciami. Zaczniemy od wyjaśnienia czym jest logika, w różnych znaczeniach tego słowa.
Następnie zastanowimy się nad tym, czym są rozumowania.
Dwa podstawowe pojęcia logiki związane z analizą rozumowań to wynikanie i sprzeczność
– ich omówienie zajmie resztę obecnego modułu. Poniższe wiadomości mają charakter wstępny,
ale ich właściwe zrozumienie i przyswojenie ma fundamentalne znaczenie dla realizacji dalszej
części kursu.
4
Słowo logika jest używane w wielu znaczeniach. Możemy usłyszeć np. o logice biznesu, o tym,
że czyjeś postępowanie jest nielogiczne, że to, iż coś się komuś przydarzyło, jest logicznym
następstwem jego zachowania. Logiczne postępowanie zwykło się przeciwstawiać działaniom
spontanicznym, tak jak rozum przeciwstawia się czasem uczuciom.
Bez względu na różnice się, że można znaleźć coś wspólnego w tych rozmaitych kontekstach.
Słowo logika (lub jego pochodne, jak logiczny) jest używane wtedy, gdy chcemy podkreślić
występowanie jakiejś prawidłowości, kiedy chcemy zaznaczyć, że w grę wchodzi pewna
konsekwencja postępowania, stosowanie pewnych reguł bądź zasad. Przymiotnik (nie)logiczny
stosowany bywa zarówno w odniesieniu do osób, jak i działań, jednak przede wszystkim
stosować go należy w odniesieniu do myślenia. Taki jest źródłosłów tego wyrazu – greckie
logos
tłumaczy się zazwyczaj jako rozum, myśl (czasem słowo).
Słowo logika stosowane jest również, a może przede wszystkim, jako nazwa pewnej dyscypliny
naukowej o wieloletniej tradycji. Za jej twórcę uznać należy Arystotelesa (384–322 r. p.n.e.),
jednego z najwybitniejszych uczonych i myślicieli greckich. Nie znaczy to, że wcześniej ludzie
nie myśleli logicznie – wystarczy poczytać dialogi Platona, nauczyciela Arystotelesa, aby się
o tym przekonać. Jednak same zasady takiego myślenia nie były wcześniej poddane
systematycznej analizie; ludzie intuicyjnie stosujący zasady logiki byli jak Pan Jourdain
z komedii Moliere'a „Mieszczanin szlachcicem”, który z zachwytem stwierdza, że tyle lat mówił
prozą, a o tym nie wiedział! Arystoteles w swoich pracach prezentuje logikę właśnie jako
naukę o zasadach poprawnego myślenia. Naukę tą określał zresztą nazwą
analityka
.
To, że ludzie potrafili myśleć logicznie zanim stworzono logikę jako naukę, może budzić
podejrzenie, że bez studiowania logiki można sobie znakomicie poradzić. Zapewne można
dobrze sobie radzić w praktyce z wieloma zagadnieniami, nie znając teoretycznych zasad, na
5
których się one opierają. Można też doskonale znać teorię, a być kiepskim praktykiem.
Znajomość zasad teoretycznych jednak często pomaga i zwiększa naszą sprawność praktyczną –
z logiką jest podobnie.
Przez wiele wieków logika była nawet postrzegana bardziej jako sztuka, niż jako nauka;
oczekiwano, że jej studiowanie może znacznie usprawnić sposób myślenia. Taki pogląd jest
dość dyskusyjny, gdyż myślenie wydaje się być działaniem zbyt spontanicznym, aby można
było wtłoczyć je w sztywny gorset formalnych zasad. Z pewnością jednak teoretyczna
znajomość logiki może dostarczyć nam narzędzi do oceny wartości wyników myślenia własnego
i cudzego, wyczulić na błędy logiczne, brak precyzji i myślowy chaos.
Logika przechodziła w ciągu ponad 2 tysięcy lat swojego istnienia zarówno okresy wzlotów
jak i upadków. W starożytności i w średniowieczu cieszyła się raczej dużym uznaniem – była
pod nazwą
dialektyki
traktowana jako niezbędny element wykształcenia, jako dyscyplina
propedeutyczna, przygotowująca człowieka do dalszych studiów. Rozwój logiki w tych okresach
miał bardziej charakter ilościowy niż jakościowy; zasadniczo nie zmieniono logiki
Arystotelesowskiej, chociaż pojawiły się nowe, nieznane wcześniej działy. Ulepszono ją też
znacznie pod względem techniki nauczania.
Epoka nowożytna z początku nie ceniła logiki; wielu wybitnych myślicieli uważało jej
studiowanie za stratę czasu (Francis Bacon), a jej rozwój za zakończony (Immanuel Kant).
Zmianę przyniósł wiek XIX – prace Georga Boole'a, Charlesa Saundersa Peirce'a, Ernsta
Schrödera, i przede wszystkim, Gotloba Fregego. Na początku XX wieku ostatecznie stworzono
współczesną logikę formalną. Jej pionierzy to Bertrand Russell, Alfred Northrop Whitehead,
David Hilbert, Kurt Gödel, Alfred Tarski.
Logika tradycyjna była pojmowana jako dyscyplina filozoficzna, logika współczesna jest raczej
postrzegana jako dyscyplina matematyczna. Istotnie, związki logiki współczesnej z matematyką
są rozliczne: personalne – wszyscy wymienieni wyżej logicy to wybitni matematycy;
przedmiotowe – logika jest traktowana (wraz z teorią mnogości i algebrą abstrakcyjną) jako
element podstaw matematyki, a w jej obrębie udowodniono szereg ważnych wyników
dotyczących matematyki jako takiej. Przede wszystkim jednak logika współczesna jest
dyscypliną matematyczną w sensie metodologicznym, bo korzysta szeroko z technik
matematycznych. Nie należy przy tym zapominać, że logika nadal pozostaje również nauką
humanistyczną – zajmuje się przecież ludzkim myśleniem!
6
Na koniec trzeba podkreślić, że słowo logika jest też używane jako określenie pewnych
formalnych systemów, które logicy konstruują. Na konstrukcje te można spojrzeć jako na
matematyczne modele pewnych aspektów myślenia, chociaż nie zawsze (i nie tylko) w tym celu
się je tworzy. Podstawowym systemem nadal pozostaje
logika klasyczna
, której stworzenie
zawdzięczamy Arystotelesowi, ale warto wiedzieć, że powstało wiele innych logik, często
określanych zbiorczo jako
logiki nieklasyczne
. Niektóre z nich są rozwinięciem logiki
klasycznej – najważniejsze to:
logiki modalne
– analizujące pojęcia konieczności i możliwości,
logiki temporalne
– badające zależności czasowe wyrażane w języku,
logiki deontyczne
– czyli logiki norm i zobowiązań,
logiki erotetyczne
– czyli logiki pytań,
logiki epistemiczne
– analizujące sposoby wyrażania ludzkiej wiedzy i przekonań.
Wiele logik nieklasycznych powstało jako reakcja na pewne niedoskonałości logiki klasycznej –
są to systemy alternatywne. Najważniejsi rywale logiki klasycznej to:
logika intuicjonistyczna
– rezygnująca z niekonstruktywnych metod dowodzenia,
logiki wielowartościowe
– w których dopuszcza się więcej wartości logicznych niż
prawda i fałsz,
logiki parakonsystentne
– tolerujące sprzeczność,
logiki niemonotoniczne
– dopuszczające zmianę wyniku rozumowania w efekcie
uwzględnienia dodatkowych informacji,
logiki relewantne
– w których bada się implikację przy uwzględnieniu związków
treściowych między zdaniami.
Te bardzo skrótowe charakterystyki mają tylko zasygnalizować mnogość kierunków
poszukiwań. Obecny kurs, który ma charakter podstawowy, ogranicza się siłą rzeczy do logiki
klasycznej, należy jednak zdawać sobie sprawę, że choć logika jest jedna (jako nauka), to logik
(jako formalnych systemów) jest wiele. W paru miejscach postaramy się zwrócić uwagę na
podstawowe założenia i na ograniczenia logiki klasycznej i wtedy – tytułem ilustracji –
przypomnimy o istnieniu bardziej wyspecjalizowanych systemów, podając trochę więcej informacji.
7
Wiek XX przyniósł ogromny rozwój logiki, ale ubocznym i szkodliwym efektem tego rozwoju jest
głęboki rozdźwięk pomiędzy potoczną wiedzą na temat logiki a tym, czym współcześni logicy
faktycznie się zajmują i jakie techniki w swoich badaniach stosują. Dlatego paragraf ten
zakończymy kilkoma uwagami na temat ewolucji logiki w XX wieku.
Powstanie logiki matematycznej było związane nie tylko z zastosowaniem matematyki w logice,
ale i odwrotnie – z wykorzystaniem logiki do badania podstaw matematyki. Badania takie
ukazały szereg trudności i ograniczeń związanych z matematyką i jej zastosowaniami
w naukach przyrodniczych. Ujawnione trudności (np. sprzeczności w
teorii mnogości
Cantora
w jej pierwotnym ujęciu) doprowadziły między innymi: do
aksjomatycznego
scharakteryzowania wielu ważnych teorii matematycznych, do precyzyjnego sformułowania pojęcia
teorii naukowej
i warunków jej użyteczności, wreszcie – do utworzenia
definicji prawdy
w teoriach formalnych. Te ostatnie osiągnięcia Tarskiego z pierwszej połowy XX wieku
zainicjowały w późniejszych latach nowy nurt badań na pograniczu logiki i matematyki, zwany
obecnie
teorią modeli
, który wciąż dostarcza nowych, ważnych wyników.
Do najważniejszych rezultatów ukazujących ograniczenia metod formalnych zaliczyć należy
dwa twierdzenia Gödla.
Twierdzenie o niezupełności
pokazuje, że w każdej niesprzecznej
teorii zawierającej arytmetykę liczb naturalnych nie jest możliwe udowodnienie wszystkich praw
tej teorii. Drugie twierdzenie,
o niedowiedlności niesprzeczności
, mówi natomiast, że
niesprzeczność każdej teorii tego typu można wykazać jedynie przez odwołanie się do środków
bardziej zaawansowanych matematycznie (a zatem zakładających już arytmetykę jako
niesprzeczną podstawę).
Konkretne wyniki uzyskano także na polu badań nad możliwością
automatyzacji
procesu
wnioskowania. Idea konstrukcji odpowiednich maszyn sięga XVIII w., kiedy to Gotfried Leibniz,
oczekiwał, że w przyszłości odpowiednie maszyny zwolnią człowieka z wysiłku dowodzenia
twierdzeń.
W XX w. stworzono kilka precyzyjnych, ale równoważnych definicji
algorytmu
(m.in. Allan
Turing) oraz ukazano istotne ograniczenia automatyzacji. Kluczową własnością teorii,
umożliwiającą pełną automatyzację procesu jej poszerzania, jest
rozstrzygalność
. W przypadku
braku rozstrzygalności, nawet jeżeli dysponujemy odpowiednim algorytmem, to nie mamy
gwarancji, czy proces szukania dowodu kiedykolwiek się zakończy. Allonzo Church wykazał, że
logika klasyczna nie jest rozstrzygalna, chociaż istnieje wiele rozstrzygalnych jej części (m.in.
rachunek zdań
omawiany w module 3), zidentyfikowano także wiele rozstrzygalnych teorii
matematycznych.
8
Powstanie komputerów spowodowało praktyczne wykorzystanie powyższych wyników przy
tworzeniu rozlicznych programów automatycznego dowodzenia twierdzeń. To przejście od teorii
do praktyki otworzyło też nowe kierunki badań dotyczące
efektywności
; okazało się np., że
teoretyczna rozstrzygalność to za mało, ważne jest, żeby czas działania (a także potrzebna
pamięć) algorytmu zamykały się w rozsądnych granicach. Analizy tego typu doprowadziły
w latach 70-tych i 80-tych XX wieku do powstania samodzielnych dyscyplin z pogranicza logiki
i informatyki, takich jak teoria
obliczalności
i teoria
złożoności obliczeniowej
.
To tylko kilka aspektów i kierunków rozwoju współczesnej logiki, należy jednak pamiętać, że
w centrum jej badań nadal znajduje się problematyka analizy poprawności rozumowań, czy to
wykonywanych przez człowieka, czy przez maszynę.
9
Wspominaliśmy już kilka razy, że logika zajmuje się w pewien sposób ludzkim myśleniem, a konkretnie
rozumowaniami. To, że rozumowania są ważne dla człowieka, wydaje się nie budzić
żadnych wątpliwości. Każdy z nas w ciągu dnia wykonuje co najmniej kilkaset rozumowań
o różnym stopniu złożoności. Rozumowanie jest bowiem jedną z najważniejszych form
przetwarzania informacji, bez której trudno wyobrazić sobie normalne funkcjonowanie.
Rozumowania, w sensie powyższym, są pewnymi procesami psychicznymi, nas jednak będą
interesowały rozumowania w nieco innym znaczeniu. Należy odróżnić od siebie proces
i wytwór tego procesu (czy generalnie czynność i jej rezultat). Rozumowania jako mentalne
procesy zasadniczo nie interesują logików, są raczej przedmiotem badań psychologii poznawczej.
Nie zawsze tak było; do końca XIX wieku w logice dominował tzw.
psychologizm
, a logika była
pojmowana właśnie jako gałąź psychologii.
Współcześnie logicy zainteresowani są raczej zobiektywizowanymi wytworami tych procesów
psychicznych, czyli rozumowaniami prezentowanymi w jakimś języku jako pewien typ
tekstów
.
Czym charakteryzują się rozumowania jako teksty sformułowane w pewnym języku? Czym
różnią się np. od modlitw albo od wierszy? Nawiasem mówiąc, rozumowania też mogą wystąpić
w kunsztownej, poetyckiej formie (czego dowodem może być np. „O naturze wszechrzeczy”
Lukrecjusza), ale nie tego od nich oczekujemy – tak jak nie wymagamy, by wiersze zawierały
wzory matematyczne. Najlepszym sposobem znalezienia wyznaczników rozumowania jest
przeanalizowanie kilku przykładów rozumowań w języku polskim.
1.
„Kubuś Puchatek usiadł sobie pod tym dębem, podparł głowę na łapkach i zaczął
rozmyślać. Z początku powiedział do siebie samego: – To bzykanie coś oznacza: Takie
bzyczące bzykanie nie bzyka bez powodu. Jeżeli słyszę bzykanie, to znaczy, że ktoś
bzyka, a jedyny powód bzykania, jaki ja znam, to ten, że się jest pszczołą. Potem znów
pomyślał dłuższą chwilę i powiedział: – A jedyny powód, żeby być pszczołą, to ten, żeby
robić miód. Po czym wstał i powiedział: – A jedyny powód robienia miodu to ten, żebym
10
ja go jadł. – I zaczął włazić na drzewo.”
(A. A. Milne, Kubuś Puchatek, tłum. J. Tuwim, Nasza
Księgarnia 1965, s. 10-11)
2.
„W szeregu wszystkich przyczyn sprawczych uporządkowanych pierwszy czynnik jest
przyczyną pośredniego, a ten – czynnika w nim ostatniego. Obojętną przy tym jest
sprawą, czy ów czynnik pośredni jest liczebnie tylko jeden, czy też jest jeden w sensie
zbioru. Jeśli wszakże usunie się przyczynę, tym samym usunie się też to, co jest jej
skutkiem. Skoro przeto usunie się pierwszy czynnik szeregu, to czynnik pośredni też
przestanie być przyczyną. Gdyby więc w szeregu przyczyn sprawczych szło się
w nieskończoność, to żadna z nich nie byłaby pierwsza, a tym samym znikłyby również
i przyczyny pośrednie. To zaś jest oczywistą niedorzecznością; należy przeto uznać
istnienie pierwszej przyczyny sprawczej, a jest nią Bóg.”
(Tomasz z Akwinu, Summa contra
Gentiles, za: L. Wciórka, Wiedzieć, że jest Bóg, PWT Poznań 1994, s. 78)
3.
„
Twierdzenie 4
.
Zbiór wszystkich warstw lewostronnych dowolnej podgrupy danej
grupy jest podziałem tej grupy.
Dowód
.
Pokazaliśmy przed chwilą, że zbiór G jest sumą warstw gH, a więc musimy
jedynie pokazać, że warstwy, mające elementy wspólne, są identyczne. Pokażemy
najpierw, że jeśli k∈gH, to kH = gH. Ponieważ HH = H, to mamy kH ⊆ gHH = gH.
Jednocześnie, k = gh dla pewnego h∈H, a więc g = kh-1∈kH. Zatem gH ⊆ kHH = kH.
Załóżmy teraz, że warstwy gH i g’H mają niepuste przecięcie; niech, powiedzmy, k∈gH ∩
g’H. Wtedy z tego, co właśnie pokazaliśmy, wynika, że gH = kH = g’H.”
(K. A. Ross, Ch. R.
B. Wright, Matematyka dyskretna, PWN Warszawa1996, s.714)
Nietrudno zauważyć, że podane przykłady rozumowań bardzo się różnią. Przede wszystkim
treścią, ale również język jest bardzo odmienny. Nieporadny i prosty język Kubusia bardzo
odbiega od żargonu filozoficznego Tomasza, a ostatni przykład idzie w tym kierunku jeszcze
dalej – nie za dużo tu języka polskiego! Na czym więc polega, że wszystkie przykłady skłonni
jesteśmy uznać (mam taką nadzieję) za rozumowania?
Przede wszystkim podane przykłady rozumowań składają się ze zdań oznajmujących.
W rozumowaniach mogą się wprawdzie pojawiać, i często się pojawiają, np. zdania pytajne, ale
ich występowanie jest raczej podyktowane względami stylistycznymi. Podstawowym budulcem
rozumowań są zdania oznajmujące, gdyż to one przede wszystkim służą do przekazywania
informacji. Od tej pory będziemy używać określenia zdanie, tylko w odniesieniu do zdań
oznajmujących, zwanych często zdaniami w sensie logicznym. Nie oznacza to, że logika nie
podejmuje się też analizy innych rodzajów wypowiedzi językowych, np. pytań czy norm, ale na
razie ograniczymy się tylko do zdań oznajmujących.
11
Zdania w rozumowaniach występują w towarzystwie pewnych charakterystycznych wyrażeń.
Zwróćmy uwagę, że mimo dużych różnic językowych, w każdym z podanych przykładów
występują pewne słowa niezależne od treści rozważań. Należą do nich wyrażenia typu:
jeżeli...to, skoro...to, a więc, gdyby więc, to zaś, załóżmy więc, z tego...wynika. Niektóre z nich
potraktujemy jako spójniki, inne jako wskaźniki; ich funkcją jest wskazywanie, że zdania,
które po nich występują są bądź
założeniami
(skoro; gdyby; załóżmy, że itd.) tego
rozumowania bądź jego
wnioskami
(a więc; toteż; zatem itd.).
Za wyznacznik rozumowania należy więc przyjąć, że pewne zdania występują w nim jako
przesłanki (założenia), a inne jako wnioski (konkluzje). Dane zdanie może wystąpić zresztą
w obu rolach w obrębie jednego rozumowania, tzn. może być wnioskiem z jakichś przesłanek,
a następnie zostać użyte jako przesłanka do wyprowadzenia kolejnych wniosków. Zawsze
jednak będą w rozumowaniu obecne jakieś przesłanki wyjściowe (zdania, których w obrębie
tego rozumowania już się nie uzasadnia) i jakiś wniosek końcowy (zdanie, które nie jest już
wykorzystywane dalej jako przesłanka w obrębie tego rozumowania). Jest tak dlatego, że
rozumowanie składa się ze skończonej liczby zdań.
W logicznej analizie rozumowań będziemy zazwyczaj abstrahowali od zdań pośredniczących,
tzn. tych, które są zarówno wnioskami, jak i przesłankami – wystarczy nam wyróżnienie
przesłanek początkowych i wniosku końcowego, czyli – krótko – przesłanek i wniosku danego
rozumowania. Przyjmijmy zatem, że kanoniczny zapis danego rozumowania będzie miał
następującą postać:
P
1
,..., P
n
/ W
Gdzie:
P
1
,..., P
n –
to wszystkie przesłanki,
W – to wniosek,
/ – oznacza: zatem.
Kanoniczna forma rozumowania nie tylko może pomijać pewne zdania z oryginalnego
rozumowania (pośredniki), ale również zmieniać szyk zdań. Wniosek często bywa przecież
podawany na początku rozumowania, np. gdy rozumowanie jest częścią czyjejś
argumentacji
,
zazwyczaj zaczyna się od wniosku, a następnie po wskaźniku w rodzaju ponieważ rozpoczyna
się wyliczenie przesłanek. Przesłanki czasem bywają podane razem i na początku, ale znacznie
12
częściej rozproszone są po całym rozumowaniu, gdyż przywoływane są wtedy, kiedy akurat są
potrzebne.
Generalnie porządek, w jakim występują przesłanki, wnioski i zdania pośredniczące
w rozumowaniu, może być rozmaity i podyktowany jest raczej względami stylistycznymi, a nie
logicznymi. Toteż rekonstrukcja kanonicznej formy danego rozumowania bywa często dosyć
trudna, a dobrze sformułowane rozumowanie nie musi wprawdzie przybierać formy
kanonicznej, ale powinno w wyraźny sposób korzystać ze wskaźników, aby jego struktura była
łatwa do przeanalizowania. Forma kanoniczna podaje logiczny, a nie rzeczywisty porządek
zdań w rozumowaniu.
Osobna kwestia, która wymaga krótkiego komentarza to zadania, jakie realizują rozumowania
w naszym życiu i w nauce. W pewnym sensie wracamy tutaj do rozumowań jako procesów
mentalnych, ale tylko częściowo. Jedno z najważniejszych zadań realizowanych przez
rozumowania to poszerzanie naszej wiedzy, a rozumowania stosowane w takim celu to
wnioskowania
. We wnioskowaniu dysponujemy pewnymi zdaniami (przesłankami) jako
danymi, a rozumowanie służy wyprowadzaniu z nich kolejnych zdań jako wniosków.
Często jednak powstanie pewnego rozumowania jest wynikiem procesu odwrotnego;
dysponujemy jakimś zdaniem (wnioskiem), a szukamy dla niego
uzasadnienia
(przesłanek),
np. aby kogoś przekonać, że zdanie to jest prawdziwe. Mamy tutaj do czynienia
z
uzasadnieniem pośrednim
(w przeciwieństwie do bezpośredniego, które uzyskujemy na
drodze np. obserwacji), a najbardziej znaną formą takich rozumowań są
dowody
matematyczne
. W dużym uproszczeniu można powiedzieć, że przeprowadzanie wnioskowań
ma na celu przede wszystkim zdobywanie wiedzy, natomiast uzasadnianie ma związek z silną
potrzebą ugruntowania pewności naszych przekonań.
13
Chociaż rozumowania są niezbędne i powszechne zarówno w nauce jak i w życiu codziennym,
to nie zawsze jesteśmy z nich zadowoleni. Wiele rozumowań uznajemy z jakichś względów za
poprawne, a jeszcze więcej w końcu odrzucamy lub co najmniej modyfikujemy. Logików
interesują rozumowania, ale przede wszystkim poprawne, dlatego skupimy się obecnie na
kwestii wyjaśnienia, na czym (nie)poprawność danego rozumowania polega.
Można zastosować rozmaite kryteria oceny rozumowań, jednak nie wszystkie będą ważne
z punktu widzenia logiki. Tak jest np. z kryteriami estetycznymi – styl jest ważny, ale
z pewnością nie ma wpływu na to, czy dane rozumowanie jest poprawne. Zbliżoną kwestią jest
to, czy jakieś rozumowanie jest dla nas przekonywające, czy nie.
Często zdarza nam się ulec czyjejś argumentacji, ale po jakimś czasie dochodzimy do wniosku,
że czujemy się oszukani. Takie odczucia są powszechne np. u wyborców, którzy po pewnym
czasie porównują społeczną rzeczywistość z przedwyborczymi obietnicami tych, na których
oddali swoje głosy. Może tak być dlatego, że rozumowania, które zostały nam przedstawione
były wprawdzie przekonywające, ale logicznie niepoprawne.
Z drugiej strony, obawiam się, że przykład rozumowania matematycznego podany
w poprzednim paragrafie, dla większości czytelników nie był zbyt przekonywający –
rozumowanie musi być przede wszystkim zrozumiałe, aby trafiało do przekonania. Jednak
gwarantuję, że jest to przykład rozumowania poprawnego. Jak widać poprawność i siła
przekonywania nie muszą iść w parze, chociaż mogą, i dobrze jest, jeżeli udaje się to osiągnąć.
To, czy rozumowanie jest przekonujące, czy nie, i dlaczego, to problemy analizowane na
gruncie
retoryki
, nauki o środkach oddziaływania. Logików interesuje, czy rozumowanie jest
poprawne w sensie obiektywnym.
Na czym zatem polega logiczna poprawność? Przypomnijmy, że we wnioskowaniu mamy
pewne dane i wyprowadzamy z nich wnioski. Jeżeli nasze przesłanki są zdaniami prawdziwymi,
to dobrze by było, aby wnioski też okazały się prawdziwe. Zatem dobre rozumowanie to takie,
14
które nie doprowadzi nas od zdań prawdziwych do fałszywych. Pojawiają się tutaj określenia
prawdziwe i fałszywe jako kwalifikacje zdań, a przy okazji dwa problemy: co to jest prawda
(fałsz) i na czym polega mechanizm dziedziczenia prawdziwości z jednych zdań na drugie?
Pierwszy problem zasadniczo do logiki nie należy, choć można go uznać za problem z zakresu
filozofii logiki. Pewne kwestie dotyczące prawdy i fałszu w kontekście logiki rozważymy
w module 2, na razie wystarczy nam potoczne pojęcie prawdziwości. Zarówno prawdę, jak
i fałsz będziemy odtąd określać jako wartości logiczne zdania. Skupmy się zatem na kwestii
dziedziczenia prawdziwości z przesłanek na wnioski w poprawnym rozumowaniu. Oczywiście
najlepiej, jeżeli rozumowanie konstruowane jest według takich zasad, które gwarantują, że
zawsze od prawdy dojdziemy do prawdy. Rozumowania spełniające ten warunek nazywamy
rozumowaniami dedukcyjnymi
, a relację zachodzącą pomiędzy przesłankami i wnioskiem
takiego rozumowania, nazywamy relacją
wynikania
.
Zasadnicza część tego kursu poświęcona jest
logice dedukcyjnej
, czyli takiej, która bada
zasady gwarantujące zachodzenie wynikania. Warto jednak podkreślić, że w praktyce – nie
tylko potocznej, ale i naukowej – za poprawne rozumowania uważamy często takie, w których
relacja wynikania nie występuje. Należą do nich rozmaite formy
indukcji
i rozumowań przez
analogię
, czasem określane zbiorczo mianem
rozumowań uprawdopodobniających
. Takim
niededukcyjnym – chociaż poprawnym w szerszym tego słowa znaczeniu – rozumowaniom
poświęcimy nieco uwagi w 6 module kursu.
Przyjmijmy następujące
określenie relacji wynikania
:
Wniosek wynika z przesłanek wtw, jeżeli wszystkie przesłanki są prawdziwe, to
i wniosek musi być prawdziwy.
Skrót „wtw” użyty jest tutaj (i w całym kursie) zamiast wyrażenia wtedy i tylko wtedy. W sposób
negatywny, chociaż równoważny, można scharakteryzować wynikanie następująco:
Wniosek wynika z przesłanek wtw, jeżeli jest niemożliwe, żeby wszystkie przesłanki były
prawdziwe, a wniosek fałszywy.
15
Druga charakterystyka daje nam od razu kryterium niepoprawności – wystarczy, aby
rozumowanie miało prawdziwe przesłanki i fałszywy wniosek. W obu przypadkach nacisk pada
na
modalne
zwroty musi i niemożliwe. Z tego powodu trudno określenia te uznać za precyzyjne
definicje relacji wynikania – zwroty modalne są bardzo wieloznaczne i same wymagałyby
najpierw wyjaśnienia. Dlatego powyższe charakterystyki trzeba potraktować jako pierwsze
przybliżenie; w module 3 kursu podamy precyzyjne definicje.
W każdym razie nacisk na słówko musi gwarantuje, że w rozumowaniu dedukcyjnym nie
wystarczy, żeby przesłanki i wniosek po prostu były prawdziwe. W przeciwnym wypadku
należałoby uznać, że ze zdania 2+2=4 wynika zdanie Napoleon Bonaparte był cesarzem
Francji; wydaje się jednak, że w tym wypadku prawdziwość przesłanki, w żaden sposób nie
wymusza prawdziwości wniosku! Na czym polega zatem uzależnienie wartości logicznej
wniosku od wartości logicznej przesłanek? Przeanalizujemy to na przykładzie konkretnego
rozumowania.
1. Azor jest psem. Każdy pies to ssak. / Azor jest ssakiem
Mam nadzieję, że czytelnik zgodzi się, iż powyższe rozumowanie jest poprawne, tzn., że
wniosek wynika w nim z przesłanek i to bez względu na to, o jakim Azorze ono mówi. Druga
przesłanka jest prawdziwa na mocy biologii, natomiast wartość pierwszej może być różna.
Przypuszczalnie Azor jest istotnie psem, a wtedy (jako pies) musi być ssakiem, czyli przy obu
przesłankach wniosek musi być prawdziwy. Może jednak pierwsza przesłanka jest fałszywa? np.
Azor jest kotem.
Wtedy przesłanki są fałszywe (będziemy dla uproszczenia mówić, że przesłanki są fałszywe,
jeżeli co najmniej jedna z nich jest fałszywa – ma to swoje uzasadnienie: często przesłanek jest
wiele i możemy mieć trudności z rozstrzygnięciem, która z nich jest fałszywa, chociaż wiemy, że
nie wszystkie są prawdziwe), natomiast wniosek jest nadal prawdziwy – bo koty to też ssaki.
A gdyby rozważany przez nas Azor był np. złotą rybką, to wtedy nie tylko przesłanki, ale
i wniosek byłby zdaniem fałszywym.
Czy w obu przypadkach, kiedy przesłanki okazały się fałszywe, nasze rozumowanie przestało
być poprawne? Nie! – przecież, gdyby Azor był psem, to musiałby być ssakiem! I tak być
powinno – mało przydatna byłaby taka logika, w której musielibyśmy zmieniać reguły za każdym
razem, kiedy dowiedzielibyśmy się czegoś nowego.
16
Logika nie mówi nam, jaka jest aktualna wartość logiczna używanych zdań, tylko jakie
zachodzą zależności pomiędzy ich wartościami logicznymi. Reguły logiki mają być
niezawodne
bez względu na zastosowania. Powyższy eksperyment myślowy pokazuje, że jeśli w tym
samym rozumowaniu za oba wystąpienia słowa Azor podstawimy jakąś inną
nazwę
indywidualną
, np. Rex (ale i Napoleon Bonaparte, bądź trójkąt bermudzki), to też otrzymamy
rozumowanie poprawne.
Możemy się zresztą posunąć dalej i, zamiast pies lub ssak, użyć innego rzeczownika, tworząc
w ten sposób nowe rozumowania, ale o tej samej
formie
– każde z nich będzie poprawne.
Poprawność ta zagwarantowana jest tym, że bez względu na treść, każde rozumowanie tego
typu mówi po prostu, że ilekroć jakiś zbiór obiektów (tutaj psów) jest podzbiorem innego zbioru
(tutaj ssaków), to dowolny element zbioru pierwszego (tu Azor) jest zarazem elementem zbioru
drugiego.
Pojęcie formy rozumowania lub szerzej –
formy logicznej
, które pojawiło się wyżej, nie jest
łatwe do wyjaśnienia. Z drugiej strony – należy do najważniejszych pojęć w logice. Już
Arystoteles zdawał sobie sprawę, że poprawność rozumowania nie zależy od treści zdań, ale od
ich formy, stąd –
logika formalna
! Formę powyższego rozumowania można odtworzyć
następująco:
2. a jest A. Każde A jest B. / a jest B.
Gdzie a jest
zmienną indywidualną
, tzn. taką, za którą można podstawiać dowolne nazwy
indywidualne, natomiast A i B to
zmienne nazwowe
, czyli takie, za które można podstawiać
dowolne
nazwy ogólne
(np. rzeczowniki pospolite). Forma jest zatem pewnym szkieletem
rozumowania, który można przedstawić w postaci schematu, gdzie zamiast pewnych wyrażeń
(uznanych za nieistotne) występują odpowiednie zmienne.
Podsumowując,
zmienne
to wyrażenia użyte do zaznaczenia występowania takich słów,
których znaczenie nie ma wpływu na (nie)poprawność; możemy je dowolnie zastępować przez
inne słowa tej samej kategorii gramatycznej. Innymi słowy, wprowadzając pewien rodzaj
zmiennych, musimy określić ich
zakres podstawiania
. Musimy też pamiętać, że, dokonując
w schemacie rozumowania podstawień za zmienne, należy to samo wyrażenie podstawić za
wszystkie wystąpienia danej zmiennej, inaczej uzyskujemy rozumowanie innego typu. Np.
rozumowanie:
17
3. Tuptuś jest komarem. Każdy komar to owad. / Tuptuś jest zwierzęciem.
nie jest podstawieniem schematu
2.
, gdyż za jedno wystąpienie zmiennej B podstawiliśmy
nazwę owad, a za drugie nazwę zwierzę. Forma tego rozumowania wygląda następująco:
4. a jest A. Każde A jest B. / a jest C.
i nie gwarantuje niezawodności; wystarczy w rozumowaniu
3.
zamienić nazwę zwierzę na
nazwę trójkąt i już mamy podstawienie schematu
4.
, które od prawdy wiedzie do fałszu.
Z drugiej strony, w schemacie za różne zmienne tej samej kategorii można podstawiać to samo
wyrażenie i uzyskiwać rozumowanie o tej samej formie, aczkolwiek mniej zróżnicowane, niż
dozwala forma. Np. jeżeli w schemacie
2.
podstawimy za a – Azor a za A i B – pies, to
otrzymamy (poprawne) rozumowanie, które realizuje formę
2.
, a przy okazji – bardziej ogólną
formę:
5. a jest A. Każde A jest A. / a jest A.
Forma jest determinowana nie tylko przez rodzaj i ilość zmiennych. W schematach
2.
,
4.
i
5.
mamy przecież pewne słowa o ustalonym znaczeniu. Słówka jest i każde to
stałe logiczne
tych
schematów, czyli takie wyrażenia, których nie możemy zamienić na inne przy zachowaniu
gwarancji poprawności. To, które słowa chcemy potraktować jako stałe, a które jako zmienne,
jest do pewnego stopnia decyzją arbitralną.
Na pewno stałą logiczną może zostać tylko takie wyrażenie, które jest używane powszechnie,
w różnych kontekstach. Słowa jest i każde (jak również ich warianty, np. wszystkie czy są)
z pewnością ten warunek spełniają, podobnie jak różne rodzaje spójników. To, jakie rodzaje
zmiennych wyróżnimy, zależy głównie od głębokości analizy logicznej, np. w
rachunku zdań
omawianym w module 3 wyróżnimy tylko
zmienne zdaniowe
, a jedyne stałe logiczne dostępne
na tym poziomie to pewne spójniki.
18
Rozważania z poprzedniego paragrafu pokazują, że relacja wynikania, chociaż definiowana
w terminach prawdy i fałszu, jest relacją formalną – jej występowanie (bądź brak) zależy
tylko i wyłącznie od struktury zdań, a nie od ich wartości logicznej czy treści. Spróbujemy trochę
dokładniej przeanalizować charakter tej relacji, wprowadzimy też dla niej specjalny symbol
=,
a litery Z (z ewentualnymi indeksami dolnymi) na oznaczenie dowolnych zdań oznajmujących
w pewnym ustalonym języku. Zatem, stawiając symbol / między przesłankami a wnioskiem
niczego nie przesądzamy, natomiast używając
= zaznaczamy, że rozumowanie jest
dedukcyjne. W oparciu o nasze rozumienie wynikania łatwo stwierdzić, że posiada ono
następujące własności:
a) Zwrotność; Z
= Z
b) Monotoniczność; jeżeli Z
1
,...., Z
n
= Z, to Z
1
,...., Z
n
, Z
n
+1
= Z
c) Przechodniość; jeżeli Z
1
,...., Z
k
= Z
k
+1
i Z
k
+1
, Z
k
+2
,...., Z
n
= Z, to Z
1
,...., Z
k
, Z
k
+1
,...., Z
n
= Z
Pierwsza z nich to cecha dość oczywista: dowolne zdanie wynika samo z siebie, gdyż nie jest
możliwe, aby było jednocześnie prawdziwe (jako przesłanka) i fałszywe (jako wniosek).
Równocześnie wydaje się, że jest to cecha mało przydatna – jesteśmy raczej zainteresowani,
kiedy dane zdanie wynika z jakichś innych zdań. Jednak przy konstruowaniu formalnych
systemów dedukcji uwzględnienie tej własności jest niezwykle ważne.
Monotoniczność wynikania gwarantuje, że poprawności rozumowania nie można zepsuć
dołączając do niego nowe przesłanki. Załóżmy, że Z wynika z Z
1
,...., Z
n
, ale, że nie wynika
z Z
1
,...., Z
n
, Z
n
+1
. Wtedy możliwa jest taka sytuacja, że Z jest fałszywe, ale wszystkie przesłanki
są prawdziwe, ale wtedy również nie może zachodzić wynikanie Z z Z
1
,...., Z
n
,
ponieważ jest to
podzbiór zbioru Z
1
,...., Z
n
, Z
n
+1
.
Monotoniczność gwarantuje nam logiczną poprawność pewnego zabiegu retorycznego; mając
rozumowanie poprawne, możemy w argumentacji dołączać do niego dowolną ilość dodatkowych
przesłanek, aby uczynić je dla kogoś bardziej przekonywającym.
Z punktu widzenia logiki bardziej interesujący jest zabieg odwrotny polegający na sprowadzeniu
nadmiernie rozbudowanego, lecz poprawnego rozumowania do bardziej ekonomicznej postaci.
19
Warto też podkreślić, że można wskazać na rozumowania, które wydają się logicznie poprawne,
ale po dołączeniu dodatkowych przesłanek wniosek zdaje się tracić swoje uzasadnienie. Brak
nam tutaj miejsca na przykłady i analizę tego zjawiska, należy jednak zauważyć, że logicy
z tego powodu uznają za potrzebne konstruowanie tzw.
logik niemonotonicznych
, w których
odpowiednia relacja nie posiada interesującej nas własności.
Przechodniość jest jedną z najbardziej podstawowych cech wynikania. Gwarantuje nam, że
ilekroć we wnioskowaniu jakieś zdanie poprawnie wyprowadzimy z przesłanek, a następnie
użyjemy go jako przesłanki do dalszych (poprawnych) wnioskowań, to bez względu na ilość
takich pośredniczących przejść, końcowy wniosek wynika z pierwotnych przesłanek.
Szczególny przypadek przechodniości, który dobrze ilustruje zasadniczy mechanizm ma postać
następującą:
jeżeli Z
1
= Z
2
i Z
2
= Z
3
, to Z
1
= Z
3
Dla odmiany zwrotność można, w oparciu o monotoniczność, przedstawić w bardziej ogólnej formie:
Z
1
,...., Z
n
, Z
= Z
Omówiliśmy krótko najważniejsze własności relacji wynikania. Przypatrzmy się teraz dokładniej,
jakie wartości logiczne mogą mieć zdania, które występują w rozumowaniu poprawnym.
Wynikanie dopuszcza trzy możliwe konfiguracje wartości logicznych:
a) przesłanki – prawdziwe, wniosek – prawdziwy
b) przesłanki – fałszywe, wniosek – prawdziwy
c) przesłanki – fałszywe, wniosek – fałszywy
Wykluczone jest natomiast, aby przesłanki były prawdziwe a wniosek fałszywy.
Wydaje się, że najważniejsze w wynikaniu jest to, co daje konfiguracja a) – startując od prawdy
i stosując we wnioskowaniu tylko takie reguły, co do których mamy pewność, że są poprawne,
w bezpieczny sposób poszerzamy wiedzę. Jednak w praktyce również konfiguracja c) jest
niezwykle ważna. W życiu stosunkowo rzadko przeprowadzamy rozumowania w komfortowym
przekonaniu, że wszystkie przesłanki, na których się opieramy, są prawdziwe. A nawet jeżeli
takie przekonanie mamy, to często się później okazuje, że byliśmy w błędzie.
Generalnie, znacznie częściej rozumujemy w warunkach ryzyka, tzn. przy nieustalonej wartości
logicznej przesłanek. Jeżeli dojdziemy do wniosku, który jest fałszywy, to oznacza, że
20
popełniliśmy błędy w rozumowaniu lub że opieraliśmy się na fałszywych przesłankach. Wtedy
bardzo ważna staje się możliwość kontroli poprawności naszego rozumowania – jeżeli wiemy,
że wszystkie wnioski wynikały z przesłanek, to mamy pewność, że przesłanki (co najmniej jedna
z nich) są fałszywe. W ten sposób własność c) wynikania, umożliwia nam przeprowadzanie
kontroli i modyfikację naszych przekonań.
Klasycznym przykładem zastosowania tej techniki są liczne dialogi Platona (424–344 r. p.n.e.),
w których jako główna postać występuje jego mistrz Sokrates (469–399 r. p.n.e.). Sokrates
chcąc wykazać, że kogoś przekonania są fałszywe, przy pomocy pytań naprowadzał go na
konsekwencje tychże poglądów. Na każdym kroku upewniał się też, że jego rozmówca zgadza
się, że proponowane wnioski wynikają z przesłanek. W końcu pojawiały się takie wnioski,
których rozmówca już nie mógł zaakceptować, gdyż albo były ewidentnie fałszywe, albo – co
najmniej – nie do przyjęcia dla niego. Skoro jednak zgadzał się, że wynikają z wcześniejszych
zdań, a zatem również – przez przechodniość wynikania – z jego wyjściowych przesłanek,
musiał uznać, że jego poglądy są błędne.
Taki sam mechanizm wykorzystywany jest także w nauce, w szczególności do
sprawdzania
hipotez
. Chcąc wyjaśnić jakieś zjawisko, przyjmuje się wstępnie pewne hipotezy (czyli zdania
ogólne, które tłumaczą, jak do danego zjawiska dochodzi), co do których prawdziwości nie
mamy pewności. Z hipotez (łącznie z innymi uznanymi twierdzeniami) wyprowadzamy
dedukcyjnie wnioski, których wartość logiczną możemy sprawdzić (np. przez
obserwację
lub
eksperymenty
). Jeżeli znajdziemy zdanie, które jest fałszywe, to znaczy, że któraś z naszych
hipotez też jest fałszywa. W ten sposób dokonujemy
falsyfikacji
hipotezy.
Natomiast żadna ilość prawdziwych wniosków nie uprawnia nas do ostatecznego uznania
prawdziwości hipotez. Zwiększa się tylko coraz bardziej prawdopodobieństwo, że przyjęte przez
nas wyjaśnienie jest właściwe – proces
weryfikacji
hipotez teoretycznie jest nieskończony. Oba
omówione przykłady pokazują, że wynikanie pozwala nam nie tylko na poszerzenie wiedzy, ale
również na jej modyfikowanie.
21
Dotychczasowe rozważania pokazują również, w jaki sposób można wykazywać, że dane
rozumowanie jest niepoprawne. Wynikanie wyklucza prawdziwość przesłanek przy fałszywości
wniosku. Natomiast w rozumowaniu niepoprawnym mogą występować wszystkie możliwe
zestawienia wartości logicznych. Jednak aby wykazać, że dane rozumowanie jest niepoprawne,
trzeba udowodnić, że miało ono prawdziwe przesłanki i fałszywy wniosek.
Na ogół konkretne analizowane rozumowanie nie spełnia tego warunku, pamiętajmy jednak, że
chodzi o jego formę, a nie o treść konkretnych zdań. Wystarczy zatem zbudować jakieś inne
rozumowanie, które ma dokładnie taką samą formę i ewidentnie prawdziwe przesłanki, ale
fałszywy wniosek. Technika ta określana bywa jako obalenie rozumowania przez
kontrprzykład
lub jako
falsyfikacja
rozumowania. Oczywiście prawdziwość przesłanek
i fałszywość wniosku w kontrprzykładzie nie mogą budzić żadnych wątpliwości. Zilustrujemy to
na przykładzie:
1. Każdy pies jest kręgowcem. Niektóre kręgowce są ssakami. / Każdy pies jest ssakiem.
Rozumowanie to wydawać się może poprawne. Wystarczy jednak słowo ssak zastąpić przez
np. słowo ryba, a już otrzymamy rozumowanie o tej samej formie (którą czytelnik zechce
zapisać jako schemat), prawdziwych przesłankach i fałszywym wniosku. W dalszej części tego
kursu wielokrotnie będziemy korzystali z techniki udowadniania niepoprawności rozumowania
poprzez znajdywanie odpowiedniego przykładu falsyfikującego.
22
Rozumowania nie są jedynym rodzajem tekstów, a wynikanie nie jest jedynym ważnym pojęciem,
analizowanym na gruncie logiki. Logika pomaga badać dowolne teksty pod kątem ich spójności.
Najgorszym objawem chaosu myślowego jest sytuacja, kiedy ktoś sam sobie przeczy i nawet tego
nie zauważa. Dlatego dla logiki, jako dyscypliny dbającej o porządek i konsekwencję myślenia, nie
mniej ważna jest analiza (nie)sprzeczności ludzkich przekonań. Powiemy, że.:
Zbiór zdań jest sprzeczny wtw, gdy jest niemożliwe, aby wszystkie zdania w tym
zbiorze były prawdziwe.
W powyższym określeniu znów nacisk kładziemy na modalny zwrot niemożliwe. Nie należy
sprzeczności w powyższym sensie mylić z innymi przejawami niekonsekwencji. Człowiek, który
twierdzi, że kłamstwo jest niemoralne, a sam okłamuje swoich bliźnich, jest z pewnością
niekonsekwentny, ale w sensie interesującym raczej etyka niż logika. Ponieważ sprzeczność łatwo
jest pomylić z innymi fenomenami, takimi jak dwulicowość, niesprawiedliwość czy nielojalność, więc
znów zaczniemy od kilku przykładów. Wyobraźmy sobie ludzi wypowiadających poniższe zdania:
1. Byłoby niestosowne poddawać cenzurze programy TV, w których pokazuje się przemoc,
gdyż to, co widać na ekranie, nie ma wpływu na ludzkie zachowania. Natomiast dobrą
ideą jest pokazywanie większej ilości programów, które ukazują nasze osiągnięcia
gospodarcze, gdyż to mogłoby osłabić argumentację, a nawet zmienić poglądy malkontentów.
2. W ciągu ostatnich 5 lat miałem 3 duże i kilka mniejszych wypadków samochodowych.
W 2 przypadkach sąd orzekł moją odpowiedzialność, ale naprawdę jestem bardzo dobrym
kierowcą, tylko nie mam szczęścia.
3. Powierzchnia Ziemi jest płaska (wyjąwszy góry, morza i inne względnie małe wypukłości
i wgłębienia). Kiedy ludzie myślą, że opłynęli Ziemię dookoła, to tak naprawdę tylko
przemieścili się z jednego miejsca do drugiego, które jest identyczne jak to, z którego
wystartowali, ale oddalone od tamtego o tysiące mil.
(źródło: W. Hodges, Logic, Penguin Books
1991)
23
Czy każdy z powyższych tekstów jest sprzeczny? Pierwszy jest sprzeczny bez wątpienia; nie
można równocześnie utrzymywać, że to, co oglądamy w telewizji, nie ma wpływu i zarazem
może mieć wpływ na nasze zachowanie. Autor wypowiedzi
1.
mógłby starać się ją poprawić, na
przykład zaznaczając, że według niego pokazywanie zjawisk negatywnych nie ma wpływu na
ludzi, a pokazywanie zjawisk pozytywnych ma. Poglądy takie nie byłyby już sprzeczne (choć
wydają się dziwaczne).
Tekst 2.
nie jest sprzeczny, choć wydaje się głupi i nierozsądny. Jednak jest możliwe, że autor
istotnie jest dobrym kierowcą, tylko ma niezwykłego pecha. W końcu – jak wiadomo – nawet
sądy często się mylą.
Tekst 3.
jest po prostu fałszywy (w świetle powszechnie uznawanych
poglądów), ale pogląd w nim reprezentowany nie jest niemożliwy w sensie logicznym. Co
więcej, należy podkreślić, że jego autor usilnie stara się o konsekwencję swojego wywodu, np.
tłumaczy, na czym polega zjawisko opłynięcia świata dookoła. Zatem, chociaż
3.
samo w sobie
nie jest sprzeczne, to jest sprzeczne z naszymi poglądami.
W krótkich tekstach sprzeczność jest zazwyczaj dosyć łatwa do wykrycia, a to, że mamy
skłonność uznać za sprzeczność mniej niebezpieczne fenomeny, jak zwykły fałsz lub niskie
prawdopodobieństwo, nie wydaje się groźne. Bardziej niebezpieczne jest to, że możemy
sprzeczność przeoczyć w przypadkach, kiedy ona faktycznie występuje. Jest tak zwłaszcza
w przypadku tekstów długich o skomplikowanej strukturze. Jednak nawet kiedy mamy do
czynienia ze względnie małymi zbiorami zdań, również możemy sprzeczności nie zauważyć,
jeśli zdania te mają wystarczająco złożoną strukturę.
Sprzeczność jest ewidentna, kiedy mamy dwa zdania, z których jedno jest po prostu
zaprzeczeniem drugiego – jest to jawna sprzeczność. W takim przypadku zachodzi między
dwoma zdaniami mocniejsza relacja logiczna, gdyż nie tylko nie mogą być razem prawdziwe,
ale również nie mogą być razem fałszywe; krótko mówiąc, nie mogą mieć równocześnie tej
samej wartości logicznej.
Warto zauważyć, że w tradycyjnej terminologii logicznej, nadal często używanej, właśnie ta
mocna relacja określana jest jako sprzeczność, podczas gdy w przypadku dwóch zdań, które
tylko nie mogą być razem prawdziwe (choć mogą być oba fałszywe), mówi się, że wzajemnie
się
wykluczają
lub że są przeciwne
.
Przykładem może być para zdań: Każdy Polak to pijak
i Żaden Polak nie jest pijakiem. Nie mogą być one oba prawdziwe, chociaż mogą być (i są) oba
fałszywe. Są zatem sprzeczne w sensie definicji podanej na początku tematu, chociaż nie są
24
jawnie sprzeczne. Nasza charakterystyka sprzeczności ma tę przewagę, że stosuje się nie tylko
do par zdań, ale do ich zbiorów o dowolnej wielkości, nawet nieskończonych.
Pokażemy teraz, że zachodzi bardzo bliski związek pomiędzy sprzecznością a wynikaniem.
Twierdzenie 1.
Z
1
,....., Z
n
= Z
n+
1
wtw zbiór {Z
1
,....., Z
n
, negZ
n+
1
} jest sprzeczny
(wyrażeniem negZ oznaczyliśmy we wzorze zaprzeczenie zdania Z)
Aby wykazać prawdziwość twierdzenia o postaci równoważności, należy udowodnić, że z lewej
strony tej równoważności wynika prawa i odwrotnie.
1. Załóżmy, że rozumowanie z lewej strony jest poprawne. Wszystkie możliwe interpretacje
zdań Z
1
,....., Z
n
można podzielić na dwie grupy te, przy których pewne zdanie nie jest
prawdziwe, i te przy których wszystkie są prawdziwe. Dowolna interpretacja, przy której
przynajmniej jedna przesłanka jest fałszywa, da nam (to samo) fałszywe zdanie
w analizowanym zbiorze. Dowolna interpretacja, przy której wszystkie przesłanki są prawdziwe,
musi czynić prawdziwym również Z
n+
1
; inaczej rozumowanie nie byłoby poprawne! Ale wtedy
zaprzeczenie Z
n+
1
jest fałszywe w rozważanym zbiorze. Zatem nie jest możliwe, aby zawierał
on tylko zdania prawdziwe, jest więc sprzeczny.
2. Załóżmy, że zbiór po prawej jest sprzeczny, a rozumowanie po lewej jednak niepoprawne.
Zatem przy pewnej interpretacji zdania Z
1
,....., Z
n
są prawdziwe, a Z
n+
1
jest fałszywe, wtedy
jednak jego przeczenie jest prawdziwe, a więc rozważany zbiór zawiera tylko prawdziwe zdania
i nie jest sprzeczny! Ale to jest sprzeczne z pierwszym założeniem, zatem musimy odrzucić
drugie założenie.
Część 2. naszego dowodu wymaga krótkiego komentarza. Przyjęliśmy tam dwa założenia,
z których jedno jest zaprzeczeniem zdania, które chcemy udowodnić. Takie założenia
określamy jako
założenia niewprost
, a dowód, który takie założenia wykorzystuje, to
dowód
niewprost
albo
apagogiczny
, albo przez redukcję do absurdu. Celem dowodu tego rodzaju,
jest nie tyle dojście do zdania, które chcemy udowodnić, ile raczej dojście do jawnej
sprzeczności (czyli do zaprzeczenia jakiegoś zdania wyżej występującego).
25
Wprawdzie w powyższym przykładzie jawnej sprzeczności dostarczają właśnie założenie
niewprost i zdanie, które chcemy dowieść, ale wcale tak być nie musi. Dowód niewprost
uznamy za poprawny, jeżeli pojawi się w nim jawna sprzeczność dowolnych dwóch zdań.
Dowody tego typu są powszechnie wykorzystywane, chociaż matematycy zazwyczaj wyżej
sobie cenią
dowody wprost
, czyli takie, w których nie używa się założeń niewprost, i których
celem jest dedukcja dowodzonego zdania.
Zwróćmy uwagę na jeszcze jedną własność sprzeczności, określaną czasem jako:
Zasada Dunsa Szkota:
Dowolne zdanie wynika ze sprzecznego zbioru zdań.
Dlaczego? Dlatego, że skoro nie jest możliwe, aby zdania w tym zbiorze były razem prawdziwe,
to nie jest możliwe, aby były prawdziwe, gdy wniosek jest fałszywy. Zatem rozumowanie,
którego przesłanki są sprzeczne, jest poprawne, ale jest to poprawność trywialna, gdyż
przesłanki wcale nie uzasadniają przyjęcia wniosku! Rozumowanie tego typu jest poprawne, ale
bezwartościowe poznawczo.
Powyższa zasada wyjaśnia, dlaczego pojawienie się dowolnej sprzeczności w dowodzie,
stanowi wystarczający warunek dla uznania go za zakończony; ze sprzeczności (jakiejkolwiek)
wynika przecież cokolwiek – również zdanie, które było celem dowodu. Jest tak nawet wtedy,
gdy nie użyliśmy w dowodzie założenia niewprost – widocznie inne założenia były sprzeczne.
Zasada Dunsa Szkota pokazuje również, dlaczego sprzeczność jest taka groźna; dlaczego należy
się starać ją wykryć i wyeliminować. Dowolna teoria naukowa, pojmowana jako zbiór twierdzeń
w pewnym języku, traci swoją użyteczność, jeżeli okaże się sprzeczna. Przecież każde zdanie
w tym języku, wynika z tej sprzeczności, a zatem da się potraktować jako kolejne twierdzenie.
Teoria taka nie daje już podstaw do tego, aby odróżnić od siebie zdania akceptowane i odrzucane
– wszystkie są równie dobre. Obowiązuje tu prosta konsekwencja zasady Dunsa, tzw.:
26
Zasada Przepełnienia:
Teoria sprzeczna jest identyczna ze zbiorem wszystkich
zdań w języku tej teorii.
Właśnie dlatego, udowadnianie niesprzeczności teorii naukowych, uchodziło za podstawowy
wymóg, a rezultat Gödla (por. temat 1, moduł 1) dotyczący niedowiedlności niesprzeczności
w teoriach zawierających arytmetykę, stanowił tak duży wstrząs dla środowiska matematyków.
I znów wypada podkreślić, że logicy starają się negatywne oddziaływanie sprzeczności
ograniczyć, skoro nie zawsze można ją łatwo wykryć. Wyobraźmy sobie program komputerowy
wspomagający policję przy prowadzeniu śledztwa poprzez automatyczne dedukowanie
w oparciu o zebrane dane. Łatwo wyobrazić sobie sytuację, że zbiór danych staje się
sprzeczny, np. ktoś z przesłuchiwanych kłamał. Gdyby program działał w oparciu o logikę
klasyczną, to mógłby z tych danych wyprowadzić dowolny wniosek, np., że sprawca
przestępstwa to główny inspektor!
Jeden z możliwych sposobów przeciwdziałania to wykorzystywanie
logik parakonsystentnych
.
W logikach takich toleruje się sprzeczność, w tym sensie, że nie uznaje się zasady Dunsa
Szkota i zasady przepełnienia. W pozostałej części kursu skupimy się jednak na logice
klasycznej jako na podstawowym systemie dedukcyjnym.