Logika formalna zajmuje się formą, a nie treścią wyrażeń. Dzięki temu jest dziedziną uniwersalną, gdyż nie jest uwikłana w treść. Formalizacja, czyli przechodzenie od konkretnej treści do czystej formy, jest stopniowalne. Oto przykład takiej formalizacji:
1. „Jan uczy się logiki”
2. „X uczy się logiki”
3. „X uczy się Y”
4. „x R y”
Rozdz. I. 1. Stałe logiczne posiadają, w odróżnieniu od zmiennych, swoje stałe i ściśle określone znaczenie. Do stałych należą funktory i kwantyfikatory. Najbardziej znane funktory to: negacja, koniunkcja, alternatywa, implikacja i równoważność. Definiujemy je przy pomocy matryc (tabelek).
Funktor negacji p ~ p
1 0
0 1
Pozostałe funktory: p q ∧ ∨ → ⇔
1 1 1 1 1 1
0 1 0 1 1 0
1 0 0 1 0 0
0 0 0 0 1 1
Schematy czy prawa logiczne możemy zapisywać w notacji nawiasowej, np. {[(p → q) ∧ ~ q] → ~ p} bądź beznawiasowej. Tę ostatnią wymyślił J. Łukasiewicz (1878 - 1956) i jest ona nazywana notacją polską, beznawiasową lub notacją Łukasiewicza. Przyjmuje on dla znanych nam funktorów następujące symbole:
N = negacja
K = koniunkcja
A = alternatywa
C = implikacja
E = równoważność
J. Łukasiewicz swoje dwuargumentowe funktory stawia przed argumentami, a nie w środku, jak to jest praktykowane w notacji nawiasowej. Wyrażenie `p ∨ q' w symbolice Łukasiewicza wygląda `Apq'. Zamieniając symbolikę nawiasową na symbolikę Łukasiewicza rozpoczynamy od głównych funktorów i umieszczamy je - im bardziej są główne - tym bardziej na lewo. Prawo logiczne modus tellendo tollens zapisane w notacji nawiasowej: {[(p → q) ∧ ~ q] → ~ p} przetransponowane na notację Łukasiewicza wygląda następująco:
C K Cpq Nq Np.
Umieszczone pod prawem strzałki pokazują nam funktory i łączone przez nie argumenty. Przechodząc natomiast z notacji Łukasiewicza na nawiasową rozpoczynamy od końca i od tych funktorów, które stoją najbliżej swoich argumentów, w naszym wypadku od ~p.
2. Schematy, które są zarazem formalne (składają się jedynie ze stałych i zmiennych) i niezawodne (od prawdziwych przesłanek prowadzą zawsze do prawdziwych wniosków), nazywają się schematami logicznymi. Każdy schemat logiczny składa się z przesłanek połączonych koniunkcją oraz poziomą kreską odłączonego od nich wniosku. Owa kreska zastępuje implikację. Widać to dokładnie, gdy schemat (I) zapisany jest w formie prawa logicznego (II):
Pierwsza podstawowa zależność pomiędzy wartością log. przesł. i wnios.
Przesłanki prawdziwe, 1 1. p → q
wniosek musi być praw- (I) 2. p (II) [(p → q) ∧ p] → q
dziwy! 1 3. q
Ponieważ schemat (I) jest schematem logicznym, czyli formalnym i niezawodnym, dlatego wystarczy byśmy w miejsce przesłanek (1) i (2) wstawili zdania prawdziwe, by we wniosku otrzymać także zdanie prawdziwe. Oto przykład:
p = Pada deszcz. 1. Jeśli pada deszcz, to ulica jest mokra.
q = Ulica jest mokra. (III) 2. Pada deszcz.
3. Ulica jest mokra.
Aby ze zdania `p' wynikało zdanie `q' musi istnieć pomiędzy nimi taki związek, że stan rzeczy opisany w zdaniu `p' jest warunkiem wystarczającym dla stanu rzeczy opisanego w zdaniu `q', tzn. wystarczy, aby padał deszcz, a tym samym ulica jest także mokra. W schemacie logicznym przesłanki są zatem warunkiem wystarczającym dla wniosku, a wniosek jest warunkiem koniecznym dla przesłanek: jeśli nie jest ulica mokra, nie może także padać deszcz. Wynikają z tego jeszcze inne bardzo ważne konsekwencje dla wszelkich rozumowań opartych na schematach logicznych. Oto one:
Druga ważna zależność pomiędzy wart. log. przesł. i wnios.
Przesłanki są fałszywe 0 1. p → q
(przynajmniej jedna). 2. p
Wniosek może być 1 lub 0 3. q
prawd. lub fałszywy.
Przykłady
Fałszywe przesłanki (przynajmniej jedna)
i prawdziwy wniosek: i fałszywy wniosek:
Kraków leży w Niemczech. Każdy pies posiada dziesięć nóg.
Niemcy leżą w Europie. Kupiłem psa.
Kraków leży w Europie. Zakupiony pies posiada dziesięć nóg.
Trzecia ważna zależność pomiędzy wart. log. przesł. i wniosków.
1. p → q 0 Wniosek jest fałszywy,
2. p przesłanki muszą być
3. q 0 (co najm. jed.) fałszywe!
Przykład
Jeśli pada deszcz, to ulica jest mokra.
Nie jest też prawdą, że pada deszcz.
Nie jest prawdą, że ulica jest mokra.
Czwarta zależność pomiędzy wart. log. przes. i wniosków.
Wniosek jest prawdziwy 1 lub 0 1. p → q
przesłanki mogą być 2. p
prawdziwe lub fałszywe. 1 3. q
Przykład
Jeśli pada deszcz, to ulica jest mokra.
Prawdą jest, że pada deszcz. Nie jest prawdą, że pada deszcz (polano ulicę).
W obu wypadkach wniosek „Ulica jest mokra” jest prawdziwy.
Wszystkie omówione tutaj zależności jakie zachodzą pomiędzy wartością logiczną przesłanek i wniosków w schemacie logicznym przebiegają według matrycy dla implikacji materialnej, w której `p' reprezentuje przesłanki, a `q' wniosek!
Istnieją też schematy formalne, które nie są logiczne. Na nich opierają się tzw. wnioskowania nie niezawodne (indukcyjne), czyli takie, które mogą, lecz nie muszą zawieść. Oto schemat takiego wnioskowania:
1. p → q
(VI) 2. q
3. p
Jeśli za `p' wstawimy zdanie „Jan kupuje książkę”, a za zmienną `q' zdanie „Jan ma pieniądze”, wtedy otrzymamy następującą wypowiedź inferencyjną:
1. Jeśli Jan kupuje książkę, to Jan ma pieniądze.
(VII) 2. Jan ma pieniądze.
3. Jan kupuje książkę.
Widać tutaj wyraźnie, iż wynikanie logiczne nie zachodzi. Z tego, że ktoś ma pieniądze nie wynika jeszcze, że musi kupować książkę.
3. Prawa logiczne, nazywane inaczej tautologiami lub prawdami logicznymi, są to wyrażenia zdaniowe zawsze prawdziwe. Do najbardziej znanych należą:
a. Prawo tożsamości w interpretacji logicznej: p ⇔ p.
b. Prawo, zasada niesprzeczności w interpretacji logicznej: ~ ( p ∧ ~ p) czytamy: nieprawdą jest, że zarazem p i ~ p są prawdziwe.
c. Prawo wyłączonego środka w interpretacji logicznej: p ∨ ~ p czytamy: z dwu zdań sprzecznych tylko jedno: p lub ~ p jest prawdziwe. W interpretacji ontologicznej prawo to wygląda następująco: A lub ~ A. Głosi ono, że cokolwiek istnieje musi być tylko jednym: A lub ~ A. Ten oto przedmiot albo jest stołem, albo nim nie jest - innej możliwości nie ma.
Niektórzy uważali, że prawo to nie jest słuszne, gdyż np. pomiędzy stanem wody o temperaturze 00 C (stan A), a jej stanem 1000 C (stan ~ A), istnieje mnóstwo stanów pośrednich, w których woda nie ma ani 00 C, ani 1000 C.
00 C 1000 C
Nieporozumienie polega na tym, że stan wody oznaczony symbolem ~ A zawiera w sobie wszystkie stany wody poza stanem A, a nie tylko wyróżniony jeden jej stan 1000 C.
d. Prawo podwójnego przeczenia: ~ ~ p → p; p → ~ ~ p. Podwójna negacja znosi się nawzajem. Jeśli nieprawda, że nie p, to p ( i odwrotnie).
e. Prawo Dunsa Szkota: (p ∧ ~ p) → q wyraża myśl, że z dwu zdań sprzecznych wynika dowolne zdanie. Można też powiedzieć, iż z fałszu wynika dowolne zdanie, bowiem koniunkcja dwu zdań sprzecznych jest zawsze fałszywa.
2 + 2 = 5
1 = 2
f. Prawa de Morgana dla rachunku zdań stwierdzają, iż z zaprzeczonej koniunkcji wynika alternatywa z zaprzeczonymi składnikami oraz z zaprzeczonej alternatywy wynika koniunkcja z zaprzeczonymi czynnikami.
~ (p ∧ q) ⇔ ( ~ p ∨ ~ q)
~ (p ∨ q) ⇔ ( ~ p ∧ ~ q)
g. Prawo zaprzeczenia implikacji mówi nam o tym, kiedy implikacja nie zachodzi, czyli kiedy jest fałszywa.
~ (p → q) ⇔ (p ∧ ~ q)
h. Modus ponendo ponens, sposób wnioskowania przez stwierdzenie stwierdzający:
[(p → q) ∧ p] → q
i. Modus tollendo tollens, sposób wnioskowania przez zaprzeczenie zaprzeczający:
[(p → q) ∧ ~ q] → ~ p
j. Prawo redukcji do absurdu wykazuje, iż jeśli z jakiegoś zdania wynika jego zaprzeczenie, to zdanie to jest fałszywe. Na jego podstawie wykazywaliśmy fałszywość wypowiedzi samoobalalnych.
(p → ~ p) → ~ p
k. Prawo transpozycji mówi nam, że z implikacji wynika nowa implikacja, która powstaje przez przestawienie poprzednika z następnikiem przy równoczesnym zaprzeczeniu obu tych członów.
(p → q) ⇔ ( ~ q → ~ p)
Szczególnie ciekawe i nieoczywiste jest wynikanie w odwrotnym kierunku, które przy zastosowaniu prawa modus tollendo tollens oraz prawa podwójnej negacji przebiega w następujący sposób:
( ~ q → ~ p) → (~ ~ p → ~ ~ q) = p → q
l. Prawo sylogizmu hipotetycznego, nazywane także prawem przechodniości.
[(p → q) ∧ (q → r)] → (p → r)
4. Wynikanie logiczne należy odróżnić od wnioskowania. Wnioskowanie bowiem jest procesem subiektywnym, może się opierać bądź to na schematach logicznych, czyli niezawodnych, bądź to na schematach nie niezawodnych, czyli takich, które mogą, chociaż nie muszą zawieść.
Wynikanie logiczne natomiast jest procesem obiektywnym. Z określonych zdań wynika logicznie inne zdanie niezależnie od tego, co ktoś o tym myśli.
Definicja: „Ze zdań Z1, Z2, ..., Zn wynika logicznie zdanie Z wtedy i tylko wtedy, gdy zdania Z1, Z2, ..., Zn podpadają jako przesłanki, zaś zdanie Z jako wniosek pod jakiś schemat logiczny” .
Rozdz. II. 1. Metoda zerojedynkowa służy do sprawdzania wyrażeń czy są tautologiami. Sprawdzamy np. prawo sprzeczności:
~ (p ∧ ~ p)
(I) 1 1 0 0 1
1 0 0 1 0
Sprawdzanie rozpoczynamy od wypisania pod `p' dwóch możliwych wartości logicznych tego zdania, tj. prawdy (1) i fałszu (0). Zgodnie z funktorem negacji pod `~p' piszemy odwrotne wartości: 0 i 1. Następnie sprawdzamy koniunkcję, która łączy kolumny spod `p' i `~ p'. Ponieważ w obydwu wypadkach nie zachodzi, piszemy pod nią dwa zera. Ta koniunkcja, jako główny funktor wyrażenia w nawiasie, jest zaprzeczona przez negację znajdującą się na początku wyrażenia. Stąd pod tą negacją piszemy dwie jedynki. Wynika z tego, że sprawdzane wyrażenie niezależnie od tego jaką wartość przyjmie `p' jest zawsze prawdziwe, czyli jest tautologią.
Podobnie wygląda sprawdzanie wyrażeń złożonych z dwóch zmiennych zdaniowych. Oto przykład:
~ ( p → q ) ⇔ p ∧ ~ q
0 1 1 1 1 1 0 0 1
(II) 0 0 1 1 1 0 0 0 1
1 1 0 0 1 1 1 1 0
0 0 1 0 1 0 0 1 0
Aby nie wypisywać zbyt wielu jedynek i zer wymyślono skróconą metodę zerojedynkową, z której i my będziemy korzystać. Posługując się tą metodą możemy rozpoczynać sprawdzanie bądź to od przesłanek, bądź to od wniosku.
Rozpoczynając sprawdzanie od przesłanek zakładamy, że ich koniunkcja jest prawdziwa. Oto przykład sprawdzania metodą skróconą, gdzie rozpoczynamy od przesłanek.
~ ( p → q ) ⇔ p ∧ ~ q
(III) 1 1 0 0 1 1 1 1 0
Rozpoczynając natomiast od wniosku zakładamy, że jest on fałszywy. Oto przykład sprawdzania, w którym wychodzimy od wniosku.
~ ( p → q ) ⇔ p ∧ ~ q
(IV) 0 0 1 1 1 0 0 0 1
2. Metoda założeniowa służy do wykazywania niezawodności poszczególnych schematów rachunku zdań poprzez ich dowodzenie. Jest to tzw. dedukcja naturalna. Aby jednak udowodnić jakąś tezę, potrzebne są do tego odpowiednie reguły ustalające sposób naszego postępowania. Do reguł pierwotnych, czyli uznawanych na mocy intuicji, należą następujące:
1. Reguła odrywania: „RO” p → q
p
q
Reguła ta stwierdza, że jeżeli podczas dowodzenia posiadamy jakieś wyrażenie o formie zdania warunkowego i jego poprzednik, to do dowodu możemy dołączyć także i następnik tego wyrażenia.
2. Reguła dołączania koniunkcji: „DK” p
q
p ∧ q
„DK” stwierdza, iż dwa prawdziwe wyrażenia zdaniowe możemy połączyć koniunkcją.
3. Reguła opuszczania koniunkcji: „OK” p ∧ q
p
q
„OK” stwierdza, że z koniunkcji wynika każdy z jej czynników.
4. Reguła dołączania alternatywy: „DA” p
p ∨ q
„DA” stwierdza, że z dowolnego prawdziwego zdania wynika alternatywa, której pierwszym lub drugim składnikiem jest to właśnie zdanie.
5. Reguła opuszczania alternatywy: „OA” p ∨ q
~ p / ~ q
q / p
Reguła „OA”, nazywana inaczej modus tollendo ponens (sposób wnioskowania przez zaprzeczenie stwierdzający) mówi, iż z alternatywy oraz z negacji jednego z jej składników wynika drugi jej składnik.
6. Reguła dołączania równoważności: „DE” p → q
q → p
p ⇔ q
„DE” stwierdza, że z implikacji zwykłej oraz z implikacji względem niej odwrotnej wynika równoważność.
7. Reguła opuszczania równoważności: „OE” p ⇔ q
p → q
q → p
„OE” stwierdza, że z równoważności wynika implikacja jej odpowiadająca oraz implikacja względem niej odwrotna.
Rozróżniamy dwa rodzaje dowodów: dowód wprost oraz dowód nie wprost. Dowód wprost jakiegoś schematu formalnego polega na tym, że rozpoczynamy od wypisania założeń dowodu, czyli jego przesłanek. Do przesłanek zaliczamy także poprzednik wniosku, lecz tylko wtedy, gdy wniosek jest implikacją bądź równoważnością. Następnie z wypisanych założeń wyprowadzamy, stosując odpowiednie reguły, kolejne wiersze. Dowód wprost jest zakończony wtedy, gdy otrzymamy wyrażenie równokształtne z wnioskiem bądź z jego następnikiem. Oto przykład dowodzenia wprost niezawodności schematu sylogizmu hipotetycznego.
1. p → q Schemat sylogizmu hipotetycznego
2. q → r zał. dow. p → q
3. p q → r
4. q RO: 1, 3 p → r
5. r RO: 2, 4
Po wypisaniu założeń (1), (2) i poprzednika wniosku (3) oraz po zastosowaniu „RO” do dwu kroków dowodowych (4) i (5) otrzymaliśmy następnik wniosku „r”. W ten sposób dowód został zakończony.
Dowód nie wprost tego samego schematu wygląda w ten sposób, że najpierw wypisujemy wszystkie założenia, podobnie jak w dowodzie wprost, oraz dodajemy do nich jako nowe założenie - zaprzeczenie wniosku lub jego następnika (jeśli wniosek jest implikacją), czyli to wyrażenie, którego dowodzimy. Dowód uznajemy za zakończony wtedy, gdy dojdziemy do sprzeczności pomiędzy dowolnymi wierszami dowodu. W ten sposób wykazujemy, że wniosek wynika z przesłanek, ponieważ gdy go zaprzeczymy otrzymujemy sprzeczność.
1. p → q
2. q → r
3. p
4. ~ r zał. dow. nie wprost
5. q RO: 1, 3
6. r RO: 2, 5
7. Sprzeczność: 4, 6
Okazuje się, że wniosek „r” wynika z przyjętych przesłanek, gdyż zaprzeczony i dołączony do dowodu prowadzi do sprzeczności.
3. Posługując się metodą aksjomatyczną rozpoczynamy dowodzenie od przyjęcia odpowiednich aksjomatów, czyli twierdzeń pierwotnych. Nowe twierdzenia wyprowadzamy z aksjomatów przy użyciu tylko dwóch reguł: reguły odrywania i reguły podstawiania. Chcąc udowodnić prawo tożsamości „p → p” postępujemy w ten sposób, iż najpierw przyjmujemy odpowiednie aksjomaty, a następnie w oparciu o dwie wspomniane reguły tak je przekształcamy, aby otrzymać prawo tożsamości.
1. p → (q → p) aksjomat pierwszy
2. (p → (q → r)) → ((p → q) → (p → r)) aksjomat drugi
Z aksjomatu drugiego przez podstawienie za `r'/'p' otrzymujemy:
3. (p → (q → p)) → ((p → q) → (p → p))
4. (p → q) → (p → p) RO: 1, 3
Z (4) przez podstawienie `q'/ `q → p' otrzymujemy:
5. (p → (q → p)) → (p → p)
6. p → p RO: 1, 5
Dowód został zakończony, ponieważ otrzymaliśmy poszukiwaną tezę `p → p'.
Rozdz. III. Na terenie rachunku zbiorów i relacji wyrażenie: „x ∈ B” czytamy: „x należy do zbioru B” lub „x jest elementem zbioru B”. Natomiast symbol `∉` czytamy: „nie należy”, „nie jest elementem”.
1. Podstawowe definicje. Wyrażenie `A(x)' czytamy: „x ma własność (cechę) A”. Istnieją dwa prawa de Morgana dla rachunku kwantyfikatorów. Pierwszym z nich jest prawo negowania kwantyfikatora ogólnego:
a. ~ ∏x A(x) ⇔ Σx ~ A(x)
Drugie prawo, czyli prawo negowania kwantyfikatora szczegółowego, jest odwrotnością poprzedniego.
b. ~ Σx A(x) ⇔ ∏x ~ A(x)
Prawo to stwierdza, iż jeśli nie istnieje taki przedmiot `x', który posiadałby cechę `A', to wynika z tego, że każdy przedmiot tej cechy nie posiada, inaczej żaden przedmiot tej cechy nie posiada. Do przeprowadzania dowodów tez rachunku zbiorów potrzebne nam będą następujące definicje:
c. Identyczność dwu zbiorów: A = B ⇔ ∏x (x ∈ A ⇔ x ∈ B)
A B
+
Rysunek pokazuje, że nie ma takich `x' (poziome kreski), które należałyby do `A' i równocześnie nie należały do `B' i odwrotnie: wszystkie `x', które należą do `B' tym samym należą do `A'. Zbiory zatem `A' i `B' są identyczne, gdyż ich nazwy denotują ten sam zbiór desygnatów (krzyżyk).
d. Zbiór pusty: A = ∅ ⇔ ~ ∑x (x ∈ A)
Zbiór `A' jest zbiorem pustym wtedy i tylko wtedy, gdy nie istnieją takie przedmioty `x', które do niego należą.
e. Zbiór uniwersalny: A = V ⇔ ∏x (x ∈ A)
Zbiór `A' jest zbiorem uniwersalnym, gdyż należą do niego wszystkie przedmioty. Natomiast sam zbiór uniwersalny jest zbiorem tych przedmiotów, które są identyczne ze sobą: V = (x: x = x).
f. Suma zbiorów (symbol `∪`): x ∈ A ∪ B ⇔ ( x ∈ A ∨ x ∈ B)
A B
+ + +
Przedmiot `x' należy do sumy zbiorów, gdy należy do zbioru `A' lub do iloczynu zbiorów `A, B' lub do zbioru `B'. Na rysunku miejsca te zostały zaznaczone krzyżykami.
g. Iloczyn zbiorów (symbol `∩`): x ∈ A ∩ B ⇔ (x ∈ A ∧ x ∈ B)
A B
+
Iloczynem zbiorów `A' i `B' jest zbiór tylko tych przedmiotów `x', które należą równocześnie do zbioru `A' i do zbioru `B'.
h. Różnica zbiorów (symbol `−`): x ∈ A − B ⇔ (x ∈ A ∧ x ∉ B)
A B
+ +
+ +
Różnicę zbiorów `A − B' tworzą te przedmioty zbioru `A', które nie należą do zbioru `B'.
i. Dopełnienie zbioru `A' (symbol `~ A'): x ∈ ~ A ⇔ x ∉ A
A +
~ A
Dopełnieniem zbioru `A', jak to widać na rysunku, są te przedmioty, które należą do `~ A' (krzyżyk), czyli które nie należą do zbioru `A' (kreski). Dopełnieniem zakresu nazwy koń są te przedmioty, które należą do zakresu nazwy nie-koń, czyli które nie należą do zakresu nazwy koń.
j. Zawieranie się zbiorów (symbol `⊂`): A ⊂ B ⇔ (x ∈ A → x ∈ B)
A B
+ +
+ +
Zbiór `A' zawiera się w zbiorze `B' wtedy, gdy wszystkie przedmioty należące do zbioru `A', należą też do zbioru `B'. Nie ma zatem takich przedmiotów `A' (kreski), które nie byłyby zarazem `B' (krzyżyki). Mówi się także o właściwym zawieraniu się zbioru `A' w zbiorze `B'. Ma to miejsce wtedy, gdy zbiór `A' zawiera się w zbiorze `B' i zarazem zbiór 'A' jest różny od zbioru `B', tzn. nie mogą się wzajemnie pokrywać.
2. Dowody tez rachunku zbiorów nie różnią się niczym szczególnym od dowodów założeniowych przeprowadzanych w ramach rachunku zdań. Opierają się na regułach pierwotnych rachunku zdań, na znanych prawach dotyczących kwantyfikatorów oraz na przytoczonych definicjach podstawowych relacji zachodzących pomiędzy zbiorami.
Teza do udowodnienia: A ⊂ B ∧ C ⊂ D → A ∪ C ⊂ B ∪ D
1. A ⊂ B ∧ C ⊂ D założenie dowodu
2. ~ ( A ∪ C ⊂ B ∪ D) zał. dow. nie wprost
3. A ⊂ B OK: 1
4. C ⊂ D OK: 1
5. x ∈ A → x ∈ B def. `⊂`: 3
6. x ∈ C → x ∈ D def. `⊂`: 4
7. ~ [(x ∈ A ∨ x ∈ C) → (x ∈ B ∨ x ∈ D)] def. `∪` oraz `⊂`: 2
8. (x ∈ A ∨ x ∈ C) ∧ ~ (x ∈ B ∨ x ∈ D) prawo negowania `→`: 7
9. x ∈ A ∨ x ∈ C OK: 8
10. ~ (x ∈ B ∨ x ∈ D) OK: 8
11. x ∉ B ∧ x ∉ D prawo de Morgana: 10
12. x ∉ B OK: 11
13. x ∉ D OK: 11
14. x ∉ A modus tollendo tollens: 5, 12
15. x ∉ C modus tollendo tollens: 6, 13
16. x ∈ C OA: 9, 14
17. Sprzeczność: 15, 16.
Dowód nie wprost został zakończony, gdyż otrzymaliśmy sprzeczność, która oznacza, że dowodzona teza jest prawem logicznym. Podczas ćwiczeń dowodzić będziemy w podobny sposób następujące tezy:
1. (A ⊂ B ∧ A = V) → B = V
2. (A ⊂ B ∧ A ≠ ∅) → B ≠ ∅
3. (A ⊂ B ∧ C ⊂ D) → A ∩ C ⊂ B ∩ D
4. (A ⊂ B ∧ C ⊂ D) → A ∪ C ⊂ B ∪ D
5. A ⊂ B → A ∩ C ⊂ B ∩ C
6. A ⊂ B → A ∪ C ⊂ B ∪ C
7. A ⊂ B ⇔ ~ B ⊂ ~ A
8. A ∩ B ⊂ C ⇔ A − C ⊂ ~ B
9. A ⊂ B → A − C ⊂ B − C
3. Pojęcie relacji oraz jej rodzaje. Wyrażenie: `xRy' - czytamy: „x znajduje się w relacji R do y”. Za zmienne `x, y' wstawiamy nazwy przedmiotów, natomiast za zmienne `R, S, T' nazwy relacji. Każda relacja składa się z trzech podstawowych elementów: przeciwdziedziny, dziedziny oraz pola relacji. Dziedzinę relacji nazywamy lewą stroną relacji lub lewą dziedziną; przeciwdziedzinę relacji - prawą stroną relacji lub prawą dziedziną relacji.
Dziedziną relacji R (symbolicznie Dl(R)) nazywamy zbiór tych przedmiotów, które pozostają w relacji R do zbioru innych przedmiotów. Jakiś przedmiot x należy do lewej dziedziny relacji wtedy, gdy istnieje przedmiot y, do którego x znajduje się w relacji R.
x ∈ Dl(R) ⇔ ∑y (xRy)
Przeciwdziedziną relacji R (symbolicznie Dp(R)) nazywamy zbiór tych przedmiotów, do których jakieś inne przedmioty pozostają w relacji R. Przedmiot `y' należy do przeciwdziedziny relacji (R) wtedy i tylko wtedy, gdy istnieje takie `x', które znajduje się w relacji (R) do `y'.
y ∈ Dp(R) ⇔ ∑x (xRy)
Polem relacji R, symbolicznie C(R) - (łac. campus = pole), nazywamy sumę dziedziny i przeciwdziedziny relacji R.
C(R) = Dl(R) ∨ Dp(R)
Rodzaje relacji: a. Relacja odwrotna do relacji R, inaczej konwers relacji (symbol `*`) zachodzi pomiędzy tymi samymi przedmiotami co relacja `R', lecz w odwrotnym kierunku. Relacja `bycia żoną' jest odwrotną do relacji `bycia mężem'.
y*x ⇔ xRy
b. Relacja symetryczna (symbol `sym') ma miejsce wtedy, gdy jeśli zachodzi pomiędzy przedmiotami w jednym kierunku, zachodzi także pomiędzy nimi w kierunku odwrotnym. Przykładami takich relacji jest m.in. pokrewieństwo, rodzeństwo, podobieństwo, równość itd.
R ∈ sym ⇔ ∏x, y(xRy → yRx)
Relacja `R' należy do symetrycznych wtedy, gdy dla każdego `x, y', jeśli xRy, to yRx.
c. Relacja przeciwsymetryczna, inaczej asymetryczna (symbol `as') ma miejsce wtedy, gdy zachodząc pomiędzy przedmiotami w jednym kierunku, nie zachodzi pomiędzy nimi w kierunku odwrotnym. Tego typu relacjami są np.: relacja bycia ojcem czy relacja bycia matką.
R ∈ as ⇔ ∏x, y(xRy → ~ yRx)
d. Relacja przechodnia, inaczej tranzytywna (symbol `trans') występuje wtedy, gdy jeżeli zachodzi pomiędzy pierwszym i drugim przedmiotem oraz pomiędzy drugim i trzecim, to zachodzi także pomiędzy pierwszym i trzecim. Na przykład, jeżeli Jan jest starszy od Piotra i Piotr jest starszy od Andrzeja, to wynika z tego, że Jan musi być także starszy od Andrzeja.
R ∈ trans ⇔ ∏x, y, z((xRy ∧ yRz) → xRz)
e. Relacja lewostronnie jednoznaczna (symbol `1-Cls') zachodzi wtedy, gdy najwyżej jeden przedmiot pozostaje w tej relacji do innych przedmiotów. Przykładem takiej relacji jest stosunek bycia ojcem lub matką: jeden ojciec - wiele dzieci.
R ∈ 1-Cls ⇔ ∏x, y, z (xRz ∧ yRz → x = y)
Równość (x = y) wykazuje, że dziedzinę relacji tworzy tylko jeden przedmiot. Za `z' natomiast możemy sobie podstawiać nazwy różnych przedmiotów.
f. Relacja prawostronnie jednoznaczna (symbol `Cls-1') zachodzi wtedy, gdy dany przedmiot pozostaje w tej relacji najwyżej do jednego przedmiotu. Relacja bycia dzieckiem jest przykładem takiej relacji, gdyż każde dziecko ma jedynie jednego ojca i jedna matkę.
R ∈ Cls-1 ⇔ ∏x, y, z (xRy ∧ xRz → y = z)
W relacji prawostronnie jednoznacznej identyczny przedmiot tworzy przeciwdziedzinę tej relacji: `y = z'.
g. Relacja wzajemnie jednoznaczna (symbol `1-1'), nazywana inaczej jedno-jednoznaczną lub doskonałą, ma miejsce wtedy, gdy jest zarazem lewostronnie i prawostronnie jednoznaczna. Przykładem takiej relacji są małżeństwa monogamiczne: jednemu mężowi odpowiada tylko jedna żona i odwrotnie.
R ∈ 1-1 ⇔ R ∈ 1-Cls ∧ R ∈ Cls-1
h. Izomorfizm relacji zachodzi wtedy, gdy istnieje jakaś relacja R, która odwzorowuje w sposób jedno-jednoznaczny relację S na relacji T. Mamy tutaj do czynienia z trzema różnymi relacjami, które przedstawia następujący rysunek.
Prosta a s s1 s2 s3 sSs1, s1Ss2, s2Ss3 ; S = leży na lewo
R sRt, s1Rt1, s2Rt2 ; R = leży na tej samej prostej
Prosta b t3 t2 t1 t tTt1, t1Tt2, t2Tt3 ; T = leży na prawo
Izomorfizm relacji przedstawiony na rysunku możemy zapisać następująco.
S izmRT ⇔ R ∈ 1-1 ∧ Dl (R ) = C(S) ∧ Dp(R ) = C(T) ∧
∏s, s1, t, t1 (sRt ∧ s1Rt1 → (sSs1 ⇔ tTt1))
Przytoczoną definicję czytamy: Relacja `R' odwzorowuje izomorficznie relację `S' na relację `T' wtedy i tylko wtedy, gdy relacja `R' jest relacją wzajemnie jednoznaczną, której lewą dziedzinę stanowi pole relacji `S', a prawą dziedzinę pole relacji `T'. Ponadto dla każdego s, s1, t, t1 jeśli relacja `R' przyporządkowuje punktowi `s' punkt `t' oraz punktowi `s1' punkt `t1', to punkt `s' leży na lewo od punktu `s1' wtedy i tylko wtedy, gdy punkt `t' leży na prawo od punktu `t1'.
Rozdz. IV. Rachunek nazw. Istnieją cztery rodzaje zdań kategorycznych, które pozostają względem siebie w różnych relacjach. Relacje owe przedstawia model graficzny nazywany kwadratem logicznym.
Zdania ogólnotwierdzące: SaP = Każde S jest P = ∏x(x ∈ S → x ∈ P)
Zd. szczegółowotwierdzące: SiP = Niektóre S są P = ∑x(x ∈ S ∧ x ∈ P)
Zdania ogólnoprzeczące: SeP = Żadne S nie jest P = ∏x(x ∈ S → x ∉P)
Zd. szczegółowoprzeczące: SoP = Niektóre S nie są P = ∑x(x ∈ S ∧ x ∉P)
Wzajemne powiązania zachodzące pomiędzy zdaniami kategorycznymi ukazywane są przy pomocy modelu graficznego nazywanego kwadratem logicznym.
SaP przeciwne ( / ) SeP
wykluczają się, nie dopełniają się
↓ sprzeczne ( ∨ ) ↓
wykluczają się i dopełniają się
podprzeciwne ( ∨ )
SiP nie wykluczają się, dopełniają się SoP
Zdania sprzeczne (oppositio contradictoria) wyznaczają przekątne kwadratu. Tworząc cztery prawa:
SaP ⇔ ~ SoP
SeP ⇔ ~ SiP
SiP ⇔ ~ SeP
SoP ⇔ ~ SaP
Skoro zdania sprzeczne nie mogą zarazem być ani prawdziwe, ani fałszywe, stąd jeśli jedno z nich jest prawdziwe, drugie musi być fałszywe i odwrotnie.
Zdania podporządkowane (subalternatio): SaP → SiP; SeP → SoP
Ze zdań ogólnych zarówno twierdzących, jak i przeczących, wynikają zdania szczegółowe, lecz nie odwrotnie.
Zdania przeciwne (oppositio contraria): SaP → ~ SeP; SeP → ~ SaP
Zdania przeciwne nie mogą być równocześnie prawdziwe. Mogą być natomiast obydwa fałszywe.
Zdania podprzeciwne (subcontraria): ~ SiP → SoP; ~ SoP → SiP
Obydwa zdania mogą być równocześnie prawdziwe, lecz nie mogą być jednocześnie fałszywe. Słuszność praw dotyczących zdań przeciwnych, podporządkowanych i podprzeciwnych możemy także wykazać w oparciu o zdania sprzeczne.
Sprawdzamy np. zdania podprzeciwne `~ SiP → SoP'. Jeżeli `SiP' jest fałszywe, to sprzeczne z nim `SeP' musi być prawdziwe. Jeżeli `SeP' jest prawdziwe, prawdziwe musi być także podporządkowane mu zdanie `SoP', a zatem prawo jest słuszne. Od `SiP' można iść także do `SaP', a następnie do `SoP'. Ważne jest byśmy za każdym razem korzystali ze zdań sprzecznych. W ten sposób sprawdzać możemy wszystkie rodzaje zdań z wyjątkiem sprzecznych.
2. Prawa konwersji. Jeżeli w dowolnym zdaniu kategorycznym przestawimy jego podmiot z orzecznikiem, wtedy otrzymamy odwrócenie tego zdania, czyli jego konwersję (łac. converto = obrócić). Konwersja może być prosta lub ograniczona.
Konwersja prosta ma miejsce wtedy, gdy oba zdania, tj. odwracane i odwrócone nie różnią się pomiędzy sobą co do ilości - oba nadal są ogólne lub oba nadal są szczegółowe.
SeP → PeS
SiP → PiS
Konwersja ograniczona ma miejsce wtedy, gdy jedno zdanie jest ogólne a drugie szczegółowe.
SaP → PiS
3. Prawa obwersji (łac. obverto = odwrócić się) stwierdzają, że każde zdanie kategoryczne można przekształcić w zdanie mu równoważne, jeżeli zmienimy jego jakość na przeciwną i zastąpimy orzecznik `P' przez jego dopełnienie, czyli `~ P'.
SaP ⇔ Se~P
SeP ⇔ Sa~P
SiP ⇔ So~P
SoP ⇔ Si~P
4. Prawa kontrapozycji otrzymujemy w ten sposób, że ze zdania kategorycznego tworzymy jego obwersję, a następnie z tego, co otrzymamy tworzymy konwersję lub odwrotnie.
SaP ⇔ Se~P (obw.) ⇔ ~PeS (konw.) SaP ⇔ ~PeS
SaP ⇔ PiS (konw.) ⇔ Po~S (obw.) SaP ⇔ Po~S
5. Sylogizmy. Schemat sylogizmu wygląda następująco:
M a P
( I ) S a M
S a P
W zależności od tego, jakie miejsce zajmuje termin średni w przesłankach, tzn. czy jest podmiotem czy orzecznikiem, wyróżniamy cztery figury sylogistyczne:
M P P M M P P M
(1) S M (2) S M (3) M S (4) M S
S P S P S P S P
Sylogizmy sprawdzać będziemy przy pomocy diagramów Venna.
Schemat do sprawdzenia:
M i P M + P
M a S
S i P +
+
S
Oto przykład konkretnego wnioskowania w oparciu o dany schemat:
M = ludzie Niektórzy ludzie są zakonnikami
P = zakonnicy Każdy człowiek jest istotą rozumną
S = istota rozumna Niektóre istoty rozumne są zakonnikami
W ten sposób wygląda wnioskowanie przeprowadzone w oparciu o tryby sylogistyczne.
Na bazie logiki trójwartościowej tworzy J. Łukasiewicz logikę modalną, która zajmuje się pojęciem możliwości i konieczności. Oznaczając pojęcie możliwości przez `M' oraz pojęcie konieczności przez `K' podaje dla nich następujące definicje:
p Mp p Kp
0 0 0 0
1 0
1 1 1 1
Z przytoczonych tablic wynika, że zdarzenie opisywane przez zdanie `p' jest możliwe wtedy, gdy zdanie `p' jest prawdziwe lub, jeśli posiada wartość . Natomiast zdarzenie opisywane przez zdanie `p' jest konieczne tylko wówczas, gdy zdanie to jest prawdziwe.
L. Borkowski, Logika, s. 29 . Obecnie odróżnia się wynikanie logiczne od wynikania implikacyjnego. Tenże, Wprowadzenie, s. 22. Zob. też M. Tokarz, Elementy, s. 125.
1
16