Kazimierz Pawłowski
ZARYS LOGIKI
I Wstęp
1. Ogólny charakter logiki jako nauki
2. Logika formalna .
II Syntaktyczna, semantyczna i pragmatyczna charakterystyka języka
1. Język i jego funkcje
2. Syntaktyczne reguły języka. Spójność syntaktyczna
3. Wyrażenia i ich znaczenia
4. Kategorie syntaktyczne wyrażeń
III Nazwa jako kategoria syntaktyczna
1. Nazwa i znaczenie nazwy
2. Desygnat nazwy, zakres nazwy, rodzaje nazw
3. Relacje semantyczne nazw
3.1. Jednoznaczność i wieloznaczność nazw
3.2. Sposoby użycia nazw
3.3. Nazwy ostre i nieostre, wyraźne i niewyraźne
4. Stosunki między zakresami nazw
IV Ważniejsze błędy w słownym przekazywaniu myśli
1. Błąd wieloznaczności wyrażeń
2. Ekwiwokacja
3. Amfibolia
4. Błąd wynikający posługiwania nazwami o niewyraźnym znaczeniu
5. Błąd niedopowiedzenia
V Zdanie logiczne jako kategoria syntaktyczna
1. Zdanie i sąd. Wartość logiczna zdania
2. Prawda logiczna
3. Zdania analityczne i syntetyczne
4.1. Zdania proste
4.2. Zdania złożone
VI Elementy teorii definicji
1. Zagadnienie definicji. Definicje nominalne i realne
2. Definicje nominalne
3. Budowa definicji
4. Podstawowe typy definicji
5. Warunki poprawności definicji wyrazów. Błędy w definiowaniu.
6. Definicje realne
VII Podział logiczny
VIII Rachunek zdań
1. Wiadomości wstępne
2. Związki logiczne między zdaniami
2.2. Związek logicznej sprzeczności zdań.
Zasada sprzeczności i zasada wyłączonego środka
2.3. Związek logicznej równoważności zdań
2.4. Związek logicznego wynikania zdań. Okres warunkowy
2.5. Wynikanie inferencyjne
2.6. Podstawowe prawa logiki zdań wynikające ze stosunku wynikania logicznego
2.7. Prawa wynikające ze stosunku wykluczania i dopełniania się zdań alternatywnych i dysjunktywnych
3. Prawa (tautologie) rachunku zdań. Metoda zerojedynkowa
4. Aksjomatyczna postać rachunku zdań.
Wybrane prawa rachunku zdań
IX Tradycyjna logika formalna. Rachunek nazw
1. Formy wnioskowania bezpośredniego
1.1. Klasyczne zdania kategoryczne
1.2. Kwadrat logiczny. Prawa kwadratu logicznego – związki logiczne między klasycznymi zdaniami kategorycznymi.
1.3. Konwersja zdań kategorycznych
1.4. Obwersja zdań kategorycznych
2. Formy wnioskowania pośredniego. Sylogistyka
2.1. Pojęcie i podstawowe formy sylogizmu
2.2. Warunki poprawności trybów sylogistycznych
2.4. Sprawdzanie trybów za pomocą diagramów Venna
2.5. Sylogizmy niedoskonałe
X Elementy rachunku kwantyfikatorów
1. Symbolika i podstawowe schematy rachunku kwantyfikatorów
2. Podstawowe tautologie rachunku kwantyfikatorów
XI Podstawy teorii zbiorów i teorii relacji
1. Podstawowe pojęcia i symbolika rachunku zbiorów
2. Stosunki między zbiorami
3. Działania na zbiorach
4. Prawa rachunku zbiorów
5. Algebra Boole’a zbiorów – aksjomatyczny system rachunku zbiorów
6. Podział zbiorów
7. Podstawy teorii relacji.
7.1. Podstawowe pojęcia teorii relacji
7.2. Rodzaje relacji
XII Wnioskowanie i warunki jego poprawności
1. Pojęcie wnioskowania.
Uznawanie i uzasadnianie twierdzeń.
2. Zasada racji dostatecznej
3. Wnioskowanie logiczne
4. Warunki poprawności wnioskowania logicznego
5. Wnioskowanie dedukcyjne
6. Wnioskowanie uprawdopodobniające
7. Wnioskowanie redukcyjne
8. Wnioskowanie indukcyjne
8.1. Indukcyjny proces badawczy. Pojęcie wnioskowania indukcyjnego
8.2. Indukcja matematyczna
8.3. Wnioskowanie przez indukcję enumeracyjną niezupełną
8.4. Wnioskowanie przez indukcję enumeracyjną zupełną
9. Wnioskowanie przez analogię
10. Wnioskowanie statystyczne
11. Indukcja eliminacyjna. Kanony Milla.
11.1. Uwagi ogólne na temat indukcji eliminacyjnej i związku przyczynowego
11.2. Kanony Milla
12. Błędy w rozumowaniu
XIII Obserwowanie i wyjaśnianie zjawisk
1. Obserwacja
2. Hipoteza i teoria
XIV Przekonywanie jako szczególny rodzaj wnioskowania.
Rzetelne i nierzetelne sposoby argumentowania i prowadzenia sporów
Bibliografia
4. Kategorie syntaktyczne wyrażeń
Już wiemy, że wyrażeniami w logice mogą być pojedyncze nazwy, którymi są wyrazy z danego słownika, np. ze słownika języka polskiego, jak również całe zdania. Logik powie, że nazwy i zdania – to syntaktyczne kategorie wyrażeń. Oprócz tych dwóch kategorii, poznamy jeszcze inne kategorie wyrażeń, takie jak spójniki prawdziwościowe, a potem następne, jak zmienne indywiduowe, predykaty i kwantyfikatory.
III Nazwa jako kategoria syntaktyczna
1. Nazwa i znaczenie nazwy
Szczególnym przypadkiem wyrażeń są nazwy. Nazwy – to, ogólnie rzecz biorąc, wyrazy należące do słownika danego języka, które w zdaniu typu A jest B mogą pełnić funkcję podmiotu lub orzecznika. W zdaniu „Ziemia jest planetą” wyrazy „Ziemia” i „planeta” są nazwami. Już z tego przykładu widać, że nazwa może oznaczać jakiś konkretny, jednostkowy przedmiot, ale też może mieć charakter ogólny. W pierwszym przypadku mówimy o nazwie jednostkowej, w drugim – o nazwie ogólnej. W naszym zdaniu „Ziemia” – to nazwa jednostkowa, która oznacza konkretną planetę w układzie słonecznym. „Planeta” natomiast – to nazwa ogólna oznaczająca każde ciało niebieskie.
Znaczeń wyrazów uczymy się wraz z językiem, do którego te wyrazy należą. Znaczenie nazwy nazywa się pojęciem. Ustalić pojęcie jakiejś nazwy to tyle, co ustalić jej znaczenie. Np. ustalić pojęcie „zamku” (z podanego wyżej przykładu) to tyle, co ustalić znaczenie nazwy „zamek” (występującej w tym przykładzie). Inaczej mówiąc, „pojęcie” – to sposób rozumienia „nazwy”. Zwykle wyrazy „pojęcie” i „nazwa” bywają używane zamiennie. Niemniej musimy pamiętać, że pod „pojęciem” określonej nazwy rozumiemy w logice „znaczenie tej nazwy”.
Z własnego doświadczenia wiemy, że nazwy (jedno i wielowyrazowe) nie zawsze mają jasne znaczenie. Czasem trudno sprecyzować ich znaczenie. Mówimy wtedy, że są one niejasne. W logice powinniśmy unikać używania takich nazw.
2. Desygnat nazwy, zakres nazwy, rodzaje nazw
Przedmioty oznaczane przez nazwy nazywamy desygnatami tej nazwy (i zarazem desygnatami pojęcia). Mówimy, że dana nazwa oznacza jakiś konkretny przedmiot. Zamiast „oznacza” używamy czasem słowa „denotuje” w tym samym znaczeniu.
Zbiór wszystkich desygnatów danej nazwy nazywamy zakresem tej nazwy (pojęcia), np. zakresem nazwy „góra” są wszystkie góry. Zakresem nazwy (pojęcia) „miasto” są wszystkie miasta.
Czasem nazwa może być pusta, tzn. pozbawiona desygnatów, np. „szklana góra” – w rzeczywistości nie ma czegoś takiego, jak szklana góra. Nie bierzemy tu pod uwagę literatury pięknej (i świata baśni), gdzie tego typu wyrażenia moją swoje desygnaty literackie, wymyślone przez autorów.
Jak już wspomniano, nazwy bywają jednostkowe, tzn. oznaczają tylko jeden desygnat, albo ogólne – gdy oznaczają jednocześnie wiele desygnatów. Takimi jednostkowymi nazwami są imiona, państwa, rzeki i miasta. Nowy York jest tylko jeden. Jedna jest Wisła. Czasem nazwy miast powtarzają się w różnych językach, ale w takiej sytuacji nie możemy mówić o jednej nazwie, bo należą one do różnych języków. Jest np. Jelenia Góra na Dolnym Śląsku i Hirschberg pod Norymbergą. Najczęściej nazwy oznaczają wiele przedmiotów (innymi słowy: mają wiele desygnatów), czyli można powiedzieć, że mają charakter ogólny. Filozofowie nazwali je uniwersaliami. Ogólność nazwy możemy rozumieć w dwojakim znaczeniu: ekstensjonalnym (ekstensja: dosł. rozciągłość, tu: zakres) lub intensjonalnym (intensja: tu znaczenie). Ekstensją danej nazwy są wszystkie jej desygnaty, czyli wszystkie przedmioty, które ona oznacza, czyli jej zakres . Z kolei intensja nazwy wskazuje to, co jest wspólne wszystkim desygnatom tej nazwy, czyli – jak mówią filozofowie – to, co należy do ich istoty. Często wyrazy „intensja” i „pojęcie” bywają używane zamiennie. Częściej posługujemy się wyrazem „pojęcie”, choć nie zawsze jest ono jednoznaczne. W użyciu codziennym „pojęcie” może znaczyć też tyle, co „wiedza” (np. w zdaniu: „mieć o czymś jakieś pojęcie”), „pogląd” itp.
Oprócz nazw ogólnych i jednostkowych, mamy jeszcze nazwy zbiorowe i niezbiorowe. Desygnatami nazw zbiorowych są przedmioty zbiorowe, a nazw niezbiorowych – przedmioty pojedyncze (np. „klasa”, w sensie zbiór uczniów, i „uczeń” – jeden pojedynczy uczeń z tej klasy; podobnie „armia” i „żołnierz” ).
Oprócz wyżej wymienionych możemy wyróżnić jeszcze nazwy proste i złożone, przy czym kryterium podziału jest tu gramatyczna budowa tych nazw. Nazwy proste zbudowane są z jednego wyrazu, a nazwy złożone – z wielu.
Ponadto możemy podzielić nazwy na abstrakcyjne i konkretne, w zależności od tego, czy ich desygnatami są przedmioty konkretne, które możemy sobie jakoś wyobrazić, czy abstrakcyjne, takie jak cechy, relacje, stany rzeczy itp., których raczej nie jesteśmy w stanie sobie wyobrazić, chociaż można je pomyśleć.
Uściślimy jeszcze dwie wyżej użyte kategorie semantyczne, a mianowicie: „znaczy” i „oznacza”. Jeśli mówimy, że dana nazwa coś znaczy, to chcemy przez to powiedzieć, że ma ona jakieś znaczenie. Inaczej mówiąc, coś wyraża, niesie jakąś treść. Gdy zaś mówimy, że ta sama nazwa coś oznacza, to mamy na myśli to, że wskazuje ona jakiś przedmiot, czyli swój desygnat. Inaczej mówiąc nie jest ona pusta. Wyrazy „znaczy” i „oznacza” – to kategorie semantyczne. Odnoszą one daną nazwę do jej znaczenia lub desygnatu.
3. Relacje semantyczne nazw
3.1. Jednoznaczność i wieloznaczność nazw
Zajmiemy się teraz kwestią stosunków zachodzących między nazwami, ich znaczeniami i przedmiotami, które one oznaczają. Takie stosunki w logice nazywamy relacjami semantycznymi. Arystoteles rozróżnił dwa podstawowe typy relacji semantycznych: jednoznaczność i wieloznaczność. Nazwy są wtedy jednoznaczne, gdy oznaczają różne przedmioty jednostkowe w tym samym znaczeniu, np. w zdaniu „Jan, Józef i Barbara są ludźmi”. W tym zdaniu wyraz „ludzie” znaczy dokładnie to samo w odniesieniu do trzech wymienionych swoich desygnatów. Nazwy są wieloznaczne, gdy oznaczają różne przedmioty. Np. nazwa „pióro” może oznaczać pióro ptasie lub pióro do pisania. Arystoteles wyróżniał wieloznaczność przypadkową i zamierzoną. Z pierwszą mamy do czynienia, gdy dane słowo użyte jest przypadkowo w różnych znaczeniach. W drugim przypadku słowa jednakowe użyte zostały w znaczeniu analogicznym. Arystoteles mówi o dwóch rodzajach analogii: proporcji i proporcjonalności. Pierwsza występuje wtedy, gdy jedna nazwa użyta jest w odniesieniu do dwóch różnych przedmiotów, ale pozostających do siebie w określonym stosunku. W takim analogicznym znaczeniu użyty bywa wyraz „zdrowy”. Mówi się o zdrowym człowieku, ale też o zdrowym owocu. Owoc jest zdrowy, bo przyczynia się do zdrowia człowieka. Drugi typ analogii ma miejsce, gdy jedno pojęcie odnosi się do dwóch relacji. Dwa przedmioty oznacza się tą samą nazwą, ponieważ pozostają one w tym samym stosunku do innych przedmiotów. Według Arystotelesa, skrzydła tak się mają do ptaków, jak płetwy do ryb. Dlatego można je nazwać „członkami”. Innym rodzajem wieloznaczności jest metafora, inaczej – przenośnia. Najczęstszym rodzajem przenośni mamy do czynienia wtedy, gdy używamy jakiegoś wyrazu znaczeniu w innym, aniżeli to, które posiada on w języku dosłownym. Metaforyczne znaczenie danego wyrazu określa kontekst, w którym on się znajduje w zdaniu czy wyrażeniu. Np. wyraz „szczyt” posiada ustalone znaczenie dosłowne jako wierzchołek góry, ale bywa on często używany w znaczeniu metaforycznym w zwrotach typu „szczyt głupoty”, „szczyt formy sportowej”, „szczyt komunikacyjny” itd.
3.2. Sposoby użycia nazw
Nazwy mogą być użyte na różne sposoby. Te sposoby nazywane są supozycjami. W logice wyróżnia się cztery podstawowe supozycje: naturalną, przedmiotową, formalną i materialną.
Nazwa użyta jest w supozycji naturalnej, gdy wskazuje wszystkie swoje desygnaty. Np. w zdaniu „człowiek jest śmiertelny” nazwa „człowiek” oznacza każdego człowieka.
Nazwa użyta jest w supozycji przedmiotowej, gdy wskazuje tylko jeden konkretny przedmiot, tzn. jeden konkretny desygnat. Np. w zdaniu „zobaczyłem człowieka” nazwa „człowiek” odnosi się jakiegoś jednego człowieka (tego, którego wtedy ujrzałem).
Nazwa użyta jest w supozycji formalnej, gdy odnosi się do gatunku. Np. w zdaniu „człowiek jest ssakiem” wyraz „człowiek” jest nazwą gatunku, do którego należymy.
Nazwa jest użyta w supozycji materialnej, gdy odnosi się do samej siebie. Np. w zdaniu „wyraz „człowiek” jest rzeczownikiem rodzaju męskiego”. W takiej sytuacji nazwy użyte w supozycji materialnej bierze się najczęściej w cudzysłów.
3.3. Nazwy ostre i nieostre, wyraźne i niewyraźne
Nazwy bywają ostre i nieostre, mianowicie wtedy, gdy zgodnie z wszystkimi regułami znaczeniowymi, jest nam łatwo bądź trudno wskazać desygnaty tych nazw, czyli ich zakres. W praktyce logicznej powinniśmy unikać nazw nieostrych, czyli takich, których zakres trudno nam sprecyzować.
Bywa też, że trudno nam sprecyzować nie tylko zakres danej nazwy, lecz także jej znaczenie. Inaczej mówiąc, mamy kłopoty z precyzyjnym wyrażeniem treści językowej danej nazwy. Treść językowa nazwy – to zbiór cech, które przypisujemy desygnatom danej nazwy, gdy myślimy pojęcie odpowiadające tej nazwie. Treści językowe nazw, jak powiedziano, nie zawsze są wyraźne. Zdarza się, że nie wiemy, co naprawdę dana nazwa wyraża i nie potrafimy określić w sposób wyczerpujący i zarazem wystarczający cech, jakie ta nazwa przypisuje swoim przedmiotom. Mówimy w takiej sytuacji, że znaczenie tej nazwy (a tym samym pojęcie) jest niewyraźne. Skrótowo powiadamy, że dana nazwa jest niewyraźna. Nie trudno zauważyć, że nazwy wyraźne są zarazem ostre. Wynika to stąd, że mając wyraźnie określoną treść językową jakiejś nazwy, możemy łatwo wskazać jej desygnaty i określić jej zakres. Ale bywa tak, że nazwa jest wprawdzie ostra, ale nie jest wyraźna. Możemy stosunkowo łatwo wskazać jej desygnaty i podać jej cały zakres, czyli wszystkie desygnaty, a jednak nie potrafimy określić jednoznacznie jej treści językowej. Zazwyczaj tak się dzieje wtedy, gdy mamy do czynienia z tzw. nazwami intuicyjnymi. Zakresy tych nazw są ostre. Potrafimy bezbłędnie wskazać wszystkie przedmioty objęte tą nazwą, jednak nie potrafimy sprecyzować jednoznacznie jej treści. I tak na przykład z łatwością i na ogół bezbłędnie potrafimy wskazać różę, tzn. kwiat, któremu nadaje się nazwę „róża”, ale z określeniem językowej treści tej nazwy mielibyśmy nie lada problem. W życiu codziennym nam to wprawdzie nie przeszkadza, jednak w logice wypada się posługiwać nazwami wyraźnymi. Dlatego, żeby nazwy i pojęcia stały się wyraźne, należy je zdefiniować. Wcześniej trzeba zbadać desygnaty interesującego nas niewyraźnego pojęcia, by określić ich charakterystyczne cechy, które wyróżniają je od innych przedmiotów. Owe charakterystyczne cechy desygnatów czynimy treścią odpowiadającej im nazwy. W ten sposób treść nazwy (i sama nazwa) staje się wyraźna.
4. Stosunki między zakresami nazw
Między zakresami nazw mogą zachodzić rozmaite stosunki (nie uwzględniamy tu nazw pustych, tzn. nazw, których zakresy są zbiorami pustymi, czyli pozbawionymi desygnatów). Ograniczymy się do omówienia pięciu podstawowych stosunków:
równoważności,
podrzędności,
nadrzędności,
krzyżowania,
wykluczania.
Wymienione stosunki zakresów nazw w logice przyjęło się ilustrować graficznie za pomocą kół, które nazywają się kołami (albo diagramami) Eulera.
A. Stosunek równoważności
Dwie nazwy są równoważne wtedy i tylko wtedy, gdy ich zakresy całkowicie się
pokrywają, czyli są równe. Mówimy wtedy, że nazwy są zamienne. Desygnaty jednej nazwy są zarazem desygnatami drugiej. Nazwa S jest równoważna nazwie P, wtedy i tylko wtedy, gdy każdy desygnat nazwy S jest jednocześnie desygnatem nazwy P. Obrazowo przedstawimy to sobie za pomocą dwóch kół, które przedstawiają zakresy nazw S i P:
Koło S i koło P pokrywają się ze sobą. Możemy powiedzieć w tej sytuacji, że każde S jest P.
Równoważne są np. nazwy „mieszkaniec Krakowa” i „mieszkaniec grodu Kraka”, a także same nazwy „Kraków” i „gród Kraka”.
B. Stosunek podrzędności
Nazwa S jest podrzędna względem nazwy P wtedy i tylko wtedy, gdy każdy desygnat nazwy S jest zarazem desygnatem nazwy P, ale nie każdy desygnat nazwy P jest desygnatem nazwy S. Ten stosunek zobrazujemy następująco:
Koło S, które przedstawia graficznie zbiór desygnatów nazwy S, znajduje się wewnątrz koła P, które przedstawia zbiór desygnatów nazwy P. Można powiedzieć, że każde S jest P, ale nie każde P jest S.
W stosunku podrzędności pozostaje nazwa „kot” względem nazwy „ssak”. Nazwa „kot” jest nazwą podrzędną względem nazwy „ssak”. Każdy kot jest ssakiem, ale nie każdy ssak jest kotem.
C. Stosunek nadrzędności
Nazwa S jest nadrzędna względem nazwy P wtedy i tylko wtedy, gdy nie każdy desygnat nazwy S jest desygnatem nazwy P, ale każdy desygnat nazwy P jest desygnatem nazwy S. Graficznie przedstawimy to następująco:
Stosunek nadrzędności jest odwróceniem stosunku podrzędności. Tym razem koło S (przedstawiające zbiór desygnatów nazwy S) zawiera w sobie koło P (przedstawiające zbiór desygnatów nazwy P). Możemy zatem powiedzieć, posługując się już zrozumiałym skrótem, że nie każde S jest P, ale każde P jest S.
W stosunku nadrzędności pozostaje np. zakres nazwy „miasto” względem zakresu nazwy „Warszawa”. Podobnie nazwa „człowiek” jest nadrzędna względem nazwy „student”.
D. Stosunek krzyżowania
Zakres nazwy S krzyżuje się z zakresem nazwy P wtedy i tylko wtedy, gdy istnieją desygnaty nazwy S, które nie są desygnatami nazwy P, jednocześnie istnieją desygnaty nazwy S, które są zarazem desygnatami nazwy P, a do tego istnieją jeszcze desygnaty nazwy P, które nie są desygnatami nazwy S. Mówiąc językiem potocznym: część desygnatów nazw S i P pokrywa się ze sobą. Pokażemy to rysując dwa przecinające się koła:
Część wspólna tych kół oznacza wspólne desygnaty. Jako przykład nazw, których zakresy się krzyżują, możemy podać następujące nazwy: „studentka” i „blondynka”. Są studentki, które nie są blondynkami, są studentki, które są blondynkami, i są blondynki, które nie są studentkami.
E. Stosunek wykluczania
Dwie nazwy wykluczają się wtedy i tylko wtedy, gdy nie posiadają wspólnych desygnatów. Zakres nazwy S wyklucza się z zakresem nazwy P wtedy i tylko wtedy, gdy istnieją desygnaty nazwy S, które nie są desygnatami nazwy P, istnieją desygnaty nazwy P, które nie są desygnatami nazwy S, i nie istnieją desygnaty nazwy S, które są desygnatami nazwy P. Stosunek wykluczania możemy zilustrować za pomocą dwóch oddzielnych kół, które nie mają wspólnych punktów, czyli nie dotykają się:
Przykładem nazw, których zakresy się wykluczających są: kot, wróbel, pies, stół, kwadrat. Żadna z tych nazw nie ma wspólnych desygnatów.
IV Ważniejsze błędy w słownym przekazywaniu myśli
W naszych wypowiedziach, słownych i tekstowych, pojawiają się częściej lub rzadziej różnorakie uchybienia, które mogą spowodować ich błędne zrozumienie przez słuchaczy czy czytelników. Wymienimy teraz najczęściej występujące błędy.
1. Błąd wieloznaczności wyrażeń
Błąd ten polega na używaniu wieloznacznych wyrażeń bez doprecyzowania ich znaczeń, gdy kontekst nie wskazuje, w jakim znaczeniu zostały one użyte w konkretnym tekście czy wypowiedzi słownej. W efekcie prowadzi to do niewłaściwego zrozumienia wspomnianego tekstu czy słownej wypowiedzi. Warunkiem właściwego zrozumienia myśli autora jest właściwe (zgodne z intencją autora) rozumienie wyrażeń i zbudowanych z nich zdań. By uniknąć błędu wynikającego z wieloznaczności wyrażeń, czasem wystarczy zwykłe dopowiedzenie, np. w zdaniu „kupiłem piękny zamek” zamiast zwykłego „zamek” powiemy „zamek obronny” lub „zamek błyskawiczny”, i wypowiedź stanie się zrozumiała nawet, jeśli nie znamy jej kontekstu. W innych przypadkach trzeba będzie jednak zdefiniować niejasne wyrażenie lub w inny sposób je wyjaśnić (np. przez zilustrować je na jakimś przykładzie – np. trójkąt czy inną figurę geometryczną możemy po prostu narysować lub opisać, odwołując się do wyobraźni słuchaczy).
2. Ekwiwokacja
Wieloznaczność wyrażeń prowadzi czasem do innego błędu, a mianowicie do błędu ekwiwokacji, czyli nierównego użycia tego samego wyrażenia w jednej wypowiedzi. Bywa mianowicie, że w dłuższej wypowiedzi używamy dwukrotnie tego samego brzmieniowo wyrażenia, ale za każdym razem w innym znaczeniu. Taki błąd nazywa się błędem ekwiwokacji. Przyjrzyjmy się następującej wypowiedzi: „Wiele lat spędziłem w Polsce. Polubiłem polskie potrawy. Zwłaszcza polska szynka jest dobra. Polska jest naprawdę wspaniała”. Co autor miał na myśli w ostatnim zdaniu swojej wypowiedzi – Polskę czy polską szynkę. Domyślamy się, że prawdopodobnie jednak polską szynkę, ale nie jesteśmy pewni. Wystarczyło powiedzieć „Polska szynka” zamiast „Polska” i zdanie byłoby zrozumiałe zgodnie z intencją autora.
3. Amfibolia
Nie zawsze użycie wyrażeń na pozór jednoznacznych zapewnia właściwe zrozumienie wypowiedzi. Bywa, że zdanie zbudowane jest z wyrażeń o ściśle określonym znaczeniu, jednak z racji swojej budowy, a przede wszystkim z powodu niejasnych relacji między wyrazami, nie jest ono jednoznaczne co do swej treści, choć gramatycznie jest poprawne. Np. zdanie „Wszyscy ludzie nie są szczęśliwi” może być dwojako rozumiane: 1) albo: „nikt z ludzi nie jest szczęśliwy”, 2) albo: „nie wszyscy ludzie są szczęśliwi, bo są także ludzie nieszczęśliwi”. Amfibolie czasem są zamierzone. W starożytności amfiboliami na ogół były orzeczenia wyroczni. Dzięki temu zawsze się spełniały. Krezus, bardzo bogaty król lidyjski, zamierzając uderzyć na Persję, udał się do Delf z pytaniem o rezultat zamierzonej przez siebie wyprawy wojennej. Otrzymał następującą odpowiedź: „gdy zaatakujesz Persję, zniszczysz wielkie państwo”. I rzeczywiście zniszczył wielkie państwo, tyle, że swoje. W ten sposób przepowiednia wyroczni delfickiej się spełniła. Amfibolie często pojawiają się w mowie potocznej za sprawą nieprecyzyjnego posługiwania się zaimkami (osobowymi, wskazującymi i względnymi) w sytuacji, gdy nie jest jasne, do czego one się odnoszą. Podobnie amfibolie powstają wskutek umieszczenia przeczenia „nie” w niewłaściwym miejscu w zdaniu.
4. Błąd wynikający posługiwania nazwami o niewyraźnym znaczeniu
Nasze wypowiedzi bywają niezrozumiałe z powodu używania nazw, których znaczenie nie jest wyraźne. Typowym przykładem takiej nazwy jest „młodzieniec”, „młody”, „starzec”, „stary” itp. Trudno określić dokładnie, kiedy kończy się wiek młody, a zaczyna stary. Z tego tytułu mogą wystąpić nieporozumienia, zwłaszcza jeśli tego typu wyrażenia pojawią się w tekstach oficjalnych. Dlatego wyrażenia niewyraźne powinno się zastępować, zwłaszcza w tekstach i wypowiedziach oficjalnych (chyba że mają one w zamierzeniu autora być niezrozumiałe) nazwami wyraźnymi, jeśli jest to możliwe. Tam, gdzie nie jest to możliwe, należy ustalić lub uregulować znaczenie terminów za pomocą definicji projektujących.
5. Błąd niedopowiedzenia
Powodem niezrozumienia wypowiedzi, bądź błędnego jej zrozumienia, może być niedopowiedzenie. Występuje ono wtedy, gdy autor nie dokończy swojej myśli, pozostawiając słuchacza czy czytelnika z domysłami, które mogą być różne. Czasem autor liczy po prostu na inteligencję czytelnika. W tekstach literackich niedopowiedzenia są uzasadnione. Jednak w tekstach i wypowiedziach oficjalnych, np. prawniczych, niedopowiedzenia nie powinny mieć miejsca.
Powyższy wybór nie wyczerpuje zagadnienia błędów w słownym przekazywaniu myśli. Inne zostaną przedstawione w miejscu poświęconym błędom w rozumowaniu.
V Zdanie logiczne jako kategoria syntaktyczna
1. Zdanie i sąd. Wartość logiczna zdania
Ludzie za zwyczaj wyrażają swoje myśli za pomocą zdań. W mowie potocznej, codziennej posługujemy się różnymi rodzajami zdań: oznajmującymi, pytającymi, rozkazującymi itd. W logice posługujemy się wyłącznie zdaniami oznajmującymi, czyli przekazującymi jakąś informację, co do której można powiedzieć, że jest prawdziwa bądź fałszywa. Zdaniami w sensie logicznym są tylko zdania oznajmujące. Zdanie oznajmujące – to wyrażenie, które jest prawdziwe bądź fałszywe. Zdaniami w sensie logicznym są np. zdania: „Ziemia jest planetą”, „człowiek jest ssakiem”. Są nimi również zdania złożone z dwóch lub więcej liczby zdań prostych, np.: „Jeśli każdy człowiek jest rozumny, to Jan Kowalski jest rozumny”. Każdemu z tych zdań możemy przypisać prawdę lub fałsz, a to jest cechą nieodzowną zdań logicznych. Znaczenie zdania nazywamy sądem. Inaczej mówiąc, sąd – to sposób rozumienia danego zdania. Trzeba tu dodać, że inną kwestią jest samo rozumienie jakiego zdania, a inną – uznanie za prawdę tego, co ono głosi. Rozumiemy np. zdanie „dwa dodać dwa jest pięć”, ale przecież na ogół nie przyjmujemy za prawdę wyrażanej przez nie treści.
Zdanie logiczne występuje przeważnie pod postacią wyrażeń złożonych z dwóch lub większej liczby wyrazów, chociaż trafiają się zdania jednowyrazowe, np.: „dnieje”, „grzmi”. Wyrazy i wyrażenia wchodzące w skład zdania można ułożyć w grupy zależnie od ich roli składniowej w tych zdaniach. W zdaniu „każdy pies jest ssakiem” oraz „każdy kot jest ssakiem” wyrazy „pies”, „kot” i „ssak” pełnią tę samą rolę, a mianowicie rolę nazw. Mówimy, że należą one do tej samej kategorii syntaktycznej – do nazw. Wiemy już, że nazwy mogą być jedno- i wielowyrazowe. Inne wyrazy należą do innych kategorii syntaktycznych. W powyższych zdaniach wyraz „jest” nie jest nazwą. Jego rola polega na tym, że w połączeniu z nazwami „pies”, „kot” i „ssak” tworzy zdanie. Dlatego nazywa się ten wyraz (i inne wyrazy spełniające tę samą funkcję w zdaniu) funktorem zdaniotwórczym. Takim samym funktorem zdaniotwórczym jest np. wyraz „pada” w zdaniu „deszcze pada”. Zauważamy, że funktor zdaniotwórczy „jest” tworzy zdanie od dwóch nazw, dlatego nazywamy go „funktorem zdaniotwórczym od dwóch nazw”. Natomiast funktor „pada” jest funktorem zdaniotwórczym od jednej nazwy, bo tworzy zdanie od jednej nazwy. Oprócz funktorów zdaniotwórczych od nazw, są jeszcze funktory zdaniotwórcze od zdań, które tworzą zdania (złożone) nie z nazw, lecz ze zdań (prostych). W jednym z wyżej podanych zdań wystąpił już jeden z takich funktorów, a mianowicie „jeżeli..., to”. Niebawem poznamy inne funktory. W logice formalnej te i pozostały funktory zdaniotwórcze otrzymały postać symboli.
W podanych zdaniach wystąpiło jeszcze słówko „każdy”. Nie trudno zauważyć, że słówko „każdy” kwantyfikuje psy i koty, czyli w pewien sposób ustala ich liczbę. Dlatego tę kategorię, do której należy ten wyraz („każdy”) nazywamy właśnie kategorią kwantyfikatorów. Do tej samej kategorii należą także słowa takie, jak „niektóre”, „żaden” itp.. W logice formalnej również kwantyfikatory, podobnie jak funktory zdaniotwórcze, uzyskają formę symboliczną. Wyrażenia słowne zostaną zastąpione stosownymi znakami.
2. Prawda logiczna
W logice w odniesieniu do zdań najistotniejsze jest to, że wyrażą one prawdę bądź fałsz. Możemy zatem powiedzieć, że zdaniem logicznym jest wyrażenie prawdziwe bądź fałszywe. Prawda i fałsz – to dwie wartości logiczne. W klasycznej logice operujemy tymi dwiema wartościami logicznymi. Istnieją wprawdzie jeszcze logiki trój- i wielo-wartościowe. Tymi jednakowoż w naszym kursie logiki nie będziemy się zajmować.
Podstawowym problemem w logice dwuwartościowej pozostaje kwestia ustalenia, czy zdanie jest prawdziwe, tzn. czy głosi prawdę. W codziennych sytuacjach za prawdziwe zdania uznajemy te, które głoszą treści zgodne ze stanem faktycznym, który odnajdujemy w rzeczywistości. Podobnie przyjmuje się w logice klasycznej. Powiada tu się mianowicie, że zdanie jest prawdziwe wtedy i tylko wtedy, gdy informacja, którą to zdanie podaje, zgodna jest z tym, co jest w rzeczywistości. Jest to współczesna postać klasycznej definicji prawdy. Fałszywe z kolei jest zdanie wtedy i tylko wtedy, gdy w rzeczywistości nie jest tak, jak to zdanie głosi.
Najbardziej znane sformułowanie klasycznej definicji prawdy pochodzi od chrześcijańskiego filozofa z XIII wieku, św. Tomasza z Akwinu i brzmi następująco: „prawda jest to zgodność rzeczy z rozumem” („veritas est adequatio rei et intellectus”).
W klasycznej definicji prawdy (w obu sformułowaniach, współczesnej i Tomaszowej) chodzi o zgodność bytu i myśli, rzeczywistości i języka, faktu i sądu. Gdy mówimy o prawdziwości zdania, właśnie tę zgodność mamy na myśli. W klasycznym rozumieniu prawdy logicznej występują dwie strony, które muszą się ze sobą zgadzać:
1) roszczenia do prawdziwości, jakie mamy, kiedy o sądzie „p” mówimy: „p” jest prawdziwe;
2) stan faktyczny samej rzeczy – zdanie „p” jest tylko wtedy prawdziwe, gdy rzecz ma się istotnie tak, jak ujmuje to zdanie „p”.
Pierwszy punkt sugeruje, że nasze roszczenia do prawdziwości zdania „p” muszą być uzasadnione, tzn. zdanie „p” musi być odpowiednio uargumentowane. W przeciwnym wypadku to zdanie zostanie uznane za sąd dowolny, który nie może rościć sobie pretensji do prawdziwości. Możemy powiedzieć, że prawda pozostaje zawsze w językowym układzie odniesienia – zdanie „p” wypowiedziane jest w jakimś języku i w tymże języku jest uzasadniane. Tylko w języku daje się uzasadnić roszczenie do prawdziwości. Podobnie jak nie ma „bez-językowych” znaczeń samych w sobie, tak też nie ma gołej, „bez-językowej” prawdy.
Formuła zgodności – „prawda jest to zgodność rzeczy z rozumem” – sugeruje, że element językowy (sąd) i niejęzykowy (sama rzecz, o której wypowiada się sąd) można wzajemnie porównać. Pytanie: z jakiej perspektywy? Przecież nasza myśl nie może przyjąć punktu widzenia z poza sfery językowej. Myśl funkcjonuje zawsze w kontekście językowym. Człowiek myśli zawsze pojęciami, a nie – rzeczami. Myśl jako taka nie jest tożsama z rzeczą. Myślenie o rzeczy i bycie rzeczą – to, jeśli tak można powiedzieć, dwa różne stany aktywności. Jeden jest intelektualną aktywnością ludzkiego umysłu. Drugi jest bytową aktywnością istniejącej rzeczy. Należy w tym miejscu zauważyć jeszcze jedno. Otóż w tzw. rzeczywistości empirycznej procesy przebiegają od przyczyny do skutku. Procesy myślowe natomiast, tzn. te, które przebiegają w naszej głowie i w których staramy się uchwycić procesy empiryczne, biegną na ogół odwrotnie, tzn. od skutku do przyczyny (znając skutek, szukujemy jego przyczyny). Oczywiście bywa, że uczeni budują teorie naukowe, w których wybiegają w przyszłość, starając się na przykład przewidzieć racjonalnie skutki wcześniejszych zdarzeń. W ten sposób przewidują na przykład, co i jak będzie się działo w gospodarce (czy w przyrodzie) w związku z pewnymi zaistniałymi faktami gospodarczymi (czy przyrodniczymi). Jednakowoż mogą stawiać tego rodzaju prognozy na podstawie uprzedniej znajomości reguł, według których przebiegają interesujące ich procesy. Te reguły ustalono analizując owe procesy, dociekając przyczyn, które wywołały znane skutki.
Nie trudno zauważyć, że klasyczna formuła prawdy logicznej (zarówno w formie nadanej jej przez św. Tomasza, jak i w postaci uwspółcześnionej) nie zawsze jest łatwo weryfikowalna. Z tego powodu niektórzy filozofowie zaproponowali inne koncepcje prawdy. Jedną z najbardziej znanych była koherencyjna teoria prawdy, która definiuje prawdę jako zgodność myśli z samą sobą, a ściślej – zgodność z innymi, wcześniej uznanymi za prawdziwe, zdaniami. Przeciwnicy tej koncepcji zarzucają jej zwolennikom, że zgodność myśli, czyli zdań, między sobą nie może być kryterium prawdziwości tychże myśli (zdań), bo w ten sposób należałoby uznać za prawdziwe również zdania z bajek i mitów, które wszak nijak mają się do rzeczywistości. Ten zarzut zwolennicy teorii koherencyjnej odpierają, powiadając, że chodzi im wyłącznie o zgodność ze zdaniami potwierdzonymi przez doświadczenie. Innymi słowy mówiąc kryterium prawdziwości konkretnych zdań są, według tej teorii, zdania, których prawdziwość została wcześniej potwierdzona doświadczalnie. Zdania wyprowadzone z takich zdań muszą być, ich zdaniem, również prawdziwe. Skądinąd wiemy, że tego typu zdaniami występują najczęściej w teoriach dotyczących nauk przyrodniczych, a więc eksperymentalnych, w których z pewnych tez ustalonych eksperymentalnie wyprowadza się dalsze wnioski, które dalej funkcjonują już jako tezy naukowe. Z nich znowu mogą być wyprowadzone inne tezy (lub do nich sprowadzone).
Dużym wzięciem w przeszłości cieszyła się również pragmatyczna koncepcja prawdy, która utożsamiała prawdziwość jakiegoś twierdzenia z jego użytecznością. U podłoża pragmatycznej teorii prawdy leży przeświadczenie, że ludzka myśl i przekonania mają ścisły związek z praktycznym działaniem. Mają być one mianowicie, zgodnie z tym przeświadczeniem, nastawione na działanie, a ściślej – na działanie skuteczne. W związku z tym mówiono, że prawdziwe są te przeświadczenia czy przekonania, które wykorzystane w praktyce przyczyniają się do osiągnięcia sukcesu. Fałszywe natomiast – te, które w zastosowaniu nie przyczyniają się do sukcesu. Nie trudno zauważyć, że ta teoria może być (i bywa) bardzo zwodnicza, gdyż sukces na krótką metę może w dalszym etapie obrócić się w porażkę. Tak bywa nader często na polu ekonomii i gospodarki. Poza tym ta teoria, wykorzystana w polityce, może przynieść skutki katastrofalne dla wielu ludzi i całej ludzkości. Pamiętamy, że teorie faszystowskie, wcielone w życie w hitlerowskich Niemczech, na pewnym etapie przyczyniły się do sukcesu gospodarczego i politycznego Niemców, ale jednocześnie przyniosły zagładę milionom innych nacji. Podobnie rzecz miała się z teoriami komunistycznymi, które również przyniosły „sukces” polityczny i osobisty wielu ludziom (np. Leninowi i Stalinowi), ale milionom innych przyniosły śmierć i nędzę.
Dla potrzeb logiki będziemy trzymać się klasycznej definicji prawdy. Wypada w tym miejscu dodać, że w logice nie chodzi o tzw. prawdę psychologiczną, tzn. o przeświadczenia, który żywi człowiek w związku z wyrażanymi przezeń zdaniami, a wyłącznie o prawdę logiczną, czyli prawdę wyrażaną przez samą treść tych zdań, w ich w odniesieniu do rzeczywistości. Np. prawdziwość zdania „złoty jest silniejszy od dolara”, czy „Polska przeżywa okres gospodarczej pomyślności” nie zależy, przynajmniej według logików (i w ogóle – filozofów) od psychicznego nastawienia (i tzw. pobożnych życzeń) tego czy innego polityka czy ekonomisty, wygłaszającego owe zdania, lecz od stanu faktycznego polskiej gospodarki.
3. Zdania analityczne i syntetyczne
Specjalną kategorię zdań stanowią zdania analityczne. O prawdziwości tych zdań nie decyduje ich zgodność ze stanem faktycznym, lecz ich wewnętrzna budowa i znaczenie użytych w nich wyrażeń. Analitycznym jest np. zdanie: „kawaler jest to mężczyzna nieżonaty”. Prawdziwość tego zdania wynika z analizy użytych w nim wyrażeń. Na tej samej zasadzie można stwierdzić fałszywość zdania, np. „trójkąt jest figurą sześciokątną”. Takie zdanie, jak to ostatnie, jest wewnętrznie sprzeczne. Jego fałszywość stwierdzamy na mocy znaczenia użytych w nim wyrażeń, w tym przypadku „trójkąt” i „figura sześciokątna”.
Zdania analityczne nie wymagają weryfikacji w rzeczywistości doświadczalnej. O ich prawdziwości decyduje niejako ich struktura syntaktyczna i znaczenie występujących w nim wyrażeń. Wymaga takiej weryfikacji, czyli potwierdzenia, inny typ zdań, a mianowicie tzw. zdania syntetyczne. Są to zdania, które wypowiadają się o konkretnych stanach i zdarzeniach rzeczywistych. Do takich zdań należą np. zdania następujące: „Warszawa jest stolicą Polski”, „Neapol jest stolicą Czech”, „Franciszek Józef był cesarzem monarchii Austro-Węgierskiej” itd. Widzimy, że prawdziwości informacji podawanych przez zdania syntetyczne nie możemy stwierdzić w oparciu o analizę wyrażeń, z których zbudowane są te zdania. Ze znaczenia wyrazu „Warszawa” nie wynika, że jest to stolica Polski. By stwierdzić prawdziwość zdań syntetycznych, trzeba odwołać się do rzeczywistości, o której one mówią. Zauważmy jeszcze jedną cechę zdań syntetycznych, której nie posiadają zdania analityczne. Otóż zdania syntetyczne wnoszą coś nowego do naszej wiedzy, tzn. podają informacje, których nie można wysnuć z analizy znaczenia wyrażeń występujących w tych zdaniach.
4. Zdania proste i złożone
4.1. Zdania proste
Zdaniem prostym jest każde zdanie jednowyrazowe (np. „dnieje”, „grzmi”) i każde zdanie wielowyrazowe, którego elementami nie są zdania. Szczególne znaczenie mają tzw. zdania kategoryczne. Należą do nich takie zdania, jak: „Ziemia jest planetą”, „Słońce świeci”, „Słońce przyciąga Ziemię”, „Niektóre ptaki nie latają”, „Każdy metal jest pierwiastkiem chemicznym”, „Żaden koziorożec nie fruwa”. Wspólną cechą tych zdań (to jest zdań kategorycznych) jest to, że dadzą się one rozłożyć na części, z których jedna jest funktorem zdaniotwórczym od nazw, a pozostałe części są nazwami. W klasycznej logice formalnej wyróżniało się pewne postacie zdań kategorycznych, które nazywa się „klasycznymi zdaniami kategorycznymi”. Są to zdania, które dają się zapisać w następujących postaciach:
1. „Każde S jest P”,
2. „Żadne S nie jest P”,
3. „Niektóre S są P”,
4. „Niektóre S nie są P”.
Podane zdania otrzymały odpowiednio następujące nazwy:
1. Zdania ogólno-twierdzące,
2. Zdania ogólno-przeczące,
3. Zdania szczegółowo-twierdzące,
4. Zdania szczegółowo-przeczące.
Do zdań kategorycznych jeszcze powrócimy. Teraz przejdziemy do zdań złożonych.
4.2. Zdania złożone
Zdania złożone zbudowane są z dwóch lub większej ilości zdań i łączących je funktorów. Niżej przedstawimy podstawowe postaci zdań złożonych. Występujące w tych postaciach litery „p” oraz „q” zastępują zdania proste.
1) Koniunkcja – p i q (czytamy: „p i q”)
Przykładem takiego zdania koniunkcyjnego (w skrócie: koniunkcji) jest: „pada deszcz i świeci słońce”. Koniunkcja powstaje przez połączenie zdań prostych spójnikiem „i”. W logice zamiast „i” używamy często znaku „”, który czytamy jako „i”. Koniunkcję zatem zapiszemy następująco:
p q
Wartość logiczna koniunkcji wiąże się z wartością logiczną tworzących ją zdań. Koniunkcja jest prawdziwa wtedy i tylko wtedy, gdy oba zdania są prawdziwe. W pozostałych przypadkach koniunkcja jest fałszywa. Zwykle przedstawia to się w postaci następującej:
p q p q
1 1 1
1 0 0
0 1 0
0 0 0
Cyfry 1 i 0 oznaczają tu odpowiednio: 1 - zdanie prawdziwe, 0 – zdanie fałszywe. Zastosowany tu system oznaczania zdań za pomocą cyfr 1 i 0 nazywa się metodą zerojedynkową. 1 zawsze będzie oznaczało prawdę, a 0 – fałsz.
2) Alternatywa – p lub q (czytamy: „p lub q”)
Przykładem zdania alternatywnego jest zdanie: „pojadę autobusem lub pójdę pieszo”.
Alternatywa powstaje przez połączenie zdań spójnikiem „lub”. Oznacza się go symbolem „” (czytamy „lub”). Alternatywę zapisuje się następująco:
p q
Alternatywa jest prawdziwa, gdy co najmniej jedno z tworzących ją zdań, p lub q, jest prawdziwe:
p q p q
1 1 1
1 0 1
0 1 1
0 0 0
3) Implikacja – jeżeli p to q
Implikacja, czyli wynikanie, powstaje przez połączenie dwóch zdań prostych za pomocą spójnika „jeżeli..., to”. Spójnik implikacji oznaczamy w logice symbolem „®”. Implikację przedstawia się następująco:
p ® q
Przykładem implikacji jest zdanie: „jeżeli obniżymy płace, to spadnie konsumpcja”, ale również zdanie: „jeżeli Kraków jest stolicą Polski, to Franciszek Józef jest cesarzem”. Zauważmy, że człony implikacji nie muszą tworzyć ze sobą związku przyczynowego, choć mogą. W logice interesuje nas wyłącznie formalne połączenie zdań w implikację, a nie związek stanów faktycznych (o których mowa jest w tych zdaniach). W naszych przykładowych zdaniach spadek konsumpcji bywa rzeczywiście efektem obniżki płac, ale to, że Franciszek Józef był cesarzem, nie miało żadnego związku z tym, czy Kraków jest czy nie jest stolicą Polski. Implikacja jest fałszywa wtedy i tylko wtedy, gdy pierwsze zdanie jest prawdziwe, a drugie fałszywe. Obrazuje to się następująco:
p q p ® q
1 1 1
1 0 0
0 1 1
0 0 1
4) Równoważność – p wtedy i tylko wtedy gdy q
Równoważność powstaje, gdy połączy się zdania proste spójnikiem „wtedy i tylko wtedy, gdy”. W logice zastępuje go symbol „” (czytany „wtedy i tylko wtedy, gdy). Równoważność zapisuje się następująco:
p q
Przykładem równoważność jest zdanie: „Jutro jest niedziela wtedy i tylko wtedy, gdy dziś jest sobota”. Równoważność wyraża warunek konieczny i wystarczający. Równoważność jest prawdziwa, gdy oba zdania mają tę samą wartość logiczną, czyli wtedy, gdy oba są prawdziwe lub oba są fałszywe:
p q p q
1 1 1
1 0 0
0 1 0
0 0 1
5) Dysjunkcja – p albo q (w sensie: jedno z dwojga, p albo q)
Spójnik dysjunkcji „albo” oznaczamy symbolem „ ”. Zdanie dysjunktywne zapiszemy następująco:
p q
Przykładem dysjunkcji jest zdanie: „Jedno z dwojga albo Kowalski jest kawalerem albo Kowalski jest żonaty”. Dysjunkcja jest prawdziwa tylko wtedy, gdy przynajmniej jeden z jej członów (zdań prostych) jest fałszywy:
p q p q
1 1 0
1 0 1
0 1 1
0 0 1
Zdanie dysjunktywne jest prawdziwe zatem również wtedy, gdy oba zdania, które go tworzą są fałszywe.
Z przedstawionych wyżej zdań złożonych koniunkcyjnych, alternatywnych, implikacyjnych, równoważnościowych i dysjunktywnych można tworzyć zdania jeszcze bardziej od nich złożone.
VI Elementy teorii definicji
1. Zagadnienie definicji. Definicje nominalne i realne
Wyraz „definicja” bywa używany w co najmniej dwóch różnych kontekstach znaczeniowych. Można mianowicie mówić o definicjach wyrazów (np. o definicji wyrazu „administracja”, „ekonomia”, „filozofia”, „logika” itd.), albo o definicjach przedmiotów realnych. W tych różnych kontekstach termin „definicja” ma różne znaczenie. W przypadku definiowania wyrazów chcemy ustalić ich znaczenie, zwykle w oparciu o słownik. Natomiast w przypadku definiowania przedmiotów realnych chcemy uchwycić ich charakterystyczne cechy, które jednoznacznie je określają, czyli, jak dawniej mówiono, ich istotę. W logice przyjęło się definicje wyrazów nazywać definicjami nominalnymi, a definicje przedmiotów definicjami realnymi. Mamy zatem dwa podstawowe rodzaje definicji: definicje nominalne i definicje realne. Często jednak definicje nominalne są jednocześnie definicjami realnymi. Wyjaśniając pojęcie, tzn. znaczenie danego wyrazu, charakteryzują zarazem jednoznacznie sam przedmiot oznaczany przez ten wyraz.
2. Definicje nominalne
Definicje nominalne podają znaczenie danego wyrazu. Najczęściej posługujemy się nimi wtedy, gdy chcemy podać komuś znaczenie jakiego niezrozumiałego przezeń wyrazu, lub po raz pierwszy przez nas wprowadzonego. Taką definicją jest np. zdanie: „filozofia” – to tyle, co „miłość mądrości”. To samo wyrazimy, powiadając: pojęcie „filozofia” znaczy tyle, co „miłość mądrości”. Podobnie: wyraz „milimetr” – „jedna tysięczna część metra”. To samo możemy wypowiedzieć następująco: „milimetr” jest to „jedna tysięczna część metra”; albo jeszcze inaczej: „milimetr” to tyle, co „jedna tysięczna część metra”. Wzięcie w cudzysłów wyrażeń „filozofia”, „miłość mądrości”, „milimetr” i „jedna tysięczna część metra” sygnalizuje, że mamy na myśli wyrazy a nie przedmioty oznaczane przez te wyrazy, czyli wprowadza nas w świat definicji nominalnych. Użyliśmy tu wyrazów w supozycji materialnej. Mówimy o takich definicjach, że są one zapisane w stylizacji słownikowej. Te same definicje bez cudzysłowów moglibyśmy uznać jednak za definicje przedmiotowe, czyli za definicje przedmiotów realnych. W naszym przykładzie – milimetr (realny) to jedna tysięczna metra (realnego). Wyrażenia, zarówno w członie definiowanym, jak i w członie definiującym, użyte są tu w supozycji naturalnej (tzn. wskazują na określony przedmiot). O takiej definicji powiadamy, że jest zapisana w stylizacji przedmiotowej (bo oba człony definicji oznaczają jakiś konkretny przedmiot). Definicje zapisane w stylizacji przedmiotowej mówią o rzeczywistych przedmiotach symbolizowanych przez użyte wyrazy, a nie o samych wyrazach. Inaczej mówiąc, nie wyłuszczają one znaczenia jakiegoś wyrazu, lecz charakteryzują sam przedmiot oznaczany przez ten wyraz.
3. Budowa definicji
Przyjrzyjmy się teraz samej budowie zdania, które jest definicją. Nie trudno zauważyć, że definicja składa się z dwóch zasadniczych członów, definiowanego (łac. definiendum) i definiującego (łac. definiens). Oba człony połączone są spójnikiem zwanym definicyjnym, którym może być zwrot „jest to”, „to, tyle co”, „znaczy” itp. W podanych wyżej przykładach definicji milimetra, Członem definiowanym jest wyrażenie „milimetr”, a członem definiującym „jedna tysięczna część metra”. Spójnikami definiującymi w tych naszych przykładowych definicjach są wyrażenia „jest to”, „znaczy tyle, co” oraz to tyle, co”.
4. Podstawowe typy definicji
4.1. Definicje wyraźne i kontekstowe
W naszych definicjach w członie definiowanym występuje tylko wyraz definiowany (np. „milimetr”). Taką definicję, której człon definiowany zbudowany jest z jednego wyrazu, nazywamy definicją wyraźną (bo ma wyraźnie określony człon definiowany). Gdy w członie definiowanym mamy, oprócz wyrazu definiowanego, jeszcze inne wyrazy, to tak zbudowaną definicję nazywamy definicją kontekstową. Definicją kontekstową jest np. zdanie: „logarytm dziesiętny liczby a jest to liczba b, do której podniesiona liczba dziesięć daje liczbę a”.
4.2. Definicje sprawozdawcze i projektujące
Duża grupa wyrazów, którymi posługujemy się zarówno w mowie potocznej, jak i w nauce, posiada utrwalone znaczenie zwyczajowe. Nikt nie ustalał w sposób arbitralny znaczenia tych wyrazów (np. pies, kot, człowiek itd.). Są one elementem słownika języka, którym mówimy. Ich znaczenie i sposób, a jaki nimi się posługujemy w praktyce językowej, zostały utrwalone na zasadzie zwyczaju. Bardzo często używamy takich wyrazów także w praktyce definiowania wyrazów (i wyrażeń). Definicje, które zbudowane są z wyrazów o znaczeniu zwyczajowym (znaczeniu ustalonym zwyczajowo), nazywamy definicjami sprawozdawczymi. Korzystamy z takich definicji najczęściej wtedy, gdy chcemy komuś wyjaśnić znaczenie jakiegoś terminu, którego ten jeszcze nie rozumie. Zazwyczaj uciekamy się wtedy do analizy słownikowej danego wyrazu (czyli zaglądamy do słownika i podajemy równoważnik słowny tego wyrazu) lub etymologicznej (tzn. podajemy jego etymologiczne znaczenie, analizując budowę wyrazu). Bywa też, że stosujemy obie metody jednocześnie. Chcąc np. podać znacznie wyrazu „filozofia”, podajemy jego etymologiczne znaczenie a zarazem słownikowe, korzystając (w tym konkretnym przypadku) ze słownika greckiego. Z tego słownika dowiadujemy się, że nasz wyraz „filozofia” zbudowany jest dwóch greckich słów, „filija” i „sofija”, z których jeden znaczy tyle, co „miłość”, a drugi znaczy „mądrość”. Razem otrzymujemy „miłość mądrości”. Kiedy indziej wyjaśnimy etymologicznie znaczenie wyrazu „samochód” – jako coś, co „samo chodzi”. Istotne w tych definicjach jest to, że posługujemy się w nich wyrazami w znaczeniu takim, jakie one już mają w utrwalonej zwyczajowo praktyce językowej. Nie podajemy w tych definicjach nowych znaczeń, lecz sięgamy do znaczeń już utrwalonych w danym języku. Oprócz metody słownikowej i etymologicznej, do wyjaśnienia znaczenia jakiegoś wyrazu możemy skorzystać jeszcze z innych metod, np. z metody filologicznej, tzn. sięgamy do literatury, by ustalić, w jakim znaczeniu używają tego konkretnego terminu pisarze i w jakich kontekstach. Do tej ostatniej metody uciekamy się np. wtedy, gdy chcemy poznać czy uściślić znaczenie wieloznacznych wyrazów łacińskich i greckich, które przez różnych antycznych autorów i w różnych kontekstach bywały używane w różnych znaczeniach. Zauważmy jeszcze, że istotną czynnością przy definiowaniu za pomocą definicji sprawozdawczych jest analizowanie (słownikowe, etymologiczne, filologiczne) znaczenia definiowanych wyrazów lub elementów, z których one są zbudowane. Dlatego takie definicje nazywamy także definicjami analitycznymi. Termin „definicje sprawozdawcze” wziął się stąd, że te definicje niejako zdają sprawozdanie ze znaczenia określonych wyrazów czy wyrażeń. Nie ustanawiają one nowych znaczeń, a jedynie podają znaczenie utrwalone zwyczajowo. Definicje sprawozdawcze mogą być podane zarówno w stylizacji słownikowej, jak i przedmiotowej. W pierwszym przypadku ukazują znaczenie wyrazu, a w drugim definiują przedmiot.
Definicje projektujące – to definicje, które projektują, czyli ustalają, znaczenie danego wyrazu czy wyrażenia, np. na użytek jakiejś dyscypliny naukowej, ewentualnie jakiejś teorii naukowej czy tylko jakiegoś tekstu. Za pomocą tych definicji możemy arbitralnie ustalić znaczenie jakiegoś nowego wyrazu, który wprowadzamy do nauki, albo uregulować znaczenie wyrazu znanego i używanego w praktyce codziennej, ale w innym znaczeniu. W ten sposób znalazło się w nauce wiele nowych terminów, np. „pierwiastek”, „kwas”, „zasada”, „sól” itd. W zależności od tego, czy nasze definicje projektujące ustanawiają jakieś nowe pojęcia, czy tylko regulują znaczenie starych wyrazów, mówimy o definicjach ustanawiających (domyślnie: ustanawiających znaczenie nowych terminów) i regulujących (domyślnie: regulujących znaczenie starych terminów). W ten sposób np. wprowadzono do nauki wyraz „metr”, ustanawiając, że „długość równą jednej dziesięciomilionowej części ćwiartki południka ziemskiego” będzie się odtąd nazywać „metrem”. Tak właśnie brzmi definicja (projektująca) jednego metra. Podobnie „zaprojektowano” wiele innych terminów naukowych, nowych i dotąd nieznanych. Czasem posługiwano się znanymi słowami, ale nadawano im zupełnie nowe znaczenie. W chemii np. posługujemy się znanym wyrazem „sól”, który zwykle odnosimy do soli kuchennej. W chemii tym terminem określamy związki otrzymane z kwasów. Nie trudno zauważyć, że definicje projektujące wprowadzają pewne konwencje terminologiczne. Mają one kolosalne znaczenie. Dzięki nim możemy uściślać i precyzować znaczenie terminów wieloznacznych, niewyraźnych czy nieostrych, co sprawi, że nasza wypowiedź stanie się jasna. Definicje projektujące nazywane są także definicjami syntetycznymi (bo zawieramy w nich niejako syntetycznie całą naszą wiedzę na temat określonego pojęcia). W przeciwieństwie do definicji analitycznych, definicje syntetyczne dodają coś nowego do skarbca ludzkiej wiedzy. Definicje projektujące mogą być podane zarówno w stylizacji językowej, jak i przedmiotowej. W pierwszym przypadku podają one definicje wyrazów. W drugim – definicje przedmiotów.
5. Warunki poprawności definicji wyrazów. Błędy w definiowaniu.
Najczęściej definiujemy określone wyrazy po to, by były one właściwie rozumiane. Wynika stąd pierwszy postulat, który wymaga, aby człon definiujący, za pomocą którego nadajemy znaczenie definiowanemu wyrazowi, sam był zrozumiały przez tych, do których kierujemy definicję. W przeciwnym wypadku popadamy w błąd „nieznane przez nieznane” (łac. ignotum per ignotum). Definicja obarczona takim błędem nazywana jest definicją wyraźnie tautologiczną.
Powyższy postulat (i związany z nim błąd) dotyczy zarówno definicji projektujących, jak i sprawozdawczych. Również dwa następne postulaty dotyczą obu rodzajów definicji.
Drugi postulat jest bliski temu pierwszemu. Wymaga on bowiem, by osoby, do których kierujemy definicję, nie tylko rozumiały wyrażenie w członie definiującym, lecz by je rozumiały właściwie.
Trzeci postulat domaga się, by w członie definiującym nie występował wyraz definiowany. W przeciwnym wypadku popada się w błąd „błędnego koła w definicji” (łac. circulus in definiendo; idem per idem – to samo przez to samo). Tego rodzaju błąd może występować w postaci błędnego koła bezpośredniego lub błędnego koła pośredniego. Z pierwszym mamy do czynienia wtedy, gdy w członie definiującym pojawia się wyrażenie definiowane w swojej własnej postaci, ewentualnie w innej stylistyce. Taki błąd znalazł się w następującym zdaniu: „logika to nauka o zasadach logicznego formułowania myśli”. Jeśli nie rozumiemy pojęcia „logika”, to tym bardziej nie zrozumiemy wyrażenia „logiczne myślenie”. Z błędnym kołem pośrednim spotykamy się, gdy w członie definiującym występuje wyrażenie, które samo wcześniej zostało zdefiniowane za pomocą wyrażenia aktualnie definiowanego. Taki błąd występuje w definicji: „Geometria jest to nauka wyprowadzona z aksjomatów”, jeśli wcześniej definiujemy aksjomaty jako wyjściowe tezy geometrii.
Poprawność definicji analitycznej zakłada ponadto warunek równości zakresów obu członów definicji: definiowanego i definiującego. Innymi słowy: nazwy pojawiające się w członie definiowanym i definiującym muszą mieć równe zakresy. Normalna definicja analityczna (sprawozdawcza) domaga się, by zakres wyrażenia definiującego było równy zakresowi wyrażenia definiowanego. W przeciwnym wypadku występuje błąd nieadekwatności. Mamy wtedy do czynienia z definicją albo za szeroką, albo za ciasną. Za szeroka jest np. definicja kwadratu jako czworoboku równobocznego, bo podpada pod nią również romb. Za ciasna z kolei jest np. następująca definicja ekonomii: „ekonomia jest to nauka o finansach”. Błędne również są definicje, których człony się krzyżują lub wykluczają (a ściślej – zakresy nazw występujących w tych członach krzyżują się lub wykluczają).
6. Definicje realne
Na koniec powrócimy do zagadnienia definicji realnych. Wiemy, że definicje nominalne podają znaczenie jakiegoś wyrażenia. Inaczej mówiąc: dotyczą nazw. Definicje realne natomiast odnoszą się nie do nazw, lecz do oznaczanych przez nie przedmiotów, czyli do desygnatów tych nazw. W definicji realnej usiłujemy więc uchwycić nie znaczenie nazwy, lecz to, co jest istotne dla danego przedmiotu (i tylko dla niego). Innymi słowy mówiąc, definicje realne podają jednoznaczną charakterystykę przedmiotów, wskazując ich cechy istotne, które można orzec tylko o tych przedmiotach.
W filozofii klasycznej te istotne cechy, które usiłujemy uchwycić w definicji realnej, nazywa się istotą. Pojęcie to wprowadził do filozofii i logiki Arystoteles. Istota, według niego, określa gatunkowe cechy przedmiotu, czyli te, które przysługują danemu przedmiotowi z racji jego przynależności do określonego gatunku. Pojęciem szerszym zakresowo od pojęcia gatunek jest rodzaj. Np. gatunek człowiek należy do rodzaju stworzeń zmysłowych (do których oprócz niego należą również zwierzęta). Cechą gatunkową człowieka, która go odróżnia od pozostałych stworzeń zmysłowych, jest jego rozumność. Ogólnie można powiedzieć, że cechy gatunkowe pozwalają odróżnić dany gatunek od innych gatunków należących do tego samego rodzaju. By określić istotę przedmiotu, czyli gatunek, do którego należy ten przedmiot, trzeba wskazać najbliższy temu gatunkowi rodzaj i coś, co odróżnia dany gatunek od innych gatunków należących do tego rodzaju, czyli różnicę gatunkową. Mówiąc krócej, w definicji realnej jakiegoś przedmiotu należy podać najbliższy danemu gatunkowi rodzaj i różnicę gatunkową (łac.: definitio fit per genus proximum et differentiam specificam). Definicje zbudowane w ten sposób nazywają się definicjami klasycznymi. Za klasyczną definicją stoi przekonanie, że każdy byt naturalny należy do jakiegoś gatunku. Reprezentuje, jako byt jednostkowy, określony gatunek. Ten z kolei należy do jakiegoś rodzaju. Porfiriusz (234-305), filozof neoplatoński, opisał całość bytów za pomocą drzewa, które po nim przyjęto nazywać „drzewem Porfiriusza”. Na szczycie tego drzewa znajduje się substancja (każdy byt jest substancją). Substancja rozgałęzia się na substancję niematerialną i substancję materialną, czyli ciało. Ciała, z kolei, dzielą się na nieożywione (przyroda nieożywiona) i ożywione, czyli istoty żywe. Istoty żywe dzielą się dalej na niezmysłowe (rośliny) oraz zmysłowe. Zmysłowe wreszcie rozgałęziają się na nierozumne (zwierzęta) i rozumne (ludzie). O człowieku możemy zatem powiedzieć, używając współczesnego języka, że jest najwyżej zorganizowaną substancją materialną. Powyższe zdanie nie jest jednakże definicją człowieka, a jedynie umiejscawia go w przysługującym mu miejscu na drzewie Porfiriusza. By zdefiniować człowieka za pomocą drzewa Porfiriusza, trzeba podać jego najbliższy rodzaj (a jest nim istota zmysłowa – łac. animal) oraz charakteryzującą ludzki gatunek różnicę gatunkową (rozumność). Człowiek zatem, według Porfiriusza (i Arystotelesa), jest to istota zmysłowa rozumna.
Graficznie drzewo Porfiriusza zwykle przedstawia się następująco:
Substancja
niematerialna materialna
ę
ciało
nieożywione ożywione
(przyroda nieożywiona) ę
istota żywa
niezmysłowa zmysłowa
(roślina) ę
istota zmysłowa
nierozumna rozumna
(zwierzę) ę
człowiek
Klasyczny sposób definiowania – przez rodzaj najbliższy i różnicę gatunkową – ma obecnie znaczenie raczej już tylko historyczne. Jednakowoż postulat, by w definicji realnej podawać charakterystyczne cechy przedmiotu, a zarazem istotne, pozostał aktualny.
Obecnie od definicji realnej jakiegoś przedmiotu wymaga się, by podawała syntezę aktualnej wiedzy o tym przedmiocie. Gdy nasza wiedza o danym przedmiocie zmienia się, ulegają zmianie definicje tego przedmiotu. Szczególnie jest to widoczne w naukach przyrodniczych. Definicje określonych przedmiotów czy zjawisk, dawniej wystarczające, dzisiaj, w świetle poznanych nowych zjawisk, już nie wystarczają, gdyż nie oddają istotnych cech tych przedmiotów czy zjawisk, ujawnionych w ostatnich czasach.
Nie zawsze możliwe jest podanie definicji. Nie wszystko da się zdefiniować. W takich sytuacjach definicje zastępuje przez inne czynności, a mianowicie takie jak:
1. proste wskazanie jakiejś rzeczy (np. róży – próba zdefiniowania róży spaliłaby z pewnością na panewce, ale łatwo ją pokazać);
2. charakterystyka – podanie charakterystycznych cech, czyli istotnych przymiotów danej rzeczy;
3. opis – podanie różnych zauważonych cech danej rzeczy, niekoniecznie tych najbardziej charakterystycznych i istotnych;
4. porównanie danej rzeczy do czegoś;
5. odróżnienie danej rzeczy od czegoś.
VII Podział logiczny
Gdy chcemy bliżej opisać desygnaty określonej nazwy pod kątem posiadania przez nie (lub nie) jakiejś interesującej nas jakości – wyróżniając wśród nich takie, które ją posiadają i takie, które jej nie posiadają – dokonujemy czegoś, co się nazywa podziałem logicznym. Wyróżnioną cechę, która pozwala nam podzielić wszystkie desygnaty danej nazwy – na posiadające tę i cechę i jej nie posiadające – nazywamy zasadą bądź kryterium podziału.
Najogólniej mówiąc, podział logiczny polega na wyróżnieniu w grupie przedmiotów stanowiących wszystkie desygnaty danej nazwy podgrup według ściśle określonego kryterium. Domyślamy się, że podział logiczny dotyczy zakresów nazw lub terminów, a nie – ich znaczenia. Można powiedzieć, że podział logiczny zakresu określonej nazwy jest to odróżnienie (myślowe) jednych desygnatów danej nazwy od wszystkich pozostałych desygnatów tejże nazwy ze względu na określoną cechę. Można uznać, iż chodzi tu o wydzielanie z zakresu danej nazwy zakresów nazw jej podporządkowanych. Jako przykład można podać logiczny podział liczb całkowitych na podzielne przez dwa i niepodzielne przez dwa. Dzielimy zakres terminu „liczba całkowita” na dwa podzakresy. Jeden z nich stanowią desygnaty terminu „liczba podzielna przez dwa”; drugi – desygnaty terminu „liczba niepodzielna przez dwa”. Kryterium podziału jest tu podzielność przez dwa. Zauważamy w podanym przykładzie, że wydzielone przez podział elementy wykluczają się wzajemnie, tzn. zakres terminu „liczba podzielna przez dwa” i zakres terminu „liczba niepodzielna przez dwa” wykluczają się. Inaczej mówiąc, dwu uzyskanym przez podział nazwom odpowiadają różne desygnaty. Zauważamy ponadto, iż oba wydzielone zakresy cząstkowe sumują się, tworząc zakres dzielonego terminu „liczba całkowita”. Te zauważone cechy muszą znaleźć się w każdym poprawnym podziale logicznym. Dlatego nazywamy je warunkami podziału logicznego. Każdy podział, który je spełnia jest poprawny. Ujmiemy je w następujące punkty:
1. Podział logiczny (danej nazwy) powinien być wyczerpujący – suma zakresów członów podziału (czyli nazw podporządkowanych zakresowo dzielonej nazwie) winna równać się zakresowi dzielonej nazwy.
Niewyczerpujący jest np. podział figur geometrycznych na trójkąty i czworoboki. Pozostaje poza tym podziałem cała masa figur, które nie są ani trójkątami, ani czworobokami.
2. Podział logiczny powinien być rozłączny – człony podziału (wyodrębnione zakresy cząstkowe) muszą się wzajemnie wykluczać. Żaden element dzielonego zakresu nie może jednocześnie znajdować się w dwóch różnych zakresach cząstkowych.
Nie spełnia tego warunku np. podział czworoboków na równoległoboczne i ostrokątne, bo romb posiada obie cechy.
Podział logiczny musi być dokonany według ściśle określonej zasady, czyli kryterium podziału.
3. Podział logiczny musi być dokonany według ściśle określonej zasady, czyli kryterium podziału.
Spełnia ten warunek np. podział ludzi według płci – na kobiety i mężczyzn.
Podane przez wyżej przykłady podziału logicznego miały szczególny charakter. Wszystkie opisywały podział zakresu nazwy na dwa podzakresy. Taki podział nazywamy dychotomicznym (z greckiego dicha – na dwoje, tomos - dział). Podział dychotomiczny powstaje, gdy zakres danej nazwy dzielimy na dwa elementy, przy czym kryterium podziału jest posiadanie (lub nie) jednej, ściśle określonej cechy – jedne elementy podziału posiada daną cechę, inne jej nie posiadają. Dychotomiczny jest np. podział liczb na dodatnie i niedodatnie; podobnie – podział ludzi na pełnoletnich i niepełnoletnich.
Bardzo często jednokrotny podział logiczny nie jest wystarczający. W takiej sytuacji dokonuje się dalszego podziału. Wydzielone już człony dzieli się dalej, tym razem według innej zasady. Uzyskane elementy można poddać jeszcze dalszemu podziałowi, według nowego kryterium. Taki rozwinięty, wielostopniowy podział logiczny nazywamy klasyfikacją. Klasyfikacja jest bardzo popularnym narzędziem. Stosuje się ją w wielu dyscyplinach. Klasyfikuje się organizmy, zwierzęta, rośliny, minerały, ale także narzędzia, metody, dyscypliny naukowe itd. – niemal wszystko poddaje się klasyfikacji.
Dodajmy jeszcze, że dwa różne podziały jakiegoś terminu, uzyskane przez zastosowanie dwu różnych kryteriów podziału, można ze sobą krzyżować, otrzymując podział zwielokrotniony. Np. podział ludzi według płci na kobiety i mężczyzn, można skrzyżować z podziałem według pełnoletności na pełnoletnich i niepełnoletnich.
Podział logiczny należy odróżnić od podziału rzeczowego, z którym mamy do czynienia, gdy segregujemy konkretne, istniejące fizycznie przedmioty według określonej zasady (np. książki w bibliotece według ich wielkości, języka czy tematyki). W logice interesujemy się wyłącznie podziałem logicznym, aczkolwiek zdajemy sobie sprawę z tego, że podział logiczny bywa często myślowym przygotowaniem podziału rzeczowego (wpierw obmyślamy to, co zamierzamy potem wprowadzić w czyn).
VIII Rachunek zdań
1. Wiadomości wstępne
Współczesna logika formalna obejmuje dwa podstawowe działy, a mianowicie rachunek zdań i rachunek predykatów. Rachunek zdań jest najogólniejszą teorią logiki formalnej. Zamiast „rachunek zdań” mówi się czasem „teoria zdań”, albo wprost „logika zdań” (w naszym wykładzie będziemy tych wyrażeń używać zamiennie). W ramach rachunku zdań logika formułuje najogólniejsze prawa, jakie zachodzą między zdaniami logicznymi i ich związkami. Te prawa, wraz z pozostałymi prawami formułowanymi w następnych działach logiki, podają warunki poprawności, jakie winny spełniać nasze rozumowania, jeśli zależy nam na ich poprawności. Innymi słowy mówiąc: stanowią coś w rodzaju kryterium poprawności naszego myślenia.
Na początku naszego wykładu zwrócimy po raz wtóry uwagę na język, w którym zostały sformułowane prawa rachunku zdań. Już wiemy, że jest to język symboliczny, stworzony specjalnie dla potrzeb tego rachunku. Prawa rachunku zdań wyrażone są za pomocą pewnych formuł, czyli wzorów. Są one podobne do tych, które są nam doskonale znane z matematyki i geometrii, przeto ich opanowanie i zrozumienie na ogół nie nastręcza większych trudności. Ponieważ już wcześniej poznaliśmy podstawowe symbole rachunku zdań (a zarazem najczęściej wykorzystywane w tym rachunku), jak również samą budowę zdań prostych i elementarnych zdań złożonych, przeto nie będziemy się dłużej zatrzymywać na kwestiach związanych z symboliką i strukturą tychże zdań, a przejdziemy do następnych zagadnień, które zwykle omawia się na początku wykładu logiki zdań. Wykorzystamy jedynie wspomniane podobieństwo formuł matematycznych i logicznych, by pokazać swego rodzaju zwyczajność symboliki rachunku zdań. Weźmy jakikolwiek wzór matematyczny, np. następujący:
x (y + z) = x y + x z
Zauważmy, że w tym wzorze występują pewne symbole stałe i zmienne. Kropka „” symbolizuje mnożenie, znak „+” dodawanie, znak „=” równość. Można je uznać za coś w rodzaju funktorów matematycznych, które ustalają relacje między zmiennymi (i liczbami). Litery (x, y z), z kolei, pełnią tu funkcję zmiennych, za które możemy podstawić dowolne liczby (dlatego nazywamy je właśnie „zmiennymi”).
Podobnie funkcjonują symbole w formułach, czyli wzorach, rachunku zdań w logice formalnej. Jedne z nich pełnią tu rolę stałych, inne – rolę zmiennych zdaniowych, za które można podstawiać zdania, a nawet całe formuły zdaniowe. Wzór z rachunku zdań, podobny do tego matematycznego, mógłby mieć na przykład taką oto postać:
p (q r) (p q) (p r)
Pomijamy w tej chwili kwestię poprawności podanego wzoru (jest on, zresztą, poprawny i przedstawia jedno z praw logiki zdań). Zwróćmy uwagę tylko na symbole. Litery (p, q, r), podobnie jak we wzorach matematycznych, pełnią tu funkcję zmiennych, a ściślej zmiennych zdaniowych. Można za nie podstawiać różne zdania logiczne. Dlatego powiada się o nich, że zastępują zdania (zarówno proste, jak i złożone). Pozostałe znaki (, , =) – to znane nam już funktory zdaniotwórcze (dokładniej: funktory zdaniotwórcze od zdań ), które oznaczają określone relacje między zdaniami (w naszym przykładzie: koniunkcji, alternatywy, równoważności).
Możemy powiedzieć uogólniając, że podobnie zbudowane są wszystkie tezy rachunku zdań, tzn. z funktorów zdaniotwórczych i zmiennych zdaniowych. Oprócz nich pojawią się w nich inne znaki, których znaczenie jest jednak oczywiste, np. nawiasy, w których znajdują się prostsze funkcje zdaniowe wewnątrz bardziej złożonych formuł – dokładnie tak, we wzorach matematycznych. Dla porządku wymienimy podstawowe symbole funkcjonujące w rachunku zdań jako funktory zdaniotwórcze (inaczej: spójniki prawdziwościowe) :
1. „®” – symbol implikacji, czyli wynikania logicznego (czyt.: „jeżeli...., to”.
2. „” – symbol koniunkcji, czyli iloczynu logicznego (czyt.: „i”).
3. „” – symbol alternatywy, czyli sumy logicznej (czyt. „lub”).
4. „” – symbol równoważności (czyt.: „wtedy i tylko wtedy, gdy”; „jest równoważne”).
5. „/” – symbol dysjunkcji (czyt.: „albo” w znaczeniu „co najwyżej jedno z dwojga” ).
Dodamy do powyższych, i znanych już, funktorów jeszcze jeden i to bardzo ważny, a mianowicie funktor negacji:
6. „~” – symbol negacji, czyli przeczenia (czyt.: „nieprawda, że”).
Wszystkie podane funktory tworzą właściwe sobie zdania. W najprostszej postaci te zdania przedstawiają się następująco:
1. p ® q (czyt.: jeżeli p, to q) – implikacja, zdanie implikacyjne;
2. p q (czyt.: p i q) – koniunkcja, zdanie koniunkcyjne;
3. p q (czyt.: p lub q) – alternatywa, zdanie alternatywne;
4. p q (czyt.: p wtedy i tylko wtedy, gdy q) – równoważność, zdanie równoważnościowe;
5. p q (czyt.: p albo q) – dysjunkcja, zdanie dysjunktywne;
6. ~ p (czyt.: nieprawda, że p) – negacja, zdanie negacyjne;
Funktor negacji tworzy zdanie od jednego zdania. Dlatego nazywa się go funktorem jednoargumentowym. Wszystkie pozostałe funktory są dwuargumentowe, tzn. tworzą zdania od dwóch zdań. Dla przypomnienia podamy jeszcze raz matryce podstawowych funkcji zdaniowych:
p q p q p q p ® q p q p q
1 1 1 1 1 1 0
1 0 0 1 0 0 1
0 1 0 1 1 0 1
0 0 0 0 1 1 1
W logice formalnej obowiązuje zasada, która zaleca usuwać z rachunku spójniki (inaczej: funktory) zdaniotwórcze, jeśli można je zdefiniować za pomocą innych spójników. Na tej zasadzie zwykle opuszcza się w rachunku zdań spójnik dysjunkcji (ale w niektórych systemach jest on używany), gdyż jest on definiowalny za pomocą spójnika negacji i alternatywy. Można go mianowicie zastąpić schematem alternatywy negacji ~p ~q. Odwołując się do przedstawionych wyżej matryc alternatywy i dysjunkcji, łatwo sprawdzimy, że oba schematy przekształcają się w zdania prawdziwe dokładnie w tych samych warunkach, tzn. wtedy, gdy podstawimy w nich za zmienne p i q zdania o takiej samej wartości logicznej.
Podane formuły (implikacji, alternatywy, koniunkcji, dysjunkcji, równoważności) stanowią najprostsze przykłady niezawodnych schematów zdań. Z nich tworzy się dalsze i bardziej złożone formuły prawdziwościowe, czyli schematy rachunku zdań. Niebawem pokażemy te złożone formuły i poznamy metody sprawdzania ich poprawności, ale zanim to uczynimy, zajmiemy się bardziej elementarnymi i prostszymi kwestiami logiki zdań (jednak – dodajmy – nie mniej ważnymi od tamtych), a do tego pokażemy je w prostszy, jeszcze nie do końca sformalizowany sposób, używając na razie, obok symboli reprezentujących zmienne zdaniowe (i innych oznaczających zachodzące między nimi stosunki), również potocznego sposobu wyrażania określonych relacji zachodzących między zdaniami.
Tymczasem przypomnijmy sobie jeszcze bardzo ważną regułę obowiązującą w logice. Otóż zdania logiczne posiadają zawsze określoną wartość logiczną, tzn. są fałszywe lub prawdziwe. Logiczna prawdziwość zdania logicznego nie zależy od znaczenia występujących w nich wyrażeń pozalogicznych, a jedynie od jego struktury syntaktycznej, czyli inaczej mówiąc od ich budowy, czyli formy. Zdania logiczne mają postać mniej lub bardziej złożonych formuł, które w graficznym zapisie tworzą niezawodne schematy wnioskowania, tzn. takie, które zawsze prowadzą do prawdy. Teraz możemy uściślić rolę, jaką odgrywają prawa rachunku zdań w naszym życiu. Otóż wskazują one niezawodne (czyli prawidłowe) wzorce rozumowania (są nimi właśnie owe niezawodne schematy), czyli swego rodzaju procedury, które – zachowane – poprowadzą niezawodnie nasze rozumowanie prawidłowym torem. Z drugiej strony te same formuły mogą posłużyć do sprawdzenia i weryfikacji zdań i procesów rozumowań, np. pewnych nie zweryfikowanych jeszcze teorii, przez nadanie im postaci schematów formalnych i uruchomienie stosownych procedur sprawdzających poprawność tychże schematów. W postaci wspomnianych niezawodnych schematów logika formalna dostarcza nam nieocenionych i niezastąpionych narzędzi, za których pomocą możemy oceniać poprawność logiczną różnych teorii naukowych, ale również różnych ideologii politycznych, społecznych i innych. Jeśli owe „teorie”, zapisane w postaci schematów wnioskowania, nie spełniają postulatu poprawności, czyli niezawodności formalnej, to nie mogą rościć sobie pretensji do słuszności, nawet gdyby pojedyncze zdania i idee serwowane w ramach tych „teorii” były same w sobie, w oderwaniu od tychże „teorii”, słuszne.
Przejdziemy teraz do omówienia elementarnych kwestii rachunku zdań (w prostszym – jak zapowiedziano – ujęciu), a mianowicie do logicznych związków między zdaniami.
2. Związki logiczne między zdaniami
Związki logiczne między zdaniami, którymi interesuje się rachunek zdań, uwarunkowane są wyłącznie strukturą tych zdań oraz znaczeniem występujących w nich stałych logicznych. Najkrócej rzec ujmując, chodzi tu o relacje między dwoma zdaniami połączonymi w parę, które wynikają wyłącznie z wartości logicznej tych zdań (tzn. z tego, że są one prawdziwe bądź fałszywe). Innymi słowy: badamy, jak mają się do siebie dwa zdania w sytuacji, gdy jedno z nich prawdziwe, a drugie fałszywe, i wtedy, gdy oba są prawdziwe, a także wówczas, gdy są one równocześnie fałszywe. W logice formalnej wyróżnia się następujące związki logiczne między zdaniami: wynikanie logiczne, sprzeczność logiczną, równoważność logiczną, logiczne wykluczanie się i logiczne dopełnianie się zdań. Przedstawimy je w skrócie, zaczynając od dwóch ostatnich z wymienionych, i spróbujemy pokazać, w jakich typach zdań one zachodzą.
2.1. Związki wykluczania i dopełniania się zdań
Przyjrzyjmy się dwom parom zdań i zbadajmy, czy mogą one być równocześnie prawdziwe albo fałszywe:
„Jan jest starszy od Adama”; „Jan jest młodszy od Adama”
oraz:
„Jan jest starszy od Adama”; „Jan nie jest starszy od Adama”.
Jeśli weźmiemy pod uwagę prawdziwość i fałszywość zdań, to o zdaniach pierwszej pary od razu możemy powiedzieć, że nie mogą równocześnie prawdziwe. Jeśli jedno z nich jest prawdziwe, to drugie musi być, siłą rzeczy, fałszywe (zważywszy, że Jan i Adam mogą być rówieśnikami, wypadałoby jeszcze dopowiedzieć, że mogą być one w tym samym momencie fałszywe, ale to w tej chwili nie jest istotne). Logiczny związek zachodzący między tymi zdaniami nazywa się w logice formalnej wykluczaniem się.
Związek (albo relację, a jeszcze inaczej stosunek) logicznego wykluczania się zdań zapiszemy następująco:
Związek logicznego wykluczania zachodzi między zdaniami wtedy i tylko wtedy, gdy nie mogą być one równocześnie prawdziwe. Co najmniej jedno z tych zdań powinno być fałszywe i co najwyżej jedno może być prawdziwe. Gdy jedno nich jest prawdziwe, to drugie musi być fałszywe.
Z kolei o drugiej parze zdań bez żadnych wątpliwości orzekniemy, że nie mogą być one jednocześnie fałszywe. Jeśli jedno z nich jest fałszywe, to drugie musi być prawdziwe (nawet wówczas, gdy Jan i Adam są rówieśnikami – wtedy pierwsze zdanie z tej pary jest fałszywe, a drugie prawdziwe). Związek, jaki tu obserwujemy, nazywamy logicznym dopełnianiem się.
Związek dopełniania się możemy opisać następująco:
Dwa zdania dopełniają się logicznie wtedy i tylko wtedy, gdy nie mogą być równocześnie fałszywe. Co najwyżej jedno z nich może być fałszywe i co najmniej jedno musi być prawdziwe (ale mogą oba być prawdziwe). Jeżeli jedno z nich jest fałszywe, drugie musi być tym samym prawdziwe.
Zauważmy jeszcze, wracając do przykładu, że pierwsza para zdań nie tworzy związku dopełniania się. Nie trudno bowiem wyobrazić sobie sytuację, kiedy oba zdania są fałszywe – wtedy mianowicie, gdy Jan i Adam są równolatkami. Więc możemy powiedzieć o tych zdaniach, że się wykluczają, ale nie dopełniają się.
Spróbujmy odpowiedzieć na pytanie: jaki rodzaj zdań logicznych reprezentują opisane tu relacje logicznego wykluczania się i dopełniania?; albo inaczej: jakimi spójnikami (funktorami) prawdziwościowymi należy połączyć dwa zdania (choćby te z naszych przykładów), by w uzyskanym z nich w ten sposób zdaniu złożonym zachodziły przedstawione związki logiczne?
Zacznijmy od logicznego wykluczania się. Pamiętamy, że z logicznym wykluczaniem się zdań mamy do czynienia w sytuacji, gdy dwa zdania nie mogą być równocześnie prawdziwe. Tylko jedno z nich może być prawdziwe. Zatem jeśli połączymy ze sobą dwa zadania wykluczające się, to otrzymane w ten sposób zdanie złożone będzie prawdziwe tylko wtedy, gdy co najwyżej jedno ze zdań składowych będzie mogło być prawdziwe. Gdy jedno z nich będzie prawdziwe, tu drugie będzie musiało być fałszywe. Ale – i to też jest ważne – będą mogły być równocześnie fałszywe. Krótko mówiąc: utworzone zdanie (złożone) będzie fałszywe tylko wtedy, gdy oba jego zdania składowe będą prawdziwe. W pozostałych przypadkach będzie prawdziwe. Nie trudno spostrzec, iż te warunki spełnia wyłącznie zdanie dysjunktywne typu (p q). Dysjunkcja jest fałszywa tylko w jednym przypadku – gdy oba jej człony są prawdziwe. W pozostałych sytuacjach jest prawdziwa. O dysjunkcji (zamiast „ zdanie dysjunktywne” możemy mówić wprost „dysjunkcja” – dotyczy to wszystkich rodzajów zdań) można teraz powiedzieć, że jest ona prawdziwa wyłącznie wtedy, gdy jej człony (zdania składowe) wykluczają się logicznie.
Z równą łatwością można dowieść, że związek logicznego dopełniania się zachodzi między zdaniami połączonymi spójnikiem alternatywy typu (p q). Zdanie alternatywne jest fałszywe tylko w jednym przypadku, a mianowicie wtedy, gdy oba jego człony (zdania składowe) są fałszywe; w pozostałych przypadkach jest prawdziwe. Zatem realizuje związek dopełniania się. O zdaniu alternatywnym powiemy teraz, że jest ono prawdziwe wtedy i tylko wtedy, gdy jego człony dopełniają się logicznie.
2.2. Związek logicznej sprzeczności zdań.
Zasada sprzeczności i zasada wyłączonego środka
Związek sprzeczności logicznej (krócej: sprzeczność logiczna) między dwoma zdaniami występuje wtedy, gdy nie mogą mieć one tej samej wartości logicznej. Jeśli jedno z tych zdań jest prawdziwe, to drugie musi być koniecznie fałszywe. I odwrotnie: jeżeli jedno z nich jest fałszywe, to drugie musi być prawdziwe. Zdania logicznie sprzeczne zarazem wykluczają się i dopełniają logicznie. Zatem można powiedzieć, iż związek logicznej sprzeczności zdań zakłada zarazem związek logicznego wykluczania się i dopełniania tychże zdań.
Sięgając do par zdań z poprzednich przykładów, zauważymy, że dwa zdania z pary drugiej: „Jan jest starszy od Adama” oraz „Jan nie jest starszy od Adama”) nie mogą być jednocześnie prawdziwe (zatem wykluczają się wzajemnie), i nie mogą być równocześnie fałszywe (a więc dopełniają się wzajemnie). Są więc logicznie sprzeczne. Nie można jednak tego powiedzieć o dwóch zdaniach wcześniejszych: „Jan jest starszy od Adama” i „Jan jest młodszy od Adama”. Zdania te wprawdzie się wykluczają (nie mogą być równocześnie prawdziwe), ale się nie dopełniają logicznie (bo mogą być równocześnie fałszywe, wtedy mianowicie gdy Jan i Adam są rówieśnikami).
Związek sprzeczności występuje bez wątpienia między tymi zdaniami: „Kowalski jest dobrym człowiekiem” i „Kowalski nie jest dobrym człowiekiem”. Już na pierwszy rzut oka widać, że te zdania sobie przeczą. Jeszcze lepiej to widać, gdy to drugie zdanie wyrazić się następująco: „Nieprawda, że Kowalski jest dobrym człowiekiem”.
Zasada sprzeczności i zasada wyłączonego środka
Przedstawiony związek logicznej sprzeczności zdań zawiera w sobie dwie ważne zasady logiki formalnej, które z niego się wyprowadza. Jedną z nich nazwano zasadą sprzeczności, drugą – zasadą wyłączonego środka.
Zasada sprzeczności podkreśla fakt, że dwa zdania sprzeczne nie mogą być równocześnie prawdziwe.
Równie słuszna (bo wynika z poprzedniej), w odniesieniu do pary zdań sprzecznych, jest teza oznajmująca, że z dwóch zdań sprzecznych jedno przynajmniej musi być prawdziwe. Ta ostatnia teza wyraża drugą zasadę związaną z relacją sprzeczności. Nazywa się ona zasadą wyłączonego środka.
Wyrazimy teraz obie zasady w języku rachunku zdań. Jeśli pierwsze zdanie zastąpimy symbolem zmiennej zdaniowej, np. literą p, to drugie zdanie zapiszemy jako „nieprawda, że p”, a jeśli relację sprzeczności wyrazimy symbolem „~”, to wtedy to samo zdanie możemy zapisać symbolicznie jako „~p”. Biorąc to pod uwagę spróbujmy wyrazić zasadę sprzeczności i zasadę wyłączonego środka w języku symbolicznym, czyli w postaci schematu rachunku zdań. Zapis musi wyrażać treść tych zasad. Zasada sprzeczności mówi, że jeśli mamy dwa zdania sprzeczne, to nie mogą być one jednocześnie prawdziwe, ale też nie mogą być równocześnie fałszywe. Zatem zdanie „p” i zdanie z nim sprzeczne „~p” nie mogą być równocześnie prawdziwe. Na tej samej zasadzie nie mogą być równocześnie fałszywe. Zatem prosta koniunkcja tych zdań nie byłaby poprawna. Schemat (p ~p) (czyt.: „p i nieprawda, że p” lub prościej „p i nie p”) nie odpowiada zasadzie sprzeczności i jest zawodny. Za to negacja koniunkcji tych zdań tworzy schemat poprawny. Biorąc to pod uwagę zasadę sprzeczności można wyrazić następująco:
~ (p ~p) (czyt.: „nieprawda, że p i nie-p”).
Z kolei zasada wyłączonego środka – która mówi, że jeśli mamy dwa zdania sprzeczne ze sobą (p oraz ~p), to jedno z nich jest prawdziwe, a drugie fałszywe – da się wyrazić najprościej za pomocą alternatywy:
p ~p (czyt.: p lub nie-p).
2.3. Związek logicznej równoważności zdań
Równoważność logiczna między zdaniami zachodzi wtedy, gdy mają one zawsze tę samą wartość logiczną. Jeśli jedno z nich jest prawdziwe, to i drugie musi być prawdziwe. Gdy jedno jest fałszywe, drugie również jest fałszywe. Równoważne są na przykład dwa następujące zdania:
„Jan jest starszy od Adama” oraz
„Adam jest młodszy od Jana”.
Te dwa zdania zawsze mają taką samą wartość logiczną. Jeżeli jedno z nich jest fałszywe, to i drugie też jest fałszywe. Podobnie, jeśli jedno jest prawdziwe, to drugie również jest prawdziwe.
Równoważność logiczną realizuje zdanie równoważnościowe typu:
p q
2.4. Związek logicznego wynikania zdań. Okres warunkowy
Związek logicznego wynikania zdań (inaczej: „stosunek wynikania logicznego”, lub krócej: „logiczne wynikanie”) uznaje się za najważniejszy z wszystkich związków logicznych. W sumie całą teorię związków logicznych między zdaniami można byłoby sprowadzić do teorii wynikania logicznego, gdyż pozostałe związki logiczne pozwalają się zdefiniować za pomocą wynikania logicznego :
1. Dwa zdania są logicznie równoważnie wtedy i tylko wtedy, gdy z każdego jednego z tych zdań wynika logicznie zdanie drugie.
2. Dwa zdania są logicznie sprzeczne wtedy i tylko wtedy, gdy z każdego jednego z tych zdań wynika logicznie negacja drugiego, a z negacji każdego jednego z tych zdań wynika logicznie zdanie drugie.
3. Dwa zdania wykluczają się logicznie wtedy i tylko wtedy, gdy z każdego jednego z tych zdań wynika logicznie negacja zdania drugiego.
4. Dwa zdania dopełniają się logicznie wtedy i tylko wtedy, gdy z negacji każdego jednego z nich wynika logicznie zdanie drugie.
Stosunek wynikania odgrywa olbrzymią rolę w tzw. myśleniu naukowym ludzi, ale również w myśleniu potocznym. W zasadzie ludzie zawsze myślą, a przynajmniej zawsze powinni myśleć, logicznie, to znaczy poprawnie wyprowadzać wnioski z określonych przesłanek. Spełnia to się właśnie na zasadzie wynikania logicznego, chociaż na ogół nikt sobie tego nie uświadamia. Po prostu myśli ludzi w sposób niejako naturalny przebiegają według właściwych procedur logicznego wynikania. Oczywiście – nie zawsze. Bywa i to nie rzadko, że biegną one swoim, zupełnie dowolnym torem. Czasem, w określonych sytuacjach, bywa to korzystne. Na ogół jednak oczekuje się od ludzi, że będą myśleć logicznie. Szczególnie jest to wymagane w nauce. Naukowcy zazwyczaj myślą według reguł wynikania logicznego. W ten sposób na przykład z pewnych aksjomatów, zakładanych i obowiązujących w ich dyscyplinie wiedzy, wyprowadzają bardziej złożone tezy swojej dyscypliny naukowej. Różne typy wnioskowania, oparte na związku logicznego wynikania, poznamy w swoim czasie. Teraz ograniczymy się do przedstawienia zagadnienia samego związku wynikania logicznego tak, jak go rozumie logika formalna w rachunku zdań. Ponieważ związek wynikania logicznego odgrywa w logice formalnej kluczową rolę, przeto zatrzymamy się na tym zagadnieniu nieco dłużej.
Na czym polega związek wynikania logicznego między zdaniami, wyczuwamy już niemal intuicyjnie, przyglądając się chociażby podanym wyżej definicjom pozostałych związków logicznych. Te definicje zostały sformułowane właśnie za pomocą interesującego nas związku wynikania logicznego. Na pierwszy rzut oka widać, że mają one postać zdań warunkowych, bardzo podobną do tych, które znamy z naszego języka potocznego i naukowego, i którymi posługujemy niemal stale. Nieraz słyszeliśmy lub wypowiadaliśmy takie zdania, jak te: „Jeśli słońce świeci, to jest jasno”; „Jeśli zapada noc, to na dworze robi się ciemno”. Są to właśnie przykłady zdań warunkowych, a zarazem przykłady wynikania. Możemy wręcz powiedzieć, że zdania w podanych przykładach wiąże ze sobą stosunek wynikania – jedno zdanie wynika z drugiego, a ściślej – zdanie po przecinku wynika ze zdania przed przecinkiem. Zamiast „zdanie warunkowe” mówi się często „okres warunkowy”. Zwróćmy uwagę na samą budowę zdania (lepiej: okresu) warunkowego. Widzimy, że zdanie warunkowe składa się z dwóch zdań połączonych spójnikiem „jeśli..., to”. Te dwa zdania składowe nazywają się członami okresu warunkowego. Zdanie (człon okresu), które poprzedzony jest przez wyraz „jeśli” nazywane jest poprzednikiem okresu warunkowego. To zaś zdanie, które stoi po przecinku i po wyrazie „to”, nazywa się następnikiem okresu warunkowego. Ogólny schemat zdań warunkowych ma postać: „jeżeli a, to... b” i tak się go czyta. Litery „a” i „b” w tym schemacie zastępują całe zdania. Jeżeli ze zdania „a” wynika zdanie „b”, to mówimy, że zdanie „a” jest racją zdania „b”, a zdanie „b” jest następstwem zdania „a”. Stosunek wynikania nazywa się czasem stosunkiem racji i następstwa.
Okres warunkowy, który ma stanowić wynikanie logiczne, musi spełniać warunek prawdziwości. W sformułowaniu K. Ajdukiewicza ów warunek brzmi następująco: okres warunkowy jest prawdziwy wtedy i tylko wtedy, gdy jest wykluczone, aby poprzednik jego był prawdą, a następnik fałszem.
O zachodzeniu lub nie zachodzeniu wynikania logicznego między zdaniami tworzącymi okres warunkowy decyduje budowa tych zdań, czyli ich struktura formalna. Zdanie „b” wynika logicznie ze zdania „a” wtedy i tylko wtedy, gdy okres warunkowy, którego poprzednikiem jest zdanie „a”, a następnikiem zdanie „b”, jest prawdą logiczną.
Okres warunkowy jest prawdziwy wtedy i tylko wtedy, gdy nie jest możliwe, by poprzednik jego był prawdą, a następnik fałszem. Związek istniejący między zdaniami, które tworzą taki prawdziwy okres warunkowy, nazywa się związkiem logicznego wynikania. Zatem jeżeli okres warunkowy stanowi wynikanie logiczne, to zdanie, które jest następnikiem tego okresu, wynika logicznie ze zdania, które jest jego poprzednikiem okresu. Używając terminu „racja”, powiemy: okres warunkowy jest prawdziwy wtedy i tylko wtedy, gdy jego poprzednik jest racją jego następnika.
2.5. Wynikanie inferencyjne
Szczególną postać wynika stanowi wynikanie inferencyjne. Zdanie B wynika inferencyjnie ze zdania A wtedy, gdy istnieją reguły, które pozwalają wywieść zdanie B ze zdania A. Zazwyczaj te reguły polegają na stosowaniu pewnych przekształceń, które z jednych zdań prawdziwych wyprowadzają inne zdania prawdziwe, a z tych znowu następne.
2.6. Podstawowe prawa logiki zdań wynikające ze stosunku wynikania logicznego
Jednym z najważniejszych zadań logiki formalnej jest sformułowanie stosownych procedur logicznych i dostarczenie odpowiednich instrumentów, z których pomocą można stwierdzić, czy określone zdaniami wiąże logiczny stosunek wynikania, tzn. czy wynikają one logicznie jedne z drugich. Temu celowi służy właśnie rachunek zdań i formułowane tu prawa logiczne. Na początek przyjrzyjmy się bliżej samemu stosunkowi wynikania i zobaczymy, jakie relacje zachodzą między prawdziwością względnie fałszywością członów okresu warunkowego (tworzącego stosunek wynikania).
Wiemy, że okres warunkowy jest prawdziwy zawsze wtedy i tylko wtedy, gdy jest wykluczone, aby równocześnie jego poprzednik był prawdziwy, a następnik fałszywy. Wobec tego zakładając prawdziwość okresu warunkowego i orzekając prawdziwość lub fałszywość jednego z członów okresu, otrzymamy tezy, które można traktować jako twierdzenia rachunku zdań, a ich wzory – jako niezawodne schematy wnioskowania.
Jako pierwsze odnotujemy następujące twierdzenie, które niejako samo się nasuwa:
Jeżeli okres warunkowy jest prawdziwy i jego poprzednik jest prawdziwy, to również następnik musi być prawdziwy.
Twierdzenie powyższe można wyrazić w postaci następującego schematu:
Jeżeli p, to q
p
------------------
Zatem: q
Zdanie warunkowe (p ® q) połączymy funktorem koniunkcji ze zdaniem p, otrzymując tym samym nowe zdanie, które wraz wnioskiem q (naszego rozumowania) tworzy nowy okres warunkowy (nowe zdanie warunkowe), który można zapisać w postaci następującej formuły prawdziwościowej:
{(p ® q) p} ® q modus ponendo ponens
W ten sposób otrzymaliśmy symboliczną formułę twierdzenia rachunku zdań – jedno z jego najbardziej znanych praw rachunku zdań (nazywanych też tautologiami rachunku zdań). W języku łacińskim to prawo nazywa się modus ponendo ponens, co w dosłownym przekładzie można oddać jako „sposób przez uznanie uznający”. Jest to jeden z tych schematów wnioskowania (rozumowania), którymi niemal stale – powiemy z odrobiną przesady – myślimy.
Drugie twierdzenie dotyczące okresu warunkowego otrzymamy równie łatwo, jak pierwsze, jeśli pamiętamy, że fałszywy następnik okresu warunkowego może wynikać jedynie z fałszywego poprzednika (prawdziwe zdanie nie implikuje fałszywego). Jeśli następnik okresu jest fałszywy, to i jego poprzednik musi być fałszywy. Mówiąc inaczej: jeśli następnik jest fałszywy, to poprzednik nie może być prawdziwy. Wynika stąd nasze drugie twierdzenie, któremu możemy nadać następującą postać:
Jeżeli okres warunkowy jest prawdziwy, a jego następnik jest fałszywy, to i jego poprzednik musi być również fałszywy.
Pamiętając, że negacja zdania fałszywego jest zawsze prawdziwa – wynika to ze znanego nam już prawa wyłączonego środka (p ~p) – możemy treść naszego twierdzenia wyrazić również następująco:
Jeżeli okres warunkowy jest prawdziwy i negacja jego następnika jest prawdziwa, to również negacja jego poprzednika musi być prawdziwa.
Schematycznie ostatniego twierdzenie można zapisać w następująco:
Jeżeli p, to q
Nie q
-------------------
Zatem nie p
Bez większego trudu jesteśmy w stanie wyrazić to samo, używając symboli rachunku zdań, w postaci formuły prawdziwościowej:
{(p ® q) ~q} ® ~p modus tollendo tollens
Otrzymaliśmy w ten sposób następne znane prawo rachunku zdań, nazywane po łacinie modus tollendo tollens (sposób przez obalenie obalający). Korzystamy z niego równie często, jak z poprzedniego. Szczególnie często wykorzystujemy je w tzw. dowodach „nie wprost”.
Dwa przedstawione twierdzenia, modus ponendo ponens oraz modus tollendo tollens, wynikają niejako w sposób oczywisty z samej definicji okresu warunkowego. Rozumiemy je niemal intuicyjnie. Fałszywy następnik okresu warunkowego nie może wynikać z prawdziwego poprzednika (fałszywe następstwo nie może mieć prawdziwej racji). Prawdziwy poprzednik okresu warunkowego nie może implikować fałszywego następnika (prawdziwa racja nie może mieć fałszywego następstwa).
Gdybyśmy przyjrzeli się uważnie obu ostatnim prawom, to z pewnością zauważylibyśmy, że ich prawdziwość można dowieść na podstawie analizy matrycy implikacji i koniunkcji. Niebawem poznany metody sprawdzania prawdziwości podobnych formuł rachunku zdań, między innymi przy pomocy matryc funkcji zdaniowych. Na razie pozostaniemy jeszcze przy stosunku wynikania i twierdzeniach, jakie z niego wynikają (przy stosownych założeniach).
Warunek prawdziwości okresu warunkowego zobowiązuje go do tego tylko – jeśli tak można powiedzieć – żeby prawdziwy poprzednik tego okresu nie wiązał się z fałszywym następnikiem. Krótko mówiąc: w okresie warunkowym nie może zaistnieć sytuacja, w której poprzednik byłby prawdziwy, a następnik fałszywy. Kombinacja prawdziwego poprzednika z fałszywym następnikiem jest niedopuszczalna. Pozostałe kombinacje między członami tego okresu są jednak dopuszczalne. Zatem dopuszczalna jest również taka sytuacja, kiedy następnik jest prawdziwy i poprzednik jest prawdziwy, ale również taka, w której następnik jest prawdziwy, a poprzednik fałszywy. Twierdzenie, które ujmuje te dwa stany, brzmi następująco:
Prawdziwy okres warunkowy, w którym następnik jest prawdziwy, może mieć zarówno prawdziwy, jak i fałszywy poprzednik.
Prawdziwe następstwo może wynikać logicznie z prawdziwej, ale również z fałszywej racji. Zatem fakt, że następstwo jest prawdziwe, nie oznacza jeszcze, że prawdziwa jest również racja, z której się go wywodzi. Z prawdziwości następstwa nie możemy wnosić, niezaprzeczalnie i bezbłędnie, o prawdziwości jego racji. Prawdziwość następstwa bowiem nie kłóci się z fałszywością jego racji (w sensie: nie przeczy logicznej poprawności samego związku wynikania logicznego między racją a następstwem). Inaczej mówiąc: to, że z jakiegoś zdania „p” wynika jakieś inne zdanie „q”, które mówi prawdę, nie oznacza jeszcze, że również zdanie „p” jest prawdziwe. Kłóci to się wprawdzie z naszymi potocznymi wyobrażeniami, ale w wynikaniu logicznym tak właśnie jest – jest to zgodne z warunkiem prawdziwości okresu warunkowego i z niego wynika (pokażemy to zaraz na przykładzie).
Schematy, jakie daje ostatnie twierdzenie, ze zrozumiałych powodów nie mogą być uznane za niezawodne. Podamy je tylko po to, by zapamiętać, iż są one zawodne, tzn. rozumowanie przebiegające według tych schematów może doprowadzić do fałszywych wniosków, choć może również prowadzić do wniosków prawdziwych.
Jeżeli p, to q Jeżeli p, to q
q q
------------------ -----------------
zatem: p zatem: ~ p
Symboliczno-formalnych formuł tych schematów nie podajemy, bo nie są to tautologie, czyli prawa rachunku zdań.
Jako przykład zawodności tych schematów weźmy dwa następujące zdania i utwórzmy z nich okres warunkowy:
1)„Jan jest starszy od Adama”;
2)„Adam nie jest starszy od Jana”.
„Jeżeli Jan jest starszy od Adama, to Adam nie jest starszy od Jana.”
Okres warunkowy spełnia warunek prawdziwości: jeśli pierwsze zdanie jest zgodne z prawdą, to drugie zdanie również. Ale zwróćmy uwagę, że drugie zdanie może być prawdziwe nawet wtedy, gdy pierwsze będzie nieprawdziwe – wtedy mianowicie, gdy Jan i Adam są równolatkami: wtedy Adam nie jest wprawdzie starszy od Jana, ale Jan nie już jest starszy od Adama. W ten sposób dowiedliśmy, że zdanie prawdziwe może wynikać logicznie zarówno ze zdania prawdziwego, jak i ze zdania fałszywego – oczywiście tylko w tym sensie, że, oba te zdania mogą utworzyć okres warunkowy spełniający warunek logicznej poprawności. Stąd wypływa bardzo ważny wniosek praktyczny: nie powinniśmy uznawać za prawdziwą jakąś tezę tylko dlatego, że można z niego wywnioskować jakieś zdanie prawdziwe, jak to pokazuje ostatni przykład: ze zdania „Jan jest starszy od Adama” wynika prawdziwe zdanie „Adam nie jest starszy od Jana”, ale to jeszcze nie oznacza, że to pierwsze zdanie jest prawdziwe (bo Jan i Adam są równolatkami).
Inne twierdzenia dotyczące okresu warunkowego otrzymuje się w drodze określonych operacji dokonywanych na członach tego okresu. Te operacje polegają głównie na negowaniu i przestawianiu członów okresu. Najprostsza z tych operacji polega na zwykłej zamianie miejsc członów okresów. Dotychczasowy następnik okresu staje się poprzednikiem, a poprzednik – następnikiem. W efekcie tej operacji powstaje okres odwrotny względem tamtego. Taki odwrotny okres nazywa się zwykle odwróceniem okresu warunkowego. Odwróceniem okresu warunkowego „jeżeli p, to q” jest zatem okres „jeżeli q, to p”, czemu odpowiada schemat (q ® p).
Następna operacja polega na zaprzeczaniu członów okresu warunkowego. Jej efektem jest okres warunkowy przeciwny względem poprzedniego. Okresem przeciwnym względem „jeżeli p, to q” jest „jeżeli nie p, to nie q”, czyli: (~p ® ~q).
Jeżeli dokonamy obu operacji, tzn. przestawienia i zaprzeczenia członów okresu warunkowego, otrzymamy okres przeciwstawny względem okresu poddanego tej operacji. Ten przeciwstawny okres nazywa się transpozycją. Zatem transpozycją okresu „jeżeli p, to q” jest „jeżeli nie q, to nie p”, czyli (~q ® ~p).
Okres warunkowy wraz ze swoim odwróceniem, transpozycją i okresem przeciwnym tworzy czwórkę okresów warunkowych sprzężonych:
1) Jeżeli p, to q (p ® q),
2) Jeżeli q, to p (q ® p),
3) Jeżeli nie p, to nie q (~p ® ~q),
4) Jeżeli nie q, to nie p (~q ® ~p).
Do okresów sprzężonych odnoszą się trzy twierdzenia. Pierwsze z tych twierdzeń dotyczy odwrócenia i głosi, że odwrócenie prawdziwego okresu warunkowego może stanowić prawdziwy, ale również fałszywy okres warunkowy. Zatem wnioskowanie, które polega tym, że od danego okresu warunkowego prawdziwego przechodzi się do jego odwrócenia jako wniosku, może prowadzić zarówno do prawdy, jak i do fałszu. A więc schemat, który to opisuje jest zawodny i nie powinien stać się podstawą naszego rozumowania.
Twierdzenie drugie odnosi się do operacji zaprzeczania członów okresu warunkowego. Głosi ono, że okres warunkowy przeciwny względem prawdziwego okresu warunkowego może być prawdziwy, ale może być również fałszywy. Z tego powodu schemat wnioskowania oparty na operacji zaprzeczania członów okresu warunkowego prawdziwego należy uznać również za zawodny. Może równie dobrze doprowadzić do wniosków prawdziwych, jak i do fałszywych. Nasze wnioskowanie nie powinno opierać się na takim schemacie.
Trzecie, i najważniejsze z tych trzech, twierdzenie odnosi się do transpozycji i powiada, że transpozycja prawdziwego okresu warunkowego jest zawsze prawdziwa. Zatem możemy uznać, że schemat opisujący wynikanie oparte na transpozycji stanowi niezawodny schemat wnioskowania:
jeżeli p, to q
------------------------------------------
zatem: zatem jeżeli nie q, to nie p
W języku symbolicznym rachunku zdań zapiszemy to w postaci następującej formuły:
(p ® q) ® (~q ® ~p) prawo transpozycji zwykłej
Ostatnią formułę nazywa się w rachunku zdań prawem transpozycji zwykłej.
Zgodnie z tym prawem powiemy, że jeżeli z jakiegoś zdania A wynika jakieś inne zdanie B, to z zaprzeczenia tegoż zdania B wynika zaprzeczenie zdania A.
Nie trudno zauważyć, że podwójna transpozycja, czyli transpozycja transpozycji okresu warunkowego jest również prawdziwa:
(~q ® ~p) ® (~~p ® ~~q).
Ponieważ podwójne zaprzeczenia znoszą się ~~p p, przeto uzyskujemy w efekcie:
(~q ® ~p) ® (p ® q).
W ten sposób udowodniliśmy, że pomiędzy okresem warunkowym i jego transpozycją zachodzi wzajemne wynikanie. Skoro tak, to można uznać, że transpozycja danego okresu warunkowego jest równoważna temu okresowi. Najczęściej regułę transpozycji wypowiada się tak: okres warunkowy i jego transpozycja są sobie równoważne. Nic teraz nie stoi na przeszkodzie, byśmy prawo transpozycji oznaczyli funktorem równoważności:
(p ® q) (~ q ® ~p) prawo transpozycji zwykłej
Przedstawione prawa wynikające ze stosunku wynikania – to oczywiście tylko drobna część praw rachunku zdań, zwanych tautologiami. Są to jednakowoż najbardziej elementarne prawa, a przeto bardzo ważne. Niżej pokażemy jeszcze kilka praw wynikających ze stosunku wykluczania i stosunku dopełniania się zdań, które już wcześniej zostały omówione (omawiamy je dopiero teraz, po omówieniu stosunku wynikania, bo prawa związane z tymi zdaniami, które chcemy tu przedstawić, uwzględniają również stosunek wynikania). Pamiętamy, że te stosunki dotyczą zdań alternatywnych dysjunktywnych.
2.7. Prawa wynikające ze stosunku wykluczania i dopełniania się zdań alternatywnych i dysjunktywnych
Pamiętamy, że zdanie alternatywne jest fałszywe tylko w jednym przypadku, a mianowicie wtedy, gdy oba jego człony są fałszywe. We wszystkich pozostałych przypadkach jest prawdziwe. I na tym właśnie opiera się podstawowe twierdzenie dotyczące zdań alternatywnych:
Jeżeli zdanie alternatywne jest prawdziwe i jeden z jego członów jest fałszywy, to drugi jego człon musi być prawdziwy.
Ujmuje to poniższy schemat:
p lub q
i nie q
------------------
zatem: p
W języku symbolicznym rachunku zdań powyższy schemat wyrazimy w postaci następującej formuły:
{(p q) ~q} ® p modus tollendo ponens
Tej formule nadano łacińską nazwę modus tollendo ponens (dosł.: sposób przez obalenie uznający).
Następne prawo uzyskamy rozpatrując zdanie dysjunktywne. O zdaniu dysjunktywnym wiemy, że jest ono fałszywe tylko w jednym przypadku, a mianowicie tylko wtedy, gdy oba jego człony są prawdziwe. We wszystkich pozostałych przypadkach jest prawdziwe. Z tych ustaleń wynika następujące twierdzenie:
Jeżeli zdanie dysjunktywne jest prawdziwe i jeden z jego członów jest prawdziwy, to drugi człon musi być fałszywy.
{(p q) q} ® ~p modus ponendo tollens
Formułę, ilustrującą powyższe twierdzenie nazwano modus ponendo tollens (dosł.: sposób przez uznanie obalający).
Dysjunkcję (p q) zwykle zastępuje się równoważną jej alternatywą (~p ~q), prawo ponendo tollens zapisuje się najczęściej w postaci formuły:
{(~p ~q) q} ® ~p modus ponendo tollens
W związku z ostatnimi twierdzeniami pozostają dwa następne. Pierwsze z nich dotyczy alternatywy, drugie - dysjunkcji:
Jeżeli alternatywa jest prawdziwa, to z negacji jednego z jej członów wynika drugi człon. Jeżeli dysjunkcja jest prawdziwa, to z jednego z jej członów wynika negacja drugiego.
Podane twierdzenia obrazują niżej przedstawione schematy:
p lub q
-------------------------------
zatem: jeżeli nie-p, to q
oraz:
jedno z dwojga p albo q
------------------------------
zatem: jeżeli p, to nie-q
W symbolice rachunku zdań powyższe schematy przyjmują postać następujących formuł zdaniowych:
(p q) ® (~p ® q) Prawo zastępowania alternatywy
(p q) ® (p ® ~q) Prawo zastępowania dysjunkcji
Prawa reprezentowane przez te schematy przyjęto nazywać w rachunku zdań prawami zastępowania alternatywy i dysjunkcji.
Drugie z tych praw może otrzymać również taką postać:
(~p ~q) ® (p ® ~q)
Następne prawa otrzymuje się przez zaprzeczenie alternatywy i koniunkcji.
Zaprzeczenie alternatywy zdań jest równoważne koniunkcji tych samych zdań, ale zaprzeczonych. Zaprzeczenie koniunkcji zdań jest równoważne alternatywie tych samych zdań, ale zaprzeczonych.
~(p q) (~p ~q) Prawo de Morgana dla alternatywy
~(p q) (~p ~q) Prawo de Morgana dla koniunkcji
Powyższe prawa nazwano prawami De Morgana, odpowiednio, dla alternatywy i koniunkcji.
W niedalekiej przyszłości poznamy jeszcze inne, bardziej złożone formuły rachunku zdań. Na razie niech nam wystarczą te przedstawione jako najbardziej elementarne.
Na koniec naszych rozważań na temat podstawowych praw rachunku zdań, które wynikają z reguł rządzących związkiem wynikania logicznego i pozostałymi związkami logicznymi międzyzdaniowymi, przedstawimy bardzo ciekawy przykład wnioskowania opartego na omówionych stosunkach międzyzdaniowych, często goszczący w podręcznikach logiki. Przedstawimy mianowicie dylemat, przed jakim stanął kalif Omar na widok słynnej biblioteki aleksandryjskiej, zanim ją spalił. Przebieg rozumowania kalifa można ująć w poniżej przedstawionych schematach:
Jeżeli księgi zgodne są z Koranem, to księgi są zbyteczne
Jeżeli księgi nie są zgodne z Koranem, to księgi są szkodliwe
Ale: księgi są zgodne z Koranem albo księgi nie są zgodne z Koranem.
-------------------------------------------------------------------------------------------
Wniosek: księgi są zbyteczne albo szkodliwe.
Ustaliwszy to, kalif rozumował dalej:
Jeżeli księgi są zbyteczne, to te księgi należy spalić.
Jeżeli księgi są szkodliwe, to te księgi należy spalić.
Ale: księgi są zbyteczne albo księgi są szkodliwe.
-----------------------------------------------------------------------
Wniosek: księgi należy spalić.
W efekcie kalif rozkazał spalić bibliotekę. Był to jeden z pierwszych przypadków wykorzystania praw logiki w praktyce życia codziennego. Historia, i to niezbyt odległa, uczy, że wielu możnych tego świata poszło tropem kalifa Omara.
Przy okazji pokażemy sobie błąd, który popełnił kafif Omar (z tej legendy), a który i nam równie często się przytrafia, a jeszcze częściej możnym tego świata, takim jak kalif. A że skutki tego błędu bywają równie tragiczne, jak w przypadku kalifa Omara, to bacznie się jemu przypatrzmy. Przyjrzyjmy się pierwszemu schematowi rozumowania kalifa. Nieszczęsny kalif nie pomyślał, że Grecy aleksandryjscy mogliby dokładnie tak samo pomyśleć o Koranie. Pomijając inne kwestie, zwrócimy uwagę na jeden poważny błąd, który popełnił kalif Omar (z naszej legendy). Pytanie: na jakiej podstawie uznał kalif zgodność z Koranem (tzn. z ideami głoszonymi przez Koran) za kryterium prawdziwości, a efekcie – za kryterium pożyteczności i szkodliwości, które może być stosowane do oceny idei żywych i uznanych w innych kulturach (rozumowanie to działa również w drugą stronę)? Otóż nie ma takiego kryterium, które pozwoliłoby w sposób absolutny ocenić prawdziwość różnych idei, zwłaszcza idei religijnych. Kalif uznał prawdziwość idei głoszonych przez Koran, opierając się najprawdopodobniej na autorytecie tych, od których je przejął. Autorytet jednak nie może być traktowany jako dostateczna i wystarczająca racja uznania prawdziwości jakiejkolwiek tezy. Tym bardziej twierdzeń i idei z kręgu jakiejś jednej ideologii religijnej czy politycznej, opartych na autorytecie, nie można traktować jako kryterium prawdy (szkodliwości itd.) względem twierdzeń i idei z kręgu innych ideologii religijnych czy politycznych. Mogą owe twierdzenia i idee, oparte na autorytecie, służyć wyłącznie jako wewnętrzne kryterium względem innych tez tego samemu systemu, np. sytemu religijnego czy politycznego. Innymi słowy mówiąc nie ma absolutnych kryteriów ponad systemowych. Na autorytecie opierają się bardzo różne idee religijne, polityczne i im podobne pseudonaukowe dowolne twierdzenia. Jako takie, tzn. uznane za prawdziwe na zasadzie autorytetu nauczycieli i wychowawców, nawet najmądrzejszych, nie mogą być traktowane jako kryterium prawdziwości idei należących do innych systemów. Wbrew temu kalif Omar uznał nauki Koranu za absolutne wszech-kryterium wszelkich innych nauk głoszonych przez księgi biblioteki aleksandryjskiej, należącej do kręgu kultury greckiej. Co do drugiego schematu, niech starczy nam to jedno stwierdzenie na obalenie wniosku wyciągniętego przez kalifa: książki należy czytać, a nie palić.
Do tego i innych błędów, jakie popełniamy w naszych rozumowaniach (świadomie i nieświadomie), jeszcze wrócimy w swoim czasie. Tymczasem jednak powróćmy do naszych schematów, bo tak naprawdę, to chodzi nam wyłącznie pokazanie różnych formuł praw rachunku zdań.
Oznaczając zdania następującymi literami:
p - księgi są zgodne z Koranem,
q - księgi są zbyteczne ,
r - księgi są szkodliwe,
s - księgi należy spalić.
Oba schematów możemy zapisać w symbolice rachunku zdań następująco:
I schemat:
{(p ® q) (~p ® r) (p / ~p)}® (q v r)
Gdy za (p/~p) podstawimy równoważną jej alternatywę (~p p),
bo: (p / ~p) (~p ~~p) (~p p) ,
otrzymamy:
{(p ® q) (~p ® r) (~p p)}® (q v r) dylemat konstrukcyjny złożony
W rachunku zdań powyższa formuła – to prawo dylematu konstrukcyjnego złożonego.
II schemat:
{(q®s) (r ® s) (q r) }® s dylemat konstrukcyjny prosty
Formuła nazywa się prawem dylematu konstrukcyjnego prostego
Teraz przejdziemy do innych zagadnień związanych rachunkiem zdań. W pierwszej kolejności zapoznamy się z metodą zerojedynkową, która jest najczęściej wykorzystywanym narzędziem dowodzenia prawdziwości formuł zdaniowych. Potem zaprezentujemy wykaz najważniejszych praw rachunku zdań.
3. Prawa (tautologie) rachunku zdań. Metoda zerojedynkowa
W języku rachunku zdań – to jest przy pomocy znanych już nam zmiennych zdaniowych (p, q, r, s,) oraz stałych (~, ®, , , ) i nawiasów – można sformułować schemat dowolnego zdania złożonego, zarówno należącego do języka codziennego i naukowego. Wystarczy zastąpić zdania proste zmiennymi zdaniowymi (p, q, r, s,..,), a spójniki zdaniowe języka naturalnego zastąpić ich symbolicznymi odpowiednikami, czyli funktorami (~, ®, , , ). Uzyskane w ten sposób schematy zdaniowe można podzielić na trzy grupy:
1) schematy, które reprezentują wyłącznie zdania prawdziwe;
2) schematy, które reprezentują wyłącznie zdania fałszywe;
3) schematy, które reprezentują zarówno zdania prawdziwe, jak i fałszywe.
Schematy z pierwszej grupy reprezentują zawsze zdania prawdziwe, niezależnie od wartości pojedynczych zdań, z których są zbudowane, tzn. przy wszystkich kombinacjach wartości logicznych (prawdy i fałszu) tych zdań. Takie schematy nazwamy tautologiami rachunku zdań.
Schematy drugiej grupy, z tej racji, że zawsze reprezentują zdania fałszywe, nazywane są czasami kontr-tautologiami.
Dodajmy jeszcze, że schematy grupy drugiej i trzeciej nie powinny stanowić wzoru naszego rozumowania, jeśli ma być ono poprawne, tzn. gdy oczekujemy od niego prawdziwych wniosków.
Pamiętamy, że z formuł, które do tej pory poznaliśmy, większość (a ściślej te, które uznaliśmy za prawa rachunku zdań) należy do pierwszej grupy. Tylko nieliczne znalazły się w grupie trzeciej.
Wszystkie formuły rachunku zdań mają postać schematów zdaniowych, w których zdania proste są reprezentowane przez symbole literowe, a zdania złożone – przez układy tych symboli połączonych stosownymi funktorami zdaniowymi. Takie formuły rachunku zdań są to tylko wzory pozbawione własnej treści materialnej, dlatego trudno nazwać je zdaniami. Stanowią jedynie schemat, czyli swego rodzaju kościec, na który można niejako nawlec zdanie „materialne”, przy czym na jeden i ten sam schemat można „nawlec” zdania o przeróżnej treści, z różnych dziedzin. Jeśli taki schemat jest prawdziwy, tzn. jest tautologią, a jakieś zdanie pozwala się zapisać w postaci tej formuły, to znaczy, że jest ono prawdziwe.
Formuła rachunku zdań może być uznana za tautologię wtedy i tylko wtedy, gdy przedstawia sobą schemat zdań wyłącznie prawdziwych.
Wartość logiczna zdania złożonego, zbudowanego ze zdań prostych za pomocą funktorów oraz zmiennych zdaniowych, zależy wyłącznie od wartości logicznych tych zdań i rodzaju spójników, które je łączą. Wartość logiczną (prawdę albo fałsz) takich zdań złożonych możemy ustalić, zaglądając do matryc (implikacji, alternatywy, koniunkcji i pozostałych formuł). Za pomocą tych tabel możemy ustalić, czy dany schemat prawdziwościowy jest czy nie jest tautologią logiczną rachunku zdań. Trzeba sprawdzić, czy zdania reprezentowane przez dany schemat są zawsze prawdziwe, niezależnie od kombinacji wartości logicznych zdań prostych (reprezentowanych w tym schemacie przez zmienne zdaniowe), z których ten schemat jest zbudowany. Jeśli są, to dany schemat może być uznany za tautologię rachunku zdań.
Najprostszą z metod, które pozwalają ustalić, czy dana formuła zdaniowa jest tautologią rachunku zdań, jest metoda zerojedynkowa. Nazwa „zerojedynkowa” pochodzi stąd, że w schematach prawdziwościowych w miejsce zmiennych zdaniowych wstawia się cyfry 1 lub 0. 1 oznacza, że zdanie jest prawdziwe , 0 – zdanie fałszywe. Jest to najprostsza metoda sprawdzania formuł zdaniowych. Cała metoda sprowadza się do tego, by przez kolejne podstawianie za zmienne zdaniowe (p, q i pozostałe, jeśli jest ich więcej) cyfr 1 oraz 0, aż do wyczerpania wszystkich kombinacji, sprawdzić, czy dany schemat jest zawsze prawdziwy. Schemat jest wtedy prawdziwy, gdy daje w wyniku 1, we wszystkich kombinacjach cyfr 1 i 0, wstawianych za zmienne zdaniowe.
Z metodą zerojedynkową już się spotkaliśmy – matryce funkcji zdaniowych opisane są tą metodą. Dokładnie tak postępujemy z innymi formułami (schematami) zdaniowymi.
Jak metoda zerojedynkowa działa w praktyce rachunku zdań, pokażemy na przykładach.
Przykład I
Weźmy na początek prosty schemat: p ~p.
Schemat ten oddaje np. zdanie: „Warszawa jest europejską stolicą lub Warszawa nie jest europejską stolicą.”
Metodą zerojedynkową możemy sprawdzić, czy schemat (p ~p) jest tautologią.
Podstawiamy kolejno za p 1, a potem 0 i sprawdzamy, czy alternatywa (p ~p) w obu podstawieniach jest zdaniem prawdziwym.
a) p (p ~p)
p=1 1 ~1, ale ~1 0,
1 0
1
b) p = 0 (p ~p)
p = 0 0 ~0
0 1
1
Symbol prawdy „1” wskazuje, że powyższy schemat (p ~p) reprezentuje wyłącznie zdania prawdziwe, czyli jest tautologią.
Przykład II
Analogiczne rozumowanie przekona nas, że schemat p ~p reprezentuje schemat zdań wyłącznie fałszywych:
a) p = 1 p ~ p
p = 1 1 ~ 1
1 0
0
b) p= 0 p ~ p
0 ~ 0
0 1
0
Za każdym podstawieniem formuła (p ~ p) fałszywa.
Przykład III
Zbadajmy schemat (p ® ~p).
a) p=1 1 ® ~1
1 ® 0
0
b) p=0 0 ® ~0
0 ® 1
1
Zatem, jeśli na miejscu p znajdzie się zdanie fałszywe, to schemat jest prawdą. Jeśli na miejscu p znajdzie zdanie prawdziwe, schemat będzie fałszywy. Schemat nie może stanowić schematu naszego rozumowania, gdyż nie jest tautologią.
Gdy schemat zawiera dwie lub więcej zmiennych zdaniowych, jego sprawdzenie będzie wymagało zbadania większej liczby przypadków.
Przykład IV
Zbadajmy schemat: (p ® q) ® (q ~p)
a) p=1, q=1 (1 ® 1) ® (1 ~1)
1 ® (1 0)
1 ® 1
1
b) p=1 q =0 (1 ® 0) ® (0 ~1)
0 ® (0 0)
0 ® 0
1
c) p=0 q =0 (0 ® 0) ® (0 ~0)
1 ® (0 1)
1 ® 1
1
d) p=0 q =1 (0 ® 1) ®(1 ~0)
1 ® (1 1)
1 ® 1
1
Wykazaliśmy, że schemat (p ® q) ® (q ~p) jest schematem wyłącznie zdań prawdziwych. Jest przeto tautologią.
Przykład V
{p®(q r)}®{(p q) ® ~r}
a) p=1, q=1, r=0 {1®(1 0)}®{(1 1) ® ~0}
{1 ® 1 } ® { 1 ® 1 }
1 1
1
b) p=1, q=0, r=1 {1®(0 1)}®{(1 0) ® ~1}
{1 ® 1 } ®{ 0 ® 0 }
1 ® 1
1
c) p=0, q=1, r=1 {0®(1 1)}®{(0 1) ® ~1}
{1 ® 1 } ®{ 0 ® 0 }
1 ® 1
1
d) p=1, q=1, r=1 {1®(1 1)}®{(1 1) ® ~1}
{1 ® 1 } ®{ 1 ® 0 }
1 ® 0
0
Zatem badana formuła nie jest tautologią.
Procedurę badawczą możemy wydatnie skrócić, jeżeli wykorzystamy istotne właściwości implikacji. Wiemy, że implikacja może być fałszywa tylko w jednym przypadku, a mianowicie wtedy, gdy następnik jest fałszywy (ma wartość 0), a poprzednik prawdziwy (ma wartość 1). Wystarczy tedy w badaniu uwzględnić tylko te podstawienia (kombinacje 1 i 0), dla których następnik okazuje się fałszywy (0). Ponadto możemy z procedury badawczej wyeliminować te podstawienia, przy których następnik przyjmuje wartość 1, bo zgodnie z matrycą implikacji jej poprzednik może przyjmować dowolne wartości, a implikacja i tak będzie mieć w sumie wartość 1. Ten krok zazwyczaj stawiamy na początku procedury badawczej. Wiedząc o tym sprawdźmy następny schemat.
Przykład VI
{(p~q)®~r}®{(pq)®r}
Formuła jest implikacją, czyli zredukuje się do 0 przy każdym podstawieniu, przy którym następnik {(pq)®r} przyjmuje wartość 0, a poprzednik {(p~q)®~r} ma wartość 1. Z kolei tenże następnik, który sam jest implikacją, przyjmuje wartość 0, gdy jego następnik „r” przyjmuje wartość 0, poprzednik (pq) – wartość 1. Zatem pozostanie nam zbadać przypadek, gdy r=0, p=1, q=1, bo wtedy następnik naszej formuły zredukuje się do 0. Zobaczmy wobec tego, co przy tych podstawieniach stanie się z poprzednikiem:
p=1, q=1, r=0 (p ~q)® ~r
(1 ~1) ® ~0
(1 0) ® 1
0 ® 1
1
Okazało się, że poprzednik ma wartość 1, gdy następnik 0. Więc badana formuła nie jest tautologią.
Przykład VII
{p ® (q r)}®{q ® (p r)}
Sprawdzimy, czy ten schemat jest tautologią.
Schemat jest implikacją, a więc jest fałszywy tylko wtedy, gdy poprzednik redukuje się do 1, a następnik do 0. Zobaczmy, czy i kiedy zachodzi taki przypadek?
Następnik {q ® (p r)} również okazał się implikacją, a więc redukuje się do 0 tylko wtedy, gdy jego poprzednik q=1, a jego następnik (p r) = 0. Z kolei (p r) = 0 w trzech kombinacjach p i r, a mianowicie wtedy, gdy: p=0, r=0; p=0, r=1; p=1, r=0. Uzyskaliśmy z trzy kombinacje, przy których następnik {q ® (p r)} naszej formuły redukuje się do 0:
p=1, q=1, r=0; p=0, q=1, r=1; p=0, q=1, r=0.
Zobaczmy zatem, jak przy tych podstawieniach zachowuje się poprzednik całego okresu {p ® (q r)}. Musimy sprawdzić, czy dla tych podstawień przyjmuje wartość 1, która redukuje cały okres do 0.
a) p=1, q=1, r=0 p ® (q r)
1 ® (1 0)
1 ® 0
0
b) p=0, q=1, r=1 p ® (q r) c)
0 ® (1 1)
0 ® 1
1
c) p=0, q=1, r=0 p ® (q r)
0 ® (1 0)
0 ® 0
1
W przypadku b) oraz c) poprzednik uzyskuje wartość 1, dla której następnik okresu ma redukuje się do 0. W tych przypadkach cała formuła również redukuje się do 0. Nie jest ona tautologią.
Przykład VIII
(p q) ® (~p ® q)
Schemat jest implikacją. Wystarczy wyszukać podstawienia, dla których jej następnik (~p ® q) redukuje się do 0, a następnie sprawdzić, czy dla tych samych podstawień poprzednik (p q) przyjmuje wartość 1.
(~p ® q) również jest implikacją. Ma wartość 0 tylko wtedy, gdy q=0 a ~p=1, a zatem dla kombinacji p=0 oraz q=0. Zobaczmy, jak w tych podstawieniach zachowuje się poprzednik okresu (p q). Alternatywa (0 0) = 0. Zatem cała formuła jest tautologią.
Ponieważ schemat z ostatniego przykładu jest prosty, można go stosunkowo szybko zbadać podstawiając wszystkie kombinacje „p” i „q”. Wynik byłby ten sam.
Przykład IX
{p ® (p q)}® {(p q) ® p}
Znowu jest to formuła implikacyjna, która redukuje się do 0 tylko wtedy, gdy jej poprzednik ma wartość 1, a następnik – 0. Więc zobaczmy, kiedy następnik {(p q) ® p} redukuje się do 0. On też ma schemat implikacji, a więc zredukuje się do 0 tylko wtedy, gdy jego następnik p=0, a poprzednik (p q) = 1. Zgodnie z matrycą alternatywy, skoro p=0, to q=1. Zatem gdy p=0 i q=1 następnik naszej formuły redukuje się do 0. Sprawdźmy, co wtedy dzieje się z poprzednikiem naszego okresu. Łatwo sprawdzić, że gdy p=0 i q=1, poprzednik {p ® (p q)} przyjmuje wartość 1, co oznacza, że nasza formuła nie jest tautologią, bo 1 nie może implikować 0!
Przykład X
{(p q) ® r} ® {(p ~q) ® ~r}
Rozumując podobnie, jak poprzednio, sprawdzamy, kiedy schemat nie mógłby stanowić tautologią. Ponieważ jest to formuła implikacyjna, musimy znaleźć podstawienia, dla których następnik jest 0. Łatwo zauważymy, że {(p ~q) ® ~r} redukuje się do 0 tylko wtedy, gdy: ~r=0, czyli gdy r=1, a (p ~q) = 1. Z kolei (p ~q) = 1 wyłącznie wtedy, gdy (zgodnie z tablicą koniunkcji) p=1 oraz ~q=1, czyli gdy p=1 a q=0. Uzyskaliśmy zatem tylko jedną kombinację kombinacje, przy których następnik naszej formuły redukuje się do 0, a mianowicie: p=1, q=0, r=1. Zbadajmy wobec tego, jak przy tych podstawieniach zachowuje się poprzednik, który stanowi również formułę implikacyjną {(p q) ® r}. Dla r=1, q=0 i p=1 ta formuła redukuje się do 1: (1 0) = 0, a (0 ® 1) = 1. Więc cała formuła nie może być tautologią, bo 1 nie implikuje 0.
Przypomnijmy jeszcze, że formuły, które nie są tautologiami, nie powinny służyć za schemat wnioskowania, bo mogą prowadzić do fałszywych wniosków. Warto zapamiętać, że formuły zdaniowe, które nie są tautologiami, mogą prowadzić do fałszywych wniosków, ale szczególnych przypadkach mogą funkcjonować poprawnie we wnioskowaniu. Nie są one bowiem kontrtautologiami. Kontrtautologie – to schematy, które zawsze, tzn. przy wszystkich kombinacjach podstawień za zmienne zdaniowe wartości 1 i 0, dają wynik negatywny, czyli redukują się do wartości 0, gdy pozostałe formuły nie-tautologiczne mogą czasami, to jest przy niektórych kombinacjach 1 i 0, dawać wynik pozytywny, czyli redukować się do wartości 1.
Zróbmy teraz inne zadanie, a mianowicie spróbujmy sprawdzić, czy dane rozumowanie można rozpisać w schemat prawdziwościowy, a przy okazji przypomnimy sobie praktycznie, jak to się robi.
Spróbujmy dla przykładu napisać formułę dla następującego rozumowania i sprawdzić, czy jest ona tautologią:
„Jeśli zostaniesz oskarżony o popełnienie zbrodni i zbrodnia zostanie udowodniona, to zostaniesz skazany, to gdy zostaniesz oskarżony o popełnienie zbrodni a zbrodnia nie zostanie udowodniona, to nie zostaniesz skazany.”
Rozbijmy wpierw cały okres warunkowy na zdania proste, a potem zróbmy schemat rozumowania, jakie jest w nim realizowane:
p – zostaniesz oskarżony o popełnienie zbrodni
q – zbrodnia zostanie udowodniona
r – zostaniesz skazany
Schemat rozumowania jest taki:
{jeśli (p i q), to r}, to {jeśli (p i nie-q), to nie-r}
W formie symbolicznej przyjmuje więc kształt następującej formuły:
{(p q) ® r } ® {(p ~q) ® ~r}
Coś nam to przypomina. Otrzymaliśmy schemat z naszego ostatniego przykładu. A przecież udowodniliśmy, że nie jest on schematem niezawodnym. Nie jest to wprawdzie tautologia, ale nie jest też kontr-tautologia, bo są przypadki, w których ten schemat prowadzi do prawdziwego wniosku, ale są też takie, że – nie. W przykładzie udowodniliśmy, że przy podstawieniach p=1, q=0, r=1, formuła dała wynik negatywny – bezsprzecznie nie jest tautologią. W naszym przypadku mamy jednak inną kombinację podstawień, a mianowicie: p=1, q=1, r=1, a dla tych podstawień, jak łatwo wykazać, formuła daje wynik pozytywny:
{1 1) ® 1 } ® {(1 ~1) ® ~1}
( 1 ® 1) ® ( 0 ® 0
1 ® 1
1
Wypada nam jednak w tym miejscu dodać (a właściwie powtórzyć, ale warto, bo rzecz jest rzeczywiście niezmiernie ważna, wszak chodzi tu o poprawność naszego myślenia) bardzo ważną uwagę: pomimo tego, że w naszym konkretnym przypadku formuła dała wynik pozytywny, czyli wnioskowanie, którego schemat ona przedstawia, jest prawidłowe i wniosek można uznać za prawdę, to jednak nie można traktować tej formuły, a tym bardziej polecać, jako prawa rachunku zdań, jako niezawodnego schematu rozumowania, z tej racji, że nie jest ona jednak tautologią.
4. Aksjomatyczna postać rachunku zdań.
Wybrane prawa rachunku zdań
Prawa rachunku zdań mogą być ujmowane w rozmaite systemy aksjomatyczne, zależne od wyboru aksjomatów i reguł wnioskowania. Wszystkie te systemy budowane są w oparciu o jedną metodę, którą można opisać mniej więcej w następujący sposób:
Pierwszy etap budowy systemu polega na zebraniu pewnej (różnej w różnych systemach) ilości pierwotnych terminów, aksjomatów i definicji. Zwykle na początku obiera się pewne spójniki (funktory zdaniotwórcze) jako terminy pierwotne. Następnie za pomocą tych spójników, oraz symboli literowych, reprezentujących zmienne zdaniowe, a dalej znaków przestankowych i kwantyfikatorów formułuje się pewne twierdzenia wyjściowe, czyli aksjomaty, na których będzie opierał się cały system.
W drugim kroku, na zasadzie definiowania, bez dowodów, wprowadza się do systemu inne potrzebne spójniki, poza tymi przyjętymi jako terminy pierwotne i niezdefiniowane. Nowe spójniki definiuje się za pomocą spójników przyjętych jako terminy pierwotne. Takie definicje mają formę dwuczłonowych zdań równoważnościowych, których pierwszy człon stanowi właśnie definiowany spójnik, a drugi przedstawia równoważnik definiowanego spójnika, wyrażony za pomocą spójników pierwotnych. Definicje można traktować jako matryce definiowanych spójników.
Następny etap polega na wyprowadzeniu z przyjętych aksjomatów twierdzeń uznawanych w danym systemie rachunku zdań za prawa tegoż rachunku. Twierdzenia wyprowadza się w oparciu o pewne reguły. Zwykle korzysta się z trzech reguł: reguły podstawiania, reguły zastępowania definicyjnego i z reguły odrywania.
Systemów rachunków zdań, jak powiedziano, jest wiele. W naszym wykładzie przedstawimy system zbudowany przez Jana Łukasiewicza, wybitnego polskiego logika. W swojej pierwotnej postaci system ten został opracowany jeszcze w końcu XIX wieku przez Gottloba Fregego, wybitnego matematyka i logika z Wrocławia. System ten uprościł i udoskonalił Jan Łukasiewicz po pierwszej wojnie światowej.
Aksjomatyczny rachunek zdań Łukasiewicza – to system implikacyjno-negacyjny. Swoją nazwę ten system zawdzięcza temu, że za pierwotne i niedefiniowalne terminy przyjęte tu zostały funktory (spójniki) implikacji i negacji. Następnie ustalono trzy aksjomaty jako fundamentalne tezy wyjściowe systemu. Te aksjomaty zawierają jako stałe pierwotne symbole implikacji i negacji.
Aksjomat 1: (p ® q) ® {(q ® r) ® (p ® r)};
Aksjomat 2: (~p ® p) ® p;
Aksjomat 3: p ®(~p ® q).
Pierwszy z tych aksjomatów jest to tzw. sylogizm hipotetyczny. Drugi stanowi zmodyfikowaną postać prawa redukcji do absurdu. Trzeci – to tzw. charakterystyka fałszu.
Przyjęte aksjomaty stanowią, jak powiedziano, wyjściowe twierdzenia sytemu. Z nich, mocą podanych reguł, zostaną wywiedzione następne twierdzenia, a z tych jeszcze dalsze.
Obok aksjomatów i terminów pierwotnych (implikacji i negacji), w systemie Łukasiewicza znajdują się cztery definicje, za pomocą których wprowadzono do niego spójniki alternatywy, koniunkcji, dysjunkcji i równoważności:
Definicja 1. (p q) ( ~p ® q);
df
Definicja 2. (p q) ~(p ® ~q);
df
Definicja 3. (p / q) (p ® ~q);
df
Definicja 4. (p q) (p ® q) (q ® p) .
df
Podane cztery definicje można traktować jako opisy matryc definiowanych funkcji zdaniowych. Matryce każdej definiowanej funkcji, znajdującej się po lewej stronie znaku definicji, uzyskamy z matrycy implikacji dla odpowiednich podstawień opisanych po prawej stronie znaku definicji.
Ponadto definicje podają niejako intuicyjne znaczenia kolejnych funkcji. I tak definicja pierwsza ustala, że funkcji, którą opisuje wyrażenie (p q), zachowuje się w zdaniach dokładnie tak, jak implikacja (p ® ~q) i dokładnie to samo znaczy. Podobnie definicja druga i trzecia – w odniesieniu do definiowanych funkcji. Jedynie definicja równoważności, z racji swoje dość złożonej budowy, wydaje się mało intuicyjna, ale i ona w gruncie rzeczy ma charakter intuicyjny i nie mówi nic więcej ponad to, że jeśli dwa zdania są sobie równoważne, to pierwsze musi wypływać z drugiego, a drugie – z pierwszego.
Następnym i niezmiernie ważnym elementem każdego systemu są reguły, które opisują, w jaki sposób z danych aksjomatów można wywodzić i uznawać dalsze twierdzenia rachunku zdań. W systemie Łukasiewicza występują trzy reguły: podstawiania, zastępowania i odrywania.
Reguła podstawiania polega podstawieniu za symbole zmiennych zdaniowych (reprezentujących w tym rachunku zdania) innych, sensownych zmiennych, a nawet całych funkcji zdaniowych. Oczywiście zmienna, za którą podstawiane jest inne wyrażenie, musi być w danej formule zamieniona przez to wyrażenie wszędzie, gdzie tylko występuje. Dzięki tej operacji otrzymujemy nowe twierdzenie, które również jest tautologią, gdyż jest w istocie tylko interpretacją aksjomatu czy tezy, z której ono zostało wywiedzione na zasadzie podstawiania.
Druga reguła, a mianowicie zastępowania definicyjnego pozwala na zastąpienie, w każdej tezie rachunku zdań, jakiegokolwiek wyrażenia o budowie definiensa (członu definiującego w definicji) którejś z definicji przez definiendum (człon definiowany w definicji) tejże definicji, i na odwrót. Definiens i definiendum konkretnej definicji mogą być zastępowane dowoli w każdej tezie rachunku zdań. Chodzi tu oczywiście o człony czterech definicji. Jeśli w jakiejś tezie znajdzie jeden człon którejś definicji, to można go zastąpić przez równoważny mu człon definicji (czyli znajdujący się w definicji po przeciwległej stronie).
Trzecia reguła, reguła odrywania, pozwala, by w danej tautologii implikacyjnej (tzn. mającej budowę zdania implikacyjnego) oderwać następnik implikacji, pod warunkiem, że poprzednik tej implikacji również jest tautologią rachunku zdań. W gruncie rzeczy odrywamy od większej tautologii tautologię mniejszą, którą jest poprzednik implikacji. Na przykład z tautologii (P ® Q), jeśli P jest również tautologią, odrywamy Q i traktujemy to Q jako nową zupełnie tautologię. I jeśli to Q ma również postać tautologii implikacyjnej, której poprzednik jest tautologią, to odrywanie następnika można powtórzyć. Na przykład z następującego wyrażenia, które jest prawem rachunku zdań:
{(p q) ® (~p ® q)} ® {~ (p q) (~p ® q)}
można oderwać następnik, ponieważ jego poprzednik, tzn. {(p q) ® (~p ® q)} jest również tautologią. Oderwany następnik {~ (p q) (~p ® q)} traktujemy oczywiście jako nowe prawo rachunku zdań.
Stosując te trzy reguły, przekształca się aksjomaty rachunku zdań w twierdzenia, które, z tej racji, że są wywiedzione z tych aksjomatów, mają walor prawa rachunku zdań. Inaczej mówiąc: są to tautologie rachunku zdań danego systemu.
Wybrane prawa rachunku zdań
Teraz podany zostanie wykaz wybranych praw rachunku zdań, czyli tautologii logicznych rachunku zdań. Takich praw, czyli formuł, które stanowią niezawodne schematy wnioskowania, jest bardzo dużo. Można nawet powiedzieć, że nieskończenie dużo, bo jedne wywodzą się z drugich. My jednak podamy tylko te najważniejsze, a zarazem te, które najczęściej wykorzystujemy, chociaż nie zawsze świadomie. Powiedzmy sobie wprost: najczęściej – nieświadomie, i jest to zupełnie zrozumiałe, bo celem logiki nie jest wymyślanie i ustanawianie nieistniejących prawideł myślenia, lecz opisywanie i objaśnianie naturalnych niejako praw ludzkiego myślenia. Ucząc się ich, a zwłaszcza analizując nasze wykroczenia myślowe przeciwko nim, usprawniamy nasze naturalne zdolności. Stajemy się tym samym się sprawniejsi intelektualne, a zarazem uwrażliwiamy się logicznie, wyostrzając naszą uwagę na własne i cudze błędy (którym zresztą poświęcimy stosowne miejsce w naszych wykładach).
Spośród podanych poniżej tautologii, sporą część już poznaliśmy i przeanalizowaliśmy, a nawet znamy ich nazwy. Niemniej dla pełności wykazu umieścimy je również w naszym wykazie.
p ® p prawo tożsamości
~ (p ~p) prawo sprzeczności
p ~p prawo wyłączonego środka
~ ~p ® p prawo podwójnej negacji
p ® (~ p ® p) prawo Dunsa Szkota
(p ® ~ p) ® ~p prawo redukcji do absurdu
{(p ® q) (p ® ~q)} ® ~ p drugie prawo redukcji do absurdu
(p q) (q p) prawo przemienienia koniunkcji
(p q) (q p) prawo przemienienia alternatywy
(p ® q) ® (~q ® ~p) prawo transpozycji zwykłej
(p q) (~p ® q) prawo zastępowania alternatywy
(p q) ~(~p ~q) prawo zastępowania alternatywy
(p q) ~(~p ~q) prawo zastępowania koniunkcji
(p q) ~(p ® ~q) prawo zastępowania koniunkcji
(p ® q) (~p q) prawo zastępowania implikacji
(p ® q) (p ~q) prawo zastępowania implikacji
(p q) {(p® q) (q ® p)} prawo zastępowania równoważności
~(p q) {~(p® q) ~(q ® p)} prawo zaprzeczania równoważności
~(p q) {(p ~q) (q ~p)} prawo zaprzeczania równoważności
(p q) ® (p ® ~q) prawo zastępowania dysjunkcji
~(p q) (~p ~q) prawo de Morgana dla alternatywy
~(p q) (~p ~q) prawo de Morgana dla koniunkcji
{(p ® q) p} ® q modus ponendo ponens
{(p ® q) ~q} ® ~p modus tollendo tollens
{(p q) ~q} ® p modus tollendo ponens
{(p q) q} ® ~p modus ponendo tollens
{(p ® (q ® r)} {(q ® (p ® r)} prawo komutacji
{(p q) ® r} {p ® (q ® r)} prawo eksportacji i imporatacji
{p (p r)} {(p q) (p r)} prawo rozdzielności koniunkcji
względem alternatywy
{p (p r)} {(p q) (p r)} prawo rozdzielności alternatywy
względem koniunkcji
{(p ® q) (p ® r)} {(p® (q ® r)} prawo mnożenia następników
{(p® (q ® r)} ® {(p ® q) ® (p ®r)} prawo sylogizmu Fregego
{(p® q) (q ® r)} ® (p ® r) prawo sylogizmu hipotecznego
{(p® r) (q ® r) (p q) }® r dylemat konstrukcyjny
{(p ® q) (p ® r) (~q ~r)}® ~r dylemat destrukcyjny
IX Tradycyjna logika formalna. Rachunek nazw
1. Formy wnioskowania bezpośredniego
1.1. Klasyczne zdania kategoryczne
Drugi dział logiki formalnej – to rachunek nazw (inaczej: teoria, albo wprost logika nazw). Rachunek nazw cechuje się tym, że jego wzory zawierają wyłącznie zmienne nazwowe. Logika europejska, u swego zarania w starożytnej Grecji, zaczęła swój naukowy żywot właśnie od rachunku nazw. Przedstawimy go teraz i to w jego szacownej, historycznej wersji, w jakiej funkcjonował na europejskich uniwersytetach jeszcze do niedawna, i w jakiej nadal jest wykładany, choć jego znaczenie już nieco zmalało. Współczesny rachunek nazw przybrał postać rachunku kwantyfikatorów. Przedstawimy go również, ale trochę później. Tymczasem zajmiemy się jego tradycyjną postacią.
Tradycyjna logika formalna, bo tak właśnie przyjęło się nazywać rachunek nazw w jego tradycyjnym kształcie, bada relacje logiczne, jakie zachodzą między klasycznymi zdaniami kategorycznymi i na tej podstawie formułuje wzorce oraz reguły wnioskowania bezpośredniego oraz pośredniego. Filozofem, któremu logika tradycyjna zawdzięcza najwięcej, był Arystoteles.
Tradycyjna logika zajmuje się klasycznymi zdaniami kategorycznymi, które już poznaliśmy przy okazji omawiania różnych rodzajów zdań prostych. Przypomnijmy, że są to zdania oparte na jednym z czterech schematów:
1. S a P – zdania ogólno-twierdzące (czyt.: każde S jest P),
2. S i P – zdania szczegółowo-twierdzące (czyt.: niektóre S jest P),
3. S e P – zdania ogólno-przeczące (czyt.: żadne S nie jest P),
4. S o P – zdania szczegółowo-przeczące (czyt.: niektóre S nie są P).
Warto wiedzieć, że zastosowane tu symbole pochodzą od stosownych nazw łacińskich:
„S” – od „subiectum” (pol. „podmiot”),
„P” – od „praedicatum” (pol. „orzecznik”),
„a” – pierwsza samogłoska w wyrazie „affirmo” (pol. „twierdzę”),
„i” – druga samogłoska w wyrazie „affirmo”,
„e” – pierwsza samogłoska w wyrazie „nego” (pol. „zaprzeczam”),
„o” – druga samogłoska w wyrazie „nego”.
W klasycznych zdaniach kategorycznych występuje zawsze podmiot „S” i orzecznik „P”. Nazwy odgrywające w zdaniach kategorycznych rolę podmiotu i orzecznika nazywamy terminami tych zdań. Oprócz terminów w zdaniach kategorycznych występuje łącznik „jest” lub „są”. Łączy on podmiot z orzecznikiem – i stąd jego nazwa. Poza tym mamy tu jeszcze słowa kwantyfikujące: „każdy”, „niektóre”, „żadne”. Słowa kwantyfikujące decydują o tzw. jakości zdania i ilości. „Jakość” dotyczy tego, czy zdanie jest twierdzące czy przeczące. Dwa zdania mają tę samą jakość, gdy oba są twierdzące lub przeczące. „Ilość” z kolei wskazuje, czy zdanie jest ogólne czy szczegółowe. Dwa zdania mają tę samą ilość, gdy np. oba są ogólne lub oba są szczegółowe, niezależnie od tego, czy są przy tym przeczące czy też twierdzące (czyli niezależnie od ich jakości). Dodamy jeszcze, że słówka kwantyfikujące możemy czytać dość dowolnie, zachowując oczywiście jakość i ilość zdań. Zamiast „niektóre S są P”, możemy mówić „pewne S są P”, „są takie S, które są P” itp.
Przypomnijmy jeszcze, że nazwy podstawiane za podmiot S i orzecznik P nie mogą być puste. Innymi słowy mówiąc, symbole S i P reprezentują nazwy niepuste.
1.2. Kwadrat logiczny. Prawa kwadratu logicznego – związki logiczne między klasycznymi zdaniami kategorycznymi.
Związki zachodzące między klasycznymi zdaniami kategorycznymi w tradycyjnej logice formalnej przyjęto obrazować graficznie za pomocą tzw. kwadratu logicznego, którego wierzchołki stanowią zdania kategoryczne, a boki i przekątne przedstawiają stosunki między tymi zdaniami.
S a P S e P
S i P S o P
Stosunek sprzeczności
Przekątne kwadratu przedstawiają stosunek sprzeczności między zdaniami ogólno-twierdzącymi S a P i zdaniami szczegółowo-przeczącymi S o P, oraz między zdaniami ogólno-przeczącymi S e P i zdaniami szczegółowo-twierdzącymi S i P. Wskazane zdania odpowiednio się wykluczają wzajemnie (tzn. nie mogą być jednocześnie prawdziwe), ale zarazem się dopełniają (tzn. nie mogą być jednocześnie fałszywe). Stosunek sprzeczności między odpowiednimi zdaniami kategorycznymi o tym samym podmiocie S i orzeczniku P, ale o różnej jakości i ilości, możemy przedstawić zapisać symbolicznie następująco:
1) S a P ® ~ (S o P) – jeśli prawdą jest, że każde S jest P, to nieprawda, że niektóre S nie są P,
2) S e P ® ~ (S i P) – jeśli prawdą jest, że żadne S nie jest P, to nieprawda, że niektóre S są P,
3) S o P ® ~ (S a P) – jeśli prawdą jest, że niektóre S nie są P, to nieprawda, że każde S jest P,
4) S i P ® ~ (S e P) – jeśli prawdą jest, że niektóre S są P, to nieprawda, że żadne S nie jest P.
5) ~(S o P) ® S a P – jeśli nieprawda, że niektóre S nie są P, to jest prawdą, że każde S jest P,
6) ~(S i P) ® S e P – jeśli nieprawda, że niektóre S są P, to jest prawdą, że żaden S nie jest P,
7) ~(S a P) ® S o P – jeśli nieprawda, że każde S jest P, to jest prawdą, że niektóre S nie są P
8) ~(S e P) ® S i P – jeśli nieprawda, że żadne S nie jest P, to jest prawdą, że niektóre S są P.
Strzałka w powyższym zapisie oznacza wynikanie. Czytamy ją zazwyczaj jako „wynika” lub jako „jeśli..., to”. Symbol „~” przed nawiasem, czyli przed całym zdaniem, znaczy „nieprawda, że”. Przy pojedynczym symbolu nazwy (S lub P) oznacza zwykłe zaprzeczenie czytane jako „nie”.
W ten sposób otrzymaliśmy pierwsze schematy niezawodnego wnioskowania bezpośredniego, które opierają się na twierdzeniu o wzajemnym wykluczaniu i dopełnianiu się zdań ogólno-twierdzącym S a P ze szczegółowo-przeczącymi S o P oraz zdań ogólno-przeczących S e P ze zdaniami szczegółowo-twierdzącymi S i P. Wskazane zdania, o tym samym podmiocie i orzeczniku, nie mogą być parami jednocześnie prawdziwe i nie mogą być jednocześnie fałszywe.
Nie trudno zauważyć, że podane schematy (i twierdzenia) opierają się na swego rodzaju oczywistości, w sumie dość łatwo wyczuwalnej (co można powiedzieć o całości, można i o części, a jeśli czegoś nie można powiedzieć o części, to tym bardziej nie można i o całości).
Stosunek podporządkowania
Boki kwadratu przedstawiają pozostałe relacje zachodzące między zdaniami kategorycznymi. Między zdaniami typu S i P i zdaniami S a P, oraz zdaniami typu S o P i S e P zachodzi stosunek podporządkowania. Zdania szczegółowe są odpowiednio podporządkowane zdaniom ogólnym o tej samej jakości. I tak zdania szczegółowo-twierdzące S i P są podporządkowane zdaniom ogólno-twierdzącym S a P; a zdania szczegółowo-przeczące S o P są podporządkowane zdaniom ogólno-przeczącym S e P. Odwróceniem relacji podporządkowania są relacje nadrzędności. Możemy powyższe stosunki wyrazić jeszcze inaczej. Możemy mianowicie powiedzieć: jeśli prawdą jest, że każde S jest P, to wynika stąd, że prawdą jest również i to, że niektóre S są P. I podobnie możemy powiedzieć: jeśli prawdą jest, że żadne S nie jest P, to prawdą jest również, że niektóre S nie są P. Innymi słowy mówiąc, jeśli prawdziwe są zdania ogólne, to prawdziwe są również zdania szczegółowe o tej samej jakości, pod warunkiem, że mają one ten sam podmiot i orzecznik. Krócej możemy to samo wyrazić następująco: z prawdziwości zdań ogólnych możemy wnosić o prawdziwości odpowiadających im zdań szczegółowych o tej samej jakości (i tym samym podmiocie i orzeczniku).
Relacje podporządkowania zapiszemy następująco:
9) S a P ® S i P,
10) S e P ® S o P.
Otrzymaliśmy tym samym dwa następne niezawodne schematy wnioskowania bezpośredniego, oparte tym razem na twierdzeniu o wynikaniu zdań szczegółowych ze zdań ogólnych o tej samej jakości (i naturalnie tym samym podmiocie i orzeczniku).
Na bokach kwadratu logicznego możemy zauważyć jeszcze inne stosunki między klasycznymi zdaniami kategorycznymi, a mianowicie odpowiednio między zdaniami ogólnymi oraz między zdaniami szczegółowymi. Chodzi tym razem o relacje między zdaniami, które różnią się parami jakością, ale mają tę samą ilość. Inaczej mówiąc, badamy wzajemne związki między zdaniami ogólno-twierdzącymi typu S a P i zdaniami ogólno-przeczącymi typu S e P, oraz związki między zdaniami szczegółowo-twierdzącymi typu S i P i zdaniami szczegółowo-przeczącymi typu S o P. Tu również kierujemy się w dużej mierze swego rodzaju oczywistością odczuwalną niemal intuicyjnie (wkrótce jednak poznamy metodę, która pozwoli nam poniekąd „naukowo” stwierdzać prawdziwość pewnych tez ujmujących relacje między określonymi zdaniami).
Stosunek przeciwieństwa
Między zdaniami typu S a P oraz S e P zachodzi stosunek przeciwieństwa. Zdania typu S a P i zdania typu S e P, o tym samym podmiocie i orzeczniku, nie mogą być jednocześnie prawdziwe. Jeśli prawdziwe jest zdanie, które mówi, że każde S jest P (S a P), nie może być prawdziwe zdanie mówiące, że żadne S nie jest P (S e P). I podobnie: jeśli prawdziwe jest zdanie, które głosi, że żadne S nie jest P (S e P), to nie może być zarazem prawdziwe zdanie oznajmujące, że każde S jest P (S a P).
Powyższe twierdzenia zapiszemy następująco:
11) S a P ® ~ (S e P),
12) S e P ® ~ (S a P).
Znowu otrzymaliśmy niezawodne schematy wnioskowania bezpośredniego.
Należy w tym miejscu zauważyć, że zapisane relacje nie zachodzą w drugą stronę. Z fałszywości zdania ogólno-twierdzącego nie możemy wnosić o prawdziwości zdania ogólno-przeczącego. Na tej samej zasadzie, z fałszywości zdania ogólno-przeczącego nie możemy wyciągać wniosku o prawdziwości zdania ogólno-twierdzącego. Zdania ogólno-twierdzące (S a P) i ogólno-przeczące (S e P) nie mogą być wprawdzie jednocześnie prawdziwe (tzn. wykluczają się), ale mogą być jednocześnie fałszywe, (tzn. nie dopełniają się). Nieprawdziwe na przykład jest zdanie obwieszczające, że każdy Polak jest blondynem. Z tego jednak wcale nie wynika, że prawdziwe jest zdanie, zgodnie z którym żaden Polak nie jest blondynem. Oba zdania mogą być jednocześnie fałszywe.
Stosunek podprzeciwieństwa
Wiemy już, że zdania ogólne (o różnej jakości, ale o tym samym podmiocie i orzeczniku) nie mogą być jednocześnie prawdziwe, ale mogą być jednocześnie fałszywe. Teraz z kolei zobaczmy, jakie relacje zachodzą między zdaniami szczegółowymi o tej samej jakości, czyli między zdaniami typu S i P a zdaniami S o P. Łatwo zauważymy, że wiąże je stosunek odwrotny do poprzednio omówionego. Zauważamy mianowicie, że zdania szczegółowo-twierdząc (S i P) oraz zdania szczegółowo-przeczące (S o P), mające ten sam podmiot i orzecznik, mogą być zarazem prawdziwe (tzn. nie wykluczają się), ale nie mogą być jednocześnie fałszywe (tzn. dopełniają się). Powiada się, że te zdania nie wykluczają się wzajemnie, ale się dopełniają. Fałszywość jednego z tych zdań pociąga za sobą prawdziwość drugiego. Taki stosunek nazywa się podprzeciwieństwem i zapisuje następująco:
13) ~ (S i P) ® S o P
14) ~ (S o P) ® S i P
Wracając do poprzedniego przykładu, możemy jednocześnie uznać za prawdziwe zdanie, iż niektórzy Polacy są blondynami, i zdanie, że niektórzy Polacy nie są blondynami. Oba zdania mogą być jednocześnie prawdziwe. Jeśli natomiast uznamy za fałszywe na przykład zdanie, iż niektórzy Polacy są (lub nie są) kosmitami, to musimy tym samym uznać za prawdziwe zdanie, że niektórzy Polacy nie są (lub są) kosmitami.
1.3. Konwersja zdań kategorycznych
Do tej pory badaliśmy relacje między zdaniami kategorycznymi, zakładając tożsamość terminów tych zdań, tzn. uznając, że zarówno podmiot, jak i orzecznik w tych zdaniach jest odpowiednio taki sam. Konwersja (inaczej: odwrócenie, łac. conversio) zdań polega na zamianie niejako ról podmiotu i orzeczenia. Przestawiamy mianowicie w zdaniu podmiot z orzecznikiem, pozostawiając bez zmian jego jakość (tzn. zdanie twierdzące pozostaje nadal twierdzącym, a przeczące – przeczącym). Ilość zdania może ulec zmianie podczas jego konwersji. Konwersją, czyli odwróceniem, zdania S a P jest zdanie P a S, ale również zdanie P i S. Pierwszy rodzaj konwersji, tzn. konwersję bez zmiany ilości, nazywamy konwersją prostą. Drugi typ konwersji, to jest konwersję ze zmianą ilości, nazywamy konwersją ograniczoną. Dla zdania typu S a P, czyli dla zdania ogólno-twierdzącego, konwersją prostą jest zdanie typu P a S, czyli również zdanie ogólno-twierdzące. Natomiast konwersją ograniczoną tego samego zdania S a P jest zdanie typu P i S, czyli zdanie szczegółowo-twierdzące.
Prawa konwersji
Tradycyjna logika formalna bada klasyczne zdania kategoryczne, sprawdzając, czy i w jaki sposób poddają się one konwersji, i z jakim wynikiem. Rezultatem tych badań są tzw. prawa (czy reguły) konwersji. Poniżej podamy sobie te reguły.
Jedna z reguł konwersji brzmi następująco: Ze zdania szczegółowo-twierdzącego S i P wynika jego konwersja prosta P i S. Jeśli niektóre S są P, to i niektóre P są S. Prawdziwość powyższej reguły można stosunkowo łatwo dowieść za pomocą diagramów Venna, rysując dwa przecinające się koła. Wspólny dla obu kół obszar wyznacza konwersję prostą zdania S i P w zdanie P i S.
S i P
P i S
Zauważamy, zdaniu S i P oraz jego prostej konwersji P i S odpowiada na diagramie Venna ten sam obszar. Formułę
15) S i P ® P i S
można więc uznać za niezawodny schemat wnioskowania bezpośredniego. Prawdziwe jest np. zdanie: niektórzy Polacy są obywatelami USA, ale również jego konwersja: niektórzy obywatele USA są Polakami.
Następna reguła głosi, że ze zdania ogólno-przeczącego S e P wynika jego konwersja prosta P e S, tzn. mają one takie same diagramy Venna. Otrzymujemy tym samym następny niezawodny schemat wnioskowania bezpośredniego:
16) S e P ® P e S
Jako przykład można podać zdanie: żaden Polak nie był prezydentem USA i jego konwersję prostą: żaden prezydent USA nie był Polakiem.
Trzecia z kolei reguła powiada, że ze zdania ogólno-twierdzącego S a P nie wynika prosta konwersja, lecz konwersja ograniczona P i S. Innymi słowy mówiąc, Jeśli prawdziwe jest zdanie „każde S jest P”, to prawdziwe jest również zdanie „niektóre P są S”, które jest konwersją ograniczoną zdania pierwszego. Jeśli np. przyjmiemy za prawdziwe zdanie „każdy gad jest zwierzęciem”, to musimy uznać za prawdziwe również ograniczone odwrócenie tego zdania, to jest zdanie: „niektóre zwierzęta są gadami”. Łatwo to potwierdzić na diagramach Venna.
Oparty na ostatnim stwierdzeniu schemat
17) S a P ® P i S
możemy również uznać za niezawodny schemat wnioskowania bezpośredniego.
1.4. Obwersja zdań kategorycznych
Obwersja (łac. obversio) zdania kategorycznego (w którym S jest podmiotem, a P orzecznikiem) polega na zastąpieniu orzecznika P terminem, który jest jego (czyli tego orzecznika) zaprzeczeniem, z jednoczesną zmianą jakości zdania – z twierdzącej na przeczącą lub odwrotnie. Krótko mówiąc, z obwersją danego zdania mamy do czynienia, gdy zastępujemy w nim orzecznik P na nie-P i zarazem zmieniamy jakość tego zdania z twierdzącej na przeczącą lub odwrotnie. W wyniku obwersji jakiegoś zdania otrzymuje zdanie jemu równoważne. Za równoważne uznamy zdania: „każde S jest P” oraz „żadne S nie jest nie-P”; podobnie zdania: „żadne S nie jest nie-P” oraz „każde S jest nie-P”; a dalej: „niektóre S są P” oraz „niektóre S nie są nie-P”; „niektóre S nie są P” oraz „niektóre S są nie-P”. Równoważne zdania mają takie same diagramy Venna. W wyniku obwersji otrzymamy zatem dalsze niezawodne schematy wnioskowania bezpośredniego, które możemy zapisać następująco:
18) S a P ® S e nie-P,
19) S e P ® S a nie-P
20) S i P ® S o nie-P,
21) S o P ® S i nie-P.
Podsumowując powyższe rozważania dotyczące obwersji, możemy powiedzieć, że każde klasyczne zdanie kategoryczne da się przekształcić się w zdanie równoważne, jeśli tylko zmieni się jego jakość (z twierdzącej na przeczącą lub odwrotnie), a orzecznik P zastąpi przez nie-P, (czyli przez jego dopełnienie).
Podana reguła nosi nazwę prawa obwersji.
Obwersji można poddać zdanie otrzymane przez konwersję. Np. konwersją zdania S a P jest zdanie P i S. Poddawszy obwersji wynik konwersji, otrzymamy zdanie P o nie-S.
Podane schematy – oparte na prawach kwadratu logicznego, konwersji i obwersji – w tradycyjnej logice formalnej są uznawane za niezawodne, choć ich wykorzystanie jest raczej ograniczone. Ich wspólną cechą jest to, że wyprowadzają one wniosek – na zasadzie implikacji – z jednej tylko przesłanki. Dlatego wnioskowanie oparte na tych schematach nazywane jest wnioskowaniem bezpośrednim. Tradycyjna logika zna jeszcze jeden rodzaj wnioskowania, a mianowicie wnioskowanie, w którym wniosek wyprowadza się – również na zasadzie implikacji – z koniunkcji dwóch lub większej ilości przesłanek. Dlatego ten drugi typ wnioskowania nazywa się wnioskowaniem pośrednim. Ta część logiki tradycyjnej nosi nazwę sylogistyki, a postać wnioskowania, którą tu się wykorzystuje, nazwano sylogizmem.
2. Formy wnioskowania pośredniego. Sylogistyka
2.1. Pojęcie i podstawowe formy sylogizmu
Sylogizm jest to wnioskowanie, w którym z dwóch (rzadziej z większej liczby) przesłanek wynika w sposób konieczny i niezawodny wniosek. Mniej więcej tak właśnie definiował sylogizm Arystoteles (384-322), który jako pierwszy zajmował się teorią sylogizmu. Szczególnym uznaniem cieszyła się sylogistyka w średniowieczu wśród filozofów chrześcijańskich, którzy wnieśli duży wkład w jej rozwój. Sylogistyka stanowiła podstawowy trzon europejskiej logiki aż do początków dwudziestego wieku, kiedy jej miejsce zajęła współczesna logika formalna zdań.
Klasyczny sylogizm, którym operował Arystoteles a potem filozofowie średniowieczni, zbudowany jest z trzech zdań kategorycznych. Dwa z nich stanowią przesłanki. Trzecim jest wniosek. Dlatego mówimy, że sylogizm zbudowany jest z dwóch przesłanek i wynikającego z nich – w sposób konieczny i niezawodny – wniosku. Zarówno przesłanki, jak i wniosek – to znane nam zdania kategoryczne. Tym, co jest szczególne w sylogizmie i co sprawia, że dany układ zdań stanowi właśnie sylogizm, jest budowa tych zdań. Jak wiadomo, główne elementy zdania kategorycznego – to podmiot i orzecznik. Nazywamy je terminami. Charakterystyczne dla sylogizmu jest to, dwie przesłanki mają jeden termin wspólny. Ten wspólny termin nazywa się terminem średnim. W tradycyjnym zapisie sylogizm wygląda następująco:
M P
S M
---------
S P
Na schemacie termin średni oznaczono literą M (od łac. medius terminus). W pokazanym schemacie termin średni w pierwszej przesłance pełni rolę podmiotu (ale być w niej orzecznikiem), a w drugiej jest orzecznikiem (ale może być podmiotem). Widzimy na rysunku, że we wniosku powtarzają się terminy występujące w przesłankach, ale nie ma wśród nich terminu średniego.
Przesłanki sylogizmu mogą występować w dowolnej kolejności. Tę pierwszą z nich, tzn. pisaną u góry, przyjęto nazywać przesłanką większą, a drugą – mniejszą. Stosownie do tego, termin P w przesłance większej nazywamy terminem większym, a termin S w przesłance mniejszej – mniejszym. Zauważamy przy tym, że termin mniejszy S występuje we wniosku jako jego podmiot. Natomiast termin większy P w tymże wniosku jest orzecznikiem (i stąd symbolika S oraz P, która, jak już wiemy, pochodzi od łacińskich nazw tych terminów subiectum i praedicatum). Wszystkie te terminy w sylogizmie mogą i powinny występować tylko po dwa razy każdy. Siłą rzeczy, terminy występujące we wniosku (na schemacie oznaczono je jako S oraz P) mogą powtórzyć się w przesłankach tylko raz. Termin średni M nie powinien znaleźć się we wniosku. Za to w przesłankach może on pełnić zarówno funkcję podmiotu, jak i orzecznika. W zależności od tego właśnie, jaką rolę gra termin średni w przesłankach, w tradycyjnej logice wyróżnia się cztery podstawowe figury sylogistyczne:
I II III IV
M P P M M P P M
S M S M M S M S
---------- ----------- ------------- ------------
S P S P S P S P
Jak powiedziano wyżej, przesłanki i wniosek – to znane nam już klasyczne zdania kategoryczne. Pamiętamy, że mogą to być zdania ogólno-twierdzące (zdanie typu S a P), szczegółowo-twierdzące (typu S i P), ogólno-przeczące (typu S e P) i szczegółowo-przeczące (typu S o P). W sumie, przynajmniej teoretycznie (ale, jak się niebawem okaże, tylko teoretycznie), rolę przesłanek i wniosku może w sylogizmie odgrywać każdy z tych czterech typów klasycznych zdań kategorycznych. Biorąc to pod uwagę i kombinując ze sobą każdą z możliwych postaci przesłanek i wniosku, otrzymalibyśmy dla każdej z czterech figur sylogistycznych 64 kombinacji, czyli w sumie aż 256 różnych trybów sylogistycznych. Jednak spośród nich tylko 24 tryby są niezawodne, po 6 w każdej figurze. Z tych 24 trybów, 19 uznano za podstawowe. 5 pozostałych trybów wynika z tych 24 podstawowych – z relacji podporządkowania z kwadratu logicznego. Wszystkie niezawodne tryby sylogistyczne otrzymały w średniowieczu swoje nazwy tak skomponowane, by kolejne trzy samogłoski występujące w tych nazwach wskazywały typ zdania kolejno: przesłanki większej, mniejszej i wniosku. Dla łatwiejszego zapamiętania 19 podstawowych (i najczęściej wykorzystywanych) trybów sylogistycznych, ułożono heksametrem z ich nazw wiersz mnemotechniczny. Jego autorstwo przypisuje się wybitnemu filozofowi trzynastowiecznemu, Piotrowi Hiszpanowi, późniejszemu papieżowi Janowi XXI). Przytoczymy poniżej jedną z wersji tego wiersza:
Barbara, Celarent, Darii, Ferioque prioris
Cesare, Camestres, Festino, Baroco secundae
Tertia Darapti, Disamis, Datisi, Felapton,
Bocardo, Ferison habet. Quarta insuper addidit
Bamalip, Camenes, Dimatis, Fesapo, Fresison.
Niżej podano schematy dziewiętnastu podstawowych trybów sylogistycznych:
Tryby figury I:
Barbara Celarent Darii Ferio
M a P M e P M a P M e P
S a M S a M S i M S i M
---------- ----------- ----------- ----------
S a P S e P S i P S o P
Tryby figury II:
Cesare Camestres Festino Baroco
P e M P a M P e M P a M
S a M S e M S i M S o M
---------- ----------- ----------- ------------
S e P S e P S o P S o P
Tryby figury III:
Darapti Disamis Datisi Felapton Bocardo Ferison
M a P M i P M a P M e P M o P M e P
M a P M a P M i P M a P M a P M i P
---------- ----------- ------------ ----------- ----------- ----------
S i P S i P S i P S o P S o P S o P
Tryby figury IV:
Bamalis Camenes Dimatis Fesapo Fresison
P a M P a M P i M P e M P e M
M a S M e S M a S M a S M i S
----------- ------------ ----------- ----------- ------------
S i P S e P S i P S o P S o P
2.2. Warunki poprawności trybów sylogistycznych
Mając na uwadze niezawodność trybów sylogistycznych, tradycyjna logika podaje warunki, które powinny spełniać owe tryby, by można je było uznać za niezawodne. Najważniejsze z tych reguł można sformułować następująco :
1. Obie przesłanki nie mogą być przeczące. Przynajmniej jedna z nich musi być zdaniem twierdzącym.
2. Jeśli jedna z przesłanek jest zdaniem przeczącym, wniosek musi być również zdaniem przeczącym.
3. Jeżeli obie przesłanki są zdaniami twierdzącymi, to i wniosek musi być zdaniem twierdzącym.
Podane wyżej reguły dotyczyły jakości przesłanek i wniosku. Niżej omówione zostaną reguły dotyczące samych terminów występujących w trybie.
4. Termin średni musi przynajmniej w jednej przesłance wystąpić jako podmiot zdania ogólnego (M a P lub M e S) lub jako orzecznik zdania przeczącego (S e M lub S o M). O terminie, który występuje jako podmiot zdania ogólnego lub jako orzecznik zdania przeczącego, mówi się, że jest to „termin wzięty ogólnie” lub „termin rozłożony”. Zatem ostatnią regułę można sformułować krócej następująco: termin średni w przynajmniej w jednej przesłance powinien być wzięty ogólnie (inaczej mówiąc: rozłożony).
5. Termin, który we wniosku występuje jako podmiot zdania ogólnego (S a P lub S e P) lub jako orzecznik zdania przeczącego (S e P lub S o P), czyli jest wzięty ogólnie, musi być wzięty ogólnie w przesłance, tzn. musi wystąpić w niej jako podmiot zdania ogólnego (S a M lub S e M) lub orzecznik zdania przeczącego (M e P lub M o P). Innymi słowy mówiąc, termin tylko wtedy może być wzięty ogólnie we wniosku, jeśli był wzięty ogólnie w przesłance. I odwrotnie: termin, który nie był wzięty ogólnie w przesłance, nie może być wzięty ogólnie we wniosku.
Oprócz tych pięciu przedstawionych logika tradycyjna zna jeszcze inne reguły, które jednakże pozwalają się wywieść z tamtych. Szczególnie ważne są te, które dotyczą tzw. „ilości” przesłanek i wniosku (ilość mówi o tym, czy zdanie jest szczegółowe czy ogólne). Wymienimy parę najważniejszych reguł, które o tym mówią.
6. Obie przesłanki nie mogą być zdaniami szczegółowymi. Przynajmniej jedna z nich musi być zdaniem ogólnym (ogólno-twierdzącym lub ogólno-przeczącym).
7. Jeżeli chociaż jedna z przesłanek jest zdaniem szczegółowym (szczegółowo-twierdzącym lub szczegółowo-przeczącym), to i wniosek musi być zdaniem szczegółowym. Innymi słowy: jeżeli tryb sylogistyczny ma być niezawodny, to nie może on mieć wniosku ogólnego, jeśli jedna z jego przesłanek jest zdaniem szczegółowym.
Tryby sylogistyczne, które czynią zadość wymienionym regułom, są poprawne. Wszystkie pozostałe nie mogą być uznane za prawidłowe.
Powyższe reguły można wykorzystać do sprawdzenia prawidłowości pewnych wnioskować. Procedura postępowania sprawdzającego w takich przypadkach jest następująca: 1) danemu wnioskowaniu nadaje się postać sylogizmu, 2) a następnie sprawdza się, czy jest to sylogizm prawidłowy, tzn. czy spełnia podane reguły.
Przykład I
Każda planeta jest ciałem niebieskim, każda gwiazda jest ciałem niebieskim, a więc każda gwiazda jest planetą.
Zapiszemy powyższe rozumowanie w postaci trybu. Nie trudno dociec, że otrzymamy następujący tryb:
P a M
S a M
------------
S a P
Uzyskany schemat nie spełnia warunku, który ustala, że termin średni musi przynajmniej w jednej przesłance być wzięty ogólnie, tzn. musi być podmiotem zdania ogólnego (M a P; M e P; M a S; M e S) lub orzecznikiem zdania przeczącego (np. S e M; S o M; P e M; P o M). Nie jest więc poprawny.
Przykład II
Sprawdźmy jeszcze jedno rozumowanie: każda roślina jest żywym organizmem, każdy kwiat jest rośliną, a zatem: każdy kwiat jest żywym organizmem.
Podane wnioskowane można rozpisać następująco:
M a P
S a M
-----------
S a P
Otrzymaliśmy tryb zwany Barbara. Jest to bez wątpienia tryb poprawny.
Przykład III
Sprawdźmy jeszcze jeden przykład wnioskowania: „Wszyscy urzędnicy są pracobiorcami. Wszyscy pracobiorcy są płatnikami podatku od wynagrodzeń. Zatem: niektórzy płatnicy podatku od wynagrodzeń są urzędnikami”.
Zgodnie z przyjętą procedurą, spróbujemy nadać powyższemu rozumowaniu postać trybu sylogistycznego. Uzyskamy następującą postać:
P a M
M a S
------------
S i P
Otrzymaliśmy tryb figury IV (typu a a i), zwany Bamalip (nazywany też Bramantip). Zatem tryb jest poprawny.
2.4. Sprawdzanie trybów za pomocą diagramów Venna
Tryby sylogistyczne można badać również za pomocą, znanych już nam, diagramów Venna. Metoda ta polega na zaznaczeniu na kołach Venna relacji, jakie zachodzą między zakresami terminów występujących w obu przesłankach i sprawdzeniu, czy wynik obu relacji odpowiada wnioskowi.
Procedura postępowania w tym wypadku jest następująca:
1) Kreślimy trzy koła tak, aby każde przecinało się z każdym. Trzy koła przedstawiają zakresy trzech terminów: większego P, mniejszego S, i średniego M.
2) Zaznaczamy na tych kołach relacje zachodzące między zakresami terminów w przesłance ogólnej, zakreślając stosowne pole. Korzystniej jest zacząć od przesłanki ogólnej.
3) Podobnie zaznaczamy stosowne pole, wynikające z relacji między zakresami terminów w przesłance szczegółowej, biorąc pod uwagę wynik z poprzedniej przesłanki.
4) Sprawdzamy, czy pole z obu przesłanek odpowiada wnioskowi. Jeśli tak jest, to tryb jest niezawodny.
Dla przykładu zbadajmy, czy tryb podany niżej tryb jest niezawodny:
M e P
M a S
------------
S o P
Zgodnie z podaną procedurą, na diagramie Venna musimy zaznaczyć jako odrzuconą część wspólną koła M oraz P, pozostawiając tę część koła M, która nie nachodzi na koło P (M e P). Następnie odrzucamy część koła M, która wychodzi poza koło S, pozostawiając tę część koła M, która znajduje się w kole S (M a S), pomijając już odrzucony wspólny obszar koła M oraz P. W wyniku otrzymamy pole, które odpowiada wnioskowi (S o P). Zatem tryb jest niezawodny. Skądinąd wiemy, że jest to tryb III figury, zwany Felapton.
2.5. Sylogizmy niedoskonałe
Sylogizmy, które zbudowane są zgodnie z regułami sylogistyki, nazywane są sylogizmami doskonałymi. Oprócz nich logika tradycyjna wymienia jeszcze sylogizmy niedoskonałe, które różnią się od tych doskonałych bądź tym, że pomijają jedną z przesłanek, bądź tym, że mają przesłanki rozbudowane. Do niedoskonałych sylogizmów zalicza się entymemat, epicheremat, soryt i polisylogizm.
Entymemat
Entymemat (z greckiego: „en thymo” – „w sercu”) jest to sylogizm, w którym jedna z przesłanek jest domyślna. Entymemat nazywany jest czasem sylogizmem retorycznym, gdyż posługiwali się nim często retorzy, uważając, że w argumentacji nie powinno się wypowiadać przesłanek, których łatwo można się domyśleć. Na ogół nie wypowiadano przesłanki większej, a sam entymemat, w którym przemilczano przesłankę większą, nazywano entymematem pierwszego rodzaju. Natomiast entymemat, w którym przemilczana została przesłanka mniejsza, nosił nazwę entymematu drugiego rodzaju.
Epicheremat
Epicheremat – to taki sylogizm, w którym jedna lub obie przesłanki są jeszcze dodatkowo uzasadniane. Przykładem epicherematu jest następujące rozumowanie: „Ludzie zawiadujący gospodarką są najczęściej wykształconymi ekonomistami, bo człowiek zawiadujący gospodarką powinien znać ekonomię. Ekonomiści uczyli się logiki, bo znajomość logiki jest pomocna w rozumieniu i stosowaniu praw ekonomii. Zatem: ludzie zawiadujący gospodarką uczyli się logiki”.
Soryt
Soryt (łańcusznik) jest to sylogizm, który ma co najmniej trzy przesłanki, przy czym kolejne przesłanki łączy bądź jednakowy podmiot i orzecznik bądź jednakowy orzecznik i podmiot. Wyróżnia się dwa rodzaju sorytu. Jeden z nich nazywany jest się sylogizmem Arystotelesa. Drugi – sylogizmem Gocleniusza. Soryt Arystotelesa zbudowany jest w ten sposób, że orzecznik pierwszej przesłanki jest podmiotem przesłanki drugiej, a następnie orzecznik tej drugiej jest podmiotem przesłanki trzeciej itd. We wniosku jako podmiot występuje podmiot z pierwszej przesłanki, a orzecznikiem jest orzecznik przesłanki ostatniej. Można to przedstawić schematycznie następująco:
S1 P1
P1 P2
P2 P3
----------
S1 P3
Przykładem sorytu Arystotelesa są dwa następujące rozumowania:
„Transformacjom ustrojowym towarzyszą przemiany polityczne; przemiany polityczne prowadzą do zmian w strukturach gospodarczych; zmiany w strukturach gospodarczych są okazją do szybkiego bogacenia się. Stąd wniosek: transformacje ustrojowe są okazją do szybkiego bogacenia się.”
Podobnie: „Posiadanie ścisłego umysłu ułatwia opanowanie matematyki. Opanowanie matematyki ułatwia opanowanie ekonomii. Opanowanie ekonomii ułatwia prowadzenie interesów. Stąd wniosek: posiadanie ścisłego umysłu ułatwia prowadzenie interesów.”
Z kolei soryt Gocleniusa jest to sylogizm, w którym w kolejno po sobie następujących przesłankach podmiot poprzedniej jest orzecznikiem następnej. Podmiotem wniosku jest podmiot ostatniej przesłanki, zaś jego orzecznikiem – orzecznik przesłanki pierwszej:
S1 P1
P2 S1
S3 P2
-------------
S3 P1
Jako ilustracja sorytu Gocleniusa niech posłuży poniższy przykład:
„Poznanie matematyki ułatwia opanowanie ekonomii. Studia matematyczne ułatwiają poznanie matematyki. Posiadanie ścisłego umysłu ułatwia studia matematyczne. Stąd wniosek: Posiadanie ścisłego umysłu ułatwia opanowanie ekonomii.”
Polisylogizm
Polisylogizm jest to wnioskowanie, na które składa się kilka sylogizmów powiązanych ze sobą tak, że wniosek poprzedniego stanowi przesłankę następnego.
X Elementy rachunku kwantyfikatorów
1. Symbolika i podstawowe schematy rachunku kwantyfikatorów
Rachunek zdań ustala i formułuje prawa dotyczące relacji zachodzących między zdaniami prostymi (reprezentowanymi w nim przez zmienne zdaniowe) i między związkami tych zdań, nie biorąc pod uwagę wewnętrznej struktury tychże zdań prostych. Dlatego, chociaż oddaje nieocenione usługi, nie stanowi jednak wystarczającej podstawy dla tworzenia w pełni niezawodnych schematów rozumowania, a tym bardziej ich wystarczającej i w pełni wyczerpującej oceny. Wszak w naszym codziennym, a także w naukowym, myśleniu bardzo uważnie zwracamy uwagę na to, jak zbudowane są zdania proste, które wymyślamy, wypowiadamy, zapisujemy, czytamy i których słuchamy, a nawet bardzo często na tej właśnie podstawie sami opieramy swoje rozumowania i oceniamy poprawność rozumowania innych ludzi. Na przykład: inaczej odbieramy zdanie „człowiek jest dobry”, a jeszcze inaczej takie zdania, jak te: „każdy człowiek jest dobry”, „żaden człowiek nie jest dobra”, „niektórzy ludzie są dobrzy”, „jest taki jeden człowiek, który jest dobry”. Gdybyśmy pominęli te małe słówka, które jakże wydatnie i znacząco wpływają na znaczenie tych zdań, to możliwość formułowania pewnych myśli zostałaby bardzo poważnie ograniczona, albo wręcz uniemożliwiona. Zatem wypada, by również teorie logiki formalnej brały to pod uwagę. I jest dział logiki formalnej, który zajmuje się tymi sprawami, tzn. stosunkami logicznymi między zdaniami prostymi o określonej strukturze, które uwarunkowane są właśnie strukturą tychże zdań oraz znaczeniem, decydujących o wspomnianej strukturze, pewnych stałych logicznych. Owe stałe logiczne, które decydują o strukturze zdań prostych, nazywane są kwantyfikatorami, a cały ten dział logiki formalnej, które rozpatruje wspomniane międzyzdaniowe związki logiczne, wytyczone i regulowane przez te kwantyfikatory, zwie się rachunkiem kwantyfikatorów.
Rachunek kwantyfikatorów jest, jak się już domyślamy, teorią o szerszym zakresie niż rachunek zdań. Zawiera bowiem wszystkie wyrażenia obecne w tymże rachunku, a oprócz nich własne, nowe niejako stałe, zwane tu kwantyfikatorami i predykatami. Mamy tu więc wszystkie symbole znane u logiki zdań, tzn. zmienne zdaniowe, czyli zmienne reprezentujące zdania (p, q, r, s itd.), dalej – znaki reprezentujące spójniki (~, ®, , , , , ~). Pełnią one tę samą rolę, co w rachunku zdań. Oczywiście wchodzą tu także nawiasy używane w rachunku, bez których i tu nie można się obejść. Obok jednak tych znanych już symboli, znajdziemy tu takie, które są wyłączną własnością rachunku kwantyfikatorów. Są to następujące symbole:
1. Symbole w postaci małych liter: x, y, z,... – zmienne indywiduowe, reprezentujące indywidua, to jest przedmioty indywidualne, należące do określonego zbioru tychże indywiduów. W logice takim indywiduum może być każdy byt. W chemii są nimi substancje chemiczne, w fizyce – zjawiska fizyczne, w biologii – organizmy, w matematyce – liczby, a w logice – wszelkie byty indywidualne z określonych zbiorów tychże bytów.
2. Symbole w postaci dużych liter: P, Q, R,... – symbole predykatów, które charakteryzują własności indywiduów lub relacje zachodzące między indywiduami.
2. Symbol „”– znaczy tyle, co „dla każdego” („dla dowolnego”, „dla wszelkich”) i jest to kwantyfikator duży (lub ogólny).
3. Symbol „”– znaczy: „dla pewnego” (inaczej: „dla niektórych”, „istnieje taki..., że” itp.) i nazywa się kwantyfikatorem małym (lub szczegółowym).
Symbole predykatów P, Q, R... wraz ze zmiennymi indywiduowymi tworzą schematy funkcji, np.:
P(x) – czyt.: P od x;
Q(x, y) – czyt.: Q od x, y;
R(x, x) – czyt.: R od x, x.
Podane schematy funkcji – to przykłady najprostszych formuł rachunku kwantyfikatorów. W ten sposób możemy oznaczyć określone własności przysługujące pewnym indywiduów, a także relacje zachodzące między indywiduami należącymi do różnych zbiorów lub do tych samych zbiorów.
I tak formuła P(x) może być schematem np. takiej wypowiedzi: „x jest człowiekiem”. Symbol „P” zastępuje tu predykat oznaczający bycie człowiekiem.
Z kolei formuła Q(x, y) może stanowić schemat wyrażenia: „x jest ojcem y”. Symbol „Q” reprezentuje tu predykat oznaczający relację ojcostwa między x a y.
Formuła R(x, x) może być np. schematem wyrażenia takiego: „x jest równe x”. Litera „R” symbolizuje tu relację równości zachodzącą między indywiduami konkretnego zbioru).
To są oczywiście tylko najprostsze przykłady schematów funkcji zdaniowych rachunku predykatów. Przy okazji – nie sposób nie zauważyć, że podane funkcje zdaniowe przypominają funkcje matematyczne. Formuła P(x) jest odpowiednikiem funkcji matematycznej f(x), tyle, że tu „x” są zawsze liczby, gdy w logice za x można odnieść do każdego przedmiotu (danego zbioru tychże przedmiotów). W matematyce można równanie (2x + 4 = 10) zastąpić zapisem f(x). „f” oznacza tu określone działanie matematyczne, a „x” liczbę, która spełnia to równanie. Natomiast w logice np. relację ojcostwa, zachodzącą między jakimś x (ze zbioru ojców) a jakimś y (ze zbioru dzieci), można zastąpić formułą np. Q(x, y). Idea w obu wypadkach jest ta sama.
Funkcje typu P(x) czy Q(x, y) zwykle nie funkcjonują samodzielne w rachunku zdań. Stanowią podstawowy materiał, z którego buduje się zdania rachunku kwantyfikatorów. Łączy się je zwykle w większe formuły za pomocą spójników zdaniotwórczych i stosownych nawiasów, a następnie uzupełnia znakami kwantyfikatorów. W ten sposób otrzymuje się zdania rachunku kwantyfikatorów lub nowe funkcje zdaniowe tego rachunku.
Poprzedzając jakąś funkcję typu P(x) czy Q(x,y) kwantyfikatorem, otrzymujemy nową funkcję zdaniową, np.:
x P(x) – istnieje takie x, że P od x
x P(x) - dla każdego x, P od x
x y Q(x, y) – dla każdego x istnieje takie y, że Q od x, y
x y Q(x, y) – istnieje takie x i takie y, że Q od x, y.
Jeśli tę formułę poprzedzimy spójnikiem negacji ~, otrzymamy:
~x y Q(x, y) – nieprawda, że istnieje takie x i takie y, że Q od x, y
Kwantyfikatory są opatrzone symbolami zmiennych, do których się odnoszą. Kwantyfikator, opatrzony symbolem zmiennej „x”, odnosi się do funkcji, którą poprzedza, w której jest ta zmienna. Jeśli stoi przed nawiasem kwadratowym, który zamyka dwie lub więcej funkcji, to wtedy odnosi się do wszystkich funkcji w nawiasie, zawierających tę zmienną. Wyrażenie w tym nawiasie nazywa się zasięgiem danego kwantyfikatora. Jeśli w formule nie ma nawiasu, a w formule jest kilka funkcji, to kwantyfikator odnosi się wyłącznie do tej funkcji, którą poprzedza.
Dlatego np. podane niżej formuły 1) i 2), choć podobne, zupełnie inaczej czytamy, bo prezentują one schematy innych zdań :
1) x P(x) ® Q(x) – jeśli dla każdego x P od x, to Q od x.
2) x [P(x) ® Q(x)] – dla każdego x: jeśli P od x, to Q od x.
Pierwsza formuła może być schematem takiego np. zdania:
„Jeżeli dla każdego x, x jest materialne, to x jest poznawalne.” Inaczej mówiąc: „jeśli wszystko jest materialne, to x jest poznawalne”.
Druga formuła mówi coś innego (jeśli symbole predykatów oznaczają te same relacje), a mianowicie:
„Dla każdego x, jeśli x jest materialne, to x jest poznawalne”. Czyli: „Wszystko, co jest materialne, jest poznawalne.”
Zmienna występująca w funkcji zdaniowej, którą poprzedza kwantyfikator opatrzony symbolem tej zmiennej, nazywa się „zmienną związaną przez ten kwantyfikator” lub po prostu „zmienną związaną”. Zatem znak „x” w funkcji x P(x) nazwiemy zmienną związaną (danym kwantyfikatorem).
Podamy teraz kilka prostych formuł zawierających kwantyfikatory.
1.x P(x) - dla każdego x, P od x. Jest to schemat zdań stwierdzających, że każdy przedmiot posiada daną wartość.
2.~x P(x) – nieprawda, że dla każdego x, P od x. Jest to schemat zdań stwierdzających, że nie każdy przedmiot posiada daną wartość.
3.x ~P(x) - dla każdego x, nieprawda, że P od x. Jest to schemat zdań stwierdzających, że żaden przedmiot nie posiada danej wartości.
4.x P(x) – istnieje takie x, że P od x. Jest to schemat zdań stwierdzających, że niektóre przedmioty posiadają daną wartość.
5.~x P(x) – nieprawda, że istnieje takie x, że P od x. Jest to schemat zdań przeczących, że jakiś przedmiot posiada własność P. Zatem: żaden przedmiot nie posiada tej własności. Ten schemat jest równoważny schematowi 3.
6.x ~P(x) – dla pewnych x, nieprawda, że P od x. Jest to schemat zdań stwierdzających, iż pewne przedmioty nie posiadają własności P. Zatem jest to schemat równoważny schematowi 2.
7. x y Q(x, y) – dla każdego x i dla każdego y, Q od x, y. Jest to schemat zdań stwierdzających, że każde dwa przedmioty łączy relacja Q.
8.x y Q(x, y) – istnieje takie x i takie y, że Q od x, y. Jest to schemat zdań stwierdzających, że istnieją takie dwa przedmioty, które łączy relacja Q.
9. x y Q(x, y) – dla każdego x istnieje takie y, że Q od x, y. Jest to schemat zdań stwierdzających, że każdy przedmiot związany jest z jakimś przedmiotem relacją Q.
10. x y Q(x, y) – istnieje takie x dla każdego y, że Q od x, y. Jest to schemat zdań stwierdzających, że istniej taki przedmiot związany z każdym przedmiotem relacją Q.
11. x [P(x) ® Q(x)] – dla każdego x, jeżeli P od x, to Q od x. Jest to schemat zdań ogólno-twierdzących, to jest stwierdzających, że każdy przedmiot, który ma jakąś własność P, ma tym samym własność Q. Jest Odpowiada temu np. zdanie: „Każdy, kto potrafi pisać, potrafi tym samym czytać.”
12. x [P(x) ® ~Q(x)] – dla każdego x, jeżeli P od x, to nieprawda, że Q od x. Jest to schemat zdań ogólno-przeczących, to jest stwierdzających, że żaden z przedmiotów, które posiadają jakąś własność P, nie posiada pewnej innej własności Q. Odpowiada temu np. zdanie: „Żaden pisarz nie jest analfabetą”.
13. x [P(x) Q(x)] – istnieje takie x, że P od x i Q od x. Jest to schemat zdań szczegółowo-twierdzących, to jest zdań stwierdzających, że niektóre przedmioty mające pewną w własność P mają też własność Q. Odpowiada temu np. zdanie: „Niektórzy pisarze są również poetami”.
14. x [P(x) ~Q(x)] – istnieje takie x, że P od x i nieprawda, że Q od x. Jest to schemat zdań szczegółowo-przeczących, to jest zdań stwierdzających, że niektóre przedmioty posiadające własność P nie posiadają własności Q. Odpowiada temu schematowi np. takie zdanie: „Niektórzy aktorzy nie są piosenkarzami”.
Rachunek kwantyfikatorów, podobnie jak rachunek zdań, ma swoje prawa, które nazywają się prawami rachunku kwantyfikatorów lub tautologiami rachunku kwantyfikatorów.
2. Podstawowe tautologie rachunku kwantyfikatorów
Rachunek kwantyfikatorów, podobnie jak rachunek zdań, ma swoje prawa, które nazywają się prawami rachunku kwantyfikatorów lub tautologiami rachunku kwantyfikatorów. Tautologią rachunku kwantyfikatorów jest każde takie, i tylko takie wyrażenie rachunku kwantyfikatorów, które jest schematem wyłącznie prawdziwych zdań lub funkcji zdaniowych. Niżej podamy wykaz takich właśnie najprostszych i zarazem najważniejszych tautologii rachunku kwantyfikatorów. Nie wnikając w szczegóły, powiemy tylko, że, podobnie jak tautologie rachunku zdań, zostały one wyprowadzone z określonych aksjomatów, to jest z tautologii wyjściowych za pomocą określonych reguł inferencji podobnych do tych z rachunku zdań, ale dużo liczniejszych. Dodajmy jeszcze, że każda tautologia rachunku zdań i jest zarazem tautologią rachunku kwantyfikatorów. Oprócz nich istnieją tautologie należące wyłącznie do rachunku kwantyfikatorów. Dlatego system aksjomatyczny rachunku kwantyfikatorów jest bogatszy od systemu rachunku zdań.
1. x P(x) ® P(x) – dictu de omni (dosł.: orzekanie o wszystkim).
2. P(x) ® x P(x) – prawo generalizacji egzystencjalnej (jeśli dowolny przedmiot posiada własność P, to istnieją przedmioty mające własność P).
3. x P(x) ® x P(x) – prawo subalternacji (jeśli wszystkie przedmioty posiadają własność P, to istnieją przedmioty mające własność P).
Prawa zmiany zmiennych związanych:
4. x P(x) y P(y)
5. x P(x) y P(y)
Prawa De Morgana dla kwantyfikatorów:
6. ~x P(x) x ~P(x)
7. ~x P(x) x ~P(x)
Prawa rozkładania kwantyfikatorów:
8. x [P(x) ® Q(x)] ® [x P(x) ® x Q(x)]
9. x [P(x) ® Q(x)] ® [x P(x) ® x Q(x)]
10. x [P(x) Q(x)] [x P(x) x Q(x)]
11. x [P(x) Q(x)] ® [x P(x) x Q(x)]
12. [x P(x) x Q(x)] ® x [P(x) Q(x)]
13. x [P(x) Q(x)] [x P(x) x Q(x)]
Prawa przestawiania kwantyfikatorów:
14. [x y R(x, y)] [y x R(x, y)]
15. [x y R(x, y)] [y x R(x, y)]
16. [x y R(x, y)] [y x R(x, y)]
Przykłady formalizacji zdań z języka potocznego
Poniżej podamy kilka przykładów przekształcania zdań języka potocznego w formuły rachunku kwantyfikatorów.
Przykład I:
„Istnieją białe gęsi.”
Zamiast „gęś” wstawiamy „G”, a zamiast „biała” – „B”.
x [G(x) B(x)] (istnieją takie x, że x jest białe i x jest gęsią).
Przykład II:
„Wszyscy logicy są palaczami fajek.”
Zamiast „logik” wstawiamy „L”, a zamiast „palacz fajki” „F”.
x [P(x) ® F(x)] (dla każdego x, jeżeli x jest logikiem, to x jest palaczem fajki).
Przykład III:
„Niektóre grzyby nie są trujące.”
Zamiast „grzyb” wstawiamy „G”, a zamiast „trujące” – „T”
x [G(x) ~T(x)] (istnieją takie x, że x jest grzybem i x nie jest trujące).
To samo zdanie możemy wyrazić również za pomocą schematu:
~x [G(x) ® T(x)] (nieprawda, że dla każdego x, jeżeli x jest grzybem, to x jest trujące).
XI Podstawy teorii zbiorów i teorii relacji
1. Podstawowe pojęcia i symbolika rachunku zbiorów
Podstawowym terminem teorii zbiorów jest pojęcie „zbiór”, używane w sensie dystrybutywnym. Zbiorem „A” są wszystkie przedmioty, które są desygnatami nazwy „A”.
Zbiory w rachunku zbiorów przyjęto oznaczać dużymi literami alfabetu łacińskiego (A, B, C itd.). Relację przynależności do zbioru oznacza symbol „”. Przedmioty należące do danych zbiorów oznaczamy małą literami alfabetu łacińskiego (a, b, c itd.). Zbiór przedmiotów danego zbioru zapisuje następująco:
{a1, a2, a3,... an}
Zbiór jednoelementowy zapisuje następująco: {a}.
Zbiór dwuelementowy oznaczamy w następujący sposób:
{a1, a2} lub a1, a2ń
Nawiasy {} oznacza zbiór nieuporządkowany, a nawiasy ń - zbiór uporządkowany.
Zbiór dwuelementowy uporządkowany charakteryzuje się tym, że kolejność jego elementów jest ściśle ustalona, tzn. zapis a1, a2ń nie jest równoważny zapisowi a2, a1ń.
Szczególną postacią zbioru są relacje. Relacje są to zbiory, których elementami są pary uporządkowanych indywiduów. Na przykład relację ojcostwa traktujemy jako identyczną ze zbiorem wszystkich par uporządkowanych, których pierwszymi elementami są ojcowie osąb stanowiących drugie elementy tych par.
Zbiory, których elementami są inne zbiory, nazywamy rodzinami zbiorów. Na przykład szkoła jest zbiorem klas.
2. Stosunki między zbiorami
Zbiory pozostają między sobą w różnych stosunkach, które teraz pokrótce scharakteryzujemy. I tak:
A. Zbiory mogą być rozłączne – rozłączność oznaczamy symbolem zbudowanym z dwóch oddzielonych pod siebie nawiasów )(.
Zapis A)(B oznacza, że zbiór A jest rozłączny względem zbioru B. Zbiory rozłączne nie mają wspólnych elementów. Graficznie zbiory rozłączne przedstawia się w postaci dwóch oddzielnych kół:
Definicję rozłączności zapisujemy następująco:
A)(B x[xA xB].
Znak oznacza przynależność do zbioru.
Znak oznacza, że dany element nie należy do zbioru.
B. Zbiory mogą się krzyżować – krzyżowanie oznaczamy symbolem przecinających się nawiasów okrągłych. Mówimy, że zbiór A krzyżuje się ze zbiorem B.
Zbiór A krzyżuje się ze zbiorem B wtedy i tylko wtedy, gdy mają wspólne elementy:
A) B x[xA xB] x[xA xB] x[xA xB].
Relację krzyżowania się zbiorów przedstawiamy graficznie w postaci dwóch kół zachodzących na siebie:
.
C. Zbiory mogą zawierać się w sobie – zawieranie się jednego zbioru w drugim oznaczamy symbolem : AB. Mówimy zbiór A zawiera się w zbiorze B. Jeśli zbiór A zawiera się w zbiorze B, tzn. że wszystkie elementy zbioru A są jednocześnie elementami zbioru B, ale nie wszystkie elementy zbioru B są elementami zbioru A.
AB x [xA ® xB] (dla każdego x, jeżeli x jest elementem zbioru A, to x jest elementem zbioru B). Ilustrujemy to za pomocą dwóch kół, z których jeden mieści się całkowicie w drugim:
AB
Czasem stosuje się tu symbol inkluzji Ę. Nazywa się go symbolem inkluzji właściwej.
D. Zbiory mogą być sobie równoważne – równoważność zbiorów oznacza znak =.
Zbiór A = B. Czytamy: zbiór A jest równoważny zbiorowi B.
A=B (AB) (BA).
Graficznie relację równoważności przedstawiają dwa pokrywające się obustronnie koła:
A=B
3. Działania na zbiorach
Na zbiorach można dokonywać różne działania, których efektem są nowe zbiory.
Najważniejsze z tych działań – to:
A. Suma zbiorów – oznaczamy ją symbolem : A B
Sumą zbiorów A i B (AB) jest zbiór, którego elementami są wszystkie i tylko te przedmioty, które należą do zbioru A lub do zbioru B:
x(AB) xA x B
Graficznie przedstawiają to działanie dwa przecinające się koła, których pola są zacieniowane:
AB
B. Iloczyn zbiorów – oznaczamy symbolem : AB
Iloczynem zbiorów A i B (AB) jest zbiór, którego elementami są wszystkie i tylko te przedmioty, które należą równocześnie do zbioru a i do zbioru B.
x(AB) xA xB
Graficznie iloczyn dwóch zbiorów przedstawia wspólne pole dwóch krzyżujących się kół:
AB
C. Różnica zbiorów – oznaczamy symbolem „–”: A – B
Różnicą zbiorów (A – B) jest zbiór, którego elementy należą do zbioru A, ale nienależą do zbioru B.
x(A – B) xA xB.
Graficznie różnię zbiorów A i B przedstawia część pola A, która nie krzyżuje się z polem B:
D. Dopełnienie – oznaczamy symbolem: ` A`
Dopełnieniem zbioru A (A`) jest zbiór, którego elementami są wszystkie przedmioty, które nie należą do zbioru A.
x A` xA
Graficznie dopełnienie przedstawia pole zawarte między kołem a otaczającym go kwadratem:
A`
4. Prawa rachunku zbiorów
Z definicji wszystkich stosunków między zbiorami i definicji działań na zbiorach wynikają prawa rachunku zbiorów, analogiczne do praw rachunku zadań i praw rachunku kwantyfikatorów. Oto niektóre z praw rachunku zbiorów:
AA,
0A,
AAB,
ABA,
AA=A,
A0=0,
A1=A,
A1=1,
A – A = 0,
A – 0 = A,
AA` = 1,
AA` = 0,
AB= BA,
AB=BA,
A(BC) = (AB) C,
A(BC) = (AB) C,
A(BC) = (AB)(AC),
A(BC) = (AB)(AC),
A(B – C) = (AB) – (AC),
Najłatwiejszym sposobem przekonania się, czy dane wyrażenie jest prawem rachunku zbiorów, jest metoda graficzna. Polega ona na tym, że dane do sprawdzenia równanie rozrysowujemy za pomocą kół. Obie strony równania powinny dać dokładnie taki sam obraz graficzny, tzn. pola zakreskowane otrzymane z obu równań powinny się pokrywać.
5. Algebra Boole’a zbiorów – aksjomatyczny system rachunku zbiorów
Rachunek zbiorów można również zbudować w postaci systemu aksjomatycznego, zwanego algebrą Booole’a zbiorów. Aksjomaty tego systemu są następujące:
AB = BA
AB = BA
A(BC) = (AB) C,
A(BC) = (AB) C,
A(BC) = (AB)(AC),
A(BC) = (AB)(AC),
A0 = A,
A1 = A,
AA` = 1,
AA` = 0.
Stosując regułę podstawiania dowolnych wyrażeń, reprezentujących zbiory, za pojedyncze zmienne, oraz regułę zastępowania członów równości, można udowodnić każde prawo rachunku zbiorów, które ma postać równości.
6. Podział zbiorów
Podziałem zbioru A jest każda rodzina zbiorów {A1, A2, A3,... AN}, która spełnia trzy następujące warunki:
1) Zbiory A1, A2, A3,... An nie mogą być puste.
Ai ą 0 dla i=1, 2, 3, ..., n.
2) Zbiory A1, A2, A3,... An muszą być rozłączne. Ai ą 0 dla i=1, 2, 3, ..., n.
Ai Aj =0 dla i, j= 1, 2, 3, ..., n., jeśli iąj.
3) Zbiory A1, A2, A3,... An muszą wyczerpywać zbiór A.
A1 A2 A3... An = A
Przykładem podziału zbiorów jest następujący podział publikacji:
1. Publikacje naukowe polskie,
2. Publikacje naukowe obce,
3. Publikacje pozanaukowe polskie,
4. Publikacje pozanaukowe obce.
7. Podstawy teorii relacji.
7.1. Podstawowe pojęcia teorii relacji
Pod pojęciem relacji rozumie się stosunek, który zachodzi między pewnymi elementami jakiegoś zbioru, pod jakimś konkretnym względem.
Relacje dwuczłonowe zachodzące między elementami danego zbioru – to zbiór par uporządkowanych tego zbioru. Relacje zapisujemy w następujący sposób:
a1, a2ń R lub: a1 R a2.
Oba zapisy są stosowane w rachunku relacji.
Ważnym pojęcie teorii relacji jest „dziedzina relacji”.
A. Dziedzina relacji
Dziedziną relacji nazywamy zbiór wszystkich x -ów, dla których istnieje takie y, do którego x pozostaje w relacji R. Dziedzinę relacji oznaczamy zwykle symbolem D(R).
xD(R) y (x R y)
Drugim ważkim pojęciem teorii relacji jest „przeciwdziedzina relacji”.
B. Przeciwdziedzina relacji
Przeciwdziedziną relacji nazywamy zbiór wszystkich y (y-greków), dla których istnieje takie x, które pozostaje w relacji R z y. Przeciwdziedzinę relacji oznaczamy zwykle symbolem (R).
x (R) x (x R y)
Następnym ważnym pojęciem teorii relacji jest „pole relacji”.
C. Pole relacji
Pole relacji jest to zbiór, który jest sumą dziedziny relacji i przeciwdziedziny relacji. Pole relacji oznaczamy symbolem P(R):
P(R) = D (R) + (R)
Na przykład dziedziną relacji „zwierzchnictwa” jest zbiór wszystkich osób mających podwładnych, a przeciwdziedziną zbiór wszystkich osób mających zwierzchników. Polem tej relacji jest suma obu zbiorów.
7.2. Rodzaje relacji
Relacje zachodzące między elementami określonego zbioru można ocenić pod pewnymi szczególnych własności, jakie one wykazują. W ten sposób wyróżniono następujące relacje:
A. Relacja zwrotna (refleksyjna)
x xRx
Relacja R w zbiorze Z jest zwrotna, gdy zachodzi między każdym elementem tego zbioru a nim samym.
B. Relacja przeciwzwrotna
x ~xRx
Przeciwzwrotna jest każda relacja i tylko taka relacja R, która nie zachodzi między żadnym przedmiotem a nim samym. Żaden element tego zbioru nie w tej relacji z samym z sobą. Nikt z ludzi nie może np. być starszy od samego siebie.
C. Relacja symetryczna
xy [xRy ® yRx]
Jest to relacja zachodząca jednakowo w obie strony. X pozostaje do y w tej samej relacji jak y do x. Typowo symetryczną relacją jest relacja równości.
D. Relacja asymetryczna
xy [xRy ® ~yRx]
Taką jest np. relacja starszeństwa między dwoma braćmi.
E. Relacja przechodnia (tranzytywna)
xyz [(xRy yRz) ® xRz]
Relacja przechodnia jest to relacja, która spełnia następujący warunek: jeśli zachodzi między pierwszym i drugim elementem danego zbioru oraz między drugim i trzecim, to zachodzi też między pierwszym i trzecim elementem tego zbioru.
Taką relację opisują stosunki mniejszości i wyższości między trojgiem ludzi.
F. Relacja spójna
xy [(xąy) ® (xRy yRx)]
Taka relacja może zachodzić między dwoma nieidentycznymi przedmiotami.
G. Relacja jednoznaczna
xyz [(xRy xRz) ® y=z]
Relacja jednoznaczna przyporządkowuje każdemu elementowi swej dziedziny tylko jeden element przeciw dziedziny. Relacje jednoznaczne nazywamy funkcjami.
Takimi relacjami są np. równania matematyczne: x = 3y lub x = tg (y) itp.. Dziedzinę (elementy dziedziny) funkcji tworzy zbiór wartości funkcji, a jej przeciwdziedzinę (elementy przeciwdziedziny) – zbiór jej argumentów „y”. W podanych równaniach argumenty są reprezentowane przez zmienną „y”. Natomiast przeciwdziedziną tych relacji są wartości wyrażeń (3x) oraz tg (x).
H. Relacja odwrotnie jednoznaczna
xyz [(xRy zRy) ® x=z]
Relacja odwrotnie jednoznaczna przyporządkowuje każdemu elementowi swej przeciw dziedziny tylko jeden element dziedziny. Taką relacją jest np. relacja macierzyństwa.
XII Wnioskowanie i warunki jego poprawności
1. Pojęcie wnioskowania
Uznawanie i uzasadnianie twierdzeń
Jak powiedzieliśmy na samym początku naszych wykładów, zasadniczym tematem logiki jest zagadnienie jasnego, konsekwentnego, ścisłego i uporządkowanego myślenia, a przede wszystkim – zagadnienie poprawnego wnioskowania. Odkrywanie i formułowanie prawideł ludzkiego myślenia, to jest tych prawideł, którymi rządzi się ludzkie rozumowanie, jest podstawowym zadaniem logiki. Zatem chodzi tu o algorytmy i procedury, według których przebiega rozumowanie ludzi wtedy, gdy rozpatrując jakieś kwestie, naukowe i pozanaukowe, usiłują na podstawie posiadanych przez siebie informacji sformułować konkretne tezy, czyli z określonych przesłanek (racji) wysnuć jakieś satysfakcjonujące ich pod względem logicznym wnioski, które mają stanowić odpowiedź na stawiane przez nich pytania. Szczególnie istotne są tu procedury sprawdzania procesów rozumowania pod kątem ich poprawności logicznej, czyli procedury weryfikacji logicznej. Odkryte i sformułowane przez logików zasady myślenia, w postaci twierdzeń i formalnych schematów wnioskowania, są ważne wszędzie tam, gdzie chodzi nam o logiczną poprawność naszego rozumowania. Szczególnie ważne są wtedy, gdy mamy do czynienia z wnioskowaniem, w którym wyciąga się i uzasadnia wnioski z tez już wcześniej uznanych (i uzasadnionych), lub weryfikuje logicznie (obala lub potwierdza) pewne tezy uzyskane jako wnioski tegoż wnioskowania.
Posłużyliśmy się tu, tak jak wielokrotnie wcześniej, terminem „wnioskowanie”. Użyliśmy go tu, i wcześniej również, w jego potocznym znaczeniu, ale w logice ma on w zasadzie takie same znaczenie. Rozumie się tu po tym pojęciem określony proces myślowy, który polega na uznaniu jakiegoś zdania na podstawie wcześniejszego, mniej lub bardziej stanowczego, uznania innych zdań. Mówi się, że to uznawane zdanie wynika logicznie z tych zdań już uznanych (na przykład w takim samym czy innym procesie wnioskowania). Wiemy już, że owe zdania, z których usiłuje się wywnioskować jakieś nowe zdanie, nazywają się przesłankami (łaciński termin: praemissae), a zdanie, które wyprowadza się z tych przesłanek, nazywane jest wnioskiem (łacińskie: conclusio). Wiemy też, że stopień uznania wywnioskowanego z przesłanek wniosku nie może być większy od stopnia uznania tychże przesłanek. Ten ostatni wymóg jest oczywisty – nie możemy wnioskowi przykładać większej wagi, aniżeli przesłankom (wniosek jest zawsze na tyle wiarygodny, na ile są wiarygodne przesłanki, z których on wynika). Mając to ostatnie stwierdzenie na uwadze, możemy podzielić wnioskowanie, z subiektywnego punktu widzenia, na takie (1), w którym stopień pewności, z jakim uznajemy wniosek, jest równy stopniowi pewności, z jakim uznaliśmy przesłanki, oraz na takie (2), w którym stopień uznania wniosku jest mniejszy od stopnia uznania przesłanek. Pierwsze wnioskowanie nazywamy subiektywnie pewnym; drugie – subiektywnie niepewnym. Niebawem omówimy te dwa rodzaje wnioskowania. Tymczasem przedstawimy krótko inne sposoby uznawania zdań.
Wnioskowanie jest jednym ze sposobów wzbogacania naszej wiedzy i budowania naszych przekonań. Nie jest jednak sposobem jedynym. Wiedzę i przekonania zdobywamy także na podstawie świadectwa naszych zmysłów. W podobny sposób, tzn. w oparciu o świadectwo naszych zmysłów, możemy uzasadniać lub obalać pewne tezy. Wszystkie tego rodzaju sądy, tzn. zdania wydane w oparciu o świadectwo naszych zmysłów, nazywamy sądami opartymi bezpośrednio na doświadczeniu zewnętrznym. Bardzo wiele tez naukowych, a także naszych przekonań, opiera się na doświadczeniu zewnętrznym. Oprócz doświadczenia zewnętrznego, czyli tego, którego dostarczają nam nasze zmysły, mamy jeszcze doświadczenie wewnętrzne, które dzieje się niejako w naszej duszy czy umyśle. Chodzi tu o głównie o nasze przeżycia psychiczne (z zakresu doświadczanych przez nas emocji, takich jak różnorakie niepokoje, lęk, trwogę, fascynacje, podziw itd.), ale również duchowe (takie jak miłość, doświadczenie piękna moralnego itp.), w tym mistyczne (np. przeżycia religijne).
Wracając do głównego tematu naszego wykładu, możemy powiedzieć, iż mamy dwa podstawowe sposoby zdobywania przekonań. Pierwszy sposób opiera się na bezpośrednim doświadczeniu, zewnętrznym lub wewnętrznym. Drugi sposób – to wnioskowanie. Podobnie w dwojaki sposób można uzasadniać swoje przekonania, sądy, a także twierdzenia naukowe. Przekonania i przeświadczenia zdobyte na drodze doświadczenia zmysłowego, w ten sam sposób mogą być uzasadniane bądź odrzucane. Taki sposób, tzn. uzasadnianie przez doświadczenie, nazywa się uznawaniem bezpośrednim. Drugi sposób, uzasadnianie za pomocą wnioskowania, nazwano uzasadnianiem pośrednim, bo tu uzasadnienie jakiegoś zdania dokonuje się za pośrednictwem zdań już wcześniej uznanych. W obu wypadkach chodzi o znalezienie argumentów potwierdzających lub odrzucających dane twierdzenie, tyle że w pierwszym przypadku opieramy się bezpośrednio na świadectwie naszych zmysłów (lub doświadczeniu wewnętrznym), gdy w drugim szukamy oparcia w twierdzeniach wcześniej uznanych za prawdziwe. Uzasadnianie bezpośrednie może być uznane za niezawodne tylko w takim stopniu, w jakim jest niezawodne świadectwo naszych zmysłów czy świadectwo naszych wewnętrznych doznań. Jak wiemy, oba świadectwa bywają zwodnicze. Zarówno nasze zmysły, jak i nasze wewnętrzne doznania mogą nas mylić. Zwykle jednak uzasadnianie bezpośrednie w drodze doświadczenia, zwłaszcza doświadczenia zmysłowego, bywa uznawane za w miarę niezawodne, a tym samym w wielu przypadkach – za ostateczne. Natomiast wnioskowanie, aby mogło być uznane za uzasadnienie jakiejś tezy, musi spełniać dwa warunki. Po pierwsze, musi opierać się na prawdziwych przesłankach. Po drugie, między tymi przesłankami a wnioskiem musi istnieć związek logiczny (a ściślej – związek logicznego wynikania), który sprawia, że prawdziwość przesłanek stanowi gwarancję prawdziwości wniosku, lub przynajmniej czyni prawdopodobnym. W pierwszym przypadku z prawdziwych przesłanek wnioskuje się zawsze prawdziwy wniosek i można wtedy mówić o niezawodnym sposobie wnioskowania. Natomiast w drugim przypadku może się zdarzyć, że przesłanki będą prawdziwe, ale wniosek mimo to będzie fałszywy, ale może się też zdarzyć, że prawdziwe przesłanki dadzą prawdziwy wniosek. W takiej sytuacji mówimy o wnioskowaniu zawodnym. Nie ma ono takiej wartości, jak poprzednie. Nie jest jednak zupełnie bezużyteczne. Nie może oczywiście być uznane za niezawodny sposób uzasadniania twierdzeń, ale może służyć do uzasadniania zwiększającego prawdopodobieństwo jakiegoś twierdzenia. Takie wnioskowanie, jak to ostatnie, nazywa się wnioskowaniem uprawdopodobniającym. Jego stosowanie jest nieuniknione w bardzo wielu sytuacjach życiowych, ale ma ono również zastosowanie w naukach przyrodniczych i społecznych, w których wiele tez nie zdobyto w drodze wnioskowania niezawodnego, a jedynie uprawdopodobniono. Dlatego może się zdarzyć, że nowe okoliczności (nowe przesłanki) je obalą albo umocnią. Dodajmy jeszcze, że na formule wnioskowania uprawdopodobniającego opiera się też wiele przesądów. Wynika to stąd, że ludzie często łączą ze sobą przyczynowo pewne zdarzenia, choć między nimi występuje wyłącznie związek czasowy. W przypadku, gdy jakieś zdarzenia współwystępują dość często, ludzie wiążą je w związek przyczynowo-skutkowy, a wierząc weń w efekcie uzależniają się w pewien sposób od nich psychicznie. Zdaje się, że w ten sposób np. powiązano np. czarnego kota z nieszczęściem (jeśli tylko przebiegnie on drogę), a kukanie kukułki ze szczęściem itd..
2. Zasada racji dostatecznej
Z powyższym zagadnieniem uzasadniania twierdzeń wiąże się zasada racji dostatecznej. Rzecz w tym, krótko mówiąc, że nie powinno się przyjmować za prawdziwe żadnych twierdzeń bez ich należytego uzasadnienia. Każde twierdzenie i każde zdanie winno być należycie uzasadnione za pomocą odpowiednich racji. Z tą zasadą wiąże się postulat krytycyzmu, który domaga się od nas krytycznej postawy wobec wszelkich podawanych nam teorii, idei, przekonań i ideologii. Postulat krytycyzmu, wypływający z zasady racji dostatecznej, chroni nas przed lekkomyślnym przejmowaniem cudzych poglądów i niesprawdzonych teorii. Nie stoi jednak na przeszkodzie zdobywaniu wiedzy za pośrednictwem nauczycieli i podręczników, aczkolwiek i tu potrzebny jest zdrowy rozsądek i osadzony na nim krytycyzm. Nie wszystkie poglądy, serwowane nam przez różnych nauczycieli, musimy przyjmować bezkrytycznie. Krytycyzm każe nam domagać się uzasadnień dla głoszonych poglądów. Historia wskazuje, że postawa krytycyzmu jest jak najbardziej zasadna. Wszak bardzo wiele poglądów i teorii, zwłaszcza z różnych dziedzin nauk ścisłych, ale nie tylko, które przez wiekami były głoszone jako absolutnie prawdziwe, z biegiem wieków odrzucono w procesie rozwoju nauki. Dodajmy jeszcze, że postulat krytycyzmu nakazuje nam postawę krytyczną również wobec własnych poglądów.
Z zasadą racji dostatecznej i postulatem krytycyzmu wiąże się jeszcze jedno, a mianowicie kwestia różnych forteli i chwytów retorycznych, czyli nieuczciwych sposobów argumentowania i wpływania na ludzi. Będziemy o tym mówić w swoim miejscu, a mianowicie po omówieniu najważniejszych błędów wnioskowania. Na razie pozostaniemy jeszcze przy samym uzasadnianiu twierdzeń.
3. Wnioskowanie logiczne
Szczególnym przypadkiem wnioskowania jest znane nam już wynikanie logiczne. Poznaliśmy wiele różnych schematów wnioskowania, opartych na wynikaniu logicznym, między innymi schemat zwany modus ponendo ponens, modus tollendo tollens i wiele innych schematów, w tym także różne tryby sylogistyczne i schematy związane z kwadratem logicznym. Cechą szczególną tych wszystkich schematów jest, jak pamiętamy, to, że są one skonstruowane z pewnych formuł i funkcji zdaniowych, zbudowanych ze stałych logicznych i zmiennych zdaniowych (lub nazwowych). Owe schematy nie są jeszcze same w sobie zdaniami logicznym w pełnym tego słowa znaczeniu, bo nie można przypisać im wartości logicznej, tzn. prawdy lub fałszu. Są one formalnymi schematami wnioskowania. Dopiero po podstawieniu w nich za stosowne zmienne zdań (lub nazw) stają się zdaniami logicznymi, którym można przypisać prawdę lub fałsz. Spośród wielu formalnych schematów wnioskowania interesują nas przede wszystkim schematy niezawodne, tzn. takie, które nigdy nie doprowadzą wnioskowania przebiegającego według nich od prawdy do fałszu, czyli od prawdziwych przesłanek do fałszywego wniosku. Właśnie takie niezawodne schematy wnioskowania otrzymały nazwę logicznych schematów wnioskowania, a wynikanie realizowane na tych schematach nazwano wynikaniem logicznym. Przypomnijmy, że o niezawodności logicznego schematu wnioskowania decyduje wyłącznie jego struktura formalna, czyli budowa. To ona sprawia, że z prawdziwych przesłanek otrzymujemy niezawodnie prawdziwy wniosek. Struktura formalna schematu wnioskowania decyduje o procedurze samego wnioskowania, czyli niejako wytycza bieg myśli zdążającej od przesłanek do konkluzji.
4. Warunki poprawności wnioskowania logicznego
Schematom i samym procesom wnioskowania nie można przypisać wartości logicznej. Nie podpadają one pod ocenę z punktu widzenia ich prawdziwości czy fałszu. Są one oceniane wyłącznie pod względem ich poprawności logicznej. Pod ocenę prawdziwości podpadają natomiast przesłanki i wniosek.
Jeśli wnioskowanie ma być poprawne, powinno spełniać określone warunki. Jeśli ich nie spełnia, musi być uznane za niepoprawne. Innym wymaganiom muszą zadośćuczynić te wnioskowania, które roszczą sobie pretensje do absolutnej niezawodności, a innym (mniej rygorystycznym) te, których zadaniem jest jedynie uprawdopodobnienie swego wniosku.
Pierwszym i niezbywalnym wymaganiem, stawianym wszelkiego rodzaju wnioskowaniom, jest żądanie, by opierały się one na prawdziwych przesłankach. Zarówno wnioskowanie mające pretensje do wyprowadzenia ze swoich przesłanek wniosku całkowicie pewnego, jak również takie, które swój wniosek podaje tylko jako prawdopodobny, powinno bazować na przesłankach, które są prawdziwe. Wnioskowanie, które nie spełnia tego postulatu, chociażby w odniesieniu do jednej przesłanki, popełnia błąd materialny. Więc gdy wykaże się, że czyjeś wnioskowanie zawiera jako przesłankę zdanie fałszywe, wykaże się tym samym, że całe proces rozumowania jest logicznie niepoprawny, a więc bezwartościowy.
Prawdziwość przesłanek nie zapewnia jednak samemu procesowi, jakim jest wnioskowanie, wymaganej odeń poprawności. Przesłanki mają być nie tylko prawdziwe, winny być nadto właściwie uzasadnione. Nie mogą być przyjęte bez należytego uzasadnienia. Ich prawdziwość musi być z góry zagwarantowana mocą odpowiedniego uzasadnienia. W przeciwnym wypadku wnioskowanie popada w błąd zwany petitio principii, co dosłownie znaczy: „żądanie początku” – żądanie powrotu do początku rozumowania, do momentu, w którym wszystkie przesłanki są należycie uzasadnione.
Wiemy, że w niektórych procesach wnioskowania niektóre przesłanki pozostają ukryte. Zauważyliśmy to w przypadku entymematu, to jest sylogizmu entymematycznego. Takie wnioskowanie nazywamy entymematycznym. W sytuacji, gdyby jedna z przemilczanych (świadomie bądź nieświadomie) przesłanek entymematu okazała się nieprawdziwa, wnioskowanie zostanie uznane za materialnie niepoprawne (jako zawierające błąd materialny). Gdyby zaś okazało się, że o którejś z przesłanek entymematycznych (niejawnych) w ogóle nie wiadomo, czy jest prawdziwa czy fałszywa, trzeba uznać dane wnioskowane za niepoprawne z powodu bezpodstawnego przyjęcia przesłanek, czyli błędu petitio principii. W przypadku wnioskowań entymematycznych (entymematów) może się zdarzyć, że któraś z jego przesłanek jest nie tylko bezpodstawnie przyjęta, ale do tego jeszcze, gdy zażąda się jej uzasadnienia, to otrzymuje się, jako podstawę tego uzasadnienia, wniosek naszego entymematu, który wszak sam jest wątpliwy właśnie z tej racji, że ta przesłanka nie została uprzednio należycie uzasadniona. Taki błąd nosi nazwę „błędnego koła w dowodzeniu” (łac.: circulus in probando, analogicznie do circulus in definiendo). Czasem zdarza się nawet, że teza z wniosku stanowi wręcz jedną z przesłanek wnioskowania. Obie formy błędnego koła w dowodzeniu można zaliczyć do błędu petitio principii.
Na nic się jednak zdadzą prawdziwe przesłanki, a do tego należycie uzasadnione, jeśli sam proces rozumowania będzie wadliwy, tzn. będzie poprowadzony według wadliwego schematu, to jest takiego, który nie spełnia warunku, jakim jest wymóg logicznego wynikania wniosku z przesłanek. W procesie wnioskowania, które chce być uznane za subiektywnie pewne, całą pewność z przesłanek przelewamy na wniosek, tzn. na podstawie całkowicie pewnego uznania przesłanek dochodzimy do równie pewnego uznania wniosku, za pomocą stosownego schematu niezawodnego wnioskowania. Takie postępowanie będzie tylko wtedy prawomocne, gdy prawdziwość przesłanek będzie gwarantem prawdziwości wniosku, czyli gdy ów wniosek będzie wynikał logicznie z tych przesłanek, tzn. na zasadzie niezawodnego schematu wnioskowania. Jeśli wniosek nie będzie wynikał logicznie z przesłanek, wnioskowanie zostanie uznane za niepoprawne formalnie. Taki błąd nosi nazwę błędu formalnego, gdyż tkwi on w strukturze formalnej tego rozumowania. Schemat wnioskowania uznanego za formalnie niepoprawne, nie odpowiada niezawodnemu schematowi wnioskowania. Jednak w przypadku wnioskowania niezawodnego (tzn. takiego, które rości sobie pretensje do absolutnej niezawodności), schemat, według którego ono przebiega, musi odpowiadać niezawodnemu schematowi wnioskowania logicznego, którego poprawność jest zagwarantowana przez konkretne twierdzenia logiki, na których ono się opiera. Tylko bowiem takie wnioskowanie jest formalnie poprawne.
Zauważmy, że warunek formalnej poprawności wnioskowania domaga się, aby jego wniosek wynikał „logicznie” z przesłanek, a nie „po prostu wynikał”. Chodzi o to, by dany proces rozumowania odpowiadał kryteriom wynikania logicznego, a tym samym był logicznie weryfikowalny, tzn. weryfikowalny pod względem poprawności logicznej. Brak logicznego wynikania między przesłankami a wnioskiem jest dowodem formalnej niepoprawności wnioskowania.
Aby dowieść, że dane wnioskowanie nie jest formalnie poprawne, trzeba wykazać, że nie ma takiego schematu formalnego, pod który by to wnioskowanie podpadało, a który byłby niezawodny. Proces falsyfikacji danego wnioskowania zwykle przebiega następująco: 1) wpierw zapisujemy dane wnioskowanie w postaci schematu formalnego, w którym w miejsce konkretnych zdań wstawiamy zmienne zdaniowe, a spójniki gramatyczne zastępujemy spójnikami prawdziwościowymi; 2) następnie sprawdzamy niezawodność tego schematu np. metodą zerojedynkową – jeśli ma być to schemat niezawodny, to dla każdych podstawień za zmienne zdaniowe wartości 1 i 0 winno ono dać wynik pozytywny. Gorzej jest, gdy dane wnioskowanie podpada pod większą ilość schematów wnioskowania. Wtedy trzeba poddać procedurze sprawdzania wszystkie te schematy. Rzecz stanie się nieco łatwiejsza, jeśli zauważymy na przykład, że niezawodność schematu zbudowanego na zdaniach ogólnych pociąga za sobą niezawodność schematu szczegółowego. Wynika to stąd, że z prawdziwego zdania ogólnego wynika prawdziwe zdanie szczegółowe. Tym samym, jeśli zdanie szczegółowe jest nieprawdziwe, to i zdanie ogólne nie może być prawdziwe. Zatem jeśli wykaże się, iż schemat wnioskowania na konkretnych zdaniach szczegółowych jest zawodny, to tym samym wykaże się, że ten sam schemat wnioskowania na zdaniach ogólnych również jest zawodny.
Wnioskowaniom, od których nie wymaga się bezwzględnej niezawodności, nie stawia się warunku, by były one oparte na niezawodnym schemacie wnioskowania. Wystarczy w ich przypadku, gdy prawdziwość przesłanek będzie gwarantowała jedynie odpowiedni stopień prawdopodobieństwa wniosku. Jeśli jednak nie spełniają one tego warunku muszą być uznane za niepoprawne.
Wymóg poprawności formalnej i materialnej – to najważniejsze warunki, jakie musi spełnić wnioskowanie, jeśli ma być uznane za pewne i poprawne logiczne, a wykroczenia przeciwko tym wymogom – to najgroźniejsze błędy, jakie zagrażają naszym rozumowaniom, ale nie jedyne. Oprócz nich jest jeszcze wiele innych błędów. Część z nich już poznaliśmy przy okazji prezentacji błędów definiowania. Inne zostaną one omówione po przedstawieniu różnych sposobów wnioskowania.
5. Wnioskowanie dedukcyjne
Wnioskowanie, z którego przesłanek wniosek wynika logicznie, tzn. w oparciu o niezawodne schematy wnioskowania, nazywa się wnioskowaniem dedukcyjnym. O niezawodności wnioskowania dedukcyjnego decyduje niezawodność schematu logicznego, według którego ono przebiega. W procesie wnioskowania dedukcyjnego wniosek wynika logicznie wedle jakiegoś niezawodnego schematu. Z tej racji jest ono zawsze niezawodne, tzn. nigdy nie prowadzi od prawdziwych przesłanek do fałszywego wniosku. Przykłady wnioskowania dedukcyjnego poznaliśmy przy okazji przedstawiania niezawodnych schematów rachunku zdań.
Niekiedy mamy do czynienia z wnioskowaniem dedukcyjnym, a więc przebiegającym według jakiegoś schematu logicznego, w którym wniosek z przesłanek wynika emtymematycznie z uwagi na pewne zdania wchodzące w skład wiedzy wnioskującego, ale nie ujawnione i nie podane w samym procesie wnioskowania jako jego (jawne) przesłanki. Takie wnioskowanie nazywane jest „wnioskowaniem dedukcyjnym w świetle wiedzy wnioskującego”. Często z tym typem wnioskowania dedukcyjnego mamy do czynienia w matematyce. Przy tego rodzaju wnioskowaniu może pojawić się jednak trudność praktyczna, wynikająca stąd, że trudno ustalić, co wchodzi w skład tej wiedzy. Dlatego tam, gdzie wymagana jest precyzyjna ocena wnioskowania, podaje się tę wiedzę w postaci zdań, które ją tworzą.
Wnioskowanie dedukcyjne jest szczególnym przypadkiem ogólniejszego procesu, który nazywamy dedukowaniem. O dedukowaniu lub wyprowadzaniu na drodze dedukcji jakiegoś zdania ze zdań innych mówimy zawsze tam, gdzie do pewnych zdań dobieramy inne zdanie, które z nich wynika logicznie lub entymematycznie z uwagi na naszą wiedzę. Dedukowanie jednych zdań z drugich może występować zarówno w postaci spełnionego wnioskowania dedukcyjnego, jak też w postaci potencjalnego tylko wnioskowania – na zasadzie: co by było, gdyby było tak a tak?
Szczególną postać wnioskowania dedukcyjnego stanowi tzw. dowodzenie. Dowodzenie jakichś tez naukowych czy jakichś innych sądów polega na poszukiwaniu twierdzeń, z których dałoby się wywieść logicznie dowodzone tezy czy sądy. Chodzi tu głównie o twierdzenia uzyskane metodą dedukcji, które, jako takie właśnie, mogą być tą samą metodą udowadniane. Ale można też w szczególnych przypadkach dowodzić dedukcyjnie, w oparciu o stosowną wiedzę fachową, tezy sformułowane na podstawie doświadczenia zmysłowego. Często tak się dzieje w naukach ścisłych, w których niektóre prawa odkryte na drodze eksperymentalnej, bywają potwierdzane również w procesie wnioskowania dedukcyjnego, czyli wywnioskowane z wcześniejszych twierdzeń. Udowodnione tezy stają się twierdzeniami danej dziedziny wiedzy.
Dowodzenie miewa za zwyczaj dwie postaci. Jedną z nich jest tzw. dowód wprost, a drugą tzw. dowód nie wprost (inaczej apagogiczny, przez sprowadzenie do absurdu – łac.: reductio ad absurdum). Dowód wprost polega na wskazaniu twierdzenia lub twierdzeń, z których dowodzona teza wynika logicznie jako wniosek. Natomiast dowód nie wprost polega na zanegowaniu dowodzonej tezy i wykazaniu, że zanegowanie tej tezy musi prowadzić do zaprzeczenia jakiemuś uznanemu już twierdzeniu. W dowodzie nie wprost wykorzystuje się najczęściej znany nam modus tollendo tollens: [(p ® q) ~q] ® ~p. Za zwyczaj postępuje się według następującej procedury: Zakładamy, że twierdzenie „a”, którego mamy dowieść, jest nieprawdziwe, przyjmując za prawdziwe zdanie, które mu przeczy, czyli „nie-a”. Następnie wyciągamy ze zdania „nie-a”, na zasadzie wnioskowania logicznego, jakieś zdanie „b”. Jeśli owo zdanie „b” okaże się fałszywe (bo np. przeczy uznanemu już twierdzeniu lub aksjomatowi), to tym samym zdanie „nie-a” musi być również fałszywe (gdyż fałsz wynika wyłącznie z fałszu). Skoro tak, to prawdziwe musi być zdanie „a” będące zaprzeczeniem zdania „nie-a”. Niekiedy zdanie „b”, sprzeczne z jakimś twierdzeniem, bywa którymś tam z kolei następstwem zdania „nie-a” (gdy wcześniejsze okazywały się prawdziwe), ale to nie wypływa na poprawność dowodzenia, a jedynie je wydłuża.
6. Wnioskowanie uprawdopodobniające
Wnioskowanie dedukcyjne, uprzednio przedstawione, jest subiektywnie pewne – prawdziwość przesłanek zapewnia prawdziwość wniosku. Z prawdziwych przesłanek zawsze otrzymamy absolutnie prawdziwy wniosek – gwarantuje nam to niezawodny schemat logicznego wnioskowania. Jednak w praktyce nie zawsze mamy do czynienia z tego typu wnioskowaniem. Często spotykamy się z wnioskowaniami, które nazwaliśmy subiektywnie niepewnymi, tzn. takimi, w których wyprowadzony z jakichś przesłanek wniosek nie cieszy się tym samym stopniem pewności, co przesłanki. Przesłanki mogą być np. uznane z całą stanowczością, a wniosek tylko dopuszczony. Np. wiemy, że pewne sytuacje społeczne mają często określone następstwa polityczne. W przeszłości często byliśmy świadkami takich związków. Dlatego ilekroć stwierdzamy zaistnienie tego typu sytuacji, spodziewamy się wystąpienia również znanym nam następstw politycznych. Wiemy np. że jeśli w jakimś ważnym dziale gospodarczym wyborcy podnoszą jakieś roszczenia i grożą strajkiem, to w sytuacji przedwyborczej wpływowi politycy na ogół im ulegają, by zapewnić sobie ich głosy. Jednakowoż może się zdarzyć, że tym razem tak jednak nie będzie. Zatem nie możemy mieć absolutnej pewności, że takie same zdarzenia społeczne będą miały i tym razem takie same skutki polityczne, co kiedyś. Możemy co najwyżej spodziewać się, że przewidywane przez nas skutki z jakimś tam stopniem pewności nastąpią. Nie możemy mieć jednak, co do tego, całkowitej pewności. Nie można bowiem wykluczyć, że w przeszłości na zachowanie polityków miały wpływ również inne, nie znane nam okoliczności, których teraz może nie być.
Podobny związek występuje między wnioskiem a przesłankami w wnioskowaniu subiektywnie niepewnym, gdyż nie zachodzi między nimi stosunek wynikania logicznego (który wyklucza przypadek, gdy przesłanki są prawdziwe, a wniosek fałszywy). Zachodzi tu związek znacznie słabszy od wynikania logicznego, a mianowicie uprawdopodobnienie wniosku przez przesłanki.
Z wnioskowaniem uprawdopodobniającym mamy często do czynienia w naukach przyrodniczych i społecznych, kiedy na podstawie pewnych twierdzeń, czyli zdań prawdziwych, urabiamy jakieś tezy, co do których jednak nie żywimy tej samej pewności, z jaką podchodzimy do samych twierdzeń. Możemy tu mówić jedynie o jakimś stopniu pewności, z jakim uznajemy owe tezy za prawdziwe. W określonej sytuacji, posiadana przez nas wiedza dopuszcza, byśmy na podstawie określonych racji uznali, z pewnym stopniem pewności, prawdziwość wypływającego z nich (choć nie na zasadzie wynikania logicznego) wniosku. Jednak zdajemy sobie jednocześnie sprawę z tego, że w przyszłości, w miarę postępu naszej wiedzy, możemy ów wniosek odrzucić jako fałszywy, albo potwierdzić jego prawdziwość. Stopień pewności, z jakim na podstawie prawdziwych przesłanek mamy prawo uznać jako prawdziwy wypływający z nich wniosek, określa się zwykle za pomocą prawdopodobieństwa logicznego.
7. Wnioskowanie redukcyjne
Szczególną postacią wnioskowania uprawdopodobniającego jest wnioskowanie redukcyjne (inwersyjne). Wnioskowanie redukcyjne zilustrujemy przykładem, który opisuje sytuację, z jaką sami bardzo często mamy do czynienia. Często nam się zdarza, że jesteśmy zajęci lekturą i zapominamy o całym świecie. W pewnym momencie odrywamy się od książki i podchodzimy do okna. Zauważamy, że niebo nie jest za bardzo zachmurzone, ale ulice i drzewa są mokre. Stąd wnioskujemy, że musiał padać deszcz, gdy my byliśmy pogrążeni w lekturze i niczego nie słyszeliśmy. Nasze rozumowanie wyglądało mniej więcej tak:
Ulice i drzewa są mokre, zatem padał deszcz.
Jest to przykład wnioskowania redukcyjnego. Przesłankami tego rozumowania są zdania opisujące skutki określonego zjawiska (mokre ulice i drzewa). Natomiast wnioskiem – zdanie stwierdzające zajście owego zjawiska (deszczu). Nasze rozumowanie biegnie tu odwrotnie do stosunku do wynikania. Przecież mokre ulice i drzewa są następstwem deszczu, a deszcz jest ich racją. Zatem z następstwa wnioskowaliśmy o racjach. I tak właśnie przebiega zawsze wnioskowanie redukcyjne – od następstwa do racji.
Powróćmy na moment jeszcze do naszego przykładu. Nasze rozumowanie przebiega tu następująco: ustaliliśmy, że ulice są mokre i drzewa są mokre. Wiedząc, że takie właśnie są skutki deszczu, wnioskujemy, że padał deszcz. Zdajemy sobie jednak sprawę z tego, że to rozumowanie jest zawodne. W końcu mogła po prostu jechać solidna polewaczka. Jednakże i tak prawdopodobieństwo, że padał deszcz jest większe, aniżeli prawdopodobieństwo, że deszcz nie padał.
Zawodność wnioskowania redukcyjnego wynika stąd, że nie opiera się ono na niezawodnym schemacie wnioskowania. Wniosek nie wynika tu logicznie z przesłanek, a jedynie jest uprawdopodobniony.
Gdy odwrócimy nasze rozumowanie, tzn. gdy wniosek, którym jest zdanie „padał deszcz” uczynimy przesłanką, a przesłankę „ulice i drzewa są mokre”, uczynimy wnioskiem, to otrzymamy wnioskowanie, które możemy zapisać następująco: „padał deszcz, i dlatego ulice i drzewa są mokre”. O ile poprzednio schemat wnioskowania nie był niezawodny, to tym razem schemat jest niezawodny. Możemy to ująć w prosty schemat:
[(p ® q) p] ® q,
„p” oznacza tu zdanie: „padał deszcze”, a
„q” – „ulice i drzewa są mokre”.
Otrzymaliśmy znane nam prawo logiczne: modus ponendo ponens.
Wnioskowanie redukcyjne jest jedynie wnioskowaniem uprawdopodobniającym. Jest poprawne, gdy prawdopodobieństwo, że wniosek jest prawdziwy, jest większe niż prawdopodobieństwo, że jest on fałszywy.
Prawdopodobieństwo prawdziwości twierdzenia przyjętego jako wniosek wnioskowania redukcyjnego, mający stanowić rację dla zaobserwowanych następstw, będących w tym wnioskowaniu przesłankami, jest tym większe, im więcej tych następstw uda się stwierdzić.
8. Wnioskowanie indukcyjne
8.1. Indukcyjny proces badawczy. Pojęcie wnioskowania indukcyjnego
Wnioskowanie dedukcyjne i oparty na nim aksjomatyczny system jest najlepszą, bo najpewniejszą, formą teorii naukowej. Jednak nie zawsze jest możliwe zbudowanie takiego systemu dedukcyjnego. Teorie nauk empirycznych, a więc już z założenia opartych na badaniach doświadczalnych, są zwykle wynikiem określonych procesów badawczych, w których znajdują zastosowanie metody niededukcyjne. I właśnie tym metodom nauki empiryczne zawdzięczają znakomitą większość swoich twierdzeń. Wśród tych metod królują zdecydowanie metody oparte na tzw. wnioskowaniu indukcyjnym. Niebawem opiszemy nieco szerzej najważniejsze rodzaje wnioskowania indukcyjnego. Zanim jednak to zrobimy, przyjrzyjmy się, chociaż pobieżnie, indukcyjnemu procesowi badawczemu, który wykorzystują nauki przyrodnicze i społeczne. W typowym indukcyjnym procesie badawczym możemy zauważymy trzy podstawowe fazy :
1. Faza pierwsza i zarazem punkt wyjścia całego procesu – to obserwacja zjawisk empirycznych i zbieranie danych (na przykład obserwujemy zachowanie różnych grup zwierząt z danego gatunku i zbieramy stosowne informacje; robimy jakieś szczegółowe badania techniczne na przygotowanych próbkach określonych metali i notujemy otrzymane wyniki; prowadzimy obserwacje różnych przypadków określonego zjawiska przyrodniczego (np. huraganu) i notujemy okoliczności, w jakich ono występuje i jak przebiega; obserwujemy i opisujemy konkretne przypadki jakiegoś interesującego nas zjawiska ekonomicznego, np. bankructwa firmy).
2. Druga faza polega na dokonywaniu uogólnień – informacje opisujące szczegółowe przypadki uogólniamy, tworząc w ten sposób jakieś hipotezy naukowe. Formułowane na podstawie obserwacji hipotezy mają na celu za zwyczaj opisanie i wyjaśnienie zaobserwowanych zjawisk (np. zachowania zwierząt danego gatunku z naszego pierwszego przykładu; czy, jak w naszym drugim przykładzie, własności metali na podstawie ich struktury wewnętrznej zaobserwowanej pod mikroskopem; czy też okoliczności, przebiegu i skutków jakiegoś zjawiska przyrodniczego, z przykładu trzeciego; czy wreszcie okoliczności, przebiegu i skutków interesującego nas procesu ekonomicznego, z naszego czwartego przykładu).
3. Trzeci etap – to budowanie pewnego systemu wiedzy przez zestawianie sformułowanych hipotez i informacji na temat obserwowanych zjawisk, a następnie powiązanie ich ze sobą w jedną całość za pomocą jakiejś hipotezy nadrzędnej, która rzuca światło na całość obserwowanego zjawiska i je wyjaśnia. W ten sposób pojawia się teoria naukowa, która wyjaśnia przebieg i przyczyny określonych zjawisk (atmosferycznych, ekonomicznych, zachowań zwierząt czy własności metali).
Uogólniając powyższe uwagi na temat naszkicowanych trzech etapów procesu indukcyjnego, możemy powiedzieć, że sprowadzają się one do sformułowania, na podstawie obserwacji, określonych tez. W dalszym etapie owe tezy będą użyte jako przesłanki wnioskowania, które ma doprowadzić do jakiejś hipotezy, a dalej – teorii naukowej. Samo to wnioskowanie polega na uogólnianiu informacji niesionych przez poszczególne przesłanki (szczegółowe). Efektem takiego uogólniającego wnioskowania jest wniosek, który ma postać zdania ogólnego i tym tylko różni się od swoich przesłanek, które są zdaniami szczegółowymi (tzn. mówiącymi o konkretnych, a więc niejako szczegółowych przypadkach danego zjawiska). Najkrócej rzec ujmując: to, co poszczególne przesłanki przypisują konkretnym przypadkom danego zjawiska, wniosek przypisuje temu zjawisku w ogóle, czyli we wszystkich jego zaistnieniach. Na przykład zaobserwowane cechy poszczególnych przypadków konkretnego zjawiska przyrodniczego czy ekonomicznego uogólniane są we wniosku na dane zjawisko przyrodnicze czy ekonomiczne w ogóle, tzn. spodziewamy się ich we wszystkich pozostałych przypadkach tych zjawisk, w tym również w przyszłości.
8.2. Indukcja matematyczna
Szczególnym przypadkiem indukcji jest indukcja matematycznej. Pozostałe rodzaje indukcji w pewien sposób nawiązują do niej. Dlatego zanim przedstawimy poszczególne rodzaje wnioskowania indukcyjnego, interesujące z logicznego punktu widzenia, przypomnimy istotę indukcji matematycznej. Indukcja matematyczna jest to wnioskowanie, w którym z dwóch przesłanek – z których jedna stwierdza, iż pewna formuła f(n) zawierająca zmienną „n” sprawdza się dla n=1, druga zaś stwierdza, że jeśli formuła F(n) sprawdza się dla n=k (gdzie k jest liczbą naturalną), to sprawdza się również dla n=(k+1) – wyprowadza się wniosek mówiący, że formuła F(n) sprawdza się dla wszystkich naturalnych wartości zmiennej n. Zatem mamy tu dwie przesłanki. Pierwsza z nich stwierdza, że określona prawidłowość F zachodzi dla pierwszego elementu danego zbioru. Druga przesłanka stanowi okres warunkowy: jeśli określona prawidłowość F zachodzi dla elementu k badanego zbioru, to zachodzi ona również dla elementu (k+1) tego zbioru. Wniosek natomiast stwierdza, że wszystkie elementy danego zbioru wykazują określoną prawidłowość.
Indukcja matematyczna stanowi niezawodny sposób wnioskowania.
Mechanizm zastosowany w indukcji matematycznej wykorzystuje w pewnym stopniu indukcja enumeracyjna, niezupełna i zupełna.
Do najczęściej stosowanych metod wnioskowania przez indukcję należy właśnie wnioskowanie przez indukcję enumeracyjną niezupełną lub zupełną, które teraz w kilku zdaniach przedstawimy.
8.3. Wnioskowanie przez indukcję enumeracyjną niezupełną
Wnioskowanie przez indukcję enumeracyjną niezupełną polega na tym, że na podstawie zdań jednostkowych przypisujących pewną własność P poszczególnym przedmiotom S1, S2, S3, ..., Sn, z których każdy należy do klasy przedmiotów S, dochodzi się do wniosku, który własność P przypisuje wszystkim przedmiotom klasy S. Schemat tego wnioskowania można zapisać następująco :
S1 jest P, S2 jest P, S3 jest P, ..., Sn jest P,
przy czym wszystkie S1, S2, S3, ..., Sn, należą do klasy S
-------------------------------------------------------------------------
Zatem: każde S jest P.
Z tego schematu widać, że wnioskowanie przez indukcję niezupełną wyprowadza ze zdań szczegółowych wniosek, którym jest jakieś twierdzenie ogólne. Z formalnego punktu widzenia schemat, którym operuje wnioskowanie przez indukcję niezupełną, jest zawodny. Może się zdarzyć, że trafi się przypadek szczegółowy, kiedy jakiś przedmiot Si, należący do klasy S, nie posiada spodziewanej własności P. Wnioskowanie przez indukcję enumeracyjną niezupełną ma jedynie charakter uprawdopodobniający. Daje jedynie pewien stopień prawdopodobieństwa, że wniosek jest prawdziwy. Stopień tego prawdopodobieństwa zwiększa się wraz z powiększaniem się liczby przebadanych różniących się od siebie przypadków szczegółowych, o których mówi przesłanka.
8.4. Wnioskowanie przez indukcję enumeracyjną zupełną
Wnioskowanie przez indukcję zupełną zawiera tę samą przesłankę, co indukcja niezupełna:
S1 jest P, S2 jest P, S3 jest P, ..., Sn jest P.
Ale oprócz tej ma jeszcze jedną drugą przesłankę, która stwierdza, że:
każde S jest bądź S1, bądź S2, bądź S3, ... bądź Sn.
Wniosek ogólny jest tu taki sam, jak poprzednio:
Każde S jest P.
Tym razem, właśnie dzięki dodatkowej przesłance ogólnej, otrzymaliśmy niezawodny schemat wnioskowania. Zatem jeśli przesłanki wnioskowania opartego na tym schemacie są prawdziwe, to wniosek będzie również prawdziwy.
Widzimy, że wnioskowanie przez indukcję enumeracyjną zupełną różni się od wnioskowania przez indukcję niezupełną tylko tym, że zawiera jedną dodatkową przesłankę, ale niezmiernie ważną, bo stwierdzającą, że przypadki zachodzenia określonej prawidłowości, o których mówi i które wymienia pierwsza przesłanka, stanowią zarazem wszystkie możliwe przypadki zachodzenia tejże prawidłowości w ogóle (inaczej mówiąc, interesująca nas prawidłowość wyczerpuje się w tych przypadkach). Ta jedna dodana przesłanka czyni indukcję zupełną wnioskowaniem niezawodnym, a twierdzenie ogólne, wyprowadzone w tym wnioskowaniu, absolutnie prawdziwym (oczywiście pod warunkiem, że przesłanki w tym wnioskowaniu były prawdziwe).
9. Wnioskowanie przez analogię
Wnioskowanie przez analogię przypomina wnioskowanie przez indukcję enumeracyjną niezupełną, ale nie do końca. W wnioskowaniu przez indukcję enumeracyjną niezupełną z tego, że pewna prawidłowość wystąpiła w n przypadkach, wnioskuje się, że potwierdzi się ona w każdym przypadku. Natomiast w wnioskowaniu przez analogię z tego, że dana prawidłowość wystąpiła w n przypadkach, wnioskujemy, że wystąpi ona w przypadku (n+1).
Z wnioskowania przez analogię korzystamy zwykle wtedy, gdy zauważamy, że jakieś dwa przedmioty podobne są do siebie co do „n” (liczby) swoich własności, a nadto zauważamy, że jeden z tych przedmiotów posiada dodatkowo jeszcze jedną cechę, której nie zauważyliśmy u tego drugiego. Ale na podstawie tego, że jednak te przedmioty posiadają n wspólnych cech, wnosimy, że i tę dodatkową cechę również oba posiadają. A zatem, chociaż nie stwierdziliśmy jej w tym drugim przedmiocie, przypisujemy mu ją, bo ma ją ten przedmiot pierwszy.
Między wnioskowaniem przez indukcję enumeracyjną niezupełną a wnioskowaniem przez analogię istnieje jeszcze jedna różnica. Otóż do obalenia wniosku płynącego z indukcji niezupełnej wystarczy jeden fakt, który go nie potwierdza przyjętej reguły. Natomiast w wnioskowaniu przez analogię jedno takie zdarzenie, które nie potwierdza określonej prawidłowości czy cechy, nie obala wniosku, czyli możliwości zaistnienia tejże prawidłowości w przypadku (n+1). Rzecz jasna, większa ilość takich przypadków zmniejsza prawdopodobieństwo wystąpienia danej prawidłowości w przypadku (n+1), chociaż w n przypadkach ona zaistniała.
Pospolitym błędem wnioskowania przez analogię jest to, że bierze się pod uwagę sytuacje, w których interesująca prawidłowość występuje, a pomija się te, w których ona nie występuje. W ten sposób powstają różne przesądy wiążące ze sobą jakieś zdarzenia, nie mające w gruncie rzeczy ze sobą nic wspólnego, w związek przyczynowy. Przypomnijmy chociażby przysłowiowego czarnego kota przebiegającego drogę i nieszczęścia, które do zdarzenie ponoć wywołuje czy wróży.
10. Wnioskowanie statystyczne
Wnioskowanie przez indukcję enumeracyjną niezupełną przypomina jeszcze jeden typ wnioskowania, a mianowicie wnioskowanie statystyczne, które na ogół wszyscy znają. Tą metodą, między innymi, ocenia np. popularność polityków, ale również powodzenie towarów konsumpcyjnych. W wnioskowaniu statystycznym operuje się wielkościami procentowymi. Ustala się np. pewien procent z badanej populacji, stanowiącej podobno reprezentacyjną grupę danej społeczności, ma takie a takie poglądy, inny procent badanych podziela inne poglądy, a inny procent – jeszcze inne poglądy. W ten sam sposób można przebadać też populację np. krokodyli pod względem posiadania przez nie określonych cech, acz uczeni przyrodnicy raczej do tej metody się nie uciekają. Ze statystycznych metod korzystają natomiast bardzo chętnie różne firmy, na przykład ubezpieczeniowe, gdy mają ustalić wysokość obowiązkowych ubezpieczeń.
11. Indukcja eliminacyjna. Kanony Milla
11.1. Uwagi ogólne na temat indukcji eliminacyjnej i związku przyczynowego
Miano indukcji eliminacyjnej otrzymały pewne schematy wnioskowania opracowane przez Johna Stuarta Milla, angielskiego logika żyjącego w XIX wieku. Od jego nazwiska otrzymały one nazwę kanonów (lub metod) Milla. Mill sformułował pięć kanonów:
1) kanon jedynej zgodności,
2) kanon jedynej różnicy,
3) kanon zmian towarzyszących,
4) kanon połączonej metody zgodności i różnicy,
5) kanon reszt.
Kanony Milla są to pewne sposoby wykrywania związków przyczynowo-skutkowych, na przykład miedzy jakimiś zjawiskami czy sytuacjami, na podstawie obserwacji jednostkowych faktów, w których owe zjawiska czy sytuacje się zdarzają. Miały służyć pomocą przy określaniu przyczyn jakichś zjawisk przyrodniczych, a także odkrywaniu zależności przyczynowo-skutkowe między różnymi zdarzeniami, których sprawcami i uczestnikami są ludzie.
Ponieważ związek przyczynowo-skutkowy odgrywa kluczową rolę w indukcji eliminacyjnej Milla, omówimy kilka zagadnień, jakie z nim się wiążą.
Związek przyczynowo-skutkowy
Często znajdujemy się w sytuacji, gdy musimy wskazać przyczyny jakiegoś zjawiska, zdarzenia, lub faktu, albo chcemy sprawdzić, czy między konkretnymi zdarzeniami, zjawiskami, faktami istnieje związek przyczynowo-skutkowy. Nierzadko jest to bardzo trudne. Wielokrotnie za związek przyczynowo-skutkowy bierze się niesłusznie zwykłe następstwo czasowe określonych zdarzeń czy zjawisk, lub ich współwystępowanie. By wyeliminować tego typu pomyłki, trzeba gruntownie zbadać zależności między interesującymi zdarzeniami czy zjawiskami i sprawdzić, czy istotnie występują między związki przyczynowo-skutkowe, i jakie. Może się zdarzyć, że pewne fakty rzeczywiście często ze sobą współistnieją i na tej podstawie sądzimy, że wiąże je jakiś związek. Jednak ten związek nie zawsze jest jednoznaczny. Dlatego trzeba zbadać, (1) czy zdarza się, że określone zjawiska zawsze pojawiają się razem (tzn. jeśli nie ma jednego, to nie ma i drugiego, a jeśli jest jedno, to i drugie jest również); (2) czy też może bywa tak, że jakieś zjawiska niekiedy występują razem, a niekiedy osobno i niezależnie od siebie; (3) czy może przynajmniej jedno z nich zdarza się czasem bez drugiego. W pierwszym przypadku (1) (gdy zauważone zjawiska zawsze pojawiają się zawsze razem) możemy mówić o ścisłej zależności przyczynowo-skutkowej między tymi zjawiskami. Zaistnienie jednego z nich jest konieczne, a zarazem wystarczające do zaistnienia drugiego, tzn., gdy ono jest, to jest i to drugie, a gdy go nie ma, to nie ma i tego drugiego. Zatem jedno z tych zjawisk jest przyczyną drugiego. Natomiast w drugim przypadku (2) (gdy te zjawiska czasem jednak zdarzają się osobno) można przyjąć, że oba zjawiska nie są ze sobą powiązane przyczynowo, ale mogą mieć jakąś jedną wspólną przyczynę, która jednak inaczej zachowuje się wobec każdego z tych zjawisk – wystarcza np. do zaistnienia jednego z tych zjawisk, ale nie jest wystarczająca dla pojawienia się drugiego (do jego zaistnienia potrzebne są jeszcze inne przyczyny). W każdym razie możemy być pewni, że żadne z tych obserwowanych zjawisk nie jest przyczyną drugiego. W trzecim wreszcie przypadku (3) (gdy pierwsze z zaobserwowanych zjawisk może wystąpić czasem bez drugiego, ale drugie nie może się zdarzyć bez pierwszego) możemy powiedzieć, że to pierwsze jest konieczne dla drugiego, ale nie jest jednak wystarczające.
Tego typu, jak te przedstawione, powiązania przyczynowo-skutkowe, obserwowane między różnymi zjawiskami i wydarzeniami, zwykło się określać mianem warunków. Mówi się że coś jest warunkiem czegoś; jedno zjawisko jest warunkiem drugiego. Najczęściej wymienia się trzy warunki: „warunek konieczny”, „warunek wystarczający” oraz „warunek konieczny i wystarczający”.
Warunkiem koniecznym (łac.: conditio sine qua non) jakiegoś konkretnego zjawiska „Z” jest jakieś różne odeń zjawisko „Zk”, bez którego zjawisko „Z” nigdy się nie wydarzy.
Zauważmy, że warunek konieczny odwołuje się do negacji: jeśli nie ma jednego, a mianowicie tego, które jest warunkiem koniecznym drugiego, to nie ma i drugiego. Brak czynnika, będącego warunkiem koniecznym jakiegoś zjawiska, uniemożliwia zaistnienie tego zjawiska. Jednakowoż może się zdarzyć, że zjawisko „Zk” jest, ale nie ma zjawiska „Z”. Może się tak zdarzyć, gdyż zjawisko „Zk”jest warunkiem koniecznym zjawiska „Z”, ale nie jest jednak wystarczającym warunkiem. Innymi słowy mówiąc, nie jest ono wystarczającym powodem zajścia innego zjawiska „Z”, (tzn. tego, wobec którego odgrywa rolę warunku koniecznego). Musi zaistnieć, jeśli zjawisko przezeń warunkowane ma się zdarzyć, ale samo jednak nie wystarcza. Potrzebne jest jeszcze coś, co wespół z nim (ze zjawiskiem „Zk”) wywoła to badane przez nas zjawisko „Z”.
Zilustrujmy to przykładem z geometrii. By daną figurę geometryczną uznać kwadrat nie wystarczy, by tylko miała ona cztery równe boki (bo romb również to ma), ani też nie wystarczy, by tylko miała tylko cztery równe kąty (bo każdy prostokąt to ma), ale obie te własności (cztery równe boki i cztery równe kąty) jednocześnie. Każda z tych dwóch własności osobno stanowi warunek konieczny do uznania danej figury za kwadrat, ale nie jest wystarcza.
Z kolei warunkiem wystarczającym jakiegoś zjawiska „Z” jest jakieś różne odeń zjawisko „Zw”, które cechuje się tym, że zawsze ilekroć się pojawia, tylekroć występuje również zjawisko „Z”. Zjawisko „Zw” pociąga za sobą zjawisko „Z”. Nigdy się nie zdarza ta, by było „Zw”, a nie było „Z”. Może się jednak zdarzyć się taka sytuacja, gdy jest zjawisko „Z”, a nie ma zjawiska „Zw”. Dane zjawisko „Z” może bowiem mieć kilka różnych warunków wystarczających. Np. światło w piwnicy może pochodzić od lampy elektrycznej, ale również od przenośnej latarki lub świecy.
Czasem warunek konieczny danego zjawiska jest zarazem warunkiem wystarczającym. Mówimy wtedy o „warunku koniecznym i wystarczającym”. Warunkiem koniecznym i wystarczającym zjawiska „Z” jest różne odeń zjawisko „Zkw”, które cechuje się tym, że zawsze ilekroć występuje, tylekroć ma miejsce również zjawisko „Z”, a jeśli go nie ma, to nie ma i zjawiska „Z”. Np. warunkiem wystarczającym i zarazem koniecznym uznania figury geometrycznej za trójkąt jest posiadanie przez nią trzech boków (lub trzech kątów). Zawsze, ilekroć jakaś figura ma trzy boki, tylekroć jest ona trójkątem (warunek wystarczający). Jeśli zaś nie ma trzech boków, to na pewno nie jest trójkątem (warunek konieczny).
Zauważmy jeszcze, że częstokroć dane zjawisko ma wiele warunków koniecznych, które razem składają się na warunek wystarczający.
W tych trzech opisanych wyżej znaczeniach bywa używane pojęcie „przyczyna”. Zatem coś może być uznane za przyczynę czegoś innego, w sensie warunku koniecznego, albo w sensie warunku wystarczającego, albo jednego i drugiego jednocześnie. Stawiając pytanie o przyczynę jakiegoś zjawiska, możemy mieć na myśli tego typu warunki – konieczne lub wystarczające dla jego zaistnienia. W nauce zwykle o tego typu przyczyny chodzi. Czasem jednak pytając się o przyczynę zaistniałego zdarzenia, mamy na myśli po prostu jego sprawcę, np. winowajcę konkretnego wypadku, albo po prostu twórcę jakiegoś dzieła. Mówimy wtedy o przyczynie sprawczej w sensie ontologicznym.
Jak powiedziano wykrycie przyczyn, w szerokim tego słowa znaczeniu, różnych zjawisk jest celem indukcji eliminacyjnej.
Indukcja eliminacyjna
Najogólniej rzecz ujmując, indukcja eliminacyjna jest to wnioskowanie, w którym jedna z przesłanek jest alternatywą kilku zdań ogólnych stwierdzających występowanie pewnej prawidłowości w zjawiskach określonego rodzaju, a inne przesłanki zaś są zdaniami szczegółowymi obalającymi wszystkie człony tej alternatywy, z wyjątkiem jednego; zaś wnioskiem jest właśnie ten jeden nie obalony przez przesłanki szczegółowe człon alternatywy.
Wnioskowanie przez indukcję eliminacyjną ma charakter dedukcyjny. Prawdziwość przesłanek zapewnia prawdziwość wniosku. Jedna przesłanka w tym wnioskowaniu jest alternatywą kilku zdań. Zatem dla jej prawdziwości wystarczy, by jeden z jej członów był prawdziwy. Ponieważ następne przesłanki, szczegółowe, wykluczają prawdziwość wszystkich członów tej alternatywy, oprócz właśnie tego jednego, zatem ten jeden człon musi być prawdziwy. I on właśnie jest wnioskiem. Wniosek tym samym ma zagwarantowaną prawdziwość, oczywiście pod warunkiem, że wszystkie przesłanki (wraz z tą, która jest alternatywą zdań ogólnych) są prawdziwe.
11.2. Kanony Milla
Poszczególne kanony, podane przez Milla, różnią się tylko sposobem, w jaki eliminują wszystkie człony alternatywy, za wyjątkiem tego jednego, który ma być tym prawdziwym wnioskiem. Omówimy pokrótce wszystkie kanony Milla, zaczynając od pierwszego.
Kanon jedynej zgodności
Wyobraźmy sobie, że mamy wykryć przyczynę określonego zjawiska. Zgodnie z kanonem jedynej zgodności, postępujemy następująco: Obserwujemy jak najwięcej możliwych przypadków, w których interesujące nas zjawisko się pojawia, i notujemy wszystkie, w miarę możliwości, okoliczności, które poprzedzają nasze zjawisko, bądź mu towarzyszą. Jeśli teraz okaże się, że spośród tych wszystkich zaobserwowanych i zanotowanych okoliczności tylko jedna występowała zawsze z badanym zjawiskiem, gdy pozostałe tylko sporadycznie, to mamy prawo wnioskować, że właśnie ta jedna okoliczność jest istotną przyczyną albo przynajmniej niezbędnym składnikiem przyczyny (w sensie warunku wystarczającego) interesującego nas zjawiska, którego zajście warunkuje zaistnienie tegoż zjawiska.
Zatem metoda jedynej zgodności eliminuje spośród możliwych przyczyn danego zjawiska wszystkie te okoliczności, które nie zawsze mu towarzyszą, pozostawiając tę jedną, która stale mu towarzyszy. Prowadzi więc do wykrycia przyczyny (lub niezbędnego składnika tej przyczyny) w sensie warunku wystarczającego danego zjawiska, którego pojawienie się wywołuje zawsze dane zjawisko. Np. próbujemy ustalić przyczynę zachorowań na malarię. Przebadawszy wszystkie przypadki tej choroby, stwierdzamy, że wspólną dla nich wszystkich okolicznością jest ukąszenie przez specjalny gatunek komara. Przyjmujemy więc, że przyczyną tych wszystkich zachorowań na malarię właśnie jest ukąszenie komara tego jednego gatunku.
Kanon jedynej różnicy
Wnioskowanie według kanonu jedynej różnicy polega na wyszukiwaniu, wśród zaobserwowanych okoliczności danego zjawiska, tej jednej okoliczności, której brak sprawia, że to zjawisko się nie pojawia. Jeśli uda nam się wykryć taką właśnie okoliczność, to możemy ją uznać za przyczynę lub element składowy przyczyny (w sensie warunku koniecznego) interesującego nas zjawiska.
Kanon jedynej różnicy eliminuje spośród możliwych przyczyn badanego zjawiska wszystkie te okoliczności, których brak nie wpływa na pojawienie się danego zjawiska (tzn. może ono się zdarzyć nawet przy braku tych okoliczności), pozostawiając tę jedyną okoliczność, której brak sprawia, że to zjawisko się nie pojawia, nawet w sytuacji, gdy zaistnieją wszystkie inne okoliczności zwykle mu towarzyszące.
Kanon jedynej różnicy prowadzi zwykle do wykrycia przyczyny (lub jej niezbędnego składnika), w sensie warunku koniecznego, bez której owe zjawisko w ogóle się nie może pojawić. Np. stwierdzono, że jeśli do pewnego odczynnika doleje się roztworu kwasu solnego, to wytrąca się w nim jakiś osad. Próbujemy ustalić, co powoduje wydzielenie się tego osadu, kwas czy woda. Bierzemy trzy probówki z tym odczynnikiem. Do jednej z nich nalewamy wody. Do drugiej wlewamy kwas. Do trzeciej wodę i kwas. W efekcie zauważamy, że w dwóch probówkach, w których był kwas, wytrącił się osad. W probówce, w której kwasu nie było, osadu nie zaobserwowano. Na tej podstawie mamy prawo mniemać, że przyczyną wytrącenia się tego osadu jest kwas.
Kanon połączonej metody zgodności i różnicy
Kanon połączonej zgodności i różnicy polega na zastosowaniu obu metod, zgodności i różnicy. Wpierw stosuje się metodę zgodności, a potem metodę różnicy. Metodą zgodności eliminuje się spośród możliwych przyczyn te okoliczności, które nie zawsze występują wraz z danym zjawiskiem, pozostawiając te, które zawsze wraz z nim współistnieją. Z kolei kanon jedynej różnicy eliminuje spośród tych pozostałych okoliczności, jako możliwych przyczyn danego zjawiska, te okoliczności, których brak nie wyklucza tego zjawiska, pozostawiając tylko tę, której brak to zjawisko wyklucza. W ten sposób wnioskowanie metodą połączonej zgodności i różnicy powinno doprowadzić do wykrycia przyczyny danego zjawiska, lub składnika tejże przyczyny, w sensie warunku wystarczającego i koniecznego.
Kanon zmian towarzyszących
Kanon zmian towarzyszących stosuje się wtedy, gdy usiłuje się wykryć przyczyny zmiany jakiegoś czynnika. Obserwuje się okoliczności, w których dany czynnik ulega zmianie. Jeżeli okaże się, że jedna z tych okoliczności zmienia się wtedy, gdy badany czynnik ulega zmianie, podczas gdy pozostałe okoliczności się nie zmieniają, to należy przypuszczać, że zmiany obserwowanego czynnika pozostają w ścisłym związku ze zmianami tej jednej okoliczności. Zatem jej zmiany można uznać za przyczynę zmian danego czynnika.
Zastosowanie tej metody ilustruje doświadczenie z nadmuchanym pęcherzem, które miał wykonać Pascal. Pascal wziął częściowo nadmuchany pęcherz i zaczął wraz z nim wspinać się na jakąś wysoką górę. Zauważył, że w miarę zwiększania się wysokości objętość pęcherza zwiększa się. Schodząc z góry zauważył zjawisko odwrotne – objętość pęcherza ulega zmniejszeniu, by u podnóża góry powrócić do stanu początkowego. Na podstawie zachowania się pęcherze, stwierdził, że ciśnienie zależy od wysokości, im większa jest wysokość, tym ciśnienie jest niższe.
Kanon reszt
Kanon reszt jest to wnioskowanie, które przebiega według następującego schematu: Obserwujemy jakieś występujące razem i podobne sobie zjawiska Z1, Z2, Z3, ..., Zn, i towarzyszące im, jako ich skutki, zjawiska S1, S2, S3, ..., Sn, usiłując dociec, które z obserwowanych zjawisk jest przyczyną zjawiska S1. Zauważamy przy tym, że zjawisko Z2 jest przyczyną zjawiska S2, zjawisko Z3 – przyczyną zjawiska S3, a Zn – przyczyną Sn. Wobec tego mamy prawo domniemywać, że przyczyną zjawiska S1 jest zjawisko Z1. Opisany schemat można zapisać w następującej postaci:
Z1, Z2, Z3, ..., Zn,
S1, S2, S3, ..., Sn,
Z2 ® S2,
Z3 ® S3,
.............,
Zn ® Sn,
---------------------
Zatem: Z1 ® S1
Warunkiem zastosowania tej metody jest uprzednie poznanie wszystkich zjawisk, które towarzyszą obserwowanemu zdarzeniu, a ściślej – poznanie przyczyn tychże towarzyszących zjawisk, a mianowicie, że przyczyną zjawiska Si jest odpowiednie zjawisko Zi. W ten sposób eliminuje się wszystkie zjawiska Zi, znane jako przyczyny zjawisk Si, z puli możliwych przyczyn zjawiska S1, pozostawiając w niej jedynie zjawisko Z1.
Uważa się, że właśnie tą metodą wykryto planetę Neptun – jako przyczynę odchyleń faktycznej orbity planety Uran od orbity obliczonej matematycznie. Zauważywszy tego rodzaju odchylenia, założono, że musi istnieć nieznana do tej pory planeta, która powoduje te odchylenia. Sądzono tak na tej podstawie, że właśnie tak dzieje w przypadku innych planet, których orbity również ulegają odchyleniu od toru teoretycznego (tzn. wynikającego z obliczeń matematycznych). Obserwacje astronomiczne potwierdziły istnienie tej nie poznanej dotąd planety. Nadano jej imię Neptun.
Kanony Milla, w swojej właściwej postaci, nie znalazły szerszego zastosowania w naukach eksperymentalnych, gdyż trudno jest w praktyce o tego rodzaju przesłanki, które te kanony zakładają. Na przykład nie spotyka się raczej takiej sytuacji, aby w szeregu przypadków, w których badane zjawisko występuje, tylko jedna okoliczność stale się powtarzała, a inne – nie, tak jak tego wymaga kanon jednej zgodności. Podobnie jest z warunkiem zakładanym przez kanon jedynej różnicy. Niemniej według kanonów postępuje się nieraz – jak zauważa T. Kotarbiński, jeden z nawybitniejszych polskich filozofów i logików – zarówno w badaniach naukowych jak i rozumowaniach życia codziennego.
12. Błędy w rozumowaniu
Wnioskowanie jest procesem myślowym, i jak wszystkie procesy, które są realizowane przez ludzi, narażone jest na błędy. Najważniejsze z tych błędów już poznaliśmy przy okazji omawiania warunków poprawności wnioskowania, jakie winno spełniać wnioskowanie, by zyskać miano poprawnego. Przypomnimy je w paru zdaniach, zanim przejdziemy do przedstawiania pozostałych błędów.
12.1. Błąd materialny
Najgroźniejszy z nich, jak pamiętamy, jest błąd materialny, który pojawia się w rozumowaniu, gdy któraś z jego przesłanek jest fałszywa. Błąd fałszywych przesłanek dyskwalifikuje rozumowanie. Jeśli wykaże się, że rozumowanie opiera się na fałszywych przesłankach, zostaje ono odrzucone wraz z wnioskiem.
12.2. Błąd formalny
Równie groźny jest błąd formalny, który występuje w rozumowaniu wtedy, gdy formalny schemat, według którego ono się rozwija, okazuje się schematem zawodnym. Pojawienie się w rozumowaniu takiego błędu dyskwalifikuje je jako logicznie zawodne, ale czasem jest dopuszczalne, gdy wnioskowanie nie rości sobie pretensji do absolutnej pewności, a jedynie ma uprawdopodobnić jakąś tezę. Jednak wnioskowania, które chcą uchodzić za poprawne logicznie i niezawodne, muszą wykazać się niezawodnym schematem logicznym. Nie jest to, zresztą, takie trudne. Żeby przekonać się, że dane rozumowanie jest poprawne pod względem formalnym, wystarczy wskazać jeden formalny schemat logiczny (tzn. niezawodny), według którego ono przebiega. Nie jest tak łatwo wykazać, że dane rozumowanie jest niepoprawne formalnie. Trzeba bowiem przebadać wszystkie możliwe schematy formalne, którym dane rozumowanie może odpowiadać, i udowodnić, że dla tego rozumowania niezawodny schemat w ogóle nie istnieje.
12.3. Petitio principii i circulus in probando
Oprócz błędu materialnego przesłankom może się przytrafić błąd, który poznaliśmy pod łacińską nazwą petitio principii, a który polega na tym, że przesłanki nie są dostatecznie uzasadnione. Odmianą tego błędu, która zdarza się zwłaszcza w wnioskowaniach entymematycznych, jest błąd błędnego koła w dowodzeniu, wymieniany zwykle pod swoją łacińską nazwą circulus in probando. Mamy z nim do czynienia najczęściej wtedy, gdy jedna z przesłanek rozumowania albo wprost głosi tezę, która występuje jako wniosek tego rozumowania, albo do niej się odwołuje jako swego uzasadnienia. Oba wypadki są oczywiście w rozumowaniu niedopuszczalne. Jak pamiętamy, jest to analogiczny błąd do circulus in definiendo, czyli błędnego koła w definicji.
12.4. Błędy wieloznaczności
Oprócz tych błędów, które uwłaczają warunkom poprawności wnioskowania, w rozumowaniu mogą pojawić się błędy, na jakie narażone są nasze wypowiedzi w ogóle, niekoniecznie regularne wnioskowania. Najważniejsze z tych błędów wynikają z wieloznaczności wyrazów, którymi się posługujemy w rozumowaniu. Poznaliśmy je już przy okazji omawiania błędów, jakimi zagrożone są nasze wypowiedzi. Jak pamiętamy, najpospolitszy błąd związany z wieloznacznością wyrażeń polega na używaniu wieloznacznych wyrażeń bez doprecyzowania ich znaczeń, gdy kontekst nie wskazuje, w jakim znaczeniu zostały one użyte. W efekcie prowadzi to do niewłaściwego zrozumienia wypowiedzi. By uniknąć takiego błędu wystarczy czasem zwykłe dopowiedzenie, które wyjaśnia w jakim sensie użyte zostało wieloznaczne wyrażenie. W innych przypadkach trzeba jednak zdefiniować takie wyrażenie lub doprecyzować jego znaczenie.
Ekwiwokacja
Rzadziej spotykany, ale równie niebezpieczny jest błąd ekwiwokacji. Jak pamiętamy, pojawia się w tedy, gdy dany wyraz został użyty w dłuższej wypowiedzi dwu lub wielokrotnie i za każdym razem w innym znaczeniu.
Amfibolia
Równie niebezpieczny jest inny błąd, a mianowicie amfibolia, to jest wypowiedź, która może być rozmaicie rozumiana, choć użyte w niej wyrazy są jednoznaczne i nie budzą wątpliwości, co do swego znaczenia. Najczęściej jest to wynikiem niejasnych relacji między wyrazami w zdaniu, w skutek czego nie jest ono jednoznaczne co do swej treści, choć gramatycznie jest poprawne.
12.5. Błąd niedopowiedzenia
Inne błędy, które również już poznaliśmy w ramach omawiania błędów w wypowiedziach, wynikają z niedopowiedzenia myśli lub z posługiwania się w wypowiedzi nazwami niewyraźnymi znaczeniowo.
Niedopowiedzenie występuje wtedy, gdy autor nie dokończy swojej myśli, pozostawiając słuchacza czy czytelnika z domysłami, które mogą być różne.
12.6. Błąd wynikający z posługiwania się nazwami niewyraźnymi
Błąd wynikający z posługiwania się nazwami niewyraźnymi pojawia się, gdy w rozumowaniach używa się nazw o niewyraźnym znaczeniu, takich jak „młodzieniec”, „młody”, „starzec”, „stary” itp. Wyrażenia niewyraźne powinno się zastępować nazwami wyraźnymi, jeśli jest to możliwe, a gdy nie jest to możliwe, należy ustalić lub uregulować znaczenie niewyraźnych terminów za pomocą definicji projektujących.
Naszym wnioskowaniom zagrażają jeszcze inne, nie mniej uciążliwe od powyższych, błędy. Wymienimy je i pokrótce przedstawimy.
12.7. Błąd podziału (łac.: fallacia a sensu composito ad sensum divisum)
Błąd podziału pojawia się wtedy, gdy z przesłanki stwierdzającej coś, co jest prawdziwe dla całości danego zbioru, wyciąga się wniosek, że to samo musi być prawdziwe dla każdego pojedynczego elementu tego zbioru. Taki błąd popełnia się np. wtedy, gdy z faktu, że jakaś drużyna bokserska zdobyła drużynowy tytuł mistrzów świata, wyprowadza się wniosek, że każdy z tych bokserów jest również indywidualnym mistrzem świata.
12.8. Błąd kompozycji (łac.: fallacia a sensu diviso ad sensum compositum)
Jest to błąd odwrotny do poprzedniego i polega na tym, że z tego, iż jakiś pojedynczy element danego zbioru posiada określoną cechę, wnioskuje się, iż cały ten zbiór również tę cechę musi posiadać. Popełnia ten błąd np. ktoś, kto na tej podstawie, że jakiś jeden poznany przezeń Amerykanin jest Indianinem, wnioskuje, iż wszyscy Amerykanie są Indianami.
12.9. Błąd ignoratio elenchi (nieznajomość dowodzonej tezy)
Błąd ignoratio elenchi pojawia wtedy, gdy wnioskowanie, którego zadaniem jest dowiedzenie określonej tezy, zamiast niej dowodzi czegoś zupełnie innego, co dla dowodzonej tezy jest zupełnie nieistotne. Dlatego niekiedy ten błąd nazywany jest błędem „nieistotnego wniosku” (lub po prostu „nieistotnym wnioskiem”).
12.10. Błąd non sequitur - błąd braku wynikania
Błąd non sequitur, czyli braku wynikania, występuje wtedy, gdy wbrew założeniom, wniosek danego wnioskowania nie wynika z jego przesłanek. Tym samym może się zdarzyć, że przesłanki są prawdziwe, a ten rzekomy wniosek, pomimo tego, jest jednak fałszywy. Najczęściej błąd non sequitur pojawia się w sytuacji, gdy ktoś dla uzasadnienia jakiejś tezy przytacza argumenty nietrafione, tzn. nie mające z nią nic wspólnego, a w każdym razie jej nie uzasadniają. Błąd ignoratio elenchi stanowi jeden ze szczególnych przypadków błędu braku wynikania.
12.11. Błąd non causa pro causa - błąd braku związku przyczynowego
Błąd non causa pro causa pojawia wtedy, gdy jakieś zdarzenie zostaje uznane za przyczynę innego, z którym w rzeczywistości nie łączy go związek przyczynowy. Innymi słowy mówiąc, pewne sytuacje wiąże się ze sobą związkiem przyczynowym, choć taki związek między nimi nie zachodzi. Najczęściej tak się dzieje, gdy pewne zdarzenia czy zjawiska następują po sobie. Wtedy to pierwsze bywa często brane za przyczynę tego drugiego.
12.12. Błąd uznania następnika
Błąd uznania następnika popełnia się wtedy, gdy w implikacji dwóch zdań, na podstawie prawdziwości następnika, wnioskuje o prawdziwości poprzednika, czyli według następującego schematu:
[(p ® q) q] ® p
Schemat jest zawodny. Z prawdziwości następnika implikacji nie można wnosić prawdziwości poprzednika, gdyż implikacja (p ® q) jest zawsze prawdziwa, ilekroć następnik „q” jest prawdziwy, niezależnie od wartości logicznej poprzednika „p”. „p” może być w tej sytuacji zarówno prawdziwe, jak i fałszywe.
Według tego zawodnego schematu przebiega następujące rozumowanie: „jeśli nauczyciela spotka nieszczęście, to uczniowie są bardzo szczęśliwi. Uczniowie są bardzo szczęśliwi. Więc nauczyciela musiało spotkać nieszczęście.” Wiemy jednak, że uczniowie czasem popadają w stan szczęśliwości również z innych powodu, nawet wtedy, gdy nauczyciela nie spotka żadne nieszczęście. Zatem wniosek nie musi być prawdziwy, chociaż może, zgodnie z tablicą implikacji, i dlatego niekiedy rozumowanie biegnące torem wytyczonym przez ten schemat może dać wniosek prawdziwy (właśnie wtedy, gdy „p” i „q” mają wartość „1”).
12.13. Błąd odrzucenia poprzednika
Błąd odrzucenia poprzednika występuje w wnioskowaniu wtedy, gdy z fałszywości (zaprzeczenia) poprzednika implikacji wnosi się, iż również następnik musi być fałszywy.
Tym razem rozumowanie biegnie według tego schematu:
[(p ® q) ~p] ® ~q
Schemat jest równie zawodny jak poprzedni i z tych samych powodów – nieprawdziwy poprzednik implikacji nie wyklucza prawdziwego następnika, bo implikacja jest prawdziwa także w sytuacji, gdy następnik jest prawdziwy, a poprzednik fałszywy. Ten schemat, chociaż nie jest niezawodny, nie jest jednak kontr-tautologią (bo dla niektórych kombinacji „p”, „q” może dać wynik pozytywny), dlatego może niekiedy prowadzić do prawdziwych wniosków (gdy p=1 i q=1 oraz p=0 i q=0).
Według tego schematu biegnie rozumowanie: „jeśli nauczyciela spotka nieszczęście, to uczniowie są usatysfakcjonowani. Ale nauczyciela nie spotkało żadne nieszczęście. Więc uczniowie nie są usatysfakcjonowani”. Wiemy jednak, że uczniowie mogą nie być usatysfakcjonowani również z jakiegoś innego powodu, nawet gdy nauczyciela nie spotka żadne nieszczęście. Schemat jest zawodny, choć w tym przypadku akurat wniosek może być prawdziwy (bo schemat, wprawdzie zawodny, to nie jest jednak kontr-tautologią).
12.14. Błąd nieuzasadnionego uogólnienia
Błąd nieuzasadnionego uogólnienia pojawić się może we wnioskowaniach przez indukcję enumeracyjną, gdy wniosek nie jest dostatecznie uzasadniony przez przesłanki.
Jest to jeden z najczęściej spotykanych błędów potocznego rozumowania. Popełnia go np. ten, kto z tej racji, że raz był zmuszony dać jakiemuś urzędnikowi tzw. łapówkę, sądzi, że wszyscy urzędnicy biorą łapówki. Jest to błąd podobny do wcześniej przedstawionego błędu złożenia.
12.15. Błąd przypadkowości
Błąd przypadkowości (albo przypadłości) popełniany jest wówczas, gdy jakąś przypadkową i akcydentalną cechę jakiegoś przedmiotu uznaje się za jego własność istotną, i odwrotnie – gdy cechę istotną uważa się za przypadłościową.
12.16. Błąd zmiany rodzaju
Błąd zmiany rodzaju popełnia się wtedy, gdy tezy prawdziwe dla przedmiotów jednego rodzaju, uznaje się za prawdziwe również w odniesieniu do przedmiotów innego rodzaju. Popełnia ten błąd ten, kto na tej podstawie, że ludzie zdolni są do przeżywania aktów duchowych, wnosi, że również zwierzęta zdolne są do przeżywania takich samych aktów.
12.17. Błąd przejścia od znaczenia względnego do znaczenia bezwzględnego
Błąd przejścia od znaczenia względnego do bezwzględnego jest to błąd popełniany wówczas, gdy coś, co przysługuje danemu przedmiotowi pod pewnym tylko względem, przypisuje mu się w sensie absolutnym. Popełnia ten błąd np. ktoś, kto z tej racji, że Jan Kowalski jest dobrym fachowcem w swojej dziedzinie, sądzi, że jest on w ogóle dobry we wszystkim.
12.18. Błędy reguły i wyjątku
Błędy reguły i wyjątku powstają, gdy wyjątek od reguły uznaje się za regułę, lub powołując się na regułę, pomija się wyjątki od tej reguły. Zdarza się ten błąd np. wtedy gdy ktoś ogólne przykazanie „nie zabijaj” uznaje za argument za zniesieniem kary śmierci. I odwrotnie – z faktu, że istnieje kara śmierci, wnosi, że przykazanie „nie zabijaj” w ogóle nie obowiązuje. Wiemy, że podobne rozumowanie nie jest bynajmniej fikcją literacką. W czasie wojny wielu prymitywnym osobnikom, pozbawionym wrażliwości moralnej, puszczają wszelkie hamulce, gdy nie boją się kary, bo np. administracja kraju została zniszczona przez nieprzyjaciela.
XIII Obserwowanie i wyjaśnianie zjawisk
Indukcyjne procesy badawcze, stosowane głównie w naukach przyrodniczych, ale również w społecznych, są zwykle dość złożone i zależą od wielu czynników i okoliczności. Jednak da się w nich wyróżnić, jak już wspomniano, trzy główne fazy: 1) fazę obserwacji, czyli zbierania i porządkowania danych; 2) fazę wyjaśniania zaobserwowanych zjawisk i stawiania pierwszych hipotez mających wytłumaczyć owe zjawiska; 3) fazę budowania teorii, które mają dać ostateczną odpowiedź na wszystkie pytania pojawiające się w związku z obserwowanymi zjawiskami.
Omówimy najważniejsze elementy tych trzech faz, zaczynając od pierwszej.
1. Obserwacja
Z różnymi formami obserwacji, zaprogramowanej i przypadkowej, mieliśmy wielokrotnie do czynienia przy różnych okazjach. Niemal stale coś oglądamy, na coś patrzymy, mniej lub bardzie uważnie przyglądamy się czemuś. Czasem patrzymy na coś ot tak, bo przypadkowo znaleźliśmy się w tym miejscu czy w tej sytuacji, albo po prostu z nudów czy ze zwykłej ciekawości, jednak bez specjalnego zainteresowania i bez wnikania w szczegóły. Innym razem celowo coś oglądamy, np. jakiś obraz w muzeum czy jakieś zjawisko przyrodnicze, ale nie po to, by poznać szczegóły, coś zbadać i zrozumieć, lecz by napawać się jego pięknem estetycznym, czyli oddajemy się przeżyciom estetycznym. Bywa jednak i tak, że coś przykuje naszą uwagę, i wtedy zaczynamy się temu przyglądać. Śledzimy np. czyjeś zachowanie, gesty, mimikę, wyciągamy wnioski i próbujemy zrozumieć, co z nim się dzieje. Obserwujemy wygląd i zachowanie zwierząt w ZOO, przypatrujemy się jakimś roślinom czy zjawiskom, wprawdzie bez emocji, ale ze zwiększoną uwagą. Staramy się zauważyć i zapamiętać wszystkie istotne i mniej istotne szczegóły. Usiłujemy wyśledzić wszystko, co wydaje się ważne w obserwowanym przedmiocie, próbując zarazem odpowiedzieć na nasuwające się pytania, lub zbieramy informacje, by potem na nie odpowiedzieć, gdy już będziemy posiadali wystarczającą po temu ilość odpowiednich wiadomości.
To ostatnie, jeśli tak można powiedzieć, oglądanie – to właśnie przykład obserwacji, aczkolwiek najprawdopodobniej niezaplanowanej, a przynajmniej nie do końca zaplanowanej. I choć nie jest to jeszcze w pełnym tego słowa znaczeniu obserwacja naukowa, to jednak posiada już najistotniejsze cechy obserwacji, także tej naukowej. Można na jej podstawie powiedzieć, że obserwacja jest to swego rodzaju kontrolowany ogląd interesującego nas, z jakiś powodów (i te powody są tu, zresztą, bardzo ważne, bo to one właściwie decydują o rozpoczęciu i sposobie przeprowadzenia tego, jeśli tak można rzecz, oglądu) przedmiotu, np. jakiegoś zjawiska. Obserwacja naukowa jest zwykle jednak zaplanowana i zazwyczaj jej przebieg jest mniej lub bardziej ściśle zaprogramowany. Jej bowiem celem jest wyłowienie wszystkich ważnych informacji dotyczących obserwowanego przedmiotu, ważnych z określonego punktu widzenia (i ten punkt widzenia jest również bardzo ważny, bo to on ukierunkowuje całą obserwację na dostrzeganie i zbieranie właśnie takich, a nie innych informacji). Jednak nie zawsze i nie wszystko da się zaplanować i zaprogramować, zwłaszcza, jeśli mamy do czynienia z naturalnymi zjawiskami i sytuacjami, a nie z zainscenizowanymi. Szczególny rodzaj obserwacji, podstawowy przede wszystkim w naukach fizyko-chemicznych i technicznych, stanowi eksperyment. Eksperyment – to, najkrócej rzecz ujmując, zaprogramowana i zaplanowana obserwacja zjawiska zainscenizowanego specjalnie dla potrzeb tej obserwacji, najczęściej z użyciem różnego rodzaju sprzętu. Eksperyment ma dać odpowiedź na określone, z góry postawione pytania, najczęściej – potwierdzić lub obalić jakąś tezę itd..
Wynikiem obserwacji są zebrane informacje, które pozwalają nam opisać badane zjawisko czy przedmiot, z interesującego nas punktu widzenia, a w dalszym etapie – zrozumieć je i wyjaśnić za pomocą stosownej hipotezy i teorii, w dalszym etapie. Często, zwłaszcza w badaniach technicznych, chodzi w takim eksperymencie o uzyskanie bardzo praktycznych informacji na temat badanego przedmiotu, np.: czy spełnia on stawiane mu wymagania, jak się zachowuje w określonych okolicznościach itd. (tak się bada np. poduszki bezpieczeństwa i inne zabezpieczenia życia ludzkiego w samochodzie), ale najczęściej ma on również dać odpowiedź na postawione pytania, pytania natury nie tylko praktycznej, lecz również teoretycznej. Większość praw i teorii naukowych odkryto, zbudowano i potwierdzono dzięki różnym eksperymentom i innym badaniom laboratoryjnym. Potem najczęściej wyrażono jej za pomocą odpowiednich formuł matematycznych. W ten sposób takie pojęcia, jak np. naprężenia i wytrzymałość materiału, oznaczające stosowny stan i odporność materiału na zniszczenie, uzyskały postać matematycznych formuł i nikt, stosując je, nie zastanawia się już nad tym, co im w rzeczywistości odpowiada, tylko po prostu je oblicza i ustala za ich pomocą właściwe wymiary i kształty różnych części maszyn.
2. Hipoteza i teoria
Zaobserwowane i odpowiednio uporządkowane informacje – to punkt wyjścia do następnego etapu badań naukowych, a mianowicie do próby zrozumienia badanego zjawiska, czyli odpowiedzenia na pytanie, dlaczego ono się zdarzyło. Zwykle chodzi o poznanie przyczyn danego zjawiska, jego przebiegu, skutków, a czasem również jego celu, zwłaszcza, gdy ma się do czynienie z działaniami żywych istot. Efektem tych prób zrozumienia danego zjawiska, na podstawie zebranych informacji, są pierwsze hipotezy. Hipoteza początkowo jest tylko czymś w rodzaju przypuszczenia, które nam się nasuwa w związku z poznanymi faktami dotyczącymi interesującego nas zjawiska. Jest próbą jego wyjaśnienia przez wykrycie i ustalenie jakichś prawidłowości, które by powiązały te wszystkie fakty w spójną całość. Hipotezy są efektem, jak się domyślamy, wnioskowania, w którym informacje, uzyskane w fazie obserwacji, służą jako przesłanki. Wniosek takiego rozumowania stanowi naszą hipotezę. Hipotezy, otrzymane w ten sposób, nie stanowią jeszcze końcowego produktu naszego indukcyjnego procesu badawczego. Trzeba jeszcze je sprawdzić. Sprawdzanie zazwyczaj polega na ponownej obserwacji danego zjawiska – po to, by przekonać się, czy wszystko w nim przebiega tak, jak to tłumaczy ta hipoteza. W następstwie tego hipoteza może zostać obalona bądź potwierdzona. Potwierdzone hipotezy nabierają rangi teorii bądź prawa, które wyjaśnia dany rodzaj zjawisk.
Hipotezy i prawa mają postać zdań ogólnych i odnoszą się nie tylko do jednego, obserwowanego zjawiska, lecz do wszystkich zjawisk tego rodzaju. Znajomość praw, według których przebiegają np. zjawiska atmosferyczne, ma znaczenie nie tylko teoretyczne, lecz również praktyczne. Pozwala np. je przewidywać, a tym samym zabezpieczać się przed ich zgubnymi skutkami. Nie mówiąc o tym, że pozwala obliczać i projektować różne urządzenia wykorzystujące różne zjawiska.
Na koniec powyżej przedstawionego wykładu o indukcyjnych metodach badania rzeczywistości i budowania empirycznych teorii przyrodoznawczych powiemy jeszcze kilka zdań na temat związany z przedstawionymi zagadnieniami, przynajmniej częściowo. Rozwój nauk przyrodniczych, różnych dziedzin ścisłych, zwłaszcza nauk oscylujących wokół fizyki i chemii, i związanych z nimi dyscyplin technicznych, zmienił świat i ciągle go zmienia, i to niemal na naszych oczach. Jednocześnie ów rozwój nauk pozwolił nam lepiej zrozumieć świat, w którym egzystujemy, a przede wszystkim – lepiej go wykorzystać. Jednakowoż – zwróćmy na to uwagę – pewne pytania pozostały pomimo to nadal bez odpowiedzi. Co gorsza, są to pytania najważniejsze. Wiemy już mniej więcej, jak zbudowane są różne ciała. Ba, wiemy nawet, jak sami jesteśmy zbudowani, a przynajmniej, jak zbudowany jest i jak funkcjonuje nasz organizm biologiczny, chociaż nie do końca – istnieje ciągle jeszcze i tu wiele tajemnic. Niemniej można powiedzieć, że mamy jakąś ogólną orientację o świecie i o sobie. A spodziewamy się wiedzieć i rozumieć jeszcze więcej. Jednakowoż na te najważniejsze pewne pytania ciągle nie potrafimy odpowiedzieć. Czasem udajemy, że już wszystko wiemy i znamy odpowiedź i na te pytania, ale tak naprawdę to jednak nie wiemy i nie znamy odpowiedzi. Mamy tylko jakieś hipotezy, które, pomimo całej naszej uczoności, wcale nie są wiele mądrzejsze od tych, które stawiali nasi przodkowie parę tysięcy lat temu, którym nawet się nie śniła nie tylko teoria względności, ale nawet nie mieli elementarnej wiedzy o budowie i funkcjonowaniu wszechświata, i dysponowali jedynie przypuszczeniami, opartymi na dość prymitywnej obserwacji, na mitach i religijnych wyobrażeniach. Bo w czymże jest mądrzejsza teoria wielkiego wybuchu od teorii „apeironu” Ananksymandra, filozofa żyjące przeszło dwa i pół tysiąca lat temu. A jeszcze przecież mniej niż o powstaniu świata, wiemy o sobie – nie o naszym organizmie i poszczególnych organach, które już potrafimy wymieniać, a nawet zastępować sztucznymi mechanizmami – a o nas samych w tym, czym my naprawdę jesteśmy, w tym, czego się nie da ani wymienić, ani zamienić. Ba, kto dzisiaj odważy się poruszyć ten temat i zapyta, czym jest właśnie to, co czyni nas ludźmi. Kto postawi pytanie o inny niż ten, dość dobrze już w sumie poznany, biologiczny, czy w ogólności przyrodniczy wymiar naszego jestestwa. Pytania retoryczne, więc nie stawiam przy nich nawet znaku zapytania. Oczywiście zawsze można uciąć w zarodku problem, odrzucając pytania jako nienaukowe. Ale to nie zmieni faktu, że pewne pytania i niepokoje pozostają bez odpowiedzi, tak jak nie zmieni faktu, że są to pytania i niepokoje o sprawy najistotniejsze. Ale kto o to się zapyta. Kto się zapyta o sens naszej egzystencji i tego wszystkiego, w co jest ona uwikłana, jeśli wiadomo, że żadna nauka nie tylko że nie ma na to pytanie odpowiedzi, ale nawet nie jest w stanie i nie umie go postawić. To jest pytanie filozoficzne. Ale dlaczego filozofowie nie potrafią na nie odpowiedzieć. Wprawdzie mówią na ten temat, i to bardzo dużo, ale tak naprawdę przekonują tylko samych siebie, jeśli w ogóle kogoś przekonują. I znowu pytanie retoryczne. Otóż na to pytanie każdy z nas sam musi odpowiedzieć i to odpowiedzieć sobie, nie innym. A skoro nie można na nie odpowiedzieć ani sięgając do empirii, ani badając nasze racjonalne myśli, widocznie trzeba uciec się do innych sposobów. Pytanie o sens – to pytanie rzeczywiście z innej dziedziny, a mianowicie z dziedziny duchowej. I dlatego nie można na nie odpowiedzieć tak, jak się odpowiada na pytania o zjawiska przyrodnicze czy o jakieś kwestie teoretyczne. To pytanie tak naprawdę dotyczy naszej egzystencji w innym wymiarze niż ten fizyko-biologiczny. Dotyczy egzystencji w sferze ducha, w dziedzinie takich wartości, jak szlachetność i piękno moralne, czyli tego wszystkiego, w co uwikłane jest nasze poczucie sensu. A tej sfery nie da się przebadać empirycznie ani prze-rozumować racjonalnie. Ją można jedynie przeżyć, odczuć, dotknąć, Można jej tylko doświadczyć, ale doświadczyć egzystencjalnie, przeżyć w jakiś sposób. Tego się nie da nauczyć. To trzeba przeżyć samemu. Powtórzmy to jeszcze raz – tajemnicy naszego istnienia, tajemnicy naszego jestestwa i całej egzystencji nie da się przebadać metodami indukcyjnymi ani przebiec dedukującym rozumem. Można jej tylko doświadczyć egzystencjalnie, np. wtedy, gdy doświadczamy czegoś szlachetnego i pięknego, ale w zupełnie innym sensie niż zmysłowym, wtedy, gdy doświadczamy prawdziwej świętości, nie koniecznie religijnej, i czujemy jak porusza ona jakieś dziwne obszary naszego jestestwa i napełnia je czymś tajemniczym, a zarazem czymś, co sprawia, że nasze życie ujawnia swój sens, chociaż w dalszym ciągu nie umiemy go racjonalnie wyartykułować, ba – nawet nie potrzebujemy go artykułować. Jeśli doświadczamy takiego stanu, to znaczy, że coś w naszym życiu się zmieniło. Najprawdopodobniej wreszcie uzyskało ono swój sens, nawet jeśli pozostała w nim jakaś tajemnica (zwłaszcza jeśli pozostała w nim jeszcze jakaś tajemnica).
XIV Przekonywanie jako szczególny rodzaj wnioskowania.
Rzetelne i nierzetelne sposoby argumentowania i prowadzenia sporów
Szczególnego rodzaju wnioskowaniem jest przekonywanie. Ma ono bardzo wiele wspólnego z wnioskowaniem logicznym, chociaż rządzi się ono swoimi prawami.
Każdy z nas doskonale wie, co to jest argumentacja i czemu służy. I dlatego nie będziemy się nad tym rozwodzić. Uściślimy tylko pewne pojęcia związane z tym tematem i doprecyzujemy niektóre treści.
Najogólniej mówiąc, argumentować – to tyle, co przekonywać kogoś do czegoś za pomocą jakichś racji. W tym bardzo ogólnym sensie, wnioskowanie i różne jego sposoby, które mieliśmy okazję poznać, również można uznać za coś w rodzaju argumentacji. Mamy tu wniosek i przesłanki, które stanowią swego rodzaju argumenty za tezą głoszoną przez wniosek. W tym sensie można, z drugiej strony, argumentowanie uznać za rodzaj wnioskowania. Argumenty stanowią tu rodzaj przesłanek, a broniona teza jest czymś w rodzaju wniosku z tych argumentów. Tak to wygląda, przynajmniej w bardzo ogólnym podejściu. Jednak między wnioskowaniem, w ścisłym tego słowa znaczeniu, a argumentowaniem zachodzi pewna różnica. Otóż wnioskowanie jest to proces czysto racjonalny, a wniosek wynika racjonalnie, na mocy logicznego wynikania niejako sam z przesłanek. Nie trzeba nikogo do niego przekonywać. Sama procedura wnioskowania, tzn. schemat według którego ono przebiega, przekonuje, jeśli tak można powiedzieć, do prawdy zawartej we wniosku. Wnioskując nie uciekamy się do emocji, tak jak nie uciekamy się do emocji przy obliczeniach matematycznych. Natomiast w tym rodzaju rozumowania, którym jest argumentowanie, emocje i gra na emocjach odgrywa niemal podstawową rolę. Co więcej wykorzystywane są nawet pewne fortele, o których w rozumowaniu racjonalnym nawet nie może być mowy, przynajmniej teoretycznie (chociaż w różnych dyscyplinach wiedzy, zwłaszcza opartych nie na systemie aksjomatycznym i dedukcji, a na hipotezach i teoriach wysnutych w oparciu o badania empiryczne lub po prostu wysnutych przez charyzmatycznego uczonego, co czasem się zdarza, szczególnie w naukach społecznych, w których nie zawsze łatwo jest oddzielić racjonalne przekonania od pobożnych życzeń i innych urojeń obdarzonego charyzmą uczonego – i stąd pewne oryginalne, a nawet egzotyczne teorie na temat ludzkiej natury i społeczeństwa, które nieraz długo się utrzymują pomimo tego, że życie im zadaje kłam). Poza tym od wnioskowania oczekuje się poprawności, gdy od argumentowania – skuteczności. Wnioskowanie ma dać prawdziwy wniosek, a argumentowanie ma skutecznie przekonać do głoszonej tezy. Wnioskowanie musi spełniać warunki poprawności. Argumentacja – warunki skuteczności. Spełnienie przez argumentację tych warunków czyni ją skuteczną. Za zwyczaj wymienia się następujące warunki skuteczności argumentacji:
1. Argumenty, odgrywające w argumentacji rolę przesłanek, powinny sprawiać wrażenie rzetelnie uzasadnionych – niekoniecznie muszą być rzetelnie uzasadnione, bo nie zawsze jest to możliwe, ale muszą robić wrażenie, jakby takimi były. W tym ujawnia pierwsza różnica w stosunku do wnioskowania, w którym przesłanki mają nie wydać się uzasadnione, a powinny być uzasadnione, należycie i w sposób racjonalny.
2. Przesłanki nie powinny budzić zastrzeżeń, co do tego, że należycie uzasadniają tezę (wniosek) argumentacji. Innymi słowy mówiąc: argumenty powinny sprawiać wrażenie, że właściwie uzasadniają bronioną tezę. Oczywiście powinny w odpowiednim stopniu ją uzasadniać, ale przekonywany powinien być o tym całkowicie przekonany. Nie może mieć wątpliwości w tym względzie. We wnioskowaniu zapewnione jest to przez samą strukturę wnioskowania, którą stanowi odpowiedni schemat logiczny.
3. Przesłanek, czyli argumentów optujących za daną tezą, powinno być tylko tyle, ile wymaga tego uzasadniania teza. Poza tym wszystkie przesłanki – argumenty powinny dotyczyć tematu.
Spełnienie powyższych warunków zapewni argumentacji skuteczność. Sprawi, że będzie ona skuteczna, nawet, gdyby postawiona w niej czy broniona teza była fałszywa. Jeśli argumentacja dodatkowo ma być poprawna logicznie, to musi spełniać jeszcze dwa następne warunki:
4) Przesłanki, czyli argumenty, które wykorzystywane są w procesie argumentowania, powinny być prawdziwe. Już nie wystarcza, by tylko wydały się one prawdziwe. One powinny być prawdziwe. Jednak rzadko bywają one uzasadnione tak rzetelnie, jak przesłanki wnioskowania.
5) Przesłanki winny rzeczywiście uzasadniać wniosek argumentacji. Nie wystarcza, żeby wywierały takie wrażenie. One powinny rzeczywiście uzasadniać wniosek, w sensie logicznym.
Przekonywanie jest sztuką rozwijaną od starożytności. Erystyki, bo tak bywa nazywana jeszcze sztuka przekonywania, uczyli w starożytnej Grecji sofiści i retorzy. Uczyli oni praktycznej umiejętności pięknego i przekonującego przemawiania, co było umiejętnością bardzo przydatną w sądownictwie a zwłaszcza w karierze politycznej. Pięknej mowie służyły rozmaite tropy i figury retorycznej. Zachowane mowy starożytnych mówców pokazują, jak je wykorzystywano, i na czym polegało to retoryczne piękno. Piękno mowy wywierało prawdopodobnie odpowiednie wrażenie na słuchaczach. Samym jednak pięknem trudno kogokolwiek przekonać, zwłaszcza do jakiejś trudnej sprawy. Przekonywaniu służyły różne fortele wykorzystywane przez mówców, czyli chwyty erystyczne. Zaprezentujemy najbardziej znane z nich i najczęściej wykorzystywane, również w dzisiejszych czasach :
1. Argumentum ad personam - argument (odwołujący się) do osoby – jest to argument stosowany często w dyskusji. Skierowany jest nie przeciwko argumentom, których używa strona przeciwna, a przeciwko samej osobie przeciwnika, zwykle by go zdyskredytować jako człowieka niewiarygodnego, a tym sam zdyskredytować jego argumenty. Jest to chwyt nad wyraz nieuczciwy, bo podważać w dyskusji należy tezy przeciwnika, a nie jego samego. Czasem jednak, a ściślej w sprawach, w których np. morale człowieka uwiarygodnia go jako reprezentanta określonej sprawy, stosowanie argumentu ad personam może być uzasadnione.
2. Argumentum ad hominem - argument (odwołujący się) do człowieka – podobny do powyższego, ale odwołujący się nie tyle do osoby przeciwnika, ile do jego poglądów, i to do poglądów nie przeważnie mających nic wspólnego z dyskutowaną sprawą.
3. Argumentum ad ignorantiam - argument (odwołujący się) do niewiedzy – argumentujący odwołuje się do niewiedzy, a ściślej – do braku wiedzy, która by pozwoliła obalić jego argumenty. W uczciwym argumentowaniu ten argument również nie powinien się znaleźć, gdyż tu nie wystarczy stwierdzić, że nie ma argumentów przeciwko jego tezie, lecz trzeba przede wszystkim pokazać wszystkie racje przemawiające za tą tezą. W przeciwnym razie można by, mocą z tego argumentu, uznać istnienie różnych mitycznych zwierząt i przeróżnych bajkowych postaci, dlatego tylko, że nie posiadamy odpowiedniej wiedzy, która by wykluczała ich istnienie.
4. Argumentum ad baculum - argument (odwołujący się) do kija – jest próba przekonania przez zastraszenie groźbą zastosowania przemocy.
5. Argumentum ad misericordiam - argument (odwołujący się) do uczucia litości – argumentujący odwołuje się do uczuć przekonywanego, np. do jego współczucia. Ten argument wykorzystuje obrońca, gdy usiłuje wzbudzić w ławie przysięgłych uczucie litości dla swego klienta.
6. Argumentum ad vanitatem - argument (odwołujący się) do próżności – argument schlebiający ludzkiej próżność przekonywanego, np. przez odwołanie się do jego rzekomej mądrości, wiedzy itp..
7. Argumentum ad auditorem - argument (odwołujący się) do słuchacza – argumentujący zwraca się do słuchaczy, zamiast do przekonywanego dyskutanta, by ich pozyskać, ale nie mocą swoich argumentów, tylko grając na ich uczuciach.
8. Argumentum ad populum - argument (odwołujący się) do ludu – argument odwołujący się do uczuć zbiorowych, takich jak patriotyzm, ale również do pospolitych przesądów i uprzedzeń.
9. Argumentum ad verecundiam - argument (odwołujący się) do nieśmiałości – argumentujący powołuje się na jakiś powszechnie uznany autorytet, przeciw któremu jego przeciwnik nie będzie miał śmiałości wystąpić.
Podano tu jedynie niektóre z tzw. chwytów erystycznych. Są one często wykorzystywane nie tylko w oficjalnych dyskusjach, lecz również w zwykłych rozmowach, w których usiłuje się kogoś do czegoś przekonać. Tego typu i inne argumenty bywają wykorzystywane szczególnie często w propagandzie politycznej, w agitacji wyborczej, ale również w różnego rodzaju akcjach reklamowych. W poważnej rzeczowej dyskusji tego typu argumenty nie powinny mieć miejsca. Dyskusja i przekonywanie powinny opierać się na solidnych argumentach, to znaczy bardzo rzetelnie uzasadnionych, a ich celem powinno być rozświetlenie prawdy. Innymi słowy mówiąc: głównym celem poważnej dyskusji powinno być nie odniesienie tzw. zwycięstwa nad uczestnikami dyskusji, a wyklarowanie prawdy w danej sprawie, prawdy osadzonej na mocnych argumentach. Niestety do tego rodzaju dyskusji merytorycznej bardzo rzadko dochodzi. Częściej zamiast argumentów przemawiających za daną tezą, używa się różnych sztuczek i chwytów erystycznych, a także retorycznych frazesów. Osobisty lub grupowy interes bywa najczęstszą, choć przeważnie skrywaną, przesłanką i racją we wszelkiej dyskusji, zwłaszcza politycznej, a podobno nawet i gospodarczej.
Powiedziano na samym początki tego wykładu, że przekonywanie stanowi szczególny rodzaj wnioskowania. Dodajmy, że w praktyce bywa to, z punktu widzenia logiki i logicznych zasad rozumowania, nad wyraz szczególny rodzaj „wnioskowania” – tak bardzo szczególny, że czasem, w ferworze tzw. dyskusji, traci więzi nie tylko z myśleniem logicznym, lecz w ogóle z myśleniem. Jednakowoż doskonale rozumiemy, że jest to jednak swego rodzaju patologia. Właściwe przekonywanie nie może popaść w irracjonalność. Nie może tracić racjonalnego gruntu pod nogami. Racjonalność powinna stale być jego siłą nadrzędną. Co więcej, powinna to być racjonalność właśnie logiczna, tzn. oparta na prawidłach logicznego rozumowania, a już na pewno – nie przecząca im. Przekonywanie nie może przybierać formy pseudo-rozumowania, lekceważącego zasady logicznego myślenia, a już w ogóle nie powinno przepoczwarzać się w jakąś postać psychicznego nacisku czy wręcz szantażu. O wartości ludzkiej myśli decyduje jej racjonalność, czyli rzetelność logiczna. Nawet najbieglejsza sztuka przekonywania, do tego połączona z perfekcyjnym opanowaniem rzemiosła retorycznego, nie zastąpi umiejętności logicznego myślenia i logicznego formułowania zdań. Dodajmy do tych, w sumie oczywistych uwag, jeszcze jedną, równie oczywistą. Otóż nawet najbieglejsze opanowanie logiki, zasad logicznego myślenia i logicznego formułowania myśli, nawet połączone z perfekcyjnym opanowaniem różnych technik erystycznych i retorycznych, na nic się nie zda, jeśli nie będzie przepojone duchem prawdy. Ale nawet to nie wystarcza. Nawet duch prawdy nie wystarczy, by życie nasze stało się nie tylko racjonalne, lecz również sensowne. Potrzebne tu jest jeszcze coś. Potrzebna jest przynajmniej odrobina życzliwości dla drugiego człowieka, ale czym to jest – to już niech każdy z nas sam rozstrzygnie (najlepiej w własnym sercu).
Bibliografia:
K. Ajdukiewicz, Zarys logiki, Warszawa 1960.
A. Anzerbacher, Wprowadzenie do filozofii, Kraków 1992.
J.M. Bocheński, Współczesne metody myślenia, Poznań 1993.
T. Kotarbiński, Elementy teorii poznania i logiki formalnej, Warszawa 1986.
T. Kotarbiński, Wykłady z dziejów logiki, Łódź 1957.
Z. Kraszewski, Główne zagadnienia logiki, Warszawa 1970.
Z. Kraszewski, Logika – nauka rozumowania, Warszawa 1975.
E. Nieznański, Logika dla prawników, Warszawa 2002.
K. Pasenkiewicz, Logika ogólna, Warszawa 1968.
Richard H. Popkin, Avrum Stroll, Filozofia, Poznań 1994..
J. Słupecki, L. Borkowski, Elementy logiki matematycznej i teorii mnogości, Warszawa 1984.
B. Stanosz, Wprowadzenie do logiki formalnej, Warszawa 2002.
K. Trzęsicki, Logika. Nauka i Sztuka, Białystok 1996.
J. Wajszczuk, Wprowadzenie w podstawowe zagadnienia logiki, Olsztyn 1997.
Z. Ziembiński, Logika praktyczna, Warszawa 1994.