Andrzej Brodziak
O czterech rodzajach niepojętych niezwykłości
Najbardziej zabawny, a zarazem najtragiczniejszy jest fakt, że wszyscy uwięzieni dobrze widzą wyjście. Zdaje się jednak, że nikt nie idzie w jego kierunku. Mało tego, ktokolwiek tam się zbliża, ktokolwiek na nie wskazuje, nazywany jest szaleńcem albo przestępcą, albo grzesznikiem, który spłonie w piekle. Problemem nie jest pułapka ani nawet znalezienie wyjścia. Problem tkwi w samych usidlonych. Z zasady omijać sedno sprawy - to źródło problemów człowieka. Uniki i wykręty są częścią jego struktury. Ona sprawia, że człowiek unika wyjścia z pułapki, które budzi w nim lęk i nienawiść, że bezlitośnie tępi wszelkie próby znalezienia wyjścia.
Wilhelm Reich
Niezwykłości I stopnia.
Gdyby konkretne wartości kilkunastu stałych fizycznych takich jak stała Plancka czy szybkość światła były o ułamek procenta inne, to Wszechświat mógłby mieć postać chaotycznej piany. Co więcej, aby mogło się pojawić życie biologiczne, a potem cały ciąg ewolucji organizmów żywych wiodący do świadomego człowieka, musiały zaistnieć rozliczne dodatkowe zbiegi okoliczności. Umiarkowane wahania temperatury na powierzchni naszej planety, często jedynie w przedziale <-40, 0, +40>, są wynikiem optymalnej odległości naszej planety od gwiazdy. Niezbyt silna grawitacja (masa naszej planety), obfitość wody, węgla, azotu i kilku innych „kluczowych pierwiastków” były warunkami zaistnienia tu reakcji fotosyntezy, RNA, DNA i białka, innymi więc słowy - zaistnienia życia biologicznego. Obecność księżyca, potrzebnego dla stabilizacji osi obrotu Ziemi i jądra Ziemi z otaczającą je warstwą płynnego żelaza, niezbędną, aby istniało pole magnetyczne i magnetosfera chroniąca nas przed promieniowaniem kosmicznym - całość funkcjonowania biosfery naszego układu planetarnego wydaje się być „cudownym zbiegiem okoliczności”.
Niezwykłości II stopnia. Działanie mózgu i jego wynikanie z zapisu DNA.
Jeszcze bardziej zdumiewająca będzie się nam wydawać struktura i działanie naszego organizmu, a zwłaszcza mózgu, konstytuanty pojawienia się samoświadomości. Każda z istotnych funkcji mózgu wydaje się być nieodgadnioną zagadką. Spróbujmy je wyliczyć. Mózg często jest traktowany jako pewien narząd organizmu człowieka. Nawiasem mówiąc, z wyjątkiem neurologów, zajmujących się tak spektakularnymi uszkodzeniami jak wylew krwi do mózgu, i psychiatrów, zajmujących się „obsługą” chorych, którzy na swoje nieszczęście, z przyczyn zapewne głównie genetycznych, mają „systemowy błąd” połączeń neuronalnych bądź „systemowy błąd” produkcji neurotransmitera, lekarze praktycy innych specjalności nie przejmują się nim zbytnio. Przedziwne, gdyż narząd ten kieruje działaniem układu endokrynnego i poprzez układ wegetatywny pełni niejako funkcję regulującą wobec całości organizmu, co zapewne też w warunkach „złego”, błędnego sterowania wywołuje lub wzmaga przynajmniej niektóre choroby!
Gdyby powiedzieć, że podstawową czynnością mózgu jest przetwarzanie informacji (termin automatyków, informatyków), płynących z wnętrza ciała jak i świata zewnętrznego, to łatwo byłoby dojść do stwierdzenia, że mózg to „układ służący do przetwarzania informacji”. To ułatwienie zbyt duże i zbyt duże uproszczenie. Nie można bowiem zapomnieć, że mózg człowieka jest „narządem”, wytwarzającym: fenomen świadomości, który zanim zrealizuje (rozpocznie) scalanie informacji wyznacza emocje i motywacje oraz cele integrowania informacji. Mózg jest także w stanie wytworzyć głód poznawczy, „ciekawość” powodującą, że człowiek stale poszukuje nowych informacji i chce je „uzgodnić”. Realizuje on także odczucie bólu i odczucie przyjemności oraz magazynuje „streszczenie” całości biegu ścieżki życiorysowej.
Otwarcie owego „magazynu”, wyprowadzenie danych z pamięci, to odtworzenie fragmentu świata zewnętrznego w postaci „oglądanych niejako raz jeszcze” obrazów wyobrażeniowych, tzn. obrazów mentalnych. Mózg umożliwia jednak także „oglądanie” obrazów obiektów nieistniejących, lecz możliwych. Nie tylko „konstruuje” takie wyobrażenia, ale też zapamiętuje je, i gdy tylko staje się to możliwe, robi z nich praktyczny użytek. Co więcej, człowiek może w owe „modele obiektów możliwych” uwierzyć. Możliwość wiary w sens pewnych wizji jest prócz mowy i ciekawości (czy nawet umiłowania tajemnic) oraz chęci tworzenia jedną z najważniejszych cech wyróżniających człowieka. I ciągnie to go do przodu, jak ujął to światowej sławy antropolog polski prof. A. Wierciński.
Jeśli mówić o istocie pracy mózgu nie sposób pominąć jednak jeszcze jednej okoliczności. Otóż wiadomo, że niemowlę pozbawione bodźców matczynych, a nawet osoba dorosła po długotrwałej deprywacji sensorycznej umiera (sic!). Nawet ograniczenie jedynie możliwości porozumiewania się i działania (tzw. transakcji interpersonalnych - E. Berne) prowadzi do depresji i chorób. Człowiek koniecznie potrzebuje kontaktów z innymi ludźmi. Człowiek jest więc, jak się wydaje, podjednostką układu szerszego, który coś realizuje. Dlatego musi on mieć wręcz szczególne, unikalne cechy osobiste. Różnorodność ta, można zakładać, jest zamierzona i potrzebna. Zaprzeczając temu - a na przestrzeni wieków czyniono to wielokrotnie poprzez próby „ujednolicenia” ludzi - ewokuje się „społeczną chorobę”. Duża część tkanki mózgu wykształca i pamięta zdolności przydatne jedynie dla współpracy z innymi ludźmi. Bez tej współpracy odpowiednie „załadowanie danych”, a potem ich wykorzystanie, jest niemożliwe. Tak, tak - to właśnie „przy pomocy mózgu” można się zakochać! Choć nie przesądzajmy, czy jest to akurat stan największego zdrowia.
Ludziom jest też właściwa umiejętność wyrażania szacunku, współczucia, podziwu. Z drugiej strony budowa i funkcja mózgu jest jednak określona przez genom człowieka, a więc kolejny już w naszych rozważaniach układ pamiętający (nazwijmy go procesorem I-go rzędu), który jest do tego stopnia „zminiaturyzowany”, że mieści się w jądrze każdej komórki. Procesor I-go rzędu jest powtórzony w każdym neuronie, co jest częściowo wykorzystywane nie tylko w trakcie embriogenezy, ale i w trakcie jego pracy długoterminowej. Są mianowicie badacze formułujący intuicje, że informacja o całości organizmu jest niejako neuronowi potrzebna.
Genom ludzki jest wytworem ewolucji, a więc procesu odbywającego się w czasie znacznie dłuższym niż życie człowieka. Ewolucja powoduje stałe zwiększanie się „mocy obliczeniowej” (przetworzeniowej, integracyjnej) układów nerwowych przedstawicieli poszczególnych gatunków. Narastanie zdolności rozumienia świata i jego modelowania wymaga jednak naprzemiennego „cyklu życia i śmierci”, w którym występują: faza życia, czyli realizacji procesora II-go rzędu (ukształtowanie mózgu), i faza śmierci, potrzebna, aby móc wprowadzać poprawki do genomu, czyli „przepisu”, schematu konstrukcyjnego organizmu. Nie należy przy tym zapominać, iż genom człowieka jest jedynie częścią całego „systemu genomów” organizmów żywych. Na ok. 30 000 genów strukturalnych (kodujących białko) tylko 300 genów (sic!) jest innych niż te, które zawiera genom myszy, przy czym zarówno owe geny mysie i ludzkie występują już w genomach korali oceanicznych.
Świadomość pojawia się na wykresie owego cyklu życiowego tylko okresowo. Poza tymi okresami działa algorytm wpisany w genom. Algorytm ten jednak (będąc zapisem dokonanym w pewnym języku) jest wyznaczony przez nadrzędny układ, który można tu symbolicznie nazywać Ewolucją, Naturą lub Stwórcą... lub jeszcze inaczej, jeśli ktoś woli.
Co więcej, wydolność integracyjna mózgu ludzkiego - a mówiąc prościej, jasność myślenia człowieka i jego spontaniczność, zdolność strukturalizacji własnego czasu poprzez intymność (miłość) oraz stopień świadomości - maleje wraz z wiekiem, na starość. Plan funkcjonowania mózgu jak gdyby przewidywał oddanie jego wytworów „kontekstowi informatycznemu” (można powiedzieć też „układowi nadrzędnemu”, nazwa jest bez większego znaczenia).
Jak do tej pory wyliczyłem ledwie kilka „tajemnic”... W ostatnich latach uprzytomniono sobie jeszcze inne. Jedna z nich wynika z hipotezy lansowanej między innymi przez Rogera Penrose, który twierdzi, iż odczuwanie i świadomość są oparte o fenomeny fizyki kwantowej. Ujmując to w największym skrócie, mózg wytwarza w sobie koherencję kwantową, tak jak się to dzieje w obrębie tzw. kondensacji Bosego-Einsteina, a więc jest makroskopowym systemem kwantowym. Gdyby była to prawda, to możliwe byłoby racjonalne rozumowanie, wiodące do konkluzji, że mózgi ludzi są podstawą do stałego powstawania „elektromagnetycznych jaźni nadrzędnych”.
Niezwykłości III stopnia.
Nie przejmujemy się na co dzień owym „cudownym zbiegiem okoliczności w naszym układzie planetarnym” i niewiarygodnym wyrafinowaniem konstrukcji naszych organizmów. Nasze codzienne myśli są na ogół związane z wykonywaniem pracy niezbędnej by przeżyć, rozmaitymi troskami bytowymi. Czasami taki zwykły, przeciętny strumień myślenia jest przerywany przez informacje lub własne doznania dotyczące, powiedziałbym, „niezwykłości trzeciego stopnia”. Do takich wydarzeń należą opowieści o rozmaitych „cudownych”, niezwykłych, niecodziennych lub „niemożliwych” wydarzeniach, takich jak „cudowne ozdrowienie”, przejawy niezwyczajnego utalentowania, objawienia, ukazanie się UFO, zjawiska parapsychologiczne. Charakterystyczne jest jednak, iż owe „niezwykłości trzeciego stopnia” są interpretowane dwojako. Część ludzi nie wierzy w ich istnienie, wystarczy zapytać swoich znajomych. Oczywiście można zaproponować ranking owych „niezwykłości trzeciego stopnia” według stopnia wiarygodności ich zaistnienia. Wydaje się przy tym, że niektóre z owych wydarzeń, jak np. te, które były obserwowane w roku 1917 w Fatimie, mają jedną z najwyższych rang, gdyż niesłychanie trudno jest zaprzeczyć, że tłum 70 tysięcy ludzi, którzy zgromadzili się w dniu 13 października 1917 i obserwowali tak zwany „cud słońca”, nie widział pewnych „dziwnych” zjawisk geofizycznych.
Gdyby rzeczywiście istniały „jaźnie nadrzędne”, udałoby się wyjaśnić wiele wymienionych wyżej, doświadczanych i obiektywnie obserwowanych wydarzeń, nazywanych często zjawiskami „parapsychologicznymi lub paranormalnymi”.
Niezwykłości IV stopnia. Niezwykła, niepojęta „negatywność”.
Kiedy uświadomimy sobie jak niezwykle misternie jest zbudowany nasz układ planetarny, na którym zaistniało życie oraz nasz organizm i świadomy mózg, niepojęte wydają się być nieprzebrane przejawy zła, czynionego przez tak „cudownie” skonstruowanych ludzi. Wiek XX to stulecie wojen światowych, obozów koncentracyjnych, mordu dziesiątków milionów przez reżimy totalitarne. Ludobójstwo jest zresztą kontynuowane. Wciąż mając w pamięci wydarzenia w Kambodży (Pol-pot), Ruandzie (plemię Hutu), Bośni (Srebrenica), trudno zakładać, że takie makabryczne działania ustaną. Odwrotnie, ostatnie lata to wykorzystanie najnowszych zdobyczy technologicznych (kamery + Internet + TV satelitarna), by prezentować bestialstwo na skalę globalną. Eskalacja bestialstwa to dziś także dzieci jako zakładnicy, następnie mordowane (szkoła w Biesłanie, casus Brazylii, Filipin). To powiększające się obszary, które wymykają się kontroli cywilizowanych rządów (Somalia, Wybrzeże Kości Słoniowej, Kongo - Kinszasa). To przestępcze kartele, terroryzujące obecnie większość krajów Ameryki Środkowej i część krajów Ameryki Południowej. Taką to sytuację obserwujemy (dzięki... najnowszym zdobyczom technologicznym).
Według Ryszarda Kapuścińskiego to jedynie pomniejsza 6-ta plaga ludzkości. Ważniejsze jest gwałtowne ubożenie niektórych regionów świata. Nikt się specjalnie nie przejmuje, że w roku 2005 w państwie Niger umarło z głodu kilka milionów ludzi, a wiele krajów Ameryki Południowej, nawiasem mówiąc m.in. wskutek „demokratycznego wybrania” irracjonalnych, populistycznych rządów, wpadło w spiralę biedy (Argentyna Boliwia). Mimo ogromnego postępu technologicznego nie potrafimy zapobiec pandemii AIDS, niechęci Europejczyków do rodzenia dzieci („śmiertelna europejska bomba demograficzna”), katastrofalnym dla ludzi przyrodniczym fenomenom, takim jak, dla przykładu, pustynnienie ogromnych połaci planety (tak, już nawet w Europie, gdzie 1/3 terytorium Hiszpanii jest obecnie gorącą, piaszczysto-skalistą pustynią). Martwimy się też wraz z Kapuścińskim (i nie tylko z nim!) poważnymi konfliktami o podłożu nacjonalistycznym, które mogą przerodzić się w nowe wojny, co musi być, wobec nagromadzenia arsenałów broni biologicznej, chemicznej i atomowej, tym bardziej niepokojące.
Wszystko to na naszej „cudownej” planecie. Uderzyło mnie kiedyś zdjęcie, opublikowane na okładce „Magazynu Gazety Wyborczej”: przepiękny górski i morski krajobraz w Chile, roztaczający się wokół miejsca usadowienia obozu koncentracyjnego, założonego przez armię Augusta Pinocheta...
Czy da się pojąć owe cztery rodzaje niezwykłości?
Nie dla wszystkich osób wyliczone powyżej zagadki są intrygujące. Nawet jeśli kogoś nie zastanawia „zasada antropiczna” (niezwykłość I rodzaju) i nie interesuje, jak działa organizm człowieka, mózg i DNA (niezwykłość II rodzaju), to jednak niewiele jest osób, których zupełnie nie ciekawią hipotezy paleoastronautyczne, fenomen UFO, czy rozmaite niepokojące wydarzenia dotyczące chorób, katastrof, terroryzmu... Powstaje więc istotne pytanie. Do jakiej dziedziny kulturowej, do jakiej metodologii poznawczej powinniśmy się odwołać, aby próbować objaśnić przynajmniej niektóre z tych zagadek, bądź próbować wskazać na sposób rozwiązania problemów, stanowiących zdumiewającą negatywność?
Czy odpowiedzi takich może udzielać tzw. nauka? Oczywiście zależy to od przyjętej definicji tego, na czym polega metoda naukowa, oczywiście. Zastanówmy się więc, czym wyróżnia się objaśnienie naukowe? Jeśli przemyśleć dogłębnie każdy z wymienionych wyżej niezwykłych fenomenów, można wyodrębnić pewne cechy mierzalne i konkretne parametry, użyteczne w opisie danego zjawiska. Na ogół powstaje jednak pytanie o przypadkowość czy też celowość fenomenu, a więc o znaczenie danego zjawiska oraz pytanie o sposób powiązania fenomenu z innymi obserwowanymi procesami.
Dla przykładu sejsmografia i inne metody geologii doprowadziły do konstatacji, iż we wnętrzu naszego globu istnieje ogromna masa gorącego i roztopionego, płynnego, „rotującego” żelaza, co powoduje, że wokół naszej planety istnieje złożona struktura elektromagnetyczna zwana magnetosferą. To nie geolodzy, lecz biolodzy przypisują magnetosferze działanie ochronne przed rozpędzonymi cząsteczkami tzw. „wiatru słonecznego”. Już tylko „niecierpliwi intelektualiści” w rodzaju Lynn Margulis i Jamesa Lovelocka kojarzą taki ochronny skutek istnienia magnetosfery z koncepcją planety Gai, postrzeganej jako „jeden olbrzymi organizm, przystosowany do zmian, tak by zachować odpowiednie warunki do życia”, sugerując jednocześnie, że „życie na Ziemi będzie trwać bez względu na poczynania ludzi”. Wspomniane wyżej „konstatacje sejsmologiczne” są ustaleniami dziedziny nauki, jaką jest geologia. Zgodnie z postulatami Augusta Comte'a i Karla Poppera są to niewątpliwie ustalenia naukowe, jako wnioski wynikające z pewnych powtarzalnych pomiarów. Popper postulował, że tylko wtedy teoria ma charakter naukowy, jeśli jest falsyfikowalna. Oznacza to, że teoria naukowa powinna formułować konsekwencje sprawdzalne poprzez konkretne pomiary. W zależności od wyników tych pomiarów teoria zostaje potwierdzona lub odrzucona.
Cóż jednak począć z wnioskiem, że rotujący płaszcz płynnego żelaza generuje magnetosferę, która chroni organizmy żywe zamieszkujące powierzchnię planety przed szkodliwością promieniowania kosmicznego? Wniosek taki ma, po pierwsze, charakter interdyscyplinarny, ponieważ wykracza poza ramy geologii. Czy jest falsyfikowalny? Wydaje się, że może być falsyfikowalny jedynie na zasadzie pewnego eksperymentu myślowego, opartego o założenia: - magnetosfera znika, - wyliczenia geofizyków przewidują, że energia cząstek promieniowania kosmicznego jest wówczas tak znaczna, że organizmy żywe wymarłyby. „Czasowego wyłączenia” magnetosfery nie jesteśmy jednak w stanie przeprowadzić...
Przejdźmy teraz do wniosków Lynn Margulis i Jamesa Lovelocka. Czy tzw. „hipoteza Gai” jest falsyfikowalna? Absolutnie nie!!! To znaczy byłaby falsyfikowalna, gdybyśmy mieli moc Demiurga, persony tworzącej rozmaite układy planetarne. Purystyczni zwolennicy odwoływania się jedynie do metod naukowych atakują ponadto ww. „zasadę antropiczną”, jak i „hipotezę Gai”, powołując się na tzw. zasadę brzytwy Ockhama, głoszącej, że nie należy tworzyć zbędnych teorii, które nic konkretnego nie wnoszą do naszej rzeczywistej i weryfikowalnej wiedzy o świecie.
Podobne rozważania można by przedstawić dla większości wyliczonych wyżej „niezwykłości II rodzaju”, odnoszących się do działania DNA, organizmu człowieka i jego mózgu. Pytania o przypadkowość/celowość, istotę i powiązania z innymi procesami takich fenomenów jak: świadomość (samoświadomość), emocje i motywacje, mowa, kreatywność, podświadomość, wyznaczanie celów, ból i przyjemność, fenomen wiary, człowiek a nadrzędna jaźń społeczna, system genomów organizmów żywych itd., poprowadzą nas za każdym razem - od pewnych faktów mierzalnych i pewnych konstatacji falsyfikowalnych - do sformułowań teoretycznych, mających charakter spekulacji, które byłyby falsyfikowalne jedynie z pozycji Demiurga i które najlepiej jest - niestety, bo najczęściej - pociąć bestialsko brzytwą Ockhama.
„Nienaukowe spekulacje” - wszystko albo nic?
Dlaczego, moim zdaniem, owe uwypuklenie podatności wielu głoszonych poglądów na zarzut „nienaukowości” jest takie ważne? Otóż w ostatnich kilku latach, ze względu na przesunięcie się wolno poruszającego się wahadła Foucaulta w kierunku fundamentalizmu, w kierunku wszelkich rodzajów fundamentalizmów (jeśli użyć metafory Umberto Eco), zarzuty o nienaukowość padają często, zbyt często.
Kto je formułuje? Brzytwą Ockhama posługują się coraz częściej dziennikarze, reporterzy programów telewizyjnych, redaktorzy komercyjnych programów żerujących na ww. „niezwykłościach” (Discovery, National Geografic), lobbyści Filadelfijscy, którzy wylansowali „terror osobowy” wymierzony w ludzi nauki poprzez tzw. Impact Factor (Impact Factor to wyrażona w punktach od 0,01 do 26-30 miara częstości cytowania czasopisma, w którym dany naukowiec opublikował swoją pracę). „Wartość” każdego tzw. naukowca (nieobraźliwie) jest obecnie wyrażana liczbą, będącą tzw. „sumarycznym Impact Factorem”. Zmusza to pracowników nauki do starań, aby publikować wyłącznie to, co ma szansę spodobać się recenzentom czasopism o wysokim IF. Naukowiec coraz rzadziej skłonny jest ryzykować, zwłaszcza jeśli ryzyko jest interdyscyplinarne.
Dobrym przeglądem zastrzeżeń wobec rozlicznych współczesnych, uogólniających teorii, stanowi książka Johna Horgana Koniec Nauki. Zdaniem owego znanego komentatora wydarzeń naukowych niemal we wszystkich dziedzinach nauki formułowane są obecnie już wyłącznie „teorie pseudonaukowe”. W rozdziale Koniec fizyki zalicza on do nich rozważania Stephena Hawkinga, Stevena Weinberga, Davida Bohma, Richarda Feynmanna. W rozdziale Koniec biologii podobnie ocenia dzieła Richarda Dawkinsa, Jaya Goulda, Lynn Margulisa. A w rozdziale Cybernetyka i inne katastrofy Horgan naśmiewa się z „przebrzmiałej” cybernetyki, teorii informacji, teorii katastrof, teorii chaosu. Najbardziej dostaje się kosmologowi Frankowi Tiplerowi za jego teorię punktu Omega, nawiązującej do konceptów Teilharda de Chardin.
Gdybym miał podać charakterystykę owego „podejścia Horgana” i innych osób walczących z tego typu „pseudonaukowością”, to ująłbym to jako protest wobec teorii, które „bezlik faktów mierzalnych i sprawdzalnych” próbują powiązać, zintegrować i strukturalizować tak, aby można było dostrzec w nich jakąś prawidłowość ogólną i szersze znaczenie. Próba scalenia może być trywialna i nieudana, ale synteza wskazująca na celowość i znaczenie zawsze przecież będzie niesprawdzalną spekulacją.
Niestety nasila się owa „niezwykła, niepojęta negatywność”. Nie jest tak wszędzie, są miejsca na Ziemi, gdzie jest jej mniej, mimo globalizacji, jak przepuszczam. Ze smutkiem zaś stwierdzam, że dotyczy to, z pewną widoczną szczególnością, głównie podstaw naszej „biało-zachodniej” cywilizacji, sprzężonej ze światem Islamu („śmiertelna europejska bomba demograficzna”, m.in.). Moim więc skromnym zdaniem „niezwykła, niepojęta negatywność”, jak najbardziej realna, winna skłonić nas do możliwie szybkiego zastanowienia się nad statusem niektórych stwierdzeń oraz tych, którzy „ośmielają się” je wypowiadać, i obroną ich spostrzeżeń przed „fundamentalistycznym” lobby, przypisującym sobie prawo do ferowania wyroków o tym co jest „jedyną, właściwą prawdą”.
Owe quasi-naukowe, fundamentalistyczne lobby, szermując osądami o „naukowości/nienaukowości”, odwołuje się do kryteriów poprawności i zasadności sądów z czasów Augusta Comte'a i Karla Poppera. Newton, Kant, Comte, Popper - mieli (mają) zawsze rację. Ich kryteria naukowości dotyczą jednak tych wszystkich obiektów i zjawisk, które „są widzialne” (dosłownie i metaforycznie), i które mogą być weryfikowane poprzez „klasyczne kryterium prawdy”. Świat się jednak niestety skomplikował i pędzi gdzieś wieloma ścieżkami... Musimy próbować więc formułować zasady oceny wartości i zasadności różnych „syntetycznych sądów a priori” (choćby próbować, na nowo próbować?).
Proponując pewne podejście metodologiczne zabezpieczające przed błędami teorii uogólniających, warto zwrócić uwagę na to, co w zakresie rozważań nad metodologią nauki, po Popperze, powiedzieli Thomas Kuhn i Paul Feyerabend, a zwłaszcza ich prekursor Ludwig Fleck. Kuhn twierdził, że nauka nie jest jednostajnym, kumulatywnym pozyskiwaniem wiedzy. Spokojne okresy przerywane są przez gwałtowne intelektualne rewolucje, po których pewien światopogląd jest zamieniany przez inny, spopularyzował też pojęcie „paradygmatu”, który jest zbiorem poglądów podstawowych, podzielanych przez pewną grupę naukowców. Na ogół ów paradygmat nie jest dyskutowany, tym niemniej to on wyznacza, jakich pomiarów w pewnym okresie czasu należy się spodziewać. Kuhn był przekonany, że typowi naukowcy nie są obiektywnymi i niezależnymi myślicielami, lecz raczej konserwatystami, którzy stosują się do tego, czego ich nauczono. Większość z nich, jak pisał, „składa układanki celując w odkrywaniu tego, co i tak już jest im znane, nie mając szerszych horyzontów wie z góry, co chce osiągnąć, i zgodnie z tym projektuje swoje narzędzia pomiarowe”.
Jeszcze ciekawsze są spostrzeżenia Paula Feyerabenda. Punktem wyjścia jest dla niego tzw. „niewspółmierność interteoretyczna” (intertheoretical incommensurability), polegająca na tym, że niektóre, rywalizujące ze sobą teorie naukowe, są ze sobą niezgodne, bo np. „dotyczą częściowo tylko tego samego zakresu zjawisk, lub posługują się odmiennymi metodami badawczymi, czy innymi standardami oceny tego, co jest w danym momencie uznawane za naukę, albo mówią o różnych przedmiotach za pomocą tych samych słów”. W swojej głośnej książce Przeciw metodzie proponuje on tzw. „zasadę poznawczą anything goes (wszystko ujdzie)”. W jego opinii „każda dosłownie idea, każdy pomysł, choćby dziś nie wiem jak wydawał się absurdalny, może okazać się, z biegiem czasu, przydatny dla rozwoju nauki”. Feyerabend był przekonany, że „podział na to, co racjonalne i to, co irracjonalne pozbawiony jest sensu, ponieważ nie istnieje jeden niezmienny zbiór reguł mogący być odniesieniem dla takiej oceny”, kwestionując przekonanie o istnieniu ponadhistorycznej racjonalności postępowania badawczego (ponadhistorycznych reguł metodologicznych).
Współcześnie uznaje się, że prekursorem konceptów Kuhna i Feyerabenda był polski lekarz Ludwig Fleck. Krótki więc przegląd ich intuicji uzupełnijmy spostrzeżeniem Flecka, dotyczącym tzw. kolektywu myślowego (thought-collectives - community of thinking) i stylu myślowego (thought-styles). Otóż wg Flecka pewna teoria naukowa tylko wtedy jest przyjmowana, jeśli zostanie wyrażona zgodnie ze stylem myślowym grupy ludzi, do których jest ona kierowana. Nic dodać, nic ująć, można by rzec.
Śmielej.
By móc formułować hipotezy tudzież próby objaśnień tyczących się wyliczonych wyżej „czterech rodzajów niezwykłości”, należy zgodzić się, moim zdaniem, z pewną metodologią objaśniania świata - wciąż „młodą”, a może raczej „nieustannie młodą” - która szanuje i korzysta z tego, co o istocie nauki powiedzieli Bacon, Newton, Kant, Comte i Popper (i wielu innych), lecz która w szczególności uwzględnia to, co zauważyli Kuhn, Feyerabend i Fleck. Metodę taką nazwijmy odgadywaniem z kontekstu i wielokierunkowym uzgodnieniem.
Z rozwoju epistemologii wynika stopniowo, wg mnie, przeświadczenie, że aby zrozumieć działanie pewnego układu (zasadę akcji), należy zasadę tę najpierw „odnaleźć”, i to na podstawie jak najszerszego kontekstu, w którym rozpatrywany układ jest osadzony, a potem próbować ją falsyfikować i dokonywać żmudnego procesu „uzgadniania”.
Istotę proponowanej tu metody można opisać szczegółowiej:
1. Niemalże jako reguła: jeśli coś wydaje się nieodgadnioną zagadką lub nierozwiązywalnym problemem społecznym, to zapewne paradygmat obowiązujący aktualnie jest nieskuteczny, niewydolny, niewłaściwy.
2. Kiedy fenomen pozostaje tajemnicą lub problem społeczny jest palący, konieczne są próby podważenia obowiązującego paradygmatu.
3. Jeśli tylko pamiętać, iż na końcu procesu formułowania nowego, lepszego objaśnienia będzie nas obowiązywać etap uzgodnień, to tym bardziej na etapie wcześniejszym, na etapie prób podważenia stosowanego do tej pory paradygmatu, dozwolone a nawet pożądane jest zastosowanie zalecenia Feyerabenda anything goes.
4. W szczególności skuteczne jest zastosowanie zasady anything goes w próbach poszukiwania wskazówek dla rozwiązań w dziedzinach pozornie odległych. Dokonanie przeglądu dziedzin, zajmujących się w istocie tym samem typem obiektów, jakkolwiek traktowanych jako dziedziny całkowicie inne, nieprzystające, wymaga umiejętności pokonywania tzw. przegród czy też barier poznawczych (thought styles Flecka).
5. Próba odgadnięcia, przeniknięcia pewnej tajemnicy poznawczej powinna się cechować „dziecięcą naiwnością”, kompletną niepodatnością na zastany thought style, i to największych autorytetów w danej dziedzinie. Skuteczne jest przy tym zastosowanie zasady przemyślenia problemu poczynając od tzw. „zewnętrznej ramki”, czyli od naszego wyobrażenia o kosmosie. Cóż się wtedy dzieje? Okazuje się, że w wielu ważnych, obowiązujących teoriach dostrzegamy luki, niezgodności i ułomności. Spostrzeżenia takie są inspirujące. Ułomność pewnej ważnej teorii jest przecież otwarciem drzwi do nowatorskich poczynań, autorskich i oryginalnych hipotez. W ten sposób proste założenia metodyczne stają się ogólnym, skutecznym narzędziem stymulowania kreatywności.
Koniec końcem, nauka nauką...
Bez uogólniających hipotez i teorii świat jawi się jako proces przypadkowy, chaotyczny i bezsensowny. Te z nich, które stanowią przekonujące i użyteczne objaśnienie poszczególnych fenomenów przyrodniczych i zjawisk społecznych, choćby i stanowiły „jedynie” zbiory sądów syntetycznych a priori, są narzędziami umożliwiającymi jego rozumienie.
Stoimy więc wobec wyboru: słuchać jedynie tych, którzy nie burzą nam naszego mentalnego porządku i narzekać, iż nie ma wyjścia lub słuchać także i „innych”. Pokorniejąc wobec jednej z rzadziej używanych definicji nauki - „science, it is ability to produce solutions in some problem domain”.
Wybrana bibliografia:
A. Brodziak, Jesteś nieśmiertelny - teza i zapis dyskusji fizyków, biologów i lekarzy wynikających z Zasady Antropicznej, Bytom 1990.
F.J. Tipler, The physics of immortality. Modern cosmology, God and the Resurrection of the Dead, New York 1995.
R. Penrose, Makroświat, mikroświat i ludzki umysł, Warszawa 1997.
R. Kapuściński, Detronizacja Europy, „Gazeta Wyborcza”, 6-7 sierpnia 2005.
J. Horgan, Koniec nauki - czyli o granicach wiedzy u schyłku ery naukowej, Warszawa 1999.
Witryny Internetowe:
M. Pitkanen, Tgd inspired theory of consciousness with applications to bio-systems
http://www.physics.helsinki.fi/~matpitka/cbookI.html
L. Fleck, Genesis and Development of a Scientific Fact
http://www.fmag.unict.it/~polphil/PolPhil/Fleck/Fleck.html
A. Brodziak, Mental Procedures Helping Search For Solution Of Societal Problems - The Internet Journal of World Health and Societal Politics
http://www.ispub.com/ostia/index.php?xmlFilePath=journals/ijwh/vol2n1/mental.xml
The World Question Center - what do you believe is true even though you cannot prove it?
http://www.edge.org/