O POWSTANIU WSZECHŚWIATA |
Lech Nijakowski
Problem początku Wszechświata należy do tradycyjnych tematów religii i filozofii. Jednak dopiero wiek XX wprowadził go do królestwa nauki. O ile wcześniej powstawały koncepcje imponujące intelektualną głębią i oryginalnością rozwiązań, to jednak nie spełniały one warunków, jakich wymagamy od teorii naukowej.
W niniejszym szkicu chciałbym w formie skrótowej i w możliwie popularnej formie przedstawić historię kosmogenezy jako dziedziny nauki, a także zaprezentować jej najnowsze idee, prezentowane przez naukę jako możliwe obrazy uniwersum, którego jesteśmy częścią.
Na wstępie trzeba poczynić jednak parę uwag natury ogólnej. Współczesna nauka posługuje się metodą teorii cząstkowych: opisuje Wszechświat w pewnym zakresie, na pewnym poziomie, abstrahując od czynników ważnych w innej dziedzinie. Choć teorie cząstkowe dobrze opisują Wszechświat w pewnym jego wymiarze, to na razie nie sposób ich wszystkich powiązać; często nawet są to teorie wykluczające się wzajemnie
/ przynajmniej w pewnym zakresie/.
Naukowcy opisują obecnie Wszechświat przy pomocy dwóch fundamentalnych teorii: ogólnej teorii względności, tłumaczącej Wszechświat w makroskali, z uwzględnieniem siły ciążenia; i mechaniki kwantowej, opisującej Wszechświat w mikroskali / w skali cząstek elementarnych/.
Obie te teorie nie mogą być jednocześnie poprawne/ próbę ich połączenia przedsięwzięto - dla przykładu - w ramach tzw. teorii strun/.
Dlatego poszukuje się się ich zunifikowanej wersji: kwantowej teorii grawitacji.
Przy jej pomocy wiele cząstkowych problemów będzie można połączyć w jeden całościowy model Wszechświata. Dla nas ważne jest jednak to, że bez uwzględnienia ustaleń obydwu tych teorii nie sposób zrozumieć współczesnej kosmologii.
Trzeba także pamiętać o tym, że nie ma we współczesnej kosmologii wiedzy całkowicie pewnej. Cała nasza wiedza o kosmosie, a tym bardziej o jego początkach, jest interpretacją danych obserwacyjnych.
O tym jakie dane uzyskujemy decyduje zaś, po pierwsze, dokładność instrumentarium badawczego/ wystarczy przypomnieć ile odkryć dokonano dzięki wyniesionemu na orbitę w 1990 roku kosmicznemu teleskopowi Hubble'a /, oraz poprawność teorii, na podstawie której porządkujemy różnorodne oddziaływania.
To co współczesna nauka prezentuje jako możliwe wersje początkowego stanu Wszechświata, ma status jedynie hipotez naukowych, które trzeba nadal weryfikować. Dlatego nie sposób wskazać "tej jedynej" teorii, która jest powszechnie uważana za prawdziwą. Różne "szkoły" opowiadają się za - często rozłącznymi - teoriami. Możliwość falsyfikacji tych teorii jest zaś, zgodnie z metodologią nauk, znakiem ich naukowości.
1.
Współczesna nauka opiera się na kilku fundamentalnych odkryciach. Poprawną teorię światła opracował Clerk Maxwell/1831-1879/, który w 1865 roku zaproponował unifikację elektryczności i magnetyzmu do oddziaływań elektromagnetycznych.
Albert Einstein/1879-1955/ jest twórcą teorii względności. Pierwszą jej wersję zaproponował w 1905 roku. Miała ona między innymi wytłumaczyć rezultaty doświadczenia przeprowadzonego przez Alberta Michelsona/1852-1931/ i Edwarda Morleya/1838-1923/, którzy badali prędkość światła rozchodzącego się prostopadle do jej ruchu. Ku ich zdumieniu okazało się, że są to prędkości identyczne, czego nie dało się wytłumaczyć na podstawie obowiązujących ówcześnie teorii fizycznych /w tym ustaleń Maxwella/. Teoria Einsteina rozwiązywała ten dylemat jednak - z punktu widzenia potocznego realizmu - za wysoką cenę; wyeliminowała ideę absolutnego czasu.
Zasadniczy postulat teorii względności głosi, że prawa fizyki są takie same dla wszystkich swobodnie poruszających się obserwatorów, niezależnie od ich prędkości.
Rozwinięcie własnej teorii, uwzględniającej siłę ciążenia, zaproponował Einstein
w 1915 roku. Teoria ta zwana jest ogólną teorią względności. Wedle Einsteina grawitacja jest zakrzywieniem czasoprzestrzeni.
Innymi słowy - ciała poruszają się w czasoprzestrzeni po liniach geodezyjnych,
ale ponieważ czasoprzestrzeń jest pofałdowana przez rozłożoną w niej masę/ jak elastyczna substancja przez ciężkie przedmioty/, to my odbieramy to jako ruch po krzywej.
Ponieważ po liniach geodezyjnych porusza się także światło, podlega ono tym samym prawom. Można to sprawdzić praktycznie: promień gwiazdy, gdy przechodzi blisko Słońca, ulega zakrzywieniu; w czasie zaćmienia efekt ten można zaobserwować
/ choć jest to bardzo trudne/.
W 1919 roku brytyjska ekspedycja obserwując zaćmienie Słońca z Afryki Zachodniej, potwierdziła teoretyczne konsekwencje teorii Einsteina.
Niewątpliwie jednym z najważniejszych, o ile nie najważniejszym odkryciem badawczym, było to , jakiego w 1929 roku dokonał Edwin Hubble/1889 - 1953/.
Odkrył on, że niezależnie od kierunku obserwacji kosmosu widzimy jak odległe galaktyki szybko się od nas oddalają /Ściślej - oddalają się od siebie gromady galaktyk/. Prędkość ucieczki jest zaś wprost proporcjonalna do ich odległości od Ziemi. Wyprowadzono z tego wniosek, że wszechświat się rozszerza. Nie była to idea nowa- implikowała ją choćby teoria względności Einsteina - ale po raz pierwszy uzyskała empiryczne potwierdzenie. Tym samym nie można już było bezproblemowo zachować statycznej wizji Wszechświata, jak próbował to robić sam Einstein, wprowadzając słynną stała kosmologiczną /miała działać jak siła antygrawitacyjna, powstrzymująca Wszechświat przed zapadaniem się pod wpływem grawitacji - bez konieczności wprowadzenia ekspansji/. Z faktu ucieczki galaktyk wyprowadzono wniosek, że kiedyś musiały się one znajdować blisko siebie.
/Na marginesie trzeba dodać, że model stanu stacjonarnego nadal posiada wśród naukowców zwolenników/.
Pisząc o konsekwencjach teorii względności nie sposób nie wspomnieć o rosyjskim fizyku i matematyku Aleksandrze Friedmannie, który próbował uzgodnić równania Einsteina z członem kosmologicznym oraz inne rozwiązanie tych równań autorstwa Willema de Sittera/1872 - 1934/. Friedmann wykazał /w 1922 roku/, że modele Einsteina i de Sittera są przypadkami skrajnymi. Od jego prac zaczyna się współczesna kosmologia.
Przyjął on mianowicie dwa założenia: Wszechświat w dużej skali wygląda tak samo niezależnie od kierunku, w którym patrzymy; własność ta zachowana byłaby także, gdybyśmy zmienili punkt obserwacji. Z założeń tych wyprowadził wniosek /w 1922 r./, że model statycznego wszechświata nie jest adekwatny. Teoretycznie przewidział zatem to, co zaobserwował Hubble. Rozszerzający się Wszechświat można wyobrazić sobie jako nadmuchiwany balon. Punkty leżące na powierzchni balonu, w miarę jego nadmuchiwania stopniowo oddalają się od siebie, przy czym żaden z nich nie jest środkiem ekspansji.
2.
Z założeniami Friedmana zgodne są trzy modele Wszechświata:
Wedle pierwszego, "zamkniętego" /przyjmował go Friedman/, Wszechświat rozpoczął się od wielkiego wybuchu. Pierwotnie cała materia skupiona była w punkcie; miała zatem nieskończoną gęstość. Na skutek eksplozji Wszechświat zaczął się rozszerzać. Stopniowo powstawały znane nam cząsteczki, potem atomy, pierwiastki, w końcu galaktyki, gwiazdy i planety. Po około 10-20 mld lat od Wielkiego Wybuchu na Ziemi powstało życie. Model ten określa także dalsze losy wszechświata - z czasem ekspansja galaktyk, napędzana przez energię wielkiego wybuchu, zostanie wyhamowana przez siłę grawitacji, wytwarzaną przez całą materie Wszechświata. Następnie Wszechświat ponownie zacznie się kurczyć. Wreszcie skupi się w małym obszarze, kończąc swój żywot w kolejnej wielkiej eksplozji.
Wedle tego modelu przestrzeń zakrzywiona jest tak bardzo, że przybiera kształt podobny do powierzchni Ziemi. Ma zatem skończoną wielkość, choć nie jest w żaden sposób ograniczona.
Drugi model, "otwarty", zakłada, że prędkość ekspansji rosła i rośnie bardzo
szybko - tak szybko, że siła grawitacyjna nie będzie jej w stanie przezwyciężyć. Wedle tego modelu Wszechświat będzie się rozszerzał wiecznie, z czasem ze stałą prędkością. Taki kosmos będzie stopniowo coraz bardziej pusty (w miarę jak materia będzie się- rozpraszała w rozszerzającej się przestrzeni), aż w końcu stanie się zbiorowiskiem martwych, wypalonych gwiazd (teoria wielkiej unifikacji przewiduje, że wszelka materia rozpadnie się z czasem połówkowego rozpadu równym około 10,30 lat). Przestrzeń w tym modelu przybiera kształt siodła i jest nieskończona.
Trzeci model, także "otwarty", podobny jest do drugiego, tyle że prędkość ekspansji jest tu minimalna, tzn. niewiele przekracza tę, jaka jest potrzebna do przeciwstawienia się sile grawitacji. Także i w tym modelu przyszłoŚcią Wszechświata jest cmentarzysko wypalonych gwiazd. Przestrzeń zaś jest płaska i nieskończona.
Który z tych modeli jest prawdziwy? Nie jest to rozstrzygnięte. Prace badawcze dotyczą przede wszystkich ustalenia dwóch wielkości: tempa ekspansji oraz średniej gęstości materii we Wszechświecie. Jeśli gęstość jest mniejsza niż wartość krytyczna, to wytwarzana przez tę materię grawitacja będzie zbyt słaba, aby powstrzymać ekspansję. Jeśli zaś gęstość przekroczy tę wartość, to Wszechświat zacznie się z czasem kurczyć (zgodnie z pierwszym modelem). Na razie wiemy tylko tyle, że Wszechświat rozszerza się- od 5 do 10 procent w ciągu każdego miliarda lat.
W sprawie materii trwają zaś ciągłe spory, dotyczące zwłaszcza tzw. "ciemnej materii" - czyli materii, która nie emituje światła, jak gwiazdy, ale oddziałuje grawitacyjnie na inne ciała.
Należy podkreślić, że wszystkie trzy modele za początek Wszechświata uznają wielki wybuch.
Na początku cała materia skupiona była w jednym punkcie, a zatem krzywizna czasoprzestrzeni była nieskończona. Taki punkt określany jest jako osobliwość - znane nam prawa fizyczne załamują się w niej. Wielki wybuch jest początkiem nie tylko przestrzeni i materii, ale także czasu. Pytanie o to, co było przed wielkim wybuchem, nie ma zatem - w ramach tych modeli - sensu. Nawet gdyby coś wtedy istniało, to wszelka informacja zostałaby zniszczona w osobliwości, a zatem stany wcześniejsze nie mogą mieć żadnego wpływu na nasz Wszechświat.
Łatwo zauważyć czemu model wielkiego wybuchu został zaakceptowany przez Kościół katolicki - pozostawia on przecież wiele miejsca na boską interwencję.
Hipoteza wielkiego wybuchu oparta jest nie tylko na danych obserwacyjnych (ucieczka galaktyk) - ale ma także silne oparcie teoretyczne. W 1965 roku Roger Penrose, brytyjski fizyk i matematyk, wykorzystując zachowanie stożków świetlnych w ogólnej teorii względności ( oraz fakt, że siła grawitacyjna działa zawsze przyciągająco ), udowodnił, że zapadająca się pod działaniem własnej grawitacji gwiazda musi być uwięziona w obszarze, którego objętość zmniejsza się stopniowo do zera. Cała materia gwiazdy zostaje tym samym zamknięta w punkcie, co prowadzi do tego, że krzywizna czasoprzestrzeni jest nieskończona. Powstały w ten sposób twór to czarna dziura, we wnętrzu której uwięziona jest osobliwość.
Do rozważań Pemose'a odwołał się Stephen Hawking. W modelu zapadania się gwiazdy odwrócił on mianowicie kierunek upływu czasu, uzyskując tym samym model ekspansji. Opierając się na tym udowodnił, że każdy rozszerzający się Wszechświat, podobny do modelu Friedmanna, musiał rozpocząć się od osobliwości, w której załamują się prawa fizyki.
3.
Powszechnie akceptowana historia Wszechświata zgodna jest z tzw. modelem gorącego wielkiego wybuchu. Zakłada się w nim, że Wszechświat od wielkiego wybuchu ma geometrię czasoprzestrzeni Friedmanna. Na początku Wszechświat miał zerowy promień i nieskończenie wysoką temperaturę. W miarę wzrostu objętości temperatura malała. Mniej więcej sekundę po wybuchu temperatura spadła do 10, 10K (podobną temperaturę osiąga się w wybuchu bomby wodorowej). Materię Wszechświata stanowiły wtedy głównie fotony, elektrony i neutrina, ich antycząstki (każda cząsteczka ma swoją antycząstkę, z którą w wypadku spotkania - anihiluje) oraz niewielką liczbę protonów i neutronów. W miarę ekspansji i obniżania się temperatury tempo powstawania par elektron-antyelektron malało, aż w końcu proces ten został zdominowany przez anihilację.
Ponieważ elektronów było więcej, ich liczba w końcu ustabilizowała się. Sto sekund po wielkim wybuchu temperatura spadła na tyle, że protony i neutrony mogły sięze sobą łączyć, tworząc jądra deuteru (ciężkiego wodoru). Te łączyły się z kolejnymi protonami i neutronami, prowadząc do powstania jądra helu, następnie (choć w znacznie mniejszej ilości) litu i berylu. Zaprezentowany tu scenariusz zgodny jest z propozycją George'a Gamowa z 1948 roku.
Po upływie paru minut ustała produkcja helu i innych pierwiastków. Przez następny milion lat Wszechświat rozszerzał się, temperatura spadła do paru tysięcy stopni, dzięki czemu elektrony i jądra nie miały już dostatecznej energii, aby pokonać przyciąganie elektryczne między sobą. Połączyły się przeto w atomy pierwiastków.
Wszechświat nadal rozszerzał się, ale pewne jego obszary o większej gęstości, rozszerzały się wolniej. Dodatkowe przyciąganie grawitacyjne spowodowało, iż zaczęły się one z czasem kurczyć. Powstały rotujące galaktyki. Hel i wodór w galaktykach gromadził się w mniejsze skupiska, które zapadały się grawitacyjnie. Stopniowo wzrastała temperatura takich skupisk, aż następował zapłon termojądrowy.
Synteza jądrowa zamieniała (i nadal to czyni we wnętrzu gwiazd) wodór w hel.
Powstały gwiazdy. W miarę, jak wyczerpywały się zapasy wodoru, gwiazdy spalały hel przekształcając go w cięższe pierwiastki (węgiel, tlen). W końcu kończyły swój żywot, czasami jako supernowa. Z odrzuconej materii gwiazdowej powstawały i powstają nadal nowe gwiazdy.
Słońce jest gwiazdą drugiej lub trzeciej generacji i zabłysło około 5 mld lat temu.
Zauważmy, że życie (przynajmniej w znanych nam formach) mogło powstać dopiero wtedy, gdy pierwsza generacja gwiazd, kończąc swój żywot, uwolniła do przestrzeni kosmicznej wyprodukowane przez siebie ciężkie pierwiastki.
Hipoteza gorącego wielkiego wybuchu posiada doświadczalne potwierdzenie.
Otóż wedle tego modelu promieniowanie pochodzące z wczesnego okresu powinno istnieć do dziś, choć jego temperatura jest bardzo niska (parę stopni powyżej zera bezwzględnego). Promieniowanie to, tzw. mikrofalowe promieniowanie tła, odkryli (zresztą przypadkowo) Arno Penzias i Robert Wilson w 1965 roku.
Choć nasz obraz Wszechświata jest nadal bardzo nieprecyzyjny, możemy jednak uznać, że począwszy od jednej sekundy po wielkim wybuchu nasze hipotezy są zgodne z rzeczywistością. Co działo się wcześniej jest jednak przedmiotem ciągłych dysput, nasilających się po kolejnych odkryciach astrofizycznych.
Dylematy, jakie wiążą się z zaprezentowanym modelem, można streścić w czterech punktach.
W sposób syntetyczny przedstawił je Stephen Hawking w książce Krótka historia czasu.
Po pierwsze jawi się pytanie, czemu wczesny Wszechświat był tak gorący.
Po drugie, zaskakująca jest jego jednorodność (w dużych skalach), fakt, iż wygląda tak samo we wszystkich kierunkach (w szczególności intrygujące jest to, że temperatura mikrofalowego promieniowania tła jest tak podobna, niezależnie od kierunku obserwacji). Ta jednorodność jest o tyle trudna do wytłumaczenia, że po wielkim wybuchu światło nie miało możliwości przedostać się z jednego skrajnego regionu do drugiego; nie mogła być zatem wymieniona żadna informacja, pozwalająca na upodobnienie warunków. Jedynym dostępnym rozwiązaniem tego dylematu wydaje się zatem stwierdzenie, że warunki były takie same we wszystkich regionach. Jest to jednak tłumaczenie ignotum per ignotum (nieznane przez nieznane).
Po trzecie, trzeba wskazać przyczynę, dla której początkowe tempo ekspansji Wszechświata było tak bardzo zbliżone do tempa krytycznego.
Po czwarte wreszcie - jak powstały lokalne nieregularności, dzięki którym powstały galaktyki i gwiazdy, a w konsekwencji także życie.
4.
Odpowiedź na wymienione kontrowersje wymaga ustalenia warunków brzegowych czasoprzestrzeni, tzn. warunków na początku i końcu Wszechświata. Jednym z rozwiązań jest stwierdzenie, iż są to tzw. chaotyczne warunki brzegowe. Wedle tej teorii Wszechświat jest nieskończony, albo istnieje nieskończenie wiele wszechświatów. Początkowo Wszechświat był chaotyczny, gdyż taki stan jest bardziej prawdopodobny, niż uporządkowany. Ponieważ jednak istnieje duży wybór regionów (w nieskończonym Wszechświecie) lub wszechświatów, zgodnie z zasadą prawdopodobieństwa któryś z nich będzie dostatecznie uporządkowany.
Dlaczego jest to właśnie nasz świat? Z prostego powodu - dlatego, że my tu żyjemy, tzn. mogliśmy powstać (jako inteligentne stworzenia) tylko w takich uporządkowanych warunkach. Jest to tzw. zasada antropiczna. Choć teoria ta odpowiada na większość pytań, jakie rodzi model wielkiego wybuchu, to jednak tłumaczy przyczynę przez skutek - warunki brzegowe Wszechświata przez jeden z jego wytworów. Co więcej, struktura całego Wszechświata staje się antropocentryczna. Rodzą się także bardziej szczegółowe pytania natury fizycznej, które jednak w tym miejscu pominę.
Inną teorią warunków brzegowych jest model inflacyjny. Zaproponował go Alan Guth.
Wedle tego modelu wczesny Wszechświat rozszerzał się bardzo szybko (jest to właśnie okres inflacyjny) - powiększał swoją objętość w tempie około 10,30 razy w ciągu ułamka sekundy.
Był bardzo gorący i chaotyczny, ale w miarę ekspansji temperatura i energia cząstek malała.
W pewnym momencie nastąpiła przemiana fazowa i symetria między różnymi oddziaływaniami została złamana. (Wyróżniamy cztery typy oddziaływań: grawitacyjne, elektromagnetyczne, słabe i silne oddziaływania jądrowe). Przykładem przemiany fazowej może być zamarzanie wody - w stanie ciekłym jest symetrycma (takie same własności w każdym punkcie i w każdym kierunku), w stanie stałym jest niesymetryczna (kryształki lodu zajmują określone pozycje i ustawiają się w pewnym kierunku). Można jednak wodęprzechłodzić, tzn. postępując umiejętnie obniżyć jej temperaturę poniżej temperatury krzepnięcia i nie spowodować jej przejścia w stan stały i złamania symetrii. Wedle Gutha w podobny sposób mógł się zachowywać wszechświat. Odpowiednikiem przechłodzenia wody byłby niestabilny stan Wszechświata, o energii większej, niż gdyby symetria oddziaływań została złamana. Owa dodatkowa energia działa jak stała kosmologiczna u Einsteina, tzn. powoduje antygrawitacyjne efekty. Dzięki temu następuje stały wzrost tempa ekspansji, a wszelkie nieregularności obecne w stanie początkowym zostają wygładzone.
Zarazem światło miało dość czasu, aby we wczesnym okresie istnienia Wszechświata przebyć drogę z jednego obszaru do drugiego, co pozwala odpowiedzieć na pytanie, czemu różne regiony we Wszechświecie mają takie same właściwości, mimo iż pierwotnie Wszechświat był nieuporządkowany.
Wedle modelu inflacji także tempo ekspansji automatycznie przyjmuje wartość bliską wartości krytycznej (wyznaczonej przez gęstość materii we wszechświecie, a powstrzymującej świat przed grawitacyjnym zapadaniem się). Całkowita energia Wszechświata wynosi zero: dodatnia energia materii jest bowiem równoważona przez ujemną energię pola grawitacyjnego. W myśl teorii inflacji w pewnym momencie jakiś (nieznany) czynnik spowodował zanik stałej kosmologicznej.
Niezwykle szybka ekspansja okresu inflacyjnego dzięki temu została spowolniona przez grawitację. Żyjemy właśnie w okresie spowalnianej przez grawitację ekspansji. Wszechświat szerz a się odtąd zgodnie z modelem wielkiego wybuchu.
Oczywiście model inflacyjny także rodzi liczne problemy. Próbowali je rozwiązać Andrzej Linde, Paul Steinhardt i Andreas Albrecht tworząc tzw. nowy model inflacyjny. Próbę tę należy jednak umać za nieudaną. W 1983 Andriej Linde zaproponował model chaotycznej inflacji - bez nagłego przejścia fazowego i bez stanu "przechłodzenia". Wprowadza on mianowicie pole o spinie zerowym, które z powodu fluktuacji kwantowych przyjmuje dużą wartość w pewnych obszarach Wszechświata, w których energia pola działa jak stała kosmologiczma, tzn. antygrawitacyjnie.
W miarę ekspansji energia pola maleje, tak, iż przyspieszona ekspansja okresu inflacyjnego zostaje spowolniona, a Wszechświat rozszerza się zgodnie ze standardowym modelem.
Na marginesie warto wspomnieć jeszcze o najnowszych kontrowersjach związanych z obserwacjami odległych wybuchających gwiazd, z których wynika (wbrew zaprezentowanym modelom), że tempo rozszerzania się WszechŚwiata nadal rośnie. Podważa to także teorię inflacji. Problemowi temu poświęcony jest raport specjalny Rewolucja w kosmologii, zamieszczony w "Świecie Nauki" z marca 1999 roku. Warto wspomnieć także, że Stephen Hawking jest obecnie zwolennikiem zupełnie nowej koncepcji, którą można określić jako teorię braku brzegów. O ile wcześniej udowodnił on, że Wszechświat musiał rozpocząć się od osobliwości, o tyle teraz odszedł od tego modelu, na rzecz Wszechświata nieograniczonego, ale skończonego. Zgodnie z teorią Hawkinga czasoprzestrzeń Wszechświata przypomina powierzclmię Ziemi. Można się w niej poruszać we wszystkich kierunkach nie napotykając na kres; zarazem ma ona ograniczone rozmiary.
Choć nie posiadamy jeszcze ostatecznej, zadowalającej nas naukowej wizji Wszechświata (zresztą- czy kiedykolwiek będziemy ją mieli?), to jednak wiemy, jakie stawiać pytania i jakich odpowiedzi od kosmosu - w postaci danych obserwacyjnych - oczekiwać. Zaś hipotezy, które zostały tu przypomniane, są naukowymi wizjami początku Wszechświata. Można zatem oczekiwać, że będą się rozwijały zgodnie z logiką wiedzy naukowej.
O ZIEMI I JEJ POWSTANIU |
Lech Nijakowski
Problem powstania Ziemi niewątpliwie uległ detronizacji. Nie budzi już dzi? w potocznej ?wiadomo?ci takich emocji, jak problem powstania Wszech?wiata czy człowieka. Kiedy? mit o powstaniu Ziemi należał do podwalin ?wiatopogl?du religijnego, ale wtedy powstanie naszej planety utożsamiano z powstaniem całego Uniwersum.
Wraz z pozbawieniem Ziemi uprzywilejowanej pozycji i roli w kosmosie, problem planetogenezy stał się jednym z wielu procesów opisywanych przez astrofizykę, powtarzalnym w innych regionach Wszech?wiata.
Choć ranga ?wiatopogl?dowa geogenezy znacznie zmalała, to jednak nie ulega w?tpliwo?ci, że jest to fascynuj?cy problemat, który w XX wieku czę?ciowo rozwi?zano.
Pytanie o metodę
Na wstępie należy jednak podkre?lić, na co zwracałem już uwagę już w poprzednim szkicu, że nie dysponujemy w nauce prawdami ostatecznymi, podzielanymi przez wszystkich uczonych.
Dotyczy to zwłaszcza problemów powstania jakiego? uniwersum - czy to Wszech?wiata, Ziemi, życia czy człowieka.
Nauka polega na wysuwaniu hipotez, które w odróżnieniu od tez religijnych - można sfalsyfikować, tj. wykazać do?wiadczalnie, że s? nieprawdziwe. Gdy która? z hipotez jest potwierdzana przez coraz to nowe dane obserwacyjne, to uznaje się j? za dobrze opisuj?c? ?wiat i traktuje jako kolejn? cegiełkę wielkiego gmachu nauki. Nigdy jednak hipoteza taka nie przekracza granicy królestwa ostatecznej prawdy.
Choć proces kształtowania się Ziemi oddziela od nas bez porównania krótszy czas, niż powstanie Wszech?wiata, a jego wytwór, tj. Ziemię, jeste?my w stanie obj?ć ( czy też: zadeptać) w cało?ci, to jednak tworz?c obraz pocz?tków naszej planety musimy posługiwać się danymi po?rednimi. Dotyczy to także budowy wnętrza Ziemi. Człowiek nie jest w stanie zapu?cić się głębiej w skorupę ziemsk? niż na kilka kilometrów (najgłębsze otwory wiertnicze maj? mniej niż 10 km głęboko?ci). Dlatego geofizyka wykorzystuje fale wywołane trzęsieniami Ziemi.
Badaj?c sposób ich przechodzenia przez planetę (tzn. ?redni? prędko?ć fal przechodz?cych przez różne czę?ci wnętrza Ziemi) można okre?lić gęsto?ć materii w różnych obszarach. Znaj?c gęsto?ć materii można dopasować do niej znane nam minerały i substancje o różnym składzie chemicznym. (Dane te wykazuj?, że Ziemia ma budowę warstwow?).
Z kolei okre?lenie wieku Ziemi wi?że się z badaniami za pomoc? substancji radioaktywnych.
W miarę rozpadu substancje promieniotwórcze emituj? promieniowanie wskutek czego pierwiastek przekształca się samorzutnie w inny pierwiastek (przemiana zachodzi w j?drze atomowym). Każdy izotop promieniotwórczy posiada wła?ciwy sobie tzw. okres połowicznego rozpadu, po którym połowa jego atomów przekształca się w pochodny pierwiastek.
I tak, dla przykładu, uran 238 rozpada się w ołów 206 z czasem połowicznego zaniku równym 4,5 mld lat; a uran 235 przekształca się w ołów 207 z czasem połowicznego zaniku równym 700 mln lat.
Znaj?c stosunek izotopów w danej próbce i czas połowicznego zaniku można ustalić wiek skały.
Jeżeli stosunek ołowiu 207 do uranu 235 w skale jest równy to wiek skały wynosi prawdopodobnie 700 milionów lat. Oznaczanie wieku skał (ale nie tylko skał - także materii organicznej czy wykopalisk archeologicznych) nosi nazwę datowania promieniotwórczego.
Wiek Ziemi z wykorzystaniem tej metody szacowany jest na 4,5 miliarda lat, przy czym najstarsze znane nam skały (z Terytoriów Północno-Zachodnich w Kanadzie) maj? tylko 3,9 miliarda lat.
Należy także wspomnieć o badaniach meteorytów.
Analiza ich składu chemicznego pozwala przypuszczać, jak wygl?dała Ziemia we wczesnej fazie formowania się. Najprawdopodobniej ich skład jest zbliżony w znacznym stopniu do materiału, z którego powstała nasza planeta w procesie akrecji (tj. w procesie, dzięki któremu stała materia - kr?ż?ca wokół Słońca - poł?czyła się w większe ciała). Ponieważ rok rocznie na ziemskie kontynenty spada ponad 100 tysięcy meteorytów (a jeszcze więcej do oceanów), materiał badawczy jest tu bogaty. Poł?czenie wyników badań meteorytów z wiadomo?ciami na temat gęsto?ci wnętrza Ziemi umożliwiły okre?lenie ogólnego składu chemicznego Ziemi - nawet tych jej obszarów, z których nigdy nie pobrano próbek.
Budowa Ziemi
Budowa Ziemi nie wi?że się wprawdzie bezpo?rednio z problemem powstania globu, to jednak musimy wiedzieć jak wygl?da wytwór procesu, aby - przez ekstrapolację - odtworzyć jego scenariusz. Badania prędko?ci rozchodzenia się fal sejsmicznych we wnętrzu Ziemi, jak wspomniałem powyżej, stanowi? podstawę przyjęcia warstwowego modelu jej budowy. Skokowe zmiany prędko?ci fal na pewnych głęboko?ciach ?wiadcz? o skokowych zmianach gęsto?ci, ?ci?liwo?ci lub sztywno?ci materii.
To z kolei jest najprawdopodobniej skutkiem zmiany jej składu chemicznego i stanu fazowego. Według jednej z teorii Ziemia składa się z siedmiu warstw, które tworz? kolejno (licz?c od powierzchni): skorupę (głęboko?ć do
33 km), płaszcz (złożony z trzech warstw o głęboko?ciach odpowiednio do 413 km, 984 km i 2898 km) i j?dro (pozostałe warstwy: do 4982 km, 5121 km i 6371 km). Srednia grubo?ć kontynentalnej skorupy ziemskiej wynosi około 45 km, a oceanicznej - okolo 10 km.
Choć wnętrze Ziemi jest w przeważaj?cej czę?ci stałe, czę?ć j?dra wewnętrznego (stanowi?ca około jednej trzeciej masy Ziemi) przypuszczalnie pozostaje w stanie ciekłym; jest ono zbudowane przede wszystkim z metalicznego żelaza. Dzięki konwekcji w zewnętrznej, ciekłej czę?ci j?dra wewnętrznego, Ziemia ma pole magnetyczne (trzeba tu dodać, że w istocie możemy rozróżnić dwie składowe pola magnetycznego Ziemi: regularne pole w przybliżeniu stałe w czasie, zwi?zane z procesem konwekcji; oraz szybko zmienne pole o mniejszym natężeniu wywołane zjawiskami elektromagnetycznymi zachodz?cymi w atmosferze.).
Ukształtowanie naszej planety tłumaczy teoria tektoniki płyt.
Zakłada ona, że powierzchnia Ziemi składa się z serii wielkich, sztywnych płyt, grubych na około 100 kilometrów. Płyty te poruszaj? się względem siebie, przy czym ruch ten wynika z rodzaju plastycznego przepływu u podstawy płyt,a nie - jak się potocznie s?dzi - z dryfowania płyt po ciekłym wnętrzu planety. Warstwy, na których znajduj? się płyty tektoniczne, s? stałe, ale zarazem gor?ce, co sprawia, że mog? ulegać odkształceniom i przepływowi w wyniku długookresowych ruchów (podobnie jak płyn?ce lodowce).
W pewnych miejscach płyty się rozsuwaj?, rosn?c dzięki dodawaniu nowego materiału przy rozbiegaj?cych się krawędziach; w innych zderzaj? się i przemieszczaj? w skali pionowej - jedna pod drug?; w jeszcze innych płyty ?lizgaj? się wzdłuż siebie, krusz?c skorupę ziemsk?.
Powstanie Ziemi
Ziemia wraz z całym układem słonecznym powstały wówczas, gdy ewolucja Wszech?wiata była już bardzo zaawansowana.
Wszystkie pierwiastki, z których utworzona została Ziemia, powstały w centrach wcze?niejszych gwiazd, które zakończyły swe życie w wielkich eksplozjach, uwalniaj?c do przestrzeni kosmicznej ziemski budulec.
Do niedawna s?dzono, że Ziemia wraz z innymi planetami powstała przez oderwanie się od Słońca (to tzw. teoria przypływowa).
Hipotezę tę zaproponował już w 1749 roku Buffon, a współcze?nie wysunęli j?
F. R. Moulton i Harold Jeffreys. Wtórowali im James Jeansem i T. C. Chamberlin. Wspólnie uznali oni, że w pobliżu Słońca przeszła, lub nawet zderzyła się z nim, inna gwiazda. Kataklizm ten uwolnił do przestrzeni kosmicznej znaczne ilo?ci materii, z której po pewnym czasie ukształtowały się planety. Hipotezę tę uznaje się dzi? za mało prawdopodobn?.
Jak zauważył Harold C. Urey: ,,[...] dawniejsze hipotezy były niezadowalaj?ce, gdyż były prób? wyja?nienia pochodzenia planet bez wyja?nienia pochodzenia Słońca. Kiedy próbujemy wyja?nić pochodzenie Słońca, od razu staje się jasne, w jaki sposób materia tworz?ca planety mogła pozostać na zewn?trz Słońca" (s. 15).
Druga hipoteza, która cieszy się dzi? o wiele większ? akceptacj? uczonych, znana jest pod nazw? hipotezy mgławicowej (lub kondensacyjnej). W pierwszej wersji zaproponował j? Kant (w 1755 roku), a opracował Laplace w 1796 roku. Teoria ta zakłada, że wszystkie czę?ci systemu słonecznego powstały mniej \vięcej w tym samym czasie. W obszarze naszej Galaktyki rozległy obłok pyłu i gazu, pozostałego po ewolucji wcze?niejszych gwiazd, uległ zagęszczeniu prawdopodobnie pod wpływem ?wiatła. Następnie siły grawitacyjne w samym obłoku przyspieszyły proces akumulacji. Zapadanie się chmury sprawiło, że centralna jej czę?ć stawała się coraz gęstsza i gorętsza.
W pewnej chwili zainicjowana zostala reakcja j?drowa, która stala się momentem narodzin Slońca. (Słońce gromadzi około 99,9 procent całej materii pierwotnego obłoku pyłowo-gazowego.) W miarę ochładzania zaczęły powstawać stałe ziarna, które stopniowo się skupiały.
Nastał okres procesu akrecji. Kr?ż?cy wokół Słońca obłok pyłu i gazu rozpadł się na burzliwe wiry, z których utworzyły się protoplanety. Większe ciała zderzały się ze sob?, ł?cz?c w większe cało?ci lub ulegaj?c zniszczeniu.
Pierwotna Ziemia bombardowana była ciałami różnej wielko?ci, co znacznie zwiększało jej temperaturę. Prawdopodobnie Ziemia osi?gnęła swe obecne rozmiary w ci?gu 10 milionów lat (lub nawet w krótszym czasie).
Pierwotnie mogła być ona utworzona z mieszanki - w dużej skali - jednorodnej, ale ciepło wytworzone w procesie akrecji doprowadziło do jej stopienia, a grawitacja spowodowała, że materiały ciekłe i stałe uległy rozdzieleniu. Dotyczy to zwłaszcza żelaza, które topi się w temperaturach nieco niższych niż wiele pozostałych substancji tworz?cych Ziemię.
Żelazo zatem stopiło się prawdopodobnie wcze?niej i w efekcie swej rosn?cej gęsto?ci opadło szybko w gł?b planety.
Oznacza to, że wielkoskalowe chemiczne zróżnicowanie Ziemi na metaliczne j?dro i skalny płaszcz musiało nast?pić u zarania dziejów Ziemi.
Opadanie otoczki metalu w kierunku centrum - w postaci gigantycznych "kropli" - powodowało prawdopodobnie zmianę rozkładu masy wewn?trz wiruj?cej Ziemi, co prowadziło do występowania ogromnych naprężeń, gwałtownie rozrywaj?cych stałe czę?ci wnętrza planety i zastępuj?c je stopionym żelazem. Na powierzchni objawiało się to zapewne silnym wulkanizmem - być może istniało tam nawet morze stopionych skał.
Na pocz?tku Ziemia nie posiadała atmosfery. Składowe powietrza znalazły się na Ziemi zwi?zane w materiale akrecyjnym. W wyniku dzialania temperatury i \vysokich ci?nień stopniowo były z niego uwalniane w postaci gazów wulkanicznych (uwolnienie tlenu wi?że się już jednak z procesami zachodz?cymi w żywych organizmach). W ten sposób na powierzchni pojawila się także woda.
Czas geologiczny Ziemi rozpada się na trzy eony: archaik, proterozoik i fanerozoik, w którym żyjemy (dokładnie - żyjemy w okresie zwanym czwartorzędem ery zwanej kenozoikiem).
Trudno powiedzieć kiedy rozpocz?ł się proces, nazywany tektonik? płyt. Obecno?ć archaicznej skorupy kontynentalnej dowodzi w każdym razie, że woda była dostarczana z powierzchni do wnętrza (na styku poruszaj?cych się płyt) bardzo wcze?nie w historii Ziemi. Jest to o tyle istotne, że dryft kontynentów odbija się na charakterystycznych cechach geologii każdej z er. Nawet jednak 800 milionów lat od powstania Ziemia była ci?gle pustkowiem, a atmosfera nie zawierała jeszcze tlenu. Kolejny etap jej kształtowania otworzyło pojawienie się i rozwój form żywych, co będzie przedmiotem kolejnego artykułu cyklu.
Powstanie Księżyca i przyszlo?ć Ziemi
Pisz?c o powstaniu Ziemi nie sposób nie wspomnieć o powstaniu Księżyca. Do niedawna s?dzono jeszcze, że Księżyc oderwał się od Ziemi we wczesnej fazie jej kształtowania (powstać miał z mas skalnych z miejsca dzisiejszego Oceanu Spokojnego ). Konkurencyjna teoria, uważana obecnie za obowi?zuj?c?, uważa, że Księżyc powstał mniej więcej równocze?nie z Ziemi?, dzięki podobnemu procesowi kondensacyjnemu.
Jaka jest przyszlo?ć naszej planety? Niew?tpliwie w ostateczno?ci zostanie ona pochłonięta przez Słońce, które w ramach ewolucji przekształci się w czerwonego olbrzyma. Stanie się to jednak dopiero za 4-5 miliardów lat. Wcze?niej obniży się temperatura wnętrza Ziemi (która napędza tektonikę płyt), przy czym będzie to proces bardzo powolny, tak więc procesy geologiczne, które podtrzymuje, najprawdopodobniej zachowaj? sw? obecn? postać przez kolejne miliardy lat.
Oznacza to, że kontynenty będ? - jak w przeszło?ci - powstawały i zanikaty, a zbiorniki wodne zmieniały swe granice. Geologiczna skala czasu jest jednak o tyle nieadekwatna, że człowiek jest pierwszym gatunkiem, który na tak? skalę potrafi zmieniać powierzchnię planety ( choć do tworzenia kontynentów nam daleko...). Pytanie o przyszło?ć Ziemi musi więc być zmodyfikowane przez cele i przyszłe (zapewne coraz większe) możliwo?ci gatunku ludzkiego.
POWSTAWANIE ŻYCIA |
Lech Nijakowski
Problem powstania życia zawsze działał na wyobraźnię. Jak bowiem wyobrazić sobie przejście od materii nieożywionej - "biernie" poddającej się odziaływaniom środowiska, do materii ożywionej - zorganizowanej w strukturalne całości, pochłaniającej energię, aby aktywnie przeciwstawiać się presji otoczenia? Przepaść między światem ożywionym a królestwem istot żywych wydawała się nie do pokonania; jedynie bogowie mieli możliwość jej przekraczania. Tymczasem rozwój nauk sprawił, że powstanie organizmów żywych, choć cały czas pełne tajemnic i fascynujące, opisuje się jedynie w kategoriach chemicznych i fizycznych - nie trzeba już uciekać się do boskiej czy kosmicznej interwencji.
Dylematy i przedmiot protobiologii
Nauka o powstaniu życia - protobiologia, jako dyscyplina naukowa oparta na idei ewolucji chemicznej, jest stosunkowo młoda: powstała w latach pięćdziesiątych. Ale filozoficzne i przyrodnicze przesłanki jej podstawowej idei (o ewolucji chemicznej) kształtowały się w ciągu całego ostatniego stulecia. Do przesłanek tych należy m.in. ekstrapolacja darwinowskiej koncepcji ewolucji na świat nieożywiony oraz przypuszczenie, że pierwotna atmosfera i pierwotne środowisko miały radykalnie odmienny charakter niż obecnie (por. Ługowski, 1995, s. 13).
Teorii biogenezy jest wiele (samych teorii ewolucji chemicznej jest ponad sto), zatem nie sposób wybrać i wskazać tej "jedynie właściwej".
Jak w przypadku wszystkich przyrodniczych teorii naukowych można mówić jedynie o "wytrzymałości" na kolejne testy - nowe dane doświadczalne. Jeżeli konsekwencje takiej teorii nie są obalane (falsyfikowane) przez wyniki badań laboratoryjnych i obserwacje świata przyrody, to jest to teoria uznawana za obowiązującą. Problem zaczyna się wtedy, gdy danych jest niewiele - a tak jest w przypadku teorii biogenezy. Dlatego spory w tej dziedzinie dotyczą najbardziej podstawowych rozstrzygnięć, a nawet filozoficznych założeń protobiologii.
W tym krótkim szkicu skupię się zatem jedynie na najbardziej rozpowszechnionej,choć oczywiście nie pozostającej poza krytyką, wizji biogenezy.
Na wstępie trzeba uświadomić sobie czym są organizmy żywe, tzn. co odróżnia je od innych tworów materialnych. Można wskazać na siedem takich cech, które współwystępując określają specyfikę organizmów.
Po pierwsze, zbudowane są z pewnych rodzajów związków organicznych, takich jak białka, kwasy nukleinowe, cukry czy lipidy.
Po drugie, posiadają określoną, hierarchiczną strukturę - można w ich ramach wyróżnić następujące poziomy: makrocząsteczek organicznych (np. białka, kwasy nukleinowe ); kompleksów makrocząsteczek (rybosomy, chromosomy); organelli komórkowych (np. jądro, mitochondria, chloroplasty); komórek; tkanek; narządów; wreszcie - całych organizmów.
Po trzecie, organizmy przejawiają specyficzne funkcje, które także zorganizowane są w sposób hierarchiczny.
Po czwarte, cechuje je metabolizm (przemiana materii i energii).
Po piąte, zdolne są do wzrostu i ruchu (przy czym ruch należy tu rozumieć szeroko, nie tylko jako przemieszczanie się względem podłoża).
Po szóste, zdolne są do rozmnażania się (z czym związane jest dziedziczenie informacji genetycznej).
Wreszcie, po siódme, organizmy zdolne są do ewolucji (por. Korzeniowski, 1996, s. 13-14).
Charakterystyka ta pozwala nam zrozumieć, że kształtowanie się organizmów żywych przebiegało w kilku etapach. Na początku musiała ukształtować się materia organiczna, która sama z siebie nie stanowi jeszcze organizmów żywych. Następnie materia żywa musiała zorganizować się w prymitywne organizmy żywe, o dającej się wyróżnić stnlkturze. Wreszcie, pierwsze organizmy podlegały ewolucji, która eliminowała formy gorzej przystosowane, a pozwalała funkcjonować i rozmnażać się lepiej przystosowanym. Aby odpowiedzieć na pytanie jak powstało życie, trzeba zatem skupić się na wszystkich tych obszarach.
Ekstremalne warunki narodzin
Życie na Ziemi powstało prawdopodobnie 3,8 mld lat temu. Jak się powszechnie dziś przyjmuje, był to proces, który nie wymagał żadnej zewnętrznej interwencji - życie powstało samoistnie na skutek działania sił chemicznych i fizycznych. Przez zewnętrzną interwencję rozumieć należy nie tyle zjawiska "ponadnaturalne", jak boska kreacja, której uznanie przynależy całkowicie do dziedziny wiary, ile raczej "zainfekowanie" Ziemi życiem przez meteor lub (w wersji bardziej fantastyczno-naukowej) jakiś próbnik od innej cywilizacji. Koncepcja ta nosi miano teorii panspermii kierowanej,a sformułowana została po raz pierwszy przez Archeniusa, a potem lansowana przez Cricka i Hoyle'a.
Choć teorii tej nie sposób naukowo obalić jest praktycznie nie do sfalsyfikowania), to jednak należy ją odrzucić ze względu na ekonomię wiedzy naukowej: niczego nie wyjaśnia, a jeszcze dodatkowo wprowadza nowe problemy.
Mówiąc o powstaniu życia często używa się słów "tajemnica" lub "paradoks".
W pewnym sensie o takim paradoksie można mówić, co jednak jest związane z każdym przypadkiem powstawania jakościowo nowych układów. "Paradoks ten można sformułować tak oto: gdy mówimy o powstawaniu nowych układów, jakościowo odmiennych od układów istniejących wcześniej, powinniśmy założyć, że albo nowe układy były już zawarte w pewien sposób w starych, a wówczas trudno mówić o powstawaniu i rozwoju, albo też same zawierają radykalnie nowe elementy i cechy, których nie można przypisać starym układom, co z kolei nie pozwalałoby mówić o więzi genetycznej między nimi" (Ługowski, 1987, s. 5-6).
Paradoks powstania życia częściowo traci na ostrości, gdy uświadomimy sobie jakie warunki panowały na Ziemi cztery miliardy lat temu.
Dla większości znanych nam form życia byłyby to warunki zabójcze.
Atmosfera nie zawierała tlenu - składała się z dwutlenku węgla, azotu, pary wodnej, wodoru, amoniaku i metanu. Ziemia skąpana była w promieniowaniu ultrafioletowym i rażona częstymi wyładowaniami atmosferycznymi.
Do tego dochodziła znacznie większa aktywność wulkaniczna. Te krańcowe warunki pozwalają zrozumieć jak powstał niezbędny element żywych organizmów - związki organiczne.
Pierwszym etapem powstania życia było właśnie powstanie związków organicznych. Rozbicie powstania życia na etapy nie jest jedynie akademickim zabiegiem - odzwierciedla ono rzeczywiste "ery", które rządziły się własnymi prawami. Także, co istotne, rozbicie tego procesu na etapy zwiększa jego prawdopodobieństwo. Powstanie "za jednym zamachem" organizmu żywego z materii nieożywionej graniczy z cudem.
W związku z tym należy stwierdzić, że "życie mogło powstać dlatego, ponieważ powstawało etapami" (por. Korzeniowski, 1996, s. 17).
Czym są związki organiczne? Można je określić jako w dużym stopniu zredukowane (tj. zawierające wodór) związki węgla, w których skład może także wchodzić tlen, azot oraz - w mniejszych ilościach - inne pierwiastki. Tak rozumiane związki organiczne nie są niczym niezwykłym czy wyjątkowym - o możliwości ich samoistnego powstawania w pierwotnej atmosferze świadczą doświadczenia nad ich syntezą w laboratoriach. Dlatego możliwość abiogennego (samoistnego) powstawania monomerów organicznych wydaje się nie budzić wątpliwości w szerokich kręgach naukowców. Dalsze przekształcenia monomerów w polimery wydaje się dobrze znane i jest szczegółowo opisane.
Związki organiczne najprawdopodobniej opadły do oceanów i uległy rozpuszczeniu w wodzie. Powstał tzw. "bulion pierwotny", zwany też "zupą Krey'a". Ich stężenie było jednak niewielkie, a skupiska nieliczne.
Tym samym zakończył się pierwszy etap powstawania życia - etap ewolucji chemicznej, którą należy postrzegać jako ewolucję materii, gdyż nie towarzyszyła jej ewolucja strukturalna.
Ewolucja strukturalna
Drugi etap, który można określić jako ewolucję strukturalną, wiąże się z
przekształceniami wyróżnionych, odróżnialnych od otoczenia całości - indywiduów organicznych. Fakt, iż życie na Ziemi jest zorganizowane w indywidua, decyduje o charakterze jego rozwoju. Wspomnianą strukturę. można w tym kontekście rozumieć jako przestrzenną organizację zachodzących w układach organicznych procesów.
Nie jest to już przeto prosta, przypadkowa reakcja cząsteczek różnych związków, ale zorganizowany proces. Wytworem ewolucji strukturalnej jest
komórka - podstawowa "cegiełka" organizmów żywych.
Co ciekawe, wiele wskazuje na to, że wszystkie znane nam formy organizmów żywych pochodzą od jednego praprzodka. Nie wyklucza to naturalnie możliwości powstawania w przeszłości wielu form dostosowawczych. "Jeżeli jednak z wyłoniło się równolegle wiele form żywych o nieco odmiennych podstawowych zasadach budowy i funkcji, to większość z nich wyginęła bezpotomnie, a tylko jedna dała początek całemu dzisiejszemu światu żywemu.
Jest bowiem skrajnie nieprawdopodobne, że na skutek czystego przypadku dwukrotnie ukształtował się na przykład taki sam kod genetyczny" (Korzeniowski, 1996, s. 33). Przypadek legł u podstaw powstania życia, ale nie oznacza to, że sprzyjał formom żywym na wszystkich etapach.
Raz ukształtowane życie musiało się odtąd zmagać z nieprzychylnym środowiskiem, musiało zdobywać energię, aby przeciwdziałać wewnętrznej entropii oraz rozmnażać się, aby przekazywać swój kod genetyczny dalej.
W prapoczątkach życia - jak się wydaje istniały obok siebie mniejsze lub większe skupiska bakterii wykorzystujących istniejące substancje mineralne do jak najwydajniejszego pozyskiwania energii. Były to prawdopodobnie - znane i dziś - bakterie żelaziste i siarkowe. Te pierwsze wykorzystują do przemiany materii rozpuszczone w wodzie żelazo - potrzebują one jeden atom tlenu na dwa atomy żelaza, przy czym tlen uzyskują z wody (wtedy w atmosferze nie było jeszcze tlenu). Bakterie siarkowe zaś wykorzystują związki siarki. Te niepozorne organizmy były bardzo aktywne. Obserwacja złóż rud żelaza nasuwa wniosek o ich ogromnym wpływie na środowisko (por. Reichholf, 1996, s. 29).
Prawdziwą rewolucją w dziejach życia było powstanie chlorofilu, co nastąpilo prawdopodobnie 2-2,5 mld lat ternu. Chlorofil nie tylko umożliwia pozyskiwanie znacznie więcej -energii, niż opisane metody bakterii żelazistych, ale także stwarza wanmki do jej magazynowania. Chlorofil - działając jako pozornie zwykły barwnik - Stał się więc swoistą "pułapką na energię". Dzięki uzyskanemu w ten sposób dostępowi do ogromnych rezerwuarów energii, czerpanych dzięki promieniom słonecznym, najważniejszym pierwiastkiem procesów życiowym mógł stać się węgiel.
Węgiel ma bowiem możliwość tworzenia wielu połączeń, ale wymaga do tego znacznych nakładów energii.
Proces fotosyntezy, jaki zachodzi dzięki chlorofilowi, można określić jako "równanie życia".
Jest to najbardziej fundamentalny proces, będący podstawą piramidy pokarmowej istot żywych.
W procesie tym sześć cząsteczek dwutlenku węgla łączy się z sześcioma cząsteczkami wody i dzięki energii światła, daje cząsteczkę cukru oraz - jako produkt uboczny - sześć cząsteczek tlenu. Czyli "równanie życia" ma następującą postać:
6 C02 + 6H2O + energia światła -> C6H,206 + 602
Ulatniający się w procesie syntezy tlen był dla tych organizmów jedynie produktem ubocznym, ale jego nagromadzenie doprowadziło do prawdziwej rewolucji, "rewolucji tlenowej".
Tlen, po pierwsze, nasycił wody oceanów. Po drugie, doprowadził do utlenienia metali skałotwórczych. Wreszcie, po trzecie, nasycił atmosferę. Przy czym, pierwotnie nasycenie atmosfery sięgało nawet trzydziestu procent. Dopiero z czasem zawartość tlenu w atmosferze ustabilizowała się na poziomie 21 procent. Ale na tym "rewolucja tlenowa" się nie zakończyła. Cząsteczki tlenu, rozbijane w wysokich warstwach atmosfery, łączyły się w cząsteczki trójatomowe, czyli w cząsteczki ozonu. Warstwa ozonu zaś, rozciągająca się na poziomie 10 km, pochłania promieniowanie ultrafioletowe, które jest zabójcze dla takich form życia, jak - dla przykładu - ssaki.
To wszystko doprowadziło do zmiany klimatu w skali globalnej.
Pierwotnie życie rozwijało się w wodzie. Spowodowane to było głównie dwoma czynnikami - oceany zawierały tlen potrzebny do np. utleniania żelaza oraz w pewnym stopniu chroniły zamieszkujące je organizmy przed szkodliwymi rodzajami oddziaływań. Dlatego woda stała się kolebką życia. Dopiero rozwinięte ewolucyjnie organizmy wyszły na lądy, by rozpocząć ich podbój.
W kierunku człowieka
Trzeci etap ewolucji rozgrywał się zatem już na poziomie organizmów.
Jest to ewolucja organizmalna, czyli kształtowanie się i dostosowanie tworów ponadkomórkowych (Kuźnicki, Urbanek, 1967, s. 201). Jak wspomniałem, ewolucja ta przebiegała początkowo w oceanach.
Nie jest to już etap powstania życia, ale jego formowania - prowadzi do ukształtowania się form znanych nam dzisiaj. Człowiek nie tylko jest wytworem tego procesu, ale nadal cały czas mu podlega. Ten etap ewolucji będzie jednak przedmiotem kolejnego artykułu cyklu - o powstaniu człowieka.
POWSTAWANIE CZŁOWIEKA |
Powyższy artykuł, wraz z bogatą bibliografią, którego autorem jest
Lech Nijakowski, został umieszczony w "RES HUMANIE" nr 4/2000.
Problemem antropogenezy zajmowaliśmy się już na łamach
"Res Humana". W numerach: drugim i czwartym z 1998 roku ukazał się dwuczęściowy wywiad z Tadeuszem Bielickim Od praczłowieka do człowieka, a w numerze piątym z }997 roku ukazał się tekst mojego autorstwa Pochodzenie człowieka: nowe fakty i hipotezy.
Dlatego niniejszy szkic - czwarty w cyklu popularnonaukowym - z konieczności będzie do tych publikacji nawiązywał. Porównanie zaprezentowanych tu tez z tymi sprzed paru lat pozwoli także na uzmysłowienie sobie, z jak dynamicznie rozwijającą się nauką mamy do czynienia. Choć nasze pochodzenie cały czas spowija mgła tajemnicy, to jednak coraz więcej kształtów jesteśmy w stanie w niej rozpoznać, a coraz więcej też uzyskuje status powszechnie podzielanych
w środowisku naukowców prawd.
Człowiek i metoda
Celem teorii antropogenezy jest nie tylko wyjaśnienie, w jaki sposób z kolejnych form hominidów ( człowiekowatych) powstał współczesny nam pod względem anatomicznym Homo sapiens, ale także, a może przede wszystkim, określenie kolejnych przemian ewolucyjnych, które doprowadziły do wykształcenia się człowieczeństwa. Do specyficznie ludzkich cech zalicza się bowiem nie tylko duży mózg, dwunożny i naziemny chód czy szczególne uzębienie ale również samoświadomość, poczucie moralne, mowę artykułowaną, zdolność do tworzenia kultury i formowania złożonych struktur społecznych.
W związku z tym, ze względu na różnice w metodologii i materiale badawczym, można wyróżnić trzy płaszczyzny poszukiwań naukowych.
Pierwsza dotyczy zmian anatomicznych; zajmuje się nimi np. antropologia fizyczna.
Druga obejmuje utrwalone materialnie zmiany technologiczne i przemiany kulturowe; jest to dziedzina badań archeologii i antropologii kultury.
Wreszcie trzecia zdefiniowana została wraz ze, stosunkowo niedawnym, pojawieniem się genetyki molekularnej, a skupia się na analizie i porównaniach materiału genetycznego człowieka i innych hominidów (w przypadku tych ostatnich jest to ocalały w szczątkach kopalnych zapis DNA).
Wszystkie trzy płaszczyzny dotyczą tego samego procesu, choć ujmują go z różnych perspektyw. Dlatego powinna między nimi zachodzić pełna korespondencja. Tak jednak nie jest. Hipotezy adekwatne z punktu widzenia jednej nauki są falsyfikowane przez wyniki drugiej. Jak to określił Richard Leakey, znany paleontolog, "są punkty wspólne, ale nie ma consensusu" (Leakey 1995, s.114).
Podstawową trudność w stawianiu hipotez na temat pochodzenia człowieka stanowi ubóstwo materiału badawczego pochodzącego z najbardziej kontrowersyjnych okresów rozwoju.
Dlatego do dziś nie ma hipotezy pochodzenia człowieka, która obejmowałaby globalnie proces antropogenezy i była akceptowana przez większość naukowców.
Zgoda dotyczy przeważnie najpóźniejszych okresów ewolucji, bogato reprezentowanych w materiale kopalnym.
Sama interpretacja materiału badawczego jest także złożoną sztuką. Dowody na poparcie hipotez są przy tym pośrednie i trudno aby było inaczej, gdy nie dysponujemy wehikułem czasu.
Analiza fragmentów zachowanych kości jest prawdziwą sztuką.
Aby uzmysłowić sobie, jak wiele informacji zawierają odkopane, nawet nadpalone kości warto przejrzeć podręcznik antropologii historycznej(por. Piontek 1999).
Prostota i złożoność ewolucji
Nowożytny paradygmat ewolucji ma wielu ojców, ale najwybitniejszym jest bez wątpienia Karol Darwin. Pokazał on, że złożoność organizmów żywych może być wynikiem procesu historycznego, rządzącego się prostymi prawami.
W swej klasycznej pracy z 1859 roku O pochodzeniu gatunków Darwin mechanizm ewolucji ograniczył jednak tylko do zwierząt. Obawa przed krytyką jego koncepcji ze względu na zbrukanie "świętej istoty ludzkiej" spowodowała, że nie rozszerzył on w tym traktacie mechanizmów ewolucji wprost na człowieka. Dokonał tego dopiero w 1871 roku w pracy O pochodzeniu człowieka. Czynnik decydujący o tym, czy dany organizm jest "dostatecznie dobry", stanowi sukces reprodukcyjny.
Selekcja naturalna działa bowiem na dwa główne sposoby: poprzez różnicową płodność (niektórzy członkowie populacji mają większą płodność niż inni, a więc pozostawiają więcej potomstwa) oraz przez różnicową przeżywalność (pewne cechy - mające podstawy genetyczne -są premiowane dłuższym życiem). Zatem podstawową zależność Darwinowską; można wyrazić następująco: ".[...] ze zbioru populacji zasiedlających obszar o danych warunkach utrzymuje się ta frakcja, która maksymalizuje kryterium adaptacji do tych warunków" (Łastowski 1987, s. 36). Upraszczając można powiedzieć, że na Ziemi panują potomkowie tych, którym konstrukcja biologiczna umożliwiała przeżycie w walce o byt i wychowanie potomstwa w danych warunkach środowiskowych.
Na marginesie warto zaznaczyć, że ewolucjonizm jest dziś akceptowany przez Kościół katolicki.
Jak napisał ks. Bernard Hałaczek: "Osobiście jestem przeświadczony o tym, że proponowane w ramach teorii ewolucji wyjaśnienie przeszłości człowieka bynajmniej nie pomniejsza ani ludzkiej godności, ani wielkości Stwórcy" (Hałaczek 1991, s. 3). Przeciwników teorii ewolucji, która opisuje i nasze pochodzenie, jednak nie brakuje. Szczególnie wpływowy jest ruch kreacjonistów, który swe triumfy święci w Stanach Zjednoczonych.
Mimo to, ewolucjonizm uznawany jest przez większość uczonych za teorię, która najłepiej objaśnia zebrany materiał badawczy, a spory naukowe dotyczą co najwyżej szczegółów czy interpretacji metodologicznej.
Teoria Darwina jest dziś jednak niewystarczająca. Dlatego, aby odpowiedzieć na fundamentalne pytania antropogenezy (ktore często są.pytaniami filozofii) należy odnieść się do teorii współczesnych, wśród których przodują te, które bazują na analizie i porównaniach materiału człowieka i hominidów.
Oddzielenie się linii ewolucyjnej człowieka od swych małpich przodków i rozpoczęcie samodzielnej ewolucji nastąpiło około siedem milionów lat temu. Jesteśmy dziś w stanie dokładnie to określić dzięki odkryciu dokonanym przez dwóch biochemików: Allana Wilsona i Vincenta Saricha. Opracowali oni nową metodę chronologiczną, zwaną "zegarem molekularnym".
Poprzez porównanie pewnych związków białka we krwi współczesnego człowieka i innych naczelnych, określili, że nasze DNA różni się w 1,6 procent od DNA szympansa pospolitego i szympansa bonobo.
Po dodatkowych skalowaniach okazało się. że oznacza to, iż oddzieliliśmy się od wspólnego przodka obu szympansów właśnie około siedmiu milionów lat temu. Wcześniej od wspólnej nam z szympansami linii ewolucyjnej oddzielił się goryl ( około dziesięć milionów lat temu).
To molekułarne odkrycie (zasługujące na miano rewolucji antropologicznej) ma również istotny wymiar filozoficzny.
Z szympansami mamy wspólne 98,4 procent DNA. Sprowokowało to Jaresa Diamonda do nazwania człowieka "trzecim szympansem" (obok szympansów: pospolitego i bonobo).
Ta wspólnota genów pokazuje, że człowiek nie jest w istocie cudem wyrastającym ponad przyrodę, lecz szympansem (czy też - "praszympansem"), który dokonał "skoku" ewolucyjnego w granicach pewnego przyrodniczego paradygmatu.
Świadomość tej genetycznej wspólnoty i jednocześnie znajomość osiągnięć człowieczeństwa rodzi dodatkowe pytania: na ile korzenie naszej kultury tkwią w zwierzęcej przeszłości? Jest to jednak problem bardzo złożony, przekraczający ramy tego artykułu.
Impuls ewolucji hominidów
Początek ewolucji hominidów/ człowiekowatych/ wiązał się z koniecznością adaptacji do nowych warunków. Taka sytuacja zaistniała w Afryce rozdzielonej Wielkim Rowem Wschodnioafrykańskim.
Na zachód od Rowu rozciągały się lasy, na wschód jałowe stepy. Mnogość habitatów przekształciła ten kontynent w prawdziwy ewolucyjny "tygiel". Zmiana środowiska spowodowana tym wypiętrzeniem zmusiła zamieszkujące Afrykę stworzenia do przystosowania się do nowych nisz ekologicznych. Nowe warunki oznaczają nowe mechanizmy selekcji.
Taki los spotkał także małpy bezogoniaste.
Pierwszym "wynalazkiem" hominidów była dwunożność. Nie jest ona, z punktu widzenia biologii - najważniejszą transformacją, ale stanowiła istotną cechę adaptacyjną. Jej generalne dla ewolucji znaczenie, wbrew pozorom, jest jednak dyskusyjne. Owen Lovejoy twierdzi, że poruszanie się na dolnych kończynach uwolniło dwie kończyny przednie, które były potrzebne do chwytania przedmiotów. Peter Rodnian i Henry McHenry natomiast uważają, że znaczenie dwunożności wiąże się przede wszystkim z tym, że stanowiło ono mniej energochłonny środek lokomocji. Nowy środek lokomocji zwiększył na pewno mobilność naszych przodków.
Umożliwiło im to przemierzanie większych odległości, zwłaszcza na przestrzeniach otwartych.
W późniejszym okresie ewolucji wpłynęło także na naszą zwinność.
Mówimy o naszych przodkach, ale tak naprawdę nie potrafimy ze wszystkimi detalami wyrysować drzewa genealogicznego naszej "rodziny". Bo to, że jest to drzewo, którego wiele gałęzi kończy się ślepo, a nie jedna linia rozwojowa, jest już dziś bezdyskusyjne.
Choć jeszcze w latach pięćdziesiątych i sześćdziesiątych bardzo popularna była "hipoteza jednego gatunku" głosząca, iż na danym etapie ewolucji nisza ekologiczna na naszej planecie była w stanie pomieścić tylko jeden gatunek hominida, co sugerowało stopniowe zastępowanie jednych form człowiekowatych przez drugie - coraz bardziej doskonalsze. Generalnie można wyróżnić dwie konkurujące ze sobą hipotezy na temat pochodzenia człowieka. Pierwsza to hipoteza "ciągłości regionalnej", a druga - "jednego początku".
Model "ciągłości regionalnej" zakłada, że wszystkie współczesne populacje ludzkie wywodzą się z Homo erectus. Ich zróżnicowanie wynika ze specyficznego rozwoju we własnym regionie, a podobieństwa - ze stałej wymiany genów pomiędzy populacjami (i oczywiście wspólnego przodka). Wymiana genów pozwoliła zachować wspólnotę gatunkową i ostatecznie doprowadzić wszystkie populacje do Homo sapiens.
Konkurencyjna hipoteza głosi, że to dopiero Homo sapiens, który powstał z jednej założycielskiej populacji, zróżnicował się jako gatunek.
Szala przechyliła się ostatnio na rzecz hipotezy pochodzenia Homo sapiens od jednej grupy mieszkańców Afryki, którzy opuścili ją i dotarli do wszystkich miejsc zamieszkanych przez człowieka.
Z tej perspektywy różnice rasowe nie mają głębokiego, istotnościowego charakteru. Jak ujął to Christopher Stringer, brytyjski antropolog i jeden z twórców tej hipotezy: " Wyszliśmy z Afryki jako rozwinięty już gatunek, a ci, którzy pozostali, zachowali to udoskonalenie, tak jak reszta Homo sapiens wykorzystała je do podbicia świata.
Nie oznacza to oczywiście, że nie ma absolutnie żadnych różnic międzypopulacjarni" (Stringer,McKie 1999, s. 238). Hipoteza ta ma nadal wielu wpływowych krytyków.
W każdym razie Afrykę należy uznać za kolebkę człowieczeństwa.
Próby dokładnego wskazania kolejnych form hominidów, określenia ślepych gałęzi ewolucyjnego drzewa, napotykają na poważną przeszkodę, ponieważ brakuje wystarczającej ilości materiału kostnego. Dla przykładu - gatunek Homo erectus pierwotnie opisano na podstawie sklepienia czaszki i kości udowej, znalezionej ponad 100 lat temu na Jawie. Dlatego każda propozycja jest jedynie hipotezą, a bezsporne wydają się tylko nieliczne części tej układanki. Ostatnio dokonano jednak wielu ważnych znalezisk, które posunęły teorię antropogenezy naprzód.
Propozycji rozrysowania naszego "drzewa rodowego" jest wiele. Jared Diamond dla przykładu referuje następujący model (por. Diamond 1996): człowiekowate wyprostowane (hominidy) zaistniały jako gałąź około 6 mln lat temu. Po około 3 mln lat z tej gałęzi wyewoluowały dwa wyraźne gatunki: małpolud o tęgiej czaszce i potężnych zębach trzonowych, zwany Australopithecus robustus ("południowa małpa krzepka") oraz małpolud o delikatnej budowie czaszki i mniejszych zębach; zwany Australopithecus africanus ("południowa małpa afrykańska"). Według tej koncepcji jesteśmy potomkami tego drugiego hominida. Dał on początek gatunkowi Homo habilis, który ewolucyjnie przeszedł w gatunek Homo erectus (którego początek datuje się na 1, 7 mln lat temu).
Kolejna forma w tej łinii ewołucyjnej, na końcu której jesteśmy pojawił się około pól miliona lat temu Homo sapiens. Powstanie anatomicznie współczesnych Afrykanów szacuje się na sto tysięcy lat temu.
"Ślepymi" gałęziami ewolucji są: Homo sapiens neanderthalensis, który wykształcił się prawdopodobnie 135 tys. lat temu, a zniknął
(w tragicznych okolicznościach) około 34 tys. lat temu; oraz hipotetyczna gałąź Azjatów, która oddzieliła się od naszej gałęzi mniej więcej w czasach Neandertalczyka.
Ian Tattersall opisał niedawno drzewo jeszcze bardziej rozgałęzione i niejednoznaczne niż to powyżej (por. Tattersall 2000). Jak wynika z jego propozycji, powstanie człowieka rozumnego było częścią złożonej, meandrującej ewolucji. W swoim artykule Nie zawsze byliśmy sami podaje dla przykładu, że na terenach dzisiejszej północnej Kenii około 1,8 mln lat temu żyły obok siebie cztery gatunki hominidów: Paranthropus boisei, Homo rudolfensis, H. habilis i H. ergaster. Wszystko to jeszcze bardziej oddala nas od prostej, liniowej ewolucji, która jeszcze niedawno dominowała w podręcznikach szkolnych.
Ewolucja mózgu
Przejdę teraz do omówienia zmian organu kluczowego dla ewolucji człowieka: mózgu. Mimo jego niezwykłości nie stanowił on sam w sobie głównego celu ewolucji. Po prostu posiadanie dużego mózgu okazało się korzystne z punktu widzenia przetrwania gatunku. O tym, że jego wielkość nie jest decydująca niech przekona nas z kolei fakt, że Neandertalczyk miał o 10 procent większy mózg od naszego! Mimo to ta gałąź rodu ludzkiego wymarła. Prawdopodobnie - nie bez naszego udziału.
Duży mózg stawia organizmowi większe wymagania. Dlatego wśród przyczyn, które doprowadziły do jego wzrostu, wymienia się lepszą dietę hominidów, dostarczającą energię niezbędną do pracy złożonego mózgu, oraz zmianę systemu naczyń krwionośnych, które zapewniły mózgowi należyte chłodzenie. Ta druga koncepcja nazywana jest "hipotezą chłodnicy". Jako pierwotną przyczynę wymienia się natomiast towarzyskość naczelnych, ich złożone życie społeczne. Aby kontrolować zmiany aliansów w grupie, systemu zależności i hierarchii, trzeba dysponować wyspecjalizowanym "urządzeniem" do przetwarzania i magazynowania danych.
Jest nim mózg. Tak więc człowiek jedynie udoskonalił organ, jakim dysponują inne naczelne.
Systematyczny proces encefalizacji jaskrawo zaznacza się od czasów Homo habilis, którego.mózg u dorosłych osobników miał objętość około 800 cm3. Tak znaczny wzrost mózgu wiązał się z poważną trudnością, którą ewolucja musiała rozwiązać. Otóż maksymalna wielkość, jaką może osiągnąć kanał rodny kobiety, jest ograniczona przez funkcje motoryczne miednicy. Dlatego objętość mózgu noworodka może wynosić maksymalnie 385 cm3. U małp wynosi ona 200 cm3 i stanowi połowę objętości mózgu dorosłego osobnika. Dlatego tempo wzrostu małpiego dziecka jest stosunkowo szybkie. Prosty rachunek wskazuje, że przy tym stosunku objętości mózgu noworodka do osobnika dorosłego, hominidy mogłyby co najwyżej wykształcić mózg o objętości 770 cm3. Dalszy proces encefalizacji wymagał więc zmiany tego stosunku. Dorosły osobnik Homo erectus posiadał mózg o objętości przekraczającej 900 cm3. Objętość mózgu noworodka wynosiła około 275 cm3, co w przybliżeniu stanowi trzecią część mózgu dojrzałego.
Ta zmiana stosunku objętości mózgu pozwoliła na dalszy jego wzrost (współczesny dojrzały czlowiek posiada mózg o objętości 1350 cm3).
Stosunek ten nie jest tylko abstrakcyjnym wskaźnikiem, lecz przekłada się na życie społeczne hominidów. Tak mała objętość mózgu noworodka oznacza jego długi wzrost, czyli powolne tempo rozwoju osobniczego. Dziecko było więc dłużej nieporadne i zdane na opiekę rodziców. Musiała się więc wykształcić instytucja "rodziny", która zapewni potomkom bezpieczeństwo, pożywienie i opiekę. I oczywiście wiedzę. Tak długie przebywanie potomka z doświadczonymi rodzicami pozwala mu na naukę zdobywanie praktycznych wiadomości, które posiedli rodzice, często dzięki narażaniu się na wielkie niebezpieczeństwa.
Język i kultura
To właśnie jest ogromną zdobyczą człowieka - zdolność kumulowania wiedzy w kolejnych pokoleniach. Oczywiście warunkiem koniecznym przekazywania złożonej wiedzy jest wykształcenie języka.
U wczesnych łudzi wiązało się to z wykształceniem mowy przed 40-35 tysiącami lat.
To osiągnięcie ewolucyjne, które trudno przecenić. Jared Diamond swoją koncepcję " Wielkiego Skoku" ( czyli powstania kultury, sztuki itp. przed ok. 40 tys. lat) uzależnia wręcz od powstania mowy (Diamond 1996, s. 196 i n.). Twierdzi on także, że prymitywne języki ludzkie można wywieźć ze złożonych "języków" zwierzęcych. głównych, o ile nie najważniejszych, przyczyn specyficznego cyklu życiowego człowieka. Specyficznego na tle życia naszych zwierzęcych krewniaków.
Zaliczyć tu należy: intymne życie seksualne (a nie publiczne, jak u innych społecznych naczelnych), łączenie się w nominalnie monogamiczne pary (abstrahując od "zdrady małżeńskiej" jako strategii rozrodczej) oraz swoistą anatomię seksualną.
Równolegle z ewolucją biologiczą Homo rozwijała się jego kultura.
W pewnym zakresie zdeterminowana jest ona potrzebami biologicznymi, jak w przypadku opisanego powyżej specyficznego cyklu życiowego człowieka. Z czasem jednak sama kultura staje się czynnikiem selekcjonującym: zdolność do przekazywania wiedzy praktycznej promuje osobniki bardziej doświadczone i lepiej zorganizowane społecznie.
Oczywiście słowo "kultura" w potocznej opinii może wydawać się nieodpowiednie dla opisania zespołu technologii najstarszych Homo.
Kultura we współczesnym sensie tego słowa pojawia się dopiero na skutek rewolucji górnego paleolitu, kiedy to rozwija się sztuka i religia. Ubóstwo wcześniejszych form kultury wynikać może jednak z małej ilości materialnych jej nośników.
O ile bowiem kamienne narzędzia łatwo odnaleźć i przeanalizować, o tyle bardzo trudno jest odtworzyć obrzędy i wierzenia.
Na koniec wspomnę jeszcze o fenomenie samoświadomości.
Trzeba oczywiście odróżnić ewolucję mózgu i jego funkcji od problematyki świadomości. Takie "dobrodziejstwa" mózgu jak: symulacje przyszłości, rozwiązywanie problemów zwjązanych z wyrobem narzędzi czy polowaniem nie wymagają od osobnika samoświadomości. Każdy zgodzi się, że ta cecha zbędna dla "superkomputera" - jakim jest nasz mózg - jest swoistą differentia specifika rodzaju ludzkiego. Wyjaśnienie jej ewolucyjnych determinantów jest bardzo trudne, choć oczywiście powstało wiele takich hipotez. Ten węzeł gordyjski antropogenezy jest też wielkim problemem filozofii.
Mam nadzieję, że niniejszy szkic pozwolił na ogólne zarysowanie złożonej problematyki antropogenezy. Przedstawione tu tezy - z punktu widzenia wiedzy specjalistycznej - są naturalnie dyskusyjne, tak jak zresztą wszystkie inne hipotezy tej nauki. W całości jednak określają pewien paradygmat współczesnej nauki o pochodzeniu człowieka. Nauki, która choć jest opisywana w języku przyrodoznawstwa, to jednak dotyczy najistotniejszego problemu całej humanistyki.
Marek A. Jędrecki
psychocybernetyk
CYBERNETYKA CZŁOWIEKA
Po raz pierwszy podejmowałem ten temat w publikacji z 1984 r. Oczywiście, jak należało przypuszczać, "humaniści" nie zrozumieli potrzeby innego spojrzenia.
W 2000 roku opublikowano doniesienia fizjologów o olbrzymiej roli dziedziczności w dziedzinie inteligencji ludzkiej ( ograniczone wpływy wychowania, treningów psychologicznych i podobnych bałamuctw pseudonaukowych ). W 2001 r. ukazały się doniesienia o istnieniu tzw. "mózgu brzusznego", co oznaczałoby, że mózg ( ten w czaszce ) wcale nie jest najważniejszy w funkcjonowaniu człowieka i raczej tylko wykonuje "polecenia". Jak należało się spodziewać - "świat nauki" zamilczał doniesienie na śmierć, bo przecież trzeba by i w psychiatrii, i w psychologii, i w pedagogice wyrzucić na śmietnik historii 90 % funkcjonujących poglądów i teoryjek rozmaitych pseudonaukowców. W sumie więc - przynajmniej w tej dziedzinie - postęp nam nie grozi.
Niezmiernie trudno jest podejmować dyskusje nt. cybernetyki - zwłaszcza z tzw. "humanistami" ( pedagogami, psychologami, psychiatrami, politykami ) - nie przyzwyczajonymi z jednej strony do ścisłego, naukowego myślenia i dowodzenia słuszności poglądów ( braki metodologiczne "humanistów" ), a z drugiej strony - do myślenia w skali dostatecznie dużych uogólnień i algebraicznego abstrahowania. Bardzo trudno zajmować się praktycznie cybernetyką człowieka, gdy funkcjonują fałszywe poglądy na to, czym faktycznie jest człowiek, a także - co też niby cybernetyka z człowieka czyni ( oczywiście, w sensie negatywnym ).
POGLĄDY NA CYBERNETYKĘ CZŁOWIEKA
Humaniści z gruntu przekonani są o tym, że już samo mówienie o człowieku w wykonaniu psychocybernetyki jest szarlatanerią. Że jest to jedynie natrętne uściślanie pojęć, które - de facto, wg nich - uściśleniom się nie poddają.
Stanowisko takie zajęli "humaniści" za sprawą wielu zuchwałych naukowych grafomanów,, którzy stosując schematy blokowe - dobre w odniesieniu do prostych maszyn - i wyssane z palca nierówności, potrafili doskonale wprost ośmieszyć próby racjonalizacji sfery duchowej człowieka.
Od razu też głośno zaprotestowano, że cybernetyka mówiąc o determiniźmie zachowań ludzkich nie tylko robi z człowieka maszynę ( szkoda, że wiedza "humanistów" o maszynach jest tak mizerna ), ale - dodatkowo - zasadniczo redukuje nieprzebraną różnorodność zachowań ludzkich.
Nie są to oczywiście wszystkie zarzuty ( bo im "cieńszy" naukowiec,tym miał ich więcej), ale większości nie warto nawet przypominać, bo stałyby się bezprzedmiotowe, gdyby ich autorzy w ogóle zechcieli się zapoznać - choćby pobieżnie - z teorią psychocybernetyki.
"Autorytety" naukowe nie zajęły stanowiska. Poprzestały na stwierdzeniu, że nie rozumieją tego ( co wynika z formalno-matematycznej natury tej teorii, a wiadomo, że "humaniści" to nie "ścisłowcy" ). Trudno zaś propagować lub potępiać coś, czego się nie rozumie. Wielu z naukowców wyznawało ( i wyznaje ) zasadę: "po co mi się uczyć nowej teorii na dwa lata przed emeryturą ?".
Starano się rozpowszechniać stanowisko, że teorii tej nie ma nic takiego, czego nie byłoby w psychologii. Zapomniano o dwóch sprawach. Po pierwsze - w psychologii ( jako nauce empirycznej ) w ogóle nie ma teorii, a są co najwyżej koncepcje. Toteż mowa o psychologicznych teoriach osobowości jest dużym nadużyciem naukowym. Zaś wszystko, co wiadomo o naturze człowieka, wynika wyłącznie ze spekulacji myślowych, domniemań i wiadomości zebranych od badanych osób. W ten sposób nie dojdzie do powstania żadnej naprawdę naukowej teorii - nawet gdyby przebadać wszystkich ludzi na świecie. Statystyka nie przyda się bowiem do niczego, bo jeśli w obserwacjach popełni się błąd ( wynikający z mylnego założenia ) to statystyka jedynie ten błąd powieli.
Po drugie - nigdy dotąd i w dalszym ciągu psychologia nie zajmuje się procesami energetycznymi w organiźmie człowieka, a z tych procesów biorą się motywacje zachowań, o których psychologia ma mgliste pojęcie.
Do listy zarzutów dołączono jeszcze jeden, ale za to koronny. Krzyczano, że niemożliwe jest domaganie się cybernetyki, aby rzeczywistość zgadzała się z teorią, a nie na odwrót ( jak chcą tego empiryści ). Do prześmieszków należą też poglądy upatrujące w cybernetyce techniki podchodzenia do psychiki człowieka z komputerem ( dlaczego nie, jeśli tzw. "pamięć operacyjna" RAM jest odpowiednikiem ludzkiej inteligencji, talent - edytorów, a zdolność rejestracji - ludzkiej pamięci ? ) i szufladkowania jego zachowań.
ODPOWIEDZI NA "ZARZUTY"
Aby nie rozdmuchiwać tekstu i zachować przejrzystość układu, odpowiem na to w takiej kolejności, w jakiej zarzuty przytaczałem.
Uściślanie pojęć jest w nauce rzeczą konieczną z przyczyn zupełnie prozaicznych - bez tego w ogóle nie byłoby wiadomo, czy dwóch naukowców zajmuje się tym samym, czy zupełnie innym.
Z drugiej zaś strony powiedzenie, że jakieś pojęcia uściślić się nie dadzą, stanowi przyznanie się do nieumiejętności ich uściślenia na danym etapie rozwoju jakiejś dyscypliny naukowej. Nie oznacza to, że danego pojęcia nie da się uściślić nigdy, lub że takie uściślenie nie jest możliwe przy zastosowaniu odmiennej metodologii. Wreszcie - stanowisko takie stawia od razu na wstępie dość szerokie obszary rzeczywistości poza penetracją naukową.
Do poglądu o niemożności uściślenia pojęć nt. funkcjonowania człowieka doszli "humaniści", obserwując niezdarne poczynania grafomanów naukowych, którzy braki w swojej wiedzy zasłaniali przemyślnymi schematami i wykresami, z których nic nie wynikało, bo wynikać nie mogło. Niewiedza bowiem pozostanie niewiedzą także po zastosowaniu matematyki wyższej.
Faktem jest, że zgodnie z ówczesną modą na cybernetykę do rozwiązywania zagadnień z zakresu funkcjonowania człowieka włączyli się także cybernetycy zajmujący się automatyką ( systemami sterownymi ). Z dociekań tych niewiele wynikało, choć zastosowano w nich poprawną metodologię, która - odpowiednia do maszyn - nie mogła być odpowiednia w przypadku człowieka, będącego systemem o najwyższym znanym w przyrodzie stopniu automatyzacji. Co gorsza, naukowcy ci - nie widząc, iż mają w ręku klucz nie od tych drzwi - dalej stosują swoje analizy ( nazywając je naukowo "analizami systemowymi" ), stosując je do badania systemów co najmniej o jedną klasę wyższych organizacyjnie, niż upoważniają ich do tego posiadane metody.
Do dziś nie cichną protesty przeciwko cybernetycznemu determinizmowi. I jest to nieporozumieniem, ponieważ rozumiany cybernetycznie determinizm nie jest wcale tym, co się cybernetyce zarzuca. Aby było śmieszniej - przypisano psychocybernetyce poglądy, z którymi ona sama się rozprawia, wykazując ich bezpodstawność.
Zdaniem polemistów cybernetyka twierdzi, że w takich samych warunkach zachowania tego samego człowieka będą takie same. Ileż tu nieporozumień !
Jak byłby możliwy w cybernetyce taki pogląd, skoro uważa ona, że nie ma dwóch "takich samych" bodźców ( stąd wątpliwa wartość naukowa eksperymentów polegających na powtórzeniach bodźców ), a po zastosowaniu jakiegoś bodźca nie mamy już do czynienia z "tym samym" człowiekiem ( znów uwaga na temat powtarzalności bodźców w eksperymentach ).
Determinizm jest przez cybernetykę rozumiany inaczej. Po pierwsze - każdy skutek musi mieć swoją przyczynę. Teoria psychocybernetyki ( a dokładnie: cybernetyczna teoria charakteru, prof. dra Mariana Mazura, najwybitniejszego naszego cybernetyka ) opisała i udowodniła podstawy funkcjonowania człowieka w aspekcie przyczynowo-skutkowym, analizując sferę emocji ludzkich i mówiąc, że sterowanie nimi jest niemożliwe. To wszystko dokonane zostało w teorii, bez "podpierania się" obserwacjami rzeczywistości. Okazało się przy tym, że rzeczywistość się z tym zgadza. Zaś empirycznego potwierdzenia dokonali psycholodzy.
Stanowisko psychocybernetyki jest następujące ( co warto uzmysłowić tym wszystkim, którzy nie doczytali się tego w pracach prof. dra Mariana Mazura ):
Każdy typ ludzki, każda jednostka rozwija się zawsze w kierunku określonym przez prawa przyrody, nie mając możliwości uniknięcia ich obowiązywania ( prawo zachowania masy i energii, prawo powszechnego ciążenia, procesy samowyrównawcze, starzenie się materii organicznej ).
Każdy pojedynczy postępek, każda reakcja jest zawsze wypadkową dwóch niezależnych od siebie czynników: typu psychicznego i uwarunkowań obiektywnych. Inaczej: człowiek przechodzi w życiu przez wiele prób i robi to nieustannie. Nawet na podobną rzeczywistość reaguje za każdym razem inaczej, bo i rzeczywistość nie jest taka sama, i człowiek w następnej jednostce czasu nie jest dokładnie taki sam.
Jednakże z drugiej strony ten samo człowiek nie może, choćby i bardzo chciał, postąpić inaczej, niż to określają obiektywne warunki jego działalności oraz jego trwałe predyspozycje neurofizjologiczne, jakie odziedziczył ( tor zmian starzeniowych, predyspozycje intelektualne itp. ). Wszelkie nagłe wstrząsy, kryzysy, stresy to wynik niezgodności obiektywnych warunków działania i sztywnych predyspozycji, wyznaczających optimum sterowania się organizmu jako przetwornika energii i informacji równocześnie. Wszystkie owe kryzysy jedynie przyspieszają polaryzację postaw i poglądów. Nie prowadzą jednak do mutacyjnie nowej wartości w życiu. Wszystko, co dzieje się wokół i wewnątrz nas, jest jedynie wypadkową niezliczonych czynników zewnętrznych i stanu organizmu ( predyspozycji sztywnych jak charakter i czynników elastycznych, jak normy moralne, czy stan pamięci ). I wszystko to stanowi stan przejściowy, ale wiadomo, w jakim kierunku potoczy się rozwój wydarzeń - bo wiadomo, co w organiźmie jest trwałe, jakie są warunki homeostazy ( a więc do czego jednostka będzie dążyć ).
I tu wszelkie programowanie jednostki jest ograniczone. Dlatego nikogo nie można nauczyć "chcieć", bo owo "chcenie" leży poza zasięgiem woli jednostki. Można to powiedzieć bardziej potocznie - można kogoś zmusić, żeby się napił wódki, ale nie można go zmusić, żeby mu to smakowało.
Na zarzut redukowania przez cybernetykę ludzkich zachowań można odpowiedzieć tak: z rozróżnienia 6 parametrów charakteru ( trzy informacyjne i trzy energetyczne ) wynika rozróżnienie 160 typów charakterów ludzkich. Już ten fakt dowodzi, że cybernetyka stosuje znacznie szerszą klasyfikację, niż którakolwiek ze "szkół" psychologii osobowości. Ponadto nie zawęża z góry liczby cech charakteru, bo liczbę tę można podać tylko w odniesieniu do sytuacji typowych, najczęściej spotykanych. A jeśli się weźmie pod uwagę wszelkie modyfikacje, spowodowane działaniem emocji, wynikających z aktualnego stanu pamięci, to liczba cech jest odpowiednikiem ilości nowych sytuacji, w jakich człowiek może się znaleźć. Dochodzimy do różnorodności zachowań ludzkich, wynikających z faktu, że wiemy, z czego one wynikają, a nie z domniemań i pobożnych życzeń właściwych naukom społecznym.
Czy porównywanie człowieka z maszynami jest degradowaniem - taki zarzut mogą postawić jedynie ci, którzy niewiele wiedzą na temat maszyn i ich funkcjonowania.
Przejdźmy do odpowiedzi na następne zarzuty.
Znane są poglądy psychologów ( i przedstawicieli innych nauk społecznych ), że cybernetyka mówi tylko to, co jest już znane w psychologii.
Na początek odnotujmy fakt, że cybernetyce udało się dojść teoretycznie do uzyskania informacji, na które psychologia potrzebowała wielu, wielu lat i badań. Poza tym - nie jest to pogląd zupełnie słuszny.
Po pierwsze - nauki społeczne nie dysponują teorią w ścisłym naukowym znaczeniu. Wszystko to są "nauki z życia wzięte". Jest w tym poważne niebezpieczeństwo, bo zaobserwowanie zjawisk patologicznych dla jednostki i społeczeństwa może zostać potraktowane pozytywnie tylko dzięki temu, że zjawiska te są masowe, często powtarzające się ( a więc nie rzadkie, czyli "patologiczne" ). W tym rozumieniu nauki społeczne mogą - bez żadnych złych intencji - prowadzić w kierunku umasowienia patologii i uważania jej za "normę". Tutaj też ciągła weryfikacja teorii z praktyką nie daje wiele, bo jest to tylko weryfikacja empirii z praktyką, pozwalająca na zachłystywanie się sukcesami w powielaniu błędów.
Po drugie - niebezpieczeństwo takie bierze się z braku w naukach społecznych teorii, wyjaśniającej ogólne podstawy funkcjonowania człowieka. Mając taką teorię, można zastanowić się, czy praktyka społeczna jest zgodna z podstawami funkcjonowania człowieka, a więc z jego interesem jako organizmu żywego. Powstałaby wówczas pilna potrzeba przyjrzenia się - panowie politycy - systemowi wychowania, prawodawstwu, zarządzaniu, polityce społecznej, strategii rozwoju, rozpowszechnianiu informacji, wpływowi kościoła katolickiego na życie społeczeństwa, itp.
W sumie więc postulat kształtowania rzeczywistości przez wytyczne teorii nie jest wcale piramidalnie głupi, jak chcieliby tego niektórzy. Choć z drugiej strony łatwo zrozumieć ich sceptycyzm, jeśli się uwzględni, że - jak dotąd - z zastosowania do analiz społecznych różnego rodzaju "teorii" wywodzących się z empirii nie wynikło dla analizujących nic innego poza zniechęceniem. Trudno o to winić rzeczywistość społeczną. Rozsądek wskazuje raczej, by zacząć winić owe "teorie". W takim stanie rzeczy dokonywanie analiz społecznych przy pomocy tych "empirycznych teorii" uznać należy za tautologię.
Już od dawna zachodzi konieczność innego podejścia, tzn. analiz przez odniesienie funkcjonowania człowieka i społeczeństwa do funkcjonowania systemów ogólniejszych, stanowiących najwyższy poziom samoregulacji. Narzędzia takiego dostarcza nam psychocybernetyka w postaci teorii charakteru. Zaś "zamilczanie na śmierć" tego faktu nie ma w sobie nic naukowego i racjonalnego ( notabene książka prof. Mariana Mazura, "Cybernetyka i charakter", jest na indeksie wydziałów psychologii ).
Jest to raczej postawa nadąsanego dziecka, że komuś innemu udało się coś, co nie udało się jemu samemu mimo usilnych starań. Trudno także w tej postawie nie dopatrzyć się partykularyzmu. Nie sposób go potępiać, bo w pewnym zakresie potrzebny jest w każdej dziedzinie. Trudno go jednak uzasadnić, gdy jest nadmierny i utrudnia postęp w nauce. To zaś nie może być obojętne społeczeństwu, wobec którego nauka pełni rolę służebną.
Marek A. Jędrecki
psychocybernetyk
Marny towar, ale w pięknym opakowaniu, czyli
NAUKA I PSEUDONAUKA
W latach osiemdziesiątych udało mi się opublikować tekst na temat pseudonauki.
Z uwagi na własne starania o otwarcie przewodu doktorskiego, opublikowałem artykuł pod pseudonimem. Dzisiaj właściwie należałoby zrobić to samo, bo sfera pseudonauki (mowa o naukach społecznych ) wcale nie zwężyła się - a wprost przeciwnie. Jest to jednak tak jak z pieniądzem - gorszy pieniądz zawsze wypiera lepszy. Wskutek powszechnej dostępności wiedzy i wykształcenia, automatycznie spada jej poziom (rozkład zbliżony do krzywej Gaussa - najliczniejsze są wartości przeciętne - także w zakresie poziomu intelektu ). Dlatego też tamten tekst zyskał tylko na aktualności.
Jedną z funkcji nauki jest poznawanie rzeczywistości w możliwie najdokładniejszy sposób. Stąd też w zależności od dyscypliny naukowej informacje naukowe o rzeczywistości są mniej lub bardziej szczegółowe.
Stany otoczenia mogą być różne. W różny też sposób stan otoczenia możemy oddawać. Co ciekawe - jednym z "najsilniejszych" środków informacji o stanach otoczenia jest ......... muzyka. Wprawdzie przy jej pomocy nie sposób niczego konkretnie wyrazić, ale stanowi ona najsilniejszy środek wywoływania nastrojów.
Na drugim miejscu po muzyce znajdują się kolory i kształty. Ich znaczenie nastrojotwórcze wynika głównie z powszechności - całe nasze otoczenie posiada jakiś kształt i kolor.
Dopiero na trzecim miejscu można postawić język. Stanowi on potężny nośnik informacji, bardzo nawet szczegółowych. Toteż ma on coraz większe znaczenie w miarę coraz dokładniejszego poznawania rzeczywistości. Stąd i podstawowa rola języka w działalności naukowej.
Wywoływanie nastrojów środkami językowymi polega na doborze słów i zdań określonego typu. Procedura ta służy wymuszaniu nastroju naukowości, co ma służyć niemal z reguły jako zasłona dymna przed zbytnim wnikaniem czytającego w słuszność wypowiadanych poglądów.
Sztuczne wywoływanie nastrojów - chroniących skutecznie przed zdrowym rozsądkiem - nie jest bynajmniej domeną pseudonauki. Najszerzej - i chyba najdawniej - sposób ten stosowany był w rozmaitych religiach i doktrynach filozoficznych. Trudno się zaiste temu dziwić, gdyż twierdzenia teologiczne i filozoficzne nie posiadają żadnych dowodów w sensie naukowym, a dowód ma zastępować "wiara". Zaś dla użytych w nich terminów brak adekwatnych definicji. Jest więc zrozumiałe, że istnieje wówczas potrzeba wytworzenia tak silnych nastrojów, żeby wiernych nie wzięła chęć ściślejszych dociekań.
Podstawowym środkiem, wiodącym do tego celu, jest rygoryzm terminologiczny ( nie mylić z definicyjnym ). W terminologii nie wolno tam nic zmieniać. Ma to tę zaletę, że po stuleciach sprawia ona wrażenie staroświeckiej, zyskując znaczenie nastrojotwórcze ( nastrój dostojności, odwiecznej słuszności ). Aby uniknąć zarzutu eklektyzmu, trzeba się trzymać tych samych słów, a cóż dopiero poglądów.
Najjaskrawszym przykładem takiego podejścia jest np. w naukach społecznych trzymanie się przez psychologów terminu "osobowość", choć nikt w naukowo ścisły sposób nie dowiódł, że coś takiego w ogóle istnieje, a nie jest to tylko artefakt. I właśnie termin - jedynie - jest wspólny rozmaitym tzw. "szkołom psychologicznym". Jeśli ktoś nie wierzy, wystarczy zajrzeć do paru podręczników psychologicznych. Psychologia nie stanowi tu wcale wyjątku. Podobnie jest z pedagogiką, socjologią, filozofią, czy takimi użytecznymi dziedzinami, jak np. .......marketing ( którego jedna z definicji mówi, że "marketing jest wszystkim" ).
Dodajmy do tego, że metodę blokowania umysłów nazbyt dociekliwych umysłów środkami terminologicznymi przejęły i stosują do dziś również rozmaite doktryny polityczne ( stąd i łatwość zarzucenia później dociekliwym "rewizjonizmu", choćby i nikt nie wiedział, na czym niby powinien on polegać, aby było to prawdą ). Do środków językowych zwalczania przeciwników pseudonauka stosuje "od zawsze" metodę etykietkowania. Oto podstawowy zestaw "etykietek":
- "niczego nie zmieniajmy" - "konserwatyzm",
- "dokonajmy gruntownych zmian" - "reformizm",
- "postępujmy jednolicie" - "schematyzm",
- "uwzględniajmy różne poglądy" - "eklektyzm",
- "traktujmy wszystkich jednakowo" - "egalitaryzm",
- "wyróżniajmy uzdolnionych" - "elitaryzm".
W tak prosty sposób można się rozprawiać z poglądami "dociekliwych" - poprzez nadawanie "etykietek", czyli nazw mających oznaczać kompromitację, a stąd już prosta droga do potępienia. W metodzie tej w Polsce - oprócz pseudonaukowców - celują ...........politycy ugrupowań prawicowych ( im większe zaangażowanie religijne - tym więcej "etykietek" pod adresem przeciwników politycznych, co zrozumiałe przy chęci rozprawienia się z przeciwnikami doktryn religijnych ).
Także nauka posługuje się środkami językowymi dla wywołania określonego nastroju. Chodzi tu o tzw. styl naukowy. Sprawa ta ma dość głębokie i uzasadnione przyczyny.
Otóż, gdy głównie w XIX w. rozpoczęła się fala wielkich odkryć naukowych - co zapoczątkowało jej rozwój - wzrosło zapotrzebowanie na rozpracowywanie szczegółów, będących konsekwencją i kontynuacją owych odkryć. To z kolei było niezbędne dla praktycznego ich wykorzystania.
W rezultacie w cieniu wielkich uczonych, odkrywców rosła też liczebnie rzesza ludzi pracujących jedynie w zawodzie naukowca. Zaś ich działalność polegała na rozwiązywaniu konkretnych zadań o typie naukowym. W masie szczegółów, opracowywanych w wielu nowych specjalnościach przez wielu uczonych, którzy kontaktowali się głównie przy pomocy różnojęzycznych publikacji - zaczęły powstawać trudności w porozumiewaniu się. Zwalczanie tych trudności wymagało tworzenia nowych terminów, zaopatrywania ich w ścisłe - możliwie - definicje. Konieczne też stało się takie formułowanie zdań, aby stwarzało to możliwość ścisłego, precyzyjnego rozróżniania. Bez tego czyhało na naukowców niebezpieczeństwo mieszania pojęć ( jak to się dzieje do dziś w naukach społecznych, humanistycznych ). To jednakże prowadziło nieuchronnie do powstania stylu sztywnego, schematycznego, sformalizowanego, w którym żadne urozmaicające synonimy są niedopuszczalne, aby uniknąć nieporozumień ( tym, którzy takie urozmaicenia jednak wprowadzają, pseudonaukowcy przylepiają etykietkę "kolokwializmu" ).
Styl naukowy mocno się wyodrębnił, wprowadzając studenta, osobę czytającą w nastrój naukowości. Aby się o tym przekonać, wystarczy otworzyć na dowolnej stronie dowolny podręcznik z zakresu nauki.
Styl ten doprowadził jednakże - choć niezamierzenie - do powstania stylu pseudonaukowego.
Jest rzeczą oczywistą i zrozumiała, że i więcej osób pracuje w zawodzie naukowca, tym więcej musi trafiać się wśród nich takich, którzy do nauki nie mają żadnych predylekcji. Mimo to nie odchodzą z tego zawodu - czemu także trudno się dziwić - bo zawód wybiera się na całe życie i po to, żeby na nie zarabiać.
Aby jednakże w swoim ( i nie tylko ) środowisku uchodzić ciągle za naukowców - do czego ze względu na treść swoich publikacji mieliby tytuł raczej wątpliwy - muszą naukowość podkreślać nie treścią, lecz stylem naukowym publikacji. A analogicznie zresztą ma to miejsce w handlu, gdzie - czasami - marny towar podaje się w pięknym opakowaniu. Nie byłoby rzeczą trudną wskazanie nawet nie setek a tysięcy publikacji "naukowych", które zawierają treści znane od czasu kamiennych tablic Mojżesza. Jest to tylko czynienie jałowych rozróżnień na zasadzie dzielenia włosa na czworo. Wszystko to jednak podane jest w owym opakowaniu pseudonaukowym: cytatów z dzieł luminarzy nauki ( które mają zastąpić naukowe dowody ), a także odsyłaczy do obszernej bibliografii, mającej wzbudzić szacunek dla wiedzy autora. Celują w tym, niestety, humaniści, w pracach których nie dość, że nie ma niczego nowego, to prawie połowa pracy stanowi bibliografię ( jak w biurokracji - dużo dobrych "podkładek" to już połowa sukcesu ).
Nie byłby to problem, gdyby tylko chodziło o stwierdzenie, że przecież w każdej dziedzinie działalności ludzkiej oprócz ziarna znaleźć można i plewy. Chodzi jednak o coś jeszcze.
W przeciwieństwie do literatury pięknej, w nauce żaden autor nie pisze - wbrew pozorom - w pojedynkę.
Przez tysiąclecia dokonano tylu odkryć, że każdy naukowiec jest w jakimś stopniu kontynuatorem tychże. Musi więc nawiązywać do nich, przypominać odkrycia, do których pragnie wnieść coś nowego. Musi także powoływać się imiennie na poprzedników, by nie być posądzonym o przypisywanie sobie ich zasług. W sumie - nawet bardzo twórcze dzieło zawiera w dużym zakresie myśli nieoryginalne, odsyłacze, terminologię poprzedników, cytaty, szyk zdań z zastanej literatury. W ten sposób nawet oryginalny naukowiec musi robić to samo, co charakteryzuje pseudonaukowców. Musi, bo w przeciwnym razie grozi mu zarzut, że uprawia "publicystyczkę". Na to zaś nie może sobie pozwolić żaden młody naukowiec, wspinający się dopiero po drabinie kariery zawodowej. Ciąg dalszy i przebieg tej kariery zależy od opinii, jaka utrwali się o nim wśród innych naukowców, wśród których większość stanowią - z przyczyn opisanych wcześniej - właśnie pseudonaukowcy. Jest to sytuacja jak z talii kart - figury muszą upodobnić się do blotek, aby przeżyć zawodowo. Z wierzchu wszystkie karty są jednakowe. Tym wierzchem jest właśnie styl naukowy, który mając wiele ułatwiać, zaczął zasadniczo utrudniać identyfikację. Tylko dzięki powszechnemu kultowi pseudonaukowości możliwe jest powstawanie opasłych - najczęściej kilkusetstronicowych - tomisk, których autorzy nie wnoszą nic nowego, a których zasadniczą treść stanowi zestawienie cudzych poglądów, grupowanie ich, rozróżnianie i porównywanie.
Powie ktoś logicznie myślący, że jest przecież prosta rada. Niechże zatem każdy autor publikacji naukowej wskaże jego własny wkład do nauki. Taka rada byłaby jednakże w nauce nierealna. Pseudonaukowcy wymyślili skuteczne antidotum na takie pomysły. Do stylu pseudonaukowego należy bezosobowy sposób mówienia. Widoczny jest on w takich wyrażeniach, jak: "jak się wydaje", "można przyjąć", "jak widzimy", "jest wątpliwe" itp. Używanie formy "ja", "moim zdaniem", "wątpię", "udowodniłem" itd. - uchodzi wręcz za nietakt, zarozumiałość i samochwalstwo. Nawyk ten jest tak silny, że stylem tym posługuje się wielu naprawdę wspaniałych naukowców, aby w ten sposób sprostać wymaganiom rozmaitych pseudonaukowców, tkwiących w radach "naukowych" wielu czasopism nie tylko naukowych, ale i popularnonaukowych.
Warto odnotować, że i tutaj jednak widać pewne próby dokonywania wyłomu. Zapowiedzią było "Prawo Parkinsona". Pojawiają się publikacje zrywające całkowicie ze stylem pseudonaukowym, specjalną terminologią, sztuczną strukturą zdań, podpieraniem się autorytetami klasyków. U nas jednak trzeba by gratulować takiemu autorowi odwagi i współczuć z powodu naiwności. Na stosowanie prostego, zrozumiałego języka pozwolić sobie mogą jedynie wielcy ( np. prof. prof.: J. Aleksandrowicz, T. Kotarbiński, M. Mazur, Sz. Pieniążek ). Chciałbym kiedyś przeczytać teksty jasne, zwięzłe, logiczne, nie nadymane i pozbawione pseudonaukowego bełkotu, a napisane przez pedagogów, socjologów, psychologów, filozofów, czy choćby - specjalistów od marketingu. W tych dziedzinach jest to jednak szczególnie trudne, bo właśnie tu pseudonauka ma swoje siedlisko. Przy braku zachowywania rygorów metodologicznych roi się od prac pseudonaukowych, nie służących niczemu innemu jak tylko pomnażaniu "dorobku" owych pseudonaukowców. A swoją drogą - w dotychczasowej strukturze nauki, silnie strzeżonej przez owych pseudonaukowców - jak znaleźć inny sposób uzyskania np. doktoratu, kiedy jednym z warunków wstępnych jest posiadanie publikacji w ogóle, a nie publikacji stojących na wysokim poziomie. Nie może być inaczej w sytuacji, gdy trzeba pisać "pod promotora", który ma swoje poglądy na naukę i należy do szerokiego grona pseudonaukowców, wyrobników nauki - także chcących utrzymać się na powierzchni ( również, a nawet przede wszystkim, kosztem naukowego "skracania o głowę" wszystkich tych, którzy są po prostu lepsi, ale zależni od "Mistrza" ).
Tego typu sytuacja jest zabójcza dla nauki, albowiem lawinowo tworzone są coraz gorsze kadry naukowe. Wszyscy ci pseudonaukowcy wpuszczają jedynie do nauki jeszcze gorszych od siebie, a ci - jeszcze gorszych. Najostrzej jest to widoczne w rozmaitych instytutach "naukowych" i uczelniach humanistycznych. W dodatku - cała struktura nauki jest jednym wielkim biurokratycznym urzędem, gdzie paradoksalnie naukowcy nie mogliby pracować bez administracyjnego zaplecza i obsługi, a administracja - owszem. Zawsze też miałaby tyle zajęć, że bez końca mnożyłaby etaty.
W sumie chcąc krótko określić sytuację w dziedzinie nauki i pseudonauki, można powiedzieć tak: mamy najlepszych naukowców na świecie - i wszystkich za granicą. Co zaś się tyczy pseudonaukowców, to im akurat "muzyka w tańcu nie przeszkadza". Sytuację tę zaczyna weryfikować rynek. Prawdziwi uczeni mają szansę umrzeć z głodu, zaś na rynku zaczną brylować rozmaitej maści hochsztaplerzy, z teoryjkami przywleczonymi z zagranicy, bo przecież sami nie są zdolni do twórczego wysiłku, do którego - jak wszędzie - trzeba posiadać predyspozycje.