Ontologia
Wykład 1 prof. Żełaniec
Wykład 2 prof. Żełaniec
Wykład 3 prof. Kiejzik
Wykład 4 prof. Kiejzik
Wykład 5 prof. Kiejzik
Wykł. 6-14 prof. K. Jodkowski
Uwaga! Poniższe notatki nie są podręcznikiem ani skryptem. Są to jedynie notatki wykładowcy. Czasami są dość kompletne, ale często są skrótowe ponad miarę (żeby tylko zwrocić moją uwagę, o czym mam mówić) i na pewno nie wystarczą do zdania egzaminu. Podstawą do zdania egzaminu mogą być tylko porządnie robione notatki w trakcie wykładów, uzupełnione ewentualnie przez samodzielną lekturę (to ostatnie dotyczy gorliwych studentów). Proszę też pamiętać, że notatki te zostały spisane w edytorze WordPerfect 5.1 dla DOS i zostały przekonwertowane na Worda, w związku z czym nie gwarantuję, że wszystko (zwłaszcza wzory) wyglądają tak, jak trzeba. Proszę też pamiętać, że kolejność pozycji w spisach literatury jest przypadkowa, tzn. pierwsza pozycja nie musi być najważniejsza.
Problematyka wykładów 6-14:
• Pojęcie materii
• Problem teleologii i zasady antropicznej
• Koncepcje przestrzeni
• Koncepcje czasu
• Ruch
• Zagadnienie wieczności Wszechświata i jego przestrzennej nieskończoności
Wykład 1 9 maja 2001
Materia, czas i przestrzeń
3 materialistyczne odpowiedzi na pytanie, co leży u podstaw jedności różnorodnego świata:
a) pierwotna niezróżnicowana pramateria, arche, początek świata (Tales, Anaksymenes, Heraklit, Ksenofanes)
dzisiaj niektórzy uczeni mają podobne podejście (chociaż udzielają bardziej wyrafinowanej odpowiedzi): koncepcja pierwotnego atomu Lemaitre'a, materii w momencie Big Bangu (osobliwość).
b) wspólne cegiełki, bo świat jest wieczny — atomistyka (Demokryt)
dzisiaj: nie do utrzymania ze względów kosmologicznych (wydaje się, że świat jednak nie jest wieczny)
c) wspólne, powszechne i niezmienne własności wszystkich zjawisk (własności materii) — atrybutywistyczna koncepcja materii
Różne pojmowania materii
„Materia” to pojęcie abstrakcyjne oznaczające wspólne i niezmienne własności wszystkich przedmiotów materialnych.
Rozmaite propozycje definiowania materii
• Platon (materia jako budulec dla demiurga)
• Arystoteles (materia jako bierny „składnik” bytu; rozróżnić materię pierwszą i materię drugą)
• od Demokryta, Epikura i Lukrecjusza do wieku 17 — wspólną i niezmienną własnością wszystkich ciał jest twardość (nieprzenikliwość) oraz ciężar.
1672 — astronom francuski Richer stwierdził, że zegar wahadłowy przewieziony z Paryża do Ameryki Południowej spóźnia się w ciągu doby o dwie minuty. Zmienił się okres wahadła, który zależy od siły ciężkości — zmienił się więc ciężar wahadła (większa odległość od środka Ziemi oraz większa prędkość obrotu Ziemi i większa siła odśrodkowa). To samo ciało na biegunie i na równiku ma różny ciężar.
• Newton; 17 wiek — pojęcie masy
a) inercyjnej (o której mówi pierwsze prawo Newtona; inercyjność ciała polega na jego dążeniu do zachowania swego stanu, spoczynku lub ruchu). O bezwładności ciała można mówić, gdy abstrahuje się od przeszkód, jakie ciało w ruchu napotyka. Mówi o niej też drugie prawo Newtona: przeciwdziałanie ze strony danego ciała przyspieszeniu nadawanemu temu ciały ze strony określonej siły jest wielkością stałą i charakteryzuje masę bezwładną danego ciała.
b) grawitacyjnej
droga do pojęcia masy grawitacyjnej:
prawa Keplera: [1. planety poruszają się po torach eliptycznych, w ognisku elipsy znajduje się słońce; 2. promień wodzący planety w równych odcinkach czasu zakreśla równe powierzchnie; 3. kwadratu okresów obiegu planet wokół Słońca są proporcjonalne do sześcianów ich średnich odległości od Słońca] wskazywały na wzajemne związek planet i Słońca
Hooke w liście do Newtona z 1680 roku donosił o istnieniu odwrotnej zależności między siłą, z jaką dwa ciała się przyciągają, a kwadratem ich odległości
Newton uzupełnił ideę Hooke'a: siła przyciągania powinna być proporcjonalna w stosunku do ilości materii.
Ta ilość materii to masa. Podać wzór na przyciąganie się dwu ciał.
Masa jako ilość materii przetrwała do XX wieku
Pewne modyfikacje związane były z tzw. imponderabiliami (substancjami nieważkimi) — flogiston, eter.
• Teoria względności wykazała zależność między masą ciała a jego prędkością
Gdy prędkość ciała zbliża się do c, to masa rośnie do nieskończoności; dla małych prędkości mianownik jest zaniedbywalny. Masa, o której mówił Newton, jest równa masie spoczynkowej u Einsteina (ale istnieje problem, czy można masę newtonowską utożsamić z masą spoczynkową einsteinowską).
Okazało się też, że w pewnych przypadkach spotykamy się ze zjawiskami ubytku masy spoczynkowej
— wybuch bomby atomowej, nuklearnej (gwałtowny rozpad pierwiastków promieniotwórczych; masa produktów po wybuchu jest mniejsza niż przed wybuchem; część masy zamieniła się w energię; E=mc2.
— wybuch bomby wodorowej, termonuklearnej (synteza helu z wodoru; część masy zamienia się w energię wg tego samego wzoru). Podobne procesy trwają w jądrze Słońca i one są źródłem energii słonecznej. W gwiazdach na drodze syntezy termonuklearnej powstają także cięższe pierwiastki.
— zderzenie elektronu i pozytonu (wynikiem są dwa kwanty gamma); istnieje też proces odwrotny: generowanie materii i antymaterii
Nie są to zjawiska anihilacji materii, lecz przekształcanie się jednej jej postaci w drugą (masy w energię)
Ocean Diraca (1928) — elektrony o ujemnej masie lub ujemnej energii. Dirac przyjął, że są nieobserwowalne. Dopiero wybicie elektronu z oceanu Diraca powoduje, że widoczny jest sam wybity elektron oraz dziura po nim (elektron i antyelektron). Odkrycie antyelektronu (pozytronu) — Anderson i Blackett (lata 30-te). 1955 — odkrycie antyprotonu, potem inne antycząstki. Okazało się, że mogą istnieć antypierwiastki, a nawet duże ilości antymaterii. Na pojęciu antymaterii oparte były pewne koncepcje kosmologiczne:
Maurice Goldhaber (USA) — uniwerson rozpadł się na kosmon i antykosmon. Fale radiowe galaktyk to rezultat wychwytywania antymaterii, anihilacji materii i antymaterii.
O. Klein i H. Alfvén — ambiplazma (mieszanina materii i antymaterii) jako pierwotny stan Wszechświata. Grawitacja i pole elektromagnetyczne doprowadziło do powstania obłoków materii i antymaterii, czyli częściowego rozdzielenia. Metagalaktyka (Wszechświat) się kurczyła, aż procesy anihilacji przybrały takie tempo, że doszło do wybuchu. Stąd się wzięło rozszerzanie się Wszechświata. Koncepcja ambiplazmy nie tłumaczy jednak izotropowego promieniowania tła (jeszcze o tym powiem) i dlatego koncepcja ambiplazmy nie jest dzisiaj popularna.
Atrybutywistyczna koncepcja materii
dzisiaj: nie do utrzymania ze względów kosmologicznych [wprawdzie koncepcja wieloświata utrzymuje wieczność materii, ale własności w każdym wszechświecie mogą być inne]
Literatura (znaleźć odpowiednie fragmenty):
Władysław Krajewski, Ontologia
Karol Matraszek, Jan Such, Ontologia, teoria poznania i ogólna metodologia nauk
Zdzisław Cackowski, Głowne zagadnienia i kierunki filozofii
Michał Heller, Kosmiczna przygoda Człowieka Mądrego (rozdział 13)
Jerzy Rayski, Czas, przestrzeń, kwanty
Wykład 2 i 3 18 maja 2001
Niektórzy starali się dać teoriopoznawczą definicję materii, niezależną od osiągnięć nauki. Materią w tym ujęciu byłoby wszystko, co jest odkrywane przez naukę, albo — węziej — wszystko, co jest poznawalne zmysłowo.
Holbach (18 w.) — materia to to, co poznawalne zmysłowo (źródło doznań zmysłowych)
wady: definicja za szeroka (złudzenia zmysłowe, wizje religijne)
Helmholtz (19 w.) — materia to wszystko, co istnieje (znowu za szeroka, bo wg idealistów duchy też istnieją). Uczniowie Helmholtza dodali: wszystko, co istnieje obiektywnie (co niewiele poprawia definicję).
Lenin połączył wątki z obu tych definicji: materia to obiektywna rzeczywistość dana nam we wrażeniach zmysłowych
wady: nie wyklucza wizji religijnych, które ludzie wierzący uważają za obiektywne. Poza tym definicja ta akceptuje naiwny realizm teoriopoznawczy (wrażenia zmysłowe odzwierciedlają rzeczywistość).
Na marginesie:
Kanały na Marsie.
Kanały na Marsie odkrył Giovanni Schiaparelli w 1877 roku. Na mapie przez niego sporządzonej można było wyróżnić kilkadziesiąt liniowych utworów, łączących poszczególne morza i jeziora. Prawdę mówiąc jeszcze przed Schiaparellim widziano kanały (m.in. Herschel), ale dopiero on zauważył ich tak wiele i rozpropagował ich istnienie. Na mapie z 1888 roku zaznaczonych jest już 113 kanałów. Jego następcy widzieli ich znacznie więcej, a mapa Percivala Lowella z roku 1909 zawiera ponad 700 tych utworów. Krzyżują się one z sobą i niby siecią pajęczą obejmują wszystkie lądy marsjańskie. w miejscach skrzyżowań znajdują się często owalne plamy, nazwane jeziorami. Ich barwa, podobnie jak i barwa samych kanałów, jest bardzo podobna do barwy mórz.
Większość kanałów miała długość od 500 do 1000 kilometrów, niektóre jednak z nich przekraczały 6 tysięcy kilometrów. Natomiast szerokość ich wynosiła średnio 40 kilometrów, lecz u największych dochodziła aż do 300 kilometrów. Były to więc twory na granicy widoczności, zwłaszcza dla mniejszych teleskopów.
Jaka była natura kanałów? Jedni uważali je za pęknięcia w skorupie Marsa, inni zaś za szczeliny w pokrywie lodowej, mającej (rzekomo) zakrywać całą jego powierzchnię. Sam odkrywca sądził początkowo, że są to cieśniny lub rzeki i dlatego niektórym dał nazwy ziemskich rzek (Indus, Ganges, Nilus, Jordanus). Wkrótce jednak zaczęto je uważać za twory sztuczne — drogi komunikacyjne Marsjan między morzami. Do zwolenników tej hipotezy zaliczał się nawet Kamil Flammarion, jeden z największych entuzjastów życia rozumnego na Marsie.
Z innym nieco, ale wcale nie mniej fantastycznym pomysłem wystąpił Lowell. Był on przekonany, że kanały stanowią sieć irygacyjną, zbudowaną przez Marsjan celem nawadniania pustyń. Pustyniami miały być marsjańskie morza, które — jego zdaniem — nie były zbiornikami wody, lecz pokrytymi bujną roślinnością obszarami. Położone są one w najcieplejszej strefie Marsa, gdzie występuje niedobór wody. Marsjanie musieli więc doprowadzać wodę kanałami z topniejących wiosną i latem czap polarnych.
Lowell sądził ponadto, że kanały służą nie tylko do nawadniania pustyń, ale i do zaopatrywania miast marsjańskich w niezbędną dla życia wodę. Miały nimi być owe jeziora leżące w punktach przecięcia poszczególnych kanałów, które na swej mapie zaznaczył ciemnymi kółkami. Z obserwacji Lowella wynikało, że widoczność kanałów jest ściśle związana ze zmianami pór roku na Marsie. Gdy na danej półkuli planety panuje zima, kanały przestają być widoczne. Można je ponownie obserwować dopiero wiosną, kiedy czapa polarna zaczyna ustępować. Początkowo pojawiają się w pobliżu danego bieguna, później w niższych szerokościach areograficznych, a na samym końcu w strefie równikowej. Odwrotne zjawisko zachodzi jesienią, gdyż najpierw zanikają kanały przy biegunie, najpóźniej zaś w okolicach równika.
Zjawisko powyższe Lowell tłumaczył tym, że same kanały są bardzo wąskie i bezpośrednio nie można ich dostrzec. Ale wzdłuż ich brzegów rosną rośliny, które zimą zamierają z powodu niskiej temperatury i braku wody. Dopiero latem, kiedy kanały wypełniają się woda, roślinność odżywa. Wtedy kanały są znów widoczne, gdyż rozciągający się po obu ich brzegach pas roślinności nabiera intensywnej barwy i wyraźnie się odcina od jasnego tła pustyni.
Hipoteza ta była tak sugestywna, że zac to już myśleć o wyprawie na Marsa i sposobie nawiązania z jego mieszkańcami jakiegoś kontaktu. W tym celu proponowano na wielkich przestrzeniach Sahary wykreślić duże figury geometryczne, wyobrażające dowód twierdzenia Pitagorasa.
Hipoteza kanałów na Marsie upadła ostatecznie po locie sondy Mariner 4 w 19675 roku. Wykonane z bliska zdjęcia wykazały, że na powierzchni Marsa nie ma niczego podobnego do kanałów (za wyjątkiem jednego olbrzymiego kanionu, podobnego do kanionu Colorado, jednak pozbawionego wody).
Wówczas przypomniano sobie cały szereg dawniej wysuwanych argumentów przeciwko hipotezie kanałów. Na przykład włoski astronom Vincenzo Cerulli już w 1893 roku zwrócił uwagę, że kanały na Marsie nie stosują się do praw perspektywy i zawsze są widoczne jako linie proste. A kształt i wygląd kanału powinien się zmieniać zależnie od tego, czy w momencie obserwacji znajduje się on na brzegu tarczy planety, czy też w jej środku.
Cerulli zaczął wątpić, by na Marsie rzeczywiście istniały kanały w takiej postaci, w jakiej obserwowali je Schiaparelli, Lowell i inni astronomowie. System geometrycznych linii może powstawać na skutek złudzenia optycznego, które występuje wtedy, gdy oko ludzkie z wielkim wysiłkiem stara się dostrzec słabo rysujące się szczegóły.
Tezę tę popierał angielski astronom, Edward W. Maunder, który w roku 1894 przeprowadził niezwykle ciekawe doświadczenie. W tym celu skopiował rysunek Schiaparellego, ale zrobił to w ten sposób, że w miejsce kanałów umieścił szereg kropek i nieregularnych linii. Kopię tę dał do przerysowania uczniom w wieku 12-14 lat, usadawiając ich jednak w takiej odległości, żeby drobne szczegóły się zacierały i dawały tylko pewne wrażenie sumaryczne. Wynik był zaskakujący, gdyż uczniowie siedzący bliżej przerysowali wzór dość dokładnie, ale uczniowie z dalszych miejsc rysowali kanały, i to niemal w takim samym położeniu, w jakim nakreślił je Schiaparelli.
Doświadczenie to było powtarzane wiele razy i zawsze z podobnym skutkiem. Do najciekawszych należy eksperyment, który w 1907 roku przeprowadził wybitny astronom amerykański Simon Newcomb. Zaprosił on do siebie kilku znanych obserwatorów Marsa i zaproponował im przerysowanie rysunku Maundera z pewnej odległości. Okazało się wówczas, że poszczególne punkty łączyli w linie ciągłe nawet ci astronomowie, którzy nigdy nie mogli dostrzec kanałów na Marsie.
Jednak w miarę, gdy zaczęto używać teleskopów o dużej sile rozdzielczej, obserwowanie kanałów nie było już tak powszechne. Najwyraźniej najlepiej je było widać, gdy twory te znajdowały się na granicy widzialności. Dziś nie ulega już wątpliwości, że obserwowanie kanałów dowodzi pewnej prawidłowości, ale nie ze strony obserwowanego obiektu (powierzchni Marsa), ale podmiotu poznającego. Ponieważ obserwacje wielu astronomów nie były niezgodne, ponieważ uzupełniały się wzajemnie, ponieważ mapy kanałów rysowane przez różnych astronomów różniły się co najwyżej ilością kanałów, a nie ich umiejscowieniem, nie można obserwowanie kanałów uznać za zwykłe złudzenie. Było to złudzenie, ale miało ono jakieś obiektywne przyczyny. Nasz zmysł wzroku w ten sam sposób łączy punkty, „uzupełnia” braki między nimi. Obserwacje kanałów na Marsie świadczą o pewnej charakterystycznej dla gatunku człowieka aktywności poznawczej, percepcyjnej zmysłu wzroku i związanego z nim układu nerwowego.
Wniosek: wrażenia i spostrzeżenia zmysłowe są symulacją rzeczywistości, nie jej odbiciem, jest neuronalną hipotezą na temat świata zewnętrznego. Mamy wrażenie, że kontaktujemy się bezpośrednio z rzeczywistością, gdyż hipotezy te są budowane bardzo szybko i bardzo szybko zmieniane (co najmniej 16 razy na sekundę). Różnią się tym od innych hipotez, że mają charakter wizualny, nie konceptualny.
dziś kwestionuje się też twardość i nieprzenikliwość podstawowych cegiełek materii:
Idea twardości zakładała, że podstawowe cegiełki świata zajmują ściśle określone miejsce w przestrzeni, którego nie można „przekroić” (tak Demokryt). Newton podobnie: uważał, że tylko w pewnych warunkach cząstki jednego ciała mogą przeniknąć między cząstki innego ciała, ale żadna cząstka nie może przeniknąć w głąb innej.
Rozwój nauki w XX wieku zakwestionował to przekonanie (uważane za zdroworozsądkowe do dzisiaj).
Atom okazał się prawie pusty i do jego wnętrza mogą przenikać cząstki obdarzone energią (czy to elektrony czy nukleony w procesie syntezy nowych pierwiastków).
a) zasada nieoznaczoności (nieokreśloności) Heisenberga (1927)
Równoczesny ścisły pomiar położenia i pędu cząstki jest niemożliwy (także energii i czasu, ale to tutaj nie jest ważne). Iloczyn błędów pomiaru położenia cząstki oraz błędu pomiaru pędu nie może być mniejszy niż stała Plancka: xp≥h. Można wprawdzie z dowolną dokładnością mierzyć położenie, tzn. dowolnie zmniejszać błąd x, wtedy jednak automatycznie wzrasta błąd naszej znajomości pędu p, tak że iloczyn obu błędów pozostaje nie mniejszy niż h. Skoro tak, to nie ma sensu idea materii jako cząstek zajmujących ściśle określone miejsce, muszą być mniej lub bardziej „rozmazane”.
Samą zasadę interpretowano dwojako:
a) epistemologicznie — dotyczyć ona ma naszej wiedzy; to my nie możemy określić z dowolną dokładnością położenia i pędu cząstki, sama cząstka jednak ma ściśle określone położenie i pęd
b) ontologicznie — nie potrafimy określić tych wielkości z dowolną dokładnością, gdyż sama cząstka ich nie ma dokładnie określonych; dopiero akt pomiaru powoduje, że na przykład ustalamy dokładne położenie cząstki (ale tym samym wprowadzamy zakłócenie, które uniemożliwia dokładne określenie jej pędu)
b) fale materii Louisa de Broglie'a
dualizm falowo-korpuskularny
analogia do dualistycznej natury światła (konsekwencja efektu fotoelektrycznego)
W skrócie:
• Newton — koncepcja korpuskularna
• doświadczenie Younga 1801
• efekt fotoelektryczny Hertz i Stoletow, koniec 19 w.
• Einstein 1905
• de Broglie 1923
• prążki interferencyjne elektronów 1927
1
Natura światła. Zdaniem Newtona światło polega na szybkim ruchu pewnych cząstek, zaś promień świetlny jest to tor, po którym poruszają się owe pociski świetlne — koncepcja korpuskularna. Przeciwną koncepcję, falową, proponowali Huyghens i Fresnel, aż w 1801 roku Thomas Young przeprowadził eksperyment dowodzący, że światło jest falą: światło przepuścił przez jedną szczelinę, aby otrzymać źródło punktowe (nastąpiło ugięcie, dyfrakcja fali), a następnie przez dwie następne. Na ekranie otrzymał wzór złożony z ułożonych na przemian ciemnych i jasnych prążków (rezultat interferencji, prążki interferencyjne — jasne powstawały, gdy grzbiety fal się dodawały, ciemne, gdy się znosiły). Zdano sobie sprawę, że światło rozmaitych barw różni się od siebie tylko częstością drgań (długością fali). W paśmie widzialnym częstość drgań fali światła czerwonego jest najmniejsza, zaś fioletowego największa, i na odwrót, długość fali światła czerwonego jest największa, fioletowego najmniejsza. Hertzowi udało się wytworzyć po raz pierwszy fale elektromagnetyczne zwane dzisiaj falami radiowymi, które różnią się od fal świetlnych tylko tym, że ich długość jest miliony razy większa. Odkryto i zbadano także promieniowanie elektromagnetyczne o pośredniej długości fali między radiowym i świetlnym, tzw. promieniowanie podczerwone, oraz krótsze od fal światła widzialnego fale nadfioletowe. Następnie Roentgen odkrył promieniowanie o jeszcze krótszych długościach fal, zwane dziś promieniami X lub promieniowaniem rentgenowskim, a Becquerel i małżonkowie Curie znaleźli promienie γ o jeszcze mniejszej długości fali. Najkrótsze fale elektromagnetyczne leżące w obrębie promieni γ znaleziono w promieniowaniu kosmicznym.
Efekt fotoelektryczny został odkryty niezależnie przez Heinricha Hertza i Aleksandra Stoletowa w końcu XIX wieku. Światło pada na płytkę metalową (cynkową) i wybija z niego elektrony tworzące prąd elektryczny. Prąd ten można mierzyć amperomierzem. Energię pojedynczych elektronów można mierzyć polem elektrycznym przykładanym do płytki. Jednak
a) jeśli na płytkę pada światło widzialne (niezależnie od natężenia), to prąd nie płynie (elektrony nie są wybijane z metalu)
b) jeśli zwiększa się częstotliwość światła (zmniejsza się długość światła), to powyżej pewnej częstotliwości progowej (z reguły w nadfiolecie) elektrony zaczynają być wybijane.
c) im wyższa jest częstotliwość światła, tym większą energię mają elektrony
d) zwiększanie jasności światła (natężenia światła) nie zwiększa energii poszczegółnych elektronów, zwiększa jednak natężenie prądu (wybijanych jest więcej elektronów)
W 1905 roku Einstein zasugerował, że wzór Plancka E=h jest fundamentalną własnością światła. Światło zachowuje się czasami jak strumień cząstek (kwantów, po 1926 roku zaczęto je nazywać fotonami), z których każdy posiada energię równą h. Energia elektronów wybijanych z cynku wyraża się prostym wzorem Eelektronu=h—W, gdzie W jest tzw. pracą wyjścia, czyli energią potrzebną do wyrwania elektronu z metalu (jej wartość zależy od metalu).
Wzór ten wyjaśnia wszystkie kwestie związane z efektem fotoelektrycznym. Jeśli energia cząstek światła jest mniejsza niż praca wyjścia, to żadne elektrony nie zostaną wyrwane z metalu (światło o częstości poniżej pewnej wartości nie wybija elektronów z metali). Światło nadfioletowe może już elektrony wybijać. Gdy zwiększamy natężenie światła (ilość padających fotonów), zwiększa się ilość wybijanych elektronów, ale nie energia każdego z nich. Jeśli zwiększamy częstość światła, fotony mają większą energię i wybijane przez nie elektrony też mają większa energię.
Światło składa się zatem z poszczególnych porcji zwanych kwantami (łac. quantum — ilość), których energia wynosi h. A więc można powiedzieć, że światło to rój cząstek (elementarnych porcyjek energii) biegnących z prędkością 300 tys. km/sek, które napotykając na swej drodze materię, mogą być „połknięte” przez nią tylko w całości, a nigdy w części. Także w całości muszą być wysyłane.
Korpuskularną naturę fal elektromagnetycznych wykazuje również tzw. efekt Comptona (1923). Promienie X i promienie γ rozpraszane przez wolne elektrony tracą część swojej energii, a elektrony ją uzyskują (zawsze wielokrotność pewnej wielkości).
Fale materii. Ponieważ w pewnych okolicznościach światło zachowuje się jak fala (zjawiska dyfrakcji i interferencji), a w pewnych jak korpuskuły (zjawisko fotoelektryczne, efekt Comptona), mówimy o dualizmie falowo-korpuskularnym światła. Louis de Broglie w 1923 roku (w pracy doktorskiej) wysunął pomysł, że nie tylko światło, ale cała materia ma dwoistą naturę, nie tylko korpuskularną, ale i falową. Między światłem i innymi formami materii jest tylko taka różnica, że w przypadku światła łatwiej dostrzegalne są jego cechy falowe, a w przypadku elektronów i protonów odwrotnie — łatwiej dostrzegalne są cechy korpuskularne. Według de Broglie'a z każdą cząstką związana jest fala, której długość wyraża się wzorem =h/mv (=h/p). Długość fali de Broglie'a jest równa stałej Plancka podzielonej przez pęd cząstki. Dla ciał o dużej masie długość tej fali jest tak mała, że nie można jej zmierzyć, ale dla elektronów fala ta jest już tak duża, że można ją zmierzyć.
Hipoteza de Broglie'a została potwierdzona w 1927 roku (niezależnie amerykański fizyk Clinton Joseph Davisson i brytyjski fizyk George Paget Thomson), kiedy zaobserwowano, że wiązka elektronów po przejściu przez kryształ dawała obrazy dyfrakcyjne, podobne jak w doświadczeniu Younga. (Ideę fal materii wykorzystuje się w mikroskopie elektronowym, fala skojarzona z elektronem jest mniejsza niż fala zwykłego promieniowania widzialnego.) Jeśli strumień elektronów pada na przesłonę, w której znajdują się np. dwie szczeliny, a po drugiej stronie przesłony, w pewnej odległości od niej, umieszczony jest ekran fluoryzujący, to — o ile szczeliny są duże i dość od siebie odległe — na ekranie zobaczymy po prostu wierny obraz obu szczelin. Zjawisko to interpretujemy zwyczajnie, klasycznie, jako skutek prostoliniowego ruchu swobodnych elektronów. Jeżeli jednak szczeliny są małe i blisko siebie położone, to zaczynają dochodzić do głosu zjawiska typowe dla fal: zamiast obrazu dwóch szczelin na ekranie pojawia się szereg prążków interferencyjnych. Wtedy więc, gdy szerokość szczelin i odstępów między nimi jest zbliżona do długości fal materii, elektrony nie poruszają się już klasycznie po liniach prostych, lecz doznają ugięcia na szczelinach. Ruchem elektronów przestają rządzić prawa klasyczne (ruch po linii prostej), a zaczynają obowiązywać prawa rozchodzenia się fal. Za pomocą mikroskopu można przekonać się, na czym polegają prążki interferencyjne pojawiające się na ekranie. Pod mikroskopem widać, że miejsca jaśniejsze na ekranie powstają dlatego, iż w miejscach tych pojawia się dużo poszczególnych błysków, a więc elektrony padają tam obficie na ekran. W miejscach ciemniejszych też pojawiają się błyski, ale znacznie rzadziej.
Statystyczna interpretacja Borna. Ten fakt może być wyjaśniony przez tzw. interpretację probabilistyczną fal materii, jaką zaproponował Max Born (1926). Według Borna prawdopodobieństwo znalezienia się elektronu w jakimś miejscu jest wyrażone przez natężenie fal materii. W miejscach, gdzie to prawdopodobieństwo jest duże, znajdziemy liczne cząstki, zaś w miejscach, w których prawdopodobieństwo jest małe, liczba cząstek będzie znikoma. Prawdopodobieństwa stanowią coś w rodzaju chmury o różnej gęstości: gdzie chmura jest szczególnie gęsta, mamy większą szansę spotkania elektronu. Elektron istnieje więc w pewnym sensie w różnym stopniu (z różnym prawdopodobieństwem) w pewnym obszarze, w jednym miejscu bardziej, w innym mniej.
Statystyczna interpretacja Borna jest potwierdzona przez zjawisko promieniotwórczości. Składniki jądra związane są ze sobą potężnymi siłami, zwanymi siłami jądrowymi. Są to siły krótkiego zasięgu, a jądro przypomina głęboką jamę otoczoną wałem, stanowiącym przeszkodę dla wszystkich cząstek pragnących się z jądra wydostać. Jest to tzw. wał potencjału jądrowego. Poszczególne składniki jądra nie mogą się wydostać z jamy na zewnątrz, gdyż dysponują zbyt małą energią na to, by przedostać się przez wał potencjału. A jednak mimo wszystko zdarza się niekiedy, że jakaś cząstka przenika przez wał i wydostaje się na zewnątrz. Ma to miejsce np. w przypadku promieniotwórczej przemiany (cząstka to jądro helu, dwa protony i dwa neutrony). Następuje ona bez żadnej widocznej przyczyny, jakby zupełnie przypadkowo. Absolutnie nie wiadomo, kiedy jądro się rozpadnie, można natomiast wysnuć pewne wnioski natury statystycznej (okres połowicznego rozpadu). Pomimo że przedostanie się cząstki przez wał jest klasycznie niemożliwe, gdyż cząstki nie mają dostatecznej energii na to, żeby pokonać przyciągające siły jądrowe, to jednak fale materii istnieją także poza jądrem, chociaż ich natężenie tam jest bardzo małe. Istnieje zatem małe, lecz różne od zera prawdopodobieństwo spotkania poza jądrem cząstki stanowiącej składnik samego jądra. Cząstki mogą więc przenikać przez wał potencjału i wydostawać się z zamknięcia na zewnątrz. Zjawisko to zostało obliczone na gruncie mechaniki kwantowej przez George'a Gamowa i nazwane efektem tunelowym (1928).
Hawking wyliczył, że tunelowanie obiektu o masie ciała człowieka zachodzi we Wszechświecie raz na 600 miliardów lat.
Literatura:
Rayski, Czas, przestrzeń, kwanty
E.M. Rogers, Fizyka dla dociekliwych. Tom 5: Fizyka jądrowa i atomowa
I. Bażenow, K. Morozow, M. Słucki, Filozofia nauk przyrodniczych (r. 2)
Wykład 4 i 5 25.05.01.
Pewne konsekwencje filozoficzne
Jeśli jest jedna szczelina przed źródłem światła, powstaje tylko jeden prążek, gdy dwie — wiele (bo fale interferują ze sobą i wzmacniają się lub wygaszają). Ale gdy się uwzględni korpuskularny charakter światła, to staje się to niezwykłe. Każdy pojedynczy foton zachowuje się jak fala. Każdy przechodzi jednocześnie przez obie szczeliny i interferuje sam ze sobą. Zmniejszając natężenie światła, można doprowadzić do tego, że w każdej chwili przez szczelinę przechodzi tylko jeden foton. A mimo tego na ekranie (np. fluorescencyjnym) pojawiają się prążki interferencyjne. Ale gdy w pobliżu szczeliny umieścimy detektor, który mówi nam, przez którą szczelinę przeleciał foton (bo fotony mogą być obserwowane w całości, albo wcale), to obraz interferencyjny znika. Interferencja jest możliwa tylko wtedy, gdy nie wiemy, przez którą szczelinę w rzeczywistości przeleciał foton.
300 lat temu o czymś podobnym mówił Berkeley — to, jaki jest świat, zależy od postrzegania go. Także Kant — rola podmiotowych kategorii.
Rzeczywistość nie pasuje do naszych kategorii, przy pomocy których ją ujmujemy, np. to, że przedmiot jest jednocześnie w wielu miejscach i to w różnych stopniu.
Hipoteza Sapira-Whorfa i rola języka w postrzeganiu świata. Znaczenie hipotezy Sapira-Whorfa dla spekulatywnych ontologii. Przykład ontologii arystotelesowsko-tomistycznej.
Kot Schrödingera
Pudełko. Emiter fotonów padających na półprzepuszczalne zwierciadło. Jeśli się odbije, pada do fotokomórki, która uruchamia mechanizm zabijający kota (uruchamia cyngiel rewolweru lub tłucze fiolkę z trucizną). Gdy obserwujemy sytuację, foton zawsze albo przechodzi przez zwierciadło, albo się od niego odbija, powodując w rezultacie śmierć kota. Kot jest zawsze albo żywy, albo martwy. Ale co się dzieje, gdy nie obserwujemy wnętrza pudełka? Prawdopodobieństwo odbicia fotonu, jak i jego przejścia przez zwierciadło jest równe. Zatem foton jednocześnie przechodzi przez zwierciadło, jak i się odbija. W rezultacie kot jest zarówno żywy, jak i martwy. Oba stany istnieją i interferują ze sobą (superpozycja). Otwierając pudełko, ujednoznaczniamy sytuację (Berkeley!), widzimy kota żywego lub martwego (następuje tzw. redukcja stanów do jednego z dwóch możliwych). Gdy siedzimy w pudełku, redukcja następuje wcześniej, w momencie, gdy foton przechodzi lub odbija się od zwierciadła.
Jak się rozwiązuje paradoks kota Schrödingera? 3 rozwiązania spośród wielu:
Niektórzy zwracają uwagę, że paradoks pojawia się z uwagi na obecność świadomych obserwatorów. Eugene P. Wigner w 1961 roku zaproponował, że równanie Schrödingera nie stosuje się do świadomych istot. Sama obserwacja powoduje, że następuje redukcja stanów do jednego. Konsekwencją jest bardzo dziwne rozumienie realności świata. Świat ten jest inny, gdy na niego nie patrzymy (istnieją różne stany, wzajemnie na siebie oddziałujące, w postaci superpozycji), ale gdy tylko zaczniemy na ten świat patrzeć, to wskutek samego patrzenia wszystkie możliwości ulegają zredukowaniu do jednej.
J.A. Wheeler 1983 wysunął koncepcję tzw. wszechświata partycypacyjnego. Powstanie i ewolucja świadomego życia na Ziemi zależą od tego, czy w różnych okresach historycznych nastąpiły odpowiednie mutacje. Ponieważ mutacje są zdarzeniami kwantowymi, istniały one w postaci superpozycji (były i nie były). Nasze obecne istnienie i świadome postrzeganie powoduje, że te przeszłe superpozycje się ujednoznaczniają, czyli że mutacje zachodzą (w przeszłości!). Nasze teraźniejsze istnienie determinuje przeszłość tak, że możliwe jest nasze obecne istnienie.
Hugh Everett III 1957 zaproponował tzw. teorię wielu światów. Kot Schrödingera istnieje w postaci superpozycji stanów martwy-żywy, ale w momencie obserwacji lub pomiaru następuje rozszczepienie świata. W jednym kot jest żywy, w drugim martwy. Takie rozszczepienia zdarzają się co chwila, a zatem liczba gałęzi wszechświata błyskawicznie narasta.
Koncepcja wieloświata pozwala rozwiązać pewną aktualnie żywo dyskutowaną zagadkę:
Koncepcja wieloświata a zasada antropiczna
zacznijmy od:
Problem teleologii
Wyjaśnianie teleologiczne często wiąże się z witalizmem, przekonaniem o istnieniu szczególnej siły życiowej nakierowanej na cel. Bogactwo i złożoność życia może sprawiać wrażenie, że nie da się go wyjaśnić tylko przyczynami sprawczymi.
Jest też problem antropomorfizmu. Człowiek na pewno działa celowo, czy przyroda też?
Determinizm głosi, że wszystko w przyrodzie podlega prawom, że każde zdarzenie ma swą przyczynę i że jednakowe przyczyny (w tych samych warunkach) wywołują jednakowe skutki. Indeterminizm głosi, że są zjawiska nie podlegające prawom, a w każdym razie nie wyznaczone w sposób jednoznaczny przez swoje przyczyny. Wreszcie teleologia (gr. telos — cel, teleos — osiągający cel) czyli finalizm (łac. finis — koniec, cel) głosi, że istniejący w przyrodzie porządek jest wynikiem celowego jej urządzenia, z góry ustalonego planu.
Pierwsze wyraźne sformułowanie stanowiska deterministycznego znajdujemy u Leucypa (nauczyciela Demokryta). Jedyna jego wypowiedź, która się zachowała, brzmi: "Nic nie dzieje się bez przyczyny, lecz wszystko z jakiejś racji i konieczności". Linię tę konsekwentnie kontynuował Demokryt. Uważał on, że zadaniem nauki jest wykrywanie przyczyn zjawisk. Mówił podobno, że oddałby państwo perskie za naukę wyjaśniającą przyczyny zjawisk. Zaprzeczał, iżby w przyrodzie istniały jakieś cele. Krytykując potoczny pogląd, jakoby Zeus spuszczał deszcze, aby dać rosnąć roślinom, Demokryt twierdził, że deszcz pada dlatego, że wyziewy ziemi unosząc się w górę, oziębiają się i przekształcają w wodę, a woda musi spadać.
Przeciwne stanowisko zajmował Platon, którego filozofia prezentowała klasyczny finalizm. Platon twierdził, że w przyrodzie wszystko urządzone jest celowo. Na przykład planety istnieją, bo są potrzebne do mierzenia czasu, rośliny rosną po to, by służyć za pokarm dla wyższych istot. Wszędzie panuje harmonia: Ziemia i Niebo mają doskonały kształt kulisty, szlaki planet są kołowe itd. Wszystko to świadczy, iż bóg zbudował świat tak, aby był najlepszy, najpiękniejszy, najdoskonalszy.
Arystoteles zajął w tym sporze, jak i w wielu innych, stanowisko kompromisowe, usiłując połączyć determinizm z teleologią. Utrzymywał, że istnieją cztery rodzaje przyczyn: sprawcza, celowa, materialna i formalna. Tylko łącznie tłumaczą one powstanie jakiejś rzeczy. W średniowieczu koncepcję Arystotelesa przejął Tomasz z Akwinu. Cały świat jest urządzony celowo, zgodnie z planem Opatrzności. Części niższe służą wyższym, a wszystkie służą Bogu, który jest zarazem stwórcą i celem świata. To ostatnie twierdzenie spotkało się później z licznymi zarzutami, Skoro Bóg jest celem świata, to stworzył go wyłącznie dla siebie, a — jak zauważa Spinoza — jeśli Bóg stworzył świat dla siebie, to widocznie po to, aby świat czynił zadość jakiejś jego istotnej potrzebie. wynika stąd, że przed stworzeniem świata Bóg odczuwał brak czegoś, a przecież ma on być bytem absolutnym i doskonałym. Na motywie celowości Tomasz z Akwinu oparł ostatni (piąty) dowód na istnienie Boga.
W czasach nowożytnych Newton i Kartezjusz odrzucili pogląd o celowości przyrody, proponując światopogląd mechanistyczny. Ale współczesny Newtonowi Leibniz twierdził, że monady, czyli prawdziwe substancje, działają celowo i tworzą określoną hierarchię: począwszy od monad pozbawionych samowiedzy poprzez monady posiadające świadomość, i to coraz większą, aż do monady najwyższej, najdoskonalszej, którą jest Bóg. Harmonia istniejąca w świecie monad jest wprzódy ustanowiona przez Boga. Monady są niezależne od siebie, ale działają zgodnie, jak precyzyjne i równocześnie uregulowane zegary. Bóg bowiem tworząc świat miał różne możliwości, a wybrał z nich najlepszą.
Następca Leibniza, Christian Wolff, wyrzekłszy się monadologii przyjął koncepcję teleologiczną w jej bardziej prymitywnej postaci. Wolff twierdził, że wszystko w przyrodzie ma swój cel i służy człowiekowi. Deszcz pada po to, żeby rosła trawa, trawa rośnie po to, aby krowy miały pokarm, krowy zaś istnieją po to, żeby człowiek miał mleko. Z kolei człowiek istnieje dla chwały Boga. Przypomina to poglądy średniowiecznego mnicha Bernarda od św. Piotra, który głosił, że człowiek rodzi się nagi, nie po to, ażeby być narażony na chłód, jak twierdzą oszczercy Opatrzności, lecz po to, by się uwidoczniło całe jego piękno; pchły rzucają się zawsze na biały kolor — instynkt ten został im dany, abyśmy je mogli łatwo chwytać; melon został przez naturę podzielony na kawałki, aby go można było jeść w rodzinie; dynia zaś jest większa od melona, by można ją było spożywać wespół z sąsiadami.
Teleologia ma jednak w swoim arsenale argumenty znacznie poważniejsze. Chodzi o celową budowę organizmów żywych w sensie ich dobrego przystosowania do życia. Badanie budowy wewnętrznej każdego organizmu przekonuje, że jego narządy są na ogól doskonale przystosowane do swych funkcji. Każdy organ ma złożoną budowę, składa się z rozmaitych części, pełniących odpowiednie funkcje i przypominających części aparatu zbudowanego przez człowieka. Np. system krwionośny u człowieka. Serce jako pompa rozprowadza krew po organizmie. Tłoczy jasnoczerwoną krew bogatą w tlen do tętnic, a powracającą przez żyły ciemną do płuc, by tam wchłonęła tlen. Serce jest podzielone przegrodą na dwie części, tak że krew się nie miesza. Każda z części składa się z komory i przedsionka, które dzieli przegroda z zastawkami otwierającymi się tylko w jedną stronę i zabezpieczającymi jednokierunkowy ruch krwi (są tak zbudowane, że ani jedna kropla krwi nie przedostanie się w odwrotnym, niewłaściwym kierunku). Inny przykład: w kościach szkieletu obserwujemy bardzo interesujący układ beleczek kostnych; są one ułożone w kierunku najsilniejszego ciśnienia wywieranego na dany odcinek kości. Podobnie układa się wiązania w moście wiszącym — w obu przypadkach zostaje osiągnięta największa wytrzymałość i sprężystość przy możliwie najmniejszym ciężarze konstrukcji.
Jeśli przypatrzymy się budowie ciała ptaków, zwraca uwagę ich doskonałe przystosowanie do lotu. Opierzenie daje dostatecznie dużą powierzchnię skrzydeł i ogona, którymi ptak posługuje się w locie, a nadto jest wyjątkowo lekkie; owłosienie np. znacznie zwiększyłoby ciężar ptaka.
W ogóle obserwujemy przystosowanie budowy organizmów do warunków ich życia. Tak więc ryby są pod wszystkimi względami (opływowy kształt, oddychanie skrzelami, odpowiednia budowa oczu itd.) przystosowane do życia w wodzie, kret — do życia pod ziemią, wielbłądy — do życia na pustyni. Gatunki rosnące na północy są odporne na mrozy, gatunki rosnące na pustyni (np. kaktus) są odporne na brak wody itd. Szczególnie rzucającym się w oczy świadectwem doskonałego przystosowania do warunków są cechy ochronne zwierząt. Należy do nich barwa ochronna: wiadomo, że zwierzęta polarne są na ogół białe, żyjące w lasach — ciemne, żyjące na pustyniach — żółte itd. We wszystkich tych wypadkach barwa zwierzęcia chroni je przed niebezpieczeństwem lub też — gdy chodzi o drapieżniki — pozwala niepostrzeżenie podkradać się do upatrzonej ofiary. Znane są również przykłady kształtu ochronnego (mimikra) itd.
Poza tym zwierzęta są, jak wiadomo, obdarzone instynktami, dzięki którym zachowują się w sposób celowy, tzn. korzystny dla siebie. Wystarczy tu wymienić instynkt samozachowawczy, instynkt płciowy, instynkt macierzyński itd. Rośliny nie mają instynktów, mają natomiast tzw. tropizmy, polegające na ruchach ich poszczególnych części w kierunku bodźca zewnętrznego (tropizm dodatni) lub w kierunku przeciwnym bodźcowi (tropizm ujemny). Np. fototropizm polega na zwracaniu się rośliny ku światłu (co występuje szczególnie wyraźnie u słoneczników); geotropizm polega na przyjmowaniu przez roślinę, pod wpływem przyciągania ziemskiego, określonego położenia w stosunku do środka ziemi (główny korzeń ma geotropizm dodatni, łodyga — ujemny) itd. itd.
Wszystko to stwarza wrażenie urządzenia organizmu według obmyślonego planu. Nic też dziwnego, że fakty te były poważnym atutem dla teleologii. Z teleologią łączy się witalizm — kierunek, który przez długi czas (wiek 17 i 18) panował w biologii. Jego zwolennicy sądzili, iż w organizmie działa pewien niematerialny czynnik kierowniczy, zwany zwykle siłą życiową (łac. vis vitalis). Siła życiowa miała kierować całym rozwojem organizmu od zarodka począwszy oraz wszystkimi procesami fizjologicznymi. Walkę z witalizmem podjął mechanicyzm, głoszący że organizm jest skomplikowaną maszyną, że wszystkie zjawiska życiowe można wytłumaczyć za pomocą praw mechaniki (później — fizyki i chemii).
Dopiero w 19-tym wieku spadły na witalizm decydujące ciosy ze strony chemii organicznej. Witaliści głosili, że substancje organiczne mogą powstawać wyłącznie przy udziale siły życiowej. I rzeczywiście, przez długie lata wszelkie próby wytworzenia takich substancji w pracowni chemicznej zawodziły, co zdawało się przemawiać na korzyść witalizmu. Dopiero w roku 1828 niemiecki chemik Wöhler stworzył w drodze syntezy pierwszą substancję organiczną — mocznik. Była to przełomowa data w dziejach sporu o siłę życiową. Później chemicy zaczęli otrzymywać w laboratoriach coraz to nowe substancje organiczne, co w konsekwencji doprowadziło do upadku witalizmu.
Sama chemia i fizyka nie mogły jednak wytłumaczyć, skąd się bierze celowa budowa organizmu, jego korzystne przystosowanie do środowiska. Co prawda mechanicyści próbowali ignorować te fakty, twierdzili nawet, że nauka nie powinna w ogóle o nich mówić, gdyż nie dają się one sformułować w jedynym języku naukowym — w języku fizyczno-chemicznym.
Wytłumaczenie takie dala dopiero teoria ewolucji, Lamarcka, a potem Darwina.
Lamarck (1809) stwierdził, że organizmy zmieniają się nieustannie pod wpływem bodźców zewnętrznych, zmieniają się adekwatnie, odpowiednio do tych bodźców, następnie zaś nabyte nowe cechy są dziedziczone i w ten sposób odbywa się ewolucja gatunków. Lamarck dał następujący schemat ewolucji zwierząt: istotne zmiany warunków życia wywołują zmianę potrzeb zwierzęcia; zmiana potrzeb wywołuje nowe czynności, co prowadzi do powstania nowych nawyków; nawyki te wymagają częstszego używania jakiegoś narządu; narząd ten wskutek ćwiczenia rozwija się lub nawet powstaje na nowo z jakiegoś innego narządu, którego dotychczasowa postać nie odpowiada nowym wymaganiom. W ten sposób zamiast tradycyjnego poglądu, że struktura, kształt organy określa jego funkcję, Lamarck wysunął przeciwstawny pogląd, że funkcja tworzy organ, determinuje jego kształt. Pytanie, po co istnieje dany narząd, zastąpił pytaniem, dlaczego ten narząd powstał. Zwolennicy teleologii twierdzili, że trawa została stworzona po to, aby krowy miały co jeść; teoria ewolucji wykazywała, że jest przeciwnie: zwierzęta trawożerne powstały (przystosowały się do pokarmu roślinnego) dlatego, że istniała trawa.
Co prawda, Lamarck nie wyzbył się całkowicie idei finalistycznych. Nie umiejąc wytłumaczyć wszystkich zmian ewolucyjnych działaniem środowiska, zakładał, że w organizmach zwierzęcych istnieje wewnętrzne dążenie do postępu, do doskonalenia się. Dlatego też, według niego, w toku ewolucji powstają formy coraz wyższe, coraz doskonalsze. Jest to element teleologiczny w teorii Lamarcka: istnieje jakiś z góry nakreślony kierunek rozwoju. Jednak teleologia Lamarcka była teleologią wewnętrzną (uznaje cel wewnętrzny, immanentny, tkwiący w danej istocie i określający kierunek jej rozwoju). Dotychczasowa teleologia miała charakter zewnętrzny (cel istnienia poszczególnych istot tkwi nie w nich samych, ale poza nim).
Z tą szczątkową teleologią zerwał Karol Darwin. Głównymi czynnikami ewolucji są zmienność, dziedziczenie oraz dobór naturalny, będący wynikiem walki o byt. Zwracano też uwagę na przypadki tzw. dysteleologii (np. organy szczątkowe, jednowylotowość płuc czy fototropizm ciem ginących w płomieniu).
Literatura:
Roger Penrose, Nowy umysł cesarza
Krajewski, Ontologia
Wykład 6 i 7 31.05.01.
Po ogłoszeniu prac Darwina teleologia i witalizm prawie całkowicie tracą popularność wśród przyrodników. Jednak pod koniec 19-tego wieku pojawia się tzw. neowitalizm. Sprzyjały mu niektóre nowe odkrycia, w szczególności doświadczenia, jakie przeprowadzał niemiecki uczony Driesch nad zarodkami jeżowca morskiego. Jedno z tych doświadczeń polegało na tym, że po pierwszym podziale zygoty (zapłodnionej komórki jajowej) dwie powstałe komórki oddzielano od siebie; okazało się, iż z każdej z nich wyrastała następnie larwa jeżowca, tyle że mniejsza od normalnej. Inne doświadczenie polegało na połączeniu dwóch zygot, z których następnie wyrastała znów jedna larwa, tym razem znacznie większa od normalnej. Wreszcie Driesch brał zarodek znajdujący się w nieco późniejszym stadium rozwoju i wycinał z niego pewne komórki, przeszczepiając je w inne miejsca: okazało się, że z komórek tych wyrastały nie te części larwy, które "normalnie" z nich wyrastają, lecz te, które winny powstać w miejscu, gdzie znajdowały się przeszczepione komórki.
Z doświadczeń swych Driesch wyciągnął wniosek, że rozwojem organizmu kieruje pewien niematerialny, nieprzestrzenny, celowo działający czynnik, nazwany przezeń entelechią (termin ten wywodzi się od Arystotelesa). Entelechia była tylko inna nazwą "siły życiowej", toteż prąd zapoczątkowany przez Driescha otrzymał miano neowitalizmu.
Zasada antropiczna
Czy można uznać, że świat jest ta urządzony, żeby umożliwić lub przynajmniej ułatwić życie człowiekowi? Rozważania na ten temat w ostatnich latach znane są jako zasada antropiczna.
Wszechświat ma takie własności, które umożliwiają życie człowiekowi. Na przykład wiek. Znane nam pierwiastki niezbędne dla istnienia obecnie żywych organizmów to azot, tlen, fosfor, a nade wszystko węgiel. W pierwotnym wybuchu Wszechświata został zsyntetyzowany wodór i hel, i dopiero po długim procesie uległy one przekształceniu, głównie we wnętrzu gwiazd, w cięższe pierwiastki. Śmierć gwiazd powoduje rozproszenie tych pierwiastków, ich przekształcenie w planety i formy życia. Na to potrzebny jest czas co najmniej rzędu 10 miliardów lat. Ale Wszechświat nie może też być za stary. W 1957 roku Dicke dowodził, że gdyby Wszechświat był znacznie starszy, niż jest, to wszystkie gwiazdy stałyby się chłodne i w tych warunkach rodzaj ludzki po prostu by się nie pojawił. W 1961 roku przedstawił swoje idee z dokładniejszymi obliczeniami proponując to, co stało się ogólnie znane jako słaba zasada antropiczna: warunki niezbędne do powstania życia wprowadzają pewne zależności pomiędzy fundamentalnymi stałymi fizycznymi. Na przykład drobna zmiana ładunku elektronu z pozostawieniem niezmienności innych stałych fizycznych spowodowałaby niemożliwość wystąpienia mechanizmu fuzji nuklearnej w gwiazdach, co uczyniłoby nasze życie niemożliwym. Podobnie stała grawitacji — gdyby zmieniła się nawet tylko niewiele, to życie mogłoby się pojawić, lecz nie takie samo, jakie znamy. Słabą zasadę antropiczną można też sformułować tak: istnieją pewne typy Wszechświata, których zaobserwowania nie oczekujemy; albo inaczej: sam fakt obserwowania przez nas Wszechświata wymusza pewne cechy tego Wszechświata.
Słaba zasada antropiczna jest niekontrowersyjna. Całkowicie odmiennym argumentem jest to, że przyroda fizyczna Wszechświata jest takiego rodzaju, iż musi w nim zaistnieć na pewnym stadium życie, a w szczególności rodzaj ludzki. Brandon Carter nadał nazwę silnej zasady antropicznej regule, że Wszechświat musi być poznawalny i musi na pewnym etapie dopuścić do stworzenia w nim obserwatorów. Ponieważ istnieje wielka liczba ważnych i niepowiązanych ze sobą koincydencji, które umożliwiają życie we Wszechświecie, to życie musiało pojawić się w nim.
Różnicę między słabą i silną odmianą zasady antropicznej można przedstawić jeszcze tak: według pierwszej z faktu istnienia człowieka można wywnioskować wiele własności świata; według drugiej własności świata są takie, by mógł się w nim pojawić człowiek.
Zwolennicy zasady antropicznej przedstawiają bardzo wiele faktów ściśle dopasowanych do faktu życia człowieka:
A) dotyczące Wszechświata
• mocne oddziaływania jądrowe
— jeśli większe, to brak wodoru i niestabilność jąder atomów istotnych dla życia
— jeśli mniejsze, to istnieje tylko wodór
• słabe oddziaływania jądrowe
— jeśli większe, to zbyt wiele wodoru przekształci się w hel w trakcie Big Bangu, a przez to powstanie zbyt wiele pierwiastków ciężkich w trakcie spalania się gwiazd;
— jeśli mniejsze, to zbyt mało powstanie helu w trakcie Big Bangu, w rezultacie za mało pierwiastków ciężkich w spalaniu się gwiazd
• stała grawitacyjna
— jeśli za duża, to gwiazdy byłyby zbyt gorące i szybko by się spaliły
— jeśli za mała, to gwiazdy pozostałyby tak chłodne, że nigdy nie pojawiłaby się fuzja nuklearna i nigdy nie powstałyby pierwiastki ciężkie
• stosunek masy elektronu do protonu
— jeśli większy, to niewystarczające wiązania chemiczne
— jeśli mniejszy, to j.w.
• stosunek liczby protonów do liczby elektronów
— jeśli większy, to zjawiska elektromagnetyczne dominowałyby nad grawitacyjnymi, uniemożliwiając formowanie się galaktyk, gwiazd i planet
— jeśli mniejszy, to j.w.
• tempo ekspansji Wszechświata
— jeśli zbyt wielkie, to nie powstaną galaktyki
— jeśli za małe, to Wszechświat skolapsowałby, zanim pojawią się gwiazdy
• poziom entropii Wszechświata
— jeśli za duży, to brak kondensacji gwiazd wewnątrz protogalaktyk
— jeśli za niski, to nie formowałyby się protogalaktyki
• gęstość masy Wszechświata
— jeśli za wysoka, to w Big Bangu powstanie zbyt dużo deuteru, a przez to gwiazdy zbyt gwałtownie będą się wypalały
— jeśli za niska, to zbyt mało helu z Big Bangu, a przez to za mało ciężkich pierwiastków
• wiek Wszechświata
— jeśli W-t za stary, to brak gwiazd typu Słońca w stabilnej fazie we właściwej części galaktyki
— jeśli W-t za młody, to gwiazdy tego typu jeszcze by się nie uformowały
itd.
B) dotyczące Galaktyki, Słońca, Ziemi i Księżyca
• typ Galaktyki
• wybuchy supernowych
— jeśli zbyt blisko, to promieniowanie zniszczyłoby życie na planecie
— jeśli zbyt daleko: to niedostateczna ilość ciężkich pierwiastków dla formowania się planet skalistych
— jeśli zbyt rzadko, to niedostateczna ilość ciężkich pierwiastków dla formowania się planet skalistych
— jeśli zbyt często, to życie na planecie zostałoby zniszczone
— jeśli zbyt szybko, to niedostateczna ilość ciężkich pierwiastków dla formowania się planet skalistych
— jeśli zbyt późno, to życie na planecie zostałoby zniszczone
• podwójne układy białych karłów
— jeśli za mało, to brak fluoru koniecznego do życia
— jeśli za dużo, to orbity planetarne byłyby rozerwane przez zagęszczenie gwiazd
• odległość gwiazdy od centrum galaktyki
— jeśli zbyt daleka, to za mało ciężkich pierwiastków, by powstały skaliste planety
— jeśli zbyt mała, to promieniowanie galaktyki byłoby zbyt wielkie
• wiek Słońca
— jeśli zbyt duże, to zbyt szybko zmieniałaby się jasność Słońca
— jeśli zbyt małe, to także zbyt szybko zmieniałaby się jasność Słońca
• nachylenie osi Ziemi do płaszczyzny orbity
— jeśli zbyt wielkie, to różnice temperatur byłyby zbyt wielkie
• szybkość ucieczki z Ziemi
— jeśli większa, to w atmosferze pozostałoby zbyt wiele amoniaku i metanu
— jeśli mniejsza, to atmosfera planety traciłaby zbyt wiele wody
• odległość Ziemi od Słońca
— jeśli większa, to planeta byłaby za zimna
— jeśli mniejsza, to planeta byłaby za gorąca
• wiek
— jeśli większy, to planeta wiruje zbyt wolno
— jeśli mniejszy, to planeta wiruje zbyt szybko
• okres obrotu wokół osi
— jeśli dłuższy, to dzienne różnice temperatury byłyby zbyt wielkie
— jeśli krótszy, to zbyt wielkie byłyby prędkości wiatru atmosferycznego
• pole magnetyczne
• grubość płaszcza
• albedo powierzchni Ziemi (lodowacenie lub efekt cieplarniany)
• poziom dwutlenku węgla w atmosferze
— jeśli za duży, efekt cieplarniany
— jeśli za mały, rośliny byłyby niezdolne do wydajnej fotosyntezy
• poziom wody w atmosferze
• tempo wyładowań elektrycznych w atmosferze
• ilość ozonu w atmosferze
• istnienie Księżyca stabilizuje oś ziemską
• tempo zderzeń z asteroidami i kometami (istnienie Jowisza chroni Ziemię przed "atakami" meteorów)
itd.
Problem z filozoficzną interpretacją zasady antropicznej
Na marginesie: traktowane najczęściej jako dowcip prawo Murphy'ego (jeśli coś może się nie udać, to na pewno się nie uda — w różnych wersjach) też można wytłumaczyć stałymi fizycznymi ustalonymi w trakcie Big Bangu (np. dlaczego kromka spada ze stołu zawsze masłem na podłogę).
koncepcja wieloświata (nasz Wszechświat jest tylko jednym z wielu stale powstających wszechświatów o różnych własnościach fizycznych, np. stałe fizyczne przyjmują rozmaite wielkości) umożliwia utrzymanie słabej zasady antropicznej, ale są problemy z jej empirycznym charakterem.
literatura problemu teleologii i zasady antropicznej:
teleologia
Piotr Lenartowicz, Elementy filozofii zjawiska biologicznego]
Krajewski, Ontologia, rozdział IV. 1.
zasada antropiczna
Bolesław Rok, Człowiek w strukturze Wszechświata, "Człowiek i Światopogląd" 1988, nr 10, s. 4-19
John North, Historia astronomii i kosmologii, s. 415-419
John D. Barrow, Frank J. Tipler, The Anthropic Cosmological Principle
Michio Kaku, Hiperprzestrzeń. Wszechświaty równoległe, pętle czasowe i dziesiąty wymiar
Czas i przestrzeń
Absolutystyczne koncepcje przestrzeni
— obiektywistyczna
a) Demokryta — przestrzeń istnieje niezależnie od atomów, atomy są zanurzone w przestrzeni, która jest absolutną próżnią. Próżnia była odrębnym bytem, istniejącym niebytem, a istnieje, gdyż inaczej ruch nie byłby możliwy.
Koncepcja ta po odkryciu przez Guerickego próżni (1654 — półkule magdeburskie) stała się dominująca w czasach Newtona.
Newton odróżniał przestrzeń absolutną i względną, a w związku z tym ruch absolutny i względny. Przestrzeń nie jest poznawalna zmysłami. Zmysłami poznajemy jedynie przedmioty materialne, które wypełniają przestrzeń. Ciała te można uważać za układy odniesienia, względem których określamy położenie i ruch; tworzą one względną przestrzeń.
O istnieniu przestrzeni absolutnej świadczy deformacja ciała znajdującego się w ruchu względem przestrzeni absolutnej (doświadczenie z wiadrem wody na biegunie). Także powszechność geometrii Euklidesa: skoro tylko ona była możliwa, to własności przestrzeni nie zależą od ciał materialnych.
• przestrzeń absolutna, niezależna od ciał i będąca koniecznym warunkiem istnienia przedmiotów materialnych;
• nieskończony i nieograniczony pojemnik ciał;
• nie podlega rozszerzaniu się i kurczeniu;
• jest jednorodna i izotropowa;
• nieruchoma w całości i w częściach
Pogląd o istnieniu absolutnej przestrzeni został obalony dopiero przez doświadczenie Michelsona-Morleya (koniec 19 w.). Wynik tego doświadczenia został dopiero ujęty w fizyce relatywistycznej (szczególnej teorii względności: jedno z dwu podstawowych twierdzeń głosi, że prędkość światła jest stała w każdym układzie inercyjnym, a nie tylko w stosunku do hipotetycznego eteru).
b) subiektywistyczna
Kant
• rozróżnienie zdań analitycznych i syntetycznych oraz a priori i a posteriori, w konsekwencji problem „czy istnieją zdania syntetyczne a priori?”
zdaniami syntetycznymi a priori są twierdzenia geometrii (i matematycznego przyrodoznawstwa).
Przykład — suma kątów w trójkącie równa się 180o)
• sposób dowodzenia tego twierdzenia
• przykład Domalewskiego Rewelacji Naukowych (empiryczne sprawdzanie prawdziwości twierdzeń geometrii)
• próby Gaussa
Dwie własności świadczące o tym, że przestrzeń (i czas) są formami naoczności, podmiotowymi własnościami naszego umysłu, bez których nie można postrzegać rzeczy:
— przestrzeń nie jest wyobrażeniem empirycznym (nie da się jej wyprowadzić z doświadczenia zewnętrznego; jest odwrotnie: warunkiem doświadczenia zewnętrznego jest wyobrażenie przestrzeni)
— przestrzeń jest wyobrażeniem koniecznym, a priori (nie możemy sobie wyobrazić, że nie ma przestrzeni, natomiast możemy sobie przedstawić, że nie ma w niej żadnych ciał).
Geometrie nieeuklidesowe
— Łobaczewskiego (1826) i Bolyaia
— Riemanna (1854)
przykłady powyższego twierdzenia w tych geometriach
c) koncepcja konwencjonalistyczna
Odpowiedzią na istnienie wielu geometrii jest konwencjonalizm Poincarégo: to, jakiej geometrii używamy, jest sprawą umowy.
d) relacyjna koncepcja przestrzeni (Arystoteles, Leibniz, Einstein)
Ogólna teoria względności używa geometrii Riemanna. Utożsamia się tu linie proste (dokładniej: geodetyki) z drogą promienia świetlnego. Obserwacja zaćmienia Słońca (Eddington 1919) wykazała słuszność OTW.
Wykład 8 i 9 06 czerwca 2001.
różnica między Newtonowską i Einsteinowską teorią grawitacji
• Newton: istnieją masy, siły grawitacyjne, czas i przestrzeń; masa jest wewnętrzną własnością ciał, siła ciężkości zależy od (omówić wzór), czas i przestrzeń niezależne od istniejących w nich ciał.
• Einstein: Szczególna teoria względności (1905 r.) jest fizyczną teorią czasoprzestrzeni (pojęcie czasoprzestrzeni wprowadził w 1908 roku Herman Minkowski), jeśli się ją wypełni materią, pojawi się pole grawitacyjne. Czasoprzestrzeń STW jest płaska. Wprowadzenie materii odkształca czasoprzestrzeń. Ogólna teoria względności (1916 r.) jest teorią grawitacji. Geometria czasoprzestrzeni (ale czas i przestrzeń inaczej rozumiane niż u Newtona: efekty relatywistyczne — dylatacja czasu i kontrakcja odległości ze szczególnej teorii względności) determinuje ruchy grawitacyjne (dać obrazowe przykłady z płaszczyznami nieeuklidesowymi), a rozkład mas (ale masa inaczej rozumiana niż u Newtona: relatywistyczny przyrost masy) determinuje geometrię czasoprzestrzeni. Pole grawitacyjne okazuje się być krzywizną czasoprzestrzeni.
Związek przestrzeni i rozkładu mas w OTW.
Problem natury przestrzeni (euklidesowa czy nie?). Jeśli utożsamimy linie proste z drogą promieni światła, to prawdziwa jest geometria Riemanna. Jeśli jednak uznamy, że istnieją linie proste w sensie Euklidesa, to światło nie porusza się po linii prostej, a jego zakrzywienie jest wywołane pewnym działającym czynnikiem (siła uniwersalna). Można utrzymywać prostszą geometrię za cenę komplikacji systemy teoretycznego, lub przyjąć prostszy system teoretyczny sprzężony z bardziej skomplikowaną geometrią (fizycy wybrali to drugie rozwiązanie).
Przestrzeń (i czas) związane są z rozkładem mas. Dla Arystotelesa przestrzeń to tylko układ odległości między kontaktującymi się ciałami (Arystoteles odrzucał istnienie próżni). Podobnie Leibniz: przestrzeń to porządek współistnień, wzajemne rozmieszczenie indywidualnych ciał istniejących na zewnątrz siebie (podobnie: czas to porządek następstw).
Czy fizycy mają rację mówiąc, że w świecie obowiązuje geometria Riemanna?
a) „przekładalność” geometrii czystych (1869 E. Beltrami, dowód niesprzeczności geometrii Łobaczewskiego w systemie Euklidesa; obowiązuje to dla wszystkich geometrii)
rozróżnienie geometrii czystej i stosowanej
Rozważając dowolną geometrię można nie brać pod uwagę znaczeń terminów geometrycznych, a same terminy zastąpić znakami. Otrzymamy w ten sposób zbiór schematów zdaniowych. Schematy te można uporządkować w dedukcyjny system formalny tak, aby było możliwe wyprowadzenie wszystkich schematów z grupy aksjomatów, biorąc pod uwagę tylko logiczne stosunki między nimi. Jedynym zadaniem tak pojętej geometrii czystej jest wykrywanie logicznych konsekwencji aksjomatów. Nieistotne jest znaczenie terminów pozalogicznych. Uprawiając geometrię czystą odpowiada się więc na pytanie: czy zdania, uważane za twierdzenia systemu, logicznie wynikają z aksjomatów?
Geometria stosowana jest dyscypliną, starającą się wypowiadać materialnie prawdziwe twierdzenia o przedmiotach empirycznych, odpowiada więc na pytanie: czy aksjomaty i twierdzenia geometrii są faktycznie prawdziwe? Aby można było badać prawdziwość lub fałszywość różnych zdań, należących do systemu, terminy pozalogiczne, występujące w tych zdaniach (aksjomatach i twierdzeniach), muszą mieć określoną interpretację empiryczną, czyli być powiązane z określonymi przedmiotami empirycznymi lub ich elementami.
Geometrię stosowaną uprawiać może właściwie tylko fizyk (aksjomaty i twierdzenia mówią o przedmiotach, które można zinterpretować na drodze empirycznej). Natomiast do uprawiania geometrii czystej jedynym narzędziem jest umiejętność przeprowadzenia dowodu logicznego.
Geometria Łobaczewskiego-Bolyaia oraz geometria Riemanna różnią się od geometrii Euklidesa jedynie tzw. piątym postulatem, mówiącym (w sformułowaniu Playfaira) o tym, ile przez punkt nie leżący na danej prostej przechodzi prostych równoległych do niej. W geometrii Riemanna _ zero, w geometrii Euklidesa _ jedna i tylko jedna, w geometrii Łobaczewskiego _ nieskończenie wiele.
Wzajemna przekładalność geometryj
W jakim stosunku pozostają do siebie te odmienne systemy geometryczne? W 1869 E. Beltrami zinterpretował tak system Łobaczewskiego, że postulaty tego systemu w tej interpretacji stały się prawdziwymi twierdzeniami o prostych i krzywych na powierzchniach siodłowych w geometrii Euklidesa. Udowodnił on w ten sposób, że geometria Łobaczewskiego jest równie niesprzeczna co geometria Euklidesa. Również dla geometrii Riemanna można znaleźć prawdziwą interpretację w geometrii euklidesowej. Jak się okazało, każdy system geometryczny ma, i to wiele, prawdziwych interpretacji w każdym z pozostałych systemów geometrycznych.
Możliwość prawdziwej interpretacji jednego systemu geometrycznego w drugim świadczy o ich wzajemnej przekładalności. Pamiętając o tym, że każda geometria ma prawdziwą interpretację w każdej z pozostałych geometrii, można stwierdzić, że wszystkie one są formalnie nawzajem przekładalne. Różnice pomiędzy nimi są różnicami notacji (a więc np. „prosta” w geometrii Euklidesa ma to samo znaczenie, co „łuk koła wielkiego na kuli” w geometrii Riemanna itp.).
Teza o wzajemnej przekładalności geometrii dotyczy geometrii czystych, gdzie nieistotne jest znaczenie pozalogicznych terminów. Sprawa się jednak komplikuje, gdy mówimy o geometriach stosowanych.
b) konwencjonalność geometrii stosowanych
_ pewne elementy ciał materialnych określa się niezależnie od danej geometrii _ tylko jedna geometria jest empirycznie prawdziwa (chyba że wprowadzimy siły uniwersalne)
_ postulaty danej geometrii traktuje się jako definicje elementów ciał materialnych (tak zinterpretowana każda geometria jest empirycznie prawdziwa)
Która geometria jest prawdziwa?
Geometria stosowana wzięła swą nazwę stąd, że dzięki nadaniu określonego znaczenia terminom pozalogicznym może być zastosowana w naukach eksperymentalnych. Stosuje się ją na dwa sposoby.
Pierwszy sposób polega na tym, że pewne elementy ciał materialnych (krawędzie, powierzchnie) i układy tych ciał określa się niezależnie od danej geometrii. Następnie na drodze obserwacji wykazuje się, że przedmioty rzeczywiście spełniają (lub nie spełniają) aksjomaty danej geometrii (w granicach błędów obserwacji).
Drugi sposób stosowania geometrii w naukach empirycznych polega na tym, że postulaty danej geometrii traktuje się jako definicje przez postulaty elementów ciał materialnych. A więc żadnym układom fizycznym nie przyporządkowuje się określonych terminów teoretycznych, jeżeli nie spełniają one postulatów.
Jeśli stosuje się drugą z dwu wyżej wymienionych procedur, tzn. gdy aksjomaty poszczególnych systemów geometrycznych są traktowane jako definicje przez postulaty, gdy danym przedmiotom nadaje się nazwę dopiero wtedy, gdy spełniają one te definicje, to każda geometria jest prawdziwa. Znaczy to tylko tyle, że ten sam przedmiot jest różnie nazwany w różnych geometriach.
Jeżeli jednak uczeni postępować będą według pierwszej procedury, tzn. jeżeli pewne elementy lub układy ciał materialnych określać będą niezależnie od aksjomatów, to niewątpliwie prawdziwa może się okazać tylko jedna geometria. Jest tak dlatego, że przy stosowaniu takiej procedury wszystkie równobrzmiące zdania trzech systemów geometrii mają dokładnie to samo znaczenie, gdyż terminom występującym w tych zdaniach przyporządkowane są te samej przedmioty materialne. Wszystkie zaś różnobrzmiące zdania (np. twierdzenia o sumie kątów w trójkącie) mają znaczenia różne.
W tym sensie tylko jedna geometria jest prawdziwa.
c) relatywizm ontologiczny (istnienie sił uniwersalnych zależy od przyjętej geometrii)
Relatywizm ontologiczny
K. Ajdukiewicz zwrócił jednak uwagę, że nawet wówczas można bronić prawdziwości dowolnej geometrii. Jeśli bowiem fakty doświadczalne przeczą prawdziwości pewnego systemu geometrii, to dla jego ratowania można wprowadzić do systemu fizycznego taką hipotezę sił uniwersalnych, że fakty te nie będą już sprzeczne z danym systemem. Jako przykład można podać kwestię prostoliniowości promienia świetlnego. Fakt jego odchylenia się np. przy przechodzeniu obok Słońca może być tłumaczony dwojako: albo geometria przestrzeni jest nieeuklidesowa i promień świetlny porusza się po geodetyce, albo też geometria Wszechświata jest euklidesowa, a odchylenie zostało spowodowane jakimiś fizycznymi czynnikami zniekształcającymi. Ogólnie biorąc, w wypadku niezgodnego wyniku obserwacji można bądź zmienić geometrię, bądź też system fizyki.
Jakiego systemu fizycy będą używać (powiązanego z geometrią euklidesową czy też z jakąś inną), zależy od nich samych. Decyzji tej nie wyznaczają same fakty i logiczne rozumowanie. W przypadku stosowania prostszej geometrii fizyk musi używać bardziej skomplikowanego systemu fizykalnego, a jeśli woli mieć prostszy system fizykalny, sprząc go musi z bardziej skomplikowaną geometrią.
Relatywizm ontologiczny _ pogląd, iż od przyjętego systemu (np. języka, geometrii, teorii itp.) zależy ontologia świata.
V w. p.n.e. Protagoras i sofiści — relatywizm; człowiek jest miarą wszechrzeczy; relatywizm ontologiczny: przyroda zawiera w sobie nieskończenie wiele natur, także sprzecznych
2
W omawianym przypadku od przyjętej geometrii zależy, czy przyjmiemy (lub odrzucimy) istnienie pewnego rodzaju sił uniwersalnych. [Wysuwa się też szereg filozoficznych zarzutów wobec wprowadzania sił uniwersalnych: niezgodność z brzytwą Ockhama, hipoteza ad hoc, nieweryfikowalność].
Koncepcje czasu
Absolutystyczne koncepcje
• obiektywistyczna (Newton) — czas jest bytem, substancją istniejącą niezależnie od świata materialnego, niezależnie biegnącym równomiernie i jednostajnie w każdym zakątku Wszechświata.
• subiektywistyczna (Kant) — czas jest aprioryczną formą naoczności, podmiotową kategorią oglądu, nie można jej wyeliminować ani zmienić na inną.
Koncepcja absolutystyczne upadły wraz z pojawieniem się teorii względności. Najpierw STW postulowała szereg tzw. efektów relatywistycznych (dylatacja czasu, zależność tempa upływu czasu od prędkości), potem ogólna teoria względności połączyła czas i przestrzeń w czterowymiarową czasoprzestrzeń i uzależniła ją od rozkładu mas (geometria czasoprzestrzeni odchyla się od pseudoeuklidesowej tym bardziej, im więcej masy jest w danym rejonie)
• relacyjna (Arystoteles, Leibniz, Einstein) — czas jest porządkiem zdarzeń, czasu nie ma tam, gdzie nie ma rzeczy i zdarzeń; istnieje ścisły związek czasu i świata materialnego.
Ruch
Czas jest ściśle związany z ruchem w relacyjnej koncepcji czasu, gdyby nie było ruchu, nie byłoby czasu.
W historii myśli rozmaicie pojmowano ruch
Eleaci: Parmenides (6-5 w. p.n.e.) — argument przeciwko ruchowi
Zenon z Elei (5 w. p.n.e.) — cztery aporie: dychotomia, Achilles, strzała, stadion
AAAA AAAA
BBBB BBBB
CCCC CCCC
Demokryt: ruch to przemieszczanie się ciał w przestrzeni (ruch lokalny, mechaniczny)
dzisiaj: ruch to wszelka zmiana (od Arystotelesa)
Problem źródła ruchu
Początkowo nie rozłączano ruchu i materii, traktując ruch jako własność immanentną materii (materia z natury swojej miała być zmienna). Oddzielił materię i ruch (siłę) po raz pierwszy Empedokles (5 w. p.n.e.), ale obie jego siły, miłość i niezgoda, istniały w świecie. Anaksagoras jednak umieścił źródło ruchu (ducha) poza przyrodą, co było oryginalnym wkładem Anaksagorasa (dotychczas Grecy rozumieli bogów jako istniejących w świecie). Duch Anaksagorasa nie był osobą i miał materialny charakter; akcję ducha ograniczył do poruszenia świata, odkąd świat został poruszony, duch przestał działać.
Ta idea zewnętrznego wobec świata Pierwszego Poruszyciela została następnie rozwinięta przez Arystotelesa i przejęta przez św. Tomasza z Akwinu (najbardziej znana "droga" ex motu).
Strzałka czasu i teoria śmierci cieplnej Wszechświata
Czas biegnie w jednym kierunku, od przeszłości do przyszłości. Dlaczego tak jest, to jest problem strzałki czasu.
Wszystkie prawa fizyki są całkowicie symetryczne ze względu na kierunek biegu czasu. Na przykład ruch planet można opisywać równie dobrze „do przodu” jak i „do tyłu” (uczeni potrafią przewidywać układy ciał niebieskich w przyszłości oraz w przeszłości). Żadne prawo fizyki nie wyróżnia jednego kierunku biegu czasu. Żadne, za wyjątkiem termodynamiki.
Termodynamika jest nauką o związkach między ciepłem a ruchem mechanicznym. Powstała w XIX w., głównie dzięki pracom Sadi Carnota, który w 1824 roku sformułował drugą zasadę termodynamiki. W latach 1850-1865 Clausius dokonał dalszych uściśleń i wprowadził funkcję zwaną entropią.
Podstawowe pojęcia:
• układ izolowany — układ, którego oddziaływanie z otoczeniem jest tak słabe, że można je pominąć
• stan układu — położenia i pędy cząstek
mikroskopowy — w zasadzie nieobserwowalny (położenia i pędy indywidualnych cząstek)
makroskopowy — to, co możemy zaobserwować (nieważne jest, która indywidualna cząstka się gdzie znajduje)
• prawdopodobieństwo układu (najbardziej prawdopodobne są stany rozproszenia, równomiernego rozłożenia cząstek)
• entropia — miara rozproszenia energii cieplnej (mała entropia jest oznaką dużej koncentracji energii, duża — wyrównywania się temperatur)
• pierwsza zasada termodynamiki — (zwykła zasada zachowania energii zastosowana do zjawisk cieplnych) energia wewnątrz układu może wzrosnąć tylko dzięki dopływowi energii z otoczenia; nie można zbudować urządzenia, które pracowałoby bez pobierania energii z zewnątrz (perpetuum mobile pierwszego rodzaju)
• druga zasada termodynamiki — nie da się zbudować takiego urządzenia, które całą pobraną energię zmieniłoby w pracę (perpetuum mobile drugiego rodzaju) albo inaczej: żaden proces przebiegający w układzie zamkniętym nie może prowadzić do zmniejszania się entropii; entropia wzrasta
W drugiej połowie XIX wieku Clausius nadał ostateczny kształt tzw. drugiej zasadzie termodynamiki. Zasada ta głosi, że w cieplnym układzie zamkniętym temperatura dąży do wyrównania. Badając procesy cieplnej Clausius stwierdził, że w trakcie pracy silnika cieplnego przy przechodzeniu energii cieplnej z kotła do chłodnicy tylko część tej energii, która wydobywa się z kotła, przekształca się w pracę, reszta zaś przechodzi do chłodnicy, nie wykonując żadnej pracy. Ciepło, które przeszło do chłodnicy, nie może już powrócić do kotła. Jeśli taki układ cieplny byłby zamknięty, odizolowany od otoczenia, to po pewnym czasie temperatura w nim wyrównałaby się i samorzutnie nie mogłaby się zróżnicować. Stopień wyrównywania się temperatury w cieplnych układach zamkniętych nazywa Clausius entropią. Według Clausiusa w układzie izolowanym mogą przebiegać samorzutnie tylko takie procesy, którym towarzyszy wzrost entropii układu, i to do takiego stanu, przy którym entropia osiąga maksimum dla badanych warunków.
Prawo wzrostu entropii może służyć jako wskaźnik kierunku upływu czasu (wcześniejsze są te chwile, w których entropia była mniejsza).
Śmierć cieplna Wszechświata
Skoro energia we Wszechświecie dąży do maksymalnego wyrównania, to po pewnym czasie ustanie wszelki ruch, nastąpi tzw. śmierć cieplna Wszechświata.
Wniosek: świat nie może istnieć odwiecznie, bo śmierć cieplna Wszechświata już dawno by nastąpiła. Znaczenie filozoficzne tego wniosku.
Krytyka teorii śmierci cieplnej
Statystyczna interpretacja termodynamiki (Boltzmann, Smoluchowski). Ciepło to energia kinetyczna cząsteczek. Przepływ ciepła od jednego ciała (np. pokoju) do drugiego podlega prawom statystycznym: bardziej prawdopodobny jest wzrost entropii, ale procesy antyentropijne (fluktuacje) też są prawdopodobne, tyle że stopień prawdopodobieństwa jest niewielki. Boltzmann uważał, że Wszechświat istnieje odwiecznie i że stale zdarzają się w nim fluktuacje (teoria wiecznych powrotów). Żyjemy w takim okresie, gdzie nastąpiła olbrzymia fluktuacja. Smoluchowski fluktuacjami gęstości powietrza wyjaśniał np. błękitną barwę nieba.
Ograniczenie tej koncepcji: prawdopodobieństwo procesów antyentropijnych szybko maleje wraz z liczbą rozpatrywanych cząsteczek. Uznanie, że cały obserwowany świat jest gigantyczną fluktuacją wymaga uznania wieczności świata. Czy świat jest wieczny? Na to pytanie jednak odpowiada inny dział nauki — kosmologia.
Problem nieskończoności przestrzennej i czasowej Wszechświata
Kosmologia — nauka o strukturze i ewolucji Wszechświata.
Zachodnią kosmologię zapoczątkowali Grecy. Według Arystotelesa (4 w. p.n.e.) Pierwszy Motor (poruszający ale nie poruszany) wprowadza niebiosa w doskonały i wieczny ruch. Słońce, Księżyc, planety i gwiazdy znajdują się na ośmiu kryształowych sferach obracających się wokół Ziemi, która znajduje się w ich centrum. Cała materia zbudowana jest z czterech elementów: ziemi, wody, powietrza i ognia. Sfery zbudowany są z piątej esencji (kwintaesencja), doskonałej substancji, która nie ulga zniszczeniu, ani też nie można jej przekształcić w żadną inną. Grecy nazywali ją eterem. Kosmologii tej nadał astronomiczny wyraz Klaudiusz Ptolemeusz (aleksandryjski astronom z II w. n.e., Almagest): system deferensów, epicyklów, ekwant.
Kopernik 1543 — system heliocentryczny, potem teoria Newtona (1687, Philosophiae naturalis principia mathematica) i w końcu — Einsteina (1905 i 1916).
Możliwość istnienia rozległego, być może nieskończonego wszechświata rozważał Anglik, Thomas Digges w 1576 r. Podobnie Giordano Bruno (spalony 1600) głosił istnienie niezliczonej liczby słońc i niezliczonej liczby ziem.
Nieskończoność Wszechświata zaakceptowano w newtonowskiej wizji świata. Jednak nieskończoność ta prowadzi do pewnego paradoksu, na który wskazał Richard Bentley (1692): wszystkie gwiazdy powinny spaść na siebie i utworzyć gigantyczną kulę ogniową. Newton bronił się koncepcją równomiernego rozmieszczenia gwiazd w nieskończonej przestrzeni. Ponieważ układ taki byłby niestabilny, Newton postulował działanie "siły boskiej", która gwarantowałaby pozostawanie w równych odległościach bez żadnego ruchu. Zakładał więc statyczność Wszechświata.
OTW umożliwia przyjęcie poglądu, że Wszechświat jest skończony przestrzennie, chociaż nieograniczony. Dane obserwacyjne wskazują także, że nie jest odwieczny.
Paradoksy kosmologiczne
• Olbersa 1826 r. (fotometryczny) — jasność wszystkich gwiazd, nakładając się na siebie, powinna sprawiać świecenie całego nocnego nieba jednostajnym blaskiem; jednak wieczorne niebo jest ciemne i tylko z rzadka usiane gwiazdami. Sam Olbers ciemność nocnego nieba tłumaczył istnieniem bardzo rozrzedzonego (a więc trudnego do zaobserwowania) gazu absorbującego promieniowanie gwiazd, ciemnej materii pochłaniającej promieniowanie dalekich gwiazd. Rozwiązanie było niezadowalające, gdyż po pewnym czasie gaz ten podgrzeje się tak znacznie, że zacznie emitować tyle energii, ile go pochłania.
• Seeligera (grawimetryczny) — jeżeli gwiazdy są równomiernie rozłożone w nieskończonej przestrzeni, to potencjał grawitacyjny w żadnym punkcie Wszechświata nie powinien mieć określonej wielkości; jednak potencjały grawitacyjne w każdym punkcie przestrzeni są dobrze określone.
W ramach geometrii Euklidesa rozwiązaniem paradoksu Olbersa może być idea, że jeśli Wszechświat jest odwieczny i statyczny, to rozwiązaniem jest
• Wszechświat hierarchiczny Charliera (w miarę gdy bierzemy pod uwagę coraz większe obszary Wszechświata, średnia gęstość materii maleje). Idea wszechświata hierarchicznego niezgodna jest jednak z tzw. zasadą kosmologiczną — założeniem, że rozkład materii we Wszechświecie jest jednorodny i izotropowy (przy odpowiednio dużej skali nie ma w nim miejsc ani kierunków wyróżnionych). Zasada kosmologiczna jest przekonaniem filozoficznym: świat powinien być prosty, jeśli oglądamy go w wystarczająco dużej skali.
i • Wszechświat wyspowy (też niezgodny z zasadą kosmologiczną)
Ale Wszechświat może nie być odwieczny i statyczny.
• Wszechświat jest młody (rozwiązanie Edgara Allana Poe, poety i pisarza): jeśli Wszechświat miał początek w czasie, to ze względu na skończoną prędkość światła, promieniowanie bardzo odległych gwiazd jeszcze do nas nie dotarło;
lub • Wszechświat się rozszerza (efekt Dopplera). Jeśli długość fali rośnie (częstość maleje), to maleje też energia, bo E=h.
Obserwacje wskazują na
Rozszerzanie się Wszechświata
a) red-shift
Ok. 1912 r. Slipher zaczął fotografować widma mgławic (tak nazywano niewyraźne, zagadkowe twory na niebie; szef Sliphera, Lowell, podejrzewał, że są to obłoki pyłu i gazu, z których z czasem powstają nowe układy planetarne). Widmo światła powstaje po rozdzieleniu się go, przy przechodzeniu przez pryzmat, na kolory składowe. W widmie obserwuje się ciemne, cienkie linie (linie Fraunhofera, linie absorpcyjne). Powstają one wskutek absorpcji światła o pewnych określonych częstościach fal przez chłodniejszy gaz, np. atmosferę gwiazdy. Okazało się, że linie te są przesunięte w przypadku mgławicy Andromedy w kierunku niebieskiego krańca widma, w innych — w kierunku czerwieni. Przesunięcie to tłumaczy się tzw. efektem Dopplera (kiedy źródło fal, np. dźwiękowych, porusza się ku nam, każdy nowy grzbiet fali powstaje bliżej nas, niż gdyby źródło stało). Barwa czerwona ma mniejszą częstość, przesunięcie ku czerwieni oznacza oddalanie się galaktyk. Wielkość przesunięcia ku czerwieni, a zatem i prędkość oddalania się od nas galaktyk, zależy od ich odległości: v=Hr (prawo Hubble'a). H jest stałą Hubble'a, a jej odwrotność ma wymiar czasu T=1/H i jest tzw. wiekiem Wszechświata (informuje, ile czasu upłynęło od chwili, gdy wszystkie galaktyki były w jednym punkcie.
b) izotropowe promieniowanie tła
1965 r. Penzias i Wilson oraz Dicke i Peebles. Przestrzeń Wszechświata jest wypełniona jednostajnie promieniowaniem elektromagnetycznym (promieniowaniem reliktowym lub promieniowaniem tła). W promieniowaniu tym przeważają fale o długościach milimetrowych. Odpowiada ono promieniowaniu ciała doskonale czarnego o temperaturze 2,7 K. Promieniowanie tła jest izotropowe.
Przestrzeń jest więc izotropowa, a ponadto zgodnie z zasadą kosmologiczną żaden punkt przestrzeni nie jest wyróżniony, czyli jednorodna. Przesunięcie ku czerwieni widm galaktyk oraz izotropowe promieniowania tła jest zgodne z hipotezą rozszerzającego się Wszechświata, tzw. hipotezą Big Bangu.
Modele kosmologiczne
Przy konstruowaniu modeli kosmologicznych korzysta się z równań pola (mówiących jak geometria czasoprzestrzeni oddziałuje z rozkładem mas, energii i pędów) oraz z założeń na temat geometrii czasoprzestrzeni i rozkładu materii we Wszechświecie.
_ statyczny model Einsteina (1917) ponieważ równania pola dopuszczały modele niestatyczne, ekspandujące lub kurczące się, Einstein dodał tzw. człon kosmologiczny zawierający pewną stałą [stałą kosmologiczną], który zapewnił statyczność Wszechświata. Był to model o zamkniętej przestrzeni — Wszechświat miał być skończony choć nieograniczony [omówić te cechy].
_ model de Sittera (1917) model pusty, bez materii (średnia gęstość materii we Wszechświecie jest mniejsza, niż najlepszej próżni uzyskiwanej laboratoryjnie na Ziemi). Był to model ekspandujący, tzn. dwie cząstki próbne wrzucone do modelu zwiększają odległość między sobą; przestrzeń w modelu de Sittera rozszerza się (tę własność świata de Sittera odkrył Lemaître).
Model Einsteina był statyczny, ale za cenę sztucznych założeń; był ponadto niestabilny, niewielkie zaburzenie mogło wytrącić świat Einsteina ze stanu statycznego i zapoczątkować jego kurczenie się lub rozszerzanie.
_ model Lemaître'a (1927) pośredni między modelami Einsteina i de Sittera: w minus nieskończoności Wszechświat był statyczny (jak u Einsteina), z czasem rozpoczyna się ekspansja i w plus nieskończoności model przechodzi w pusty świat de Sittera. Model wyjaśniał obserwowane przesunięcie ku czerwieni i proporcjonalność tego przesunięcia do odległości (prawo Hubble'a).
Idea początku świata w kosmologii pojawiła się w 1931 roku w notatce Lemaître'a. Była to hipoteza pierwotnego atomu: cała energia Wszechświata była upakowana w jednym kwancie. Pierwotny atom Lemaître'a nie miał zerowego promienia, lecz kilka minut świetlnych (jak np. odległość Ziemi od Słońca). Był on niestabilny i rozpadał się na fragmenty, również radioaktywne, tworząc kolejne pokolenia ciał radioaktywnych. Podział ten zatrzymał się dopiero na pierwiastkach trwałych. Panowały wówczas w nim olbrzymie ciśnienie i temperatura. Później zaczęto jednak mówić o tzw. osobliwości, kiedy objętość zmierza do zera, a gęstość do nieskończoności. Prawa fizyki przestają w osobliwości obowiązywać. W 1933 roku Lemaître wykazał także, że osobliwość musi się pojawić i w modelach anizotropowych (30 lat później Hawking i Penrose udowodnili, że osobliwość jest bardzo mocno związana z matematyczną strukturą ogólnej teorii względności i nie da się jej uniknąć). Początek Wszechświata był gwałtowny, był eksplozją, Wielkim Wybuchem (Big Bangiem — termin początkowo ironiczny, potem przyjął się na serio). Lemaître przewidział istnienie promieniowania resztkowego, które mylnie utożsamiał z promieniowaniem kosmicznym. Precyzyjnie istnienie tego promieniowania przewidział potem Gamow, a odkryte zostało na początku lat sześćdziesiątych.
_ kosmologia stanu stacjonarnego (1948) Fred Hoyle, Herman Bondi i Tomasz Gold przyjęli tzw. doskonałą zasadę kosmologiczną: Wszechświat wygląda tak samo nie tylko z każdego punktu w przestrzeni, ale i w każdym momencie czasu. Wszechświat się rozszerza, nie jest statyczny, ale jest stacjonarny. Na miejsce oddalających się galaktyk tworzą się nowe z nowopowstającej materii z niczego (Gold: jeśli materia mogła raz powstać z niczego, to może stale z niczego powstawać jako prawo przyrody). Tempo stwarzania wynosi jedna cząstka o masie protonu na jeden litr objętości w czasie miliarda lat. Była to wielkość zbyt mała, by można ją było wykryć eksperymentalnie. Kosmologia stanu stacjonarnego upadła po odkrycia reliktowego promieniowania tła.
_ model oscylującego Wszechświata (Tolman 1932); po okresie kurczenia się następuje ekspansja. Teraz znajdujemy się w okresie ekspansji. Jednak model ten ma charakter spekulatywny, ponieważ w osobliwości parametry przybierają takie wielkości, że fizyka przestaje być stosowalna. Nie można przewidzieć, co było przed osobliwością i co będzie po niej.
Problem „czy świat miał początek?” zakłada, że istnieje czas kosmologiczny, jeden dla całego Wszechświata. W niektórych modelach kosmologicznych tak jest, ale nie we wszystkich. Na przykład gdy zachodzi zjawisko kolapsu grawitacyjnego, to musi się on zakończyć osiągnięciem osobliwości: zapadnięciem się całej masy do jednego punktu. Proces ten w czasie mierzonym w układzie odniesienia współkolapsującym z rozważaną masą trwa skończony okres czasu, natomiast w czasie mierzonym w układzie odniesienia obserwującym proces kolapsu z zewnątrz, proces ten trwa nieskończenie długo.
Pierwotną osobliwość kreacjoniści interpretują jako akt stworzenia. Zwolennicy interpretacji materialistycznej zaś uważają, że jest to wyróżniona chwila w dziejach Wszechświata. Przedtem Wszechświat też istniał, ale nie możemy zbadać, jak wyglądał.
Koncepcja wieloświata (np. Michio Kaku): stale powstają rozmaite Wszechświaty o najrozmaitszych własnościach, np. posiadające rozmaite stałe fizyczne. Niektóre z nich nie mają szans na pojawienie się życia. Nasz akurat ma. W ten sposób tłumaczy się obowiązywanie tzw. zasady antropicznej: Wszechświat ma akurat takie własności, że może w nim istnieć życie i pojawić się świadomość. Silne rozumienie zasady antropicznej: Wszechświat ma takie własności dlatego, by mogło pojawić się życie i człowiek (sugeruje się tu stworzenie). Słabe rozumienie zasady antropicznej: gdyby Wszechświat miał inne własności, to nie moglibyśmy tego zaobserwować, gdyż nas by nie było.
Literatura:
czas i przestrzeń
Cackowski, Głowne zagadnienia...
Heller, Kosmiczna przygoda... (2-4)
Krajewski, Ontologia (r. III)
Kazimierz Ajdukiewicz, Konwencjonalne pierwiastki w nauce, w: tenże, Język i poznanie, t. 2.
Ernest Nagel, Struktura nauki, rozdział 8 i 9.
Clifford A. Pickover, Czas
Bażenow, Morozow, Słucki, Filozofia nauk przyrodniczych (r. 4)
Stanisław Mazierski, Elementy kosmologii filozoficznej i przyrodniczej (r. 3, 5 i 7)
ruch i teoria śmierci cieplnej Wszechświata
Krajewski, Ontologia (r. I)
Bażenow, Morozow, Słucki, Filozofia nauk przyrodniczych (r. 3)
Mazierski, Elementy kosmologii... (r. 4)
nieskończoność przestrzenna i czasowa Wszechświata
Mazierski, Elementy kosmologii... (r. 8)
Andrew Liddle, Wprowadzenie do kosmologii współczesnej
John D. Barrow, Początek Wszechświata
Heller, Kosmiczna przygoda...
Włodzimierz Zonn, Kosmologia współczesna
John Gribbin, Kosmologia
— 28 —