FILOZOFIA PRZYRODY
Prof. dr hab. Marian Grabowski
WYKŁAD XXV i XXVI
Przyjrzyjmy się teraz kategorii możliwości i temu, co się z tą kategorią stanie w nowożytnym przyrodoznawstwie, gdy zostanie włączony opis ilościowy.
Charakterystyczne jest tutaj takie zawężenie kategorii. Jeśli kategoria formy substancjalnej odnosiła się w sensie metafizycznym do wszystkiego, do jakiegokolwiek bytu, a kategoria prawidłowości naturalnej zostaje ograniczona tylko do reguł, które rządzą światem przyrody nieożywionej, to bardzo podobna sytuacja ma miejsce i tutaj. Rozmaite potencje, możliwości, które stoją u Arystotelesa, przestają interesować przyrodników nowożytnych i zostaje ograniczona ta kolekcja możliwości do takich bardzo prostych, czyli takich, które generalnie wszystkie są takie same. W jakim sensie? A no takim, że jak ktoś się uczył jakichś elementów rachunku prawdopodobieństwa, to mamy takie kolekcje możliwości jak możliwość wyciągnięcia jakiejś karty z talii 56 kart. Mamy talię 56 kart i zastanawiamy się, jakie jest prawdopodobieństwo wylosowania Asa z tych kart. Wówczas zakłada się, że ta talia jest nieoszukana, że wszystkie te zdarzenia, które mają tutaj miejsce, są równo prawdopodobne. Podobnie jak prawdopodobieństwo wyrzucenia określonej liczby oczek jak się gra w kości, czy szansa wygrania w ruletkę, to wszystkie te kolekcje możliwości robi się przy założeniu, że wszystkie te zdarzenia są równo prawdopodobne. Kości są nieoszukane, ruleta jest też taka, że zatrzymuje się z równym prawdopodobieństwem na wszystkich polach. Powiada się, że rządzi tutaj zasada dostatecznej racji. Znaczy to, że przyjmujemy równe prawdopodobieństwa zdarzeń, gdy nie ma powodu by sądzić, że nie można tak zrobić. W tym sensie ta zasada tutaj tak funkcjonuje.
Prawdopodobieństwo La Place'a określa się w taki sposób:
No i jakie jest prawdopodobieństwo wylosowania Asa z talii 56 kart? Jest ono takie:
Dostajemy opis ilościowy w sensie, że pojawia się pojecie prawdopodobieństwa i kolekcja możliwości zostaje zawężona nie do jakichś potencjalności związanych z ludzkim życiem, czy jeszcze coś innego, tylko mamy takie bardzo prościutkie zbiory możliwości.
Pojęciem takim, które ten ilościowy charakter oddaje kategorii w tym nowym ujęciu, jest właśnie pojęcie prawdopodobieństwa.
Jak się patrzy na tą definicję, to widać wyraźnie, że jest to pojęcie ograniczone do skończonej kolekcji, do takiego zbioru, gdzie liczba możliwości jest skończona. Jak rachunek prawdopodobieństwa rozwijał się w XIX w., to pojawiły się rozmaite paradoksy.
Zatrzymajmy się na chwilę nad paradoksem Bertranda, bo jest to paradoks, który miał znaczenie w rozwoju rachunku prawdopodobieństwa.
Na czym on polega?
Wyobraźmy sobie, że mamy wpisany w okrąg trójkąt równoboczny i teraz pytamy się, jak wygląda prawdopodobieństwo tego, że dowolnie wybrana cięciwa tego koła, którego promień znamy, będzie większa od boku tego trójkąta równobocznego?
Jak określić tutaj zbiór wszystkich zdarzeń możliwych? Ich może być przecież nieskończenie wiele. Tych cięciw można narysować całe mnóstwo. Trzeba wybrać jakąś miarę tego, że ta cięciwa jest większa od tego boku trójkąta. W zależności od tego, jakie miary wybierzemy, to się okazuje, że te wartości prawdopodobieństw będą odmienne.
Powiedzmy, że pierwszy sposób rozumowania jest taki, że określamy tą odległość cięciwy od środka okręgu, ona może zmieniać się od tego, że będzie promieniem, czy po prostu średnicą tego koła, aż po taką sytuację, że będzie styczną, czyli będzie 0. Ta odległość cięciwy od środka będzie się zmieniała od 0 do R:
Możemy potraktować sobie to R jako miarę wszystkich zdarzeń możliwych. Wszystko co się może zdarzyć, będzie się gdzieś tutaj znajdować. Miarą zdarzeń sprzyjających będzie ten odcinek
R. Jak przez ten odcinek będzie przechodzić cięciwa,, to zawsze będzie większa od tego boku.
Można policzyć, że ta odległość boku trójkąta jest równa właśnie
R. Można określić prawdopodobieństwo jako stosunek tych 2 miar.
Spróbujmy teraz rozumować nieco inaczej. Jako tą miarę nie będziemy brać sobie długości cięciwy od środka okręgu, tych rozważmy kąt, który jest oparty na tej cięciwie.
Powiedzmy, że mamy cięciwę większą od R i pytamy się o to, jak wygląda kąt taki, że on jest oparty o tą cięciwę.
Zastanówmy się teraz, jaki jest zakres wartości, jakie ten kąt α może przyjmować. Znowu mamy taką ekstremalną sytuację, że cięciwa jest styczną, czyli mamy punkt 0, wówczas ten kąt jest 180o
Trzeba znowu umieć wskazać, jak wygląda ten kąt α dla tych cięciw większych od boku trójkąta. Okazuje się tutaj że to α zmienia się między:
Kąt oparty o bok trójkąta równobocznego można obliczyć, że ma 120o.
Jak policzymy tutaj prawdopodobieństwo, to nam wyjdzie coś innego:
Widzimy, że nie jest to miara jednoznaczna.
Jak z tym problemem prawdopodobieństwa sobie poradzić? Z jednej strony, patrząc na to z takiej perspektywy czysto matematycznej, to rozwiązanie się rysuje dosyć prosto. Jak się chce mówić o zagadnieniach prawdopodobieństwa, to trzeba zawsze wskazać, jak wygląda zbiór możliwości i miara prawdopodobieństwa, którą trzeba zadać w taki aksjomatyczny sposób. Że ja określę, że miara w pierwszym przypadku jest określana tak, w drugim inaczej, zbiór możliwości jest określony w jednym wypadku ta, w drugim inaczej i matematyk nie ma wtedy takiego dyskomfortu, że pojawiają się takie różne wyniki, dotyczące jakby tego samego problemy. Bo jak od początku przyjmę taką a nie inną miarę prawdopodobieństwa, to żadna sprzeczność logiczna się nie pojawia.
W sensie matematycznej teorii prawdopodobieństwa tak się rzeczywiście stało, że jak w 1933r. matematyk rosyjski podał taką aksjomatyczną definicję prawdopodobieństwa, to definitywnie takie matematyczne rozważania o prawdopodobieństwie znalazły się na prostej.
Natomiast z punktu widzenia fizykalnego, sprawa ciągle jest interesująca. Ciągle jest pytanie o to, czym naprawdę prawdopodobieństwo jest znaczące? Wielorakość wyników w tym paradoksie nie cieszy fizyka, bo on chce ten opis ilościowy odnieść do konkretu sytuacji. Ten konkret sytuacji jest jakiś. Nie może być, że jest raz tak, a raz tak. W związku z powyższym, sprawa tego, czym to prawdopodobieństwo naprawdę jest i jaki jest związek tych wybieranych przez matematyka, aksjomatycznie zadawanych miar probabilistycznych z rzeczywistością świata, to ciągle jest interesujące. Można oczywiście myśleć, że to jest taka subiektywistyczna interpretacja prawdopodobieństwa, że prawdopodobieństwo jest jakoś związane z siłą moich przekonań, że coś jest ta a nie inaczej. Że każdy człowiek, jak nie ma pełnej informacji o świecie, to będzie mówił, że zajście jakiegoś zdarzenia ma duże albo małe prawdopodobieństwo. W tym sensie pojęcie prawdopodobieństwa jest subiektywne i co kto będzie tam uważał, to jego sprawa.
Ale sprawa nie jest taka prosta, bo to, z czego to prawdopodobieństwo wyrosło, te próby szacowania szansy wygrania w różnego typu grach hazardowych, nie można prawdopodobieństwa traktować w czysto subiektywny sposób, że ono w istotny sposób wiąże się ze strukturą świata.
Tutaj spójrzmy na zadanie Buffona o igle. Na czym ono polega?
Hrabia Buffon to był taki francuz, który miał wiele pieniędzy, nie musiał troszczyć się o to, aby zarobić pieniądze na chleb, więc zajmował się w tym czasie nauką. Miał choćby zaciekawienia natury matematycznej i wtedy chwyciło go takie zadanie, które można bardzo prosto sformułować, a i uzyskanie odpowiedzi na nie nie jest zbyt trudne.
Wyobraźmy sobie taką sytuację, że mamy poliniowany papier w taki sposób, że linie są równoległe i jest ustalona odległość między tymi liniami (ciągle taka sama - L). Rzucamy teraz na tą płaszczyznę igłę o długości l. Igła będzie spadać w różne miejsca, różne będzie jej położenie.
Możemy zadać pytanie, jakie jest prawdopodobieństwo tego, że ta igła przetnie którąś z tych linii równoległych?
Sposób rozwiązania jest taki sam jak uzyskanie prawdopodobieństwa w paradoksie Bertranda. Trzeba określić jakieś miary wszystkich zdarzeń możliwych i wszystkich zdarzeń sprzyjających.
Wynik mianowicie wychodzi taki:
p=
Wynik stanie się interesujący jeśli chodzi o to związanie rozważań, czy jakąś miarę przyjmujemy z rzeczywistością z powodu liczby
. Możemy potraktować to zadanie w taki sposób, że wyliczymy sobie liczbę
. Można zrobić taki eksperyment, że poliniujemy sobie papier tak jak w tym zadaniu z jakąś tam odległością, weźmiemy igłę, zmierzymy jej długość i dokonamy jakiejś ilości rzutów. Będziemy wtedy zliczali, że jak np. wykonałem 100 rzutów, to na te 100 rzutów 30 było tych zdarzeń sprzyjających, że igła znalazła się akurat na którejś z linii. Jeśli z tego wzoru wyliczymy
, to się okaże, że przy dostatecznie dużej ilości rzutów, rzeczywiście dostaniemy 3,14, coś koło tego.
Liczba
pojawiła się w matematyce bez żadnego związku z prawdopodobieństwem, wyrachowywana była w różny sposób. Znajomość prawdopodobieństwa pozwala nam obliczyć jednak tą liczbę, która jeśli chodzi o jej naturę, to nie ma natury probabilistycznej. Jest to po prostu jakaś liczba. Nie ma w niej nic mowy o żadnym prawdopodobieństwie.
Jednak my znając pewne prawdopodobieństwa, potrafimy zyskiwać wiedzę o pewnych wielkościach fizycznych. Prawdopodobieństwo jest drogą do tego, aby się czegoś o rzeczywistości dowiedzieć, jaka ona jest. Dowiedzieć się w takich miejscach, gdzie już nie o prawdopodobieństwo chodzi, ale chodzi o jakąś konkretną wielkość, którą mogę dzięki tym rozważaniom probabilistycznym rozpoznać. Jeśli w taki sposób myślimy o prawdopodobieństwie, to wyraźnie widać, że sprawa w pewnym sensie dowolności tej wielkości jest niepokojąca. Od czegoś, co jest dowolne dojść do pewnej wiedzy o rzeczywistości zdaje się nie możliwe. A jednak.
Niemniej tak się rzeczy mają, że prawdopodobieństwo pojawia się jakby na 2 sposoby:
- prawdopodobieństwo w sensie apriorycznym
- prawdopodobieństwo aposteriorycznym
Co te pojęcia oznaczają? Dobrym przykładem prawdopodobieństwa apriorycznego jest to prawdopodobieństwo wylosowania Asa z talii 56 kart. Zanim zacznę przeprowadzać eksperyment, to ja potrafię podać matematyczną formułkę na to, ile ono wynosi. To prawdopodobieństwo jest takim prawdopodobieństwem, którego wartość zostaje wyliczona i podana przed przeprowadzeniem jakiegokolwiek eksperymentu.
Prawdopodobieństwo aposterioryczne wiąże się z takim pojęciem jak częstotliwość zdarzenia i najprostszym przykładem, gdzie ta różnica się rysuje, to może być choćby wyobrażenie zabawy z monetą. Rzucamy monetę i patrzymy czy wypadnie orzeł czy reszka. Mamy tutaj do czynienia z taką prostą operacją fizykalną, że potrafimy określić prawdopodobieństwo aprioryczne: p=
, a z drugiej strony prawdopodobieństwo aposterioryczne będzie się wyliczać w taki sposób, że będziemy określać w długiej serii rzutów, jaka jest częstotliwość wyrzucenia orła i reszki. Powiedzmy, że rzucamy 1000 razy monetą i wypadnie nam 435 razy orzeł, to powiemy, że częstotliwość (r) jest równa:
r=
Ta częstotliwość będzie jakimś wyrazem prawdopodobieństwa aposteriorycznego. Tego, co dostajemy bezpośrednio z przeprowadzonego eksperymentu. Widać wyraźnie, że im dłuższa będzie próba, tym ta częstotliwość będzie bliższa temu prawdopodobieństwu apriorycznemu.
Czemu te 2 pojęcia się odróżnia? Przede wszystkim dlatego, że biorą się skądinąd. Jedno się bierze z sekwencji wykonywanych eksperymentów, a drugie z teoretycznych obliczeń. Sytuacja jest taka, że w pewnych sytuacjach mamy taki luksus, że potrafimy podać prawdopodobieństwo aprioryczne i potrafimy poprzez eksperyment również wyliczyć prawdopodobieństwo aposterioryczne. Ale może być taka sytuacja, że tego prawdopodobieństwa apriorycznego nie potrafimy wyliczyć. Wówczas możemy wyliczać to prawdopodobieństwo aposterioryczne i od tego prawdopodobieństwa iść w stronę tego, że jak coraz dłuższe ciągi prób losowych, to coraz bliżej jesteśmy tego prawdopodobieństwa apriorycznego, którego nie potrafimy wyliczyć, ale zakładamy, że ono jakoś jest. To pojęcie prawdopodobieństwa aposteriorycznego pojawia się w zorganizowany sposób w myśleniu po raz pierwszy w rozważaniach Jakuba Bernaulli'ego. On to w takiej swojej książce „Ars conjectandi” będzie doskonale o tym prawdopodobieństwie aposteriorycznym pisał.
Bernulli mówi, że określamy jakiś typ częstotliwości zachodzenia zjawiska, które ma taką własność, że prawdopodobieństwa apriorycznego nie znamy i próbujemy szukać jakiejś matematycznej argumentacji na rzecz tego, że rzeczywiście, jak jest dostatecznie duża próba, to my będziemy potrafili oszacować to prawdopodobieństwo a priori, które istnieje gdzieś tam nieznane, poprzez to prawdopodobieństwo aposterioryczne. Jest to taki sposób myślenia, który w wielu sytuacjach jest absolutnie świadomie wykorzystywany przez badaczy, np. przy testowaniu leków na ludziach.
Jesteśmy cały czas w takim punkcie, gdzie to z pewnej niewiedzy można zyskać wiedzę, no i jak te sprawy mają się do tego kłopotu, że ten typ rozumowania jak ten paradoks Bertranda, staje jako kłopot przed fizykami? Kłopot ten rozstrzygany być musi według tej podstawowej reguły, jaka rządzi w metodzie nowożytnego przyrodoznawstwa, zgodności między tym prawdopodobieństwem apriorycznym i aposteriorycznym. To jest dokładnie ta sama reguła, jak to, że mamy pewnego rodzaju model matematyczny i ten model oraz jego konkretne prognozy są testowane w eksperymentach. Jeśli one w eksperymentach się pokrywają z tym, co się mierzy, to uznajemy teorię za dobrą. Tak samo tutaj, jeśli będziemy dokonywać pomiaru prawdopodobieństwa aposteriorycznego, a z drugiej strony mamy jakieś wyliczone prawdopodobieństwo aprioryczne, to musi być jakaś zgodność. Wówczas mamy szansę ujednolicenia, wybrania tego prawdopodobieństwa, które w tej danej sytuacji jest narzucane przez sposób, w jaki my to mierzymy. Z drugiej jednak strony wyraźnie widać, że w momencie, w którym się wchodzi na ten obszar, gdzie to pojęcie prawdopodobieństwa jest rzeczywiście zaangażowane, to ta refleksja filozoficzna staje przed takim problemem odpowiedzi na to, czym to prawdopodobieństwo jest. Czy jest to własność świata, czy opis probabilistyczny, który bierze się tylko stąd, że my nie wiemy wystarczająco dużo o rzeczywistości. Bo gdybyśmy wszystko wiedzieli, umieli np. wszystkie przyczyny pogody połapać i powiedzieć jaki jest między nimi związek, jak to działa, że taki a nie inny skutek zachodzi, gdyby wszystkie przebiegi biochemiczne w organizmie były kontrolowane w taki deterministyczny sposób, to po co byłyby nam różne eksperymenty choćby z testowaniem leków? W gruncie rzeczy stoimy wobec bardzo poważnego pytania filozoficznego, jeśli chodzi o prawdopodobieństwo. Oczywiście dość łatwo jest wskazać na masę sytuacji, gdzie prawdopodobieństwo ewidentnie za swoją podstawę ma ludzką niewiedzę.
W fizyce, jak się pojawiła mechanika kwantowa, to te 2 rozumienia prawdopodobieństwa wyraźnie się wyklarowały. Z jednej strony jest to, że decydujemy się na opis probabilistyczny, gdyż nie mamy odpowiedniej wiedzy, zaś gdy pojawiła się mechanika kwantowa, to zaczęto się pytać na serio, czy czasem prawdopodobieństwo nie przynależy do struktury rzeczywistości? Świat jest tak stworzony, że on jest probabilistyczny z natury. Na naszym poziomie jest to oczywiście żadną miara nieuchwytne, zaś te obiekty kwantowe będą na swoim poziomie ze swojej natury zachowywać się w sposób przypadkowy.
Aby to jakoś filozoficznie wyrazić, Karl Popper wymyślił taką interpretację skłonnościową. Próbował on myśleć o prawdopodobieństwie jako o pewnego rodzaju dyspozycji obiektu. Ma ono taką właściwość, ze jak będziemy obserwowali jego zachowanie, to częstotliwość zachodzenia jakichś zjawisk będzie właśnie taka a nie inna, jak wnika z tej dyspozycji przedmiotu. Jakby chcieć opowiedzieć to na poziomie klasycznym, to powiedzmy, że jak rzucamy tą monetą, to mówimy, że moneta ma taką dyspozycję, skłonność, że ona jednakowo pada na jedną stronę jak i na drugą, że z prawdopodobieństwem
pada na stronę reszki i na stronę orła. Czyli ta prawidłowa moneta ma skłonność do spadania z takimi a nie innymi częstotliwościami czy prawdopodobieństwami. Jest to własność monety, że możemy na prawdopodobieństwo popatrzeć w taki sposób właśnie, nie tylko aprioryczny ale jakby mocniejszy. Że nie tylko umiem wyliczyć, ale że ono tkwi w samej naturze rzeczywistości, że jest cechą samej monety. Dokładnie tak samo będzie się myślało o tych cząstkach kwantowych, że ta cząstka kwantowa ma taką naturę, że z takim a nie innym prawdopodobieństwem będzie się w określony sposób zachowywać. Czyli sprawa tego prawdopodobieństwa, jako elementu ontycznego świata, staje się tutaj niezwykle zasadnicza.
Wróćmy jeszcze do sprawy upływu czasu i nieodwracalności Tutaj kluczowym pojęciem jest pojęcie entropii, ale ono ostatecznie okazało się związane z pojęciem prawdopodobieństwa.
W XIX w., rozpoczyna się badanie wszystkich zjawisk związanych z ciepłem, przenoszeniem ciepła, pojawia się termodynamika - czyli próba opisu dynamiki układów, w których istotną rolę odgrywają przepływy cieplne. Jak mówiliśmy o zasadzie zachowania energii, to była mowa o tym, jak została sformułowana pierwsza zasada termodynamiki, że dla układów izolowanych suma wszystkich rodzajów energii jest stała. Była mowa, że można zamienić pracę na ciepło, że jest tutaj równoważność tych procesów, że w drugą stronę również ciepło zamienia się na pracę i że w sytuacji, kiedy mamy do czynienia z układem izolowanym, to generalnie suma tych wszystkich form energii musi być stała, bądź zmiana, która jest wywoływana w tym układzie energii, wiąże się z jakąś pracą, bądź przegubami cieplnymi z tego układu do otoczenia.
Dalej pojawia się bardzo ciekawa problematyka, związana z II zasadą termodynamiki, mianowicie chodzi o to, że jak próbuje się badać ten problem odwrotny (czyli zamiany ciepła na pracę), to okazuje się, że pewien procent energii cieplnej nie daje się zamienić na pracę, że ten proces zamiany jakiejkolwiek formy energii na ciepło jest w jakiejś mierze nieodwracalny. O tym wie z pewnością ten, kto jeździ samochodem, gdyż w samochodzie mamy silnik, który ma taką właściwość, że zamienia ciepło na pracę i zawsze się mówi o sprawności tego silnika. Ta sprawność nawet jak jest taki idealny silnik, to ona nigdy nie jest 100%. Nigdy nie można całkowicie zamienić energii cieplnej na pracę. Zawsze to coś pozostanie i to coś jest odprowadzane do chłodnicy. I te silniki jakiekolwiek by nie były, to jest to takim elementem charakterystycznym, że odkryto taką właśnie właściwość energii cieplnej, że ona nie daje się bez reszty zamienić na pracę.
Teraz to pojęcie etropii, które pojawia się w połowie XIX w., wprowadza je Rudol Clausius w 1854r., to jest takie pojęcie, które ma opisywać miarę tej nieodwracalności, tego, że część tej energii cieplnej pozostaje niezamieniona na pracę. Jak mamy taką sytuację, w której jest układ izolowany, w którym jakieś procesy przebiegają, nie ma żadnych wymian energii z otoczeniem, energia jest wówczas zachowana w tym układzie izolowanym, natomiast ta entropia jako miara takiego niepełnego przekształcania się energii cieplnej na jakiekolwiek inne formy energii, ta wielkość będzie rosła, zawsze zwiększała swoją wartość, bądź będzie się nie zmieniała, gdy jest już taka maksymalna degradacja, że ta wartość entropii osiąga maksimum, nie ma żadnych innych form energii jak energia cieplna i nie ma żadnych innych procesów, które by przeprowadzały tą energię cieplną w jakąkolwiek inną postać energii. Ta II zasada termodynamiki jest różnie formułowana. Albo w tai sposób jak była tu mowa o tych silnikach, albo używając pojęcia entropii, że entropia w tych układach izolowanych zawsze rośnie, jest to taka wielkość, która subtelniej opowiada nam o energii. Bądź była ta zasada tak formułowana, że ciepło nie może przepływać od ciała zimniejszego do cieplejszego. Dobrze wiemy, że ten przepływ w świecie jest w drugą stronę. Ale gdyby mogły istnieć takie przepływy w drugą stronę, że od zimniejszego do cieplejszego, to wówczas można by produkować silniki stu procentowe, ale także takie ekologiczne. Możemy sobie wyobrazić taki silnik, który do statku pobiera wodę z oceanu, kostki lodu wrzuca powrotem i porusza się dzięki temu. Tak dobrze niestety nie jest.
Takie rozważania na kanwie tego pojęcia entropii ludzie snuli o tym, jak to nie można zbudować tego perpetuum mobile II-go rodzaju. W ten sposób fizycy XIX - wieczni stanęli wobec zjawisk, gdzie udało im się wprowadzić jakąś wielkość fizyczną, jaką jest ta entropia, która opisywała to, ze pewne procesy zachodzą tylko w jedną stronę. Pewne procesy termodynamiczne zachodzą tylko w jednym kierunku. Jak wrzucę kostkę lodu do whisky, to ta kostka się rozpuści, ale nikt nie zanotował sytuacji odwrotnej, że mamy schłodzoną whisky, patrzymy, a tu nagle w środku kostka lodu powstaje. Każdego to bawi. Natomiast jakby procedury funkcjonowania świata były odwracalne, to takie procesy też by się zdarzały. Wpuszczamy kroplę atramentu do jakiegoś zbiornika wody, na początku mamy ją w tym miejscu gdzie ją wpuściliśmy, w odpowiednio długim czasie, te cząstki się rozejdą po całej tej objętości wody i tak będzie. Natomiast nie bywa tak, że jak wystarczająco długo będę patrzył na to naczynie, to te cząstki znów się zbiorą w tym miejscu, z którego wystartowały.
Jest to naprawdę zagadka. Jak posługujemy się tylko potocznym doświadczeniem, to co to jest za zagadka? Świat tak się kręci. Kostki lodu się w upalny dzień w wodzie nie tworzą. Jajko, które rozbiliśmy nie zlepia się z powrotem na nowo. Nie ma w potocznym świecie o czym mówić.
Jednak z punktu widzenia fizyków jest o czym mówić, gdyż równania ruchu, które oni mieli, które one się im sprawdzały, one są odwracalne. I z punktu widzenia tych równań, które przyjęli, że dobrze opisują nam ruch, nie ma żadnego powodu, dla którego świat ma iść w jedną stronę a nie mają się w nim zdarzać procesy, które budzą ludzki uśmiech. W tym sensie jest dla fizyków od samego początku ta wielka zagadka nieodwracalności procesów, z którymi się spotykają w świecie, że mechanika, teoria, która opisuje ruch, jest taka, że wszystko jedno, czy czas płynie w tą stronę czy w przeciwną. Nic się nie zmienia. Natomiast w realnie istniejącym świecie tak nie ma. Jest tylko w jedną stronę. Jak umrę i moje ciało osiągnie temperaturę otoczenia, to już nic nie jest w stanie go przywrócić do poprzedniego stanu.
W przypadku tej zagadki nieodwracalności procesów, w obrębie tych rozważań termodynamicznych natknięto się na takie konkretne procesy jak o przekształcanie energii cieplnej w energię mechaniczną, że nie zrobisz tego do końca, jak i zdefiniowano to pojęcie entropii, które opisuje jakoś miarowo tego rodzaju własność.
No i teraz otwiera się bogate pole dla spekulacji. Można zacząć sobie myśleć w takiej dużej skali. Wyobraźmy sobie, że wszechświat, w jakim my funkcjonujemy, jest układem izolowanym - nie ma żadnego dopływu energii z zewnątrz. Jeśli mamy tu różne formy energii, świat się tak kręci, że te różne formy energii zamieniają się na ciepło, to co się stanie, jak wszelkie rodzaje energii, z jakimi mamy do czynienia we wszechświecie, zamienią się na ciepło? Koniec. II zasada termodynamiki mówi, że entropia osiągnęła wartość maksymalną, mamy maksymalny bałagan, taką formę energii, z której się już niczego nie da więcej wyzyskać i pojawia się taka koncepcja śmierci cieplnej wszechświata. Wszechświat umiera w taki sposób, że ustala się jednakowa temperatura wszędzie, jest tylko ruch taki chaotyczny cząstek, energia cieplna, żadnej innej już nie ma i jest koniec. Jakiekolwiek procesy fizykalne zamierają. Z drugiej strony entropia okazuje się taką naturalna miarą, wielkością konkretną w sensie ilościowym, która może nam opisywać i coś oddawać z tej nieodwracalności rzeczywistości. Powiada się , że jeśli jest coś takiego, co gołym okiem widać, jak strzałka czasu, że czas płynie tylko w jedną stronę, od przeszłości przez teraźniejszość po przyszłość, to właśnie miara tej nieodwracalności strzałki czasu jest II zasada termodynamiki, ta zasada wzrostu entropii.
To co stało się dalej, to genialne rozważania Ludwika Boltzmanna, który wiązał to pojęcie entropii, związane wyłącznie z jakimiś procesami przekazywania ciepła, związał to z prawdopodobieństwem. Entropia okazuje się funkcją prawdopodobieństwa. Tylko jakie jest to prawdopodobieństwo i o co tu chodzi?
Wyobraźmy sobie taką sytuację, że mamy pojemnik podzielony na 2 części, między którymi jest jakieś połączenie, urządzenie, którym będzie można otwierać i przepuszczać cząstki gazu jedne i drugie.
Mamy jakąś skończoną liczbę cząstek, które w tym naczyniu się znajdują. Jak na początku gaz był w tych 2 częściach naczynia, otwarto połączenie między tymi częściami, gaz miej więcej równomiernie wypełnia ten pojemnik. Teraz możemy zadać pytanie, jak wygląda prawdopodobieństwo tego, że wszystkie cząstki znajdą się z jednej strony? Możemy założyć, że jest jakieś niezerowe prawdopodobieństwo, że takie zdarzenie, zupełnie nieprawdopodobne dojdzie do skutku. Można to sobie spróbować rachować.
Wyobraźmy sobie taką sytuację, że mamy na początku N=4 cząstki. Próbujemy określić, jak wygląda prawdopodobieństwo znalezienia się tych N cząstek w połowie naczynia, że wszystkie te cząstki pojawią się po jednej stronie.
Trzeba zatem wyliczyć liczbę wszystkich możliwych zdarzeń, trzeba przeanalizować sobie jak będą te zdarzenia wyglądały. Wszystkie możliwe zdarzenia będą
. W tym przypadku jak N=4, to mamy 16 możliwości usytuowania tych cząstek.
I teraz jak chcemy opisać prawdopodobieństwo tego zdarzenia, że wszystkie 4 cząstki są z tej jednej strony, to będzie to wyglądać tak:
W miejsce N (tych 4 cząstek) wyobraźmy sobie, że trzeba włożyć wielkość rzędów liczby avogadro - 1024. Czyli prawdopodobieństwo będzie tutaj rzędu:
Jest to niewyobrażalni malutka liczba. Czyli prawdopodobieństwo zajścia takiego procesu, jest po prostu tak mało prawdopodobne, że ten, kto chce wygrać w totolotka, na pewno wygrywa.
Można to próbować szacować, że jeśli byśmy próbowali zrobić taki film, który filmuje ruchy cząstek i przykładowo mamy te 4 cząstki, robimy to tak, że 1 klatka na 16 pokazuje to, że wszystkie cząstki są w jednej części naczynia. Natomiast jeśli weźmiemy 80 cząstek, to jest już 1 klatka na 280. Czyli jak byśmy wyświetlali milion klatek na sekundę, to musimy czekać dłużej niż wynosi wiek wszechświata, żeby na tym filmie zobaczyć wreszcie tą klatkę, że 80 cząstek jest z jednej strony naczynia, a z drugiej nie ma nic.
Jak mamy ten rząd liczby avogadro, to widać co się dzieje. W momencie, gdy wprowadzimy opis probabilistyczny taki, że serio rozważamy możliwość, że w lipcowy dzień woda w szklance mi zamarznie, albo że pojawi się taka sytuacja, że te cząstki atramentu, które się rozlazły po całym naczyniu, znowu staną się tą kroplą, którą wrzucono, to taki proces nie jest niemożliwy, tylko jest niezwykle mało prawdopodobny.
Aby opisywać nieodwracalność procesów, pojęcie prawdopodobieństwa rzeczywiście zostaje w istotny sposób zaangażowane. Nie mówimy teraz, że na pewno taki proces się nie zdarza, jak myśleli ludzie, którzy zajmowali się za tworzenie termodynamiki, tylko myślimy w takich kategoriach probabilistycznych, ze takie zdarzenie jak ta kropla atramentu, czy też rozbite jajko, to to są zdarzenia, które mają mikroskopijne prawdopodobieństwo. Takie prawdopodobieństwo, że te procesy w historii wszechświata się praktycznie nie zdarzają.
Natomiast dla danego układu makroskopowego, czyli takiego, że miej więcej połowa cząstek jest z jednej strony naczynia, a połowa z drugiej, to to prawdopodobieństwo przyjmuje wartość znaczącą. Jest w granicy połowy. Jak się w takiej perspektywie te 2 sprawy bierze, ta idea prawdopodobieństwa zostaje zaangażowana do opisu nieodwracalnych procesów i jak się zna tą formułę Boltzmanna (jak się wiąże prawdopodobieństwo z entropią, to zasadniczo można wyrobić w sobie tai obraz, że jak się sprząta mieszkanie odkurzaczem, to się myśli - zmniejszam entropię świata .
Pojęcie, które było użyte tylko do opisu procesów termodynamicznych (entropia), można je użyć dzięki temu związkowi do opisu tego, z czym mamy w świecie do czynienia, że generalnie świat, jak się patrzy na jakiekolwiek procesy, porusza się w taką stronę od tego, co jest dobrze uporządkowane, w stronę tego, co jest chaotyczne, mniej uporządkowane. Jeśli zbudujemy dom, wszystko będzie nowe, eleganckie, lśniące i zamkniemy go na klucz i przyjedziemy za 100 lat do tego domu i tam nikt nic nie będzie robił, nie będzie psuł ani sprzątał, to generalnie wszystko będzie się rozwalać. Jak mamy ogromną ilość cząstek, to ustawić je w takiej kolejności, w jakiej odpowiadają one temu domowi, co to wyszedł wprost spod kielni i młotka, to ten układ cząstek jest po prostu znacznie mniej prawdopodobny niż jakikolwiek inny. Jak mamy stertę cegieł, to z tej sterty można zbudować dom, który ma jakąś strukturę, natomiast ilość tych rozwalonych domów jest niepomiernie większa tych możliwości. Jest to dokładnie coś takiego jak z tymi cząsteczkami. Prawdopodobieństwo, że wszystkie będą z jednej strony, bo ja tak chcę, to to jest wydarzenie możliwe, ale prawdopodobieństwo tego jest odpowiednio malutkie i odpowiednio w tym opisie, jak wiemy, że entropia zależy od prawdopodobieństwa, to ona też będzie taka, natomiast w przypadku tego całego mnóstwa sytuacji, gdzie te cząstki będą miej więcej równo rozrzucone, tego jest odpowiednio znacznie więcej i odpowiednio rośnie prawdopodobieństwo takiego procesu, który z naszego punktu makroskopowego jest grubo bardziej chaotyczny. Odpowiednio bardziej entropia takiego układu będzie większa.
Widać, że to pojęcie prawdopodobieństwa sprzężone z tym pojęciem entropii rzeczywiście w jakiś sposób sprawę tej nieodwracalności zjawisk opisuje, pokazując w gruncie rzeczy to, o czym dopiero co powiedzieliśmy, że są te układy makroskopowe jakoś dla nas wybrane, które właśnie są zdecydowanie mało prawdopodobne w świecie wszystkich możliwości, które w danej sytuacji mogą się zrealizować i że ta dynamika wszechświata w taką stronę się porusza, że ten stan początkowy był takim stanem o bardzo niskiej entropii, że te procesy rzeczywiście przebiegają tak, że entropia rośnie, ale te szacunki, które ludzie są w tej chwili w stanie zrobić, pokazują, że jeszcze jest ciągle ogromna liczba możliwości w tym sensie, że to co miałoby nas dzielić od tej śmierci cieplnej wszechświata, to jest rzeczywiście jeszcze daleka droga.
1
styczna cięciwa
cięciwa