Henri Poincare NAUKA I HIPOTEZA


Henri Poincaré

Profesor Sorbony

Członek Akademii

Redakcja Piotr Amsterdamski




Dla powierzchownego obserwatora prawda naukowa nie podlega żadnej wątpliwości; logika nauki jest nieomylna, a jeżeli uczonym zdarza się błądzić, to tylko wtedy, gdy sprzeniewierzają się jej regułom.

Prawdy matematyczne wywodzimy z niewielkiej ilości twierdzeń oczywistych za pomocą łańcucha rozumowań, których nie podobna podważyć; prawdy te narzucają się nie tylko nam, ale i samej przyrodzie. Krępują one, że tak powiem, Stwórcę i pozostawiają mu wybór między stosunkowo nielicznymi możliwymi rozwiązaniami. Wobec tego wystarczy kilka doświadczeń, abyśmy poznali, jakiego dokonał wyboru. Z każdego doświadczenia można wyprowadzić mnóstwo wyników drogą wnioskowania matematycznego i w ten sposób każde doświadczenie mówi nam coś o pewnym zakątku Wszechświata.

Dla wielu ludzi, a zwłaszcza licealistów, którym wykłada się podstawy fizyki, jest to źródło naukowej pewności. Tak rozumieją oni rolę doświadczenia i matematyki. Tak również rozumiało ją przed stu laty wielu uczonych, którzy marzyli o zbudowaniu świata, biorąc z doświadczenia jak najmniej danych.

Wystarczy jednak chwila zastanowienia, by dostrzec, jakie miejsce zajmuje w nauce hipoteza; okazało się, że nie może się bez niej obejść ani matematyk, ani eksperymentator. Nasuwa się zatem pytanie, czy wszystkie takie konstrukcje są trwałe, a wraz z nim obawa, że wystarczy byle podmuch, aby je obalić. Sceptycyzm taki również jest powierzchowny. Wątpić we wszystko lub we wszystko wierzyć - są to dwa rozwiązanie jednako dogodne, obydwa bowiem oszczędzają trudu myślenia.

Zamiast wygłaszać sumaryczne wyroki, powinniśmy, zatem zbadać rolę hipotezy; przekonamy się wówczas, że nie tylko jest niezbędna, ale najczęściej również jest uprawniona. Istnieje kilka rodzajów hipotez; niektóre są sprawdzalne, a gdy już zostaną potwierdzone doświadczalnie, stają się płodnymi prawdami; inne nie mogą wprowadzić nas w błąd, a bywają pożyteczne, gdyż dostarczają oparcia naszym myślom; inne wreszcie tylko pozornie są hipotezami, a w rzeczywistości sprowadzają się do niejawnych definicji lub konwencji.

Hipotezy ostatniego rodzaju spotyka się szczególnie często w matematyce i naukach pokrewnych. Stąd właśnie nauki te czerpią ścisłość; konwencje są wytworem swobodnej działalności naszego umysłu, który w tej dziedzinie nie zna przeszkód. Tutaj umysł nasz może twierdzić, gdyż dekretuje; musimy to jasno zrozumieć: dekrety obowiązują w naszej nauce, która bez nich byłaby niemożliwa, ale nie obowiązują w przyrodzie. Czy wszakże dekrety te są dowolne? Nie, gdyż w takim razie byłyby jałowe. Doświadczenie pozostawia nam wprawdzie wolny wybór, ale służy nam za przewodnika, pozwala znaleźć najdogodniejszą drogę. Dekrety te są, zatem podobne do dekretów władcy absolutnego, lecz rozumnego, zasięgającego opinii swej Rady Państwa.

Niektórych autorów uderzył ten charakter swobodnej konwencji, jakiego dopatrzyli się w pewnych podstawowych zasadach nauki. Uogólnili oni to stwierdzenie ponad miarę, zapominając, że wolność to nie to samo, co dowolność. Doszli w ten sposób do tak zwanego nominalizmu i zadali sobie pytanie, czy badacz nie pada ofiarą własnych definicji, i czy świat, który w swym mniemaniu odkrywa, nie jest po prostu tworem jego kaprysu. W takim razie nauka byłaby wprawdzie pewna, ale nie miałaby żadnego znaczenia.

Gdyby tak było, nauka byłaby bezsilna, a przecież patrzymy co dzień na jej działalność. Byłoby to niemożliwe, gdyby nie mówiła nam czegoś o rzeczywistości. Wszelako to, do czego nauka dociera, to nie rzeczy same w sobie, jak twierdzą dogmatycy, lecz tylko stosunku między rzeczami; poza tymi stosunkami nie ma poznawalnej rzeczywistości.

Do takiego to wniosku dojdziemy po przejściu całego szeregu nauk, od arytmetyki i geometrii do mechaniki i fizyki doświadczalnej.

Na czym polega istota rozumowania matematycznego? Czy jest ono rzeczywiście czysto dedukcyjne, jak się powszechnie uważa? Głębsze rozważenie tej kwestii prowadzi do wniosku, że tak bynajmniej nie jest; posiada ono w pewnej mierze charakter indukcyjny i temu właśnie zawdzięcza swą płodność, a mimo to zachowuje bezwzględną ścisłość. Wykazanie tego będzie naszym pierwszym zadaniem.

Po bliższym poznaniu jednego z narzędzi, które matematyka daje badaczom, poddamy z kolei analizie inne pojęcie podstawowe, pojęcie wielkości matematycznej. Czy znajdujemy je w przyrodzie, czy też sami je do niej wprowadzamy? Jeżeli sami je wprowadzamy, to czyż nie narażamy wszystkiego na wypaczenie? Porównanie surowych danych naszych zmysłów z owym niezmiernie złożonym i subtelnym pojęciem, które matematycy nazywają wielkością, zmusza nas do uznania, że zachodzi między nimi rozbieżność. Rama ta, w którą wszystko chcemy wtłoczyć, jest naszej roboty, ale nie zrobiliśmy jej na chybił - trafił, zrobiliśmy ją, że tak powiem, na miarę, i dlatego możemy umieszczać w niej fakty nie kalecząc ich cech istotnych.

Inną ramą, jaką narzucamy światu, jest przestrzeń. Jakie jest źródło pierwszych zasad geometrii? Czy narzuca je nam logika? Łobaczewski udowodnił, że tak nie jest, gdy stworzył geometrię nieeuklidesową. Czy zatem poznajemy przestrzeń zmysłowo? Bynajmniej, albowiem przestrzeń, którą mogłyby nam pokazać nasze zmysły, różni się najzupełniej od przestrzeni geometry. Czy geometria wywodzi się może z doświadczenia? Głębsze rozważenie tego zagadnienia pozwoli nam stwierdzić, że tak nie jest. Dojdziemy tedy do wniosku, że zasady te są tylko konwencjami, ale konwencje te nie są dowolne, i gdyby nas przeniesiono do innego świata, (który nazwę światem nieeuklidesowym, usiłując wyobrazić go sobie), zniewoliłoby nas to do przyjęcia innych umów.

Do podobnych wniosków dojdziemy w mechanice i zobaczymy, że zasady tej nauki, jakkolwiek bezpośrednio oparte na doświadczeniu, mają również charakter konwencjonalny, właściwy postulatom geometrycznym. Dotychczas tryumfuje konwencjonalizm, lecz oto dochodzimy do nauk fizycznych we właściwym znaczeniu. Tutaj scena się zmienia; napotykamy hipotezy innego rodzaju i widzimy całą ich płodność. Wprawdzie początkowo teorie wydają się nam kruche, a dzieje nauki dowodzą,, że są one przemijające, ale nie giną one zupełnie, lecz z każdej z nich coś pozostaje. Należy, zatem dołożyć starań, aby wyodrębnić to "coś", albowiem to właśnie i tylko to stanowi prawdziwą rzeczywistość.

Metoda nauk fizycznych opiera się na indukcji, która każe na oczekiwać powtórzenia się pewnego zjawiska, gdy powracają okoliczności, w których zjawisko to zaszło po raz pierwszy. Gdyby wszystkie te okoliczności mogły się powtórzyć, zasadę tę moglibyśmy stosować bez obawy, lecz to nigdy się nie zdarza; pewne okoliczności nigdy się nie powtarzają. Czy jesteśmy zupełnie pewni, że są one pozbawione znaczenia? Oczywiście, że nie. Stąd doniosła rola, jaką odgrywa w naukach fizycznych pojęcie prawdopodobieństwa. Rachunek prawdopodobieństwa nie jest więc tylko rozrywką lub instrukcją dla graczy w bakarata - wypadnie nam postarać się o poznanie jego zasad. Wyniki, do których tu dojdziemy, będą niekompletne, albowiem mglista intuicja, która pozwala nam orientować się w kwestiach prawdopodobieństwa, nie poddaje się łatwo analizie.

Po zbadaniu warunków, w jakich pracuje fizyk, sądziłem, że należy pokazać go przy pracy. W tym celu zaczerpnąłem kilka przykładów z historii optyki i elektryczności. Zobaczymy, skąd wzięły się idee Fresnela i pomysły Maxwella i jakie hipotezy nieświadomie wprowadzili Ampére i inni twórcy elektrodynamiki.

I

Możliwość istnienia nauki matematycznej wydaje się nierozwiązywalną sprzecznością. Jeżeli matematyka tylko z pozoru jest nauką dedukcyjną, to skąd bierze się jej doskonała ścisłość, której nikt nie poddaje w wątpliwość? Jeżeli natomiast wszystkie twierdzenia matematyczne mogą być wyprowadzone jedne z drugich zgodnie z regułami logiki formalnej, to czemu matematyka nie sprowadza się do jednej wielkiej tautologii? Sylogizm nie mówi nam niczego istotnie nowego, i jeżeli wszystko miałoby wynikać z zasady tożsamości, wszystko też dałoby się do niej znów sprowadzić. Czyż zgodzimy się z tym, że wszystkie twierdzenia, wypełniające tyle tomów, są jedynie okrężnymi sposobami powiedzenia, że A jest A!?

Prawdą jest niewątpliwą, że można wrócić do pewników, leżących u źródła wszystkich tych rozumowań. Jeżeli się sądzi, że niepodobna ich sprowadzić do zasady sprzeczności, jeżeli z drugiej strony nie chcę się w nich upatrywać faktów doświadczalnych, którym nie można byłoby przypisać matematycznej konieczności, pozostaje jeszcze trzecie wyjście: uznać je za sądy syntetyczne a priori. Zabieg ten nie stanowi jednak rozwiązania trudności, lecz tylko jej ochrzczenie; nawet gdyby istota sądów syntetycznych była dla nas całkowicie przejrzysta, sprzeczność nie znikłaby, lecz tylko pojawiła się w innym miejscu; rozumowanie sylogistyczne nie może niczego dodać do danych, od których wychodzi; dane te sprowadzają się do kilku pewników, a więc i we wnioskach nie powinniśmy znajdować nic ponad to.

Żadne twierdzenie nie powinno być czymś nowym, jeżeli do jego dowodu nie wprowadziliśmy nowego pewnika; rozumowanie mogłoby nam przywrócić prawdy oczywiste, zapożyczone od bezpośredniej intuicji. Rozumowanie prowadzące od pewników do twierdzeń byłoby tylko pasożytniczym pośrednikiem, a wobec tego czyż nie wypadałoby zadać sobie pytania, czy cały aparat sylogistyczny nie służy po prostu do zamaskowania tej pożyczki?

Sprzeczność ta staje się jeszcze lepiej widoczna, gdy otwieramy dowolną książkę matematyczną; na każdej stronicy autor zapowiada zamiar uogólnienia twierdzenia poprzednio znanego. Czy znaczy to, że metoda matematyczna prowadzi od stwierdzeń szczególnych do ogólnych, a w takim razie, jak można nazywać ją metodą dedukcyjną?

Gdyby wreszcie nauka o liczbach była czysto analityczna lub też można ją było wyprowadzić czysto analitycznie z nielicznych sądów syntetycznych, umysł dostatecznie potężny mógłby jednym rzutem oka dojrzeć wszystkie jej prawdy; co mówię! można byłoby mieć nadzieję, że pewnego dnia zostanie wynaleziony tak prosty sposób ich sformułowania, że będą one bezpośrednio dostępne nawet umysłom pospolitym.

Jeśli wzdragamy się przyjąć te konsekwencje, to dlatego, że musimy uznać, iż rozumowanie matematyczne posiada samo przez się pewną zdolność twórczą, a zatem różni się od sylogizmu.

Różnica ta musi być bardzo głęboka. Nie znajdziemy, na przykład, wyjaśnienia tej tajemnicy w częstym stosowaniu reguły, zgodnie, z którą jedno i to samo jednoznaczne działanie, zastosowane do dwóch równych liczb, daje identyczne wyniki.

Wszystkie te sposoby rozumowania, niezależnie od tego, czy dają się sprowadzić do właściwego sylogizmu, czy też nie, zachowują charakter analityczny i już przez to są bezsilne.

Stary to spór; już Leibniz usiłował dowieść, że 2 + 2 = 4; przyjrzyjmy się nieco dokładniej jego dowodowi.

Przypuśćmy, że zdefiniowaliśmy liczbę 1 i działanie x + 1, które polega na dodaniu jedności do danej liczby x. Definicje te, niezależnie od ich sformułowania, nie będą potrzebne w dalszym rozumowaniu.

Definiuję następnie liczby 2, 3 i 4 za pomocą równości:

(1) 1 + 1 = 2; (2) 2 + 1 = 3; (3) 3 + 1 = 4.

Podobnie, działanie x + 2 definiuję za pomocą równości:

(4) x + 2 = (x + 1) + 1.

Po przyjęciu tych definicji mamy:

2 + 2 = (2 + 1) + 1 (definicja 4)

(2 + 1) + 1 = 3 + 1 (definicja 2)

3 + 1 = 4 (definicja 3).

Z czego wynika, że 2 + 2 = 4 c.b.d.d.

Niepodobna zaprzeczyć, że rozumowanie to jest czysto analityczne. Gdy jednak zapytamy o nie dowolnego matematyka, odpowie nam: "Nie jest to dowód we właściwym znaczeniu tego słowa, a tylko sprawdzenie". Rozumowanie to polega wyłącznie na porównaniu dwóch konwencjonalnych definicji i stwierdzeniu ich tożsamości; nie doprowadziło ono do stwierdzenia czegoś nowego. Sprawdzenie różni się od prawdziwego dowodu tym właśnie, że jest czysto analityczne i jałowe. Jest jałowe, gdyż wniosek stanowi tylko przekład na inny język treści zawartej już w przesłankach. Prawdziwy dowód jest natomiast płodny, ponieważ wniosek, do jakiego prowadzi, jest poniekąd ogólniejszy niż przesłanki.

Równość 2 + 2 = 4 można sprawdzić tylko dlatego, że jest to stwierdzenie szczególne. W taki sposób można sprawdzić każde matematyczne twierdzenie szczególne. Gdyby wszakże matematyka miała się sprowadzać do zbioru takich sprawdzeń, nie byłaby nauką. Podobnie, szachista wygrywając partię nie tworzy nauki. Nauka może dotyczyć wyłącznie rzeczy ogólnych.

Można nawet rzec, że zadanie nauk ścisłych polega na zaoszczędzeniu nam konieczności bezpośredniego sprawdzania stwierdzeń szczegółowych.

Przypatrzmy się zatem matematykowi przy pracy i spróbujmy uchwycić, na czym polega jego postępowanie.

Zadanie to nie jest wolne od trudności; nie wystarcza otworzyć jakąś książkę na chybił-trafił i zbadać pierwszy lepszy dowód.

Musimy przede wszystkim wykluczyć geometrię, w której kwestię komplikują trudne zagadnienia dotyczące roli postulatów oraz istoty i pochodzenia pojęcia przestrzeni. Z podobnych powodów nie możemy zwrócić się do analizy nieskończonościowej (rachunku różniczkowego). Musimy zbadać myśl matematyczną tam, gdzie występuje ona w stanie czystym, to jest w arytmetyce.

I tutaj jeszcze musimy wybierać; w najbardziej zaawansowanych działach teorii liczb pierwotne pojęcia matematyczne uległy tak głębokiemu przetworzeniu, że analiza ich nastręcza poważne trudności.

Wyjaśnień, o które nam chodzi, powinniśmy zatem szukać w działach początkowych arytmetyki - jakkolwiek właśnie w dowodach twierdzeń najbardziej elementarnych autorzy traktatów klasycznych ujawnili najmniej ścisłości i precyzji. Nie należy im tego poczytywać za zbrodnię; ulegli oni tylko konieczności, początkujący nie są bowiem przygotowani do prawdziwej ścisłości matematycznej; nie widzieliby w niej nic prócz próżnych i nużących subtelności; stratą czasu byłoby, gdyby usiłowano zbyt wcześnie zwiększyć ich wymagania; powinni oni przebiec szybko, ale nie przeskakując żadnych etapów, drogę, którą przebyli powoli założyciele nauki.

Czemu potrzebne jest tak długie przygotowanie, aby przyzwyczaić się do doskonałej ścisłości, która - zdawałoby się - powinna narzucać się w sposób naturalny wszystkim zdrowym umysłom? Jest to zagadnienie z dziedziny logiki i psychologii, jak najbardziej godne przemyślenia.

Mimo to nie zatrzymamy się by je rozważyć; jest ono obce przedmiotowi, który nas tutaj zaprząta; stwierdzimy tylko, że, pod grozą chybienia naszego celu musimy przerobić dowody twierdzeń najbardziej elementarnych i nadać im zamiast postaci nieociosanej, którą im się pozostawia gwoli nie trudzenia początkujących, postać ścisłą, która zadowoliłaby wytrawnego matematyka.

Definicja dodawania. Przypuśćmy, że zdefiniowaliśmy już działanie x + 1, polegające na dodaniu liczby 1 do danej liczby x. Definicja ta, niezależnie od jej sformułowania, nie będzie grała żadnej roli w dalszym rozumowaniu.

Chcemy teraz zdefiniować działanie x + a, polegające na dodaniu liczby a do danej liczby x.

Przypuśćmy, że zdefiniowaliśmy już działanie

x + (a - 1);

działanie x + a definiujemy wówczas równaniem:

(1) x + a = [x + (a - 1)] + 1.

Wiemy zatem, co to jest x + a, jeśli tylko wiemy, co to jest x + (a - 1); ponieważ przyjęliśmy założenie, że wiemy, co to jest x + 1, to możemy określić kolejno - "rekurencyjnie" działania x + 2, x + 3 itd.

Definicja ta zasługuje na chwilę uwagi; ma ona osobliwą naturę, odróżniającą ją od definicji czysto logicznych; w rzeczy samej, równanie (1) zawiera nieskończenie wiele jednostkowych definicji, z których każda ma sens jedynie o tyle, o ile znamy poprzedzające.

Własności dodawania. - Łączność. -

Twierdzę, że

a + (b + c) = (a + b) + c

W rzeczy samej, równość ta jest spełniona dla c = 1:

a + (b + 1) = (a + b) + 1,

co, jeśli pominąć różnicę oznaczeń, nie różni się od równości (1), definiującej dodawanie.

Przypuśćmy, że twierdzenie jest prawdziwe dla c = 0x01 graphic
; twierdzę, że jest ono prawdziwe również dla c = 0x01 graphic
+ 1. Jeśli bowiem

(a + b) + 0x01 graphic
= a + (b + 0x01 graphic
),

to z tego wynika, że

[(a + b) + 0x01 graphic
] + 1 = [a + (b + 0x01 graphic
)] +1,

a na podstawie definicji (1)

(a + b) + (0x01 graphic
+1) = a + (b + 0x01 graphic
+ 1) = a + [b + (0x01 graphic
+ 1)],

a zatem na podstawie dedukcji czysto analitycznej wykazaliśmy twierdzenie o łączności dodawania dla 0x01 graphic
+ 1.

Skoro twierdzenie jest prawdziwe dla c = 1, to w powyższy sposób można wykazać, że jest prawdziwe dla c = 2, c = 3 itd.

Przemienność. -

1. Twierdzę, że a + 1 = 1 + a.

Twierdzenie to jest w oczywisty sposób prawdziwe dla a = 1; można sprawdzić za pomocą rozumowania czysto analitycznego, że jeśli jest prawdziwe dla a = 0x01 graphic
, to jest prawdziwe również a = 0x01 graphic
+ 1; jeśli zatem jest prawdziwe dla a = 1, to jest również prawdziwe dla a = 2, a = 3 itd., a zatem twierdzenie to zostało dowiedzione przez rekurencję.

2. Twierdzę, że a + b = b + a.

Twierdzenia tego dowiedliśmy przed chwilą dla b = 1; można sprawdzić analitycznie, że skoro jest prawdziwe dla b = 0x01 graphic
, to jest również prawdziwe dla b = 0x01 graphic
+ 1. Twierdzenie zostało zatem dowiedzione przez rekurencję.

Definicja mnożenia. - Mnożenie definiujemy za pomocą równań

a x 1 = a

(2) a x b = [a x (b - 1)] + a.

Równość (2) zawiera w sobie, podobnie jak (1), nieskończenie wiele definicji; po zdefiniowaniu a x 1 pozwala kolejno zdefiniować a x 2, a x 3 itd.

Własności mnożenia. - Rozdzielność. - Twierdzę, że

(a + b) x c = (a x c) + (b x c).

Jak łatwo sprawdzić analitycznie, równość ta jest spełniona dla c = 1; następnie, jeśli jest prawdziwa dla c = 0x01 graphic
, jest prawdziwa i dla c = 0x01 graphic
+1. Twierdzenie jest zatem dowiedzione przez rekurencję.

Przemienność. -

1. Twierdzę, że a x 1 = 1 x a.

Twierdzenie jest oczywiste dla a =1.

Jak łatwo sprawdzić analitycznie, jeśli twierdzenie to jest prawdziwe dla a = 0x01 graphic
, to jest również prawdziwe dla a = 0x01 graphic
+ 1.

2. Twierdzę, że a x b = b x a.

Twierdzenia tego dowiedliśmy powyżej dla b = 1. Można sprawdzić analitycznie, że jeśli jest ono prawdziwe dla b = 0x01 graphic
, to jest również prawdziwe dla b = 0x01 graphic
+1.

IV

Urwę tutaj ten monotonny szereg dowodów. Sama ta monotonia posłużyła do lepszego zaprezentowania jednostajności sposobu rozumowania, który napotyka się na każdym kroku.

Sposób ten polega na dowodzeniu przez rekurencję. Najpierw sprawdza się twierdzenie dla n = 1; następnie dowodzi, że jeśli jest ono prawdziwe dla n - 1, to jest również prawdziwe dla n, z czego wynika, że jest prawdziwe dla wszystkich liczb całkowitych.

Przekonaliśmy się powyżej, jak ten sposób dowodzenia można wykorzystać do wykazania właściwości dzielenia i mnożenia, czyli reguł działań arytmetycznych; arytmetyka jest narzędziem przekształcania, pozwalającym uzyskać znacznie większą rozmaitość kombinacji, niż prosty sylogizm, ale jest to również narzędzie czysto analityczne, nie pozwalające uzyskać żadnych nowych wyników. Gdyby matematyka nie dysponowała żadnym innym instrumentem, zatrzymałaby się rychło w swoim rozwoju, lecz ucieka się ona znowu do tej samej metody postępowania, to znaczy do dowodzenia przez rekurencję, i dzięki temu może posuwać się naprzód.

Gdy przyjrzymy się uważniej matematycznym dowodom, odnajdziemy ten sposób rozumowania na każdym kroku, bądź to w postaci prostej, którą powyżej przedstawiliśmy, bądź w postaci mniej lub bardziej zmienionej.

Jest to więc rozumowanie par excellence matematyczne i dlatego wypada nam dokładniej je rozpatrzyć.

V

Ważną cechą dowodzenia przez rekurencję jest to, że zawiera w sobie w skondensowanej formie, jeśli wolno mi tak powiedzieć, nieskończenie wiele sylogizmów.

Aby lepiej to uwydatnić, sformułujmy te sylogizmy jeden po drugim; układają się one - mówiąc obrazowo - w kaskadę.

Są to, rzecz jasna, sylogizmy hipotetyczne.

Twierdzenie jest prawdziwe dla liczby 1.

Jeżeli twierdzenie jest prawdziwe dla liczby 1, to jest prawdziwe dla liczby 2.

A zatem twierdzenie jest prawdziwe dla liczby 2.

Jeżeli twierdzenie jest prawdziwe dla liczby 2, to jest prawdziwe dla liczby 3.

A zatem twierdzenie jest prawdziwe dla liczby 3. I tak dalej.

Widzimy, że wniosek każdego sylogizmu stanowi przesłankę mniejszą następnego sylogizmu.

Ponadto przesłanki większe wszystkich naszych sylogizmów mają taką samą ogólną formułę:

Jeśli twierdzenie jest prawdziwe dla n - 1, to jest prawdziwe i dla n.

Widzimy zatem, że w dowodach rekurencyjnych formułuje się tylko przesłankę mniejszą pierwszego sylogizmu oraz formułę ogólną, zawierającą, jako przypadki szczególne, wszystkie przesłanki większe.

W ten sposób niekończący się szereg sylogizmów sprowadzony zostaje do kilkuwierszowego zdania.

Łatwo teraz zrozumieć, dlaczego każdy wynik szczególny danego twierdzenia możemy sprawdzić - jak to już wyjaśniliśmy - metodami czysto analitycznymi.

Gdybyśmy chcieli, zamiast dowodzić, że nasze twierdzenie jest prawdziwe dla wszystkich liczb, wykazać je tylko dla - na przykład - liczby 6, wystarczyłoby wykorzystać pierwszych pięć sylogizmów naszej kaskady; dla liczby 10 potrzebowalibyśmy dziewięciu sylogizmów; im większa liczba, tym więcej sylogizmów, ale niezależnie od tego, jak wielka byłaby ta liczba, zawsze potrafilibyśmy do niej dotrzeć i każdy wynik moglibyśmy sprawdzić analitycznie.

Jednak, niezależnie od tego, jak daleko posunęlibyśmy się w ten sposób, nie otrzymalibyśmy twierdzenia ogólnego, ważnego dla wszystkich liczb, a tylko takie twierdzenia mogą być przedmiotem nauki. Aby do niego dotrzeć, potrzeba nieskończonej liczby sylogizmów, musielibyśmy pokonać przepaść, której cierpliwość analityka, dysponującego jedynie środkami logiki formalnej, nigdy nie zdoła zapełnić!

Zaczęliśmy od pytania, dlaczego niepodobna wyobrazić sobie umysłu dość potężnego, by mógł jednym rzutem oka objąć wszystkie prawdy matematyczne.

Teraz łatwo możemy na to odpowiedzieć: szachista może zaplanować z góry cztery lub pięć posunięć, lecz najlepszy nawet gracz może przewidzieć tylko pewną skończoną liczbę posunięć; jeżeli natomiast poświęci swe zdolności arytmetyce, nie zdoła uchwycić ogólnych jej prawd za pomocą jedynie bezpośredniej intuicji; chcąc wykazać najskromniejsze bodaj twierdzenie, nie będzie mógł się obejść bez pomocy dowodzenia przez rekurencję, gdyż to narzędzie pozwala na przejście od skończoności do nieskończoności.

Narzędzie to zawsze jest pożyteczne, gdyż daje nam możność przebycia jednym skokiem dowolnie wielu etapów, a tym samym zwalnia nas od długiej i mozolnej procedury sprawdzania, która rychło stałaby się zupełnie niewykonalna. Narzędzie to staje się natomiast konieczne, gdy chodzi nam o dowiedzenie twierdzenia ogólnego, do którego sprawdzanie analityczne tylko nas stale przybliża, nigdy nie pozwalając do niego dotrzeć.

Zdawać by się mogło, że ten dział matematyki jest bardzo odległy od analizy nieskończonościowej, a przecież, jak już się przekonaliśmy, idea matematycznej nieskończoności jest w nim niezwykle istotna; bez niej nie byłoby nauki, bo nie byłoby nic ogólnego.

VI

Sąd, na którym opiera się dowód rekurencyjny, można sformułować na wiele sposobów; można na przykład powiedzieć, że w nieskończonym zbiorze różnych liczb całkowitych zawsze istnieje jedna, która jest mniejsza od wszystkich innych.

Nietrudno byłoby przejść od jednego sformułowania tego sądu do innego, łudząc się przy tym, że dowiodło się w ten poprawności dowodów rekurencyjnych. Zawsze jednak gdzieś musielibyśmy się zatrzymać, zawsze dochodzilibyśmy do jakiegoś nie dającego się udowodnić pewnika, który nie byłyby w istocie rzeczy niczym innym, jak właśnie twierdzeniem, które chcemy dowieść, tyle że innym sformułowaniu.

Niepodobna zatem uchylić się od przyjęcia wniosku, że reguła dowodzenia przez rekurencję nie daje się sprowadzić do zasady sprzeczności.

Reguła ta nie może również wywodzić się z doświadczenia, doświadczenie bowiem może nam tylko powiedzieć, reguła jest słuszna dla dziesięciu, czy też dla stu na przykład liczb pierwszych, ale nie może objąć nieskończonego szeregu liczb, a jedynie część takiego szeregu, krótszą lub dłuższą, ale zawsze skończoną.

Gdyby chodziło tylko o to, wystarczyłaby nam zasada sprzeczności; pozwala ona zawsze sformułować tyle sylogizmów, ile tylko zechcemy; dopiero gdy chodzi o zamknięcie w jednej formule nieskończenie wielu sylogizmów, dopiero w obliczu nieskończoności zasada ta odmawia nam swych usług, podobnie jak bezsilnie okazuje się doświadczenie. Reguła ta, której nie można wykazać analitycznie lub doświadczalnie, jest prawdziwym sądem syntetycznym a priori. Z drugiej strony, niepodobna uznać jej za prostą umowę, podobnie jak w przypadku niektórych postulatów geometrii.

Dlaczego więc sąd ten narzuca się nam z nieodpartą oczywistością? Dlatego, że jest on bezpośrednim stwierdzeniem potęgi umysłu, który czuje się zdolny do pojmowania nieograniczonego powtarzania jednego i tego samego aktu myśli, skoro akt ten możliwy jest jeden raz. Umysł posiada bezpośrednią intuicję tej potęgi i doświadczenie jest dla niego jedynie okazją do posługiwania się nią, a tym samym uświadomienia jej sobie.

Nasuwa się tu pytanie: jeżeli surowe doświadczenie nie może uzasadnić dowodu rekurencyjnego, to czy to samo dotyczy doświadczenia, wspartego przez indukcję? Widzimy kolejno, że dane twierdzenie jest prawdziwe dla liczby 1, dla liczby 2, dla liczby 3 i tak dalej, uważamy zatem, że przejawia się tu wyraźne prawo, mające takie samo uzasadnienie jak każde prawo fizyczne, to znaczy oparte na bardzo dużej, lecz skończonej liczbie doświadczeń.

Niepodobna zaprzeczyć, że mamy tu do czynienia z uderzającą analogią ze zwykłymi metodami indukcji, ale istnieje wszakże istotna różnica. Indukcja w zastosowaniu do nauk fizycznych jest zawsze niepewna, gdyż opiera się na wierze w powszechny porządek Wszechświata, porządek, który jest poza nami. Indukcja matematyczna, czyli dowód rekurencyjny, narzuca się nam natomiast z koniecznością, albowiem jest potwierdzeniem właściwości samego umysłu.

VII

Jak już powiedziałem, matematycy zawsze usiłują uogólniać twierdzenia, które już wykazali: aby nie szukać innych przykładów, przypomnijmy sobie, że dowiedliśmy przed chwilą równości

a + 1 = 1 + a,

i wykorzystaliśmy ją następnie do dowiedzenia równości

a + b = b + a,

która oczywiście jest bardziej ogólna.

Matematyka może zatem, podobnie jak inne nauki, postępować od szczegółu od ogółu.

Fakt ten mógłby się nam wydać czymś tajemniczym na początku niniejszego wykładu, ale teraz nie ma w nim dla nas już nic tajemniczego, skoro znaleźliśmy analogie między dowodami rekurencyjnymi i zwykłą indukcją.

Matematyczne dowody rekurencyjne i fizyczne dowody indukcyjne mają różne podstawy, lecz bieg ich jest równoległy - postępują w tym samym kierunku, od szczegółu do ogółu.

Rozpatrzmy tę kwestię nieco bliżej.

Aby dowieść równości:

(1) a + 2 = 2 + a,

wystarczy dwukrotnie zastosować regułę

(2) a + 1 = 1 + a,

mianowicie

a + 2 = a + 1 + 1 = 1 + a + 1 = 1 + 1 + a = 2 + a.

Równość (1), wyprowadzona w sposób czysto analityczny z równości (2), nie jest jedna jej przypadkiem szczególnym, lecz ma innych charakter.

Nie można więc powiedzieć, że w części analitycznej i dedukcyjnej dowodów matematycznych postępuje się do szczegółu do ogółu w zwykłym tego słowa znaczeniu.

Obie strony równości (1) są po prostu bardziej złożonymi kombinacjami obu stron równości (2), a celem analizy jest tylko wyodrębnienie elementów tych kombinacji i zbadanie ich stosunków.

Matematycy tworzą zatem "konstrukcje" i "konstruują" kombinacje coraz bardziej skomplikowane. Następnie analizują te kombinacje, te konstrukcje, wydobywają z nich elementy pierwotne, dostrzegają stosunki tych elementów i wyprowadzają z nich stosunki samych konstrukcji.

Jest to droga czysto analityczna, ale nie jest to droga od szczegółu do ogółu, gdyż konstrukcji tych nie można oczywiście uważać za bardziej szczególne od ich elementów.

Niektórzy autorzy przywiązywali, słusznie zresztą, wielką wagę do tego postępowania przez "konstrukcję" i upatrywali w nim warunek konieczny i wystarczający postępu nauk ścisłych.

Konieczny - zapewne tak, ale nie wystarczający.

Aby dana konstrukcja mogła być pożyteczna, by była czymś więcej, niż tylko jałowym wysiłkiem umysłu, by mogła służyć jako szczebel dla badaczy, którzy chcą pójść dalej, musi przede wszystkim odznaczać się pewną jednością, pozwalającą widzieć w niej coś więcej niż tylko proste zestawienie elementów.

Mówiąc ściślej, przejście od elementów do konstrukcji musi dawać pewną korzyść.

Na czym może polegać ta korzyść?

Po co mielibyśmy zastanawiać się nad wielokątem, który zawsze można rozłożyć na trójkąty, nie zaś nad elementarnymi trójkątami?

Otóż dlatego, że wielokąty o dowolnej liczbie boków mają pewne właściwości, które musi wykazywać każdy konkretny wielokąt.

Wykrycie tych właściwości na drodze bezpośredniego badania trójkątów elementarnych na ogół wymagałoby większego wysiłku. Tego właśnie oszczędza nam znajomość twierdzenia ogólnego.

Konstrukcja jest interesująca tylko wtedy, gdy można ją umieścić wśród podobnych konstrukcji, należących do gatunków tego samego rodzaju.

Jeśli czworobok jest czymś więcej niż zestawieniem dwóch trójkątów, to dlatego, że należy do rodzaju wielokątów.

Konieczne jest również, by można było dowodzić własności rodzaju bez konieczności powtarzania dowodu dla każdego gatunku z osobna.

W tym celu należy wznieść się od szczegółu do ogółu, pokonując jeden lub kilka szczebli.

Postępowanie analityczne, "konstrukcyjne", nie zmusza nas wprawdzie do zejścia w dół, ale też nie pozwala na wejście na wyższy poziom.

Wznosić się możemy tylko dzięki indukcji matematycznej, gdyż tylko ona może powiedzieć nam coś nowego. Bez pomocy indukcji, różniącej się pod pewnymi względami od indukcji fizycznej, lecz równie płodnej, konstrukcja nie byłaby w stanie stworzyć nauki.

Zauważmy na zakończenie, że indukcja matematyczna jest możliwa tylko wtedy, gdy jedno i to samo działanie może być powtórzone dowolnie wiele razy. Teoria gry w szachy nigdy nie będzie nauką, gdyż poszczególne posunięcia jednej i tej samej partii nie są do siebie podobne.

Aby dowiedzieć się, co matematycy rozumieją przez continuum, nie należy zwracać się do geometrii. Geometra stara się, lepiej lub gorzej, wyobrazić sobie badane figury, ale wyobrażenia te mają dla niego tylko pomocnicze znaczenie; posługuje się on w geometrii rozciągłością, podobnie jak kredą, którą rysuje na tablicy. Należy wystrzegać się przywiązywania zbytniej wagi do okoliczności akcydentalnych, które dla danej kwestii mają równie małe znaczenie, jak biała barwa kredy.

Czysty analityk może się nie obawiać tego problemu. Analitycy uwolnili matematykę od wszelkich obcych pierwiastków, mogą zatem odpowiedzieć na pytanie, czym jest w istocie continuum, będące przedmiotem rozważań matematyków? Wielu z nich, nie stroniących od rozmyślań nad swą sztuką, udzieliło już odpowiedzi na to pytanie, jak na przykład Tannery w Introduction à la théorie des Fonctionnes d'une variable.

Weźmy za punkt wyjścia drabinę liczb całkowitych. Miedzy kolejne dwa szczeble wstawiamy jeden lub kilka szczebli pośrednich, następnie między te nowe szczeble wstawiamy inne, i tak bez końca. Otrzymamy w ten sposób nieskończoną liczbę wyrazów - są to liczby ułamkowe, czyli wymierne. Ale to jeszcze nie wszystko: między wyrazy te, których jest nieskończenie wiele, należy wstawić jeszcze inne, a mianowicie liczby niewymierne.

Zanim pójdziemy dalej, zróbmy jedną uwagę. Continuum, tak rozumiane, jest zbiorem poszczególnych elementów, uszeregowanych w pewnym porządku; jest ich wprawdzie nieskończenie wiele, ale poszczególne elementy są całkowicie rozdzielone. Nie odpowiada to zwykłemu rozumieniu continuum, zgodnie z którym poszczególne elementy są połączone i tworzą całość, dzięki czemu nie punkt istnieje przed linią, lecz linia przed punktem. Ze słynnej formuły "continuum to jedność w wielości" pozostała tylko wielość, jedność znikła. Analitycy mają jednak słuszność, gdy określają swoje continuum tak, jak to opisaliśmy powyżej, gdyż takie pojęcie continuum jest przedmiotem ich rozważań, od kiedy w rozważaniach tych zaczęli przestrzegać ścisłości. To wystarczy, byśmy zdali sobie sprawę, że continuum matematyczne jest czymś zupełnie innym niż continuum fizyków lub metafizyków.*

* Nie jest dla mnie całkiem jasne, jak należy rozumieć to stwierdzenie. Zbiór liczb wymiernych rzeczywiście jest "dziurawy", w tym sensie, że zbiór liczb ten nie jest zupełny - są w nim luki. Natomiast zbiór liczb rzeczywistych, czyli matematyczne continuum jest zupełny, czyli każdy ciąg Cauchego elementów (odległość między elementami takiego ciągu dąży do zera) tego zbioru ma granicę, która również należy do tego zbioru. W tym sensie zbiór liczb rzeczywistych jest "ciągły" - nie ma w nim przerw - P.A.

Mógłby ktoś jeszcze zarzucić, że matematycy, zadawalając się tą definicją, ulegają złudzeniom słownym, podczas gdy powinni ściśle określić każdy z tych szczebli pośrednich, wytłumaczyć, jak należy je wstawiać i dowieść, że istotnie można to wykonać. Zarzut ten byłby niesłuszny, gdyż jedyna właściwość tych szczebli, mająca znaczenie w dowodach,1 polega na tym, że znajdują się przed lub po takich to a takich innych szczeblach, a zatem w ich definicji powinna być mowa tylko o tej właściwości.

1 Wraz z właściwościami określonymi w specjalnych definicjach dodawania, o których będzie mowa poniżej.

Nie trzeba zatem martwić się o to, w jaki sposób mają być wstawiane wyrazy pośrednie; z drugiej strony, nikt nie może wątpić, że operacja ta jest możliwa, chyba że zapomni, iż w języku matematyków znaczy to po prostu "wolna od sprzeczności".

Definicja nasza nie jest jeszcze kompletna; po tej przydługiej dyskusji powróćmy do jej sformułowania.

Definicja liczb niewymiernych. - Matematycy ze szkoły berlińskiej, zwłaszcza L. Kronecker, pracowali nad skonstruowaniem ciągłej drabiny liczb ułamkowych i niewymiernych nie korzystając z żadnych innych materiałów jak tylko liczby całkowite. Zgodne z tym stanowiskiem, continuum matematyczne ma być czystym tworem umysłu, zbudowanym bez udziału doświadczenia.

Ponieważ ich zdaniem pojęcie liczby wymiernej nie nastręcza żadnych trudności, skupili oni uwagę na zagadnieniu definicji liczb niewymiernych. Zanim przytoczymy tu ich definicję, musimy poczynić pewną uwagę, by uprzedzić zdziwienie, jakie definicja ta zapewne wywoła u czytelników, nie obytych z przyzwyczajeniami matematyków.

Matematycy nie badają przedmiotów, lecz stosunki między przedmiotami; z ich punktu widzenia dane przedmioty można zastąpić innymi, jeśli tylko nie zmieni to stosunków między nimi. Nie interesuje ich treść, a tylko forma.

Gdybyśmy o tym zapomnieli, nie moglibyśmy zrozumieć, dlaczego Dedekind nazywa liczbą niewymierną prosty symbol, czyli zupełnie odmiennego od wyobrażeń, jakie zazwyczaj mamy o ilości - czymś, co można mierzyć i niemal namacalnym.

Oto definicja Dedekinda:

Istnieje nieskończenie wiele sposobów podziału liczb wymiernych na dwie klasy takie, że każda liczba pierwszej klasy jest większa od każdej liczby drugiej klasy.

Zdarzyć się może, że wśród liczb pierwszej klasy istnieje liczba najmniejsza; jeśli na przykład umieścimy w pierwszej klasie wszystkie liczby większe od 2 i samą liczbę 2, a w drugiej wszystkie liczby mniejsze od 2, to wówczas, oczywiście, liczba 2 jest najmniejszą liczbą należącą do pierwszej klasy. Liczbę 2 można uważać za symbol oznaczający ten podział.

Może się również zdarzyć, że wśród liczb drugiej klasy istnieje liczba największa; jest tak na przykład wtedy, gdy do pierwszej klasy należą wszystkie liczby większe od 2, a do drugiej klasy wszystkie liczby mniejsze od 2 i sama liczba 2. Również w tym przypadku liczbę 2 można uznać za symbol tego podziału.

Możliwe jest jednak, że ani w pierwszej klasie nie istnieje liczba najmniejsza, ani w drugiej klasie nie istnieje liczba największa. Przypuśćmy, że do pierwszej klasy należą wszystkie liczby wymierne, których kwadrat jest większy od 2, a do drugiej klasy wszystkie liczby wymierne, których kwadrat jest mniejszy od 2. Jak dobrze wiadomo, nie istnieje liczba wymierna, której kwadrat jest równy 2. Oczywiście, w pierwszej klasie nie istnieje liczba najmniejsza, gdyż niezależnie od tego, jak bliski 2 jest kwadrat danej liczby wymiernej, zawsze można znaleźć liczbę wymierną, której kwadrat jest jeszcze bliższy 2.

Zgodnie z definicją Dedekinda, liczba niewymierna 0x01 graphic
2 nie jest niczym innym, jak symbolem tego szczególnego podziału liczb wymiernych. Każdemu podziałowi odpowiada zatem liczba wymierna lub niewymierna, która jest jego symbolem.

Gdybyśmy zadowolili się taką definicją, pominęlibyśmy kwestię pochodzenia tych symboli; wypada również wyjaśnić, w jaki sposób matematycy doszli do przekonania, że symbolom tym odpowiada pewna konkretna wielkość. Z drugiej strony, czyż trudność taka nie pojawia się już w przypadku ułamków? Czy doszlibyśmy do pojęcia liczb ułamkowych, gdybyśmy nie znali pewnego przedmiotu, który uważamy za nieskończenie podzielny, czyli za continuum?

Continuum fizyczne. - W ten sposób dochodzimy do pytania, czy pojęcie continuum matematycznego nie jest po prostu zaczerpnięte z doświadczenia. Gdyby tak było, surowe dane doświadczenia, czyli nasze wrażenia zmysłowe, byłyby dostępne pomiarom. Wolno przypuszczać, że tak jest rzeczywiście, albowiem w ostatnich czasach usiłowano je mierzyć, a nawet sformułowano prawo, znane jako prawo Fechnera, zgodnie z którym wrażenie jest proporcjonalne do logarytmu bodźca.

Dokładniejsza analiza doświadczeń, które miały stanowić podstawę tego prawa, prowadzi jednak do wprost przeciwnego wniosku. Na przykład, okazało się, że 10 gramowy ciężar A i 11 gramowy ciężar B wywołują jednakowe wrażenia, wrażenia powodowanego przez ciężar B nie można odróżnić od wrażenia wywoływanego przez 12 gramowy ciężar C, łatwo natomiast odróżnić ciężar A od C. Surowe wyniki doświadczenia można zatem zapisać następująco:

A = B, B = C, A < C,

którą można uznać za formułę continuum fizycznego.

Między tą formułą a zasadą sprzeczności zachodzi jawny rozdźwięk, i właśnie konieczność eliminacji tego rozdźwięku zmusiła nas do wprowadzenia pojęcia continuum matematycznego.

Musimy zatem uznać, że wprawdzie pojęcie matematycznego continuum jest wytworem umysłu, ale doświadczenie dostarczyło mu po temu okazji.

Nie możemy pogodzić się z tym, że dwie wielkości równe jednej i tej samej trzeciej wielkości nie są jednak równe, i w ten sposób dochodzimy do przypuszczenia, że A jest różne od B, a B od C, lecz niedoskonałość działania naszych zmysłów nie pozwala nam dostrzec niewielkich różnic.

Konstrukcja continuum matematycznego. - Pierwsze stadium. - Dotychczas wystarczyłoby, w celu właściwego opisania faktów doświadczalnych, wstawienie między A i B niewielkiej liczby dyskretnych wyrazów. Cóż stanie się jednak, gdy wzmocnimy słabe nasze zmysły jakimiś instrumentami, na przykład mikroskopem? Wyrazy, których poprzednio nie byliśmy w stanie odróżnić, takie jak A i B, są teraz odróżnialne, lecz między nimi znalazł się nowy wyraz D, którego nie możemy odróżnić ani od A, ani od B. Surowe wyniki doświadczalne zachowują zawsze charakter continuum fizycznego wraz z tkwiącą w nim sprzecznością.

W celu wyeliminowania tej sprzeczności musimy ustawicznie wstawiać nowe wyrazy między wyrazy już rozróżnione i powtarzać tę operację w nieskończoność. Nie jesteśmy w stanie wyobrazić sobie, by trzeba było gdzieś się zatrzymać, chyba że wyobrazilibyśmy sobie instrument będący w stanie rozłożyć continuum fizyczne na elementy odrębne, podobnie jak teleskop rozdziela Drogę Mleczną na poszczególne gwiazdy. Lecz to właśnie jest niemożliwe, gdyż z instrumentów naukowych zawsze korzystamy za pomocą zmysłów; powiększony obraz mikroskopowy oglądamy oczami, obraz ten musi przeto wykazywać cechy zmysłu wzroku, a więc i continuum fizycznego.*

* Wydaje się, że mamy tu do czynienia z błędnym kołem albo próbą przemycanie pewnego założenia. Prawdą jest, że zmysł wzroku ma ograniczoną zdolność rozdzielczą, natomiast nie wiadomo, czy fizyczna rzeczywistość ma ciągłą strukturę. Można sobie wyobrazić, że jeśli fizyczna rzeczywistość składa się z dyskretnych elementów, to gdy oglądamy ją w dostatecznym powiększeniu, widzimy już te podstawowe elementy, które możemy rozróżnić - a zatem nie występuje tu "continuum fizyczne" i dalsze zwiększanie rozdzielczości nie prowadzi do niczego nowego. Twierdząc, że to jest niemożliwie, Poincaré niejawnie wprowadza hipotezę o ciągłości rzeczywistości. Można sobie wyobrazić, że czasoprzestrzeń w skali Plancka (10-33cm) ma strukturę dyskretną, a wtedy użycie matematycznego continuum do opisu przestrzeni byłoby wygodnym przybliżeniem - P.A.

Pewna długość obserwowana bezpośrednio nie różni się niczym od połowy tej długości, powiększonej dwukrotnie przez mikroskop. Całość jest jednorodna względem swych części; mamy tu nową sprzeczność, a właściwie mielibyśmy ją, gdybyśmy przyjęli, że ilość wyrazów jest skończona; oczywiście bowiem, część, licząca mniej wyrazów niż całość, nie mogłaby być do tej całości podobna.

Sprzeczność ta znika, gdy przyjmiemy, że wyrazów jest nieskończenie wiele; można, na przykład, rozpatrywać zbiór liczb całkowity jako podobny do zbioru liczb parzystych, który przecież stanowi tylko część zbioru liczb całkowitych; każdej liczbie całkowitej odpowiada liczba parzysta, otrzymana przez podwojenie danej liczby.

Oprócz konieczności usunięcia sprzeczności tkwiącej w danych empirycznych jeszcze inne powody skłaniają umysł do skonstruowania pojęcia continuum, złożonego z nieskończonej liczby wyrazów.

Z dokładnie taką samą sytuacją mamy do czynienia w przypadku liczb całkowitych. Posiadamy zdolność pojmowania, że do danego zbioru o znanej liczbie elementów możemy dodać jeszcze jeden; dzięki doświadczeniu mamy sposobność ćwiczyć tę zdolność i uświadomić ją sobie, ale nabywamy wówczas przekonania, że nasza zdolność nie ma granic i że moglibyśmy liczyć w nieskończoność, nie bacząc na to, że w praktyce zdarzyło się nam liczyć jedynie skończone zbiory przedmiotów.

Podobnie, gdy tylko przyjdzie nam do głowy pomysł wstawienia wyrazów pośrednich między dwa kolejne wyrazy szeregu, nabywamy przekonania, że działanie to można kontynuować poza wszelkie granice, i że nie ma, że tak powiem, żadnej wewnętrznej racji, by się kiedyś zatrzymać.

Niechaj mi będzie wolno, dla zwięzłości, nazywać continuum matematycznym pierwszego rzędu każdy zbiór elementów, utworzony według tego samego prawa, co zbiór liczb wymiernych. Jeśli natomiast wpleciemy między nie nowe szczeble zgodnie z prawem tworzenia liczb niewymiernych, to otrzymamy continuum matematyczne drugiego rzędu.*

* Obecnie termin continuum stosuje się na ogół tylko do zbiorów o takiej mocy, jak zbiór liczb rzeczywistych. W terminologii Poincarégo są to continua drugiego rzędu - P.A.

Drugie stadium. - Zrobiliśmy dopiero pierwszy krok; wyjaśniliśmy pochodzenie continuum pierwszego rzędu. Teraz musimy zbadać, dlaczego okazało się niewystarczające i dlaczego trzeba było wynaleźć liczby niewymierne.

Jeżeli wyobrażamy sobie linię, to zawsze posiada ona charakter continuum fizycznego, to znaczy, wyobrażamy ją sobie jako linię mającą pewną szerokość. Dwie linie wyobrażamy sobie jako dwie wąskie wstęgi i jeżeli zadowolimy się tym przybliżonym obrazem, to jest oczywiste, że dwie przecinające się linie mają część wspólną.

Czysty geometra zdobywa się na większy wysiłek: nie wyrzekając się całkowicie pomocy swych zmysłów, chce dojść do pojęcia linii bez szerokości, punktu bez rozciągłości. Dopiąć tego może tylko uznając linię za granicę, do której zdążą wstęga, gdy jej szerokość maleje do zera, a punktu jako granicy, do które zmierza coraz mniejszy obszar. Wobec tego dwie nasze wstęgi, niezależnie od tego, jak wąskie, zawsze posiadają część wspólną, tym mniejszą, im mniejsza szerokość, a granicą tego wspólnego obszaru jest to, co geometra nazywa punktem.

Dlatego mówi się, że dwie przecinające się linie posiadają punkt wspólny i prawda ta wydaje się nam intuicyjnie oczywista.

W przekonaniu tym tkwiłaby jednak sprzeczność, gdybyśmy uważali linie za continua pierwszego rzędu, to znaczy, gdyby na liniach zakreślonych przez geometrę znajdowały się tylko punkty, których współrzędne są liczbami wymiernymi. Sprzeczność ta stałaby się oczywista, gdybyśmy założyli, że istnieją proste i okręgi.

W rzeczy samej, gdyby za rzeczywiste uznać tylko punkty o współrzędnych wymiernych, okręg wpisany do kwadratu i przekątna tego kwadratu nie przecinałyby się, bowiem punkty przecięcia mają współrzędne niewymierne.

To jednak za mało, bowiem w ten sposób otrzymalibyśmy tylko niektóre liczby niewymierne, lecz nie wszystkie.

Wyobraźmy sobie prostą, podzieloną na dwie półproste. Każdą z nich wyobrażamy sobie jako wstęgę o pewnej szerokości; wstęgi te stykają się końcami, gdyż nie może być między nimi przerwy. Część wspólną wyobrażamy sobie jako punkt, który ciągle istnieje, niezależnie od tego, jak wąskie są nasze wstęgi. Przyjmiemy zatem za intuicyjną prawdę, że jeśli prosta jest podzielona na dwie półproste, ich wspólna granica jest punktem. Rozpoznajemy tu koncepcję Dedekinda, który zdefiniował liczbę niewymierną jako wspólną granicę dwóch klas liczb wymiernych.

Takie jest pochodzenie pojęcia continuum drugiego rzędu, które stanowi właściwe continuum matematyczne.

Streszczenie. - Umysł ludzki posiada zdolność tworzenia symboli i w ten sposób skonstruował continuum matematyczne, które jest pewną szczególną kombinacją symboli. Jednym ograniczeniem tej zdolności umysłu jest konieczność unikania wszelkich sprzeczności; umysł korzysta z tej swej zdolności tylko wtedy, gdy doświadczenie daje mu do tego powód.

W rozważanym przypadku, powodem tym jest pojęcie continuum fizycznego, zaczerpnięte z surowych danych zmysłowych. Pojęcie to prowadzi do szeregu sprzeczności, które trzeba kolejno eliminować. W ten sposób jesteśmy zmuszeni co budowania coraz bardziej skomplikowanych kombinacji symboli. Kombinacja, którą ostatecznie przyjmujemy, nie tylko jest wolna od wszelkich sprzeczności wewnętrznych - bo tak było również na wszystkich kolejnych etapach - ale jest również zgodna z poszczególnymi twierdzeniami, który nazywamy intuicyjnymi, a które wywodzą się z mniej lub bardziej obrobionych pojęć empirycznych.

Wielkość mierzalna. - Wielkości, które dotychczas rozpatrywaliśmy, nie są mierzalne; umiemy wprawdzie powiedzieć, czy jedna z tych wielkości jest większa od drugiej, ale nie wiemy, czy jest większa dwa, czy trzy razy.

Zajmowaliśmy się dotychczas jedynie porządkiem, w jakim uszeregowane są nasze wyrazy. W większości przypadków nie to jednak nie wystarcza. Musimy się nauczyć porównywania odległości między dwoma dowolnymi wyrazami. Dopiero wówczas continuum staje się wielkością mierzalną i można doń zastosować działania arytmetyczne.

W tym celu należy wprowadzić nową, specjalną umowę. Umówimy się, że odległość między wyrazami A i B jest równa odległości między C i D. Na początku naszych rozważań przyjęliśmy skalę liczb całkowitych i przypuściliśmy, że między dwa kolejne stopnie wstawia się n stopni pośrednich; na mocy naszej umowy będziemy teraz uważali, że odległości między tymi stopniami są jednakowe.

W ten sposób definiujemy również dodawanie dwóch wielkości; skoro bowiem na mocy definicji odległość AB jest równa odległości CD, to odległość AD na mocy tej definicji jest równa sumie odległości AB i AC.

Definicja ta jest w znacznej mierze dowolna, ale nie całkowicie. Musi być zgodna z pewnym warunkami, takimi jak na przykład przemienność i łączność dodawania. Jeśli definicja spełnia te wymogi, to jej wybór jest obojętny i nie trzeba jej bardziej ograniczać.

Różne uwagi. - Nasuwa się kilka ważnych pytań:

1. Czy stworzenie continuum matematycznego wyczerpuje zdolność twórczą ludzkiego umysłu?

Nie, czego uderzającym dowodem są prace Du Bois Reymonda.

Wiadomo, że matematycy rozróżniają wielkości nieskończenie małe różnych rzędów. Nieskończenie małe drugiego rządu są takie nie tylko bezwzględnie, ale również w stosunku do nieskończenie małych pierwszego rzędu. Nietrudno jest zdefiniować nieskończenie małe rzędu ułamkowego lub nawet niewymiernego i odtworzyć w ten sposób drabinę continuum matematycznego, którą omawialiśmy powyżej.

To jeszcze nie wszystko: istnieją wielkości nieskończenie małe, które są nieskończenie małe w stosunku do nieskończenie małych rzędu pierwszego, a nieskończenie duże w stosunku do nieskończenie małych rzędu 1 + 0x01 graphic
, dla dowolnie małej liczby dodatniej 0x01 graphic
. W ten sposób w naszym szeregu pojawiają się nowe wyrazy i - jeśli wolno wrócić do określenia, którym już się posłużyliśmy, gdyż jest dość dogodne choć uświęcone przez zwyczaj - możemy powiedzieć, że stworzyliśmy continuum trzeciego rzędu.

Łatwo byłoby pójść jeszcze dalej, ale byłaby to już tylko jałowa gra umysłu. Tworzylibyśmy jedynie symbole, pozbawione wszelkiej użyteczności, dlatego nikt nie chce się tym zajmować. Już continuum trzeciego rzędu, do którego prowadzą rozważania różnych rzędów wielkości nieskończenie małych, jest zbyt mało użyteczne, by zdobyło sobie prawo obywatelstwa - matematycy uważają je za prostą ciekawostkę. Umysł korzysta ze swych zdolności twórczych tylko wtedy, gdy zmusza go do tego doświadczenie.

2. Czy stworzenie continuum matematycznego zabezpiecza nas całkowicie przed sprzecznościami podobnymi do tych, które je zrodziły?

Nie - a oto przykład:

Tylko dla osób o gruntownym wykształceniu matematycznym nie jest oczywiste, że każda krzywa posiada styczną; istotnie, jeśli wyobrażamy sobie krzywą i prostą jako dwie wąskie wstęgi, to zawsze możemy je ułożyć w taki sposób, by się nie przecinały, ale miały część wspólną. Jeśli teraz szerokość wstęgi nieograniczenie się zmniejsza, to stopniowo maleje również część wspólna. W granicy, dwie linie, które się nie przecinają, mają punkt wspólny - a zatem prosta jest styczna do krzywej.

Geometra, który tak by rozumował, świadomie lub nieświadomie, postępowałby dokładnie tak samo jak opisywaliśmy to powyżej, by dowieść, że dwie przecinające się linie mają punkt wspólny, a jego intuicja byłaby równie uprawniona, jak w tamtym przypadku.

A jednak intuicja wprowadziłaby go w błąd. Można dowieść, że istnieją krzywe nie posiadające stycznej, nawet, jeśli krzywe te są określone jako continua analityczne drugiego rzędu.

Sprzeczność tę można byłoby usunąć za pomocą konstrukcji pojęciowej analogicznej do tych, które tu badaliśmy, ale matematycy nie zatroszczyli się o to, gdyż sprzeczność ta pojawia się tylko w wyjątkowych przypadkach. Zamiast postarać się o pogodzenie intuicji z analizą, woleli poświęcić jedną z nich, a ponieważ analiza musi być bezbłędna, to po prostu odmówili słuszności intuicji.

Wielowymiarowe continuum fizyczne. - Zbadaliśmy powyżej continuum fizyczne, do jakiego prowadzą bezpośrednie dane naszych zmysłów, lub, jeśli kto woli, surowe wyniki doświadczeń Fechnera; wyniki te streszczają się w następujących sprzecznych wzorach:

A = B, B = C, A < C.

Zobaczymy teraz, jak to pojęcie uległo uogólnieniu, i jak zostało zeń wyprowadzone pojęcie continuum wielowymiarowego.

Rozważmy dwie dowolne grupy wrażeń. Albo można je od siebie odróżnić, albo nie - podobnie jak w doświadczeniach Fechnera ciężar dziesięciogramowy można było odróżnić od dwunastogramowego, ale nie od jedenastogramowego. To wystarcza, by skonstruować continuum o kilku wymiarach.

Nazwijmy elementem jedną z tych grup wrażeń. Będzie to coś analogicznego do punktu matematycznego, ale pod pewnymi względami element różni się od punktu. Nie możemy powiedzieć, że element jest pozbawiony rozciągłości, skoro nie umiemy go odróżnić od elementów sąsiednich; element jest otoczony pewnego rodzaju mgłą. Jeśli wolno mi użyć porównania astronomicznego, to nasze "elementy" są mgławicami, a punkty matematyczne - gwiazdami.

Otóż układ elementów tworzy continuum, jeżeli można przejść od jednego dowolnego elementu do drugiego dowolnie wybranego elementu przez szereg kolejnych elementów, takich, że żadnego z nich nie można odróżnić od poprzedniego. Ten szereg liniowy ma się tak do linii matematycznej jak oddzielny element do punktu.

Zanim pójdziemy dalej, musimy wyjaśnić, co to jest przekrój. Rozważmy continuum C i wykluczmy pewne jego elementy, które chwilowo będziemy traktować jako nie należące do tego continuum. Zbiór wykluczonych elementów nazywamy przekrojem. Przekrój może podzielić C na kilka odrębnych continuów, zbiór pozostałych elementów przestanie stanowić jedno continuum.

W takim przypadku w C istnieją dwa elementy A i B, które należą do dwóch odrębnych continuów. Oznacza to, że nie istnieje szereg liniowy kolejnych elementów C, takich, że każdy z nich nie daje się odróżnić od poprzedniego, przy czym pierwszym elementem jest A, a ostatnim B - chyba, że jeden z elementów tego szeregu jest nieodróżnialny od jednego z elementów przekroju.

Z drugie strony, możliwe jest również, że przekrój nie wystarcza do podzielenia continuum C. Aby sklasyfikować fizyczne continua, zbadamy, jakie należy w nich zrobić przekroje, żeby je podzielić.

Jeżeli można podzielić fizyczne continuum C za pomocą przekroju, złożonego ze skończonej liczby odróżnialnych elementów (a zatem elementy te nie stanowią jednego lub kilku continuów), to mówimy, że C jest continuum jednowymiarowym.

Jeżeli natomiast do podzielenia C konieczny jest przekrój będący continuum, to mówimy, że C jest continuum wielowymiarowym. Jeżeli do podzielenia C wystarczają przekroje będące continuami jednowymiarowymi, to mówimy, że C jest continuum dwuwymiarowym; jeżeli konieczne są przekroje dwuwymiarowe, to C jest continuum trójwymiarowym itd.

W ten sposób doszliśmy do określenia fizycznego continuum wielowymiarowego, opierając się na prostym fakcie, że dwie grupy wrażeń mogą być wzajemnie odróżnialne lub nieodróżnialne.

Wielowymiarowe continuum matematyczne. - Pojęcie continuum matematycznego n-wymiarowego wynika w naturalny sposób z pojęcia continuum fizycznego, za pomocą procesu podobnego do tego, który rozważaliśmy na początku niniejszego rozdziału. Punkt takiego continuum jest, jak wiadomo, określony przez zbiór n wielkości, zwanych jego współrzędnymi.

Wielkości te nie zawsze muszą być mierzalne; istnieje na przykład gałąź geometrii, w której abstrahuje się od pomiaru wielkości; gałąź ta zajmuje się jedynie takimi zagadnieniami, jak to, czy na krzywej ABC punkt B leży między A i C, przy czym jest zupełnie obojętne, czy łuk AB jest równy łukowi BC, czy też jest dwa razy większy. Ten dział geometrii nosi nazwę analizy położenia, czyli topologii (analysis situs).

Topologia jest zwartą i systematyczną nauką, którą zajmowali się najwięksi matematycy. Znajdujemy w niej łańcuch ciekawych i doniosłych twierdzeń, wykazanych na drodze ścisłego rozumowania. Twierdzenia te na ogół różnią się od twierdzeń geometrii czysto jakościowym charakterem; pozostałyby one prawdziwe, gdyby figury zostały przerysowane przez niezręcznego rysownika, który brutalnie zmieniłby ich proporcje i zamiast prostych nakreślił linie mniej lub bardziej krzywe.

Dopiero po wprowadzeniu w tak określonym continuum miary odległości stało się ono przestrzenią i narodziła się geometria. Zbadaniem jej charakteru zajmę się w części drugiej.

Każdy wniosek wynika z przesłanek, które są albo oczywiste same przez się i nie wymagają dowodu, albo też mogą być ustanowione przez powołanie się na inne twierdzenia. Ponieważ nie można w ten sposób cofać się do nieskończoności, każda nauka dedukcyjna, a w szczególności geometria, musi opierać się na pewnej liczbie pewników, których nie można dowieść. Wszystkie wykłady geometrii rozpoczynają się od sformułowania tych pewników. Wśród nich należy rozróżniać dwa rodzaje: niektóre, jak na przykład "dwie wielkości równe trzecie są sobie równe", nie są twierdzeniami geometrycznymi, lecz należą do analizy. Uważam je za sądy analityczne a priori i nie będę się nimi zajmował.

Muszę natomiast zatrzymać się nad innymi pewnikami, właściwymi samej geometrii. W większości wykładów tej nauki formułuje się w sposób jawny trzy takie pewniki:

  1. Przez dwa punkty może przechodzić tylko jedna prosta.

  2. Linia prosta jest najkrótszą drogą od jednego punktu do drugiego.

  3. Przez dany punkt można przeprowadzić tylko jedną prostą równoległą do danej prostej.

Drugie z tych twierdzeń jest wprawdzie zwykle podawane jako pewnik, czyli jako stwierdzenie nie wymagające dowodu, w rzeczywistości można je wyprowadzić z dwóch pozostałych oraz innych jeszcze pewników, które przyjmuje się milcząco i niejawnie, co wykażemy w dalszych rozważaniach.

Przez długi czas na próżno usiłowano podać dowód trzeciego pewnika, znanego jako postulat Euklidesa. Trudno doprawdy wyobrazić sobie, ile poświęcono trudu na osiągnięcie tego chimerycznego celu. Wreszcie na początku XIX wieku Rosjanin Łobaczewski i Węgier Bolyai dowiedli w sposób niezbity, że jest to niemożliwe: uwolnili nas oni prawie całkowicie od wynalazców geometrii bez postulatu Euklidesa; od tego czasu paryska Akademia Nauk otrzymuje rocznie nie więcej niż tylko dwa lub trzy nowe dowody.

Kwestia ta nie została jednak wyczerpana; niedługo potem posunęła się o wielki krok naprzód, gdy Riemann ogłosił swoją słynną rozprawę Über die Hypothesen welche der Geometrie zu Grunde liegen. Rozprawa ta była źródłem natchnienia dla autorów wielu nowszych prac, o których będziemy dalej mówić; spośród nich wymienić tu wypada Beltramiego i Helmholtza.

Geometria Łobaczewskiego. - Gdyby można było wyprowadzić postulat Euklidesa z pozostałych pewników, to zaprzeczenie tego postulatu w połączeniu z przyjęciem pozostałych pewników doprowadziłaby oczywiście do sprzeczności; zbudowanie na takich przesłankach logicznie spójnej geometrii byłoby niemożliwe.

Łobaczewski skonstruował taką właśnie geometrię. Zakłada on na samym wstępie, że:

Przez dany punkt można przeprowadzić kilka równoległych do danej prostej.

Poza tym Łobaczewski zachowuje wszystkie pewniki geometrii Euklidesa. Następnie wyprowadza on szereg twierdzeń, nie zawierających żadnych sprzeczności i buduje geometrię, które wewnętrzna logika niczym nie ustępuje logice geometrii euklidesowej.

Twierdzenia te różnią się oczywiście bardzo od twierdzeń, do których jesteśmy przyzwyczajeni i dlatego początkowo wywołują zdziwienie.

Na przykład, "Suma kątów w trójkącie jest zawsze mniejsza od dwóch kątów prostych, a różnica między tą sumą i dwoma kątami prostymi jest proporcjonalna do pola trójkąta".

"Skonstruowanie figury podobnej do danej figury, lecz różniącej się od niej rozmiarami, jest niemożliwe".

"Podzielmy okrąg na n równych części i poprowadźmy styczne w punktach podziału. Jeżeli promień okręgu jest dostatecznie mały, to styczne te utworzą wielokąt; jeżeli natomiast promień jest dostatecznie duży, styczne się nie przetną".

Dalsze mnożenie tych przykładów byłoby zbyteczne; twierdzenia Łobaczewskiego różnią się zasadniczo od twierdzeń Euklidesa, ale są ze sobą logicznie powiązane.

Geometria Riemanna. - Wyobraźmy sobie świat zaludniony wyłącznie przez istoty pozbawione grubości; przypuśćmy nadto, że te "nieskończenie płaskie" zwierzęta żyją na jednej płaszczyźnie i nie mogą jej opuścić. Załóżmy jeszcze, że świat ten jest dostatecznie oddalony od innych, aby nie ulegać ich wpływom. Skoro już gromadzimy założenia, możemy również obdarzyć te istoty władzą rozumowania i uznać, że są zdolne do zajmowania się geometrią. W swojej geometrii będą oczywiście rozważać przestrzeń dwuwymiarową, czyli płaszczyznę.

Załóżmy teraz, że te pozbawione grubości żyjątka nie są płaskie, lecz mają postać figur sferycznych i żyją na jednej kuli, której nie mogą opuścić. Jaką geometrię stworzą te istoty? Przede wszystkim, przyjmą one, że przestrzeń jest dwuwymiarowa. Rolę linii prostej będzie grać w ich świecie najkrótsza droga między dwoma punktami kuli, czyli łuk wielkiego koła. Jednym słowem, będzie to geometria sferyczna.

Istoty te będą uważać za przestrzeń kulistą powierzchnię, od której nie mogą się oderwać i na której zachodzą wszystkie zjawiska, dostępne ich poznaniu. Ich przestrzeń nie ma zatem granic, gdyż po kuli można posuwać się stale naprzód, nie napotykając nigdzie na przeszkodę; jest wszakże skończona, gdyż można ją obejść dookoła.

Otóż geometria Riemanna - to geometria sferyczna, tyle że w trzech wymiarach. Aby ją stworzyć, niemiecki matematyk musiał nie tylko odrzucić postulat Euklidesa, ale również pierwszy pewnik, który brzmi: Przez dwa punkty można przeprowadzić tylko jedną prostą.

Przez dwa punkty na kuli na ogół można przeprowadzić tylko jedno wielkie koło (które dla naszych istot jest odpowiednikiem linii prostej); istnieje jednak wyjątek: przez dwa punkty leżące na przeciwnych końcach średnicy kuli można przeprowadzić nieskończenie wiele wielkich kół.

Podobnie w geometrii Riemanna (a przynajmniej w jeden z jej wersji), przez dwa punkty na ogół przechodzi tylko jedna prosta, ale istnieją przypadki wyjątkowe, gdy przez dwa punkty przechodzi nieskończenie wiele prostych.

Geometria Riemanna jest w pewnym sensie przeciwstawna geometrii Łobaczewskiego:

Na przykład, suma kątów trójkąta jest:

równa dwóm kątom prostym w geometrii Euklidesa;

mniejsza od dwóch kątów prostych w geometrii Łobaczewskiego;

większa od dwóch kątów prostych w geometrii Riemanna.

Liczba równoległych do danej prostej, które można przeprowadzić przez dany punkt, jest równa:

jeden geometrii Euklidesa;

nieskończoności w geometrii Łobaczewskiego;

zeru w geometrii Riemanna.

Dodajmy jeszcze, że przestrzeń Riemanna jest skończona, choć nieograniczona, natomiast przestrzenie Euklidesa i Łobaczewskiego są nieskończone.

Powierzchnie o stałej krzywiźnie. - Pozostał do rozpatrzenia jeszcze jeden możliwy zarzut. Wprawdzie twierdzenia Łobaczewskiego i Riemanna nie prowadzą do żadnych sprzeczności, lecz niezależnie od tego, jak liczne wnioski wyprowadzili ze swoich pewników, w pewnym momencie musieli się zatrzymać, zanim wyczerpali listę możliwych wniosków, gdyż jest ona zapewne nieskończona. Któż więc, zaręczy, że gdyby posunęli się dalej w swych rozważaniach, nie natknęliby się jednak na jakąś sprzeczność?

Takich wątpliwości nie ma w przypadku geometrii Riemanna, o ile ograniczymy się do dwóch wymiarów, bowiem dwuwymiarowa geometria Riemanna nie różni się do geometrii sferycznej, która jest gałęzią geometrii zwykłej, a tym samym stoi poza wszelką dyskusją.

Beltrami sprowadził dwuwymiarową geometrię Łobaczewskiego do jednej z gałęzi geometrii zwykłej i tym samym odparł ten zarzut.

Osiągnął to w sposób następujący. Rozważmy dowolną figurę na pewnej powierzchni. Wyobraźmy sobie, że figura ta jest nakreślona na elastycznym i nierozciągliwym płótnie, rozpostartym na tej powierzchni. Przy zmianie miejsca tego płótna poszczególne figury mogą zmieniać swój kształt, natomiast zachowane są wszystkie długości. Taka elastyczna, lecz nierozciągliwa figura na ogół nie może się przesuwać nie odrywając się od tej powierzchni, ale istnieją pewne szczególne powierzchnie, na których jest to możliwe. Są to powierzchnie o stałej krzywiźnie.

Jeśli powrócimy teraz do porównania, którym posługiwaliśmy się powyżej i wyobrazimy sobie dwuwymiarowe istoty żyjące na jednej z takich powierzchni, to widzimy, że ich zdaniem możliwy jest ruch figury, której wszystkie linie zachowują stałą długość. Natomiast istotom żyjącym na powierzchni o zmiennej krzywiźnie ruch taki wydałby się niedorzecznością.

Powierzchnie o stałej krzywiźnie można podzielić na dwie klasy:

Powierzchnie o krzywiźnie dodatniej, takie jak powierzchnia kuli. Geometria tych powierzchni sprowadza się do geometrii sferycznej, czyli geometrii Riemanna.

Powierzchnie o krzywiźnie ujemnej. Beltrami udowodnił, że powierzchnię te mają taką samą geometrię, jak geometria Łobaczewskiego. Można zatem, podać modele geometrii Riemanna i Łobaczewskiego w geometrii euklidesowej.

Interpretacja geometrii nieeuklidesowych. - W ten sposób znika ostatni zarzut, jaki można wysunąć pod adresem geometrii nieeuklidesowych.

Nie trudno byłoby rozciągnąć rozumowanie Beltramiego na geometrie trójwymiarowe. Umysły, których nie przeraża przestrzeń czterowymiarowa, nie widzą żadnych trudności również w tym przypadku, ale nie są one zbyt liczne. Obierzmy zatem, inną drogę.

Rozważmy pewną płaszczyznę, którą nazwiemy płaszczyzną podstawową i sporządźmy pewnego rodzaju słownik, w którym każdemu wyrazowi w jednej kolumnie odpowiada wyraz w drugiej kolumnie, tak samo jak w zwykłych słownikach odpowiadają sobie wyrazy dwóch języków, mające to samo znaczenie:

Przestrzeń - Część przestrzeni, leżąca nad płaszczyzną podstawową.

Płaszczyzna - Kula przecinająca normalnie płaszczyznę podstawową.

Prosta - Koło przecinające pod kątem prostym płaszczyznę podstawową.

Kula - Kula.

Koło - Koło.

Kąt - Kąt.

Odległość dwóch punktów - Logarytm stosunku anharmonicznego tych dwóch punktów oraz przecięć płaszczyzny podstawowej z kołem, przechodzącym przez te dwa punkty i przecinającym ją pod kątem prostym itd.

Weźmy teraz twierdzenia geometrii Łobaczewskiego i przetłumaczmy je za pomocą tego słownika, tak jakbyśmy tłumaczyli tekst niemiecki za pomocą słownika niemiecko-francuskiego. Otrzymamy w ten sposób twierdzenia geometrii euklidesowej.

Na przykład twierdzenie Łobaczewskiego "suma kątów trójkąta jest mniejsza od dwóch kątów prostych" w tłumaczeniu takim brzmi: "jeśli boki trójkąta krzywoliniowego są łukami kół, które po przedłużeniu przecięłyby pod kątami prostymi płaszczyznę podstawową, to suma kątów tego trójkąta krzywoliniowego jest mniejsza do dwóch kątów prostych". Wobec tego, niezależnie od tego, jak daleko posuniemy się wyciąganiu wniosków z założeń Łobaczewskiego, nie trafimy nigdy na sprzeczność. Gdyby bowiem dwa twierdzenia Łobaczewskiego były sprzeczne, to sprzeczne byłyby również twierdzenia otrzymane po przetłumaczeniu ich za pomocą naszego słownika, ale przecież są to twierdzenia geometrii euklidesowej, a nikt nie wątpi, że zwykła geometria jest wolna od sprzeczności. Skąd pochodzi ta pewność i czy da się ją uzasadnić? Tej kwestii nie możemy tutaj rozważać, gdyż wymagałoby to długich wywodów.

W każdym razie, ostatecznie upada zarzut przedstawiony powyżej.

Lecz to jeszcze nie wszystko. Geometria Łobaczewskiego, skoro można ją konkretnie zinterpretować, przestaje być jałowym ćwiczeniem logicznym i może znaleźć zastosowania; nie mogę tu mówić o tych zastosowaniach ani o ich wykorzystaniu przez Feliksa Kleina i przeze mnie do całkowania równań liniowych.

Nie jest to jedyna możliwa interpretacja geometrii Łobaczewskiego; można byłoby sporządzić kilka słowników analogicznych do powyższego, pozwalających na przekład twierdzeń Łobaczewskiego na twierdzenia geometrii Euklidesa.

Pewniki utajone. - Czy geometria opiera się wyłącznie na pewnikach, jawnie podawanych w jej wykładach? Można być pewnym, że tak nie jest, skoro po odrzuceniu kolejnych pewników pozostała jeszcze pewna liczba twierdzeń, wspólnych dla geometrii Euklidesa, Łobaczewskiego i Riemanna. Twierdzenia te muszą wynikać z jakichś przesłanek, które geometrzy przyjmują, nie formułując ich jednak w jawnej postaci. Ciekawym zadaniem jest próba wyodrębnienia tych przesłanek z klasycznych dowodów geometrycznych.

Stuart Mill twierdził, że każda definicja zawiera w sobie pewnik, albowiem gdy coś definiujemy, domyślnie zakładamy istnienie definiowanego obiektu. To zbyt daleko idące twierdzenie; w matematyce rzadko się zdarza, by po definicji nie następował dowód istnienia definiowanego przedmiotu, a jeśli sobie tego oszczędzamy, to zazwyczaj, dlatego, że czytelnik z łatwością może sam uzupełnić tę lukę. Pamiętać należy, że pojęcie "istnienia" ma różne znaczenia, zależnie od tego, czy odnosi się do tworu matematycznego, czy przedmiotu materialnego. Twór matematyczny istnieje zawsze, jeśli tylko jego definicja jest wolna od sprzeczności wewnętrznych i nie prowadzi do sprzeczności z przyjętymi twierdzeniami.

Uwaga Stuarta Milla nie dotyczy wszystkich definicji, ale w odniesieniu do niektórych jest jak najbardziej słuszna. Spotykamy się czasami z następującą definicją płaszczyzny:

Płaszczyzną nazywamy taką powierzchnię, że prosta, łącząca dowolne dwa punkty powierzchni, cała leży na tej powierzchni.

Definicja ta kryje w sobie nowy pewnik; można wprawdzie wprowadzić w niej pewne zmiany - i tak byłoby lepiej - ale wówczas trzeba byłoby sformułować ten pewnik w jawnej postaci.

Inne definicje nasuwają równie doniosłe uwagi.

Rozważmy definicję równości dwóch figur: dwie figury są równe, gdy można je na siebie nałożyć; aby tego dokonać, trzeba przenieść jedną z nich, tak by pokryła się z drugą, ale jak to zrobić? Na to pytanie autor definicji odpowiedziałby zapewne, że figurę należy przenosić nie zmieniając jej kształtu, na podobieństwo bryły sztywnej. Odpowiedź ta, rzecz jasna, zawiera w sobie błędne koło.

W istocie, ta definicja niczego nie określa; nie miałaby ona żadnego sensu dla istoty żyjącej w świecie, w którym istnieją jedynie płyny. Jeśli nam wydaje się jasna, to tylko dlatego, że jesteśmy przyzwyczajeni do właściwości brył sztywnych, bardzo zbliżonych do właściwości idealnych brył sztywnych, których wymiary nigdy się nie zmieniają.

Oprócz tych wszystkich braków, w definicji tej tkwi jeszcze jeden utajony pewnik.

Możliwość ruchu figury bez zmiany kształtu nie jest bynajmniej czymś oczywistym, a jeśli nawet, to tylko w takim znaczeniu, w jakim jest oczywisty postulat Euklidesa, nie zaś jak sądy analityczne a priori.

Rozpatrując zresztą definicje i dowody geometryczne, przekonujemy się, że zachodzi konieczność przyjęcia bez dowodu nie tylko możliwości tego ruchu, ale również pewnych jego właściwości.

Wynika to przede wszystkim z samej definicji linii prostej. Istnieje wiele błędnych definicji linii prostej. Oto poprawna definicja, używana domyślnie we wszystkich dowodach, w których mowa o linii prostej:

"Może się zdarzyć, że ruch figury bez zmiany kształtu odbywa się w taki sposób, że wszystkie punkty pewnej linii, należącej do tej figury, pozostają nieruchome, a wszystkie punkty poza tą linią poruszają się. Taką linię nazywać będziemy linią prostą". W tym sformułowaniu rozmyślnie oddzieliliśmy definicję od związanego z nią pewnika.

Wiele dowodów - na przykład równości trójkątów, możliwości przeprowadzenia linii prostopadłej do danej prostej i przechodzącej przez zadany punkt - zakłada domyślne twierdzenia, których wyraźnie nie formułujemy, opierają się bowiem na założeniu, że możliwe jest przeniesienie figury w przestrzeni.

Czwarta geometria. - Z pośród domyślnych pewników jeden zasługuje na szczególną uwagę, gdyż jego odrzucenie pozwala na skonstruowanie czwartej geometrii, równie spójnej logicznie, jak geometrie Euklidesa, Łobaczewskiego i Riemanna.

Aby dowieść, że zawsze można poprowadzić z punktu A prostą prostopadłą do danej prostej AB, rozważa się prostą AC, która obraca się wokół punktu A i początkowo pokrywa się z prostą AB. Prosta AC obraca się, aż będzie przystawać do przedłużenia AB.

W tym rozumowaniu kryją się dwa założenia: że obrót taki jest możliwy, i że można go dokonać, aż jedna z prostych stanie się przedłużeniem drugiej.

Przyjmując pierwsze założenie, a odrzucając drugie, otrzymalibyśmy liczne twierdzenia, jeszcze dziwniejsze niż twierdzenia Łobaczewskiego i Riemanna, ale równie jak tamte wolne od wszelkich sprzeczności.

Przytoczę tylko jedno z tych twierdzeń, i to nie najbardziej osobliwe: prosta rzeczywista może być prostopadła do samej siebie.

Twierdzenie Liego. - Liczba pewników wprowadzonych niejawnie do dowodów klasycznych jest większa, niż to konieczne; interesujące byłoby zatem sprowadzenie jej do minimum. Warto przedtem zadać pytanie, czy jest to w ogóle możliwe, czy liczba niezbędnych pewników i liczba możliwych geometrii nie jest nieskończona?

Zasadnicze znaczenie w tej kwestii ma twierdzenie podane przez Sophusa Liego, które można sformułować następująco:

Jeżeli:

  1. Przestrzeń ma n wymiarów;

  2. Możliwy jest ruch figury o stałym kształcie;

  3. Określenie położenia tej figury w przestrzeni wymaga podania p warunków;

to liczba różnych geometrii zgodnych z tymi warunkami jest ograniczona.

Można nawet dodać, że jeśli znana jest liczba wymiarów n, to można wyznaczyć ograniczenie z góry na p.

Jeśli zatem przyjmuje się możliwość ruchu figur bez odkształceń, to liczba możliwych geometrii trójwymiarowych, jest skończona (i niewielka).

Geometrie Riemanna. - Z twierdzeniem Liego pozornie sprzeczne są wyniki Riemanna, który skonstruował nieskończenie wiele różnych geometrii, a ta, którą zazwyczaj określa się jego nazwiskiem, jest tylko przypadkiem szczególnym.

Wszystko to zależy, według Riemanna, od sposobu mierzenia długości krzywej. Otóż istnieje nieskończenie wiele sposobów określania tej długości, a każdy z nich jest punktem wyjścia nowej geometrii.

To oczywiście prawda, ale większość tych sposobów określania długości nie daje się pogodzić z przyjętym w twierdzeniu Liego założeniem o możliwości ruchu sztywnej figury. Te geometrie Riemanna, choć pod wieloma względami bardzo interesujące, mają charakter czysto analityczny i nie można w nich dowodzić twierdzeń w sposób analogiczny jak w geometrii euklidesowej.

O istocie pewników. - Większość matematyków uważa geometrię Łobaczewskiego za pewną ciekawostkę logiczną, ale niektórzy poszli jednak dalej. Skoro możliwych jest wiele geometrii, to czy jest rzeczą pewną, że to nasza jest prawdziwa? Wprawdzie z doświadczeń wynika, że suma kątów trójkąta jest równa dwóm kątom prostym, ale to dlatego, że operujemy zbyt małymi trójkątami. Według Łobaczewskiego, różnica jest proporcjonalna do pola trójkąta, a zatem nie można wykluczyć, że stanie się dostrzegalna, gdy będziemy mieli do czynienia z większymi trójkątami lub gdy wzrośnie dokładność pomiarów. W takim razie geometria euklidesowa byłaby tylko pewnym przybliżeniem.

Aby rozważyć ten pogląd, musimy przede wszystkim zadać sobie pytanie, jaka jest istota pewników geometrycznych?

Czy są to sądy syntetyczne a priori, jak mówił Kant?

Gdyby tak było, narzucałyby się nam z taką siłą, że nie moglibyśmy wprost pojąć twierdzeń przeciwnych i budować na ich podstawie teoretycznych gmachów. Nie byłoby zatem geometrii nieeuklidesowych.

Aby się o tym przekonać, weźmy prawdziwy sąd syntetyczny a priori, na przykład ten, którego głęboką rolę omówiliśmy w pierwszym rozdziale:

Jeżeli twierdzenie jest prawdziwe dla liczby 1 i jeżeli dowiedziono, że skoro jest prawdziwe dla liczby n, to jest również prawdziwe dla liczby n + 1, to twierdzenie to jest prawdziwe dla wszystkich liczb całkowitych dodatnich.

Spróbujmy wyzwolić się od tego twierdzenia i przyjmując założenie przeciwne skonstruować fałszywą arytmetykę, analogiczną do geometrii nieeuklidesowej. Nie potrafimy tego dokonać, a nawet skłonni jesteśmy uznać te sądy za analityczne.

Z drugiej strony, wróćmy do naszej historyjki o istotach pozbawionych grubości; niepodobna wprost przypuścić, by istoty te, o ile mają umysł ukształtowany podobnie do naszego, skonstruowały geometrię euklidesową, sprzeczną z wszystkimi ich doświadczeniami.

Czy zatem musimy przyjąć, że pewniki geometrii są prawdami doświadczalnymi? Przedmiotem doświadczeń nie są jednak idealne proste i okręgi; wyniki empiryczne dotyczą zawsze przedmiotów materialnych. Do czego zatem sprowadzają się doświadczenia, które rzekomo służą za podstawę geometrii? Odpowiedź jest łatwa.

Jak się już przekonaliśmy, w geometrii bardzo często rozumuje się tak, jakby figury geometryczne zachowywały się tak samo, jak bryły sztywne. Czy zatem geometria zapożyczyła z doświadczenia właściwości tych brył?

Własności światła, a w szczególności rozchodzenie się promieni światła wzdłuż linii prostych były bodźcem do sformułowania pewnych twierdzeń geometrii, a w szczególności geometrii rzutowej. Można nawet powiedzieć, że geometria metryczna zajmuje się badaniem brył sztywnych, a geometria rzutowa - badaniem światła.

Napotykamy tu jednak na pewną trudność, i to trudność nie do przezwyciężenia. Gdyby geometria była nauką doświadczalną, nie byłaby nauką ścisłą, podlegałaby ustawicznym korektom. Więcej nawet: już dziś powinniśmy uznać geometrię euklidesową za błędną, gdyż wiadomo, że nie istnieją idealne bryły sztywne.

Pewniki geometryczne nie są więc ani sądami syntetycznymi a priori, ani faktami doświadczalnymi.

Pewniki geometryczne są konwencjami; wybierając jedną z wielu możliwych konwencji kierujemy się faktami doświadczalnymi, ale wybór pozostaje wolny i ogranicza go jedynie konieczność uniknięcia wszelkich sprzeczności. Dzięki temu postulaty geometrii są ściśle prawdziwe nawet wtedy, gdy prawa doświadczalne, który wpłynęły na ich wybór, są tylko przybliżone.

Innymi słowy, pewniki geometryczne (nie mówimy tu o pewnikach arytmetycznych) są jedynie ukrytymi definicjami.

Jak zatem należy rozumieć pytanie: Czy geometria euklidesowa jest prawdziwa?

Pytanie to jest bezsensowne.

Równie dobrze moglibyśmy pytać, czy system metryczny jest prawdziwy, a dawne systemy miar fałszywe; czy współrzędne kartezjańskie są prawdziwe, a biegunowe fałszywe. Jedna geometria nie może być bardziej prawdziwa od innej; może być tylko dogodniejsza.

Otóż geometria euklidesowa jest i pozostanie najdogodniejsza, gdyż:

1. Jest najprostsza, i to nie tylko wskutek naszych przyzwyczajeń umysłowych, czy też bezpośredniej intuicji przestrzenie euklidesowej. Jest ona najprostsza sama przez się, podobnie jak wielomian pierwszego stopnia jest prostszy od wielomianu drugiego stopnia; wzory trygonometrii sferycznej są bardziej zawiłe niż trygonometrii płaskiej, i tak samo oceniłby je analityk, który nie znałby ich znaczenia geometrycznego.

2. Jest dobrze dostosowana do właściwości naturalnych brył sztywnych, do których zbliżają się nasze członki i nasze oko i z których są skonstruowane nasze przyrządy miernicze.

Rozpocznijmy od małego paradoksu.

Istoty, obdarzone takim samym umysłem, jak my, oraz takimi samymi zmysłami, a nie posiadające żadnego uprzedniego wykształcenia, gdyby zostały umieszczone w odpowiednio wybranym świecie zewnętrznym, odbierałyby z niego takie wrażenia, że doprowadziłoby to je do stworzenia geometrii nieeuklidesowej i do lokalizowania zjawisk zachodzących w świecie zewnętrznym w przestrzeni nieeuklidesowej, a może nawet w czterowymiarowej.

Natomiast my, których wykształcenie jest urobione przez nasz świat obecny, gdybyśmy zostali nagle przeniesieni do tego nowego świata, bez trudności moglibyśmy opisywać zachodzące w nim zjawiska w naszej przestrzeni euklidesowej.

I na odwrót, gdyby te istoty zostały przeniesione do naszego świata, mogłyby opisywać znane nam zjawiska w przestrzeni nieeuklidesowej.

Co mówię! Przy pewnym wysiłku moglibyśmy sami to uczynić.

Ktoś, kto poświęciłby temu zadaniu swoje życie, mógłby zapewne dojść do wyrobienia sobie poczucia czwartego wymiaru.

Przestrzeń geometryczna a przestrzeń wyobrażeniowa. - Mówi się często, że obrazy przedmiotów zewnętrznych lokalizujemy w przestrzeni, a nawet, że jest to warunek konieczny ich powstawania. Często spotyka się opinię, że przestrzeń ta, która służy jako gotowa rama naszych wrażeń i wyobrażeń, jest tożsama z przestrzenią geometryczną i posiada wszystkie jej właściwości.

Każdemu, kto podziela taki pogląd, nasze powyższe twierdzenie musi się wydać bardzo dziwne. Rozważmy wszelako, czy pogląd ten nie jest złudzeniem, które rozwiałaby głębsza analiza.

Jakie są właściwości przestrzeni we właściwym sensie, to znaczy, przestrzeni, będącej przedmiotem geometrii i którą nazywamy przestrzenią geometryczną? Oto niektóre z najistotniejszych właściwości:

1. Przestrzeń jest ciągła,

2. Jest nieskończona,

3. Ma trzy wymiary,

4. Jest jednorodna, to znaczy żaden jej punkt nie jest wyróżniony,

5. Jest izotropowa, to znaczy, żadna z prostych przechodzących przez dany punkt nie jest wyróżniona.

Porównajmy teraz przestrzeń geometryczna do ramy naszych wrażeń i wyobrażeń, którą moglibyśmy nazwać przestrzenią wyobrażeniową.

Przestrzeń wzrokowa. - Rozważmy najpierw wrażenia czysto wzrokowe, pochodzące od obrazu powstającego na siatkówce.

Wystarczy krótka analiza by stwierdzić, że obraz ten jest ciągły, ale dwuwymiarowy i choćby tym czysta przestrzeń wzrokowa różni się od przestrzeni geometrycznej.

Ponadto, obraz ten jest zawarty w ograniczonej ramie.

Wreszcie, należy zwrócić uwagę na jeszcze jedną ważną różnicę: czysta przestrzeń wzrokowa nie jest jednorodna. Nie wszystkie punkty siatkówki, niezależnie od tego, jaki powstaje na niej obraz, odgrywają jednakową rolę. Żółta plamka z całą pewnością różni się od punktu położonego na brzegu siatkówki. Nie tylko bowiem jeden i ten sam przedmiot tworzy w tym miejscu o wiele żywszy obraz, lecz na ogół w każdej ograniczonej ramie punkt w jej środku jest wyróżniony w porównaniu z punktem, leżącym w pobliżu jednego z brzegów.

Głębsza analiza bez wątpienia pozwoliłaby stwierdzić, że ciągłość przestrzeni wzrokowej i jej dwuwymiarowość są jedynie złudzeniami, a różnice między przestrzenią wzrokową i przestrzenią geometryczną są jeszcze większe, niż tu przedstawiliśmy, ale nie będziemy się dłużej zajmować tą kwestią.

Wzrok pozwala nam oceniać odległość, a zatem postrzegamy trzeci wymiar. Wiadomo wszakże, że postrzeganie trzeciego wymiaru sprowadza się do wysiłku koniecznego do akomodacji i zbieżności kierunków widzenia, co jest konieczne do wyraźnego postrzegania przedmiotów.

Są to wrażenia mięśniowe, zupełnie odmienne od wzrokowych, którym zawdzięczamy postrzeganie dwóch wymiarów. Trzeci wymiar ma dla nas zatem inny charakter niż pierwsze dwa. A więc to, co moglibyśmy nazwać zupełną przestrzenią wzrokową, nie jest przestrzenią izotropową.

Przestrzeń wzrokowa ma trzy wymiary; to znaczy, że elementy naszych wrażeń wzrokowych (a przynajmniej te, które składają się na wytworzenie pojęcia rozciągłości) są całkowicie określone, skoro tylko znamy trzy z pośród nich, czyli - w języku matematycznym, są to funkcje trzech zmiennych niezależnych.

Rozpatrzmy jednak tę kwestię nieco dokładniej. Trzeci wymiar objawia się nam na dwa sposoby: przez wysiłek akomodacji i dzięki zbieżności oczu.

Zapewne obie te wskazówki są zawsze ze sobą w zgodzie, zachodzi między nimi stały związek, czyli - mówiąc językiem matematycznym - obie zmienne, będące miarą tych dwóch wrażeń mięśniowych, nie są niezależne. Innymi jeszcze słowy, unikając odwoływania się do dość subtelnych pojęć matematycznych, możemy sformułować to stwierdzenie w języku z poprzedniego rozdziału: jeżeli dwa wrażenia zbieżności A i B nie dają się odróżnić, to odpowiadające im wrażenia akomodacyjne A1 i B1 również są nieodróżnialne.

To jednak jest, że tak powiem, fakt doświadczalny; a priori nic nie wyklucza przypuszczenia, że jest przeciwnie, a jeśli to przeczucie jest prawdziwe, jeśli te wrażenia mięśniowe zmieniają się niezależnie od siebie, to będziemy mieli jedną zmienną niezależną więcej i "przestrzeń wzrokowa zupełna" stanie się dla nas continuum fizycznym o czterech wymiarach.

Dodałbym nawet, że jest to fakt wynikający z doświadczenia zewnętrznego. Nic nie zabrania nam przypuścić, że istota o umyśle takim samym, jak nasz, o takich samych organach zmysłowych co my, znalazła się w świecie, w którym światło dochodziłoby do niej dopiero po przejściu skomplikowanego układu ośrodków załamujących. Te dwie wskazówki, służące do oceniania odległości, przestałyby wówczas być związane stałą zależnością. Istota, której zmysły kształtowałyby się w takim świecie, niewątpliwie uważałaby, że przestrzeń wzrokowa jest czterowymiarowa.

Przestrzeń dotykowa i motoryczna. "Przestrzeń dotykowa" jest jeszcze bardziej złożona niż wzrokowa i bardziej oddalona od przestrzeni geometrycznej. Zbytecznym byłoby powtarzać dla zmysłu dotyku to, co już powiedzieliśmy na temat wzroku.

Poza danymi wzrokowymi i dotykowymi istnieją jeszcze inne wrażenia, przyczyniające się w takim samym, jeśli nie większym stopniu, do ukształtowania pojęcia przestrzeni. Są to znane każdemu wrażenia towarzyszące ruchom, zwane zwykle wrażeniami mięśniowymi.

Odpowiadająca im rama stanowi to, co można nazwać przestrzenią motoryczną.

Każdy mięsień wywołuje specjalne wrażenie, które może słabnąć i narastać, tak że ogół naszych wrażeń mięśniowych zależy od tylu zmiennych, ile posiadamy mięśni. Zgodnie z tym punktem widzenia, przestrzeń motoryczna powinna mieć tyle wymiarów, ile mamy mięśni.

Ktoś może na to powiedzieć, że jeśli wrażenia mięśniowe biorą udział w tworzeniu pojęcia przestrzeni, to dlatego, że posiadamy poczucie kierunku każdego ruchu, które stanowi część integralną wrażenia. Gdyby tak było rzeczywiście, gdyby wrażenie mięśniowe nie mogło powstawać inaczej, jak w związku z poczuciem geometrycznego kierunku, przestrzeń geometryczna byłaby w istocie formą narzuconą naszemu światu wrażeń.

Analizując nasze wrażenia, nie stwierdzamy jednak niczego takiego.

Widzimy tylko, że wrażenia, odpowiadające ruchom w tym samym kierunku, związane są w naszym umyśle prostym procesem kojarzenia wyobrażeń. Tak zwane "poczucie kierunku" sprowadza się do tego kojarzenia, a zatem nie moglibyśmy go uzyskać na podstawie jednego wrażenia.

Kojarzenie to jest niezmiernie zawiłe, albowiem skurcz jednego i tego samego mięśnia może odpowiadać, w zależności od położenia kończyn, ruchom w zupełnie odmiennych kierunkach.

Rzecz jasna, kojarzenie to jest wyuczone, podobnie jak wszystkie skojarzenia wyobrażeń, dzięki przyzwyczajeniu, którego z kolei nabywamy na podstawie bardzo licznych doświadczeń; nie ma wątpliwości, że gdyby nasze zmysły kształtowały się w innym środowisku, gdzie podlegalibyśmy innym wrażeniom, nabralibyśmy innych przyzwyczajeń i nasze wrażenia mięśniowe byłyby kojarzone zgodnie z innymi prawami.

Cechy przestrzeni wyobrażeniowej. - Tak więc przestrzeń wyobrażeniowa w trojakiej postaci, wzrokowej, dotykowej i motorycznej, jest zasadniczo różna od przestrzeni geometrycznej.

Nie jest ani jednorodna, ani izotropowa; nie można nawet powiedzieć, że ma trzy wymiary.

Mówi się często, że "rzutujemy" w przestrzeń geometryczną przedmioty naszego zewnętrznego doświadczenia, że je "lokalizujemy".

Czy to ma jakiś sens i jaki mieć może?

Czy ma to oznaczać, że wyobrażamy sobie przedmioty zewnętrzne w przestrzeni geometrycznej?

Nasze wyobrażenia są tylko odbiciem naszych wrażeń, mogą się zatem mieścić tylko w tej samej ramie, co one, czyli w przestrzeni wyobrażeniowej.

Jest rzeczą równie niemożliwą wyobrażać sobie ciała zewnętrzne w przestrzeni geometrycznej, jak niemożliwe jest namalowanie na płaskiej powierzchni trójwymiarowych przedmiotów.

Przestrzeń wyobrażeniowa jest tylko obrazem przestrzeni geometrycznej, obrazem zniekształconym przez szczególną perspektywę; nie możemy sobie wyobrażać przedmiotów inaczej jak naginając je do praw tej perspektywy.

Nie wyobrażamy sobie ciał zewnętrznych w przestrzeni geometrycznej, lecz prowadzimy rozumowania dotyczące tych ciał tak, jakby znajdowały się w tej przestrzeni.

Co może oznaczać stwierdzenie, że "lokalizujemy" dany przedmiot w określonym punkcie przestrzeni?

Znaczy to po prostu, że wyobrażamy sobie ruchy, jakie trzeba wykonać, aby dosięgnąć tego przedmiotu; niech nikt nam nie zarzuca, że w celu wyobrażenia sobie tych ruchów trzeba również rzutować je w przestrzeń, a tym samym pojęcie przestrzeni musi być wcześniejsze.

Gdy mówimy, że wyobrażamy sobie te ruchy, nie chcemy powiedzieć nic więcej jak tylko to, że wyobrażamy sobie towarzyszące im wrażenia mięśniowe, które nie posiadają żadnego charakteru geometrycznego, a więc nie wymagają przyjęcia założenia o istnieniu przestrzeni.

Zmiany stanu i zmiany położenia. Jeżeli zatem idea przestrzeni geometrycznej nie narzuca się naszemu umysłowi w sposób konieczny, jeżeli nie dostarczają jej wrażenia zmysłowe, to skąd ona pochodzi?

Zajmiemy się teraz poszukiwaniem odpowiedzi na to pytanie, co zajmie nam trochę czasu; możemy jednak już teraz streścić w kilku słowach próbę wyjaśnienia, które poniżej rozwiniemy.

Żadne z wrażeń oddzielnie nie mogłoby doprowadzić do idei przestrzeni; doszliśmy zaś do niej, badając prawa, według których czucia te następują po sobie.

Widzimy przede wszystkim, że nasze wrażenia ulegają zmianom, lecz wśród tych zmian rychło zaczynamy czynić pewne rozróżnienia.

Raz powiadamy, że zmienił się stan przedmiotów wywołujących nasze wrażenia, a innym razem, że zmieniły położenie lub tylko się przemieściły.

Zarówno zmiana stanu, jak i położenia wyraża się dla nas zawsze w tylko jeden sposób: jako zmiana w całokształcie naszych wrażeń.

Cóż nas skłania do przyjęcia tego rozróżnienia? Nie trudno zdać sobie z tego sprawę. Jeśli zaszła tylko zmiana położenia, to możemy odtworzyć pierwotny całokształt wrażeń, wykonując ruchy, które sprawią, że znajdziemy się w stosunku do przedmiotu w takim samym względnym położeniu. Korygujemy w ten sposób zmianę i odtwarzamy stan początkowy.

Jeśli chodzi o wrażenia wzrokowe i jeśli przedmiot przesuwa się przed nami, możemy za nim "wodzić oczami" i zatrzymać jego obraz w tym samym punkcie siatkówki wykonując odpowiednie ruchy gałkami ocznymi.

Jesteśmy świadomi tych ruchów dlatego, że są dowolne oraz towarzyszą im wrażenia mięśniowe, co wcale jednak nie oznacza, byśmy je sobie wyobrażali w przestrzeni geometrycznej.

Zmianę położenia charakteryzuje i odróżnia od zmiany stanu to, że zawsze można ją skorygować we wskazany sposób.

Może się zdarzyć, że przechodzimy od grupy wrażeń A do grupy B dwiema różnymi drogami: (1) bez udziału woli i bez wrażeń mięśniowych, gdy przedmiot się porusza; (2) z udziałem woli i z wrażeniami mięśniowymi, gdy przedmiot pozostaje nieruchomy, a porusza się obserwator, a zatem mamy do czynienia z ruchem względnym.

W obu przypadkach przejście od grupy A do grupy B stanowi tylko zmianę położenia.

Wynika stąd, że wzrok i dotyk nie wystarczają do stworzenia pojęcia przestrzeni - konieczny jest również "zmysł mięśniowy".

Pojęcie przestrzeni nie mogło zatem powstać na podstawie jednego wrażenia, leczy wymagało bardzo wielu; co więcej, istota nieruchoma nie mogłaby dojść do pojęcia przestrzeni, albowiem jeśli nie mogłaby korygować za pomocą swoich ruchów skutków zmiany położenia przedmiotów zewnętrznych, to nie miałaby żadnego powodu, by odróżniać je od zmian stanu. Nie mogłaby również utworzyć tego pojęcia, gdyby ruchy jej nie odbywały się z udziałem jej woli lub gdyby nie towarzyszyły im żadne wrażenia.

Warunki kompensacji. Jak możliwa jest taka kompensacja, dzięki której dwa niezależne ruchy wzajemnie się korygują?

Umysł, który zna geometrię, rozumowałby następująco:

Aby nastąpiła kompensacja, trzeba oczywiście, by z jednej strony poszczególne części przedmiotu zewnętrznego, a z drugiej zaś strony poszczególne organy naszych zmysłów, znalazły się w tym samym położeniu względnym. To zaś wymaga, żeby poszczególne części przedmiotu zewnętrznego również zachowały to samo położenie względne, podobnie jak poszczególne części naszego ciała.

Innymi słowy, przy pierwszej zmianie przedmiot zewnętrzny musi się przesuwać na podobieństwo bryły sztywnej, a przy drugiej zmianie, korygującej pierwszą, tak zachowywać się musi całe nasze ciało.

Takie są warunki kompensacji.

My jednak, skoro nie znamy jeszcze geometrii, a nawet pojęcia przestrzeni, nie możemy rozumować w ten sposób, nie możemy przewidzieć a priori, czy kompensacja jest możliwa. Otóż doświadczenie uczy, że niekiedy zdarza się kompensacja i właśnie ten doświadczalny fakt jest dla nas podstawą do rozróżniania zmian stanu od zmian położenia.

Ciała sztywne a geometria. Wśród otaczających nas przedmiotów, niektóre ulegają często przesunięciom nadającym się do skorygowania w opisany tu sposób, czyli przez względny ruch naszego ciała; są to ciała sztywne.

Inne przedmioty, o kształcie zmiennym, ulegają wyjątkowo tylko podobnym przesunięciom (zmiana położenia bez zmiany postaci). Gdy ciało przesunęło się jednocześnie zmieniając kształt, nie możemy już za pomocą odpowiednich ruchów ustawić organów naszych zmysłów w takim samym położeniu względem tego ciała, a zatem nie możemy zrekonstruować pierwotnego całokształtu wrażeń.

Później dopiero, na podstawie nowych doświadczeń, uczymy się rozkładać ciała o zmiennym kształcie na takie elementy mniejsze, które przesuwają się według w przybliżeniu takich samych praw jak ciała sztywne. W ten sposób odróżniamy "odkształcenia" od innych zmian stanu; w tych odkształceniach każdy element ulega prostej zmianie położenia, która może zostać skorygowana; natomiast zmiana całego ciała ma głębszy charakter i nie nadaje się już do skorygowania za pomocą ruchu względnego obserwatora.

Pojęcie takie jest już bardzo złożone i pojawić się mogło dopiero stosunkowo późno. Nie mogłoby zresztą powstać, gdybyśmy na podstawie obserwacji ciał sztywnych nie nauczyli się odróżniać zmian położenia od innych zmian.

Gdyby więc w przyrodzie nie było ciał sztywnych, nie byłoby geometrii.

Inna jeszcze uwaga zasługuje na chwilę zastanowienia. Niech pewne ciało sztywne zajmuje najpierw położenie 0x01 graphic
i przejdzie następnie do położenia 0x01 graphic
. W pierwszym położeniu wywołuje w nas grupę wrażeń A, a w drugim grupę wrażeń B. Weźmy teraz inne ciało sztywne, o właściwościach zupełnie różnych od pierwszego, na przykład mające inny kolor. Przypuśćmy, że przechodzi ono do położenia 0x01 graphic
, w którym wywołuje w nas grupę wrażeń A', po czym przechodzi do położenia 0x01 graphic
, w którym wywołuje grupę wrażeń B'.

W ogólnym przypadku grupa A nie ma nic wspólnego z grupą A', ani też grupa B z grupą B'. Przejście od grupy A do B oraz przejście od grupy A' do grupy B' są to dwie zmiany, które same przez się nie mają na ogół nic wspólnego.

A przecież obie te zmiany uważamy za przesunięcia, a nawet więcej - sądzimy, że jest to, to samo przesunięcie. Na czym to polega?

Jest tak po prostu, dlatego, że obie zmiany można skorygować za pomocą identycznego ruchu względnego obserwatora.

Ten sam ruch względny stanowi jedyny łącznik między dwoma zjawiskami, i jedyną przyczynę, by je ze sobą porównywać.

Z drugiej strony, ciało nasze dzięki znacznej liczbie stawów i mięśni może wykonywać mnóstwo rozmaitych ruchów, ale nie wszystkie ruchy są w stanie korygować zmiany w przedmiotach zewnętrznych. Do tego nadają się tylko te ruchy, przy których całe nasze ciało, albo przynajmniej te z jego organów, które wchodzą w grę, przesuwają się jako całość, to znaczy baz zmiany względnego ustawienia, a więc zachowują się na podobieństwo ciała sztywnego.

Streszczając:

1. Narzuca się przede wszystkim rozróżnienie dwóch kategorii zjawisk:

Jedne, zachodzące bez udziału nasze woli, którym nie towarzyszą wrażenia mięśniowe, przypisujemy przedmiotom zewnętrznym; są to zmiany zewnętrzne.

Drugie, o cechach przeciwnych, przypisujemy ruchom własnego ciała; są to zmiany wewnętrzne.

2. Stwierdzamy, że niektóre zmiany pierwszej kategorii mogą być skorygowane przez skorelowaną zamianę drugiej kategorii.

3. Wśród zmian zewnętrznych wyróżniamy takie, dla których istnieją takie skorelowane zmiany drugiej kategorii; są to tak zwane przesunięcia. Podobnie, wśród zmian wewnętrznych wyróżniamy te, którym odpowiadają skorelowane zmiany pierwszej kategorii.

W ten sposób określiliśmy, dzięki tej wzajemnej odpowiedniości, szczególną klasę zjawisk, które nazywamy przesunięciami. Przedmiotem geometrii są prawa tych zjawisk.

Prawo jednorodności. - Pierwszym z tych praw jest prawo jednorodności.

Przypuśćmy, że wskutek zmiany zewnętrznej 0x01 graphic
przechodzimy od zespołu wrażeń A do zespołu B, a następnie zmiana ta zostaje skorygowana przez ruch względny 0x01 graphic
wykonany z udziałem naszej woli, tak że wracamy do zespołu A.

Niech teraz inna zmiana zewnętrzna 0x01 graphic
' spowoduje znowu przejście od zespołu A do B.

Z doświadczenia wynika, że zmiana 0x01 graphic
' może być, podobnie jak 0x01 graphic
, skorygowana przez ruch względny 0x01 graphic
', wykonany z udziałem woli, i że ruch 0x01 graphic
' odpowiada tym samym wrażeniom mięśniowym, co ruch 0x01 graphic
, korygujący zmianę 0x01 graphic
.

Fakt ten wyraża się zazwyczaj stwierdzeniem, że przestrzeń jest jednorodna i izotropowa.

Można również powiedzieć, że ruch, który się odbył raz, może zostać powtórzony po raz drugi, trzeci, i tak dalej bez zmiany jego właściwości.

W rozdziale pierwszym, w którym badaliśmy istotę rozumowania matematycznego, widzieliśmy, jaką doniosłość ma możliwość nieograniczonego powtarzania tego samego działania.

Z tego powtarzania rozumowanie matematyczne czerpie swą zdolność twórczą: dzięki prawu jednorodności matematyka zdołała opisać fakty geometryczne.

Dla zupełności należałoby dołączyć do prawa jednorodności wiele innych praw analogicznych, w których szczegóły nie chcę tu wchodzić; ogół tych praw matematycy streszczają, krótko mówiąc, że przesunięcia tworzą "grupę".

Świat nieeuklidesowy. - Gdyby przestrzeń geometryczna była ramą, narzucającą się każdemu wyobrażeniu, rozważanemu oddzielnie, byłoby rzeczą niemożliwą wyobrazić sobie obraz, pozbawiony tej ramy i nie moglibyśmy niczego zmienić w naszej geometrii.

Tak wszakże nie jest - geometria jest jedynie streszczeniem praw, według których obrazy te następują po sobie. Nic wobec tego nie przeszkadza, byśmy wystawili sobie szereg wyobrażeń, pod każdym względem podobnych do naszych zwykłych wyobrażeń, lecz następujących po sobie według praw innych niż te, do których jesteśmy przyzwyczajeni.

Widzimy zatem, że istoty, które zdobywałyby swoje wykształcenie w środowisku, w którym panowałyby inne prawa, mogłyby skonstruować geometrie zupełnie odmienną od naszej.

Weźmy na przykład świat, zamknięty w wielkiej kuli, w którym obowiązują następujące prawa.

Temperatura nie jest w nim jednostajna; jest najwyższa w środku kuli i maleje w miarę oddalania się od środka, a na jej powierzchni spada do zera bezwzględnego.

Określmy dokładniej prawo, które rządzi zmianami temperatury. Niech R oznacza promień powierzchni kuli, a r odległość od środka. Temperatura bezwzględna jest proporcjonalna do R2 - r2.

Załóżmy również, że w świecie tym wszystkie ciała mają taki sam współczynnik rozszerzalności cieplnej, a zatem długość dowolnej linii jest proporcjonalna do jej temperatury bezwzględnej.

Załóżmy wreszcie, że przedmiot, przeniesiony z jednego punktu do drugiego, gdzie panuje inna temperatura, natychmiast przechodzi do stanu równowagi termodynamicznej z otoczeniem.

W założeniach tych nie ma nic, czego nie można byłoby sobie wyobrazić, lub co prowadziłoby do sprzeczności.

Przedmiot poruszający się w takich warunkach stopniowo maleje, w miarę jak zbliża się do powierzchni kuli.

Zauważmy, że choć zgodnie ze zwyczajną geometrią świat ten jest ograniczony, to mieszkańcom swym wydaje się nieskończony, bowiem gdy chcą się zbliżyć do powierzchni kuli, ich temperatura maleje, kurczą się, ich kroki stają się coraz krótsze i nie mogą osiągnąć celu.

Jeżeli dla nas geometria jest tylko badaniem praw, rządzących ruchem ciał sztywnych, to dla tych urojonych istot będzie ona badaniem praw, według których poruszają się ciała sztywne, których rozmiary i kształt zależą od zmian temperatury.

W naszym świecie naturalne ciała sztywne również ulegają zmianom kształtu i objętości wskutek nagrzania lub ochłodzenia. Tworząc podwaliny geometrii, zmiany te pomijamy, albowiem są tylko bardzo nieznaczne, a ponadto różne ciała rozszerzają się niejednakowo, wskutek czego zmiany te wydają się przypadkowe.

Inaczej byłoby w tym hipotetycznym świecie, w którym zmiany te zachodziłyby według regularnych i prostych praw.

Zaznaczmy, że poszczególne części ciał mieszkańców tego świata ulegałyby takim samym zmianom kształtu i objętości.

Zrobimy jeszcze jedno przypuszczenie. Załóżmy mianowicie, że współczynnik załamania światła w tym świecie jest odwrotnie proporcjonalny do R2 - r2. Łatwo można się przekonać, że w takich warunkach promienie światła tworzyłyby nie linie proste, lecz okręgi.

Aby usprawiedliwić te wszystkie założenia, powinniśmy jeszcze wykazać, że niektóre zmiany w położeniu przedmiotów zewnętrznych mogą zostać skorygowane przez skorelowane z nimi ruchy istot czujących, mieszkających w tym świecie, i to tak, by odtworzyć pierwotny zespół wrażeń, odbieranych przed zmianą.

Przypuśćmy, w rzeczy samej, że pewien przedmiot przesuwa się nie jak niezmienne ciało sztywne, lecz jak ciało sztywne rozszerzające się ściśle zgodnie z wyłożonym powyżej prawem zmian temperatury. Takie przesunięcia będę nazywał przesunięciami nieeuklidesowymi.

Jeżeli w pobliżu tego przedmiotu znajduje się wrażliwa istota, jej wrażenia ulegną zmianie wskutek przesunięcia, ale może ona je odtworzyć, poruszając się w odpowiedni sposób. Wystarczy, by cały układ złożony z przedmiotu i istoty wrażliwej, rozważany jako jedno ciało, uległ przesunięciu nieeuklidesowemu. Jest to możliwe, jeśli założymy, że ciała tych istot rozszerzają się wskutek zmian temperatury tak samo, jak wszystkie inne ciała w tym świecie.

Choć z punktu widzenia naszej zwykłej geometrii ciała odkształciły się przy tym przesunięciu i ich części nie znajdują się w takim samym położeniu względnym, to jak łatwo się przekonać, wrażenia istoty mieszkającej w tym świecie są takie same, jak w sytuacji pierwotnej.

Odległości między poszczególnymi częściami mogły się wprawdzie zmienić, ale części, które pierwotnie się stykały, nadal się stykają. Wobec tego nie zmieniły się również wrażenia dotykowe.

Następnie, przyjęte założenie o zależności współczynnika załamania światła od temperatury gwarantuje, że wrażenia wzrokowe również pozostaną niezmienione.

Nasze hipotetyczne istotny, podobnie jak my, w taki sam sposób podzielą obserwowane zjawiska i wyróżnią "zmiany położenia", które można skorygować przez ruch względnym, dokonanym z woli obserwatora.

Jeżeli stworzą geometrię, nie będzie ona badaniem ruchów naszych niezmiennych ciał sztywnych, lecz badaniem zmian takich wyróżnionych zmian położenia, czyli przesunięć nieeuklidesowych; będzie to zatem geometria nieeuklidesowa.

Dochodzimy zatem do wniosku, że podobne do nas istoty, których zmysły formowałyby się w takim świecie, stworzyłyby inną geometrię.

Świat czterowymiarowy. - Podobnie jak świat nieeuklidesowy, można również wyobrazić sobie świat czterowymiarowy.

Zmysł wzroku, nawet ograniczony do jednego oka, łącznie z wrażeniami mięśniowymi, związanymi z ruchami gałki ocznej, mógłby nam wystarczyć do poznania przestrzeni trójwymiarowej.

Obrazy przedmiotów zewnętrznych powstają na siatkówce, która jest powierzchnią dwuwymiarową; są to perspektywy.

Zarówno przedmioty zewnętrzne, jak i oko, są ruchome, oglądamy zatem kolejno różne perspektywy tego samego ciała, wzięte z różnych punktów widzenia.

Stwierdzamy zarazem, że przejściu od jednej perspektywy do drugiej towarzyszą często wrażenia mięśniowe.

Jeżeli przejściu od perspektywy A do B oraz przejściu od perspektywy A' do B' towarzyszą takie same wrażenia mięśniowe, uważamy je za działania równoważne.

Badając następni prawa, zgodnie z którymi składają się takie działania, przekonujemy się, że stanowią one grupę, mającą taką samą strukturę, jak grupa ruchów brył sztywnych.

Widzieliśmy zaś, że z właściwości tej grupy zostało wysnute pojęcie przestrzeni geometrycznej oraz trzech wymiarów.

Rozumiemy zatem, w jaki sposób widok tych perspektyw mógł zrodzić ideę przestrzeni trójwymiarowej; jakkolwiek każda z nich posiada tylko dwa wymiary - albowiem następują one po sobie według pewnych praw.

Otóż, podobnie jak można zrobić na danej płaszczyźnie perspektywę figury trójwymiarowej, można również zrobić perspektywę figury czterowymiarowej na powierzchni trój (lub dwu-)wymiarowej. Dla matematyka jest to fraszka.

Można nawet opracować kilka perspektyw jednej i tej samej figury, z kilku punktów widzenia.

Perspektywy te można łatwo sobie wyobrazić, gdyż mają tylko trzy wymiary.

Przypuśćmy, że rozmaite perspektywy jednego i tego samego przedmiotu następują kolejno po sobie, a przejściu od jednej do drugiej towarzyszą wrażenia mięśniowe.

Dwa takie przejścia, i ile im towarzyszyć będą te same wrażenia mięśniowe, będziemy oczywiście uważali za działania takiej samej natury.

Wówczas nic nie przeszkadza nam wyobrazić sobie, że działania te łączą się zgodnie z takim lub innym prawem, na przykład tak, by tworzyły grupę ruchów czterowymiarowej bryły sztywnej.

Nie ma w tym niczego, czego nie moglibyśmy sobie wyobrazić, a przecież wrażenia takie odczuwałaby istota o dwuwymiarowej siatkówce, która mogłaby się poruszać w czterowymiarowej przestrzeni.

W tym znaczeniu wolno powiedzieć, że można sobie wyobrazić czwarty wymiar.

Wnioski. - Widzimy, że w genezie geometrii istotną rolę należy przypisać doświadczeniu, lecz błędem byłoby wyciągnąć z tego wniosek, że geometria jest, choćby częściowo, nauką doświadczalną.

Gdyby geometria była nauką doświadczalną, byłaby tylko przybliżona i prowizoryczna. I jak grube byłoby to przybliżenie!

Geometria polegałaby wówczas jedynie na badaniu ruchów ciał sztywnych; w rzeczywistości wcale nie zajmuje się naturalnymi ciałami; przedmiotem jej są pewne bryły idealne, bezwzględnie sztywne, będące tylko uproszczonym i odległym obrazem brył rzeczywistych.

Pojęcie ciał idealnych wywodzi się w całości z naszego umysłu, doświadczenie zaś stwarza tylko okazje, które pobudzają nas do ukształtowania tego pojęcia.

Przedmiotem geometrii jest badanie pewnej szczególnej "grupy", lecz w naszym umyśle istnieje już wcześniej ogólne pojęcie grupy, przynajmniej potencjalnie. Narzuca się ono nie jako forma naszego doświadczenia zmysłowego, lecz jako forma poznania.

Zachodzi jedynie potrzeba wyboru z pośród wszystkich możliwych grup, grupy będącej, że tak powiem, wzorem, z którym będziemy porównywać zjawiska naturalne.

Doświadczenie kieruje nami, gdy dokonujemy tego wyboru, ale go nam nie narzuca; nie pozwala nam poznać, która geometria jest najprawdziwsza, ale mówi, która jest najdogodniejsza.

Zaznaczyć należy, że moglibyśmy opisać światy fantastyczne, o których mówiliśmy powyżej, w dalszym ciągu używając zwykłej geometrii.

W rzeczy samej, gdybyśmy zostali przeniesieni do takiego świata, nie musielibyśmy zmieniać tego języka.

Istoty, które wychowywałyby się w takim świecie, uznałyby zapewne za bardziej dogodne stworzenie geometrii różniącej się od naszej, przystosowanej do ich wrażeń. My natomiast, mając do czynienia z takimi samymi wrażeniami, uznalibyśmy zapewne, że lepiej nie zmieniać naszych przyzwyczajeń.

1. We wcześniejszych rozdziałach staraliśmy się niejednokrotnie wykazać, że zasady geometrii nie są faktami doświadczalnymi i że w szczególności postulat Euklidesa nie może być dowiedziony eksperymentalnie.

Niezależnie od tego, jak przekonujące wydają się podane argumenty, uważam za wskazane jeszcze do tej kwestii powrócić, albowiem mamy tu do czynienia z poglądem błędnym, a głęboko zakorzenionym w wielu umysłach.

2. Sporządźmy sobie materialne koło, zmierzmy jego promień i obwód i spróbujmy sprawdzić, czy stosunek tych dwóch długości jest równy 0x01 graphic
. Cóż zrobimy w ten sposób? Przeprowadzimy doświadczenie dotyczące właściwości materii, z której zrobiliśmy krążek oraz materii, z której wykonany jest przyrząd pomiarowy.

3. Geometria a astronomia. - Kwestię tę rozważano jeszcze w inny sposób. Jeżeli geometria Łobaczewskiego jest prawdziwa, to paralaksa bardzo odległej gwiazdy jest większa od zera, jeśli prawdziwa jest geometria Riemanna, to paralaksa powinna być ujemna. Są to przewidywania, które - wydawałoby się - można sprawdzić doświadczalnie, toteż żywiono nadzieję, że obserwacje astronomiczne pozwolą, być może, na rozstrzygnięcie, która z tych trzech geometrii jest prawdziwa.

Lecz to, co w astronomii nazywa się linią prostą, jest tylko drogą promienia świetlnego. Gdyby więc, na przekór wszystkiemu, astronomowie zaobserwowali ujemne paralaksy, lub gdyby stwierdzili, że wszystkie zmierzone paralaksy są większe od pewnej wielkości minimalnej, mieliby do wyboru dwie możliwości: mogliby wyrzec się geometrii euklidesowej albo zmienić prawa optyki i uznać, że światło nie rozchodzi się dokładnie po liniach prostych.

Zbyteczne jest dodawać, że każdy uważałby to drugie rozwiązanie za dogodniejsze.*

* Zgodnie z ogólną teorią względności przyjmuje się jednak, że to czasoprzestrzeń ma geometrię nieeuklidesową, a światło rozchodzi się w takiej przestrzeni po liniach prostych - czyli po tak zwanych liniach geodezyjnych - P.A.

Z tego wynika, że nowe doświadczenia nie mogą zagrozić geometrii euklidesowej.

4. Czy można twierdzić, że pewne zjawiska, możliwe w przestrzeni euklidesowej, byłyby niemożliwe w przestrzeni nieeuklidesowej, a przeto doświadczenie, które potwierdziłoby, że zjawiska te rzeczywiście zachodzą, zaprzeczyłoby to hipotezie o nieeuklidesowej geometrii przestrzeni? Moim zdaniem, takiego pytania w ogóle nie można rozważać. Jest ono zupełnie równoważne pytaniu, którego niedorzeczność wprost uderza: czy istnieją długości, dające się wyrazić w metrach i centymetrach, ale nie w sążniach, stopach i calach? Gdyby doświadczenie potwierdziło istnienie takich długości, zaprzeczyłoby wprost założeniu, że istnieją sążnie, podzielone na sześć stóp.

Rozważmy dokładniej tę kwestię. Przypuśćmy, że linia prosta w przestrzeni euklidesowej ma dwie właściwości, które nazwiemy A i B, natomiast w przestrzeni nieeuklidesowej ma właściwość A, ale nie B. Załóżmy również, że zarówno w przestrzeni euklidesowej, jak i nieeuklidesowej, prosta jest jedyną linią mającą właściwość A.

Gdyby tak było, doświadczenie mogłoby rozstrzygnąć, czy przestrzeń ma geometrię Euklidesa, czy Łobaczewskiego. Można byłoby stwierdzić, że dany, konkretny przedmiot doświadczenia, na przykład pęk promieni światła, ma właściwość A, z czego wynikałoby, że są to linie proste. Teraz wystarczyłoby sprawdzić, czy te linie proste mają właściwość B.

Tak jednak nie jest - nie ma własności, która mogłaby, na podobieństwo właściwości A, służyć jako kryterium bezwzględne do rozpoznania linii prostych i odróżnienia ich od innych.

Ktoś mógłby zaoponować: "oto poszukiwana własność: linia prosta to taka linia, że figura, w skład której ta linia wchodzi, może się poruszać bez żadnej zmiany wzajemnych odległości jej punktów, przy czym wszystkie punkty tej linii pozostają nieruchome".

Istotnie, właściwość ta przysługuje, zarówno w przestrzeni euklidesowej, jak i nieeuklidesowej, tylko i wyłącznie linii prostej. Jak jednak sprawdzić doświadczalnie, czy jest ona właściwością tego czy innego konkretnego przedmiotu? W tym celu trzeba mierzyć odległość, a skąd mamy wiedzieć, że taka to a taka konkretna wielkość, którą zmierzyliśmy naszym materialnym przyrządem mierniczym, rzeczywiście odpowiada abstrakcyjnej odległości?

Trudność nie została zatem wyeliminowana, a tylko przesunięta.

W rzeczywistości własność, którą sformułowaliśmy powyżej, nie jest własnością samej linii prostej, lecz linii prostej i odległości. Aby mogła ona służyć za bezwzględne kryterium, musielibyśmy udowodnić, że tej własności nie ma żadna inna linia prócz linii prostej i odległości, a ponadto, nie jest to własność żadnej innej linii prócz prostej i żadnej innej wielkości prócz odległości. Otóż tak nie jest.

Niepodobna zatem wyobrazić sobie żadnego konkretnego doświadczenia, które mogłoby być interpretowane w geometrii euklidesowej, a nie można byłoby go zinterpretować w geometrii Łobaczewskiego. Wobec tego wolno nam sformułować wniosek następujący:

Żadne doświadczenie nigdy nie jest sprzeczne z postulatem Euklidesa, ale zarazem żadne doświadczenie nigdy nie jest sprzeczne z postulatem Łobaczewskiego.

5. Jednak stwierdzenie, że żadne doświadczenie nie może dać wyników sprzecznych z geometrią euklidesową lub nieeuklidesową, to jeszcze za mało. Czy nie jest możliwe, że pogodzenie danej geometrii z doświadczeniem wymagałoby pogwałcenia zasady racji dostatecznej lub zasady względności przestrzeni?

Wytłumaczmy to jaśniej. Rozważmy dowolny układ materialny; z jednej strony musimy wziąć pod uwagę stan poszczególnych ciał tworzących ten układ (na przykład temperaturę, potencjał elektryczny, itd.), z drugiej zaś strony, ich położenie w przestrzeni. Wśród danych, pozwalających na oznaczenie tego położenia, rozróżniamy jeszcze wzajemne odległości tych ciał i warunki wyznaczające bezwzględne położenie układu i jego bezwzględną orientację w przestrzeni.

Prawa zjawisk, które zachodzą w tym układzie, mogą zależeć od stanu tych ciał i ich odległości wzajemnych, lecz wskutek względności i pasywności przestrzeni nie zależą od położenia i orientacji bezwzględnej układu.

Innymi słowy, stan ciał i ich odległości wzajemne w dowolnie obranej chwili zależą jedynie od stanu tych ciał i ich odległości wzajemnych w chwili początkowej, natomiast zupełnie nie zależą ani od początkowego położenia bezwzględnego układu, ani od jego początkowej bezwzględnej orientacji. Dla większej zwięzłości, będziemy to nazywać zasadą względności.

Mówiłem dotychczas jak geometra euklidesowski. Jednak, jak już stwierdziliśmy, każde doświadczenie, które można interpretować w ramach geometrii euklidesowej, można również interpretować w ramach geometrii nieeuklidesowych. Oto wykonaliśmy szereg doświadczeń. Podaliśmy ich interpretację w geometrii euklidesowej i przekonaliśmy się, że tak zinterpretowane doświadczenia nie gwałcą owej "zasady względności".

Interpretujemy je teraz w geometrii nieeuklidesowej, co zawsze jest możliwe, tyle że nieeuklidesowe odległości między ciałami na ogół nie są równe odległościom euklidesowym.

Czy doświadczenia, tak interpretowane, również są zgodne z "zasadą względności"? A jeżeli nie są zgodne, to czy musimy przyjąć, że doświadczenie dowiodło fałszywości geometrii nieeuklidesowej?

Łatwo można się przekonać, że obawa ta jest płonna; w istocie, aby móc ściśle zastosować zasadę względności, trzeba ją zastosować do całego Wszechświata. Gdybyśmy bowiem rozważyli jedynie część Wszechświata, i gdyby położenie bezwzględne tej części się zmieniło, zmieniłyby się również odległości do innych ciał we Wszechświecie, a przeto ich wpływ na rozważaną część mógłby się zwiększyć lub zmniejszyć, co mogłoby spowodować zmianę w prawach zjawisk, jakie w niej zachodzą.

Lecz skoro układem naszym jest cały Wszechświat, to doświadczenie nie może nic powiedzieć o jego położeniu i orientacji bezwzględnej w przestrzeni. Najdoskonalsze nawet instrumenty pozwalają nam poznać tylko stan poszczególnych części Wszechświata i ich wzajemne odległości.

Wobec tego nasza zasada względności przyjmuje następującą postać:

Dane, które odczytamy na naszych przyrządach w dowolnej chwili, zależą jedynie od danych, które mogliśmy odczytać na tych samych przyrządach w chwili początkowej.

Formuła taka jest niezależna od wszelkiej interpretacji doświadczeń. Jeżeli zasada względności jest prawdziwa w interpretacji euklidesowej, to jest również prawdziwa w interpretacji nieeuklidesowej.

Niech nam będzie wolno uczynić przy tej sposobności małą dygresję. Mówiliśmy tu o danych, określających położenie poszczególnych części układu; powinniśmy powiedzieć również o danych, określających ich prędkości; spośród tych danych wyróżnilibyśmy prędkość, z jaką zmieniają się wzajemne odległości poszczególnych ciał, z drugiej zaś strony mielibyśmy prędkość zmiany położenia i obrotu układu, czyli prędkości, z jakimi zmieniają się jego bezwzględne położenie i bezwzględna orientacja.

Zgodnie ze wszystkimi wymogami rozumu, zasada względności winna być tak sformułowana:

Stan ciał i ich odległości wzajemne do dowolnej chwili, jak również prędkości, z jakimi zmieniają się te odległości w tej samej chwili, zależą jedynie od stanu tych ciał, ich odległości wzajemnych i prędkości względnych w chwili początkowej, natomiast nie zależą ani od początkowego położenia bezwzględnego, ani od jego orientacji bezwzględnej, ani też od prędkości, z jakimi zmieniały się w chwili początkowej bezwzględne położenie i orientacja.

Na nieszczęście, zasada tak sformułowana, nie jest zgodna z doświadczeniem, przynajmniej gdy przyjmujemy zwykłą interpretację tych doświadczeń.

Wyobraźmy sobie, że człowiek przeniesiony został na planetę, której niebo jest ustawicznie zasłonięte grubą warstwą obłoków, tak że nigdy nie widać stamtąd żadnych ciał niebieskich. Człowiekowi temu planeta ta wydawałaby się całkowicie odosobniona w przestrzeni. Mógłby jednak dostrzec, że planeta się obraca, bądź to przez pomiar spłaszczenia (co zazwyczaj czyni się metodami astronomicznymi, ale można byłoby zmierzyć spłaszczenie posługując się wyłącznie metodami geodezyjnymi), bądź za pomocą wahadła Foucault. Człowiek ten byłyby zatem w stanie wykryć bezwzględny obrót planety.

Fakt ten razi filozofa, ale fizyk musi go uznać.

Jak wiadomo, Newton wyciągnął z tego wniosek, że istnieje przestrzeń bezwzględna. Z tym poglądem nie mogę się żadną miarą zgodzić, co uzasadnię w trzeciej części tej książki, ale w tej chwili nie chciałbym jeszcze rozważać tej trudności.

Musimy zatem pogodzić się z tym, że w sformułowaniu zasady względności, wśród danych określających stan ciał, znajdują się prędkości wszelkiego rodzaju.

W każdym razie trudność ta występuje zarówno w geometrii Euklidesa, jak i w geometrii Łobaczewskiego; nie mamy zatem powodu, by się nią tu niepokoić i wspominamy o niej tylko mimochodem.

Ważne jest dla nas to, że doświadczenie nie może rozstrzygnąć między Euklidesem i Łobaczewskim.

Słowem, nie widzimy żadnej możliwości wyjaśnienia, jaki rozsądny sens można byłoby przypisać empiryzmowi geometrycznemu.

6. Doświadczenia pozwalają nam poznać jedynie wzajemne stosunki ciał; żadne z nich nie dotyczy i dotyczyć nie może stosunku ciał do przestrzeni ani stosunków wzajemnych poszczególnych części przestrzeni.

"Zapewne - powie ktoś na to - jedno doświadczenie nie wystarcza, bo daje nam tylko jedno równanie z wieloma niewiadomymi, ale gdy wykonam dostatecznie dużo doświadczeń, będę miał dość równań, by obliczyć wszystkie niewiadome".

Znajomość wysokości grotmasztu nie wystarcza do wyliczenia wieku kapitana. Kiedy zmierzymy wszystkie kawałki drewna, z których składa się okręt, będziemy mieli wiele równań, ale nie poznamy przez to lepiej wieku kapitana. Wszystkie nasze pomiary dotyczą tylko kawałków drewna, a więc nie mogą nam ujawnić nic ponad to, co dotyczy tych kawałków. Podobnie doświadczenia nasze, niezależnie od ich liczby, ponieważ dotyczą jedynie stosunków ciał, nie ujawnią nam nic, co by dotyczyło stosunków części przestrzeni.

7. Rzeczywiście - odpowiedzą nam - doświadczenia dotyczą tylko ciał, ale przecież dotyczą one przecież własności geometrycznych tych ciał.

Cóż jednak należy rozumieć przez własności geometryczne ciał? Przypuśćmy, że chodzi tu o stosunki ciał z przestrzenią; w takim razie własności te są niepoznawalne doświadczalnie, gdyż doświadczenia dotyczą jedynie wzajemnych stosunków ciał. To jedno wystarczy za dowód, że nie o te własności tu chodzi.

Zacznijmy zatem od porozumienia się w sprawie znaczenia wyrażenia: własności geometryczne ciał. Kiedy mówimy, że ciało składa się z kilku części, to nie określamy przez to chyba żadnej własności geometrycznej, nawet wówczas, gdy najmniejszym rozważanym przez nas cząstkom danego ciała nadajemy nazwę punktów.

Kiedy mówimy, że pewna część danego ciała styka się daną częścią innego ciała, wypowiadamy twierdzenie dotyczące wzajemnych stosunków dwóch ciał, nie zaś ich stosunków z przestrzenią.

Sądzę, że czytelnicy zgodzą się ze mną na to, że nie są to własności geometryczne; pewnym jestem w każdym razie, że wszyscy przyznają, iż twierdzenia te nie zależą od znajomości geometrii.

Wyobraźmy sobie teraz ciało, złożone z ośmiu metalowych prętów OA, OB, OC, OD, OE, OF, OG i OH, połączonych końcami O. Weźmy jeszcze jedno ciało sztywne, na przykład deskę, na której zaznaczamy atramentem trzy punkty 0x01 graphic
, 0x01 graphic
, i 0x01 graphic
. Załóżmy, że można doprowadzić do zetknięcia punktów 0x01 graphic
, 0x01 graphic
, 0x01 graphic
z punktami AGO (to znaczy 0x01 graphic
z A, 0x01 graphic
z B, i 0x01 graphic
z O), a następnie również do zetknięcia punktów 0x01 graphic
, 0x01 graphic
, 0x01 graphic
kolejno z BGO, CGO, DGO, EGO, FGO, AHO, BHO, CHO, DHO, EHO, FHO, a także punktów 0x01 graphic
, 0x01 graphic
z AB, BC, CD, DE, EF, FA.

Fakty te można stwierdzić, nie dysponując żadną wcześniejszą wiedzą o kształcie lub własnościach metrycznych przestrzeni. Nie dotyczą one wcale "własności geometrycznych ciał". Natomiast przeprowadzenie tych operacji nie byłoby możliwe, gdyby ciała, z którym eksperymentowaliśmy, poruszały się zgodnie z regułami grupy Łobaczewskiego (to znaczy, tak samo jak ciała sztywne w geometrii Łobaczewskiego). To zatem dowodzi, że ciała te poruszają się zgodnie z regułami grupy euklidesowej, a w każdym razie, że nie poruszają się zgodnie z grupą Łobaczewskiego.

Można bez trudu dowieść, że ruchy te są zgodne z grupą euklidesową.

Ich wykonanie byłoby możliwe, gdyby ciało 0x01 graphic
, 0x01 graphic
, 0x01 graphic
miało postać sztywnego euklidesowego trójkąta prostokątnego, a punkty A, B, C, D, E, F, G, H stanowiły wierzchołki wielościanu, utworzonego przez dwie sześciokątne piramidy foremne połączone podstawami A B C D E F, której wierzchołkami są punkty G i H.

Przypuśćmy teraz, że zamiast poprzednio stwierdzonych faktów, sprawdzamy teraz, że można przyłożyć 0x01 graphic
, 0x01 graphic
, 0x01 graphic
kolejno do AGO, BGO, CGO, DGO, FGO, AHO, BHO, CHO, DHO, EHO, FHO, a także 0x01 graphic
i 0x01 graphic
(a nie 0x01 graphic
i 0x01 graphic
) kolejno do AB, BC, CD, DE, EF, FA.

To byłoby możliwe, gdyby prawdziwa była geometria nieeuklidesowa, gdyby ciała 0x01 graphic
, 0x01 graphic
, 0x01 graphic
, O A C D E F G H były bryłami sztywnymi, gdyby pierwsze było trójkątem prostokątnym, a drugie podwójną piramidą sześciokątną odpowiedniej wielkości.

Wykonanie tych operacji jest niemożliwe, jeśli ciała poruszają się zgodnie z grupą euklidesową, staje się natomiast możliwe, jeśli założymy, że ruch ciał odbywa się zgodnie z grupą Łobaczewskiego. To doświadczenie wystarczyłoby zatem do wykazania, że ciała te nie poruszają się zgodnie z grupą euklidesową.

Jak widzimy, nie czyniąc żadnego założenia na temat kształtu i istoty przestrzeni oraz stosunków ciał z przestrzenią, nie przypisując ciałom żadnych własności geometrycznych, stwierdziliśmy fakty, które pozwoliły nam wykazać w pierwszym przypadku, że ciała, których dotyczyło doświadczenie, poruszały się zgodnie z grupą euklidesową, a w drugim przypadku, zgodnie z grupą Łobaczewskiego.

Nie należy jednak sądzić, że pierwsze doświadczenie wykazało, że przestrzeń jest euklidesowa, a drugi - że jest nieeuklidesowa.

W rzeczy samej, można wyobrazić sobie ciała, poruszające się w sposób zgodny z drugim doświadczeniem. Mógłby je zbudować pierwszy lepszy mechanik, gdyby chciał zadać sobie nieco trudu i nie szczędził kosztów. A przecież nikt nie stwierdzi na tej podstawie, że przestrzeń jest nieeuklidesowa.

Ponadto, ponieważ zwykłe ciała nie przestałyby istnieć z chwilą, gdy nasz mechanik zbudował owe osobliwe ciała, o których mówiliśmy, należałoby przyjąć, że przestrzeń jest zarazem euklidesowa i nieeuklidesowa.

Przypuśćmy, że mamy wielką kulę o promieniu R, której temperatura zmniejsza się od środka do powierzchni zgodnie z prawem, o którym mówiliśmy opisując świat nieeuklidesowy.

Mogłyby wówczas istnieć ciała, których rozszerzanie się pod wpływem ciepła byłoby niezauważalne i które zachowywałyby się jak zwykłe bryły sztywne, a oprócz nich inne ciała, o bardzo dużym współczynniku rozszerzalności cieplnej, które zachowywałyby się jak bryły nieeuklidesowe. Moglibyśmy mieć dwie podwójne piramidy O A B C D E F G H i O' A' B' C' D' E' F' G' H' oraz dwa trójkąty 0x01 graphic
0x01 graphic
0x01 graphic
i 0x01 graphic
' 0x01 graphic
' 0x01 graphic
'. Pierwsza piramida podwójna byłaby prostoliniowa, druga krzywoliniowa, trójkąt 0x01 graphic
0x01 graphic
0x01 graphic
był zbudowany z materii o małym współczynniku rozszerzalności cieplnej, a 0x01 graphic
' 0x01 graphic
' 0x01 graphic
' - z materii o bardzo dużym współczynniku.

W takim przypadku, operując piramidą OAH i trójkątem 0x01 graphic
0x01 graphic
0x01 graphic
stwierdzilibyśmy pierwszy zespół faktów, a operując piramidą O'A'H' i 0x01 graphic
' 0x01 graphic
' 0x01 graphic
' - drugi zespół faktów.

Wydawałoby się zatem, że pierwsze doświadczenie dowodzi, iż prawdziwa jest geometria euklidesowa, a drugie - że jest fałszywa.

Doświadczenia te nie dotyczyły, zatem przestrzeni, lecz ciał.

Dodatek

8. Dla zupełności powinniśmy teraz omówić pewną subtelną kwestię, która wymaga długich wywodów; ograniczę się tu do streszczenia tego, co już wyłożyłem w artykułach w "Revue de Metaphysique et de Morale" i w "The Monist".1

1 On the foundation of Geometry, "The Monist", pod red. P. Carusa, t. 9, Chicago 1898.

Gdy mówimy, że przestrzeń ma trzy wymiary, co chcemy przez to powiedzieć?

Przekonaliśmy się już, jak ważną rolę odgrywają owe "zmiany wewnętrzne", które poznajemy na podstawie wrażeń mięśniowych. Zmiany te charakteryzują rozmaite postawy naszego ciała. - Wybierzmy jako postawę początkową dowolną postawę A. Gdy przechodzimy od postawy A do dowolnej innej postawy B, odczuwamy szereg S wrażeń mięśniowych; szereg ten określa postawę B. Należy zaznaczyć, że często dwa szeregi S i S' określają tę samą postawę B, bowiem gdy początkowa postawa A i końcowa postawa B są ustalone, postawy pośrednie i odpowiadające im wrażenia mięśniowe mogą być różne. W jaki sposób możemy stwierdzić, że szeregi te są równoważne? Oznaką tej równoważności jest to, że oba szeregi można skompensować jedną i tą samą zmianą zewnętrzną, albo, mówiąc ogólniej, gdy chodzi o kompensację pewnej zmiany zewnętrznej, jeden z tych szeregów można zastąpić drugim.

Wśród szeregów tych wyróżniliśmy te, które mogą same przez się skompensować zmianę zewnętrzną i nazwaliśmy je "przesunięciami". Ponieważ nie umiemy odróżnić dwóch zbyt bliskich przesunięć, zbiór tych przesunięć ma cechy continuum fizycznego; z doświadczenia wynika, że są to cechy continuum fizycznego o sześciu wymiarach, lecz nie wiemy jeszcze, ile wymiarów ma sama przestrzeń; przed rozstrzygnięciem tego problemu musimy najpierw rozwiązać inne zagadnienie.

Co to jest punkt przestrzeni? Wszystkim się zdaje, że wiedzą, ale jest to złudzenie. To, co widzimy, gdy usiłujemy wyobrazić sobie punkt przestrzeni, to czarna plama na białym papierze, biała plama na czarnej tablicy - jest to zawsze pewien przedmiot. Pytanie nasze należy zatem rozumieć w następujący sposób:

Co chcę powiedzieć, gdy mówię, że przedmiot B znajduje się w tym samym punkcie, który wcześniej zajmował punkt A? Innymi słowy, jakie kryterium pozwala mi to stwierdzić?

Chcę powiedzieć, że choć sam się nie poruszyłem (o czym powiadamia mnie mój zmysł mięśniowy), mój palec wskazujący, który przed chwilą dotykał przedmiotu A, teraz dotyka przedmiotu B. Mógłbym posłużyć się innymi kryteriami, na przykład innym palcem lub zmysłem wzroku. Wystarcza jednak pierwsze kryterium; wiem, że skoro ono daje odpowiedź twierdzącą, wszystkie inne dadzą taką samą odpowiedź. Wiem to z doświadczenia, nie mogę tego wiedzieć a priori. Z tego samego powodu powiadam, że dotyk nie może działać na odległość; jest to inny sposób wyrażenia tego samego faktu doświadczalnego. Gdy natomiast powiadam, że wzrok działa na odległość, rozumiem przez to, że sprawdzian, jaki daje mi wzrok, może dać odpowiedź twierdzącą, gdy inne sprawdziany dają odpowiedź przeczącą.

Obraz przedmiotu, nawet gdy przedmiot ten się oddalił, może powstawać w tym samym punkcie siatkówki. Wzrok odpowiada zatem twierdząco, mówi, że przedmiot pozostał w tym samym punkcie, dotyk natomiast zaprzecza temu, albowiem palec mój, który poprzednio dotykał przedmiotu, teraz go już nie dotyka. Gdyby doświadczenie wykazało, że jeden palec może odpowiedzieć przecząco, gdy drugi daje odpowiedź twierdzącą, powiedzielibyśmy również, że dotyk działa na odległość.

Słowem, dla dowolnej postawy ciała, palec wskazujący określa punkt - to i tylko to określa punkt przestrzeni.

Każdej postawie ciała odpowiada, zatem, jeden punkt; zdarza się jednak często, że jeden i ten sam punkt odpowiada kilku różnym postawom (w takim razie mówimy, że palec się nie poruszył, gdy poruszała się reszta ciała). Wśród wszystkich zmian postawy wyróżniamy, zatem te, podczas których palec się nie poruszył. Co nas do tego skłania? To, że często zauważmy, iż przy takich zmianach, przedmiot stykający się z palcem, nie przestaje się z nim stykać.

Umieśćmy, zatem, w jednej klasie wszystkie postawy, które można otrzymać z postawy początkowej za pomocą jednej z wyróżnionych zmian. Wszystkim postawom jednej klasy odpowiada jeden i ten sam punkt przestrzeni. Każdej klasie odpowiada punkt, a każdemu punktowi pewna klasa. Zaznaczyć jednak trzeba, że doświadczenia nie dotyczą punktu, lecz klasy zmian postawy, a mówiąc jeszcze ściślej, związanych z tymi zmianami wrażeń mięśniowych.

Kiedy więc mówimy, że przestrzeń ma trzy wymiary, stwierdzamy po prostu, że całokształt tych klas stanowi continuum fizyczne o trzech wymiarach.

Czy, gdybyśmy do określenia punktów przestrzeni posłużyli się nie palcem wskazującym, lecz środkowym, wyniki byłyby takie same? Nie jest to bynajmniej oczywiste a priori, ale, jak widzieliśmy, doświadczenie wykazało, że wszystkie nasze kryteria są ze sobą zgodne; to pozwala nam odpowiedzieć twierdząco na powyższe pytanie.

Wracając do tak zwanych przesunięć, których zbiór stanowi grupę, zaznaczmy, że z pośród nich wypada nam wyróżnić te, przy których palec się nie porusza; zgodnie z powyższymi wywodami, te właśnie przesunięcia charakteryzują punkt przestrzeni i ich zbiór stanowi podgrupę naszej grupy. Każdej podgrupie odpowiada, zatem, punkt przestrzeni.

Zdawać by się mogło, że z tego wynika, iż doświadczenie powiedziało nam, ile wymiarów ma przestrzeń. W rzeczywistości jednak i tu stwierdzić należy, że doświadczenia nasze nie dotyczyły przestrzeni, lecz naszego ciała i jego relacji z pobliskimi przedmiotami. Doświadczenia te są ponadto bardzo niedokładne.

W umyśle naszym istniała już wcześniej utajona idea pewnej liczby grup, której teorię stworzył Lie. Którą z nich wybierzemy, aby z niej zrobić pewnego rodzaju wzorzec, z którym będziemy porównywali zjawiska naturalne? A po wyborze tej grupy, którą z podgrup weźmiemy w celu określenia punktu przestrzeni? W zadaniu tym doświadczenie było nam pomocne, wskazując, jaki wybór jest najlepiej przystosowany do własności naszego ciała, ale do tego tylko ograniczyła się jego rola.

Spotyka się często zdanie, że jeśli doświadczenie indywidualne nie mogło doprowadzić do stworzenia geometrii, to mogło tego dokonać doświadczenie naszych przodków. Cóż ma znaczyć to zdanie? Czy to, że my nie możemy dowieść doświadczalnie postulatu Euklidesa, lecz przodkowe nasi byli w stanie to zrobić? Bynajmniej. Ma ono wyrażać przekonanie, że umysł nasz przystosowywał się drogą doboru naturalnego do warunków świata zewnętrznego, że przyjął on geometrię najkorzystniejszą dla gatunku, czyli innymi słowy, najdogodniejszą. Jest to w pełnej zgodzie z naszymi wnioskami: geometria nie jest prawdziwa, lecz korzystna.*

* Tezy Poincarégo o względności geometrii, przedstawione w dwóch ostatnich rozdziałach drugiej części, dały początek długim dyskusjom na temat względności geometrii. Systematyczne omówienie tej problematyki wykracza zdecydowanie poza ramy krótkiego komentarza do tekstu Poincarégo, dlatego ograniczę się tu tylko do paru uwag. Wydaje mi się, że Poincaré nie dość konsekwentnie odróżnia geometrię jako teorię matematyczną od geometrii jako teorii fizycznej. Gdy zajmujemy się geometrią jako teorią matematyczną, kwestia prawdziwości jej pewników w ogóle nie może powstać. Pewniki przyjmuje się lub nie, a jedynym kryterium jest to, czy prowadzą one do interesującej geometrii. Jeśli natomiast rozpatrujemy geometrię jako teorię fizyczną, to pewniki mają podobny charakter, jak najbardziej ogólne zasady fizyczne: są w znacznej mierze konwencjonalne, ale jednak nie są całkowicie niezależne od doświadczenia. W szczególności, nie ma sensu twierdzenie, że doświadczalnie nigdy nie poznajemy własności przestrzeni, a tylko ciał fizycznych, gdyż wówczas samo pojęcie przestrzeni staje się całkowicie bezużyteczne. Takie pojęcia, jak linia prosta, muszą mieć interpretację fizyczną, a wtedy twierdzenia o liniach prostych stają się również twierdzeniami fizycznymi. Uderzający jest tu podany przez niego przykład, co by się stało, gdyby kiedyś astronomowie stwierdzili, że promienie światła nie rozchodzą się po liniach prostych - czy zmieniliby teorię promieni, czy geometrię? Poincaré uważał za oczywiste, że pozostawiliby w spokoju geometrię, ale odkrycie ogólnej teorii względności wykazało, że nie miał tu racji. Warto zwrócić uwagę na próby włączenia elektromagnetyzmu do ogólnej teorii względności; to, jakie obiekty uznamy za geometryczne, jest w pewnej mierze kwestią konwencji, ale większość fizyków uważa, że takie połączenie ma sens tylko wtedy, gdy prowadzi do faktycznej syntezy; można oczywiście stworzyć geometrię odpowiadającą iloczynowi grup ogólnych przekształceń współrzędnych i przekształceń fazowych U(1), ale nie przyniosłoby to żadnych korzyści i niczego nie wyjaśniło. Podobnie, pewne pola warto uważać za obiekty geometryczne, gdy działają jednakowo na wszystkie ciała. Formalnie zawsze można powiedzieć, że czasoprzestrzeń ma metrykę Minkowskiego (jest płaska), a tensor krzywizny opisuje pewne pole fizyczne, a nie geometryczne, ale jałowość takiej zmiany jest dla wszystkich oczywista - P.A.

Anglicy wykładają mechanikę jako naukę doświadczalną, natomiast na kontynencie wykłada się zawsze jako naukę mniej lub więcej dedukcyjną i a priori. Rację mają, rzecz jasna, Anglicy, lecz jakże można było tak długo trwać w błędnych poglądach? Czemu uczonym kontynentalnym, którzy usiłowali wyzbyć się przyzwyczajeń swych poprzedników, powiodło się to tylko w niewielkim stopniu?

Dalej, jeśli zasady mechaniki wynikają tylko z doświadczenia, to czyż nie są one przybliżone i prowizoryczne? Czyż nowe doświadczenia nie sprawią z czasem, że trzeba będzie te zasady zmienić lub nawet porzucić?

Pytania takie nasuwają się w sposób naturalny, a trudność ich rozwiązania płynie głównie stąd, że w wykładach mechaniki nie odróżniano wyraźnie, co wynika z doświadczenia, a co z rozumowania matematycznego, co jest umową, a co założeniem.

Nadto pamiętać należy, że:

1. Nie istnieje przestrzeń bezwzględna; umysł nasz pojmuje jedynie ruchy względne, a tymczasem fakty mechaniki opisuje się zwykle tak, jakby istniała przestrzeń bezwzględna, do której można byłoby je odnosić.

2. Nie istnieje czas bezwzględny; powiedzenie, że dwa przedziały czasu są równe, nie ma samo przez się sensu, a nabrać go może jedynie na mocy pewnej umowy.

3. Nie tylko nie posiadamy bezpośredniej intuicji równości dwóch przedziałów czasu, lecz nie posiadamy jej również w stosunku do równoczesności dwóch zjawisk, zachodzących w różnych miejscach; wytłumaczyłem to w artykule zatytułowanym Mesure du temps.1

1 "Revue de Metaphysique et de Morale", t. VI, s. 1-13 (styczeń 1898). Artykuł ten znalazł się w książce autora Wartość nauki - przyp. tłum.

4. Geometria euklidesowa jest tylko pewnego rodzaju konwencją; moglibyśmy opisywać fakty mechaniczne w przestrzeni nieeuklidesowej, która byłaby kanwą mniej dogodną, lecz równie uprawnioną, jak nasza zwykła przestrzeń. Takie sformułowanie mechaniki byłoby bardziej skomplikowane, ale jest możliwe.

Tak więc przestrzeń bezwzględna, czas bezwzględny, a nawet geometria nie są warunkami, narzucającymi się mechanice w sposób nieodparty; wszystkie te rzeczy nie są pierwotne w stosunku do mechaniki, podobnie jak język francuski nie jest pierwotny w stosunku do prawd, wyrażonych po francusku.

Można byłoby podjąć próbę sformułowania praw mechaniki w języku, który byłby niezależny od wszystkich takich konwencji; pozwoliłoby to zapewne lepiej zdać sobie sprawę z tego, jaka jest właściwie treść tych praw. Zadanie to, przynajmniej w części, podjął Andrade w swych Lecons de Mecanique physique.

Sformułowanie tych praw stałoby się naturalnie bardziej skomplikowane, gdyż wszystkie te konwencje przyjęto właśnie po to, by sformułowanie to skrócić i uprościć.

Co do mnie, to z wyjątkiem kwestii przestrzeni bezwzględnej, wszystkie te trudności pozostawię na uboczu; nie dlatego, bym ich nie dostrzegał, bynajmniej, lecz rozpatrzyłem je dostatecznie w dwóch pierwszych częściach tej książki.

Przyjmiemy zatem prowizorycznie czas bezwzględny i geometrię euklidesową.

Zasada bezwładności. - Ciało, na które nie działa żadna siła, porusza się ruchem jednostajnym prostoliniowym.

Czy jest to prawda, narzucająca się umysłowi a priori? Gdyby tak było, to dlaczego Grecy jej nie znali? Jak mogli sądzić, że ruch ustaje, gdy ustaje przyczyna, która go zainicjowała? Jak mogli uważać, że każde ciało, jeśli nie napotyka żadnego oporu, zaczyna poruszać się ruchem kołowym, najszlachetniejszym ze wszystkich ruchów?

Skoro przyjmujemy, że prędkość ciała nie może się zmienić, jeśli nie ma powodu, aby się zmieniła, to czyż nie można równie dobrze twierdzić, że położenie tego ciała lub krzywizna jego drogi nie może się zmienić, jeśli nie zmieni się przyczyna zewnętrzna?

Czy zasada bezwładności, skoro nie jest prawdą a priori, jest zatem faktem doświadczalnym? Czy jednak przeprowadzono kiedykolwiek doświadczenia z ciałami, na które nie działają żadne siły, a jeśli tak, to skąd wiedziano, że na ciała te nie działa żadna siła? Często przytacza się tu przykład kuli z kości słoniowej, toczącej się długo po marmurowym blacie; dlaczego jednak mówimy, że nie działa na nią żadna siła? Czy dlatego, że jest zbyt oddalona od innych ciał, by mogły na nią oddziaływać w zauważalny sposób? Wszak nie jest ona bardziej oddalona od Ziemi, niż gdybyśmy ją rzucili swobodnie w powietrze - a każdy wie, że w takim przypadku spadałaby pod wpływem siły ciążenia, spowodowanej oddziaływaniem z Ziemią.

Profesorowie mechaniki zazwyczaj szybko prześlizgują się do dalszych rozważań, dodając tylko, że zasadę bezwładności potwierdzają jej konsekwencje. To oczywiście jest błędne stwierdzenie: chcą oni oczywiście powiedzieć, że sprawdzić można konsekwencje zasady ogólniejszej, której zasada względności jest przypadkiem szczególnym.

Tej ogólniejszej zasadzie nadałbym postać następującą:

Przyśpieszenie danego ciała zależy jedynie od położenia tego ciała i ciał sąsiednich oraz od ich prędkości.

Matematyk powiedziałby, że ruchy wszystkich cząstek materialnych we Wszechświecie podlegają równaniom różniczkowym drugiego rzędu.

Aby wykazać, że jest to rzeczywiście naturalne uogólnienie zasady bezwładności, pozwolę sobie na rozważenie pewnej fikcji. Zasada bezwładności, jak powiedziałem, nie narzuca się nam a priori: inne prawa byłyby również zgodne z zasadą racji dostatecznej. Jeśli na ciało nie działa żadna siła, zamiast zakładać, że nie zmienia się jego prędkość, można równie dobrze założyć, że nie zmienia się jego położenie lub przyspieszenie.

Przyjmijmy chwilowo, że jedno z tych dwóch hipotetycznych praw jest prawem przyrody i zastępuje naszą zasadę bezwładności. Jakie byłoby jego naturalne uogólnienie? Chwila zastanowienia wystarczy, by odpowiedzieć na to pytanie.

W pierwszym przypadku należałoby przyjąć, że prędkość ciała zależy jedynie od jego położenia oraz od położenia ciał sąsiednich, w drugim natomiast, że zmiana przyspieszenia tego ciała zależy od położenia tego ciała i ciał sąsiednich, od ich prędkości i przyspieszeń, czyli mówiąc językiem matematycznym, w pierwszym przypadku różniczkowe równanie ruchu byłoby pierwszego rzędu, a w drugim przypadku - trzeciego rzędu.

Zmodyfikujmy nieco naszą fikcję. Wyobraźmy sobie świat analogiczny do naszego Układu Słonecznego, w którym wszakże, osobliwym przypadkiem, orbity wszystkich planet mają zerowy mimośród i nachylenie. Przypuśćmy również, że masy planet są zbyt małe, by można było wykryć perturbacje spowodowane ich oddziaływaniami grawitacyjnymi. Astronomowie mieszkający na jednej z planet takiego układu niechybnie doszliby do wniosku, że orbita każdego ciała niebieskiego musi być kołowa i równoległa do pewnej ustalonej płaszczyzny. W takim przypadku wystarczyłoby znać położenie planety, by określić jej prędkość i orbitę. Astronomowie wybraliby zatem w charakterze zasady bezwładności pierwsze z tych praw hipotetycznych, o których mówiliśmy przed chwilą.

Przypuśćmy teraz, że przez układ ten przeszłoby nagle z wielką prędkością ciało o dużej masie, które nadleciało z odległych gwiazdozbiorów. Orbity wszystkich planet zostałyby wówczas poważnie zaburzone. To nie wywołałoby jeszcze większego zdziwienia astronomów; łatwo odgadliby, że jedynym sprawcą tych zaburzeń jest nowe ciało niebieskie; sądziliby jednak, że gdy już się oddali, porządek zostanie przywrócony sam przez się; wprawdzie odległości planet od słońca zapewne się zmienią, ale ich orbity przybiorą ponownie kształt koła.

Gdy ciało będące źródłem perturbacji zniknie w oddali, a planety, zamiast wrócić na orbity kołowe, nadal będą krążyć po elipsach, dopiero wtedy astronomowie zorientują się, że popełnili błąd i stwierdzą, że muszą przebudować całą swoją mechanikę nieba.

Zatrzymałem się dłużej na tych hipotezach, albowiem sądzę, że niepodobna dobrze zrozumieć, czym jest nasza uogólniona zasada bezwładności, jeżeli nie przeciwstawi mu się przypuszczenia przeciwnego.

Zastanówmy się teraz, czy uogólniona zasada bezwładności została potwierdzona doświadczalnie i czy takie potwierdzenie jest możliwe? Gdy Newton pisał swoje Principia, uważał tę prawdę za ustanowioną i dowiedzioną przez doświadczenie - nie tylko przez antropomorficzne wyobrażenia, do których wrócimy poniżej, ale również przez prace Galileusza, a także przez prawa Keplera, albowiem według tych praw droga planety jest całkowicie wyznaczona przez jej początkowe położenie i prędkość, a tego właśnie wymaga nasza uogólniona zasada bezwładności.

Mogłoby się okazać, że zasada bezwładności jest tylko pozornie prawdziwa i pewnego dnia zastąpi je jakaś zasada analogiczna do tych, które rozważaliśmy, tylko wtedy, gdyby wprowadził nas w błąd jakiś niezwykły przypadek, podobny do tego z powyższego przykładu.

Przypuszczenie takie jest zbyt mało prawdopodobne, by warto się było nad nim dłużej zastanawiać. Nikt nie uwierzy, by przypadki takie mogły się zdarzać. Prawdopodobieństwo, że dwa mimośrody są równocześnie równe zeru, z pominięciem błędów obserwacji, nie jest mniejsze od tego, że jeden z nich jest równy 0,1 a drugi 0,2. Prawdopodobieństwo zjawiska prostego nie jest wcale mniejsze niż zjawiska złożonego; pomimo to, jeśli pierwsze zajdzie, nie zgodzimy się, by przypisać je przypadkowi; nie zechcemy uwierzyć, by przyroda postąpiła tak umyślnie w celu oszukania nas. Odrzucając zatem przypuszczenie o możliwości popełnienia tego rodzaju błędu, możemy powiedzieć, że gdy chodzi o zjawiska astronomiczne, obserwacje potwierdziły słuszność zasady bezwładności.

Jednak fizyka nie sprowadza się do astronomii.

Czy nie należy obawiać się, że jakieś nowe doświadczenie z innej dziedziny fizyki da wyniki sprzeczne z tą zasadą? Prawo doświadczalne zawsze może ulec zmianie; trzeba być przygotowanym na to, że zostanie ono zastąpione przez prawo ściślejsze.

A jednak nikt nie obawia się na serio, by zasada bezwładności kiedykolwiek została odrzucona lub zmodyfikowana. Dlaczego? Dlatego właśnie, że niepodobna poddać jej decydującej próbie.

Przede wszystkim zauważmy, że przeprowadzenie pełnej próby wymaga, by po pewnym czasie wszystkie ciała we Wszechświecie powróciły do swych położeń prędkości początkowych. Zobaczylibyśmy wówczas, czy poczynając od tej chwili będą się znów poruszać tak, jak poprzednio.

To doświadczenie jest niewykonalne; zrobić je można tylko częściowo. Niezależnie od tego, jak starannie je przeprowadzimy, zawsze znajdzie się pewna liczba ciał, które nie powrócą do położeń początkowych, a wówczas każde odchylenie od zasady bezwładności można łatwo wytłumaczyć.

Następnie, w astronomii widzimy ciała, których ruchy badamy, i prawie zawsze przyjmujemy, że nie działają na nie żadne siły niewidzialne. Wobec tego doświadczenie musi zawsze dać wyniki zgodne lub sprzeczne z naszą zasadą.

W fizyce natomiast jest inaczej: jeśli podstawą zjawisk fizycznych są ruchy, to są to ruchy cząsteczek, których nie widzimy. Jeżeli przyspieszenie jednego z widzialnych ciał wydaje się zależne od czegoś innego niż od położeń i prędkości ciał widzialnych lub cząsteczek niewidzialnych, których istnienie dotychczas zakładaliśmy, to nic nie przeszkadza nam przyjąć, że tym dodatkowym czynnikiem jest położenie lub prędkość cząsteczek, których obecności dotychczas nie podejrzewaliśmy. To pozwala nam uratować zasadę bezwładności.

Niechaj wolno mi będzie sięgnąć na chwilę do języka matematycznego w celu wyrażenia tej samej myśli w inny sposób. Przypuśćmy, że obserwujemy n cząsteczek i stwierdzamy, że ich 3n współrzędne spełniają 3n równań różniczkowych czwartego rzędu (nie zaś drugiego, jak wymaga zasada bezwładności). Wiadomo, że przez wprowadzenie 3n zmiennych pomocniczych układ 3n równań czwartego rzędu można sprowadzić do układu 6n równań drugiego rzędu. Jeżeli przyjmiemy, że te 3n zmienne pomocnicze przedstawiają współrzędne n cząsteczek niewidzialnych, to rezultat będzie zgodny z zasadą bezwładności.

Słowem, zasadę tą, sprawdzoną doświadczalnie w pewnej liczbie przypadków szczególnych, można bez trudu maksymalnie uogólnić, albowiem wiemy, że w ogólnych przypadkach doświadczenie nie może jej już ani potwierdzić, ani obalić.

Prawo przyspieszenia. - Przyspieszenie danego ciała jest równe działającej na nie sile, podzielonej przez jego masę.

Czy prawo to można sprawdzić doświadczalnie? Aby to uczynić, należałoby zmierzyć trzy wielkości, połączone równaniem: przyspieszenie, siłę i masę.

Przyjmuję, że można zmierzyć przyspieszenie, gdyż pomijam trudności związane z kwestią pomiaru czasu. Jak jednak zmierzyć siłę lub masę? Nie wiemy nawet, czym są te wielkości fizyczne.

Co to jest masa? Jest to, odpowiada Newton, iloczyn objętości i gęstości. - Trafniej byłoby powiedzieć, mówią Thomson i Tait, że gęstość jest ilorazem masy przez objętość. - Co to jest siła? Jest to, odpowiada Lagrange, przyczyna wywołująca ruch ciała lub dążąca do wywołania go. - Jest to, powie Kirchhoff, iloczyn masy i przyspieszenia. Czemu więc nie mielibyśmy powiedzieć, że masa jest ilorazem siły przez przyspieszenie?

Trudności są nierozwiązywalne.

Kiedy mówimy, że siła jest przyczyną ruchu, wkraczamy w metafizykę; określenie to, gdyby się nim zadowolić, okazałoby się zupełnie jałowe. Aby określenie mogło do czegoś służyć, musi wskazywać, jak moglibyśmy zmierzyć siłę; to zresztą całkowicie wystarczyłoby, definicja siły bynajmniej nie musi mówić nam, czym jest siła sama w sobie, ani też czy jest przyczyną, czy skutkiem ruchu.

Należy zatem przede wszystkim zdefiniować równość dwóch sił. Kiedy mówimy, że dwie siły są równe? Wówczas, odpowie kto, gdy przyłożone do tej samej masy, nadają jej takie samo przyspieszenie, albo też, gdy są przeciwstawione, wzajemnie się równoważą. Definicja ta jest tylko złudzeniem. Nie można odpiąć siły, przyłożonej do pewnego ciała, i zahaczyć ją o inne ciało, tak jak się odpina lokomotywę, by zaprząc ją do innego pociągu. Nie można zatem wiedzieć, jakie przyspieszenie nadałaby dana siła, gdyby była przyłożona do innego ciała. Niepodobna wiedzieć, jak zachowywałyby się dwie nieprzeciwstawione sobie siły, gdyby były przeciwstawne.

To właśnie określenie usiłuje się, że tak powiem, zmaterializować, gdy mierzy się siłę za pomocą dynamometru lub równoważy ją ciężarkami. Niech dwie siły F i F' - dla prostoty załóżmy, że są skierowane pionowo ku górze - działają na dwa ciała C i C'. Zawieśmy jeden i ten sam ciężar P najpierw na ciele C, później na C'. Jeśli w obu przypadkach obserwujemy równowagę, to dwie siły F i F' są sobie równe, gdyż obie są równe ciężarowi ciała P.

Czyż jednak jesteśmy pewni, że ciało P zachowało ten sam ciężar, gdy przenosiliśmy je z pierwszego ciała na drugie? Bynajmniej - pewni jesteśmy, że jest przeciwnie; wiemy, że siła ciążenia zmienia się wraz ze zmianą miejsca, na przykład, jest większe na biegunie niż na równiku. Różnica jest zapewne bardzo mała, i w praktyce możemy ją pominąć, lecz dobra definicja powinna się odznaczać matematyczną ścisłością, tej zaś tu brakuje. Co powiemy o ciężarze, dotyczy również sprężyny dynamometru, która może zmienić się pod wpływem temperatury i wielu innych czynników.

Nie dość na tym; nie można powiedzieć, że ciężar ciała P jest przyłożony do ciała C i równoważy wprost siłę F. Do ciała C jest przyłożone działanie A ciała P na ciało C; na ciało P działa natomiast jego własny ciężar oraz działanie R ciała C na P. W rezultacie siła F równa jest sile A, gdyż ją równoważy. Siła A równa jest sile R na mocy prawa równości akcji i reakcji; wreszcie, siła R równa jest ciężarowi ciała P, ponieważ go równoważy. Z tych trzech równości wyprowadzamy wniosek, że siła F równa jest ciężarowi ciała P.

Zmuszeni jesteśmy zatem odwołać się w definicji równości dwóch sił samą zasadę równości akcji i reakcji sił; wobec tego, zasady tej nie należy uważać za prawo doświadczalne, lecz za definicję.

Mamy zatem dwie reguły, które mówią, jak stwierdzić równość dwóch sił, równoważących się wzajemnie: równość akcji i reakcji. Przekonaliśmy się wszakże, że te dwie reguły nie są wystarczające: musimy uciec się do trzeciej i przyjąć, że niektóre siły, na przykład ciężar ciała, są stałe do co wielkości i kierunku. Ta trzecia reguła, jako powiedziałem, jest prawem doświadczalnym; jest ono sprawdzalne tylko w przybliżeniu; jest to zatem zła definicja.

Wracamy zatem do definicji Kirchhoffa: siła jest równa masie pomnożonej przez przyspieszenie. Teraz "prawo Newtona" przestaje grać rolę prawa doświadczalnego, staje się po prostu definicją. Lecz i ta definicja nie wystarcza, skoro nie wiemy, co to jest masa. Pozwala nam wprawdzie na wyliczenie stosunku dwóch sił, działających na to samo ciało w różnych chwilach, ale nie mówi nam nic o stosunku dwóch sił, działających na różne ciała.*

* Warto jednak zwrócić uwagę, że ta definicja musi być zgodna z przyjętą zasadą względności, czyli grupą przekształceń symetrii czasoprzestrzeni. Prawo Newtona jest zgodne z zasadą względności Galileusza. Gdy okazało się, że elektrodynamika jest niezgodna z tą zasadą względności, fizycy mogli albo wprowadzać różne hipotezy ad hoc do elektrodynamiki, albo zmienić zasadę względności i odpowiednio zreformować całą dynamikę. Odkrycie szczególnej teorii względności dowiodło, że słuszna była druga droga. I w tym przypadku okazało się, że prawo ruchu nie jest aż tak konwencjonalne, jak sądził Poincaré - P.A.

Aby je uzupełnić, trzeba znowu uciec się do trzeciej zasady dynamiki Newtona (równość akcji i reakcji), uważanej również nie za prawo doświadczalne, lecz za definicję. Dwa ciała A i B działają jedno na drugie; przyspieszenie ciała A, pomnożone przez masę A, jest równe sile, z jaką B działa na A; podobnie iloczyn przyspieszenia ciała B i masy ciała B, jest równy sile, z jaką A działa na B. Na mocy definicji akcja jest równa reakcji, a zatem masy ciał A i B mają się do siebie jak odwrotności przyspieszeń tych ciał. W ten sposób zdefiniowany został stosunek mas dwóch ciał i jest rzeczą doświadczenia sprawdzenie, czy stosunek ten jest stały.

Wszystko byłoby dobrze, gdyby ciała A i B istniały samowtór i nie działały na nie inne ciała. Tak bynajmniej nie jest: A porusza się z przyspieszeniem nie tylko pod wpływem siły, z jaką działa na nie ciało B, ale również mnóstwo innych ciał C, D,... Aby zastosować powyższą regułę, należy rozłożyć przyspieszenie A na kilka składowych i wyróżnić tę, której przyczyną jest działanie ciała B.

Taki rozkład byłby możliwy, gdybyśmy założyli, że działanie C na A dodaje się po prostu do działania B na A, przy czym obecność ciała C nie zmienia w żaden sposób działania B na A, ani też obecność B nie wpływa na działanie C na A. Innymi słowy, musielibyśmy przyjąć, że siły, z jakimi dwa ciała działają na siebie wzajemnie, są skierowane wzdłuż łączącej je prostej i zależą jedynie od odległości między ciałami, czyli są to tak zwane siły centralne.

Wiadomo, że w celu wyznaczenia mas ciał niebieskich używa się zupełnie innej zasady. Prawo powszechnego ciążenia uczy, że przyciąganie dwóch ciał jest proporcjonalne do ich mas; jeśli r oznacza odległość między nimi, m i m' ich masy, a k to stała, to wartość siły ciążenia wynosi

kmm'/r2.

Nie mierzy się wówczas masy zdefiniowanej jako stosunek siły do przyspieszenia, lecz masę grawitacyjną - nie bezwładność ciała, lecz jego zdolność przyciągania innych ciał.

Jest to metoda pośrednia, która teoretycznie nie jest konieczna. Mogłoby się równie dobrze zdarzyć, że przyciąganie byłoby odwrotnie proporcjonalne do kwadratu odległości, ale nie zależało od iloczynu mas, czyli byłoby równe

f/r2

przy czym nie zachodziłaby równość

f = kmm'.

Gdyby tak było, można byłoby mierzyć masy ciał niebieskich na podstawie obserwacji ich ruchów względnych.

Czy mamy prawo przyjąć hipotezę sił centralnych? Czy hipoteza ta jest ściśle prawdziwa? Czy jest rzeczą pewną, że doświadczenie nigdy jej nie obali? Któż ośmieliłby się to twierdzić? Jeśli zaś porzucimy to założenie, to cały nasz tak pracowicie wznoszony gmach runie.

Nie mamy więc prawa wyróżniać składowej przyspieszenia ciała A, której przyczyną jest działanie ciała B. Nie mamy żadnego sposobu, by odróżnić ją od przyspieszenie spowodowanego działaniem C lub dowolnego innego ciała. Podana reguła mierzenia masy nie nadaje się do zastosowania.

Cóż pozostaje wobec tego z zasady równości akcji i reakcji? Jeżeli odrzucimy hipotezę sił centralnych, zasadę tę musimy sformułować następująco: wypadkowa geometryczna wszystkich ciał działających na poszczególne ciała układu, na który nie działają żadne siły zewnętrzne, jest równa zeru. Innymi słowy, środek ciężkości tego układu porusza się ruchem jednostajnym prostoliniowym.

Wydaje się, że teraz mamy sposób określenia masy: położenie środka ciężkości zależy oczywiście od mas poszczególnych ciał układu, a zatem wartości tych mas muszą być takie, by środek ciężkości poruszał się jednostajnie i prostoliniowo. Jest to zawsze możliwe, jeśli trzecia zasada Newtona jest prawdziwa; w ten sposób na ogół można jednoznacznie określić masy ciał należących do układu.

Nie istnieją jednak układy, na które nie działają żadne siły zewnętrzne. Na każde ciało we Wszechświecie działają, w mniejszym lub większym stopniu, wszystkie pozostałe ciała. Prawo ruchu środka ciężkości jest ściśle prawdziwe jedynie w zastosowaniu do całego Wszechświata.

Wobec tego, w celu wyznaczenia na podstawie tego prawa masy jakiegoś ciała, należałoby obserwować ruch środka ciężkości Wszechświata. Niedorzeczność tego wniosku jest uderzająca: znamy jedynie ruchy względne; ruch środka Wszechświata pozostanie dla nas wieczna niewiadomą.*

* Istnieją jednak układy dostatecznie odizolowane od otoczenia, by można było sensownie mówić o ruchu środka ciężkości takiego układu. Absolutna ścisłość jest chimerą, która nie powinna odwracać naszej uwagi od użyteczności pewnych zasad. W szczególności, zasady symetrii ze względu na obroty, przesunięcia etc. są użyteczne właśnie dlatego, że istnieją układy dostatecznie izolowane, by można było je stosować do analizy ich właściwości - P.A.

Nie pozostaje więc nic - usiłowania nasze okazały się bezowocne; ostać się jedynie może definicja następująca, która w istocie stanowi deklarację naszej bezsilności: masy są to współczynniki, których wprowadzenie do obliczeń jest wygodne.

Moglibyśmy przebudować od początku całą mechanikę, nadając wszystkim masom inne wartości. Nowa ta mechanika nie byłaby sprzeczna ani z doświadczeniem, ani z ogólnymi cechami dynamiki (zasada bezwładności, zasada proporcjonalności sił do mas i do przyspieszeń, równość akcji i reakcji, ruch jednostajny prostoliniowy środka masy, zasada pól).

Równania tej nowej mechaniki byłyby jednak bardziej złożone. Musimy to dobrze zrozumieć: bardziej złożone byłyby tylko pierwsze wyrazy, czyli te, które poznaliśmy doświadczalnie; niewykluczone, że można byłoby nieco zmienić przyjęte masy ciał, nie zmieniając stopnia złożoności całych równań.

Hertz zadał sobie pytanie, czy zasady mechaniki są ściśle prawdziwe. "W przekonaniu wielu fizyków - powiada on - wydaje się to nie do pojęcia, by najodleglejsze nawet doświadczenie mogło kiedykolwiek coś zmienić w niezachwianych zasadach mechaniki, a przecież wszystko, co wiadomo z doświadczenia, może zawsze zostać zmodyfikowane przez kolejne doświadczenia".

Po tym, co powiedzieliśmy wyżej, obawy takie są zbyteczne. Zasady dynamiki wydawały się nam początkowo prawdami doświadczalnymi, lecz teraz jesteśmy skłonni posługiwać się nimi jako definicjami. Na mocy definicji siła jest równa iloczynowi masy i przyspieszenia; oto zasada, którą nie może zachwiać żadne późniejsze doświadczenie. Podobnie, na mocy definicji akcja jest równa reakcji.

W takim razie - mógłby ktoś powiedzieć - te nie dające się sprawdzić zasady są pozbawione wszelkiego znaczenia; doświadczenie nie może im zaprzeczyć, ale i one nie mówią nam nic pożytecznego. Po to zatem studiować dynamikę?

Ten zbyt pospieszny wyrok byłby niesprawiedliwy. Nie ma w przyrodzie układu doskonale odizolowanego, doskonale zabezpieczonego przed wpływami zewnętrznymi, ale istnieją układy w przybliżeniu odizolowane.

Obserwując taki układ, można badać nie tylko ruchy względne ciał należących do tego układu, ale również ruch jego środka ciężkości względem innych części Wszechświata. Stwierdzamy wówczas, że ruch ten jest w przybliżeniu jednostajny i prostoliniowy, zgodnie z trzecią zasadą dynamiki Newtona.

Jest to prawda doświadczalna, lecz doświadczenie nie będzie mogło nią zachwiać. Cóż bowiem powiedziałoby nam doświadczenie dokładniejsze od poprzednich? Powiedziałoby nam tylko, że zasada ta jest w przybliżeniu spełniona, ale o tym wiedzieliśmy już wcześniej.

Rozumiemy teraz, w jaki sposób doświadczenie mogło służyć za podstawę zasad mechaniki, a jednak nigdy nie da wyników sprzecznych z tymi zasadami.*

* Rzeczywiście trudno sobie wyobrazić, by na podstawie jednego doświadczenia można było odrzucić zasady dynamiki Newtona. A jednak kolejne doświadczenia wykazywały słuszność elektrodynamiki Maxwella i dowodziły, że jest ona sprzeczna z zasadą względności Galileusza, co ostatecznie zmusiło fizyków do zmodyfikowania zasad dynamiki. Zasady te okazały się zatem wrażliwe na werdykt doświadczenia. Praw fizycznych nie weryfikujemy na ogół pojedynczo, lecz wspólnie - jako pewien zbiór praw tworzących spójną teoretyczną strukturę. Struktura taka może okazać się sprzeczna z doświadczeniem, a wtedy konieczne mogą się stać nawet modyfikacje podstawowych zasad - P.A.

Mechanika antropomorficzna. - Kirchhoff - powie ktoś - uległ powszechnej wśród matematyków do formalizmu; jego talent fizyczny nie zdołał go przed tym uchronić. Chciał mieć definicję siły, dlatego wykorzystał do jej sformułowania pierwsze lepsze twierdzenie. Definicja siły wcale nie jest konieczna; pojęcie siły jest pierwotne i nie daje się sprowadzić do żadnego innego; wszyscy wiemy, co to jest siła, posiadamy bezpośrednią intuicję siły. Źródłem tej intuicji jest idea wysiłku, z którą oswoiliśmy się już w dzieciństwie.

Otóż zauważmy przede wszystkim, że gdyby nawet bezpośrednia intuicja pozwalała nam poznać prawdziwą naturę siły samej w sobie, to jeszcze nie wystarczyłoby do uzasadnienia mechaniki; intuicja taka byłaby poza tym zupełnie bezużyteczna. Chodzi bowiem nie tylko o to, by wiedzieć, co to jest siła, lecz o to, by umieć ją mierzyć.

Wszystko, co nie mówi nam, jak mierzyć siły, jest dla mechanika równie bezużyteczne, jak dla fizyka zajmującego się termodynamiką subiektywne pojęcie ciepła i zimna. Tego subiektywnego pojęcia nie można wyrazić ilościowo, więc jest ono zupełnie nieprzydatne. Uczony, którego skóra byłaby bardzo złym przewodnikiem ciepła, nigdy nie odczuwałby wrażenia zimna i gorąca, a jednak mógłby obserwować termometr równie dobrze, jak każdy inny i to wystarczyłoby mu do stworzenia całej teorii ciepła.

Bezpośrednia idea wysiłku nie może posłużyć do pomiaru siły; na przykład, oczywiste jest, że ja odczuję większe zmęczenie podnosząc ciężar o wadze pięćdziesięciu kilogramów niż człowiek nawykły do dźwigania ciężarów.

To jeszcze nie wszystko: pojęcie wysiłku nie ujawnia prawdziwej istoty siły; sprowadza się ono ostatecznie do wrażeń mięśniowych, a nikt nie twierdzi, że Słońce odczuwa wrażenia mięśniowe, gdy przyciąga Ziemię.

W pojęciu wysiłku można upatrywać tylko pewnego symbolu, mniej dokładnego i mniej dogodnego niż strzałki, którymi posługują się matematycy, ale równie odległego od rzeczywistości.

Antropomorfizm odegrał ważną rolę historyczną w genezie mechaniki; być może, że jeszcze kiedyś dostarczy symbolu, który komuś wyda się wygodny, nie może on jednak stać się podstawą żadnej teorii prawdziwie naukowej lub prawdziwie filozoficznej.

"Szkoła nici" - Mechanikę antropomorficzną odmłodził Andrade w swoich Lecons de Mécanique physique, przeciwstawiając szkole mechaników Kirchhoffa dość dziwacznie nazwaną "szkołę nici".

Szkoła ta usiłuje sprowadzić wszystko do "rozważania pewnych układów materialnych o masie tak nieznacznej, że można ją pominąć; układy te znajdują się w stanie napięcia i zdolne są przekazywać znaczne siły ciałom odległym; idealnym typem takiego układu jest nić".

Nić, przenosząc dowolną siłę, wydłuża się pod jej wpływem. Kierunek nici wskazuje kierunek siły, a jej wydłużenie jest miarą wartości siły.

Można sobie wyobrazić następujące doświadczenie. Ciało A przywiązane jest do nici. Na przeciwny koniec nici działa siła, której wielkość zmieniamy, aż wreszcie nić wydłuży się o 0x01 graphic
, notujemy wówczas przyspieszenie ciała A i przywiązujemy do tej samej nici ciało B. Znowu przykładamy do nici siłę i zwiększamy ją, aż nić wydłuży się o 0x01 graphic
i notujemy przyspieszenie ciała B. Powtarzamy następnie to doświadczenie z ciałami A i B, ale tym razem wydłużenie nici wynosi 0x01 graphic
. Cztery zmierzone przyspieszenia powinny być proporcjonalne. To doświadczenie pozwala zatem sprawdzić drugą zasadę dynamiki Newtona.

Można również poddać ciału działaniu kilku identycznych nici, o identycznym napięciu i poszukać doświadczalnie, jak muszą być skierowane te nici, by ciało pozostawało w równowadze. To doświadczenie umożliwia weryfikację prawa składania sił.

Cóż jednak zrobiliśmy w ten sposób? Określiliśmy siłę, która działa na nić, na podstawie zmiany postaci nici - co jest dość racjonalne; przyjęliśmy następnie, że gdy ciało przywiązane jest do nici, siła przekazywana mu przez nić jest równa sile, z jaką ciało działa na nić; odwołaliśmy się zatem do zasady równości akcji i reakcji, uznając ją nie za prawdę doświadczalną, lecz cechę definicyjną siły.

Definicja ta jest tak samo konwencjonalna, jak definicja Kirchhoffa, ale jest znacznie mniej ogólna.

Nie wszystkie siły działają za pośrednictwem nici (a gdyby tak było, nici te musiałby być tożsame, gdyż inaczej nie moglibyśmy posługiwać się nimi do porównywania sił). Gdybyśmy nawet przyjęli, że Ziemię łączy ze Słońcem jakaś niewidzialna nić, to każdy przyzna, że nie znamy żadnego sposobu zmierzenia wydłużenia tej nici.

W dziewięciu przypadkach na dziesięć, definicja ta jest bezużyteczna; niepodobna mu nadać żadnej treści i trzeba wrócić do definicji Kirchhoffa.

Po co zatem wybierać tak okrężną drogę? Mamy przyjąć pewną definicję siły, mającą sens jedynie w pewnych szczególnych przypadkach. W tych przypadkach sprawdzamy doświadczalnie, że prowadzi ona do drugiej zasady dynamiki Newtona. Opierając się na powadze tego doświadczenia, uznajemy następnie drugą zasadę dynamiki za definicję siły we wszystkich innych przypadkach.

Czy nie byłoby prościej uznać drugą zasadę dynamiki za ogólną definicję siły, a wymienione doświadczenia uważać nie za testy tej zasady, lecz za dowód, że odkształcenia ciała sprężystego zależą jedynie od sił, działających na to ciało?

Do przyjęcia takiego stanowiska skłania również to, że warunki, w których można byłoby zastosować tę definicję, nigdy nie są spełnione w sposób doskonały: nić nigdy nie jest całkowicie pozbawiona masy, nie jest też wolna od działania innych sił, prócz oddziaływań ciał przyczepionych do jej końców.

Koncepcje Andrade są jednak bardzo interesujące; wprawdzie nie zaspokajają naszych wymagań logicznych, ale pozwalają lepiej zrozumieć historyczną genezę podstawowych pojęć mechaniki. Refleksje, jakie w nas wzbudzają, wskazują, jak wysoko wzniósł się ludzki umysł od naiwnego antropomorfizmu do współczesnych koncepcji naukowych.

Widzimy w punkcie wyjścia doświadczenie bardzo szczególne i przybliżone; w punkcie końcowym - prawo zupełnie ogólne, zupełnie ścisłe, którego pewność uważamy za bezwzględną. Pewność tę czerpię z naszej, że tak powiem, woli, bowiem uważamy je za umowę.

Czy zatem druga zasada dynamiki Newtona i reguła składania sił są tylko dowolnymi konwencjami? Konwencjami - zapewne tak, ale nie dowolnymi. Byłyby one dowolne, gdybyśmy zapomnieli o doświadczeniach, które doprowadziły twórców nauki do ich przyjęcia, a które mimo całej swej niedoskonałości są wystarczające, aby je usprawiedliwić. Dobrze jest od czasu do czasu zwrócić uwagę na doświadczalne źródło tych konwencji.

Zasada względności ruchu. - Próbowano wielokrotnie związać prawo przyspieszenia z zasadą ogólniejszą. Ruch dowolnego układu musi być zgodny z tymi samymi prawami, czy to w odniesieniu do stałego układu współrzędnych, czy to układu, poruszającego się ruchem jednostajnym prostoliniowym. To właśnie stwierdza zasada względności ruchu, która narzuca się nam z dwóch powodów. Po pierwsze, potwierdzają ją najpospolitsze doświadczenia; po drugie, jej odrzucenie wydaje się umysłowi dziwnie odstręczające.

Przyjmijmy więc tę zasadę i rozważmy ciało, na które działa siła; ruch względny tego ciała w stosunku do obserwatora poruszającego się ze stałą prędkością równą prędkości początkowej tego ciała nie różni się od ruchu bezwzględnego tego ciała, gdyby w chwili początkowej było w spoczynku. Z tego wynika, że przyspieszenie ciała nie zależy od jego prędkości bezwzględnej; niektórzy usiłowali nawet na tej podstawie sformułować kompletne prawo przyspieszenia.

Bardzo długo ślady tego dowodzenia można było znaleźć w programach uniwersyteckich studiów fizyki. Jest oczywiste, że próby te skazane są na niepowodzenie. Przeszkodą uniemożliwiającą dowiedzenie drugiej zasady dynamiki jest brak definicji siły; przeszkoda ta nie została usunięta, gdyż zasada ta nie dała nam brakującej definicji.

Niemniej zasada względności ruchu jest interesująca sama przez się i zasługuje na bliższe zbadanie. Postarajmy się najpierw ją sformułować w sposób ścisły.

Powiedzieliśmy już, że przyspieszenie poszczególnych ciał wchodzących w skład układu odizolowanego zależą jedynie od ich prędkości i położeń względnych, nie zaś od ich prędkości i położeń bezwzględnych, byle tylko poruszający się układ współrzędnych, do których odnosimy ruchy względne, poruszał się ruchem jednostajnym prostoliniowym. Innymi słowy, przyspieszenia tych ciał zależą jedynie od różnic prędkości i współrzędnych, nie zaś od bezwzględnych wartości tych prędkości i współrzędnych.

Jeżeli zasada ta jest prawdziwa dla przyspieszeń względnych, to korzystając z zasad dynamiki można wykazać, że jest prawdziwa również dla przyspieszeń bezwzględnych.

Pozostaje jeszcze dowiedzenie, że przyspieszenia zależą jedynie od różnic prędkości i współrzędnych, czyli mówiąc językiem matematycznym, różnice współrzędnych spełniają równanie różniczkowe drugiego rzędu.

Czy dowód ten można wyprowadzić z doświadczeń lub rozważań a priori?

Na podstawie tego, co już powiedzieliśmy, czytelnik łatwo sam odpowie na to pytanie.

W rzeczy samej, w tym sformułowaniu zasada względności ruchu jest podobna do zasady, którą nazwaliśmy uogólnioną zasadą bezwładności; nie jest z nią tożsama, albowiem tu mamy do czynienia z różnicami współrzędnych, nie zaś z samymi współrzędnymi. Nowa zasada mówi zatem coś więcej, niż poprzednia, lecz można do niej zastosować to samo rozumowanie i dojść do takich samych wniosków, a zatem nie ma potrzeby, by je tutaj powtarzać.

Argument Newtona. - Nasuwa się tu kwestia bardzo ważna i nieco niepokojąca. Jak stwierdziłem, zasada względności ruchu jest dla nas nie tylko wnioskiem z doświadczeń, gdyż a priori wszelkie przypuszczenia przeciwne wydają się odstręczające.

Skoro tak, to dlaczego zasada ta jest prawdziwa jedynie wtedy, gdy ruchomy układ odniesienia porusza się ruchem jednostajnym prostoliniowym? Czy nie powinna się narzucać z równą mocą, gdy ruch ten jest niejednostajny, albo przynajmniej gdy sprowadza się do jednostajnego obrotu? Otóż w obu tych przypadkach zasada ta nie jest prawdziwa.

Nie zatrzymamy się długo nad przypadkiem ruchu prostoliniowego, lecz niejednostajnego układu odniesienia; chwila zastanowienia wystarczy tu, by wyjaśnić paradoks. Gdy jedziemy w wagonie i pociąg nagle się zatrzyma z powodu uderzenia w przeszkodę, zostaniemy rzuceni na przeciwległą ławkę, choć nie działa na nas bezpośrednio żadna siła. Nie ma w tym nic tajemniczego; wprawdzie na nas nie działa żadna siła zewnętrzna, ale pociąg zatrzymał się pod wpływem zderzenia. Nie ma nic paradoksalnego w tym, że ruch względny dwóch ciał zostaje zakłócony, skoro ruch jednego z nich zmienia się za sprawą przyczyny zewnętrznej.

Zatrzymam się dłużej nad przypadkiem ruchu względnego w układzie odniesienia obracającym się ze stałą prędkością kątową. Gdyby niebo było cały czas pokryte obłokami, gdybyśmy nie mieli możności obserwowania ciał niebieskich, moglibyśmy mimo to dowiedzieć się, że Ziemia się obraca: świadczy o tym spłaszczenie globu i eksperyment Foucault.

A jednak, czy stwierdzenie, że Ziemia się obraca, miałoby w takich warunkach jakiś sens? Jeśli nie ma przestrzeni bezwzględnej, to czy można się obracać inaczej jak tylko względem jakiegoś innego ciała? Z drugiej zaś strony, czy moglibyśmy przystać na wniosek wyciągnięty przez Newtona i uwierzyć w istnienie przestrzeni bezwzględnej?

Nie wystarczy jednak stwierdzić, że wszystkie rozwiązania wydają się nam równie rażące; trzeba zanalizować w każdym przypadku przyczyny naszego wstrętu i zdecydować się na wybór z całą znajomością rzeczy. Wobec tego proszę, by czytelnik wybaczył mi poniższe długie wywody.

Wróćmy do naszej fikcji: gęste obłoki ukrywają ciała niebieskie przed oczami ludzi, którzy nie tylko nie mogą ich obserwować, lecz nie wiedzą nawet o ich istnieniu. W jaki sposób ludzie ci dowiedzą się, że Ziemia się obraca? Z większą jeszcze pewnością niż nasi przodkowie twierdzić będą, że Ziemia, po której chodzą, jest nieruchoma i niewzruszona; długo wypadnie im czekać na przyjście ich Kopernika. Ale w końcu Kopernik ten zjawiłby się; zachodzi pytanie, jak mógłby się zjawić?

Mechanicy tego fikcyjnego świata początkowo nie zetknęliby się z nierozwiązywalnymi sprzecznościami. W teorii ruchu względnego rozważa się, oprócz sił rzeczywistych, fikcyjne siły bezwładności. Nasi urojeni badacze mogliby więc wszystko wyjaśnić, uważając te siły za rzeczywiste, i nie widzieliby w tym sprzeczności z uogólnioną zasadą bezwładności, bowiem jedna z tych sił zależałaby od bezwzględnych położeń poszczególnych części układu, podobnie jak rzeczywiste siły, a druga od ich prędkości względnych, jak w przypadku tarcia.

Wkrótce jednak zaczęliby dostrzegać liczne trudności; gdyby sporządzili układ odizolowany, środek ciężkości tego układu nie poruszałby się ruchem w przybliżeniu prostoliniowym. W celu wyjaśnienia tego faktu mogliby powołać się na siły odśrodkowe, które uważaliby za rzeczywiste i przypisywali je wzajemnemu oddziaływaniu ciał. Siły te nie malałyby jednak ze wzrostem odległości, czyli w miarę ulepszania izolacji układu; wprost przeciwnie: siła odśrodkowa rośnie nieograniczenie wraz z odległością.

Już ta trudność byłaby bardzo poważna, ale przecież daliby sobie z nią radę: mogliby przyjąć, że istnieje jakieś bardzo subtelne środowisko, w rodzaju naszego eteru, które otacza wszystkie ciała i wywiera na nie działania odpychające.

To jednak nie wszystko. Przestrzeń jest symetryczna, a prawa ruchu nie wykazywałyby tej symetrii - przeciwnie, pozwalałyby odróżnić stronę prawą od lewej. Uczeni zaobserwowaliby, na przykład, że cyklony wirują zawsze w tą samą stronę, podczas gdy ze względu na symetrię powinny obracać się równie często w jedną stronę, co w drugą. Gdyby uczonym tym dzięki uporczywej pracy udało się w końcu nadać swemu Wszechświatowi symetrię, nie ostałaby się ona wobec powyższych zjawisk, pomimo że nie ma żadnego oczywistego powodu, aby symetria była zakłócona w tym, a nie w innym kierunku.

Uczeni zapewne poradziliby sobie również z tym problemem, wymyśliliby coś, co nie byłoby zapewne bardziej osobliwe i sztuczne niż kryształowe sfery Ptolemeusza. Posuwaliby się naprzód, gromadząc skomplikowane założenia, aż wreszcie zjawiłby się długo oczekiwany Kopernik i zmiótłby je za jednym zamachem, mówiąc: Prościej jest przyjąć, że Ziemia się obraca.

Podobnie jak nasz Kopernik powiedział: Dogodniej jest przypuścić, że Ziemia się obraca, gdyż pozwala to wyrazić prawa astronomii w znacznie prostszym języku, ów Kopernik powiedziałby: Dogodniej jest przypuścić, że Ziemia się obraca, gdyż pozwala to wyrazić prawa mechaniki w znacznie prostszym języku.

Nie jest to bynajmniej sprzeczne z twierdzeniem, że przestrzeń bezwzględna, to znaczy układ, do którego należałoby odnosić ruch Ziemi, by dowiedzieć się, czy rzeczywiście się obraca, nie istnieje w żadnym obiektywnym sensie. Stwierdzenie "Ziemia się obraca" nie ma żadnego obiektywnego sensu, gdyż nie można przeprowadzić żadnego doświadczenia, które mogłoby posłużyć do jego weryfikacji; doświadczenia tego nie tylko nie udałoby się przeprowadzić lub wymarzyć, choćby przez najzuchwalszego Juliusza Verne'a, lecz nie da się go nawet pomyśleć nie popadając w sprzeczności. Inaczej mówiąc, te dwa twierdzenia: "Ziemia się obraca" i "Dogodniej jest przyjąć, że Ziemia się obraca", mają jeden i ten sam sens, jedno nie zawiera więcej treści niż drugie.

Być może komuś wyda się niezadowalające i razić go będzie to, że wśród wszystkich hipotez, czy też raczej konwencji, które możemy przyjąć w celu wyjaśnienia zjawisk mechanicznych, istnieje jednak, która jest wygodniejsza od innych.

Skoro jednak wszyscy zgodzili się na to bez szemrania, gdy szło o prawa astronomii, to czemu miałoby to kogoś razić, gdy chodzi o mechanikę?

Jak się przekonaliśmy, współrzędne ciał są określone przez równania różniczkowe drugiego rzędu i to samo dotyczy różnic tych współrzędnych. To właśnie wyrażają uogólniona zasada bezwładności i zasada względności ruchu. Gdyby odległości ciał były również określone przez równania drugiego rzędu, nasze wymagania byłyby chyba w zupełności zaspokojone. W jakiej mierze są one faktycznie zaspokojone i dlaczego nie jesteśmy w pełni usatysfakcjonowani?

W celu udzielenia odpowiedzi na te pytania, lepiej będzie wziąć prosty przykład. Przypuśćmy, że znajdujemy się w układzie podobnym do naszego Układu Słonecznego, z którego wszelako nie widać gwiazd stałych poza tym układem; astronomowie mogą obserwować wyłącznie odległości wzajemne planet i Słońca, nie zaś bezwzględne współrzędne planet. Jeśli wyprowadzimy wprost z prawa Newtona równania różniczkowe, określające zmiany tych odległości, nie otrzymamy równań drugiego rzędu. Chcę przez to powiedzieć, że gdybyśmy znali, oprócz praw Newtona, wartości początkowe tych odległości i ich pochodnych względem czasu, nie wystarczyłoby to do określenia wartości tych odległości w dowolnej chwili późniejszej. Brak byłoby jeszcze jednej wielkości, na przykład tak zwanej w astronomii stałej pól.

Są tu jednak możliwe dwa stanowiska: możemy rozróżnić dwa rodzaje stałych. Dla fizyka, świat sprowadza się do licznych zjawisk, zależnych jedynie z jednej strony od zjawisk początkowych, a z drugiej strony, od praw wiążących zjawiska następujące ze zjawiskami poprzedzającymi. Jeśli zatem doświadczenie wskazuje, że pewna wielkość jest stała, mamy wybór między dwoma poglądami.

Albo założymy, że obowiązuje prawo, na mocy którego wielkość ta musi być niezmienna, a skoro tak się zdarzyło, że ma ona tę, a nie inną wartość od początku dziejów, to wartość tę będzie miała już zawsze. Wielkość tę można zatem nazwać stałą przypadkową.

Albo założymy, że istnieje prawo przyrody, które mówi, że wielkość ta musi mieć taką, a nie inną wartość. Wielkość tę nazywać będziemy wówczas stałą istotną.

Na przykład, zgodnie z prawem Newtona, okres orbitalny Ziemi jest stały, ale to, że wynosi on akurat 366 z małym ułamkiem dni gwiazdowych, nie zaś 300 lub 400, jest rzeczą jakiegoś początkowego przypadku. Jest to stała przypadkowa. Jeśli natomiast wykładnik odległości w prawie powszechnego ciążenia równa się - 2, a nie - 3, to nie przypadkowo, lecz dlatego, że to wynika z prawa Newtona. Jest to stała istotna.

Być może takie przypisanie pewnej roli przypadkowi nie jest uprawnione i w rozróżnieniu takim tkwi coś sztucznego, pewne jest jednak, że dopóki przyroda będzie miała swoje tajemnice, z rozróżnieniem tym związane będzie duża niepewność i ryzyko.

Stałą pól uważamy zazwyczaj za przypadkową. Czy jest pewne, że za taką samą uznaliby ją nasi hipotetyczni astronomowie? Gdyby mieli możliwość porównania dwóch różnych układów planetarnych, rozumieliby, że stała ta może mieć różne wartości, ale oni przyjęliby z góry, że ich układ jest odizolowany i nie mogliby zaobserwować żadnego ciała niebieskiego poza tym układem. W takich warunkach znaliby tylko jedną stałą, o ustalonej wartości, a zatem byliby zapewne skłonni uznać ją za stałą istotną.

Zauważmy mimochodem, w celu uniknięcia możliwego zarzutu, że mieszkańcy tego fikcyjnego świata nie mogliby ani zaobserwować, ani określić stałej pól w taki sposób jak my, ponieważ dla nich nie istniałyby odległości bezwzględne. Mimo to rychło spostrzegliby, że w ich równaniach występuje pewna stała, którą my nazywamy stałą pól.

Wówczas sytuacja wyglądałaby następująco. Jeżeli stałą pól uważa się za stałą istotną, wynikającą z pewnego prawa przyrody, to w celu wyliczenia odległości planet w dowolnej chwili wystarczy znać wartości początkowe tych odległości oraz ich pierwszych pochodnych. Zgodnie z tym stanowiskiem, odległości są określone przez równania różniczkowego drugiego rzędu.

Czy to zadowoliłoby umysły tych astronomów? Nie sądzę; przede wszystkim zauważyliby rychło, że różniczkując swoje równania, otrzymaliby wprawdzie równania wyższego rzędu, ale znacznie prostsze. Uderzyłaby ich trudność, związana z kwestią symetrii. Mianowicie, w zależności od tego, czy ogół planet przedstawiałby kształt pewnego wielościanu, czy też wielościanu względem niego symetrycznego, wypadałoby przyjąć odmienne prawa; jedynym sposobem uniknięcia tej konieczności byłoby uznanie stałej pól za przypadkową.

Wziąłem tu przykład dość szczególny, założyłem bowiem, że astronomowie w ogóle nie zajmują się mechaniką ziemską, a których wzrok nie sięga poza ich układ planetarny. Lecz wyniki nasze dotyczą wszystkich przypadków. Nasz Wszechświat jest bardziej rozległy niż tych astronomów, gdyż znamy gwiazdy stałe, ale i on jest ograniczony; moglibyśmy więc rozumować o całości naszego Wszechświata tak samo, jak ci astronomowie o swoim układzie planetarnym.

Ostatecznie dochodzimy zatem do wniosku, że równania, określające odległości, są rządu wyższego niż drugi. Czemu miałoby to nas razić? Czemu uważamy za całkiem naturalne, że bieg zjawisk zależy od wartości początkowych pierwszych pochodnych tych odległości, natomiast wahamy się uznać, że zależą one od wartości początkowych drugich pochodnych? Jedyną tego przyczyną mogą być nasze przyzwyczajenia umysłowe, wyrobione przez ustawiczne badanie uogólnionej zasady bezwładności i jej konsekwencji.

Wartości odległości w dowolnej chwili zależą od ich wartości początkowych, od wartości początkowych ich pierwszych pochodnych, oraz od jeszcze czegoś innego. Czym jest to coś innego?

Jeżeli nie chcemy, żeby to była po prostu jedna z drugich pochodnych, mamy otwarty wybór spośród wielu przypuszczeń. Przypuszczenie, że to "coś innego" to bezwzględna orientacja Wszechświata w przestrzeni, lub prędkości, z jaką się ta orientacja zmienia, jest niewątpliwie najdogodniejszym rozwiązaniem z matematycznego punktu widzenia; nie jest tak jednak z filozoficznego punktu widzenia, bo orientacja ta nie istnieje.

Można przypuszczać, że to "coś innego" to położenie lub prędkość jakiegoś niewidzialnego ciała; tak też czynią niektórzy autorzy i nawet nadali temu ciału nazwę "Ciało Alfa", jakkolwiek o tym ciele nigdy niczego się nie dowiemy, poza jego imieniem. Jest to wybieg, podobny do tego, o jakim mówiliśmy pod koniec rozważań na temat zasady bezwładności.

Jednak trudność, jaką się tutaj upatruje, jest sztuczna. Jeśli tylko dane, których w przyszłości dostarczą nam instrumenty pomiarowe, zależą jedynie od danych, których już nam dostarczyły lub dostarczyć mogły, to mamy już wszystko, czego potrzebujemy. A pod tym względem możemy być spokojni.

System energetyczny. - Trudności, które wynikły z mechaniki klasycznej, skłoniły pewnych uczonych do zastąpienia jej przez nowy system, który nazywają energetyzmem.

System energetyczny powstał w konsekwencji z odkrycia zasady zachowania energii, a ostateczną postać nadał mu Helmholtz.

W tym systemie podstawową rolę odgrywają dwie wielkości. Są to energia kinetyczna, czyli siła żywa, oraz energia potencjalna.

Wszelkimi zmianami, którym mogą ulegać ciała fizyczne, rządzą dwa prawa doświadczalne:

1. Suma energii kinetycznej i energii potencjalnej jest stała. Jest to zasada zachowania energii.

2. Jeśli układ ciał znajduje się w położeniu A w chwili t0, a w położeniu B w chwili t1, to przechodzi on zawsze od położenia początkowego do końcowego taką drogą, żeby wartość średnia różnicy energii kinetycznej i potencjalnej w czasie od t0 do t1 była możliwie najmniejsza.

Jest to zasada Hamiltona, czyli jedna z wersji zasady najmniejszego działania.

Teoria energetyczna, w porównaniu z teorią klasyczną, ma następujące zalety:

1. Jest zupełniejsza; to znaczy, że zasady zachowania energii i najmniejszego działania mówią więcej niż zasady podstawowe teorii klasycznej i zarazem wykluczają pewne ruchy, które są zgodne z teorią klasyczną, lecz nigdy nie występują w przyrodzie.

2. Uwalnia nas od hipotezy atomów, której niemal niepodobna uniknąć w ramach teorii klasycznej.

Z drugiej strony, teoria ta prowadzi do nowych trudności:

Zdefiniowanie nowych rodzajów energii nasuwa trudności niemal tak poważne, jak zdefiniowanie siły i masy w systemie klasycznym, ale można sobie z nimi łatwiej dać radę, przynajmniej w przypadkach najprostszych.

Rozważmy układ odizolowany, złożony z pewnej liczby punktów materialnych; załóżmy, że na punkty te działają siły zależne jedynie od ich względnego położenia oraz od ich odległości wzajemnych, które natomiast nie zależą od ich prędkości. Z zasady zachowania energii wynika, że istnieje funkcja sił.

W tym prostym przypadku sformułowanie zasady zachowania energii jest nadzwyczaj łatwe. Pewna mierzalna wielkość musi mieć stałą wartość. Wielkość ta jest sumą dwóch wyrazów; pierwszy zależy jedynie od położenia punktów materialnych, drugi jest proporcjonalny do kwadratu prędkości tych punktów. Rozkład na te dwa wyrazy jest jednoznaczny.

Pierwszy z tych wyrazów, który będziemy oznaczać U, to energia potencjalna; drugi, który oznaczymy T, to energia kinetyczna.

Skoro T + U jest wielkością stałą, to tak samo jest z każdą funkcją T + U: 0x01 graphic
(T + U).

Jednak taka funkcja 0x01 graphic
(T + U) nie jest na ogół sumą dwóch wyrazów, jednego niezależnego od prędkości, drugiego proporcjonalnego do kwadratu tych prędkości. Wśród funkcji zachowujących stałą wartość, jedna jedyna ma tę własność, mianowicie T + U (lub funkcja liniowa T + U, co na jedno wychodzi, gdyż taką liniową funkcję można zawsze sprowadzić do T + U zmieniając jednostki i punkt zerowy). To wyrażenie nazywać będziemy energią; pierwszy wyraz nosi nazwę energii kinetycznej, a drugi energii potencjalnej. Oba rodzaje energii można zatem zdefiniować całkowicie jednoznacznie.

To samo można powiedzieć o definicji mas. Energia kinetyczna, czyli siła żywa, wyraża się w sposób prosty, za pomocą mas i prędkości względnych wszystkich punktów materialnych, względem jednego z nich. Te prędkości względne można wyznaczyć obserwacyjnie; skoro zaś będziemy mieli energię kinetyczną wyrażoną jako funkcję kwadratów prędkości, to współczynniki odpowiednich wyrazów określają masy poszczególnych punktów.

Tak więc, w prostym przypadku, zdefiniowanie pojęć zasadniczych nie nastręcza poważniejszych trudności. Problemy pojawiają się na nowo w przypadkach bardziej złożonych, na przykład, gdy siły zależą nie tylko od odległości, ale również od prędkości. Weber przypuszcza, że siła, z jaką działają na siebie dwie cząstki z ładunkiem elektrycznym, zależy nie tylko od ich odległości, ale również od prędkości i przyspieszenia. Gdyby punkty materialne przyciągały się zgodnie z takim prawem, energia potencjalna U zależałaby od prędkości i mogłaby zawierać wyraz proporcjonalny do kwadratu prędkości.

Jak odróżnić wśród wyrazów proporcjonalnych do kwadratu prędkości te, które należą do T, od tych, które wchodzą w skład U? Jak zatem wyodrębnić obie części energii?

Co więcej, jak teraz określić samą energię? Nie mamy już teraz żadnego powodu, by wziąć za energię sumę T + U, nie zaś jakąś funkcję T + U, skoro znikła własność charakteryzująca T + U jako sumę o szczególnej postaci.

To jeszcze nie wszystko: należy uwzględnić nie tylko energię mechaniczną we właściwym znaczeniu, lecz również inne postaci energii: ciepło, energię chemiczną, elektryczną, itd. Zasada zachowania energii musi mieć postać:

T + U + Q = const.,

gdzie T to bezpośrednio obserwowana energia kinetyczna, U energia potencjalna położenia, zależna jedynie od położenia ciał, a Q to wewnętrzna energia cząsteczkowa, mająca postać energii cieplnej, chemicznej lub elektrycznej.

Wszystko byłoby dobrze, gdyby te trzy wyrazy wyraźnie się różniły, gdyby T było proporcjonalne do kwadratu prędkości, Q nie zależało od tych prędkości i od stanu ciał, a Q zależało wyłącznie od ich stanu wewnętrznego.

W takim przypadku można byłoby jednoznacznie rozłożyć energię na sumę trzech wyrazów tej postaci.

Tak wszakże nie jest. Rozważmy ciała naelektryzowane: energia elektrostatyczna, związana z ich wzajemnym oddziaływaniem, zależy oczywiście od ładunku, to znaczy od stanu tych ciał, ale zależy również od ich położenia. Jeśli ciała te znajdują się w ruchu, działać będą na siebie elektrodynamicznie i energia elektrodynamiczna zależy nie tylko do ich stanu i położenia, ale również od prędkości.

Nie znamy żadnego sposobu dobrania wyrazów, które winny wejść w skład T, U i Q i wyodrębnienia trzech części energii.

Jeśli T + U + Q ma stałą wartość, to stała jest również dowolna funkcja 0x01 graphic
(T + U + Q).

Gdyby T + U + Q miało szczególną postać, którą rozważaliśmy powyżej, nie mielibyśmy żadnych trudności: wśród wszystkich funkcji 0x01 graphic
(T + U + Q) tylko T + U + Q miałaby tę szczególną postać i dlatego zgodzilibyśmy się nazwać ją energią.

Ale, jak powiedziałem, tak nie jest: wśród funkcji 0x01 graphic
(T + U + Q), nie ma żadnej, której można byłoby nadać taką szczególną postać; jak zatem wybrać tę, która nazwiemy energią? Nie mamy już żadnych kryteriów, które mogłyby pokierować tym wyborem.

Pozostaje zatem tylko jedno sformułowanie zasady zachowania energii: istnieje coś, co pozostaje stałe. W tej postaci zasada ta zdaje się niepodatna na próby doświadczalnej weryfikacji i sprowadza się do pewnej tautologii. Oczywistym jest, że skoro światem rządzą jakieś prawa, to pewne wielkości muszą zachowywać wartości stałe. Podobnie jak zasada Newtona, i z tego samego powodu, zasada zachowania energii, choć zbudowana na podstawie doświadczenia, nie może być przez nie obalona.

Rozumowanie to wskazuje, że przejście od systemu klasycznego do energetycznego znamionuje postęp, ale postęp ten nie jest wystarczający.

Poważniejszym wydaje mi się jeszcze inny zarzut: zasada najmniejszego działania stosuje się do zjawisk odwracalnych, nie jest natomiast bynajmniej zadowalająca w stosunku do zjawisk nieodwracalnych. Podjęta przez Helmholtza próba rozciągnięcia jej na takie zjawiska nie powiodła się i powieść się nie mogła; pod tym względem wszystko pozostaje jeszcze do zrobienia.

W samym sformułowaniu zasady najmniejszego działania tkwi coś, co razi umysł. Cząsteczka materialna, na którą nie działa żadna stała siła, lecz zmuszona poruszać się po danej powierzchni, aby przejść od jednego punktu do drugiego, obiera linię geodezyjną, czyli drogę najkrótszą.

Cząsteczka ta zachowuje się tak, jakby znała punkt, do którego chce się ją poprowadzić, przewidywała, ile czasu na tu zużyje, podążając tam tą lub inną drogą, i wreszcie wybierała najbardziej odpowiednią. W tym sformułowaniu opisujemy cząsteczkę tak, jakby była istotą ożywioną i wolną. Oczywiście, lepiej byłoby zastąpić je przez sformułowanie mniej rażące, w którym - mówiąc językiem filozofów - przyczyny celowe nie zajmowałyby miejsca przyczyn sprawczych.*

* Znaczny postęp w zrozumieniu zasady najmniejszego działania przyniosła mechanika kwantowa, a w szczególności koncepcja całek po możliwych trajektoriach (historiach, drogach) układu. W mechanice klasycznej sens fizyczny ma tylko jedna trajektoria - ta, dla której działanie ma wartość ekstremalną. Zgodnie z koncepcją Feynmana, w celu obliczenia pełnej amplitudy prawdopodobieństwa przejścia od jednego do drugiego stanu układu, należy uwzględnić wkłady do amplitudy, jakie dają wszystkie możliwe trajektorie, przy czym działanie układu określa wagę danej trajektorii. Trajektoria klasyczna to ekstremalna trajektoria dla tak określonego funkcjonału - P.A.

Termodynamika1. - Rola, jaką odgrywają dwie zasady podstawowe termodynamiki we wszystkich gałęziach filozofii przyrody, nabiera z dnia na dzień większej wagi. Porzucając ambitne teorie z przed czterdziestu lat, przeładowane hipotezami molekularnymi, usiłujemy dziś wznieść na fundamencie termodynamiki cały gmach fizyki matematycznej. Czy dwie zasady, Mayera i Clausiusa, zapewnią jej podstawę dostatecznie trwałą, by starczyła przynajmniej na pewien czas? Nikt w to nie wątpi, ale skąd płynie ta ufność?

1 Poniższy ustęp jest w pewnej mierze powtórzeniem przedmowy do mojej książki Thermodynamique.

Pewien wybitny fizyk powiedział mi kiedyś o prawie błędów: Wszyscy mocno w nie wierzą, dlatego, że matematycy wyobrażają sobie, że jest to fakt obserwacyjny, a obserwatorzy, że jest to twierdzenie matematyczne. To samo można było przez bardzo długi czas powiedzieć o zasadzie zachowania energii. Dziś sytuacja wygląda inaczej: wszyscy wiedzą, że jest to fakt doświadczalny.

Skoro tak, to cóż daje nam prawo przypisywać samej zasadzie większą ogólność i ścisłość niż doświadczenia, na których się ona opiera? Sprowadza się to do pytania, czy jest uprawnione codziennie praktykowane uogólnienie danych empirycznych; nie będę na tyle śmiały, aby roztrząsać tu pytanie, o którego rozstrzygnięcie na próżno kusiło się tylu filozofów. Jedno jest pewne: gdyby nam tego prawa odmówiono, nauka nie mogłaby istnieć, albo co najmniej zostałaby zredukowana do inwentaryzowania i rejestrowania oddzielnych faktów, a tym samym nie miałaby dla nas żadnej wartości, gdyż nie zaspokajałaby naszej potrzeby ładu i harmonii i nie mogłaby niczego przewidywać. Ponieważ okoliczności, które poprzedzają dowolny fakt, prawdopodobnie nigdy się dokładnie nie powtarzają, to przewidywanie powtórzenia tego faktu, przy najmniejszej choćby zmianie tych okoliczności, już wymaga pewnego uogólnienia.

Każde twierdzenie można jednak uogólniać na nieskończenie wiele sposobów. Musimy dokonywać wyboru spośród możliwych uogólnień, a wybierać możemy jedynie najprostsze. Winniśmy postępować tak, jak gdyby wobec równości wszystkich innych warunków prawo proste było bardziej prawdopodobne niż złożone.

Przed pięćdziesięciu laty wyznawano to głośno i otwarcie, że przyroda lubi prostotę; od tego czasu natura dostarczyła nam aż nadto dowodów, że jest inaczej. Obecnie nie uznaje się już takiej tendencji i zachowuje się z niej tylko to, co jest niezbędne, aby nauka była możliwa.*

* Wydaje się, że ideał prostoty jest nadal żywy, natomiast w praktyce jego stosowanie może być kwestią subtelną. Na przykład, gdyby ktoś podjął próbę sformułowania lagrangianu ogólnej teorii względności, rozważając metodą perturbacji zachowanie pola tensorowego w płaskiej czasoprzestrzeni, otrzymałbym horrendalnie skomplikowany wynik, chyba że w przebłysku geniuszu udałoby mu się wysumować wszystkie człony i wykazać, że prowadzą one do prostego lagrangianu Hilberta - P.A.

Formułując prawo ogólne, proste i dokładne, na podstawie doświadczeń stosunkowo nielicznych i nieco rozbieżnych, ulegamy tylko konieczności, od której ludzki umysł nie może się wyzwolić.

Tkwi w tym jednak coś jeszcze i dlatego zastanowimy się nad tą kwestią nieco dłużej.

Nikt nie wątpi, że zasada Meyera przeżyje wszystkie prawa szczegółowe, z których ją wyprowadzono, podobnie jak prawo Newtona przeżyło prawa Keplera, które je zrodziły i które, z uwagi na perturbacje, są tylko przybliżone.

Dlaczego zasada ta zajmuje pewnego rodzaju uprzywilejowane miejsce wśród wszystkich praw fizycznych? Jest tak z bardzo wielu niezbyt ważnych powodów.

Przede wszystkim, wolno przypuszczać, że nie moglibyśmy odrzucić jej lub nawet wątpić w jej bezwzględną ścisłość, nie przyjmując możliwości wiecznego ruchu (perpetuum mobile); uchylamy się oczywiście od takiego wniosku i uważamy, że mniej jest w tej sprawie zuchwałym przyjęcie niż odrzucenie tej zasady.

Nie jest to, być może, zupełnie ścisłe, gdyż niemożliwość wiecznego ruchu pociąga za sobą zachowanie energii jedynie dla zjawisk odwracalnych.

Do umocnienia naszej wiary przyczynia się również imponująca prostota zasady Meyera. W prawie bezpośrednio wyprowadzonym z doświadczenia, takim jak na przykład prawo Mariotte'a, prostota taka budziłaby w nas raczej nieufność; tutaj jest inaczej; widzimy, jak elementy na pierwszy rzut oka przypadkowo rozrzucone układają się nieoczekiwanie w uporządkowaną strukturę, tworząc harmonijną całość. Nie przyjmujemy, by taka nieprzewidziana harmonia była rzeczą przypadku. Zdobycz nasza wydaje się nam tym droższa, im więcej nas kosztowała wysiłku, i tym pewniejsi jesteśmy, że wydarliśmy przyrodzie prawdziwą jej tajemnicę, im zazdrośniej ukrywała ją przed naszym wzrokiem.

To są jednak tylko niezbyt istotne argumenty; uznanie prawa Meyera za bezwzględnie obowiązującą zasadę wymaga głębszego uzasadnienia. Jednak, gdy tylko próbuje się jej podać, okazuje się, że nawet sformułowanie tej zasady bezwzględnej nie jest sprawą łatwą.

W każdym poszczególnym przypadku widzimy wyraźnie, co to jest energia i możemy ją zdefiniować, choćby prowizorycznie, natomiast podanie definicji ogólnej jest niemożliwe.

Gdy próbujemy sformułować zasadę zachowania energii w całej ogólności i w zastosowaniu do całego Wszechświata, rozwiewa się ona, że tak powiem, na naszych oczach i pozostaje z niej tylko tyle: istnieje coś, co pozostaje stałe.

Ale czy to stwierdzenie ma jakąś treść? Zgodnie z hipotezą determinizmu, stan Wszechświata określony jest przez ogromną liczbę n parametrów, które oznaczymy x1, x2, ... xn. Gdy znamy wartości tych parametrów w dowolnej chwili, znamy również ich pochodne względem czasu, a zatem możemy obliczyć ich wartości w dowolnej chwili wcześniejszej lub późniejszej. Innymi słowy, n parametrów spełnia n równań różniczkowych pierwszego rzędu.

Równania te prowadzą do n - 1 całek, a zatem istnieje n - 1 funkcji parametrów x1, x2,... xn, które pozostają stałe. Gdy wówczas mówimy, że istnieje coś, co pozostaje stałe, to jest to zwykła tautologia. Nie umielibyśmy nawet powiedzieć, która spośród naszych n - 1 całek to właśnie energia.

Nie w tym zresztą sensie rozumie się zazwyczaj zasadę Meyera, gdy stosuje się ją w odniesieniu do układu ograniczonego.

W takiej sytuacji zakładamy, że p z naszych n parametrów zmienia się w sposób niezależny, a zatem posiadamy tylko n - p równań, na ogół liniowych, między parametrami n i ich pochodnymi.

Przypuśćmy dla uproszczenia, że suma prac sił zewnętrznych jest równa zeru, podobnie jak całkowite ciepło oddane na zewnątrz. Zasada nasza ma wówczas następujące znaczenie:

Istnieje kombinacja n - p równań, której lewa strona jest różniczką zupełną, a ponieważ różniczka ta, zgodnie z naszymi n - p równaniami, jest równa zeru, to jej całka ma wartość stałą; tę całkę nazywamy energią.

Lecz jak to możliwe, że istnieje kilka parametrów, których zmiany są niezależne? Stać się to może jedynie pod wpływem sił zewnętrznych (choć przypuściliśmy tu dla uproszczenia, że algebraiczna suma prac tych sił jest równa zeru). Gdyby bowiem układ nasz zupełnie nie oddziaływał z otoczeniem, to wartości naszych n parametrów w danej chwili wystarczyłyby do określenia stanu układu w dowolnej chwili późniejszej, o ile tylko przyjmujemy hipotezę deterministyczną; w takim przypadku mielibyśmy do czynienia z tą samą trudnością, co poprzednio.

Jeśli przyszły stan układu nie jest całkowicie określony przez jego stan obecny, oznacza to, że zależy od stanu ciał, które nie należą do układu. Czy jednak w takim razie jest prawdopodobne, że między parametrami x określającymi stan układu istnieją równania niezależne od stanu ciał zewnętrznych; a jeśli w pewnych przypadkach zdaje się nam, że możemy takie równania znaleźć, to czy nie jest to jedynie wynikiem naszej nieświadomości lub tego, że wpływ tych ciał zewnętrznych jest zbyt słaby, by doświadczenia nasze mogły go ujawnić?

Jeżeli układu nie uważamy za całkowicie odizolowany, to jest prawdopodobne, że jego energia wewnętrzna, ściśle mówiąc, zależy od stanu ciał zewnętrznych. Powyżej założyliśmy, że suma prac zewnętrznych jest równa zeru; gdybyśmy natomiast zechcieli uwolnić się od tego nieco sztucznego ograniczenia, określenie energii byłoby jeszcze trudniejsze.

Sformułowanie zasady Meyera rozumianej bezwzględnie wymagałoby zatem zastosowania jej do całego Wszechświata, co postawiłoby nas znowu wobec tych samych trudności, które staraliśmy się ominąć.

Mówiąc zwykłym językiem, możemy tak opisać sytuację: prawo zachowania energii może mieć tylko jedno znaczenie: istnieje wielkość wspólna wszystkim możliwościom, ale zgodnie z hipotezą deterministyczną, istnieje tylko jedna możliwość, wobec czego prawo nasze traci wszelkie znaczenie.

Natomiast gdybyśmy przyjęli hipotezę indeterministyczną, zasada ta nabrałaby określonego znaczenia, nawet gdybyśmy chcieli ją rozumieć w sensie bezwzględnym; miałaby ona wówczas charakter ograniczenia narzuconego wolności.

Ostatni wyraz wyraźnie ostrzega, że zboczyliśmy z naszej drogi i wykraczamy poza dziedzinę matematyki i fizyki. Musimy się zatem powściągnąć i zapamiętać z tych rozważań tylko jedno wrażenie, a mianowicie, że prawo Meyera jest formą dostatecznie elastyczną, by można było w nią włożyć prawie wszystko, cokolwiek by się chciało. Nie chcę przez to powiedzieć, że nie odpowiada ono żadnej obiektywnej rzeczywistości, ani też, że sprowadza się do prostej tautologii, albowiem w każdym przypadku szczególnym, o ile tylko nie chce się nadać mu zakresu absolutnego, ma ono zupełnie jasne znaczenie.

Elastyczność przemawia za trwałością tego prawa, że zaś z drugiej strony zniknie ono po to jedynie, by stopić się w jakiejś wyższej harmonii, to możemy opierać się na nim z ufnością, że praca nasza nie pójdzie na marne.

Prawie wszystko, co powiedzieliśmy powyżej, da się zastosować do zasady Clausiusa. Różni się ona tym, że wyraża się w postaci nierówności. Ktoś może na to powiedzieć, że tak jest w przypadku wszystkich praw fizycznych, gdyż ich dokładność nie przekracza nigdy granic zakreślonych przez błędy pomiarów. W każdym razie, praw te roszczą sobie pretensje do tego, że są pewnym przybliżeniem, a można się spodziewać, że w przyszłości zastąpią je prawa jeszcze dokładniejsze. Natomiast prawo Clausiusa ma postać nierówności nie wskutek niedoskonałości naszych obserwacji, lecz z samej istoty rzeczy.

Wnioski ogólne z części trzeciej

Na zasady mechaniki możemy zatem patrzeć z dwóch różnych punktów widzenia. Z jednej strony, są to prawdy oparte na doświadczeniu i potwierdzone ze znacznym przybliżeniem dla układów niemal odizolowanych. Z drugiej zaś strony, są to postulaty dotyczące całego Wszechświata, uważane za ściśle prawdziwe.

Jeśli postulaty te odznaczają się ogólnością i pewnością, jakiej nie znajdujemy w prawdach doświadczalnych, to dlatego, że w ostatecznej analizie sprowadzają się do prostej konwencji, którą mamy prawo przyjąć, ponieważ z góry jesteśmy pewni, że nie zaprzeczy jej żadne przyszłe doświadczenie.

Konwencja ta nie jest zupełnie dowolna; nie przyjmujemy jej pod wpływem kaprysu, lecz dlatego, że pewne doświadczenia wskazują, iż będzie ona dogodna.

Wyjaśnia to nam, dlaczego, choć zasady mechaniki są zbudowane na doświadczeniach, żadne przyszłe doświadczenia nie będą mogły ich obalić.

Porównajmy raz jeszcze mechanikę z geometrią. Podstawowe twierdzenia geometrii, jak na przykład postulat Euklidesa, również są tylko konwencjami i równie nierozumnym byłoby badać, czy są prawdziwe, czy fałszywe, jak pytać się, czy system metryczny jest prawdziwy, czy fałszywy.

Umowy te są po prostu dogodne, o czym mówią nam pewne doświadczenia.

Na pierwszy rzut oka mamy tu do czynienia z pełną analogią; wydaje się, że w obu teoriach doświadczenie odgrywa taką samą rolę. Nasuwa się zatem następująca alternatywa: albo mechanikę należy uważać za naukę doświadczalną, a w takim razie to samo dotyczy geometrii, albo też geometria jest nauką dedukcyjną, a w takim razie to samo dotyczy mechaniki.

Taki wniosek byłby błędny. Doświadczenia, które skłoniły nas do przyjęcia podstawowych konwencji geometrii jako najdogodniejszych, dotyczą przedmiotów nie mających nic wspólnego z przedmiotami, które bada geometria; dotyczą one właściwości ciał sztywnych i prostolinijnego rozchodzenia się światła. Są to doświadczenia z dziedziny mechaniki i optyki; żadną miarą nie można ich uważać za doświadczenia geometryczne. Geometria wydaje się nam dogodna głównie dlatego, że poszczególne części naszego ciała, nasze oko, nasze członki, posiadają własności ciał sztywnych. Z tego względu nasze doświadczenia podstawowe są przede wszystkim doświadczeniami fizjologicznymi, nie dotyczącymi przestrzeni, będące przedmiotem badań geometry, lecz jego ciała, to jest narzędzia, którym posługuje się w tych badaniach.*

* Warto powtórzyć, że właśnie takie doświadczenia stanowią podstawę geometrii rozumianej jako teoria fizycznej przestrzeni, nie zaś jako abstrakcyjna koncepcja matematyczna - P.A.

Podstawowe konwencje mechaniki oraz doświadczenia, dowodzące, że konwencje te są dogodny, dotyczą natomiast tych samych przedmiotów lub przedmiotów analogicznych. Zasady konwencjonalne i ogólne są naturalnym i bezpośrednim uogólnieniem empirycznych zasad szczegółowych.

Mam nadzieję, że nikt mi nie zarzuci, iż kreślę w ten sposób sztuczne granice między poszczególnymi naukami, a jeśli stawiam barierę między geometrią właściwą i badaniem brył sztywnych, to mógłbym z równą słusznością odgrodzić mechanikę doświadczalną od konwencjonalnej mechaniki zasad ogólnych. Któż bowiem nie widzi, że odrywając od siebie te dwie nauki, kaleczymy obie, że z konwencjonalnej mechaniki, gdybyśmy ją oderwali od doświadczalnej, pozostałoby bardzo niewiele, i że pozostałość ta nie dałaby się zupełnie porównać ze wspaniałą i spójną naukową całością, którą nazywa się geometrią?

To wyjaśnia, dlaczego mechanikę należy wykładać jako naukę doświadczalną.

Tylko ten sposób pozwoli nam zrozumieć genezę tej nauki, co jest niezbędne do jej całkowitego zrozumienia.

Ponadto, jeśli ktoś studiuje mechanikę, to po to, by ją później stosować, a stosować ją można tylko wtedy, gdy pozostaje nauką obiektywną. Jak się przekonaliśmy, gdy zasady zyskują ogólność i pewność, tracą treść. Zawczasu trzeba się zatem oswoić z przedmiotową stroną zasad, a jedyna do tego droga prowadzi od przypadków szczegółowych do stwierdzeń ogólnych, a nie odwrotnie.

Zasady są konwencjami lub przebranymi definicjami. Wywodzą się jednak z praw empirycznych, które zostały, że tak powiem, podniesione do godności zasad i którym nasz umysł nadał ważność bezwzględną.

Niektórzy filozofowie poszli w tym uogólnianiu za daleko; zdaniem ich zasady stanowią całą naukę, a przeto cała nauka ma charakter konwencjonalny.

Paradoksalny ten pogląd, zwany konwencjonalizmem, nie wytrzymuje krytyki.

W jaki sposób prawo może stać się zasadą? Prawo wyrażało stosunek dwóch wyrazów rzeczywistych A i B. Nie było jednak ściśle prawdziwe, a tylko przybliżone. Wprowadzamy arbitralnie wyraz pośredni C, mniej lub bardziej fikcyjny, i na mocy definicji C jest tym, czego stosunek do A odpowiada ściśle danemu prawu.

Prawo nasze zostaje w ten sposób rozłożone na bezwzględną i ścisłą zasadę, wyrażającą stosunek A do C, oraz na prawo doświadczalne i dające się modyfikować, wyrażające stosunek C do B. Jest oczywiste, że niezależnie od tego, jak daleko posuniemy się przeprowadzając ten rozkład, pozostaną nam zawsze pewne prawa.

Wkroczymy teraz w dziedzinę praw we właściwym znaczeniu tego słowa.

Rola doświadczenia i uogólnienia. - Doświadczenie jest jedynym źródłem prawdy: ono jedynie może nauczyć nas czegoś nowego, ono jedynie może dać nam pewność. Oto dwa punkty, których nikt nie może podważyć.

Skoro jednak doświadczenie jest wszystkim, to jakie miejsce pozostaje dla fizyki matematycznej? Na co fizyce doświadczalnej taka służąca, najwyraźniej bezużyteczna, a może nawet niebezpieczna?

A przecież fizyka matematyczna istnieje; oddała ona nauce wielkie usługi. Jest to fakt, domagający się wyjaśnienia.

Otóż nie wystarczy obserwować, trzeba jeszcze posługiwać się obserwacjami, a to wymaga uogólniania. Tak czyniono zawsze, ale dawne błędy nauczyły badaczy powściągliwości; obserwowali coraz więcej, uogólniali coraz mniej.

Każde stulecie kpiło z poprzedniego, zarzucając mu zbyt pośpieszne i naiwne uogólnienia. Descartes myślał z politowaniem o Jończykach, jego teorie z kolei u nas wywołują uśmiech, a nasi synowie niewątpliwie śmiać się będą z nas.

Czy wobec tego nie moglibyśmy zdecydować się na radykalny krok? Czy nie pozwoliłoby to nam uniknąć tych dających się przewidzieć naigrywań? Czy nie moglibyśmy zadowolić się nagim doświadczeniem?

Na te pytania trzeba odpowiedzieć przecząco, gdyż inaczej zignorowalibyśmy prawdziwy charakter nauki. Uczony powinien porządkować; naukę buduje się z faktów, jak dom z kamieni, ale zbiór faktów nie jest nauką, podobnie jak stos kamieni nie jest domem.

Przede wszystkim, uczony powinien przewidywać. Carlyle napisał gdzieś coś takiego: "Jedynie fakt ma znaczenie; Jan bez Ziemi przeszedł tędy - oto coś godnego uwielbienia, oto rzeczywistość, za którą oddałbym wszystkie teorie świata". Carlyle był rodakiem Bacona, ale Bacon nie powiedziałby czegoś takiego. Język Carlyle'a jest językiem historyka. Fizyk powiedziałby raczej: "Jan bez Ziemi przeszedł tędy - mało mnie to obchodzi, skoro nigdy więcej nie przejdzie".

Wiemy wszyscy, że istnieją doświadczenia dobre i doświadczenia złe. Nagromadzenie złych doświadczeń do niczego nie doprowadzi; może ich być sto lub nawet tysiąc - jedna praca prawdziwego mistrza, na przykład jakiegoś Pasteura, starczy, by wszystkie poszły w zapomnienie. Dobrze rozumiał to Bacon, bo to on właśnie wynalazł wyrażenie experimentum crucis. Carlyle tego nie rozumiał. Fakt jest faktem; uczeń odczytał taką to a taką liczbę na termometrze; przy czym nie stosował żadnych środków ostrożności; mniejsza z tym: w każdym razie ją odczytał, a jeśli tylko fakty mają znaczenie, to jest to taki sam fakt, jak wędrówka króla Jana bez Ziemi. Dlaczego fakt ten, zanotowany przez ucznia, jest bez znaczenia, natomiast gdyby to wykształcony fizyk odczytał temperaturę, miałoby to wielkie znaczenie? Dlatego, że z pierwszego faktu nie możemy niczego wywnioskować. Jakie zatem doświadczenie jest dobre? Takie, które umożliwia nam poznanie czegoś więcej niż odosobniony fakt, które pozwala nam przewidywać, a więc również uogólniać.

Bez uogólniania przewidywanie jest niemożliwe. Warunki, w jakich przeprowadzono dane doświadczenie, nie powtórzą się nigdy jednocześnie. Zaobserwowany fakt nigdy zatem nie powróci; twierdzić można jedynie, że w warunkach analogicznych zajdzie fakt analogiczny. Aby przewidywać, trzeba więc odwoływać się przynajmniej do analogii, a to już jest uogólnienie.

Nawet jeśli poczynamy sobie bardzo nieśmiało, musimy przecież interpolować; doświadczenie daje nam jedynie pewną liczbę oddzielnych punktów. Trzeba je połączyć linią ciągłą, co stanowi pewne uogólnienie. Więcej nawet: krzywa, którą nakreślimy, przejdzie między punktami doświadczalnymi i w ich pobliżu, ale nie przejdzie przez same punkty. Tak więc nie ograniczamy się do uogólnienia wyników doświadczenia, ale nadto wprowadzamy do nich pewne poprawki, a fizyk, który chciałby zrezygnować z takich poprawek i rzeczywiście zadowalać się gołymi faktami doświadczalnymi, zmuszony byłby formułować bardzo osobliwe prawa badanych zjawisk.

Nagie fakty nie mogą nam wystarczyć, dlatego potrzebujemy nauki uporządkowanej lub raczej zorganizowanej.

Powiada się często, że trzeba eksperymentować bez przyjętych z góry założeń. To jest niemożliwe; nie tylko wszelkie doświadczenia byłyby wówczas jałowe, ale również nawet przy najlepszych chęciach eksperymentatora, byłoby to niemożliwe. Każdy nosi w sobie swoje pojmowanie świata, od którego nie tak łatwo się wyzwolić. Trzeba, na przykład, posługiwać się językiem, a język nasz jest cały ulepiony z myśli z góry powziętych i inaczej być nie może. Są to myśli powzięte z góry nieświadomie, a zatem tysiąckrotnie bardziej niebezpieczne od innych.

Czy przyjmując z całą świadomością inne założenie, zwiększymy w ten sposób zagrożenie? Nie sądzę; mniemam raczej, że jedne stanowić będą w stosunku do drugich przeciwwagę, powiedziałbym niemal antidotum; zazwyczaj nie będą one zgodnie współistniały. Między jednymi i drugimi ujawnią się konflikty i zmuszą nas do rozważenia rzeczy z rozmaitych stron. Będzie to dla nas wystarczającą dźwignią wyzwolenia; nie jest się już niewolnikiem, gdy ma się możność wyboru swego pana.

Tak więc, dzięki uogólnianiu, każdy zaobserwowany fakt pozwala przewidzieć wiele innych, lecz nie powinniśmy zapominać, że pewny jest jedynie pierwszy, zaś wszystkie pozostałe są tylko prawdopodobne. Niezależnie od tego, jak mocno ugruntowane wydaje się nam dane przewidywanie, nie jesteśmy nigdy bezwzględnie pewni, że doświadczenie nie okaże się z nim sprzeczne, gdy poddamy je weryfikacji. Prawdopodobieństwo wszakże często jest tak duże, że w praktyce możemy się nim zadowolić. Lepiej jest przewidywać bez całkowitej pewności, niż nie przewidywać wcale.

Nie należy zatem nigdy zaniedbywać weryfikacji przewidywań, gdy tylko nadarza się odpowiednia okazja. Jednak wszelkie doświadczenia są trudne i długo trwają, uczonych jest niewielu, a liczba faktów, których przewidzenie jest potrzebne jest ogromna. Wobec tej masy liczba bezpośrednich prób, które możemy przeprowadzić, zawsze będzie znikoma.

Ze skromnego, dostępnego nam zasobu faktów trzeba umieć jak najlepiej skorzystać; trzeba, by każde doświadczenie pozwalało nam na możliwie największą liczbę przewidywań o możliwie największym prawdopodobieństwie. Zadanie polega, że tak powiem, na zwiększeniu wydajności maszyny naukowej.

Pozwolę sobie porównać naukę do biblioteki, której zawartość ma ustawicznie rosnąć; bibliotekarz dysponuje niewielkimi funduszami na zakupy, więc nie może ich trwonić.

Zakupy są zadaniem fizyki doświadczalnej, zatem tylko ona może wzbogacać bibliotekę.

Zadaniem zaś fizyki matematycznej jest sporządzenie katalogu. Jeśli katalog ten będzie dobrze ułożony, biblioteka nie stanie się przez to bogatsza, ale ułatwi on czytelnikom korzystanie z jej bogactw.

Ponadto, wskazując bibliotekarzowi luki w księgozbiorze, pozwoli mu robić trafniejszy użytek z jego funduszy, co jest tym ważniejsze, że są one zupełnie niewystarczające.

Taka jest więc rola fizyki matematycznej; winna ona kierować uogólnianiem, tak aby zwiększyć to, co nazwałem wydajnością nauki. Jakimi do tego dochodzi środkami, i w jaki sposób może to robić nie stwarzając zagrożeń - to rozpatrzymy poniżej.

Jedność przyrody. - Zauważmy przede wszystkim, że każde uogólnienie zakłada wiarę w jedność i prostotę przyrody. Kwestia jedności nie budzi wątpliwości. Gdyby poszczególne części Wszechświata nie stanowiły czegoś na kształt organizmu jednego i tego samego ciała, nie oddziaływałyby wzajemnie na siebie, byłyby dla siebie zupełnie obojętne, a w szczególności, my znalibyśmy tylko jedną z nich. Pytać zatem należy, nie czy przyroda odznacza się jednością, lecz jak jest jednością?

Trudniejsza jest kwestia prostoty przyrody. Nie jest rzeczą pewną, że przyroda odznacza się prostotą. Czy możemy spokojnie postępować tak, jakby rzeczywiście była?

Był czas, kiedy na prostotę prawa Mariotte'a powoływano się jako na argument za jego ścisłością, kiedy sam Fresnel, który w rozmowie z Laplacem powiedział, że przyroda nie troszczy się o nasze trudności analityczne, uznał za swój obowiązek tłumaczyć się przed czytelnikami, aby nie obrazić panujących zapatrywań.

Dzisiaj poglądy bardzo się zmieniły; a przecież ci, co nie sądzą, by prawa przyrody musiały być proste, zmuszeni są często postępować tak, jak gdyby tak uważali. Gdyby chcieli całkowicie się od niego wyzwolić, wszelkie uogólnienia, a tym samym wszelka nauka, stałyby się niemożliwe.

Każdy fakt można oczywiście uogólniać w na nieskończenie wiele sposobów, z których należy wybierać, a wyborem kierować może tylko kryterium prostoty. Weźmy przypadek najbardziej banalny: interpolację. Przeprowadzamy linię ciągłą o możliwie najbardziej regularnym kształcie między punktami przedstawiającymi wyniki doświadczenia. Dlaczego unikamy załamań i gwałtownych przegięć? Dlaczego nie każemy naszej linii dokonywać kapryśnych zygzaków? Dlatego, że wiemy z góry, albo tak się nam zdaje, że prawo, które ma ilustrować ta linia, nie może być tak bardzo skomplikowane.

Masę Jowisza można wyznaczyć na podstawie obserwacji jego księżyców lub perturbacji w ruchu wielkich planet i planetoid. Jeśli weźmiemy średnią z wyliczeń dokonanych na podstawie każdej z tych trzech metod, otrzymamy trzy liczby bardzo do siebie zbliżone, lecz nieco różne. Rezultat ten można interpretować jako dowód, że stała grawitacji w każdym z tych trzech przypadków jest inna; bez wątpienia pozwoliłoby to na ściślejszy opis matematyczny obserwacji. Czemu odrzucamy tę interpretację? Wcale nie dlatego, że jest ona niedorzeczna, lecz dlatego, że byłaby to bezużyteczna komplikacja. Przyjmiemy ją dopiero wtedy, gdy będzie to konieczne - dziś jeszcze nie jest.

Słowem, każde prawo uważamy z założenia za proste, chyba że zostanie dowiedzione, że jest skomplikowane.

Zwyczaj ten narzuca się fizykowi z powyżej wyjaśnionych powodów; jak go jednak usprawiedliwić wobec odkryć, które z każdym dniem ujawniają nam nowe szczegóły, coraz bogatsze i bardziej skomplikowane? Jak pogodzić go z naszym poczuciem jedności przyrody? Skoro wszystko zależy od wszystkiego, to związki zachodzące między rozmaitymi przedmiotami nie mogą być proste.

Badając dzieje nauki, widzimy dwa odwrotne w pewnym sensie procesy: to prostota ukrywa się za skomplikowanymi pozorami, to znów pozorna jest prostota, a kryje się za nią bardzo złożona rzeczywistość.

Cóż jest bardziej złożone od ruchu planet z uwzględnieniem perturbacji? Cóż jest prostszego niż prawo powszechnego ciążenia Newtona? W tym przypadku przyroda, drwiąc sobie, jak mówi Fresnel, z trudności analitycznych, używa jedynie środków prostych, a łącząc je w kombinacje, tworzy struktury niezmiernie złożone. Mamy tu ową prostotę, którą trzeba ujawnić.

Istnieje wiele przeciwnych przykładów. W teorii kinetycznej gazów bada się zachowanie cząsteczek poruszających się z wielkimi prędkościami, które nieustannie zmieniają kierunek ruchu wskutek zderzeń. Widocznym rezultatem ruchu cząsteczek jest proste prawo Mariotte'a, choć każdy indywidualny fakt byłby bardzo złożony: prawo wielkich liczb, w wyniku uśredniania, przywróciło prostotę. Tutaj prostota jest tylko pozorna i jedynie toporność naszych zmysłów nie pozwala nam dostrzegać owych skomplikowanych zjawisk.

Wiele zjawisk podlega prawu proporcjonalności; dlaczego? Dlatego mianowicie, że w zjawiskach tych coś jest bardzo małe. Zaobserwowane proste prawo jest tylko wyrazem ogólnej reguły analizy, zgodnie z którą nieskończenie mały przyrost funkcji jest proporcjonalny do nieskończenie małego przyrostu zmiennej. Ponieważ w rzeczywistości przyrosty zmiennych nie są nieskończenie małe, lecz bardzo małe, prawo proporcjonalności jest tylko w przybliżeniu prawdziwe, a prostota tylko pozorna. Stosuje się to również do reguły superpozycji małych drgań, która jest tak owocna i stanowi podstawę optyki.

A co z prawem Newtona? Prostota jego, tak długo ukryta, być może jest tylko pozorna. Kto wie, czy nie jest ono konsekwencją jakiegoś skomplikowanego mechanizmu, zderzeń w jakiejś subtelnej materii, wykonującej nieregularne ruchy i czy nie nabrało prostej postaci za sprawą uśredniania? W takim razie trudno jest nie przypuszczać, że prawdziwe prawo zawiera wyrazy dodatkowe, które stałyby się zauważalne w oddziaływaniach ciał położonych w bardzo małej odległości od siebie. Jeśli w astronomii można je pominąć w porównaniu z wyrazem Newtona, co nadaje prawu ciążenia ową prostotę, to byłoby to jedynie konsekwencją ogromnych odległości między ciałami niebieskimi.

Gdyby nasze środki badania stawały się coraz subtelniejsze i bardziej przenikliwe, odkrywalibyśmy niewątpliwie prostotę kryjącą się pod złożonością, następnie złożoność pod prostotą, później znów prostotę pod złożonością, i tak dalej. Niepodobna byłoby przewidzieć, jaki będzie ostatni wyraz tego szeregu.

Należy jednak zatrzymać się w jakimś miejscu, a żeby nauka była możliwa, musimy zatrzymać się wówczas, gdy znaleźliśmy prostotę. Jest to jedyny grunt, na którym będziemy mogli wznieść gmach naszych uogólnień. Ale, czy wobec pozorności tej prostoty, grunt ten jest dostatecznie pewny i trwały? Nad tym pytaniem wypada się zastanowić.

W tym celu rozpatrzmy, jaką rolę odgrywa w naszych uogólnieniach wiara w prostotę. Sprawdziliśmy pewne proste prawo w wielkiej liczbie przypadków szczególnych; wzdragamy się przypuścić, by zgodność ta, tyle razy powtórzona, była rzeczą czystego przypadku, i wnosimy stąd, że prawo musi być ogólnie prawdziwe.

Kepler spostrzega, że wszystkie pozycje jednej i tej samej planety, obserwowanej przez Tychona, leżą na jednej i tej samej elipsie. Ani przez chwilę nie przychodzi mu do głowy, że Tycho, wskutek szczególnego zbiegu okoliczności, spoglądał na niebo tylko w tych chwilach, w których prawdziwa droga planety przecinała tę elipsę.

Jakie zatem znaczenie ma kwestia, czy prostota jest rzeczywista, czy też skrywa ona jakąś złożoną prawdę? Czy jest ona przejawem działania prawa wielkich liczb, które niweluje indywidualne różnice, czy też związana jest z dużą lub małą wielkością pewnych liczb, co pozwala na pomijanie pewnych wyrazów? Tak czy owak, nie jest ona rzeczą przypadku. Rzeczywista lub pozorna, prostota ta zawsze ma jakąś przyczynę. Możemy zawsze przeprowadzić ponownie to samo rozumowanie i jeśli proste prawo zostało zaobserwowane w kilku przypadkach szczególnych, będziemy mogli zasadnie przypuszczać, że będzie ono prawdziwe w przypadkach analogicznych. W przeciwnym bowiem razie przypisywalibyśmy niedopuszczalną rolę przypadkowi.

Zachodzi jednak pewna różnica. Gdyby prostota była rzeczywista i głęboka, okazałaby się wytrzymała na rosnącą dokładność naszych instrumentów pomiarowych; jeśli zatem wierzymy, że na dostatecznie głębokim poziomie przyroda jest prosta, to na podstawie obserwowanej prostoty przybliżonej, powinniśmy wnioskować, że istnieje prostota ścisła. Tak też robiono dawniej; dziś nie mamy już tego prawa.

Na przykład, prostota praw Keplera jest tylko pozorna. Choć obowiązują one, w dobrym przybliżeniu, we wszystkich układach analogicznych do Układu Słonecznego, nie można ich uważać za prawa ścisłe.

Rola hipotezy. - Wszelkie uogólnianie jest hipotezą; hipoteza jest zatem niezbędna, czemu nikt nigdy nie przeczył. Ale winna ona podlegać weryfikacji, i to jak najszybciej i jak najczęściej. Rozumie się samo przez się, że jeśli nie wytrzyma takiej próby, należy ją porzucić bez żadnych ubocznych myśli. Tak też zazwyczaj czynią uczeni, choć czasami z pewną niechęcią.

Ta niechęć nie jest bynajmniej usprawiedliwiona; fizyk, który wyrzeka się jednej ze swych hipotez, powinien się cieszyć, bowiem natrafił na sposobność dokonania odkrycia. Hipotezy jego, jak sobie wyobrażam, nie przyjęto lekkomyślnie; uwzględniała ona wszystkie czynniki, które, jak się wydawało, mogły wpływać na dane zjawiska. Skoro próba się nie powiodła, to widocznie zachodzi coś nieoczekiwanego, nadzwyczajnego; oznacza to, że badacz odkrywa coś nieznanego i nowego.*

* Proszę zwrócić uwagę, że refleksja ta stanowi antycypację zasad moralnych popperowskiego falsyfikacjonizmu - P.A.

Czy zatem obalona hipoteza była jałowa? Bynajmniej - twierdzić nawet można, że oddała ona więcej usług niż hipoteza prawdziwa, gdyż nie tylko stworzyła okazję do przeprowadzenia decydującego doświadczenia, ale gdyby nawet przypadek skłonił kogoś do wykonania tego doświadczenia, z powodu braku hipotezy nie moglibyśmy wyciągnąć z niego właściwych wniosków - nie widzielibyśmy w nim niczego nadzwyczajnego; po prostu wpisalibyśmy do katalogu jeszcze jeden fakt, żadnych z tego nie wyprowadzając konsekwencji.

Zapytajmy teraz, pod jakimi warunkami można bezpiecznie korzystać z hipotezy?

Nie wystarcza do tego mocne postanowienie poddawania hipotez doświadczalnej weryfikacji; istnieją hipotezy niebezpieczne - są to przede wszystkim hipotezy przyjmowanie niejawnie i nieświadomie. Przyjmujemy je, sami o tym nie wiedząc, a zatem nie możemy ich porzucić. I tu właśnie fizyka matematyczna można nam pomóc, gdyż przez właściwą sobie ścisłość zmusza do wyraźnego formułowania wszystkich hipotez, które - nie podejrzewając tego - wcześniej przyjmowaliśmy.

Zauważmy nadto, że nie można nadmiernie mnożyć hipotez i że wprowadzać je należy kolejno, jedną po drugiej. Jeśli bowiem budujemy teorię opartą na licznych hipotezach, to gdy doświadczenie ją obali, nie będziemy wiedzieli, którą przesłankę wypada zmienić. I odwrotnie, gdy powiedzie się doświadczenie, czy potwierdzi łącznie wszystkie hipotezy? Czy jedno równanie może określić kilka niewiadomych?

Należy również rozróżniać różne rodzaje hipotez. Istnieją przede wszystkim takie, które są całkiem naturalne i których niepodobna uniknąć. Trudno nie zakładać, że wolno pomijać wpływ odległych ciał, że małe ruchy podlegają prawom liniowym, a skutek jest ciągłą funkcją swej przyczyny. To samo powiedziałbym o warunkach, które narzuca nam symetria. Wszystkie te hipotezy stanowią, że tak powiem, podstawę wszystkich teorii fizyki matematycznej. Są to te, które należy porzucać dopiero na samym końcu.

Jest też druga kategoria hipotez, które scharakteryzowałbym jako obojętne. W większości zagadnień analityk przypuszcza na początku swych obliczeń, albo że materia jest ciągła, albo że utworzona jest z atomów. Gdyby zamiast jednego z tych założeń przyjął założenie przeciwne, nie zmieniłoby to w niczym jego wyników; co najwyżej obliczenia byłyby dłuższe i trudniejsze. Jeśli następnie doświadczenie potwierdzi jego wnioski, czyż będzie to znaczyło, że dowiódł istnienia atomów?

W teoriach optycznych wprowadza się dwa wektory - jeden jest uważany za prędkość, drugi za rotację. To również jest obojętna hipoteza, bo można dojść do tych samych wniosków przyjmując założenia przeciwne. Doświadczalna weryfikacja przewidywań nie dowodzi, że pierwszy wektor jest rzeczywiście prędkością, dowodzi ono tylko, że jest to wektor; jest to jedyna hipoteza, którą rzeczywiście wprowadzono do przesłanek. Aby nadać mu konkretny wygląd, jakiego wymaga słabość naszego umysłu, zmuszeni byliśmy rozważać go albo jako prędkość, albo jako rotację, podobnie jak musieliśmy go oznaczyć za pomocą jakiejś litery, czy to x, czy to y; lecz niezależnie od tego, jaki dostaniemy wynik, nie będzie to dowód, że mieliśmy lub nie mieliśmy racji uznając go za prędkość; tak samo jak nie dowiedzie, że mieliśmy rację oznaczając to symbolem x, a nie y.

Te hipotezy nigdy nie są niebezpieczne, pod warunkiem, że zdajemy sobie sprawę z ich istoty. Mogą one być pożyteczne, gdy ułatwiają obliczenia lub wspierają umysł konkretnymi obrazami, "dla ustalenia pojęć" - jak to się często mówi. Nie ma zatem powodów, żeby je eliminować.

Hipotezami trzeciej kategorii są rzeczywiste uogólnienia. One to podlegają potwierdzeniu lub obaleniu przez doświadczenie. Zweryfikowane czy też potępione, mogą zawsze być płodne, ale z powodów, które wyłożyłem, nie mogą być zbyt liczne.

Pochodzenie fizyki matematycznej. - Wniknijmy głębiej w nasz przedmiot i zbadajmy bliżej warunki, które umożliwiły rozwój fizyki matematycznej. Stwierdzamy od razu, że usiłowania badaczy zmierzały zawsze do rozłożenia zjawiska złożonego, danego przez bezpośrednie doświadczenie, na bardzo wielką liczbę zjawisk elementarnych.

Rozkład taki odbywa się trzema różnymi sposobami; przede wszystkim w czasie. Zamiast ujęcia całego rozwoju danego zjawiska w czasie, usiłuje się po prostu związać każdą chwilę z chwilą poprzednią; zakłada się, że stan obecny świata zależy jedynie od najbliższej przeszłości i nie ma na niego wpływu odległa przeszłość. Dzięki temu postulatowi można zamiast bezpośredniego badania całej kolejności zjawisk ograniczyć się do napisania "równania różniczkowego"; prawa Keplera zastępuje prawo Newtona.

Następnie usiłuje się rozłożyć dane zjawisko w przestrzeni. Doświadczenie daje nam mglisty całokształt faktów zachodzących na widowni mającej pewną rozciągłość; trzeba się postarać o wyodrębnienie zjawiska elementarnego, zlokalizowanego w bardzo małym obszarze przestrzeni.

Kilka przykładów przyczyni się, być może, do lepszego uwydatnienia mojej myśli. Gdyby ktoś chciał zbadać złożony rozkład temperatury w stygnącej bryle, przekonałby się, że zadanie to jest niewykonalne. Wszystko natomiast staje się proste, że niemożliwy jest natychmiastowy przepływ ciepła z danego punktu do punktów odległych; przepływ następuje wyłącznie do punktów najbliższych i dopiero stopniowo strumień ciepła dociera do innych części bryły. Zjawiskiem elementarnym jest wymiana ciepła między dwoma punktami przyległymi, jest ono ściśle zlokalizowane i jest względnie proste, jeśli założymy - co nasuwa się w sposób naturalny - że nie mają na nie wpływu cząsteczki znajdujące się w skończonej odległości.

Gdy zginamy pręt, przybiera on bardzo skomplikowany kształt, którego bezpośrednie zbadanie jest niemożliwe. Możemy jednak przystąpić do tego zadania, jeśli zwrócimy uwagę, że wygięcie pręta jest sumą odkształceń bardzo małych elementów, a odkształcenie każdego z tych elementów zależy tylko od sił, które działają bezpośrednio na ten element, a nie zależy od sił działających na inne elementy.

We wszystkich tych przykładach, które moglibyśmy mnożyć bez trudności, zakłada się, że nie istnieje działanie na odległość, a przynajmniej na dużą odległość. Jest to hipoteza; nie zawsze jest ona spełniona, czego dowodzi prawo ciążenia, a zatem każdorazowo należy ją sprawdzić; jeśli doświadczenie potwierdzi ją, bodaj w przybliżeniu, będzie to bardzo ważne, gdyż hipoteza ta pozwoli nam na budowanie fizyki matematycznej przynajmniej drogą kolejnych przybliżeń.

Jeśli natomiast hipoteza ta nie przejdzie próby doświadczenia, trzeba szukać innych dróg, gdyż istnieją jeszcze inne możliwości dotarcia do zjawisk elementarnych. Jeśli kilka ciał działa jednocześnie, zdarzyć się może, że działania ich są niezależne i dodają się po prostu do siebie, jak wektory lub wielkości skalarne. Zjawiskiem elementarnym jest wówczas działanie jednego z tych ciał, rozważanego w izolacji od pozostałych. Możemy mieć również do czynienia z małymi drganiami, albo mówiąc ogólniej, z małymi zmianami zachowującymi się zgodnie ze znanym prawem superpozycji. Zaobserwowany ruch można rozłożyć wówczas na ruchy proste, na przykład dźwięk na składowe harmoniczne, światło białe na wszystkie kolory widma.

Skoro już wiadomo, w którą stronę należy się zwrócić w poszukiwaniach zjawiska elementarnego, to jakimi środkami można osiągnąć ten cel?

Przede wszystkim często się zdarza, że w celu wyizolowania zjawiska elementarnego, a raczej w celu odgadnięcia zeń tego, co nam się przyda, nie musimy wcale wnikać w jego mechanizm - wystarcza prawo wielkich liczb. Powróćmy do przykładu rozchodzenia się ciepła; każda cząsteczka promieniuje ku cząsteczkom sąsiednim; według jakiego prawa odbywa się to promieniowanie, nie musimy wiedzieć; gdybyśmy zrobili co do tego jakieś przypuszczenie, byłaby to hipoteza obojętna, a tym samym bezużyteczna i niesprawdzalna. W rzeczy samej, wskutek uśredniania oraz symetrii środowiska te wszystkie różnice się wyrównują i niezależnie od tej hipotezy, ostateczny rezultat zawsze jest ten sam.

Z taką samą sytuacją mamy do czynienia w teorii sprężystości czy teorii włoskowatości; cząsteczki sąsiednie przyciągają się lub odpychają; nie musimy wiedzieć, według jakiego prawa; wystarcza, abyśmy wiedzieli, że przyciąganie to jest wyczuwalne jedynie w bardzo małej odległości, cząsteczki są bardzo liczne, a środowisko jest symetryczne - a pozostanie nam jedynie zastosować prawo wielkich liczb.

I tutaj prostota zjawiska elementarnego ukrywa się pod złożonością obserwowalnego zjawiska całkowitego, ale z kolei prostota ta bywa pozorna i maskuje bardzo złożony mechanizm.

Najlepszym środkiem dotarcia do zjawiska elementarnego byłoby oczywiście doświadczenie. Należałoby za pomocą odpowiednich metod eksperymentalnych rozłożyć zawiły snop, dany nam bezpośrednio przez przyrodę, i starannie zbadać jego jak najlepiej oczyszczone elementy. Na przykład, naturalne światło białe można rozłożyć za pomocą pryzmatu na poszczególne kolory widma, a za pomocą polaryzatora wyodrębnić składowe o różnej polaryzacji.

Na nieszczęście, nie zawsze jest to możliwe lub wystarczające i nieraz umysł musi wyprzedzać doświadczenie. Jeden tylko przytoczę tu przykład, który zawsze żywo mnie uderzał:

Gdy rozłożymy światło białe, możemy wyodrębnić mały fragment widma, przy czym część ta, choć mała, zawsze ma pewną skończoną szerokość. Podobnie naturalne źródła światła monochromatycznego dają wąskie prążki, które jednak nie są nieskończenie wąskie. Można byłoby przypuszczać, że badając doświadczalnie własności naturalnego światła monochromatycznego i wytwarzając coraz węższe prążki, uda się przejść do granicy i poznać własności światła ściśle monochromatycznego.

Przypuszczenie takie byłoby błędne. Załóżmy, że dwa promienie pochodzące z tego samego źródła najpierw polaryzuje się w dwóch płaszczyznach prostopadłych, następnie sprowadza do jednej płaszczyzny polaryzacji i usiłuje doprowadzić do interferencji. Gdyby światło było ściśle monochromatyczne, interferencja byłaby możliwa, ale gdy światło jest tylko w przybliżeniu monochromatyczne, zaobserwowanie interferencji jest niemożliwe, i to niezależnie od szerokości prążka. Aby było inaczej, prążek musiałby być kilka milionów razy węższy niż najwęższe prążki, jakie udało się uzyskać w laboratorium.

W tym przypadku przejście do granicy wprowadziłoby nas w błąd; umysł musiał wyprzedzić doświadczenie i jeśli zrobił to z powodzeniem, to dlatego, że poddał się kierownictwu instynktu prostoty.

Znajomość faktu elementarnego pozwala na opisanie zagadnienia za pomocą równania; pozostaje wtedy tylko obliczenie za pomocą odpowiednich operacji matematycznych opisu zjawiska złożonego, obserwowalnego i sprawdzalnego. Procedurę tę nazywa się całkowaniem równania; jest to zadanie dla matematyka.

Można zadać sobie pytanie, dlaczego w naukach fizycznych uogólnienie przybiera często postać matematyczną. Po tym, co powiedzieliśmy powyżej, nie jest trudno to wyjaśnić. Przyczyną jest tu nie tylko okoliczność, że mamy formułować prawa ilościowe, lecz również to, że zjawisko obserwowalne jest konsekwencją superpozycji wielkiej liczby zjawisk elementarnych, które są wszystkie do siebie podobne; w ten sposób w naturalny sposób pojawiają się równania różniczkowe.

Nie wystarcza, że każde zjawisko elementarne zachodzi zgodnie z pewnym prostym prawem; konieczne jest również, by wszystkie takie zjawiska, które się łącznie rozważa, podlegały temu samemu prawu. Wówczas jedynie podejście matematyczne może być pożyteczne, albowiem matematyka uczy nas łączenia rzeczy podobnych. Celem jej jest odgadnięcie własności pewnej kombinacji elementów bez konieczności tworzenia tej kombinacji element po elemencie. Jeżeli trzeba powtórzyć parę razy to samo działanie, matematyka pozwala nam uniknąć tego powtarzania i poznać z góry jego wynik za pomocą pewnego rozumowania indukcyjnego. Wyjaśniłem to już w rozdziale o rozumowaniu matematycznym.

W tym celu jest konieczne, by wszystkie działania były do siebie podobne; w przeciwnym przypadku trzeba byłoby oczywiście zdecydować się na wykonanie ich kolejno, jedno po drugim, i matematyka stałaby się zbyteczna.

Jeśli zatem fizyka matematyczna mogła się narodzić, to dzięki przybliżonej jednorodności przedmiotu badanego przez fizyków.

W naukach przyrodniczych nie są spełnione wymienione warunki - jednorodność, względna niezależność części odległych, prostota faktów elementarnych - i dlatego przyrodnicy zmuszeni są korzystać z innych metod uogólniania.

Znaczenie teorii fizycznych. - Wielkie wrażenie na laikach sprawia efemeryczność teorii naukowych. Widzą oni, jak teorie te po okresie powodzenia kolejno zostają porzucane; widzą, jak ruiny gromadzą się na ruinach; przewidują, że na teorie modne obecnie, również czeka rychły upadek i wnoszą stąd, że są zupełnie jałowe i próżne. Takie poglądy nazywają tezą o bankructwie nauki.

Sceptycyzm ich jest jednak powierzchowny; nie zdają sobie sprawy z celu i roli teorii naukowych, w przeciwnym bowiem razie zrozumieliby, że ruiny też mogą czemuś służyć.

Żadna teoria nie wydawał się lepiej potwierdzona od teorii Fresnela, wiążącej światło z ruchem eteru, a jednak ustąpiła ona miejsca teorii Maxwella. Czy znaczy to, że dzieło Fresnela okazało się bezużyteczne? Bynajmniej, gdyż celem Fresnela nie było stwierdzenie, czy istnieje eter, czy składa się z atomów i czy atomy te poruszają się rzeczywiście w tym lub w innym kierunku - jego celem było przewidywanie zjawisk optycznych.

Otóż do tego celu teoria Fresnela nadaje się dziś równie dobrze, jak teoria Maxwella. Równania różniczkowe zawsze są prawdziwe; zawsze można je całkować za pomocą tych samych metod i wyniki tego całkowania zachowują wartość na zawsze.

Niech nikt nam nie mówi, że w ten sposób sprowadzamy teorie fizyczne do prostych przepisów praktycznych; równania te wyrażają pewne stosunki; jeżeli zaś równania pozostają prawdziwe, to dlatego, że odnośne stosunki nadal trwają. Mówią nam one, obecnie i w przeszłości, że między "czymś" i "czymś innym" zachodzi pewien stosunek; tyle, że to "coś" nazywaliśmy dawniej "ruchem", obecnie zaś nazywamy "prądem elektrycznym". Lecz nazwy te były tylko obrazami zastępującymi rzeczywiste przedmioty, które przyroda wiecznie będzie przed nami ukrywała. Prawdziwe stosunki między tymi rzeczywistymi przedmiotami są jedyną rzeczywistością, do której możemy dotrzeć, a jedynym warunkiem jest, by te same stosunki zachodziły między przedmiotami, co między obrazami, którymi zmuszeni jesteśmy je zastąpić. Skoro znamy te stosunki, jest już sprawą bez znaczenia, czy osądzimy za dogodne zastąpienie jednego obrazu innym.

Czy przyczyną pewnego zjawiska okresowego (na przykład drgań elektrycznych) są rzeczywiście wibracje jakiegoś atomu, który na podobieństwo wahadła przesuwa się rzeczywiście w tym lub w innym kierunku - nie jest to ani pewne, ani interesujące. To, że między drganiami elektrycznymi, ruchem okresowym wahadła i wszystkimi zjawiskami okresowymi zachodzi wewnętrzne powinowactwo, odpowiadające głębokiej rzeczywistości, że powinowactwo to, to podobieństwo lub raczej ten paralelizm sięga nawet szczegółów tych zjawisk, że jest on konsekwencją zasad ogólniejszych, mianowicie zasady zachowania energii i zasady najmniejszego działania - to są rzeczy, co do których nie ma żadnych wątpliwości, to prawda, która pozostanie zawsze ważna, niezależnie od tego, w jaką przebierzemy ją szatę.

Wielu fizyków podało różne teorie rozszczepiania światła; pierwsze z nich miały znaczne braki i zawierały jedynie małą część prawdy. Następnie przyszła teoria Helmholtza; później próbowano ją modyfikować na różne sposoby i nawet sam Helmholtz obmyślił inną teorię, opartą na równaniach Maxwella. Jest jednak rzeczą godną uwagi, że wszyscy badacze, którzy zajmowali się tym zagadnieniem po Helmholtzu, doszli do tych samych co on równań, choć pozornie przyjmowali zupełnie inne wstępne założenia. Ośmieliłbym się twierdzić, że wszystkie te teorie są równocześnie prawdziwe, nie tylko dlatego, że przewidują takie same fakty, ale dlatego, że opisują pewien ich stosunek, mianowicie stosunek absorpcji do anomalnej dyspersji. W przesłankach tych teorii prawdziwe jest to, co jest wspólne wszystkim autorom; jest to ustanowienie takiego związku między pewnymi rzeczami, które jedni nazywają tak, a inni inaczej.

Wytoczono wiele zarzutów przeciw teorii kinetycznej gazów; trudno byłoby na nie odpowiedzieć, gdyby upatrywać w niej prawdę absolutną. Wszystkie te zarzuty nie zmieniają faktu, że była ona bardzo pożyteczna, czego dowodem jest odkrycie za jej pomocą pewnego prawdziwego związku, dawniej głęboko utajonego, a mianowicie związku między ciśnieniem gazowym i ciśnieniem osmotycznym. W tym sensie można twierdzić, że jest ona prawdziwa.

Gdy fizyk wykrywa sprzeczność między dwiema teoriami, które są mu jednakowo drogie, mówi niekiedy: Nie niepokójmy się z tego powodu, lecz trzymajmy mocno oba końce łańcucha, choć nie widzimy ogniw pośrednich. Argument ten, zakrawający na tłumaczenie zakłopotanego teologa, byłby śmieszny, gdyby teorie fizyczne miały takie znaczenie, jakie przypisują im laicy. W razie sprzeczności przynajmniej jedną z nich należałoby wówczas uważać za błędną. Inaczej wygląda sytuacja, gdy szukamy w teoria fizycznych tylko tego, czego w nich należy upatrywać. Możliwe, że obie teorie wyrażają prawdziwe związki, a sprzeczność zachodzi jedynie między obrazami, w które przyodzieliśmy rzeczywistość.

Tym, którzy uważają, że zbytnio zawężamy obszar badań naukowych, odpowiemy następująco: pytania, które ku waszemu żalowi z góry odrzucamy, nie tylko są nierozwiązywalne, ale iluzoryczne i pozbawione treści.

Ten lub ów filozof utrzymuje, że wszystkie zjawiska fizyczne można wyjaśnić jako konsekwencje zderzeń między atomami. Jeśli chce w ten sposób powiedzieć po prostu, że między zjawiskami fizycznymi zachodzą te same związki, co między wzajemnymi zderzeniami wielkiej liczby kul bilardowych - doskonale, jest to twierdzenie sprawdzalne i może być prawdziwe. Ale filozof taki chce powiedzieć coś więcej, a nam się zdaje, że go rozumiemy, bo zdaje się nam, że wiemy, co to jest zderzenie samo w sobie. Dlaczego? Po prostu, dlatego, że widzieliśmy wiele razy grę w bilard. Czy mamy sądzić, że Bóg, oglądając swoje dzieło, doznaje tych samych wrażeń, co my, gdy przyglądamy się grze w bilard? Jeśli twierdzeniu filozofa nie chcemy nadać tego dziwacznego znaczenia, a jednocześnie odrzucamy to zawężone znaczenie, które wyłożyliśmy przed chwilą i które jest znaczeniem właściwym, to nie będzie ono miało żadnego znaczenia.

Hipotezy tego rodzaju mają jedynie metaforyczne znaczenie. Uczony nie ma więcej powodów, by się ich wyrzekać niż poeta, by zrezygnować z metafor, ale wiedzieć powinien, jaka jest ich wartość. Bywają one pożyteczne, gdy zaspokajają pewne potrzeby umysłu, a nie są szkodliwe, o ile są hipotezami neutralnymi.

Rozważania te wyjaśniają nam, dlaczego pewne teorie, o których sądzono, że zostały odrzucone i ostatecznie potępione przez doświadczenie, odradzają się nagle z popiołów i zaczynają nowe życie. Wyrażały one bowiem prawdziwe związki i nie przestały ich wyrażać wtedy, gdy z takiego lub innego powodu uznaliśmy za stosowne wyrazić ten sam związek innymi słowami. Takie teorie zachowały dzięki temu pewne życie utajone.

Zaledwie piętnaście lat temu czy było coś śmieszniejszego i bardziej staromodnego niż płyny Coulomba? A przecież obecnie pojawiają się znowu pod nazwą elektronów. Czym różnią się te cząstki naładowane w sposób trwały od molekuł elektrycznych Coulomba? Wprawdzie elektrony to małe, ale to bardzo małe cząstki materii dźwigające ładunek elektryczny, czyli cząstki mające określoną masę (której zresztą obecnie zaczęto im odmawiać), lecz i Coulomb nie odmawiał masy swoim fluidom, a jeśli to czynił, to z wielkim żalem. Zbyt śmiałe byłoby przypuszczenie, że wiara w elektrony nie ulegnie nigdy zaćmieniu, ale warto zwrócić uwagę na to nieoczekiwane odrodzenie.

Najbardziej uderzającym przykładem jest jednak zasada Carnot. Carnot ustanowił ją wychodząc z błędnych założeń; gdy fizycy doszli do wniosku, że ciepło nie jest niezniszczalne, lecz może przekształcać się w pracę, porzucili zupełnie jego pomysły, ale później wrócił do nich Clausius i zapewnił im ostateczne zwycięstwo. Teoria Carnot w pierwotnej postaci wyrażała obok związków rzeczywistych wiele związków nie odpowiadających rzeczywistości i pozostałości po starych poglądach, ale ich obecność nie podważała słuszności tamtych związków. Clausius musiał tylko je usunąć, tak jak się obłamuje zeschłe gałęzie.

W ten sposób została sformułowana druga zasada termodynamiki. Opisywała ona zawsze te same stosunki, choć na pozór między różnymi przedmiotami. To wystarcza, by zasada zachowała swoja wartość. Nawet dowody Carnot nie przepadły całkowicie; dotyczyły one błędnej treści, ale forma ich (czyli ich istota) pozostała poprawna.

Powyższe uwagi rzucają światło na rolę zasad ogólnych, takich jak zasada zachowania energii i zasada najmniejszego działania.

Zasady te mają ogromną wartość; ustanowiono je dzięki wykryciu pierwiastków wspólnych w licznych prawach fizycznych; stanowią one przeto jak gdyby kwintesencję niezliczonych obserwacji.

Jednak właśnie z ich ogólnego charakteru wynika wskazana przez nas w rozdziale ósmym właściwość tych zasad, która polega na tym, że doświadczenie nie może ich obalić. Ponieważ nie potrafimy podać ogólnego określenia energii, zasada zachowania energii oznacza po prostu, że istnieje coś, co jest stałe. Otóż niezależnie od tego, jakie pojawią się nowe koncepcje świata fizycznego, które nasuną nam przyszłe doświadczenia, z góry możemy być pewni, że zawsze coś będzie stałe i to coś będziemy mogli nazwać energią.

Czy to oznacza, że zasada ta nie ma żadnego znaczenia, że degeneruje się do tautologii? Bynajmniej, gdyż powiada ona, że różne rzeczy, którym chcemy dać nazwę energii, związane są rzeczywistym powinowactwem; zasada ta wyraża prawdziwy związek między tymi rzeczami.

Skoro jednak zasada ta ma pewien sens, to może być błędna; może się zdarzyć, że nie będziemy mieli prawa rozciągać nieograniczenie jej stosowalności - a przecież pewni jesteśmy z góry, że doświadczenie potwierdzi ją w ścisłym tego słowa znaczeniu. W jaki sposób poznamy zatem, że dotarliśmy do ostatecznych kresów zakresu ważności tej zasady? Po prostu przez to, że przestanie być użyteczna, to znaczy, nie będzie już pozwalać na trafne przewidywania nowych zjawisk. Pewni będziemy wówczas, że sformułowany związek nie odpowiada rzeczywistości; w przeciwnym bowiem razie byłby płodny; doświadczenie, nie sprzeciwiając się wprost kolejnemu rozciągnięciu naszej zasady, nakaże jednak, by je stanowczo odrzucić.

Fizyka a mechanizm. - Większość teoretyków wykazuje stałą predylekcję do objaśnień, zapożyczonych z mechaniki lub dynamiki. Jedni byliby zadowoleni, gdyby mogli wyjaśnić wszystkie zjawiska za pomocą ruchów cząsteczek, oddziałujących zgodnie z pewnymi prawami. Inni są bardziej wymagający: chcieliby oni wykluczyć oddziaływania na odległość; ich zdaniem, cząsteczki poruszają się po drogach prostoliniowych i zmieniają kierunek ruchu tylko pod wpływem zderzeń. Inni wreszcie, jak Hertz, eliminują również siły i zakładają, że cząstki są połączone pewnymi więzami geometrycznymi, analogicznymi do naszych układów z przegubami; chcą oni w ten sposób sprowadzić dynamikę do kinematyki.

Wszyscy, jednym słowem, chcą nagiąć przyrodę do pewnej formy, którą uważają za jedyną, satysfakcjonującą wymogi intelektualne. Czy przyroda okaże się dostatecznie elastyczna?

Pytanie to rozważymy w rozdziale dwunastym, analizując teorię Maxwella. Przekonamy się, że gdy są spełnione zasady zachowania energii i najmniejszego działania, to wyjaśnienie mechaniczne nie tylko jest możliwe, ale takich wyjaśnień można podać nieskończenie wiele.* Dzięki pewnemu znanemu twierdzeniu Königsa o układach przegubowych dałoby się wykazać, że wszystko można wyjaśnić za pomocą połączeń Hertza lub też sił centralnych, i to na dowolnie dużo sposobów. Można byłoby zapewne również łatwo dowieść, że wszystko da się wyjaśnić przez zwyczajne zderzenia.

* Jeśli przyjmujemy, że możliwość sformułowania zasady najmniejszego działania jest równoważna z podaniem mechanicznego wyjaśnienia, to mechanicyzm staje się pustym pojęciem, gdyż zasadę tę można podać dla wszystkich znanych teorii pola - P.A.

Oczywiście, nie można przy tym ograniczać się do materii zwyczajnej, którą postrzegamy zmysłowo i której ruchy obserwujemy bezpośrednio. Trzeba albo założyć, że zwyczajna materia składa się z atomów, których ruchy wewnętrzne nie są dla nas obserwowalne, a dostępne zmysłowo jest tylko przesunięcie atomu w całości, albo też wyobrazić sobie jeden z tych subtelnych płynów, które pod nazwą eteru lub inną zawsze odgrywały ważną rolę w teoriach fizycznych.

Częstokroć fizycy posuwają się jeszcze dalej i uważają eter za jedyną prawdziwą materię. Najbardziej umiarkowani uznają zwyczajną materię za zagęszczony eter, w czym nie ma nic, co mogłoby nas razić; inni natomiast zmniejszają jeszcze bardziej jej znaczenie i widzą w niej jedynie miejsce geometryczne punktów osobliwych w eterze. Na przykład, zdaniem lorda Kelvina, to co nazywamy materią, jest po prostu miejscem geometrycznym punktów, w których eter porusza się ruchem wirowym; Riemann sądzi, że to miejsce, w którym eter ustawicznie ulega zniszczeniu; dla innych autorów najnowszych prac, jak Wiechert lub Larmor, jest to miejsce geometryczne punktów, w których eter ulega bardzo szczególnemu skręceniu. Jeśli chcemy przyjąć jedno z tych stanowisk, musimy jeszcze odpowiedzieć na pytanie, jakim prawem przypisujemy eterowi, pod pozorem, że jest to prawdziwa materia, własności mechaniczne materii zwyczajnej, która jest tylko materią pozorną.

Dawne fluidy, cieplik, elektryczność i tak dalej, zostały porzucone, gdy zauważono, że ciepło nie jest niezniszczalne. Porzucone je jednak również z innego powodu. Materializując je, podkreślano poniekąd ich indywidualność, w pewnym sensie kopano między nimi przepaść. Trzeba było ją jakoś zapełnić, gdy zjawiło się żywe odczucie jedności przyrody i gdy zauważono głębokie związki łączące jej części. Dawni fizycy, mnożąc fluidy, nie tylko tworzyli bez potrzeby coraz to nowe byty, ale również zrywali rzeczywiste związki.

Nie wystarcza, by dana teoria nie prowadziła do fałszywych związków, nie może również przesłaniać związków rzeczywistych.

A nasz eter, czy istnieje rzeczywiście?

Wiadomo, skąd pochodzi wiara w eter. Gdy światło leci do nas z odległej gwiazdy, przez kilka lat nie jest już na gwieździe, nie jest jeszcze na Ziemi - musi więc być gdziekolwiek, dźwigane, że tak powiem, przez jakieś materialne podłoże.*

* Warto zwrócić uwagę na ontologiczne założenie ukryte w tym stwierdzeniu. Dla tradycyjnych fizyków nie ma nic dziwnego w stwierdzeniu, że cząstka istnieje w próżni, natomiast nie dopuszczali oni, by światło mogło istnieć samo z siebie - sądzili, że fala jest zawsze falą jakiegoś ośrodka. Odrzucenie tego założenia pozwala również uniknąć problemu nielokalności w czasie, o którym pisze Poincaré w następnym akapicie. Z podobnym ontologicznym założeniem mamy do czynienia w kwantowych rozważaniach, czy elektron może istnieć jednocześnie w dwóch różnych miejscach. To łatwo zrozumieć - wystarczy wyrzec się ontologicznych założeń. Prawdziwą zagadką jest to, w jaki sposób nagle przechodzi do stanu, w którym jest już tylko w jednym miejscu - P.A.

Tę samą myśl można wyrazić w postaci bardziej matematycznej i abstrakcyjnej. Bezpośrednio stwierdzamy jedynie zmiany zachodzące w cząsteczkach materialnych; widzimy, na przykład, że klisza fotograficzna zmienia się pod wpływem zjawisk, które zachodziły kilka lat wcześniej w rozżarzonej masie gwiazdy. W zwykłej mechanice stan badanego układu zależy jedynie od jego stanu w chwili bezpośrednio poprzedzającej daną chwilę; układ zachowuje się zatem zgodnie z pewnym równaniem różniczkowym. Gdybyśmy nie zakładali istnienia eteru, stan materialnego Wszechświata zależałby nie tylko od stanu bezpośrednio wcześniejszego, ale również od stanów o wiele dawniejszych; układ zachowywałby się zgodnie z równaniem o różnicach skończonych (nielokalnym w czasie). W celu uniknięcia tego odstępstwa od ogólnych praw mechaniki wynaleźliśmy eter.

Ten argument zmusza nas tylko do napełnienia eterem przestrzeni międzyplanetarnej, ale nie zmusza do przyjęcia, że eter przenika nawet ośrodki materialne. Eksperyment Fizeau idzie dalej. Interferencja promieni, które przeszły przez powietrze lub wodę w ruchu, zdaje się wskazywać, że dwa ośrodki wzajem się przenikają, a mimo to przesuwają się względem siebie. Mamy wrażenie, że eter jest czymś niemal namacalnym.

Można sobie wyobrazić doświadczenia, które pozwoliłyby na jeszcze bliższy kontakt z eterem. Załóżmy, że newtonowska zasada akcji i reakcji nie jest spełniona w odniesieniu do samej materii i że doświadczenie potwierdziło to przypuszczenie. Suma geometryczna wszystkich sił, działających na wszystkie cząsteczki materialne, nie byłaby wówczas równa zeru. Aby uniknąć konieczności zmieniania całej mechaniki, musielibyśmy wówczas wprowadzić eter, który pozwoliłby zrównoważyć to pozorne oddziaływanie na materię przez oddziaływanie materii na coś innego.

Możemy również wyobrazić sobie, że doświadczenia wykazały, iż ruch Ziemi wpływa na zjawiska optyczne i elektryczne. Wynikałoby z tego, że zjawiska te pozwalają wykryć nie tylko ruchy względne ciał materialnych, lecz również ruchy bezwzględne. W tym przypadku również musielibyśmy przyjąć istnienie eteru, aby te rzekomo absolutne ruchy nie były przesunięciami względem pustej przestrzeni, lecz względem czegoś konkretnego.

Czy kiedykolwiek dojdziemy do tego? Nie żywię takiej nadziei i niebawem objaśnię dlaczego, a przecież nie jest ona bynajmniej tak niedorzeczna, skoro inni ją mieli.

Gdyby na przykład prawdziwa była teoria Lorentza, którą szczegółowo rozważymy w rozdziale trzynastym, to zasada Newtona nie obowiązywałaby w stosunku do samej tylko materii, i odstępstwa od tej zasady byłyby niemal dostępne doświadczalnie.

Z drugiej strony, wielu uczonych badało wpływ ruchu Ziemi na zjawiska optyczne. Rezultaty były zawsze negatywne. Jeśli jednak przeprowadzono te doświadczenia, to dlatego, że nie było z góry pewne, jakie będą wyniki. Według panujących obecnie teorii, kompensacja, która tu zdaje się zachodzić, jest tylko przybliżona i oczekiwać należy, że dokładniejsze metody dadzą pozytywne wyniki.

Moim zdaniem ta nadzieja jest złudna, ale warto było wykazać, że powodzenie wspomnianych tu eksperymentów otworzyłoby przed nami nowy świat.

Mam nadzieję, że czytelnicy wybaczą mi tu krótką dygresję, chciałbym bowiem wytłumaczyć, dlaczego wbrew Lorentzowi nie wierzę, by najdokładniejsze nawet obserwacje mogły kiedykolwiek doprowadzić do wykrycia czegoś więcej niż tylko ruchy względne ciał materialnych. Przeprowadzono doświadczenia, który powinny wykryć wyrazy pierwszego rzędu; rezultaty były negatywne. Czy mogło to być dziełem przypadku? Nikt w to nie uwierzył; wielu fizyków usiłowało znaleźć wyjaśnienie tego faktu, co udało się Lorentzowi: wykazał on, że wyrazy pierwszego rzędu muszą się wzajemnie znosić, ale nie jest tak w przypadku wyrazów rzędu drugiego. Wówczas przeprowadzono dokładniejsze doświadczenia, lecz i w tym razem otrzymano negatywne wyniki. To również nie mogło być rzeczą przypadku i domagało się wyjaśnienia, które zostało znalezione, bo hipotez nigdy nie brakuje.

To jeszcze nie wszystko: któż nie czuje, że w tym wszystkim zbyt dużą rolę odgrywa przypadek? Czyż nie jest przypadkiem ów dziwny zbieg okoliczności, który sprawia, że pewne efekty występują wyłącznie po to, by zagwarantować wzajemne kasowanie się wyrazów pierwszego rzędu, a efekty najzupełniej inne powodują kasowanie się wyrazów drugiego rzędu? Nie, należy znaleźć jedno i to samo wyjaśnienie kasowania się wyrazów pierwszego i drugiego rzędu; wszystko przemawia za tym, że wytłumaczenie to będzie dotyczyło również wyrazów wyższego rzędu i wzajemne kasowanie się tych wyrazów będzie ścisłe i absolutne.*

* Lorentz tłumaczył zjawiska pierwszego rzędu dynamicznie, jako konsekwencję elektrodynamiki Maxwella, a w celu wyjaśnienia zjawisk drugiego rzędu - czyli eksperymentu Michelsona-Morleya, odwoływał się do hipotezy kontrakcji Fitzgeralda. Warto zwrócić uwagę, że na pytanie Shanklanda o znaczenie doświadczenia Michelsona-Morleya Einstein odpowiedział, iż doświadczenia dotyczące efektów pierwszego rzędu były wystarczające - P.A.

Obecny stan nauki. - W dziejach rozwoju fizyki rozróżnić można dwie przeciwne tendencje. Z jednej strony, co chwila wykrywa się nowe związki między przedmiotami, które zawsze wydawały się całkowicie niezależne; luźne fakty przestają być sobie obce i łączą się w jednej wielkiej syntezie. Nauka kroczy ku jedności i prostocie.

Z drugiej strony, codziennie odkrywamy nowe zjawiska, które muszą długo czekać na swoje miejsce, a niejednokrotnie zdarza się, że znalezienie dla nich miejsca wymaga zburzenia jakiejś części istniejącego gmachu. Nawet w zjawiskach znanych, które naszym tępym zmysłom wydawały się zupełnie monotonne, odkrywamy dziś coraz to bardziej urozmaicone szczegóły; to, co uważaliśmy za proste, staje się znowu złożone. Nauka kroczy ku rozmaitości i złożoności.

Która z tych dwóch tendencji, tryumfujących na zmianę, ostatecznie weźmie górę? Jeśli pierwsza, nauka jest możliwa, ale nic nie dowodzi tego a priori i obawiać się można, że po próżnych usiłowaniach nagięcia opornej przyrody do naszego ideału jedności, zalani wzbierającą falą nowych faktów, będziemy zmuszeni zrzec się ich ogarnięcia, porzucić nasz ideał i zredukować naukę do rejestru niezliczonych recept.

Na to pytanie nie możemy odpowiedzieć. Możemy jedynie obserwować naukę obecną i porównywać ją z wczorajszą - nic ponad to. Zestawienie to pozwoli nam niewątpliwie na pewne domysły co do przyszłości.

Przez pięćdziesięciu laty żywiono wielkie nadzieje. Odkrycie zachowania energii i jej przemian ujawniło jedność sił przyrody. Okazało się, że zjawiska cieplne można wyjaśnić jako konsekwencję ruchów molekularnych. Uczeni nie wiedzieli wprawdzie, jaka jest istota tych ruchów, ale nie wątpili, że wkrótce ją poznają. W przypadku światła wydawało się, że to zadanie zostało już wykonane. Mniej daleko posunięta była znajomość elektryczności. Niedawno elektryczność dokonała zaboru i objęła magnetyzm. Był to znaczny krok ku jedności, i to krok ostateczny. Nikt jednak nie wiedział, jak włączyć elektryczność do ogólnej teorii mechanicznej, ale też nikt nie wątpił w możliwość takiej redukcji - wszyscy w to wierzyli. Podobna redukcja własności molekularnych ciał materialnych wydawała się jeszcze łatwiejsza, lecz wszystkie jej szczegóły pozostawały we mgle. Słowem nadzieje były wielkie, lecz mgliste.

Dziś, cóż widzimy?

Przede wszystkim dostrzegamy postęp, postęp olbrzymi. Związek między elektrycznością i światłem jest już znany; trzy dziedziny - optyka, elektryczność i magnetyzm, niegdyś oddzielne, dziś stanowią jedną, a synteza ta wydaje się ostateczna.

Zwycięstwo to zostało odniesione pewnym kosztem. Zjawiska optyczne stanowią szczególną klasę zjawisk elektrycznych; dopóki uważano je za niezależne, łatwo je było wyjaśnić za pomocą pewnych ruchów, które - jak się wydawało - znane były we wszystkich szczegółach, szło to jak po maśle; dziś natomiast wyjaśnienie to można zachować tylko pod warunkiem, że daje się je rozciągnąć na całą dziedzinę elektryczności. Jak się okazuje, nie odbywa się to bez przeszkód.

Najbardziej zadowalająca jest teoria Lorentza, która - jak się przekonamy w ostatnim rozdziale - wyjaśnia prądy elektryczne jako ruch małych cząstek z ładunkiem elektrycznym. Teoria ta, bez wątpienia, najlepiej opisuje znane fakty, naświetla najwięcej prawdziwych związków; jest to teoria, po której zostanie najwięcej śladów w przyszłej, ostatecznej teorii naukowej. Ma ona jednak jedną ważną wadę, o której wspomniałem powyżej: jest sprzeczna z newtonowską teorią akcji i reakcji; albo raczej, zdaniem Lorentza, zasada ta nie odnosi się do samej materii - jest prawdziwa tylko wtedy, gdy uwzględniamy istnienie eteru i oddziaływania między eterem i materią. Otóż obecnie wydaje się mało prawdopodobne, by tak było rzeczywiście.*

* Wyjaśnienie tej kwestii wymagało dwóch rewolucyjnych kroków. Po pierwsze, trzeba było przyjąć, że pole elektromagnetyczne może istnieć samodzielnie, bez pomocy eteru. Po drugie, należało uznać, że pole elektromagnetyczne w określonych sytuacjach należy uważać za zbiór fotonów; jak dowiodły pomiary rozpraszania Comptona, oddziaływanie elektronu z fotonem jest zgodne z zasadami zachowania pędu i energii, a tym samym z zasadą akcji i reakcji - P.A.

Dzięki Lorentzowi poznaliśmy związek między wynikami badań Fizeau optycznych własności ciał w ruchu, prawami normalnego i anomalnego rozszczepiania linii i prawami absorpcji oraz związek między nimi i innymi właściwościami eteru; związki te zapewne nigdy nie zostaną zerwane. Proszę zwrócić uwagę, z jaką łatwością nowe zjawisko Zeemana znalazło w tej teorii przygotowane miejsce, a nawet pomogło w wyjaśnieniu rotacji magnetycznej Faradaya, która oparła się atakom Maxwella. Łatwość ta dowodzi, że teoria Lorentza nie jest tylko sztucznym zlepkiem, skazanym na rozpad. W przyszłości zapewne będzie zmodyfikowana, ale nie zburzona.

Lorentz nie miał szerszych ambicji niż tylko ujęcie w ramach jednej teorii całej optyki i elektrodynamiki ciał w ruchu; nie miał on pretensji do mechanicznego wyjaśnienia tych zjawisk. Larmor idzie dalej; zachowując w teorii Lorentza to, co w niej jest istotne, szczepi on na nie, że tak powiem, poglądy Mac-Cullagha na kierunek ruchów eteru. Prędkość eteru ma jego zdaniem ten sam kierunek i wielkość, co siła magnetyczna. Prędkość ta jest zatem znana, bowiem siłę magnetyczną można wyznaczyć doświadczalnie. Choć to przedsięwzięcie wydaje się bardzo pomysłowe, wykrywamy w nim tą samą wadę, co w teorii Lorentza, i to w stopniu wzmocnionym. Akcja nie jest równa reakcji. W teorii Lorentza nie wiadomo, jakie są ruchy eteru; dzięki tej nieświadomości mogliśmy przypuszczać, że kompensują one ruchy materii i przywracają równość akcji i reakcji. W teorii Larmora ruchy eteru są znane i możemy stwierdzić, że taka kompensacja nie ma miejsca.

Jeśli, jak sądzę, próba Larmora zakończyła się niepowodzeniem, czy to znaczy, że mechaniczne wyjaśnienie zjawisk elektrycznych nie jest możliwe? Bynajmniej, jak już powiedzieliśmy, jeśli tylko pewne zjawisko jest zgodne z zasadami zachowania energii i najmniejszego działania, to dopuszcza nieskończenie wiele wyjaśnień mechanicznych. To dotyczy również zjawisk optycznych i elektrycznych.

To jednak nie wystarcza; wyjaśnienie mechaniczne, by było dobre, musi być proste. Wybór jednego z pośród wielu możliwych wyjaśnień wymaga jakiegoś argumentu poza samą koniecznością dokonania wyboru. Otóż nie znamy na razie teorii, czyniącej zadość temu warunkowi, czyli nie ma teorii, która byłaby do czegoś zdatna. Czy mamy tego żałować? W ten sposób zapomnielibyśmy o naszym prawdziwym celu - nie jest nim znalezienie mechanicznego wyjaśnienia, lecz jedność fizyki.

Powinniśmy zatem zakreślić granice naszej ambicji; nie usiłujmy sformułować wyjaśnienia mechanicznego, zadowólmy się wykazaniem, że gdybyśmy chcieli, zawsze moglibyśmy je podać. A to się nam udało: zasadę zachowania energii potwierdzają wszystkie doświadczenia, a przyłącza się do niej również zasada najmniejszego działania, w postaci odpowiadającej tej dziedzinie fizyki. I tę zasadę potwierdzają wszystkie doświadczenia, przynajmniej w dziedzinie zjawisk odwracalnych, zachodzących zgodnie z równaniami Lagrange'a, czyli najogólniejszymi prawami mechaniki.

Zjawiska nieodwracalne stawiają większy opór. I one wszakże dają się uporządkować w harmonijną całość - dzieje się to za sprawą zasady Carnot. Przez długi czas termodynamika ograniczała się do badań nad rozszerzaniem ciał i zmian w ich stanie. Od pewnego czasu stała się bardziej śmiała i znacznie rozszerzyła swój zakres. Zawdzięczamy jej teorię stosu, teorię zjawisk termoelektrycznych; nie ma w całej fizyce dziedziny, która nie zostałaby objęta badaniami termodynamicznymi, zaatakowała ona nawet chemię. Wszędzie panują takie same prawa, wszędzie pod rozmaitością pozorów znajdujemy zasadę Carnot oraz tak niesłychanie abstrakcyjne pojęcie entropii, równie powszechne jak pojęcie energii i jak one wykazujące cechy czegoś realnego. Zdawało się, że nie podlega mu ciepło promieniste, ale niedawno przekonano się, że i ono podporządkowane jest tym samym prawom.

W ten sposób ujawniają się nowe analogie, sięgające często szczegółów. Opór omowy okazuje się podobny do lepkości cieczy, histereza do tarcia ciał stałych. We wszystkich przypadkach tarcie jest wzorem, który naśladują wszystkie zjawiska nieodwracalne - a to powinowactwo jest rzeczywiste i głębokie.

Uczeni próbowali również znaleźć mechaniczne wyjaśnienie tych zjawisk, ale bez powodzenia. Takie wytłumaczenie wymagałoby przyjęcia założenia, że nieodwracalność jest pozorna - zjawiska elementarne są odwracalne i podlegają znanym prawom dynamiki, ale są nadzwyczaj liczne, z upływem czasu mieszają się coraz bardziej i dla tępych naszych oczu wszystko zdaje się dążyć do pełnej jednostajności; ewolucja układu przebiega w jednym kierunku, bez nadziei powrotu. Pozorna nieodwracalność jest zatem po prostu przejawem działania prawa wielkich liczb. Jedynie istota o zmysłach nieskończenie subtelnych, w rodzaju urojonego demona Maxwella, potrafiłaby rozwikłać tą poplątaną sieć i zmienić kierunek biegu zdarzeń.

Koncepcja ta, związana z teorią kinetyczną gazów, powstała kosztem wielkich wysiłków i ostatecznie okazała się mało płodna, ale to jeszcze może się zmienić. Nie ma tu miejsca na rozważenia, czy nie prowadzi ona do sprzeczności i czy odpowiada ściśle prawdziwej naturze rzeczy.

Mimo to chciałbym wspomnieć o oryginalnych pomysłach fizyka Gouy'ego, dotyczących ruchów Browna. Według niego, ten osobliwy rodzaj ruchu nie podlega zasadzie Carnot. Cząstki, poruszające się ruchem Browna, są według niego mniejsze niż oka tej gęstej sieci, mogą przez nie przenikać i w ten sposób kazać światu postępować wstecz. Obserwując to zjawisko można odnieść wrażenie, że widzimy demona Maxwella przy pracy.*

* Jak wykazali Einstein, Smoluchowski i Szilard, ruchy Browna nie są bynajmniej sprzeczne z drugą zasadą termodynamiki, ale kwestia ta jest zbyt subtelna, by można ją było wyjaśnić w przypisie. Warto natomiast zapoznać się z analizą działania koła zębatego z zapadką, jaką przedstawił Feynman w książce Charakter praw fizycznych (Prószyński i S-ka, Warszawa 2000) - P.A.

Tak więc znane od dawna zjawiska są coraz lepiej uporządkowane; równocześnie poznajemy nowe zjawiska, domagające się miejsca, które też w większości przypadków - takich jak zjawisko Zeemana - natychmiast znajdują.*

* Wbrew temu, co pisze Poincaré, na poprawne wyjaśnienie zjawiska Zeemana przyszło jeszcze trochę poczekać. Teoria Lorentza zjawiska Zeemana była błędna i trudno zrozumieć, dlaczego między innymi na nią powoływał się komitet Nagrody Nobla, gdy przyznał nagrodę holenderskiemu teoretykowi. Wyjaśnienie zjawiska Zeemana stało się możliwe dopiero po sformułowaniu mechaniki kwantowej i odkryciu spinu elektronu - P.A.

Lecz mamy jeszcze promieniowanie katodowe, promienie X, promieniowanie uranu i radu. To cały świat, którego istnienia nikt nie podejrzewał. Iluż niespodziewanych gości trzeba gdzieś ulokować!

Nikt nie może teraz przewidzieć, jakie zajmą oni miejsce. Nikt nie przypuszcza wszakże, by miały one zakłócić ogólną jedność; sądzi się raczej, że ją uzupełnią. Nowe rodzaje promieniowania wydają się związane ze zjawiskiem luminescencji; nie tylko wywołują one fluorescencję, ale niekiedy powstają w tych samych co ona warunkach.

Nie są one również obce przyczynom, które powodują przeskok iskry pod działaniem światła ultrafioletowego.

Wreszcie, i przed wszystkim, wydaje się, że we wszystkich tych zjawiskach biorą udział prawdziwe jony, tym tylko różniące się od zwykłych, że poruszają się z bez porównania większą prędkością niż w elektrolitach.

Wszystko to jest jeszcze bardzo nieokreślone, ale z czasem nabierze ścisłości.

Fosforescencja, działanie światła na iskrę, stanowiły obszary nieco odizolowane, a z tego powodu również w pewnym stopniu zaniedbane. Można się teraz spodziewać, że przeprowadzona zostanie nowa linia łączności, która ułatwi nawiązanie kontaktu między tymi dziedzinami, a całą resztą nauki.

Nie tylko odkrywamy nowe zjawiska, ale nawet w zjawiskach, o których sądziliśmy, że je dobrze znamy, dostrzegamy teraz nowe, nieoczekiwane strony. W swobodnym eterze prawa zachowują swą majestatyczną prostotę, natomiast materia we właściwym znaczeniu tego słowa zdaje się coraz bardziej złożona; cokolwiek o niej mówimy, ma tylko przybliżony charakter i co chwila jesteśmy zmuszeni uzupełniać nasze wzory nowymi wyrazami.

Nie łamie to wszakże ram teorii naukowych; związki wykryte między przedmiotami, które uważaliśmy za proste, nie przestają istnieć wtedy, gdy odkrywamy ich złożoność, a tylko to się liczy. Równania nasze stają się wprawdzie coraz bardziej skomplikowane, by ściśle opisywały skomplikowane zjawiska, nic wszakże nie zmienia związków, pozwalających na wyprowadzenie tych równań, jedne z drugich. Słowem, postać tych równań jest zachowana.

Weźmy dla przykładu prawa odbicia. Fresnel wyprowadził je z teorii prostej i pociągającej, którą - jak się zdawało - potwierdzało doświadczenie. Później coraz dokładniejsze badania pozwoliły stwierdzić, że potwierdzenie to było tylko przybliżone; wszędzie dostrzegamy ślady polaryzacji eliptycznej. Dzięki pomocy, jaką było to pierwsze przybliżenie, znaleziono przyczynę tych anomalii - jest nią obecność warstwy przejściowej. Teoria Fresnela, przynajmniej w swej zasadniczej części, okazała się trwała.

Nasuwa się tu jedna uwaga. Wszystkie te związki nie zostałyby zauważone, gdyby uczeni z góry zdawali sobie sprawę ze stopnia złożoności badanych zjawisk i przedmiotów. Dawno już powiedziano: gdyby Tycho posiadał instrumenty dziesięć razy dokładniejsze, nie byłoby nigdy ani Keplera, ani Newtona, ani astronomii. Jest nieszczęściem dla nauki, gdy rodzi się zbyt późno, kiedy metody i instrumenty pomiarowe są zbyt doskonałe. W takim położeniu znajduje się dziś fizykochemia; jej współczesnym twórcom często utrudnia pracę znajomość cyfr na trzecim i czwartym miejscu po przecinku; na szczęście są to ludzie mocnej wiary.

W miarę jak coraz lepiej poznajemy właściwości materii, stwierdzamy, że obowiązuje w niej ciągłość. Od czasu prac Andrewsa i Van der Waalsa zdajemy sobie sprawę z tego, w jaki sposób następuje przejście od stanu ciekłego do stanu gazowego; wiadomo, że przejście to nie jest nagłe. Podobnie, nie ma przepaści między stanami ciekłym i stałym. W sprawozdaniu z jednego z niedawnych kongresów naukowych znalazłem obok pracy o sztywności cieczy pracę o rozlewaniu się ciał stałych.

Tendencja ta podważa oczywiście prostotę nauki; pewne zjawisko kiedyś można było zilustrować za pomocą kilku linii prostych: dziś trzeba je połączyć za pomocą mniej lub bardziej skomplikowanych krzywych. Wygrywa na tym jedność. Te ostro odcięte kategorie oszczędzały umysłowi zmęczenia, ale go nie zadawalały.

Metody fizyki wtargnęły do chemii: narodziła się fizykochemia. Jest ona jeszcze bardzo młoda, ale już teraz widać, że pozwoli powiązać ze sobą takie zjawiska jak elektroliza, osmoza, ruchy jonów.

Jakie można wyciągnąć wnioski z tego pobieżnego wykładu?

Wziąwszy wszystko pod uwagę, wolno stwierdzić, że zbliżamy się do jedności. Nie posuwamy się naprzód tak prędko, jak się tego spodziewano pięćdziesiąt lat temu, nie zawsze idziemy przewidzianą drogą, ale w rezultacie dokonaliśmy rozległych podbojów.

Niektórzy czytelnicy mogą się zdziwić, znajdując tu refleksje nad rachunkiem prawdopodobieństwa. Cóż ma to wspólnego z metodą nauk fizycznych?

A jednak kwestie, które poruszą poniżej, nie podając ich rozwiązania, nasuwają się w sposób naturalny, gdy rozmyślamy nad fizyką, i to w takim stopniu, że w dwóch poprzednich rozdziałach przyszło nam kilkakrotnie użyć słów "prawdopodobieństwo" i "przypadek".

"Każdy zaobserwowany fakt pozwala przewidzieć wiele innych, lecz nie powinniśmy zapominać, że pewny jest jedynie pierwszy, zaś wszystkie pozostałe są tylko prawdopodobne - pisałem powyżej. - Niezależnie od tego, jak mocno ugruntowane wydaje się nam dane przewidywanie, nie jesteśmy nigdy bezwzględnie pewni, że doświadczenie nie okaże się z nim sprzeczne, gdy poddamy je weryfikacji. Prawdopodobieństwo wszakże często jest tak duże, że w praktyce możemy się nim zadowolić".

Nieco niżej dodałem:

"W tym celu rozpatrzmy, jaką rolę odgrywa w naszych uogólnieniach wiara w prostotę. Sprawdziliśmy pewne proste prawo w wielkiej liczbie przypadków szczególnych; wzdragamy się przypuścić, by zgodność ta, tyle razy powtórzona, była rzeczą czystego przypadku"...

Bardzo często się zdarza, że fizyk znajduje się w takim samym położeniu, co gracz, ważący swoje szanse. Ilekroć rozumuje za pomocą indukcji, tylekroć posługuje się, mniej lub bardziej świadomie, rachunkiem prawdopodobieństwa.

Dlatego muszę teraz otworzyć nawias i zawiesić analizę metody nauk fizycznych, by zbadać nieco bliżej, jaka jest wartość tego rachunku i na jakie zasługuje on zaufanie.

Sama nazwa rachunku prawdopodobieństwa jest paradoksem: prawdopodobieństwo, przeciwstawione pewności, oznacza, że czegoś nie wiemy, a jak można obliczać to, czego się nie zna? A przecież tylu wybitnych uczonych zajmowało się tym rachunkiem i niepodobna zaprzeczyć, że przyniosło to nauce wiele korzyści. Jak wytłumaczyć tę pozorną sprzeczność?

Czy prawdopodobieństwo zostało zdefiniowane? Czy w ogóle można je zdefiniować? Jeśli zaś nie, to jak może być przedmiotem rozumowania matematycznego? Definicja prawdopodobieństwa - ktoś mógłby powiedzieć - jest bardzo prosta: prawdopodobieństwa danego zdarzenia jest równe stosunkowi liczby przypadków, w których to zdarzenie zachodzi, do całkowitej liczby możliwych przypadków.

Wystarczy prosty przykład, żeby się przekonać, że definicja ta jest niekompletna. Rzucamy dwie kości. Jakie jest prawdopodobieństwo, że przynajmniej raz otrzymamy szóstkę? Każda kość może dać sześć różnych liczb: liczba możliwych przypadków wynosi 6 x 6 = 36. Liczba przypadków sprzyjających wynosi 11; prawdopodobieństw równa się przeto 11/36.

To rozwiązanie jest oczywiście poprawne, ale czy nie moglibyśmy równie dobrze rozumować następująco. Liczby, które dają kości, mogą tworzyć 6 x 7/2 = 21 kombinacji. Wśród tych kombinacji jest 6 sprzyjających, a zatem prawdopodobieństwo wynosi 6/21.

Dlaczego pierwszy sposób obliczania liczby przypadków możliwych jest poprawny, a drugi nie? Podana definicja nie dostarcza odpowiedzi na to pytanie.

Zmuszeni jesteśmy uzupełnić definicję w następujący sposób: "... do całkowitej liczby możliwych przypadków, o ile przypadki te są jednakowo prawdopodobne". W ten sposób jednak definiujemy prawdopodobieństwo przez prawdopodobieństwo.

Skąd możemy wiedzieć, że dwa przypadki możliwe są jednakowo prawdopodobne? Czy na mocy umowy? Jeśli przed rozwiązaniem każdego zagadnienia sformułujemy wyraźną umowę, to wszystko pójdzie dobrze - pozostanie nam tylko zastosować reguły arytmetyki i algebry, by przeprowadzić rachunki do końca i otrzymać wynik nie budzący żadnych wątpliwości. Jeśli jednak chcemy zastosować ten wynik, musimy udowodnić, że umowa nasza była uprawniona, a tym samym staniemy znowu w obliczu trudności, którą chcieliśmy ominąć.

Ktoś może powiedzieć, że w każdym konkretnym przypadku zdrowy rozsądek podpowiada, jaką umowę należy przyjąć. Niestety, tak nie jest. Bertrand wykazał to za pomocą następującego prostego przykładu. "Jakie jest prawdopodobieństwo, że poprowadzona w sposób losowy cięciwa okręgu jest dłuższa niż bok trójkąta równobocznego, wpisanego w dany okrąg?". Ten znakomity matematyk przyjął kolejno dwie umowy, które - jak się zdaje, z równą słusznością można uznać za zgodne ze wskazaniami zdrowego rozsądku i raz otrzymał wynik 1/2, a raz 1/3.*

* Znana jest jeszcze jedna, równie rozsądna umowa, która daje wynik 1/4 - P.A.

Z tego wszystkiego wydaje się wynikać, że rachunek prawdopodobieństwa jest nauką jałową i należy się odnosić z wielką nieufnością do owego niejasnego instynktu, który nazywamy zdrowym rozsądkiem i który miałby uprawniać nasze umowy.

Ale i na ten wniosek nie możemy przystać, gdyż bez tego niejasnego instynktu obejść się nie możemy; bez niego nauka byłaby niemożliwa, nie moglibyśmy ani odkryć żadnego prawa, ani go stosować. Czy wolno nam, na przykład, odrzucić prawo Newtona? Niewątpliwie liczne obserwacje są z nim zgodne, ale czy nie jest to tylko przypadek? Skąd zresztą wiemy, że prawo to, choć obowiązuje od tylu wieków, nie przestanie obowiązywać w roku przyszłym? Na takie zarzuty nie możemy odpowiedzieć inaczej, jak tylko, że jest to bardzo mało prawdopodobne.

Przyjmijmy zatem to prawo; sądzimy, że dzięki niemu możemy obliczyć położenie Jowisza za rok. Czy mamy prawo tak sądzić? Kto nam zaręczy, że w ciągu tego roku przez Układ Słoneczny nie przeleci z ogromną prędkością jakieś duże ciało niebieskie i nie spowoduje nieoczekiwanych zakłóceń? W tym przypadku również nie ma innej odpowiedzi, jak: "Jest to bardzo mało prawdopodobne".

Zgodnie z tym rozumowaniem, wszystkie nauki są tylko nieświadomymi zastosowaniami rachunku prawdopodobieństwa; wyrok skazujący, wydany na ten rachunek, byłby przeto wyrokiem na całą naukę.

Wspomnę tu tylko, dłużej się nad tym nie zatrzymując, o zagadnieniach naukowych, w których rola rachunku prawdopodobieństwa jest bardziej widoczna. Tak jest przede wszystkim w zagadnieniu interpolacji, gdy znając pewne wartości funkcji, staramy się odgadnąć wartości pośrednie. Wymienię tu również słynną teorię błędów pomiarów, do której powrócę poniżej; teorię kinetyczną gazów, w której zakłada się, że każda cząsteczka gazu porusza się po bardzo skomplikowanej drodze, ale na mocy prawa wielkich liczb wszystkie wielkości średnie, które możemy obserwować, podlegają prostym prawom Mariotte'a i Gay Lussaca.

Wszystkie te teorie opierają się na prawach wielkich liczb. Obalenie rachunku prawdopodobieństwa spowodowałoby również ich upadek. Przyznać wprawdzie należy, że wyłączają interpolację, są to ofiary, z którymi można byłoby się pogodzić.

Jednak, jak już powiedziałem, nie chodzi tu tylko o utratę szczególnych teorii; zagrożona byłaby prawowitość całej nauki.

Wiem wprawdzie, że można byłoby na to odpowiedzieć: "Tkwimy w nieświadomości, a jednak musimy działać. Aby działać, nie mamy czasu na badania, które rozproszyłyby naszą nieświadomość; zresztą to trwałoby w nieskończoność. Musimy zatem decydować nie dysponując pełną wiedzą; musimy to robić częściowo po omacku i postępować zgodnie z pewnymi regułami, w pełni w nie nie wierząc. Jeśli coś wiemy, to nie to, że dane to a to jest prawdą, lecz tylko to, że najlepiej dla nas będzie, jeżeli będziemy działali tak, jakby tak było naprawdę". Rachunek prawdopodobieństwa, a wraz z nim cała nauka, miałyby jedynie wartość praktyczną.

Na nieszczęście w ten sposób nie można wyeliminować trudności: przypuśćmy, że pewien gracz chce zaryzykować stawkę i prosi nas o radę. Jeśli mu jej udzielimy, oprzemy się na rachunku prawdopodobieństwa, lecz nie zagwarantujemy mu powodzenia. Mamy tu przykład tego, co nazwałbym prawdopodobieństwem subiektywnym. W tym przypadku można byłoby się zadowolić wytłumaczeniem naszkicowanym powyżej. Przypuśćmy jednak, że ktoś obserwuje grę, notuje wszystkie kolejne wyniki, a gra trwa bardzo długo; gdy zrobi on bilans swoich notatek, stwierdzi, że rozkład wyników jest zgodny z prawami rachunku prawdopodobieństwa. Tu mamy do czynienia z tym, co nazwałbym prawdopodobieństwem obiektywnym, i właśnie to zjawisko wymaga wyjaśnienia.

Istnieją liczne towarzystwa asekuracyjne, postępujące zgodnie z rachunkiem prawdopodobieństwa i przynoszące akcjonariuszom dywidendy, których obiektywnej rzeczywistości nikt nie kwestionuje. W celu ich wyjaśnienia nie wystarczy odwołać się do nieświadomości połączonej z koniecznością działania.

Widzimy zatem, że zupełny sceptycyzm jest nieuzasadniony; powinniśmy żywić pewną nieufność do rachunku prawdopodobieństwa, lecz nie możemy go potępiać w czambuł. Konieczna jest tu dokładniejsza analiza.

I. Klasyfikacja zagadnień o prawdopodobieństwach. - Przy klasyfikowaniu zagadnień dotyczących prawdopodobieństwa, można rozpatrywać je z kilku różnych punktów widzenia, a przede wszystkim z punktu widzenia ogólności. Powiedziałem już, że prawdopodobieństwo to stosunek liczby przypadków sprzyjających do całkowitej liczby przypadków możliwych. To, co z braku lepszego terminu nazywam "ogólnością", rośnie wraz z liczbą przypadków możliwych. Liczba ta może być skończona, na przykład gdy rzucamy dwiema kośćmi - wtedy wynosi 36. To stanowi pierwszy stopień ogólności.

Gdy natomiast pytamy, na przykład, jakie jest prawdopodobieństwo, by punkt leżący wewnątrz koła, znajdował się zarazem wewnątrz kwadratu wpisanego w koło, to mamy tyle przypadków możliwych, ile jest punktów w kole, czyli nieskończenie wiele. Jest to drugi stopień ogólności. Ale ogólność może być jeszcze większa: zadajmy sobie pytanie, jakie jest prawdopodobieństwo, że pewna funkcja spełnia podany warunek: mamy wówczas tyle przypadków możliwych, ile można wymyślić rozmaitych funkcji. Jest to trzeci stopień ogólności, z którym mamy do czynienia, gdy na przykład chcemy odgadnąć najbardziej prawdopodobne prawo na podstawie skończonej liczby obserwacji.

Można również rozpatrywać zagadnienia dotyczące prawdopodobieństwa z zupełnie innego punktu widzenia. Gdybyśmy nie nasza niewiedza, nie byłoby żadnych prawdopodobieństw - mielibyśmy do czynienia jedynie z pewnością. Niewiedza nie jest jednak zupełna, bo w takim razie nie byłoby również prawdopodobieństw; trzeba choć trochę światła, by zdobyć tę niepewną wiedzę. W ten sposób zagadnienia dotyczące prawdopodobieństwa można klasyfikować według mniejszego lub większego stopnia naszej niewiedzy.

Nawet w matematyce można rozważać zagadnienia związane z prawdopodobieństwem. Jakie jest prawdopodobieństwo, że piąta cyfra dziesiętna logarytmu, wziętego na chybił trafił z tablicy, jest równa 9? Każdy odpowie bez wahania, że prawdopodobieństwo to wynosi 1/10. W danym przypadku jesteśmy w posiadaniu wszystkich danych; umielibyśmy obliczyć logarytm nie korzystając z tablic, ale nie chcemy zadać sobie tego trudu. Jest to pierwszy stopień niewiedzy.

W naukach fizycznych niewiedza jest już większa. Stan układu w danej chwili zależy od stanu początkowego i od prawa, rządzącego jego ewolucją. Gdybyśmy znali stan początkowy i to prawo, pozostałoby nam jedynie rozwiązanie pewnego problemu matematycznego; mielibyśmy zatem znowu pierwszy stopień niewiedzy.

Zdarza się jednak często, że znamy prawo, ale nie znamy stanu początkowego. Weźmy na przykład pytanie, jaki jest obecny rozkład planetoid; wiemy, że zawsze zachowywały się zgodnie z prawami Keplera, ale nie wiemy, jaki był ich rozkład początkowy.

W teorii kinetycznej gazów zakłada się, że cząsteczki gazu poruszają się po torach prostych i zderzają się sprężyście, ponieważ jednak nie wiemy nic o ich prędkościach początkowych, to również nie wiemy nic o ich prędkościach obecnych.

Jedynie rachunek prawdopodobieństwa pozwala na przewidywanie wielkości średnich, wynikających z kombinacji tych prędkości. Jest to drugi stopień niewiedzy.

Zdarzyć się może wreszcie, że nie znamy ani warunków początkowych, ani praw ewolucji układu; wpadamy wtedy w trzeci stopień niewiedzy i wówczas na ogół nie możemy nic powiedzieć o prawdopodobieństwie danego zjawiska.

Zdarza się często, że zamiast przewidywania jakiegoś faktu na podstawie mniej lub bardziej niedoskonałej znajomości prawa, które nim rządzi, znamy właśnie fakty i usiłujemy odgadnąć prawo; zamiast wyprowadzanie skutków z przyczyn, chcemy wyprowadzić przyczyny ze skutków. Są to tak zwane zagadnienia o prawdopodobieństwie przyczyn, najbardziej interesujące ze względu na znaczenie w nauce.

Gram w écarté z człowiekiem, o którym wiem, że jest zupełnie uczciwy; na niego kolej - jakie jest prawdopodobieństwo, że odwróci króla? Wynosi ono 1/8; jest to zagadnienie o prawdopodobieństwie skutków. Gram z panem, którego nie znam; na 10 razy, 6 razy odwrócił króla; jakie jest prawdopodobieństwo, że pan ten jest szulerem? Jest to zagadnienie o prawdopodobieństwie przyczyn.

Można powiedzieć, że to właśnie jest zasadnicze zagadnienie metody doświadczalnej. Zaobserwowaliśmy n wartości x i odpowiadające im wartości y. Stwierdziliśmy, że stosunek y do x jest w przybliżeniu stały. Oto fakt: jaka jest tego przyczyna?

Czy jest prawdopodobne, że istnieje ogólne prawo, zgodnie z którym y jest proporcjonalne do x, a przyczyną drobnych odchyleń są błędy pomiarów? Tego typu pytania ustawicznie stawiamy i nieświadomie rozwiązujemy, gdy analizujemy w sposób naukowy dane doświadczalne.

Dokonamy teraz przeglądu rozmaitych kategorii zagadnień, biorąc kolejno pod uwagę opisane powyżej prawdopodobieństwo subiektywne i prawdopodobieństwo obiektywne.

II. Prawdopodobieństwo w naukach matematycznych. - Niemożliwość kwadratury koła została dowiedziona w roku 1883, ale na długo przed tą stosunkowo świeżą datą matematycy uważali tę niemożliwość za tak "prawdopodobną", że paryska Akademia Nauk odrzucała bez rozpatrzenia zbyt liczne, niestety, rozprawy, które nadsyłali jej na ten temat rozmaici nieszczęśliwi obłąkańcy.

Czy Akademia nie miała racji? Oczywiście, że tak, i wiedziała ona dobrze, że postępując w ten sposób nie ryzykuje bynajmniej, że pominie ważne odkrycie. Nie mogłaby dowieść, że miała słuszność, ale wiedziała dobrze, że instynkt jej nie zwodzi. Gdybyście zapytali o to członków Akademii, odpowiedzieliby wam następująco: "Porównaliśmy prawdopodobieństwo, że nieznany badacz odkrył coś, czego szuka się na próżno od tylu wieków, z prawdopodobieństwem, że zjawił się jeszcze jeden obłąkany na kuli ziemskiej i to drugie wydało się nam wyraźnie większe". To oczywiście bardzo dobry argument, ale nie ma w nim nic matematycznego - jest to argument czysto psychologiczny.

Gdybyście pytali bardziej natarczywie, dodaliby jeszcze jeden argument: "Dlaczego pewna wartość szczególna pewnej funkcji przestępnej ma być liczbą algebraiczną? Gdyby 0x01 graphic
było pierwiastkiem pewnego równania algebraicznego, to dlaczego pierwiastek ten miałby być równy okresowi funkcji sin(2x) i dlaczego nie miałyby mieć tej właściwości również wszystkie inne pierwiastki tego równania?". Inaczej mówiąc, powołaliby się na zasadę racji dostatecznej w jej najbardziej mglistej postaci.

Cóż jednak mogli stąd wywnioskować? Co najwyżej mogli zadecydować, jak korzystać ze swego czasu, który pożytecznie było przeznaczyć na zwykłą pracę, niż na czytanie wypocin, budzących uzasadnioną nieufność. Lecz to, co nazwaliśmy prawdopodobieństwem obiektywnym, nie ma nic wspólnego z tym pierwszym zagadnieniem.

Inaczej rzecz się ma z drugim zagadnieniem.

Rozważmy 10 000 pierwszych logarytmów w danej tablicy. Wybierzmy w sposób losowy jeden z nich: jakie jest prawdopodobieństwo, że trzecia cyfra w jego rozwinięciu dziesiętnym jest parzysta? Odpowiecie bez wahania, że prawdopodobieństwo to wynosi 1/2 i rzeczywiście, jeśli zbadacie w tablicy trzecie cyfry dziesiętne tych 10 000 liczb, znajdziecie mniej więcej tyle samo parzystych, co nieparzystych.

Jeśli ktoś woli, można wypisać 10 000 liczb odpowiadających wartościom logarytmów, tak że każdemu logarytmowi, którego trzecia cyfra dziesiętna jest parzysta, odpowiada liczba +1, a w przeciwnym razie -1. Teraz możemy obliczyć wartość średnią tych liczb.

Nie zawahałbym się powiedzieć, że przeciętna z tych 10 000 liczb jest prawdopodobnie dokładnie równa zeru. Gdybym rzeczywiście ją obliczył, okazałoby się, że jest bardzo mała.

Próba ta byłaby nawet zbyteczna. Mógłbym ściśle dowieść, że średnia ta jest mniejsza od 0,003. Dowód ten wymaga bardzo długich obliczeń, których nie mogę tutaj przytaczać; ale można je znaleźć w moim artykule, zamieszczonym w "Revue générale des Sciences" z 15 kwietnia 1899 roku. Muszę tu zwrócić uwagę tylko na jeden istotny punkt: w obliczeniach tych oparłem się wyłącznie na dwóch faktach, a mianowicie na tym, że pierwsza i druga pochodna logarytmu, dla liczb z rozważanego przedziału, są zawarte między pewnymi granicami.

Z tego od razu wypływa wniosek, że własność powyższą ma nie tylko logarytm, ale każda funkcja ciągła, gdyż pochodne dowolnej funkcji ciągłej są ograniczone.

Jeśli z góry byłem pewny tego wyniku, to przede wszystkim dlatego, że w głębszych pokładach mego umysłu przeprowadziłem w sposób mniej lub bardziej nieświadomy i niedoskonały to rozumowanie, które doprowadziło mnie do wspomnianych nierówności, podobnie jak wytrawny rachmistrz, nim jeszcze wykona mnożenie, zdaje sobie sprawę, że "wyniesie to mniej więcej tyle a tyle".

Zresztą to, co nazwałem moją intuicją, było po prostu niepełnym szkicem prawdziwego dowodu, co wyjaśnia, dlaczego obserwacja potwierdziła nasze przewidywania, a prawdopodobieństwo obiektywne okazało się zgodne z prawdopodobieństwem subiektywnym.

Jako trzeci przykład wybierzemy zagadnienie następujące. Niech u będzie liczbą losową, n daną, bardzo dużą liczbą całkowitą; jaka jest prawdopodobna wartość sin(nu)? Zagadnienie to samo przez się nie jest dobrze postawione. Żeby mu nadać sens, trzeba zrobić umowę: umówimy się, że prawdopodobieństwo, by liczba u była zawarta między a i a + da równe jest 0x01 graphic
(a)da, to znaczy jest proporcjonalne do szerokości nieskończenie małego przedziału da, pomnożonej przez funkcję 0x01 graphic
(a), która zależy jedynie od a. Funkcję tę można wybrać dowolnie, byle była ciągła. Ponieważ wartość sin(nu) nie zmienia się, gdy u wzrasta o 20x01 graphic
, możemy, nie ograniczając ogólności, założyć, że u należy do przedziału od 0 do 20x01 graphic
, co prowadzi do założenia, że 0x01 graphic
(a) jest funkcją okresową o okresie 20x01 graphic
.

Szukaną prawdopodobną wartość można teraz bez trudu wyrazić w postaci prostej całki i wykazać, że całka ta jest mniejsza niż

20x01 graphic
Mk/nk

gdzie Mk oznacza maksymalną wartość k-tej pochodnej 0x01 graphic
(u). Widzimy zatem, że jeśli pochodna rzędu k jest skończona, to nasza wartość prawdopodobna zdążać będzie do zera wraz ze wzrostem n, i to szybciej niż 1/nk-1.

Wartość prawdopodobna sin(nu) dla bardzo dużej liczby n jest zatem równa zeru. By wyznaczyć tę wartość, potrzebowaliśmy pewnej umowy, lecz wynik się nie zmienia, niezależnie od tego, jaką przyjęliśmy umowę. Narzuciliśmy sobie nieznaczne ograniczenia, zakładając, że funkcja 0x01 graphic
(a) jest ciągła i okresowa, ale założenia te są tak naturalne, że trudno ich uniknąć.

Analiza tych trzech przykładów, tak różnych pod każdym względem, pozwoliła nam domyślić się, z jednej strony, jaka jest rola zasady, zwanej przez filozofów zasadą racji dostatecznej, z drugiej zaś strony - jakie znaczenie ma to, że wszystkie funkcje ciągłe mają pewne własności wspólne. Analiza prawdopodobieństwa w naukach fizycznych doprowadzi nas do tego samego wyniku.

III. - Prawdopodobieństwo w naukach fizycznych. - Przystąpmy teraz do zagadnień związanych z, jak to nazwaliśmy, drugim stopniem niewiedzy, czyli takich, w których znamy prawo, lecz nie znamy stanu początkowego układu. Moglibyśmy tu mnożyć przykłady, ale weźmy tylko jeden: jaki jest prawdopodobny rozkład planetoid na pasie zodiakalnym?

Wiemy, że planetoidy zachowują się zgodnie z prawami Keplera; możemy nawet, nie zmieniając w niczym natury zagadnienia, przyjąć, że wszystkie planetoidy poruszają się po okręgach leżących w jednej płaszczyźnie i że wiemy o tym. Nie wiemy natomiast, jakie było ich rozmieszczenie początkowe. Pomimo to nie wahamy się twierdzić, że obecnie rozmieszczenie to jest jednostajne. Dlaczego?

Niech b oznacza długość jednej z planetoid w chwili początkowej, czyli w chwili zero; niech a oznacza jej średnią prędkość. Długość planety w chwili obecnej t wynosi zatem at + b. Gdy mówimy, że rozkład obecny jest jednostajny, oznacza to, że wartość średnia sinusa i cosinusa at + b jest równa zeru. Dlaczego tak twierdzimy?

Wyobraźmy sobie każdą planetoidę jako punkt na płaszczyźnie, którego współrzędnymi są liczby a i b. Wszystkie punkty leżą w pewnym obszarze płaszczyzny, a że są bardzo liczne, obszar ten wygląda, jakby był usiany punktami. Nie wiemy nic o rozmieszczeniu tych punktów.

Jak można zastosować rachunek prawdopodobieństwa do tego zagadnienia? Jakie jest prawdopodobieństwo, by jeden lub kilka z tych punktów znajdował się w określonej części płaszczyzny? Wobec naszej niewiedzy, zmuszeni jesteśmy uciec się do jakiegoś dowolnego założenia. Aby wytłumaczyć istotę tego założenia, zamiast wzoru matematycznego skorzystamy z obrazu przybliżonego, lecz konkretnego. Wyobraźmy sobie, że pokryliśmy naszą płaszczyznę warstwą materii o zmiennej gęstości, zmieniającej się w sposób ciągły. Umówimy się wówczas, że prawdopodobną ilość punktów na danej części płaszczyzny będziemy uważali za proporcjonalną do ilości fikcyjnej materii, która ją pokrywa. Jeśli zatem weźmiemy dwa obszary płaszczyzny o jednakowej rozciągłości, prawdopodobieństwo, by punkt reprezentujący jedną z planetoid znajdował się w jednym lub w drugim z tych obszarów, mają się do siebie jak gęstości średnie fikcyjnej materii w jednym lub w drugim obszarze.

Mamy zatem dwa rozkłady, jeden rzeczywisty, w którym punkty są bardzo liczne, bardzo gęsto rozłożone, lecz oddzielne, podobnie jak cząsteczki materii według hipotezy atomistycznej; drugi daleki od rzeczywistości, w którym zamiast punktów reprezentujących planetoidy mamy fikcyjną, ciągłą materię. Wiemy, że ten drugi rozkład nie może być rzeczywisty, ale nasza niewiedza skazuje nas na jego przyjęcie.

Gdybyśmy jeszcze mieli pojęcie o rzeczywistym rozkładzie punktów, moglibyśmy urządzić się tak, by na obszarze o pewnej rozciągłości gęstość tej fikcyjnej materii była w przybliżeniu proporcjonalna do liczby punktów albo, jeśli kto woli, atomów, zawartych w tym obszarze. Lecz nawet to nie jest możliwe i niewiedza nasza jest tak wielka, że zmuszeni jesteśmy wybrać dowolnie funkcję określającą gęstość naszej fikcyjnej materii. Musimy przyjąć tylko jedno nieuniknione ograniczenie: założymy, że funkcja ta jest ciągła. Jak się przekonamy, to wystarczy, aby dojść do określonego wniosku.

Jaki jest prawdopodobny rozkład planetoid w chwili t? Inaczej mówiąc, jaka jest prawdopodobna wartość sinusa długości w chwili t, to znaczy sin(at + b)? Zrobiliśmy na początku pewną dowolną umowę, lecz skoro się na nią zgodziliśmy, to wartość prawdopodobna jest już jednoznacznie określona. Rozłóżmy płaszczyznę na elementy powierzchni. Rozważmy wartość sin(at + b) w punkcie środkowym każdego elementu; pomnóżmy tę wartość przez powierzchnię elementu i przez odpowiadającą mu gęstość materii fikcyjnej; weźmy następnie sumę iloczynów odpowiadających wszystkim elementom płaszczyzny. Z definicji, suma ta jest równa średniej wartości, która tym samym ma postać pewnej całki podwójnej.

Wydawać by się mogło, że ta wartość średnia zależy od wyboru funkcji 0x01 graphic
określającej gęstość fikcyjnej materii, a skoro funkcja ta jest dowolna, to możemy otrzymać dowolną wartość średnią, zależnie od wyboru funkcji. Pogląd ten byłby zupełnie błędny.

Z prostych obliczeń wynika, że całka podwójna maleje bardzo szybko w miarę jak rośnie t.

Choć nie wiedzieliśmy, jakie przyjąć założenie co do prawdopodobieństwa takiego, czy innego rozkładu początkowego, okazało się, że niezależnie od tego założenia, zawsze dostajemy tak sam wynik, co wybawia nas z kłopotu.

Niezależnie od tego, jaką wybierzemy funkcję 0x01 graphic
, wartość średnia dąży do zera w miarę wzrostu t, a ponieważ planetoidy niewątpliwie okrążyły już Słońce bardzo wiele razy, to możemy twierdzić, że wartość średnia jest już bardzo mała.

Możemy wybrać 0x01 graphic
jaką tylko chcemy, byle spełnione było jedno ograniczenie: funkcja ta musi być ciągła. Z punktu widzenia prawdopodobieństwa subiektywnego wybór funkcji nieciągłej byłby nierozsądny; z jakiego bowiem powodu mielibyśmy przypuszczać, że na przykład długość początkowa była równa dokładnie 0o, a nie była zawarta w przedziale od 0o do 1o?

Trudność ta zjawia się jednak znowu, gdy przechodzimy do rozpatrzenia prawdopodobieństwa obiektywnego, gdy przechodzimy od rozkładu urojonego, w którym założyliśmy, że fikcyjna materia jest ciągła, do rozkładu rzeczywistego, w którym punkty reprezentujące planetoidy tworzą jakby odizolowane atomy.

Wartość średnia sin(at + b) jest równa

0x01 graphic
sin (at + b)/n,

gdzie n oznacza liczbę planetoid. Zamiast całki podwójnej z funkcji ciągłej, mamy teraz sumę oddzielnych wyrazów, ale mimo to nikt nie wątpi na serio, że wartość średnia jest bardzo mała.

Jest tak, dlatego, że punkty reprezentujące planetoidy są rozmieszczone bardzo gęsto na płaszczyźnie, a zatem suma oddzielnych wyrazów na ogół niewiele się różni od całki.

Całka jest granicą, do której dąży suma wyrazów, gdy liczba tych wyrazów rośnie nieograniczenie. Skoro wyrazy są bardzo liczne, suma różni się bardzo niewiele od tej granicy, czyli od całki, a zatem to, co powiedzieliśmy od całce, dotyczy również sumy.

Istnieją jednak przypadki wyjątkowe. Gdyby, na przykład, dla wszystkich planetoid obowiązywała równość

b = 0x01 graphic
/2 - at,

to wszystkie planety w chwili t miałyby długość 0x01 graphic
/2 i wartość średnia byłaby oczywiście równa 1. Tak byłoby wtedy, gdyby w chwili początkowej wszystkie planetoidy były rozmieszczone na pewnej linii wężowej o bardzo ciasnych zwojach. Każdy uzna, że taki rozkład początkowy jest bardzo mało prawdopodobny (a gdyby nawet tak było rzeczywiście, to rozkład planetoid nie byłby jednostajny w chwili obecnej, na przykład 1 stycznia 1900 roku, ale stałby się jednostajny już kilka lat później).

Odwołamy się i tutaj do zasady racji dostatecznej, do której zawsze wypada nam powracać. Moglibyśmy przyjąć, że początkowo planetoidy były rozmieszczone w przybliżeniu na linii prostej; moglibyśmy również przyjąć, że były rozmieszczone nieregularnie, ale zdaje się, że nie ma dostatecznych racji po temu, by nieznana przyczyna, dzięki której powstały, sprawiła również, że wszystkie leżą na krzywej tak regularnej, a zarazem tak złożonej, by obecny rozkład planetoid nie był jednostajny.

IV. Rouge et noir. Zagadnienia związane z grami hazardowymi, jak ruletka, są w gruncie rzeczy zupełnie analogiczne do powyższych.

Weźmy na przykład okrągłą tarczę, podzieloną na bardzo dużo równych segmentów, pomalowanych na przemian na czerwono i czarno. Strzałka obracająca się na osi umocowanej w środku tarczy, po wykonaniu wielu obrotów, zatrzymuje się przed jednym z segmentów. Prawdopodobieństwo, że segment ten jest czerwony, wynosi oczywiście 1/2.

Strzałka obraca się o kąt 0x01 graphic
, większy od pewnej wielokrotności kąta pełnego; nie wiemy, jakie jest prawdopodobieństwo, że siła, z jaką puszczona została strzałka, jest taka, że kąt ten będzie zawarty między 0x01 graphic
i 0x01 graphic
+ d0x01 graphic
; możemy jednak przyjąć pewną umowę; możemy założyć, że prawdopodobieństwo to wynosi 0x01 graphic
(0x01 graphic
)d0x01 graphic
; funkcję 0x01 graphic
(0x01 graphic
) możemy wybrać w sposób zupełnie dowolny, naturalne jest jednak założenie, że funkcja ta jest ciągła.

Niech 0x01 graphic
oznacza długość każdego segmentu (liczoną na okręgu o promieniu jednostkowym). Mamy obliczyć całkę 0x01 graphic
(0x01 graphic
)d0x01 graphic
, oddzielnie po segmentach czerwonych i czarnych, a następnie porównać wyniki. Rozważmy przedział o długości 20x01 graphic
, złożony z jednego segmentu czarnego i jednego czerwonego. Niech M i m będą najmniejszą i największą wartością funkcji 0x01 graphic
(0x01 graphic
) w tym przedziale. Całka po segmentach czerwonych jest mniejsza niż 0x01 graphic
M0x01 graphic
, całka po wszystkich segmentach czarnych będzie większa niż 0x01 graphic
m0x01 graphic
; różnica będzie zatem mniejsza niż 0x01 graphic
(M-m). Jeśli funkcja 0x01 graphic
jest ciągła, a przedział 0x01 graphic
bardzo mały w stosunku do całkowitego kąta obrotu strzałki, to różnica M - m będzie bardzo mała i prawdopodobieństwo będzie bliskie 1/2.

Rozumiemy przez to, że nie wiedząc nic o funkcji 0x01 graphic
, musimy postępować tak, jak gdyby prawdopodobieństwo było równe 1/2. Z drugiej strony, stojąc na gruncie prawdopodobieństwa obiektywnego, rozumiemy również, dlaczego jeśli zaobserwujemy pewną liczbę rzutów, zarejestrujemy w przybliżeniu tyle samo rzutów czarnych, co czerwonych.

Wszyscy gracze znają to obiektywne prawo; popełniają jednak na jego podstawie osobliwy błąd, który nie daje się wyplenić, mimo że wiele razy zwracano już na niego uwagę. Gdy na przykład sześć razy pod rząd wypadło czerwone, stawiają oni na czarne i sądzą, że grają niemal na pewniaka, albowiem - mówią - bardzo rzadko się trafia, by czerwone wyszło siedem razy z rzędu.

W rzeczywistości prawdopodobieństwo wygranej zawsze pozostaje równe 1/2. Z obserwacji wprawdzie wynika, że seria siedmiu kolejnych czerwonych zdarza się bardzo rzadko, ale seria sześciu czerwonych i jednego czarnego zdarza się dokładnie tak samo często. Gracze zauważyli, że seria siedmiu czerwonych jest bardzo rzadka, natomiast nie zwrócili uwagi, że seria sześciu czerwonych i jednego czarnego jest równie rzadka, gdyż serie takie mniej zwracają na siebie uwagę.

V. Prawdopodobieństwo przyczyn. - Dochodzimy teraz do zagadnień dotyczących prawdopodobieństwa przyczyn, najważniejszych z uwagi na zastosowania naukowe. Na przykład, dwie gwiazdy są bardzo blisko siebie na kuli niebieskiej; czy pozorne to zbliżenie jest wynikiem prostego przypadku i czy gwiazdy te, choć leżą na niemal tej samej linii widzenia, znajdują się w różnych odległościach od Ziemi, a przeto są również bardzo oddalone od siebie? Czy też niewielka odległość na kuli niebieskiej odpowiada rzeczywiście niewielkiej odległości? Mamy tu zagadnienie o prawdopodobieństwie przyczyn.

Przypomnijmy sobie przede wszystkim, że na początku każdego zagadnienia o prawdopodobieństwie skutków z pośród tych, które rozpatrywaliśmy wyżej, zmuszeni byliśmy sformułować pewną umowę, mniej lub bardziej usprawiedliwioną. I jeśli wynik był najczęściej niezależny od tej umowy, przynajmniej w pewnej mierze, to działo się tak z uwagi na pewne założenia, pozwalające a priori odrzucać funkcje nieciągłe lub jakieś dziwaczne umowy.

Podobne kwestie powstają gdy rozważamy zagadnienia o prawdopodobieństwie przyczyn. Dany skutek może być wywołany przez przyczynę A lub przez przyczynę B. Jeśli go zaobserwowaliśmy, to jakie jest prawdopodobieństwo, że jego przyczyną było A? Chodzi tu o prawdopodobieństwo przyczyny a posteriori. Nie moglibyśmy go obliczyć, gdybyśmy nie przyjęli z góry pewnej mniej lub bardziej uzasadnionej umowy, jakie jest prawdopodobieństwo a priori, że przyczyna A wejdzie w grę, to znaczy prawdopodobieństwo takiego zdarzenia dla kogoś, kto nie obserwował danego skutku.

Aby lepiej wyjaśnić, o co tu chodzi, powróćmy do przytoczonego powyżej przykładu gry écarté; przeciwnik nasz daje po raz pierwszy i odwraca króla; jakie jest prawdopodobieństwo, że to szuler? Wzory, zaczerpnięte ze zwykłych wykładów rachunku prawdopodobieństwa, dają 8/9, co jest oczywiście wynikiem zaskakującym. Dokładniejsze zbadanie tych wzorów wskazuje jednak, że w takich rachunkach zakłada się milcząco, że zanim usiedliśmy do gry, uważaliśmy, że prawdopodobieństwo tego, że przeciwnik nie jest uczciwy, wynosi 1/2. Takie założenie jest niedorzeczne, gdyż w takim razie na pewno byśmy z nim nie grali, co tłumaczy również niedorzeczność wniosku.

Taka umowa o prawdopodobieństwie a priori była nieuzasadniona, dlatego też rachunek prawdopodobieństwa a posteriori doprowadził do błędnego wniosku. Rozumiemy zatem znacznie owej umowy wstępnej; dodałbym nawet, że gdybyśmy takiej umowy nie zawarli, zagadnienie prawdopodobieństwa a posteriori nie miałoby żadnego sensu; zawsze musimy ją przyjmować, albo jawnie, albo domyślnie.

Przejdźmy teraz do przykładu o charakterze bardziej naukowym. Chcemy ustalić pewne prawdo doświadczalne; prawo to, gdy je poznamy, można będzie przedstawić za pomocą pewnej krzywej. Wykonaliśmy pewną liczbę pomiarów, którym odpowiadają punkty na wykresie. Po otrzymaniu tych punktów, staramy się poprowadzić między nimi krzywą, tak aby jak najmniej się od nich oddalić, a jednak nadać tej krzywej regularny kształt, bez załamań, bez wyraźnych przegięć, bez raptownych zmian promienia krzywizny. Krzywa ta przedstawiać będzie prawdopodobne prawo; przypuszczamy, że da nam nie tylko wartości funkcji między punktami pomiarowymi, ale również pozwoli poznać wartości zaobserwowane dokładniej niż bezpośrednia obserwacja (właśnie dlatego wymagamy, by krzywa przechodziła w pobliżu punktów doświadczalnych, nie zaś dokładnie przez wszystkie punkty).

Jest to zagadnienie prawdopodobieństwa przyczyn. Skutki - to wykonane pomiary; zależą one od kombinacji dwóch przyczyn: od prawdziwego prawa, rządzącego danym zjawiskiem i od błędów pomiarów. Chodzi o to, żeby znając skutki, obliczyć prawdopodobieństwo, że zjawisko przebiega zgodnie z danym prawem i że pomiary były obciążone takimi a takimi błędami. Najbardziej prawdopodobne prawo odpowiada wówczas nakreślonej krzywej, a najbardziej prawdopodobny błąd jednego pomiaru wyraża odległość między danym punktem a krzywą.

Zagadnienie to nie miałoby sensu, gdybyśmy przed wykonaniem pomiarów nie mieli pewnego pojęcia a priori o prawdopodobieństwie tego lub innego prawa oraz nie potrafili ocenić prawdopodobnych błędów pomiarów.

Jeśli nasze przyrządy pomiarowe są wysokiej jakości (co wiedzieliśmy, zanim wykonaliśmy pomiary), nie pozwolimy naszej krzywej oddalać się znacznie od punktów przedstawiających surowe wyniki pomiarów. Jeśli przyrządy są kiepskie, możemy oddalić się od nich nieco bardziej, aby otrzymać mniej powykrzywianą krzywą; poświęcamy wtedy więcej by uzyskać regularny przebieg krzywej.

Czemu staramy się nakreślić krzywą bez wielu zgięć? Dlatego, że uznajemy a priori prawo, przedstawione przez funkcję ciągłą (lub przez funkcję, której pochodne wysokiego rzędu są bardzo małe) za bardziej prawdopodobne niż prawo, które nie spełnia tych warunków. Bez tego założenia omawiane zagadnienie nie miałoby sensu, interpolacja nie byłaby możliwa, niepodobna byłoby wyprowadzić żadnego prawa na podstawie skończonej liczby pomiarów; nauka nie istniałaby.

Pięćdziesiąt lat temu fizycy uważali, że prawo proste, o ile wszystkie pozostałe okoliczności są jednakowe, jest bardziej prawdopodobne niż prawo skomplikowane. Odwoływali się nawet do tej zasady by bronić prawa Mariotte'a wbrew doświadczeniom Regnaulta. Dzisiaj wyrzekli się już tej wiary; jakże często zmuszeni są jednak postępować tak, jakby ją zachowali! Z tej tendencji pozostała wiara w ciągłość; jak widzieliśmy powyżej, gdyby i jej przyszło się wyrzec, nauka doświadczalna byłaby niemożliwa.

VI. Teoria błędów. - To prowadzi nas do analizy teorii błędów, związanej bezpośrednio z zagadnieniem prawdopodobieństwa przyczyn. I tutaj stwierdzamy skutki, mianowicie pewną liczbę rozbieżnych obserwacji i staramy się odgadnąć przyczyny, którymi są, z jednej strony, prawdziwa wartość mierzonej wielkości, a z drugiej - błąd każdego pojedynczego pomiaru. Trzeba obliczyć, jaka jest a posteriori wielkość prawdopodobna każdego błędu, a tym samym również prawdopodobna wartość mierzonej wielkości.

Zgodnie z powyższymi wyjaśnieniami, niepodobna przeprowadzić tych obliczeń, nie przyjmując a priori, to znaczy przed wszystkimi pomiarami, pewnego prawa rządzącego prawdopodobieństwem błędów. Czy istnieje prawo błędów?

Prawem błędów, przyjmowanym we wszystkich takich obliczeniach, jest prawo Gaussa, które opisuje pewna krzywa przestępna, znana jako krzywa dzwonowa.

Przypomnijmy sobie przede wszystkim klasyczne rozróżnienie błędów systematycznych i przypadkowych. Jeśli mierzymy pewną długość zbyt długim metrem, zawsze otrzymamy zbyt mały wynik i kilkakrotne powtórzenie pomiaru nic tu nie pomoże; jest to błąd systematyczny. Jeśli mierzymy metrem dokładnym, możemy się również pomylić, ale gdy powtarzamy ten sam pomiar wiele razy, mylimy się raz w jedną stronę, raz w drugą, a zatem po uśrednieniu błąd będzie dążył do zera. Są to błędy przypadkowe.

Błędy systematyczne nie podlegają oczywiście prawu Gaussa, ale jak wygląda sytuacja z błędami przypadkowymi? Podjęto wiele prób dowiedzenia tego prawa; niemal wszystkie są pospolitymi paralogizmami. Można wszakże udowodnić prawo Gaussa, przyjmując następujące założenia: popełniony błąd jest przypadkowy jest sumą bardzo wielu błędów cząstkowych i niezależnych, każdy błąd cząstkowy jest mały i podlega pewnemu prawu prawdopodobieństwa, o którym wiemy tylko, że prawdopodobieństwo błędu dodatniego jest takie samo, jak błędu równego co do wartości bezwzględnej, lecz o przeciwnym znaku. Warunki te są spełnione często, lecz nie zawsze; nazwę błędów przypadkowych zachowamy dla tych, które czynią im zadość.

Widzimy zatem, że metoda najmniejszych kwadratów nie zawsze jest poprawna; na ogół fizycy odnoszą się do niej z większą nieufnością niż astronomowie. Związane jest to zapewne z tym, że ci ostatni, prócz błędów systematycznych, które napotykają równie często jak fizycy, muszą walczyć z pewną przyczyną błędów niezmiernie ważną, a zupełnie przypadkową: mam na myśli zaburzenia atmosferyczne. Ciekawie jest słuchać, jak jakiś fizyk dyskutuje z astronomem na temat pewnej metody obserwacyjnej; fizyk, przeświadczony, że jeden dobry pomiar więcej jest wart od wielu złych, skupia uwagę na wyeliminowaniu wszelkich możliwych błędów systematycznych, na co astronom powiada: "Ależ w ten sposób będziecie mogli obserwować tylko niewiele gwiazd, błędy przypadkowe przez to nie znikną".

Jaki powinniśmy z tego wyciągnąć wniosek? Czy należy nadal stosować metodę najmniejszych kwadratów? Trzeba tu uczynić pewne rozróżnienie: wyrugowaliśmy wszystkie błędy systematyczne, których istnienie podejrzewaliśmy, ale wiemy dobrze, że jakieś jeszcze pozostały, lecz nie potrafimy ich wykryć. Musimy na coś się zdecydować i przyjąć jakąś wartość ostateczną, którą będziemy uważali za wartość prawdopodobną; oczywiste jest, że najlepsze, co mamy wówczas do zrobienia, to zastosowanie metody Gaussa. Stosujemy tu regułą praktyczną, dotyczącą prawdopodobieństwa subiektywnego. Nie da się temu nic zarzucić.

Niektórzy chcą iść dalej i twierdzą, że nie tylko wartość prawdopodobna wynosi tyle a tyle, ale nadto prawdopodobny błąd w stosunku do wartości prawdziwej wynosi tyle a tyle. Jest to stanowisko całkowicie nieuprawnione; byłoby ono słuszne, gdybyśmy mieli pewność, że wszystkie błędy systematyczne zostały wyeliminowane, ale o tym nic nie wiemy. Wyobraźmy sobie, że mamy dwie serie obserwacji. Stosując regułę najmniejszych kwadratów stwierdzamy, że prawdopodobny błąd pierwszej serii jest dwa razy mniejszy niż drugiej. A jednak druga seria może być lepsza, jeśli pierwsza jest obciążona dużym błędem systematycznym. Nie możemy powiedzieć nic ponad to, że pierwsza seria jest prawdopodobnie lepsza od drugiej, ponieważ dla niej błąd przypadkowy jest mniejszy, ale nie mamy żadnych podstaw aby twierdzić, że błąd systematyczny w jednej serii jest mniejszy niż w drugiej, ponieważ o tym nic nie wiemy.

VII. Wnioski. - W powyższych rozważaniach poruszyłem wiele zagadnień, a żadnego nie rozwiązałem. Nie żałuję jednak, że je przedstawiłem, bowiem być może pobudzą one czytelnika do rozmyślań nad tymi subtelnymi kwestiami.

Pewne sprawy są jednak ustalone. By przystąpić do obliczenia prawdopodobieństwa, a nawet żeby taki rachunek miał sens, należy przyjąć jako punkt wyjścia pewne założenia lub umowę, która zawsze jest w pewnej mierze arbitralna. W wyborze tej umowy kierować się możemy tylko zasadą racji dostatecznej. Na nieszczęście, zasada ta jest wielce nieokreślona i elastyczna; widzieliśmy też w pobieżnym naszym przeglądzie, że przybierała ona wiele rozmaitych postaci. Postacią, w jakiej napotykaliśmy ją najczęściej, jest wiara w ciągłość, wiara, którą trudno byłoby uzasadnić przez ścisłe rozumowanie, bez której jednak wszelka nauka byłaby niemożliwa. Zagadnieniami, do których rachunek prawdopodobieństwa można skutecznie stosować, są te, w których wynik nie zależy od założenia początkowego, byle tylko założenie to było zgodne z warunkiem ciągłości.

Teoria Fresnela. - Najlepszym przykładem1, jaki możemy wybrać, jest teoria światła i jej związek z teorią elektryczności. Dzięki Fresnelowi optyka jest najlepiej wykończoną dziedziną fizyki; tak zwana teoria falowa jest pod względem intelektualnym najzupełniej zadowalająca, nie należy wszakże wymagać od niej tego, czego dać nie może.

1 Rozdział ten jest oparty na przedmowach do moich dwóch prac: Théorie mathématique de la lumiere (Naud, Paryż 1889) i Électricité et optique (Naud, Paryż 1901).

Zadaniem teorii matematycznych nie jest ukazanie nam prawdziwej natury rzeczy; byłoby to nierozumną pretensją. Jedynym ich celem jest wprowadzenie ładu do praw fizycznych, które poznajemy doświadczalnie, a których nie potrafilibyśmy sformułować bez pomocy matematyki.

Niewiele nas obchodzi, czy eter istnieje rzeczywiście; tak kwestia należy do metafizyków. Istotne znacznie ma dla nas to, że wszystko odbywa się tak, jak gdyby istniał, i że hipoteza ta jest dogodna, gdy naszym celem jest wyjaśnienie zjawisk. Zresztą, czy mamy inne podstawy do wiary w istnienie przedmiotów materialnych? To również jest tylko dogodna hipoteza, tyle że nigdy nie przestanie być dogodna, a nadejdzie zapewne dzień, kiedy eter zostanie porzucony jako bezużyteczny.

Ale nawet wówczas prawa optyki i równania, które je wyrażają w postaci analitycznej pozostaną prawdziwe, przynajmniej jako pierwsze przybliżenie. Dlatego teoria, wiążąca ze sobą wszystkie równania, zawsze zachowa pewne znaczenie.

Teoria falowa opiera się na pewnej hipotezie molekularnej; dla jednych, którzy sądzą, że odsłaniają w ten sposób przyczyny, na których opiera się to prawo, stanowi to zaletę; dla innych jest to okoliczność budząca nieufność; nieufność ta wydaje mi się równie nieuzasadniona, jak złudzenia tych pierwszych.

Hipotezy te odgrywają rolę drugorzędną. Można byłoby się ich wyrzec; nie czyni się tego zazwyczaj, bowiem zaszkodziłoby to jasności wykładu - ale też tylko z tego powodu.

Dokładniejsza analiza pozwala stwierdzić, że teoria falowa zapożycza z hipotez molekularnych tylko dwie rzeczy: zasadę zachowania energii i liniową formę równań, która jest ogólnym prawem zarówno małych drgań, jak i wszystkich małych zmian.

To wyjaśnia również, dlaczego większość wniosków Fresnela pozostaje bez zmian, gdy ktoś przyjmuje elektromagnetyczną teorię światła.

Teoria Maxwella. - Maxwell, jak wiadomo, połączył ścisłym węzłem dwie dziedziny fizyki poprzednio zupełnie sobie obce: optykę i elektryczność. Optyka Fresnela roztopiła się wówczas w szerszej teorii, ale na tym nie zakończyło się jej życie. Poszczególne jej części trwają nadal, wzajemne ich stosunki się nie zmieniły. Zmienił się tylko język, jakim je wyrażamy, a ponadto Maxwell odkrył nowe, wcześniej nieznane związki między różnymi częściami optyki a dziedziną elektryczności.

Gdy czytelnik francuski po raz pierwszy otwiera książkę Maxwella, czuje się nieswojo, budzi się w nim nieufność, która mąci jego zachwyt. Uczucie to się rozprasza dopiero po dłuższym obcowaniu z książką i to kosztem wielkiego wysiłku. Niektóre wybitne umysły nigdy nie zdołały się od niego uwolnić.

Dlaczego idee angielskiego uczonego aklimatyzują się u nas z takim trudem? Zapewne dlatego, że wykształcenie jakie otrzymuje większość oświeconych Francuzów skłania ich, by cenić raczej ścisłość i logikę niż jakiekolwiek inne zalety.

Dawne teorie fizyki matematycznej pod tym względem wydawały się nam całkowicie zadowalające. Wszyscy nasi mistrzowie, od Laplace'a do Cauchy'ego postępowali w ten sam sposób. Wychodząc z wyraźnie sformułowanych założeń, wyprowadzali z nich ścisłe wnioski matematyczne, które następnie porównywali z doświadczeniem. Wydaje się, że każdej dziedzinie fizyki chcieli oni nadać taką ścisłość, jaka cechuje mechanikę nieba.

Umysłowi, przyzwyczajonemu do takich wzorów, trudno się zadowolić byle jaką teorią. Nie tylko nie pobłaża on najmniejszym nawet pozorom sprzeczności, ale również wymaga, by wszystkie części teorii były ze sobą logicznie powiązane, a liczba niezależnych założeń sprowadzona do minimum.

Umysł taki na tym nie poprzestanie: będzie miał jeszcze inne wymagania, moim zdaniem mniej usprawiedliwione. Poza materią, znaną nam z doświadczenia, dopatruje się on innej materii, w jego oczach jedynie prawdziwej, mającej własności czysto geometryczne, której atomy są punktami matematycznymi podlegającymi prawom dynamiki. Mimo to, nieświadomie popadając w sprzeczność, usiłuje on sobie wyobrazić te niewidzialne i bezbarwne atomy, a więc zbliżyć je jak najbardziej do zwyczajnej materii.

Dopiero wówczas jest on w pełni usatysfakcjonowany i zdaje mu się, że przeniknął tajemnicę Wszechświata. Jeśli nawet to przekonanie jest złudą, przykro jest mu się go wyrzec.

Otwierając książkę Maxwella, Francuz oczekuje, że znajdzie w niej teorię równie logiczną i ścisłą, jak optyka fizyczna, zbudowana na hipotezie eteru; w ten sposób gotuje on sobie rozczarowanie, którego chcielibyśmy oszczędzić naszym czytelnikom, uprzedzając ich z góry, czego mają szukać w Maxwellu, a czego nie zdołają w nim znaleźć.

Maxwell nie podaje mechanicznego wyjaśnienia elektryczności i magnetyzmu; ogranicza się do dowiedzenia, że takie wyjaśnienie jest możliwe.

Wykazuje on również, że zjawiska optyczne są tylko szczególną klasą zjawisk elektromagnetycznych. Z każdej teorii elektryczności można zatem wyprowadzić natychmiast pewną teorię światła.

Twierdzenie odwrotne nie jest niestety prawdziwe; z pełnej teorii światła nie jest łatwo wyprowadzić teorię zjawisk elektrycznych. Na przykład, nie jest to łatwe, gdy za punkt wyjścia przyjmujemy teorię Fresnela. Nie jest to zapewne niemożliwe, ale nasuwa się pytanie, czy nie zajdzie konieczność zrzeczenia się wspaniałych wyników, które wydawały się trwałymi osiągnięciami nauki. To wydaje się krokiem wstecz i dlatego wielu uczonych nie chce się z tym pogodzić.

Gdy czytelnik pogodzi się już z zakreśleniem granic swych nadziei, napotka na jeszcze inne trudności: angielski uczony nie usiłuje zbudować jednego gmachu, gotowego i uporządkowanego - raczej wznosi wiele budowli prowizorycznych i niezależnych, a przejście od jednej do drugiej jest trudne, a czasami nawet niemożliwe.

Weźmy jako przykład rozdział, w którym Maxwell tłumaczy przyciąganie elektrostatyczne jako efekt naprężenia w ośrodku dielektrycznym. Rozdział ten można byłoby usunąć, nie zmniejszając w niczym jasności i kompletności całej książki; zawiera on teorię stanowiącą zamkniętą całość, którą można byłoby zrozumieć, nie czytając ani słowa z rozdziałów poprzednich i następnych. Więcej nawet: rozdział ten jest nie tylko niezależny od reszty dzieła, ale nawet trudno byłoby go pogodzić z podstawowymi ideami książki. Maxwell nie próbuje nawet tego osiągnąć, a tylko ogranicza się do powiedzenia: I have not been able to make the next step, namely, to account by mechanical considerations for these stresses in the dielectric.

Przykład ten wystarczy do wyjaśnienia naszej myśli; moglibyśmy przytoczyć jeszcze wiele innych. Na przykład, któż przypuszczałby, czytając stronice poświęcone rotacji płaszczyzny polaryzacji w polu magnetycznym, że zachodzi tożsamość między zjawiskami optycznymi i magnetycznymi?

Nie należy pochlebiać sobie, że się uniknęło wszelkich sprzeczności, ale należy się do tego przystosować. Dwie sprzeczne teorie mogą być równocześnie przydatnymi narzędziami badań, pod warunkiem, że ich nie mieszamy i nie doszukujemy się w nich istoty rzeczy. Być może lektura Maxwella byłaby mniej pobudzająca, gdyby nie otwierała przed nami tylu rozbieżnych dróg.

Niestety, sprawia to również, że podstawowa myśl Maxwella została nieco przesłonięta. Dlatego w większości książek popularyzatorskich to ona jest jedynym punktem, całkowicie pomijanym przez autorów.

Dlatego wydaje się nam pożyteczne, by dla lepszego przedstawienia teorii Maxwella, wyjaśnić przede wszystkim tę myśl podstawową. Wymaga to najpierw krótkiej dygresji.

O mechanicznym tłumaczeniu zjawisk fizycznych. - W każdym zjawisku fizycznym znajdujemy pewną liczbę wielkości bezpośrednio obserwowalnych, które można mierzyć. Nazwiemy je parametrami q.

Obserwacje pozwalają nam na poznanie praw, rządzących zmianami tych parametrów. Prawom tym można na ogół nadać postać równań różniczkowych, wiążących ze sobą parametry q i czas.

W jaki sposób można znaleźć mechaniczną interpretację takiego zjawiska?

Trzeba spróbować wytłumaczyć je bądź przez ruchy materii, bądź przez ruchy jednego lub kilku hipotetycznych fluidów.

Można uważać, że fluidy te składają się bardzo dużej liczby cząsteczek m.

Czego zatem trzeba, by uzyskać pełne mechaniczne wyjaśnienie zjawiska? Z jednej strony należy znać zgodne z zasadami dynamiki równania różniczkowe, które spełniają współrzędne hipotetycznych cząsteczek m, z drugiej zaś strony - znać trzeba związki określające współrzędne cząsteczek m w zależności od parametrów q, które można mierzyć w doświadczeniu.

Równania te, jak powiedzieliśmy, muszą być zgodne z zasadami dynamiki, a w szczególności z zasadą zachowania energii i zasadą najmniejszego działania.

Pierwsza z tych zasad stwierdza, że całkowita energia jest stała i można ją rozłożyć na dwie części:

1. Energię kinetyczną, czyli siłę żywą, zależną od mas hipotetycznych cząsteczek m i od ich prędkości; oznaczymy ją T.

2. Energię potencjalną, zależną jedynie od współrzędnych tych cząsteczek; oznaczymy ją U. Suma tych dwóch energii T i U jest stała.

Czego z kolei uczy nas zasada najmniejszego działania? Powiada ona, że układ, aby przejść od położenia początkowego w chwili t0, do położenia końcowego w chwili t1, ewoluuje w taki sposób, aby średnia wartość "działania" (to znaczy różnicy energii kinetycznej T i energii potencjalnej U) w czasie od t0 do t1 była możliwie najmniejsza. Zasada zachowania energii wynika zresztą z zasady zachowania działania.

Jeżeli znamy funkcje T i U, zasada najmniejszego działania wystarcza do wyznaczenia równań ruchu.

Wśród wszystkich dróg, pozwalających na przejście od położenia początkowego do końcowego, istnieje oczywiście jedna, dla której średnia wartość działania jest mniejsza niż dla wszystkich innych. Taka droga jest tylko jedna i dlatego zasada najmniejszego działania wystarcza do jej wyznaczenia, a tym samym do wyprowadzenia równań ruchu.

W ten sposób otrzymujemy tak zwane równania Lagrange'a. W równaniach tych zmiennymi niezależnymi są współrzędne hipotetycznych cząstek m. Załóżmy teraz, że jako zmienne bierzemy parametry q bezpośrednio obserwowane w doświadczeniu.

Obie części energii muszą być wyrażone jako funkcje parametrów q i ich pochodnych; tak oczywiście wyrazi je eksperymentator. Będzie on naturalnie starał się określić energię potencjalną i energię kinetyczną za pomocą wielkości, które może bezpośrednio obserwować.1

1 Dodajmy, że energia potencjalna U zależy wyłącznie od parametrów q, a energia kinetyczna T zależy od q oraz od ich pochodnych względem czasu i jest wielomianem jednorodnym drugiego stopnia w tych pochodnych.

Jeśli te założenia są spełnione, to układ przechodzi zawsze od jednego położenia do drugiego taką drogą, by średnie działanie było najmniejsze.

Nie ma znaczenia ani to, że T i U są obecnie wyrażone za pomocą parametrów q i ich pochodnych ani to, że położenie początkowe i położenie końcowe również są określone przez wartości tych parametrów; zasada najmniejszego działania pozostaje w mocy.

Otóż i teraz ze wszystkich dróg, prowadzących od jednego położenia do drugiego, istnieje jedna i tylko jedna, dla której średnie działanie jest najmniejsze. Zasada najmniejszego działania wystarcza więc do wyprowadzenia równań różniczkowych, określających zmiany parametrów q.

W ten sposób otrzymujemy ponownie równania Lagrange'a w innej postaci.

W celu wyprowadzenia tych równań nie musimy znać związków łączących parametry q ze współrzędnymi hipotetycznych cząsteczek, mas tych cząsteczek i energii potencjalnej jako funkcji tych współrzędnych. Musimy znać jedynie energię potencjalną U jako funkcję parametrów q oraz energię kinetyczną T jako funkcję q i ich pochodnych, czyli musimy wiedzieć, jak zależy energia od parametrów mierzonych doświadczalnie.

Wówczas możliwe są dwie sytuacje: albo przy odpowiednim wyborze funkcji T i U równania Lagrange'a, wyprowadzone zgodnie z opisem przedstawionym powyżej, są tożsame z równaniami różniczkowymi wyprowadzonymi z doświadczeń, albo też nie istnieją takie funkcje T i U, dla których zachodzi ta zgodność. W drugim przypadku żadne mechaniczne wyjaśnienie nie jest możliwe.

Warunkiem koniecznym, który musi być spełniony, by możliwe było wyjaśnienie mechaniczne, jest zatem możność wyboru funkcji T i U, tak aby spełniona była zasada najmniejszego działania, z której wypływa zasada zachowania energii.

Warunek ten jest zresztą dostateczny; w rzeczy samej, przypuśćmy, że znaleźliśmy funkcję U parametrów q, reprezentującą część energii, a druga część energii T jest funkcją współrzędnych q i ich pochodnych i jest wielomianem jednorodnym drugiego stopnia w tych pochodnych, i że wreszcie równania Lagrange'a, wyprowadzone z tych dwóch funkcji T i U, są zgodne z danymi doświadczalnymi.

Czego więcej nam trzeba, by wyprowadzić stąd mechaniczne wyjaśnienie? Trzeba tylko, by U można było uznać za energię potencjalną układu, a T za energię kinetyczną.

Z U nie ma tu żadnych trudności, ale czy T można zawsze uznać za energię kinetyczną?

Jak łatwo wykazać, zawsze można to zrobić, i to na nieskończenie wiele sposobów. Więcej szczegółów czytelnicy mogą znaleźć w przedmowie do mojej pracy Elektryczność i optyka.

Widzimy zatem, że jeśli nie jest spełniona zasada najmniejszego działania, to wyjaśnienie mechaniczne nie jest możliwe, jeśli natomiast zasada ta jest spełniona, to takich wyjaśnień można podać nieskończenie wiele.

Jeszcze jedna uwaga.

Ze wszystkich wielkości obserwowalnych, jedne uważamy za funkcje współrzędnych naszych hipotetycznych cząsteczek; te właśnie są naszymi parametrami q; pozostałe zależą nie tylko od współrzędnych, ale również od ich prędkości, albo - co na jedno wychodzi - od tych współrzędnych i ich pochodnych.

Nasuwa się wówczas następujące pytanie: które ze wszystkich obserwowalnych wielkości wybierzemy za parametry q? Które będziemy uważali za pochodne tych parametrów? Wybór ten jest w znacznej mierze dowolny, lecz wystarczy, by można go było dokonać w sposób zgodny z zasadą najmniejszego działania, a wyjaśnienie mechaniczne będzie zawsze możliwe.

Otóż Maxwell zadał sobie pytanie, czy można tak wybrać dwie energie T i U, by zjawiska elektromagnetyczne przebiegały zgodnie z tą zasadą. Doświadczenie wskazuje, że energię pola elektromagnetycznego można rozłożyć na dwie części - na energię elektrostatyczną i energie elektrodynamiczną. Maxwell stwierdził, że jeśli uważa się tę pierwszą za energię potencjalną U, a drugą za energię kinetyczną T, a jednocześnie ładunki przewodników uważa się za parametry q, a napięcia prądów za pochodne innych parametrów q, to zjawiska elektromagnetyczne są zgodne z zasadą najmniejszego działania. W ten sposób uzyskał pewność, że wytłumaczenie mechaniczne jest możliwe.

Gdyby myśl tę wyłożył na początku książki, nie zaś skrył ją w jakimś zakątku drugiego tomu, nie uszłaby ona uwagi większości czytelników.

Jeśli zatem pewne zjawisko można wyjaśnić mechanicznie, to takich wyjaśnień istnieje nieskończenie wiele i wszystkie równie dobrze zdają sprawę ze wszystkich szczegółów odkrytych doświadczalnie.

Potwierdza to historia wszystkich działów fizyki; na przykład, w optyce Fresnel zakłada, że drgania są prostopadłe do płaszczyzny polaryzacji, Neumann uważa je natomiast za równoległe. Długo szukano experimentum crucis, który rozstrzygnąłby sprawę na korzyść jednej z tych teorii, ale bez powodzenia.

Podobnie, wychodząc poza ramy elektryczności, możemy stwierdzić, że zarówno teoria dwóch fluidów, jak i teoria jednego fluidu jednakowo zadowalająco wyjaśniają wszystkie prawa elektrostatyki.

Wszystkie te fakty można łatwo wytłumaczyć na podstawie właściwości równań Lagrange'a.

Łatwo teraz możemy zrozumieć podstawową myśl Maxwella.

Żeby dowieść możliwości wyjaśnienia mechanicznego zjawisk elektrycznych nie musimy się troszczyć o podanie konkretnego wyjaśnienia; wystarcza, abyśmy znali dwie funkcje, T i U, które stanowią dwie części energii, wyprowadzili z tych funkcji równania Lagrange'a i następnie porównali te równania z prawami doświadczalnymi.

Które z tych wszystkich wyjaśnień należy wybrać, skoro doświadczenie nie narzuca nam żadnego określonego wyboru? Być może nadejdzie dzień, gdy fizycy przestaną się interesować takimi pytaniami i zostawią je metafizykom. Dzień ten jeszcze nie nadszedł i człowiek nie godzi się łatwo z myślą, że nigdy nie pozna istoty rzeczy.

Decyzję możemy podjąć kierując się jedynie rozważaniami, opartymi w znacznej mierze na ocenie osobistej, ale niektóre rozwiązania odrzuci każdy fizyk z powodu ich dziwaczności, inne znów odpowiadać będą wymaganiom wszystkich ze względu na ich prostotę.

Co dotyczy elektryczności i magnetyzmu, Maxwell powstrzymuje się od jakiegokolwiek wyboru. Nie dlatego, by systematycznie gardził wszystkim, co nie jest dostępne dla metod pozytywnych; czas, jaki poświęcił on teorii kinetycznej gazów przekonująco dowodzi, że tak nie jest. Dodajmy także, że choć w swym wielkim dziele nie przedstawia żadnego wyjaśnienia, próbował je podać już wcześniej w artykule opublikowanym w "Philosophical Magazine". Dziwaczność i złożoność hipotez, które musiał w tym celu uczynić, skłoniły go później do zarzucenia tych prób.

Ten sam duch przepełnia całe jego dzieło. Maxwell podkreśla wszystko, co jest istotne, to znaczy to, co musi pozostać wspólne wszystkim teoriom; prawie zawsze pomija wszystko, co odpowiadałoby tylko jednej, specjalnej teorii. Czytelnik ma zatem przed sobą jak gdyby formę zupełnie pozbawioną materii, która początkowo wydaje mu się mknącym i nieuchwytnym cieniem. Lecz to zmusza go do myślenia i w końcu zaczyna on rozumieć, ile sztuczności tkwiło często w konstrukcjach teoretycznych, które niegdyś podziwiał.

Dzieje elektrodynamiki są z naszego punktu widzenia szczególnie pouczające.

Ampère nadał swemu nieśmiertelnemu dziełu tytuł "Teoria zjawisk elektrodynamicznych, oparta jedynie na doświadczeniu". Wyobrażał sobie, że nie wprowadził żadnej hipotezy, ale w rzeczywistości przyjął ich wiele, tyle że nie zdawał sobie z tego sprawy.

Późniejsi uczeni dostrzegli te hipotezy, bowiem zwrócili uwagę na słabe punkty teorii Ampère'a. Wprowadzili oni nowe hipotezy, których byli jak najbardziej świadomi; później trzeba je było jeszcze wiele razy zmieniać i zastępować innymi, nim wreszcie nauka osiągnęła klasyczny stan obecny, który być może nie jest jeszcze ostateczny; przejdźmy teraz do naszkicowania historii elektrodynamiki.

I. Teoria Ampère'a. - Gdy Ampère badał doświadczalnie wzajemne oddziaływania prądów, operował jedynie - inaczej nie mógł - prądami zamkniętymi.

Nie dlatego, by przeczył możliwości istnienia prądów otwartych. Gdy połączymy drutem dwa przewodniki naładowane różnoimiennymi ładunkami, zaczyna płynąć między nimi prąd, a przepływ trwa dopóty, dopóki nie wyrównają się ich potencjały. Zgodnie z poglądami panującymi w czasach Ampère'a, jest to prąd otwarty: widziano bowiem prąd płynący od jednego przewodnika do drugiego, natomiast nie widziano, by powracał.

Ampère uważał takie prądy, na przykład towarzyszące rozładowaniu kondensatora, za otwarte, ale nie mógł ich badać, gdyż trwały zbyt krótko.

Można sobie wyobrazić jeszcze inne prądy otwarte. Weźmy dwa przewodniki A i B, połączone drutem AMB. Małe przewodzące masy dotykają najpierw przewodnika B, czerpią zeń ładunek elektryczny, po czym biegną wzdłuż drogi BNA, przenosząc ładunek. Dotykają przewodnik A i przekazują mu swój ładunek, który następnie wraca do B po drucie AMB.

Mamy tu zatem obwód zamknięty, albowiem elektryczność porusza się po drodze zamkniętej BNAMB, lecz dwie części tego obwodu bardzo się od siebie różnią. W drucie AMB elektryczność przesuwa się przez stały przewodnik, na podobieństwo prądu woltaicznego, pokonując opór omowy i wytwarzając ciepło; mówimy, że rozchodzi się wskutek przewodnictwa. W części BNA elektryczność zostaje przeniesiona za pomocą ruchomych przewodników; mówimy, że elektryczność rozchodzi się wskutek konwekcji.

Jeśli zatem prąd konwekcyjny uważać będziemy za całkowicie analogiczny do prądu przewodzonego, obwód BNAMB powinniśmy uznać za zamknięty, a jeśli prąd konwekcyjny nie jest dla nas "prawdziwym prądem", bo na przykład nie działa na magnesy, pozostaje jedynie prąd przewodzony AMB, który jest otwarty.

Gdy na przykład połączymy drutem dwa bieguny maszyny Holtza, obracająca się tarcza przenosi elektryczność od jednego bieguna do drugiego konwekcyjnie, a elektryczność ta wraca do pierwszego bieguna przez przewodnictwo po drucie.

Trudno jest jednak wzbudzić prądy tego rodzaju o dostrzegalnym napięciu. Wobec środków doświadczalnych, jakimi dysponował Ampère, było to wręcz niemożliwe.

Innymi słowy, Ampère mógł wyobrażać sobie istnienie dwóch rodzajów prądów otwartych, lecz nie mógł wykonywać doświadczeń z tymi prądami, gdyż albo ich napięcie było zbyt małe, albo trwały zbyt krótko.

Ampère mógł zatem zbadać doświadczalnie działanie jednego prądu zamkniętego na inny prąd zamknięty, albo działanie prądu zamkniętego na część prądu, albowiem prąd może przepływać przez obwód zamknięty, złożony z części ruchomej i części stałej. Można zatem badać przesunięcia części ruchomej pod działaniem prądu zamkniętego.

Natomiast Ampère nie miał możności badania działania prądu otwartego na prąd zamknięty lub na inny prąd otwarty.

1. Przypadek prądów zamkniętych. - W przypadku wzajemnego działania dwóch prądów zamkniętych, Ampère odkrył doświadczalnie prawa nad podziw proste.

Przypomnijmy tutaj pokrótce te z nich, które będą nam przydatne w dalszym ciągu:

(1) Jeśli napięcie prądu jest stałe i jeśli dwa obwody, które ulegały dowolnym przesunięciom i odkształceniom, powracają ostatecznie do położeń początkowych, to całkowita praca sił elektrodynamicznych jest równa zeru.

Innymi słowy, istnieje potencjał elektrodynamiczny dwóch obwodów, proporcjonalny do iloczynu napięć i zależny od kształtu i względnego położenia obwodów; praca sił elektrodynamicznych jest równa zmianie tego potencjału.

(2) Działanie zamkniętego solenoidu jest równe zeru.

(3) Działanie obwodu C na inny obwód woltaiczny C' zależy jedynie od pola magnetycznego, wytworzonego przez obwód C. W każdym punkcie przestrzeni można określić pewną siłę, zwaną siłą magnetyczną, posiadającą następujące właściwości:

a) Siła, z jaką C działa na biegun magnetyczny, przyłożona jest do tego bieguna i równa jest sile magnetycznej pomnożonej przez masę magnetyczną bieguna;

b) Bardzo krótka igła magnetyczna dąży do ustawienia się zgodnie z kierunkiem siły magnetycznej; para sił, dążąca do nadania jej tego kierunku jest proporcjonalna do iloczynu siły magnetycznej, momentu magnetycznego igły i sinusa kąta odchylenia.

c) Jeśli obwód C' porusza się, praca sił elektrodynamicznych wywieranych przez C na C' równa jest przyrostowi indukcji magnetycznej przez ten obwód.

2. Działanie prądu zamkniętego na część prądu. - Ampère, nie mogšc wytworzyć prądu otwartego we właściwym znaczeniu, znał tylko jeden sposób, by zbadać działanie prądu zamkniętego na część prądu.

Sposób ten polegał mianowicie na operowaniu obwodem C', złożonym z dwóch części, stałej i ruchomej. Część ruchomą stanowił na przykład ruchomy drut 0x01 graphic
0x01 graphic
, którego końce 0x01 graphic
i 0x01 graphic
mogły się ślizgać wzdłuż nieruchomych drutów. W jednym z położeń drutu ruchomego, koniec 0x01 graphic
opierał się w punkcie A na drucie nieruchomym, a koniec 0x01 graphic
w punkcie B nieruchomego drutu. Prąd płynął od 0x01 graphic
do 0x01 graphic
, to jest od A do B wzdłuż drutu ruchomego i następnie powracał z B do A wzdłuż drutu nieruchomego. Był to zatem prąd zamknięty.

Przy drugim położeniu koniec 0x01 graphic
ślizgającego się drutu dotykał innego punktu A' drutu nieruchomego, a koniec 0x01 graphic
innego punktu B'. W tym ustawieniu prąd płynął od 0x01 graphic
do 0x01 graphic
, czyli od A' do B' po drucie ruchomym, następnie powracał z B' do B, dalej do B do A i wreszcie do A', płynąc cały czas po drucie nieruchomym. Zatem i tym razem był to prąd zamknięty.

Jeśli obwód taki poddany jest działaniu zamkniętego prądu C, część ruchoma przesuwa się tak, jak gdyby działała nań pewna siła. Ampère zakłada, że siła pozorna, której zdaje się w ten sposób ulegać część ruchoma AB, przedstawiająca działanie C na część 0x01 graphic
0x01 graphic
prądu, jest taka sama, jak gdyby przez 0x01 graphic
0x01 graphic
przepływał prąd otwarty, który zatrzymywałby się w 0x01 graphic
i 0x01 graphic
, nie zaś prąd zamknięty, który po dotarciu do 0x01 graphic
wraca do 0x01 graphic
przez nieruchomą część obwodu.

Hipoteza ta może się wydawać dość naturalna i Ampère wprowadza ją nie zdając sobie z tego sprawy, ale nie jest ona bynajmniej konieczna, gdyż - jak się przekonamy poniżej - Helmholtz ją odrzucił. W każdym razie, dzięki niej Ampère, choć nie mógł wytworzyć prądu otwartego, zdołał sformułować prawa działania prądu zamkniętego na prąd otwarty, a nawet na element prądu.

Prawa te są nader proste.

(1) Siła, działająca na element prądu, przyłożona jest do tego elementu w kierunku normalnym do niego i do siły magnetycznej; jest proporcjonalna do składowej siły magnetycznej wzdłuż normalnej do elementu;

(2) Działanie zamkniętego solenoidu na element prądu jest równe zeru.

Nie ma już potencjału elektrodynamicznego, to znaczy, gdy prąd zamknięty i prąd otwarty, których napięcia były stałe, powracają do położeń początkowych, całkowita praca nie jest równa zeru.

3. Ruch obrotowy. - Wśród eksperymentów dotyczących zjawisk elektrodynamicznych najciekawsze są te, które pozwoliły na wprowadzenie ciała w stały ruch obrotowy, nazywa się je czasami doświadczeniami z indukcją jednobiegunową. Weźmy magnes, który może się obracać dookoła swej osi; prąd przepływa najpierw przez nieruchomy drut, wchodzi w magnes, na przykład przez biegun N, przepływa połowę magnesu i wychodzi z niego przez ruchomy kontakt, po czym wraca do drutu nieruchomego.

W takim doświadczeniu magnes zaczyna się stale kręcić w jednym kierunku, nie osiągając położenia równowagi. Eksperyment ten przeprowadził Faraday.

Jak to możliwe? Gdybyśmy mieli do czynienia z dwoma obwodami o stałym kształcie, jednym nieruchomym C, drugim C', który może się obracać wokół osi, ten ostatni nigdy nie mógłby nabrać ruchu obrotowego; skoro istnieje potencjał elektrodynamiczny, to zawsze istnieje pewne położenie równowagi - takie, w którym potencjał osiąga wartość największą.

Ruch obrotowy jest możliwy tylko wtedy, gdy obwód C' składa się z dwóch części: jednej nieruchomej, drugiej ruchomej, mogącej obracać się wokół osi, tak jak w doświadczeniu Faradaya. Należy jednak odróżnić dwa przypadki. Przejście od części ruchomej do nieruchomej może się odbywać albo przez kontakt prosty (jeden i ten sam punkt części ruchomej styka się stale z tym samym punktem części nieruchomej), albo przez kontakt ruchomy (jeden i ten sam punkt części ruchomej styka się kolejno z różnymi punktami części nieruchomej.

Ruch obrotowy jest możliwy tylko w drugim przypadku. Oto, co wówczas zachodzi: układ dąży wprawdzie do pewnego położenia równowagi, ale gdy już ma osiągnąć to położenie, ślizgająca się część ruchoma styka się z nowym punktem części nieruchomej, następuje zmiana połączeń, a tym samym również warunków równowagi; położenie równowagi jak gdyby umyka przed dążącym do niego układem i ruch obrotowy może trwać dowolnie długo.

Ampère zakładał, że działanie obwodu na część ruchomą C' jest takie samo, jak gdyby część nieruchoma obwodu C' wcale nie istniała, a więc przez część ruchomą przepływa prąd otwarty.

Wobec tego Ampère wysnuwa wniosek, że działanie prądu zamkniętego na prąd otwarty lub odwrotnie, prądu otwartego na zamknięty, może spowodować ruch obrotowy.

Wniosek ten zależy jednak od sformułowanej powyżej hipotezy, którą, jak wspomnieliśmy, Helmholtz odrzuca.

4. Działanie wzajemne dwóch prądów otwartych. - Nie ma żadnego doświadczenia, które pozwoliłoby badać bezpośrednio działanie wzajemne dwóch prądów otwartych w ogóle, a w szczególności, dwóch elementów prądu. Ampère odwołuje się tu do hipotezy. Zakłada on: (1) że działanie wzajemne dwóch elementów sprowadza się do siły działającej wzdłuż łączącej je prostej; (2) że działanie dwóch prądów zamkniętych jest wypadkową działań ich poszczególnych elementów, przy czym działania te są takie same, jak gdyby każdy z tych elementów istniał z osobna.

Warto zaznaczyć, że te dwie hipotezy Ampère wprowadził zupełnie bezwiednie.

W każdym razie, te hipotezy, łącznie z doświadczeniami dotyczącymi prądów zamkniętych, wystarczają do całkowitego określenia prawa wzajemnego oddziaływania dwóch elementów.

Jeśli tak jest naprawdę, to większość praw, które napotkaliśmy w przypadku prądów zamkniętych, przestaje być prawdziwa.

Przede wszystkim, nie istnieje potencjał elektrodynamiczny; jak już się przekonaliśmy, nie można go było wprowadzić również w przypadku prądu zamkniętego, działającego na prąd otwarty.

Nie ma siły magnetycznej, w znaczeniu właściwym.

W rzeczy samej, podaliśmy powyżej trzy definicje tej siły:

(1) Za pomocą działania na biegun magnetyczny;

(2) Za pomocą pary sił, powodującej zmianę orientacji igły magnetycznej;

(3) Za pomocą działania na element prądu.

W przypadku, którym się teraz zajmujemy, te trzy określenia nie tylko nie są zgodne, ale każde z nich jest bezsensowne, gdyż:

(1) Na biegun magnetyczny nie działa po prostu jedna siła. Jak się przekonaliśmy, siła, wywołana działaniem elementu prądu na biegun nie jest przyłożona do bieguna, lecz do elementu; można ją zresztą zastąpić przez siłę działającą na biegun i przez parę sił.

(2) Para sił, działająca na igłę magnetyczną, nie jest już prostą parą skręcającą, gdyż jej moment w stosunku do osi igły nie jest równy zeru. Parę tą można rozłożyć na parę skręcającą w znaczeniu właściwym i na parę dopełniającą, dążącą do spowodowania ruchu obrotowego, o którym mówiliśmy powyżej.

(3) Siła, jaka działa na element prądu nie jest normalna do tego elementu.

Innymi słowy, znikła jedność siły magnetycznej.

Powiedzmy, na czym polega ta jedność. Dwa układy, wywierające to samo działanie na biegun magnetyczny, wywierają również to samo działanie na nieskończenie małą igłę magnetyczną albo na element prądu, umieszczone w tym samym punkcie przestrzeni, który poprzednio zajmował ten biegun.

]Tak jest, gdy w układzie płyną jedynie prądy zamknięte; przestałoby tak być, zdaniem Ampère'a, gdyby w tych układach płynęły prądy otwarte.

Wystarczy na przykład zauważyć, że jeśli biegun magnetyczny znajduje się w A, a element prądu w B, tak że kierunek elementu stanowi przedłużenie linii AB, to element ten, nie wywierając żadnego działania na biegun, wywierać będzie pewne działanie na igłę magnetyczną umieszczoną w punkcie A, bądź na element prądu w tym punkcie.

5. Indukcja. - Wiadomo, że odkrycie indukcji elektrodynamicznej nastąpiło wkrótce po nieśmiertelnych pracach Ampère'a.

Dopóki zajmujemy się tylko prądami zamkniętymi, nie napotykamy żadnych trudności. Helmholtz zauważył nawet, że zasada zachowania energii wystarcza do wyprowadzenia praw indukcji z praw elektrodynamicznych Ampère'a, z tym wszakże zastrzeżeniem, jak to przekonująco wykazał Bertrand, że przyjmie się pewną liczbę hipotez.

Ta sama zasada pozwala również na wyprowadzenie tego wniosku w przypadku prądów otwartych, choć rozumie się samo przez się, że niepodobna sprawdzić wyniku doświadczalnie, gdyż nie można wytworzyć takich prądów.

Zastosowanie takiej analizy w teorii Ampère'a pršdów otwartych prowadzi do wyników doprawdy niespodziewanych.

Przede wszystkim, indukcji nie można wyprowadzić ze zmian pola magnetycznego, według wzoru dobrze znanego badaczom i praktykom, bowiem - jak widzieliśmy - nie ma tu już pola magnetycznego w znaczeniu właściwym.

Na tym przecież nie koniec. Jeśli obwód C jest pod wpływem indukcji zmiennego układu woltaicznego S, jeśli ten układ S porusza się i odkształca w sposób dowolny, jeśli napięcie prądu w tym układzie zmienia się według dowolnego prawa, tak jednak, aby po pewnym czasie układ ten wrócił do stanu początkowego, to naturalne wydaje się przypuszczenie, że średnia siła elektromotoryczna indukowana w układzie C równa się zeru.

Jest tak rzeczywiście, jeśli obwód C jest zamknięty, a układ S zawiera jedynie prądy zamknięte. Nie jest to natomiast prawdą, jeśli przyjąć teorię Ampère'a, gdy w układzie S płyną prądy otwarte. Wtedy indukowana siła elektromotoryczna nie tylko nie jest równa zmianie indukcji magnetycznej w żadnym z powszechnie przyjętych znaczeń tego określenia, ale nie można jej wyrazić przez zmianę jakiejkolwiek w ogóle wielkości.

II. Teoria Helmholtza. - Zatrzymaliśmy się nieco dłużej nad konsekwencjami teorii Ampère'a i jego sposobu rozumienia działania prądów otwartych, trudno bowiem nie zauważyć sztucznego i paradoksalnego charakteru twierdzeń, do których dochodzi się tą drogą; nasuwa się myśl, że "to z pewnością nie jest to".

Rozumiemy zatem dlaczego Helmholtz zapragnął znaleźć coś innego.

Helmholtz odrzuca podstawową hipotezę Ampère'a, zgodnie z którą działanie wzajemne dwóch prądów sprowadza się do siły skierowanej wzdłuż łączącej je prostej. Zakłada on, że na element prądu nie działa jednak siła, lecz siła i para sił. Założenie to było przedmiotem słynnej polemiki między Bertrandem i Helmholtzem.

Helmholtz zastępuje hipotezę Ampère'a przez następujące założenie: dla dwóch elementów prądu istnieje zawsze potencjał elektrodynamiczny, zależny jedynie od ich położenia i orientacji i praca sił, z jakimi elementy te działają na siebie wzajemnie, równa jest zmianie tego potencjału. Tak więc Helmholtz, w takim samym stopniu jak Ampère nie może się obyć bez hipotezy; tym się wszakże różni od swego poprzednika, że swoją hipotezę przyjmuje wyraźnie i jawnie.

W przypadku prądów zamkniętych, jedynych, które można badać doświadczalnie, obie teorie dają takie same wyniki; we wszystkich innych przypadkach występują między nimi różnice.

Przede wszystkim, wbrew przypuszczeniu Ampère'a, siła, która zdaje się działać na ruchomą część obwodu zamkniętego nie jest taka sama, jaką byłaby siła, działająca na cześć ruchomą, gdyby była ona odizolowana i stanowiła prąd otwarty.

Powróćmy do obwodu C', o którym mówiliśmy powyżej, złożonego z ruchomego drutu 0x01 graphic
0x01 graphic
, ślizgającego się po drucie nieruchomym; w jedynym zrealizowanym eksperymencie część ruchoma 0x01 graphic
0x01 graphic
nie jest odizolowana, lecz stanowi element układu zamkniętego. Gdy przemieszcza się od położenia AB do A'B', całkowity potencjał elektrodynamiczny zmienia się z dwóch przyczyn: (1) potencjał wzrasta, ponieważ potencjał A'B' względem C nie jest taki sam jak AB; (2) potencjał wzrasta, ponieważ trzeba do niego dodać potencjały elementów AA' i BB' względem C.

Podwójny ten przyrost przedstawia pracę sił działających na część AB.

Gdyby natomiast odcinek 0x01 graphic
0x01 graphic
był odizolowany, potencjał wzrósłby tylko z pierwszego powodu i jedynie ten przyrost byłby miarą siły działającej na AB.

Niemożliwy jest ruch obrotowy, gdy nie ma ślizgającego się kontaktu, bowiem jak się przekonaliśmy omawiając prądy zamknięte, jest to bezpośredni wniosek wynikający z istnienia potencjału elektrodynamicznego.

Jeśli w doświadczeniu Faradaya magnes jest nieruchomy i część prądu na zewnątrz magnesu przepływa przez drut ruchomy, ta część ruchoma może zacząć się poruszać ruchem obrotowym. Nie znaczy to jednak, że gdyby znieść kontakt drutu z magnesem i sprawić, by przez drut przepływał prąd otwarty, i w tym przypadku drut zacząłby się kręcić. Powiedzieliśmy bowiem powyżej, że na odizolowany element działa inna siła niż na element ruchomy stanowiący część obwodu zamkniętego.

Oto jeszcze jedna różnica: zamknięty solenoid nie wywiera żadnego działania na zamknięty prąd, co wynika z doświadczenia i jest zgodne z obiema teoriami, natomiast działanie solenoidu na prąd otwarty byłoby równe zeru według Ampere'a, ale nie według Helmholtza.

Wypływa stąd doniosły wniosek. Podaliśmy powyżej trzy definicje siły magnetycznej; trzecia nie ma tutaj żadnego sensu, gdyż na element prądu nie działa jedna siła. Nie ma go również pierwsza definicja. Cóż to jest bowiem biegun magnetyczny? Jest to punkt końcowy nieskończenie długiego liniowego magnesu. Magnes ten można zastąpić przez nieskończenie długi solenoid. Żeby określenie siły magnetycznej miało sens, trzeba aby działanie prądu otwartego na nieograniczony solenoid zależało jedynie od położenia końca tego solenoidu, czyli aby działanie na solenoid zamknięty było równe zeru. Jak już widzieliśmy, tak nie jest.

Nic natomiast nie stoi na przeszkodzie przyjęciu drugiej definicji, opartej na pomiarze pary skręcającej, dążącej do ustawienia igły magnetycznej zgodnie z kierunkiem siły magnetycznej.

Jeśli jednak przyjmiemy tę definicję, to ani efekty indukcji, ani efekty elektrodynamiczne nie będą zależały wyłącznie od rozkładu linii sił pola magnetycznego.

III. Trudności występujące w tych teoriach. - Teoria Helmholtza stanowi krok naprzód w porównaniu z teorią Ampère'a, daleko jej wszakże do pełnego wyeliminowania wszystkich trudności. Tak w jednej, jak i w drugiej wyrażenie "pole magnetyczne" nie ma sensu, albo też, jeśli nadamy mu jakiś sens na mocy pewnej mniej lub bardziej sztucznej konwencji, to zwykłe prawa, dobrze znane wszystkim zajmującym się elektrycznością, przestaną być stosowalne. Tak na przykład, miarą siły elektromotorycznej wzbudzonej w drucie nie jest już liczba linii sił, przeciętych przez ten drut.

Niechęć, z jaką odnosimy się do tych teorii, nie wynika jedynie z tego, że trudno jest zrzec się zakorzenionych nawyków językowych i umysłowych. Chodzi tu o coś więcej. Jeżeli nie wierzymy w działanie na odległość, należy wyjaśnić zjawiska elektrodynamiczne przez zmiany w ośrodku. Tę właśnie zmianę nazywa się polem magnetycznym, a zatem zjawiska elektromagnetyczne powinno zależeć jedynie od tego pola.

Wszystkie te trudności wynikają z hipotezy prądów otwartych.

IV. Teoria Maxwella. - Takie trudności wynikały z panujących teorii, gdy zjawił się Maxwell i jednym pociągnięciem pióra wszystkie je usunął. Zgodnie z jego koncepcją, istnieją tylko prądy zamknięte.

Maxwell zakłada, że jeśli w dielektryku pole magnetyczne ulega zmianie, zachodzą w nim osobliwe zjawisko, działające na galwanometr tak samo jak prąd; zjawisko to nazywa on prądem przesunięcia.

Jeżeli dwa przewodniki, naelektryzowane różnoimiennymi ładunkami, połączymy drutem, to podczas rozładowania przez drut popłynie otwarty prąd przewodzony, lecz w otaczającym układ dielektryku powstają równocześnie prądy przesunięcia, zamykające ten prąd przewodzony.

Wiadomo, że teoria Maxwella wyjaśnia zjawiska optyczne jako konsekwencje bardzo szybkich drgań elektrycznych. Za jego czasów była to tylko bardzo śmiała hipoteza, nie mająca żadnego wsparcia doświadczalnego.

Po upływie lat dwudziestu doświadczenie potwierdziło poglądy Maxwella. Hertz zdołał wytworzyć oscylujące pola elektryczne, mające takie same właściwości jak światło i różniące się od niego tylko długością fali, podobnie jak barwa fioletowa różni się od czerwonej. W pewnym sensie dokonał on syntezy świata.

Można powiedzieć, że Hertz nie dowiódł bezpośrednio podstawowej koncepcji Maxwella, czyli działania prądu przesunięcia na galwanometr. Bezpośrednio wykazał tylko, że indukcja elektromagnetyczna nie rozchodzi się momentalnie, jak mniemano dawniej, lecz z prędkością równą prędkości światła.

Jednak dwa założenia, że nie ma prądu przesunięcia, a indukcja rozchodzi się z prędkością światła, lub że prądy przesunięcia wywołują przejawy indukcji, która rozchodzi się momentalnie - są całkowicie równoważne.

Nie jest to oczywiste już na pierwszy rzut oka, przeciwnie - dowód wymaga obliczeń analitycznych, o których streszczeniu w tym miejscu nie może być nawet mowy.

V. Doświadczenie Rowlanda. - Powiedzieliśmy już wyżej, że istnieją dwa rodzaje otwartych prądów przewodzonych. Po pierwsze, są to prądy wyładowania kondensatora lub dowolnego innego przewodnika.

Po drugie, zdarza się, że ładunki elektryczne zakreślają zamkniętą drogę, przenosząc się przez przewodnictwo w pewnej części obwodu, a przez konwekcję w drugiej.

W przypadku prądów otwartych pierwszego rodzaju można było uważać, że zagadnienie zostało rozwiązane: prądy przesunięcia przekształciły je w prądy zamknięte.

W przypadku prądów otwartych drugiego rodzaju, rozwiązanie wydawało się jeszcze prostsze: gdyby prąd był zamknięty, to - jak się zdawało - zamykać go mógł jedynie sam prąd konwekcyjny. W tym celu wystarczało założyć, że prąd konwekcyjny, czyli naładowany, poruszający się przewodnik, działa na galwanometr.

Brak było jednak doświadczalnego potwierdzenia tych przypuszczeń. Wydawało się, że trudno jest otrzymać dostatecznie duże napięcie, nawet maksymalnie zwiększając ładunek i prędkość przewodnika.

Pierwszym uczonym, który faktycznie lub pozornie pokonał te trudności, był Rowland, eksperymentator odznaczający się niezwykłą zręcznością. Nadał on krążkowi duży ładunek elektryczny i bardzo dużą prędkość obrotową. Układ magnetyczny, umieszczony obok krążka, uległ odchyleniu.

Rowland przeprowadził ten eksperyment dwukrotnie, raz w Berlinie i raz w Baltimore; później powtórzył to doświadczenie Himstedt. Obaj fizycy podali nawet, że udało im się wykonać pomiary ilościowe.

Już od dwudziestu lat wszyscy fizycy uważają, że prawo Rowlanda zostało potwierdzone i nie budzi żadnych wątpliwości. Wszystko zresztą zdaje się je potwierdzać. Czy nie wydaje się prawdopodobne, że wyładowanie iskrowe polega po prostu na tym, że cząstki odrywają się od jednej elektrody i przenoszą wraz ze swym ładunkiem na drugą? Czyż dowodem tego nie jest choćby widmo iskry, w którym rozpoznajemy promieniowanie metalu tworzącego elektrodę? Iskra byłaby, zatem prawdziwym prądem konwekcyjnym.

Z drugiej strony, nośnikami elektryczności w elektrolitach są prawdopodobnie poruszające się jony. Prąd w elektrolicie jest zatem również prądem konwekcyjnym; otóż prąd taki działa na igłę magnetyczną.

Podobnie wygląda sytuacja z promieniowaniem katodowym. Crookes uważał, że jest to bardzo subtelna materia, naładowana elektrycznością ujemną i poruszająca się z bardzo dużą prędkością. Innymi słowy, sądził, że jest to prąd konwekcyjny. Te prądy katodowe odchylają się pod wpływem magnesu. Na mocy zasady akcji i reakcji powinny, zatem spowodować odchylenie igły magnetycznej.

Wprawdzie Hertz uważał, iż udało mu się udowodnić, że promienie katodowe nie przenoszą ujemnego ładunku i nie działają na igłę magnetyczną, ale tu się pomylił. Przede wszystkim, Perrin zdołał zebrać ujemny ładunek promieniowania katodowego, choć Hertz zaprzeczał jego istnieniu. Badacza niemieckiego wprowadziły zapewne w błąd efekty powodowane przez promieniowanie rentgenowskie, które wówczas było jeszcze nieznane. Później, i to całkiem niedawno, zaobserwowano działanie promieniowania katodowego na igłę magnetyczną.

Tak więc, wszystkie te zjawiska, rozważane jako prądy konwekcyjne, iskry, prądy elektrolityczne, promienie katodowe, działają w jednakowy sposób na galwanometr, zgodnie z prawem Rowlanda!

VI. Teoria Lorentza. - Rychło posunięto się jeszcze dalej. Według teorii Lorentza prądy przewodzone są w rzeczywistości prądami konwekcyjnymi: elektryczność ma być związana w sposób nierozerwalny z pewnymi cząstkami materialnymi, tak zwanymi elektronami; ruch tych elektronów w ciałach powoduje prądy woltaiczne, a przewodniki różnią się od izolatorów tym, że elektrony mogą się w nich poruszać, podczas gdy w izolatorach jest to niemożliwe.

Teoria Lorentza jest bardzo pociągająca; pozwala ona bardzo prosto wyjaśnić pewne zjawiska, których nie mogły wytłumaczyć teorie dawniejsze, nawet teoria Maxwella w pierwotnym kształcie, takie jak aberracja światła, częściowe wleczenie fal świetlnych przez ośrodek w ruchu, polaryzacja magnetyczna, zjawisko Zeemana.

Jednak fizycy współcześni mają wątpliwości, co do kilku punktów teorii Lorentza. Zgodnie z tą teorią, zjawiska zachodzące w pewnym układzie, powinny zależeć od prędkości bezwzględnej ruchu postępowego środka ciężkości tego układu, co jest sprzeczne z zasadą względności przestrzeni. W czasie dyskusji podczas obrony rozprawy doktorskiej Cremieu, Lippmann nadał temu zarzutowi szczególnie uderzającą postać. Weźmy dwa naładowane przewodniki, poruszające się z jednakową prędkością. Znajdują się one w stanie względnego spoczynku, a jednak, skoro każdy z nich jest równoważny pewnemu prądowi konwekcyjnemu, to powinny się przyciągać, a zatem przez pomiar przyciągania można wyznaczyć ich prędkość bezwzględną.

Nie - odpowiadają na to zwolennicy teorii Lorentza. - W ten sposób zmierzylibyśmy nie ich prędkość bezwzględną, lecz ich prędkość względem eteru, a zatem nie ma tu sprzeczności z zasadą względności.

Niezależnie od tych najnowszych zarzutów, gmach elektrodynamiki w głównych przynajmniej zarysach zdaje się ostatecznie zbudowany; wszystko przedstawia się jak najlepiej; teorie Ampère'a i Helmholtza, stworzone w celu wyjaśnienia prądów otwartych, które przestały istnieć, zdają się mieć już tylko czysto historyczne znaczenie, a nie dające się rozwikłać komplikacje, do których prowadziły te teorie, poszły niemal w zapomnienie.

Spokój ten niedawno zakłóciły doświadczenia Crémieu, który przez pewien czas wydawały się sprzeczne z wynikami Rowlanda. Nowsze eksperymenty ich nie potwierdziły i teoria Lorentza wyszła z tej próby zwycięsko.

Historia tych wahań jest niezmiernie pouczająca; mówi ona nam, jakie sidła napotyka na swej drodze uczony i w jaki sposób może ich uniknąć.

Patrz Le Roy: Science et Philosophie, "Reveu de Metaphysique et de Morale", 1901.

Termin "nominalizm" jest zazwyczaj rozumiany jako przeciwieństwo realizmu w odniesieniu do tak zwanych powszechników. Tutaj Poincaré stosuje go, by podkreślić, że zdaniem radykalnych konwencjonalistów stwierdzeniom ogólnym nie odpowiada żadna rzeczywistość, podobnie jak ogólnym pojęciom - P.A.

111



Wyszukiwarka

Podobne podstrony:
Hipoteza Poincarégo
Cholesterol a polityka żywieniowa i farmacja Nauka w komisjach, czyli polityczne korzenie hipotezy t
Poincare Hipoteza i Metoda s 200 209
AALS hipotermia, prawie utopiony, porażenie prądem, zatrucia
Epidemiologia jako nauka podstawowe założenia
Kredyty hipoteczne
Weryfikacja hipotez statystycznych
Nauka chodu
socjologia jako nauka
06 Testowanie hipotez statystycznychid 6412 ppt
NAUKA O ORGANIZACJI(1)
Prezentacja Nauka o polityce zaj 3
Chaos+Poincare
Bankowość hipoteczna
Banki hipoteczne
NAUKA WPŁYWANIA
Prezentacja Nauka o

więcej podobnych podstron