Rozwój fizyki, Fizyka XX wieku


Rozwój fizyki

FIZYKA STAROŻYTNOŚCI

0x08 graphic
Nazwa "fizyka" wywodzi się z języka greckiego, gdzie wyraz phusis znaczy "przyroda". I rzeczywiście, jest to nauka przyrodnicza obejmująca całą przyrodę, czyli mająca największy zasięg. Nie zawęża się ona do żadnego podzbioru ciał materialnych. Zajmuje się ona badaniem własności każdej formy materii (i próżni), a także zjawiskami, w których biorą one udział. Należy jednak dodać, że właściwości te mają charakter ogólny i dotyczą tego, co współwystępuje w szerokich klasach ciał materialnych (np. masa, ładunek, namagnesowanie), a nie w klasach wąskich lub w pojedynczych bytach (zresztą zawsze złożonych). Tymi drugimi zajmują się bowiem mniej podstawowe nauki, takie jak chemia (np. rozpuszczalność w wodzie siarczków metali), biologia (np. obyczaje pokarmowe nietoperzy) czy psychologia (badanie i opis cech osobowości pojedynczego człowieka).

Rozwój fizyki zaczął się już w starożytności, ale zdecydowanie nie był to okres jej rozkwitu. Starożytni Grecy opierali swoją wiedzę fizyczną na obserwacji i rozmyślaniu. Właściwie obce było im przeprowadzanie doświadczeń i podczas nich - pomiarów. Fizyka starożytna miała więc charakter
racjonalny, rozumowy. Ówcześni Grecy byli przekonani, że całą prawdę o przyrodzie można poznać za pomocą umysłu, wyciągając logiczne wnioski z tego, co się widzi. Ich osiągnięcia wskazują wyraźnie, że to za mało.

Starannie przygotowane doświadczenie umożliwia precyzyjne pomiary, pozwala odrzeć układ z wpływu zakłócających czynników, np. zminimalizować opór powietrza czy tarcie. Sztucznie przygotowane układy mogą być proste i nawet nie występować w przyrodzie. Co również ważne, można je otrzymywać w wielu identycznych kopiach, a obserwacje tworzonych przez samą przyrodę są często pojedyncze lub nieregularne, a widziane zjawiska - zbyt skomplikowane, by od nich zacząć. Czy na przykład obserwowałe(a)ś kiedyś w naturze idealną kulę toczącą się po równi pochyłej ? A to właśnie ten sztuczny układ najlepiej nadaje się do badania zależności między drogą, a czasem w ruchu przyspieszonym.

Nawiasem mówiąc, istniało w przyrodzie takie zjawisko, które zdarzyło się tylko raz i nie ma szans na powtórkę. Był to Wielki Wybuch. Układu tego nie da się bezpośrednio zbadać, bo nie da się go sztucznie wytworzyć. Możemy jedynie badać pozostałości po nim i starać się odtwarzać jego przebieg.

Ponadto, najwyraźniej wygląda na to, że nasz umysł nie jest genetycznie wyposażony we wszystkie prawa natury, czy też w prosty sposób odkrywania ich myśleniem. Gdy rodzimy się - nie znamy ich. Trzeba je formułować z wydatną pomocą eksperymentu, a jeśli są już sformułowane - uczyć się ich już gotowych i starać się je rozumieć. Bez eksperymentu nie sposób wyobrazić sobie dochodzenia do praw dotyczących obszarów, z jakimi w codziennym życiu nie spotykamy się. Znanym przykładem jest mikroświat: cząstki elementarne i atomy. Nasz umysł, nasza intuicja kształtowana jest przez codzienne doświadczenie. W makroświecie ciała mają np. określony tor i nie potrafią przeskakiwać przez bariery „zbyt wysokie” dla nich. I dlatego wydaje nam się to prawdą oczywistą i uniwersalną. Tymczasem w mikroświecie cząstki nie mają (ponoć) określonych torów i, jak to się mówi, tunelują przez zbyt wysokie bariery. Gdyby nie eksperymenty naocznie ukazujące, że rzeczywiście tak jest, nigdy byśmy na to nie wpadli.

Być może to spojrzenie na fizykę starożytną jest zbyt krytyczne. Trzeba więc podkreślić, że początki są trudne i czas w jakim działali starożytni Grecy całkowicie ich usprawiedliwia. Było po prostu za wcześnie na eksperymenty, które często wymagają rozwiązań technicznych, jakich Grecy nie znali. Poza tym trzeba oddać im honor, bo myśl grecka o tym, że istnieje w przyrodzie jakieś
arche -, coś prostego i trwającego niezmiennie, mimo całej jej różnorodności i nieustających w niej przemian, była tropem bardzo trafnym, i jak na tamte czasy, wręcz genialnym. Ta grecka idea dotyczyła przede wszystkim jedności składników w różnorodności. Wszystko da się sprowadzić do podstawowych składników lub składnika, np. Tales uważał że wszystko składa się z wody, Empedokles - z czterech żywiołów, a Demokryt - z atomów. Nastąpiło tu więc odarcie różniących się rzeczy z różnych sposobów ich budowy i dostrzeżenie, że istnieje coś, co mają wspólnego, co mają one wszystkie: podstawowe składniki. Tak jak różne domy mogą być zbudowane z tych samych typów cegieł.

Jeżeli dostrzegamy w całej klasie różniących się konkretnych rzeczy pewną ich część wspólną, to dokonujemy operacji abstrahowania. Na przykład książki różnią się kształtem, kolorem, okładką, treścią, liczbą stron, ale wszystkie są książkami.
Abstrakcję otrzymujemy więc wtedy, gdy pominiemy to czym one się różnią, a zostawimy to, co mają wspólne. Każda książka ma kolor, kształt, okładkę, treść i składa się ze stron. I służy do czytania. Konkretne wartości abstrakcyjnych pojęć: kolor, kształt, okładka, treść i liczba stron różnicują książki, sprawiając, że są one oddzielnymi, konkretnymi bytami. Ale mimo to, że konkretnie się różnią (te konkretne wartości można pominąć), abstrakcyjnie są tym samym; są książkami. Pojęcie "książka" spaja je.

I to właśnie ta idea, mówiąca o istnieniu wspólnej abstrakcji w ogromnej różnorodności konkretnych bytów przyrody, jest najważniejszą spuścizną fizyki starożytnej.

FUNDAMENTY FIZYKI NOWOŻYTNEJ

0x08 graphic
Dzisiaj wiemy już, że istnieje w przyrodzie nie tylko jedność składników, którymi są cząstki elementarne (otaczający nas świat budują elektrony i dwa rodzaje kwarków), ale także jedność praw. Dla szerokiej klasy zjawisk można znaleźć wspólny schemat, zgodnie z którym te zjawiska zachodzą. Schemat ten pokazuje zależność pomiędzy wielkościami, które możemy zmierzyć i jest wyrażony poprzez wzór matematyczny. Ma on charakter ogólny (nie dla pojedynczego zjawiska, lecz dla szerokiej ich klasy) i ścisły. Zależność między wielkościami jest jednoznaczna i dokładna. Nie ma w niej miejsca na wyrażenia: „z reguły”, „chyba”, „około”. Ogólność i ścisłość praw to cecha charakterystyczna fizyki. Takie są prawa podstawowe, a właśnie nimi zajmuje się fizyka. Jeśli znamy wartości (n-1) wielkości występujących w otrzymanym wzorze, możemy wyznaczyć wartość pozostałej wielkości za pomocą naszego wzoru (schematu, „przepisu”), czyli teoretycznie, bez dokonywania jej pomiaru.

Fizykę nowożytną zapoczątkował niewątpliwie Galileusz. Jego zasługi trudno przecenić, są one ogromne jak na czas, w którym żył. Galileusz stwierdził, że siedzenie i dumanie daleko nas nie doprowadzi. Trzeba robić eksperymenty, poprzez które zadaje się przyrodzie ścisłe pytania i otrzymuje ścisłe odpowiedzi w postaci danych liczbowych z pomiarów. Potem, w tych danych eksperymentalnych należy dostrzec prawidłowości i ujmować je ściśle w języku matematyki. Galileusz zdecydowanie odrzucał orzekanie z góry (ustalanie) jak jest. Był przekonany, że poprzez doświadczenia trzeba obiektywnie sprawdzać jak jest.

Metoda ta, zwana metodą
eksperymentalno-matematyczną jest zaskakująco nowatorska, aktualna po dziś dzień i świadczy o geniuszu tego wielkiego Włocha.

Ogromny rozwój fizyki nowożytnej zawdzięczamy temu, że w przeciwieństwie do starożytnej, ma ona charakter
empiryczny, czyli ważną rolę przypisuje eksperymentowi. Spójrzmy teraz na wzór prawa powszechnego ciążenia Newtona:

F = G m
1 m2 / r2

Widzimy, że we wzorze tym występują wielkości: stałe - stała grawitacyjna G, której wartość wystarczy zmierzyć tylko raz i zmienne - siła F, masy m
1 i m2 i ich wzajemna odległość r.
Pomimo niesamowitej liczby i różnorodności zjawisk grawitacyjnych we Wszechświecie, różnych mas, odległości i różnych wartości sił przyciągania grawitacyjnego istnieje pewien stały, wspólny schemat (prawie doskonały) pokazujący taką zależność między nimi, która nie jest przypadkowa i różna dla każdego konkretnego zjawiska, ale jest jedna i to na dodatek ścisła. To znaczy, że mimo różnych mas i odległości, jakie możemy podstawić w miejsce symboli zmiennych we wzorze, sposób liczenia siły przyciągania jest zawsze taki sam i tylko jeden. Nota bene, te symbole m
1, m2 i r też są abstrakcyjne, bo znaczą tylko to, że w ich miejsce występuje jakakolwiek masa i odległość, a nie tylko jedna, konkretna. Spajają one wszystkie konkretne masy i odległości.

Prawo fizyki stanowi więc ścisłe uchwycenie zależności pomiędzy mierzonymi wielkościami, bez względu na to jakie są ich konkretne wartości.

To bardzo ciekawe i poniekąd bardzo dobrze, że przyroda taka jest, że możemy ogrom zjawisk danej klasy kompaktyfikować do jednej stałej abstrakcji. Co by było gdyby prawa fizyki zmieniały się w czasie lub były zupełnie przypadkowe ? Wtedy doświadczenia wykonane na jakichś zjawiskach nie mogłyby zostać użyte do przewidywań wyników innych zjawisk z tej klasy.

Teoria musi być dobrze potwierdzona, czyli jej przewidywania muszą być wielokrotnie wypróbowane z pozytywnym skutkiem. Nurt
falsyfikacjonizmu mówi, że nigdy nie jesteśmy pewni, że teoria jest poprawna, ale jeśli jest dobrze potwierdzona, to jest to wysoce prawdopodobne.

Równanie(a) takiej teorii są gotowym przepisem na teoretyczne przewidywanie, że coś będzie miało ściśle określoną wartość. Dzięki nim nie musimy za każdym razem sprawdzać tego eksperymentalnie. Gdyby takie niezmienne abstrakcje w przyrodzie nie istniały, to pracując nad każdym oddzielnym zjawiskiem musielibyśmy od nowa konstruować wszystkie potrzebne nam prawa i byłyby one za każdym razem doraźne. Byłoby to niezmiernie uciążliwe i frustrujące. Zastanawiające, czy Wszechświat musiał być taki „kompaktyfikowalny do abstrakcji”, czy może istnieją możliwości istnienia Wszechświatów, w których zjawiska przebiegają bez regularności, które dałoby się uchwycić.

ROZGRYWKI TRWAJĄCE 400 LAT

0x08 graphic
Aby lepiej zobrazować istnienie stałej abstrakcji w różnorodności, weźmy przykład meczy piłkarskich. Każdy mecz jest niepowtarzalny, bo liczba możliwości rozegrania meczu jest kosmicznie duża. Nawet gdy dwie te same drużyny zagrają ponownie, mecz będzie inny. Mimo to, istnieje coś wspólnego dla nich wszystkich. Otóż, wszystkie one przebiegają według pewnego prawa. To prawo to przepisy gry w football, jej reguły. Jeśli będziemy oglądać mecze piłkarskie, to będziemy w stanie to prawo wyabstrahować. Musimy oglądnąć wystarczająco dużo meczy, by skompletować całe prawo, które możemy nazwać tu prawem ostatecznym (kompletne reguły gry). Nie w każdym meczu może na przykład wystąpić rzut karny, czerwona kartka, itd.

W fizyce jest podobnie, z tym że różnorodność jest większa niż w przypadku podobnych, mimo wszystko, meczów i abstrahowanie nie jest takie proste. Od czasów Galileusza, czyli od około 400 lat, fizycy badają klasy zjawisk wyciągając z nich abstrakcyjne prawa cząstkowe. Na dzień dzisiejszy dysponujemy właściwie trzema takimi prawami:
ogólną teorią względności, dotyczącą zjawisk grawitacyjnych, teorią elektrosłabą, opisującą oddziaływania elektromagnetyczne i słabe i chromodynamiką kwantową, traktującą o oddziaływaniu silnym. W przypadku gier w piłkę nożną, ostateczne reguły są obszerne i nie zawierają się w jednym zdaniu, ale w fizyce niewykluczone, że istnieje tylko jedno równanie, jedna abstrakcja, która spaja wszystkie zjawiska Wszechświata. Stanowiłaby ona matematyczną postać teorii ostatecznej (czyli teorii wszystkiego TW, ang. TOE: theory of everything). Jak na razie tej teorii nie ma, ale trwają intensywne jej poszukiwania.

Nie jest również wykluczone, że nasze umysły nie są dostosowane do całkowitego poznania Wszechświata. Być może są skonstruowane tak, że teorii ostatecznej nie są w stanie sformułować i na zawsze pozostanie ona poza naszym zasięgiem. Osobiście skłaniałbym się do poglądu, że nasz mózg jest w stanie to zrobić, ale na dzień dzisiejszy musi mieć dane doświadczalne (oczywiście). Jeśli dane te można zebrać tylko w akceleratorach bardzo wysokiej energii, których przewidywana wielkość byłaby taka jak obwód galaktyki, to trzeba będzie czekać kilkaset lat. Gorzej jeśli do postępu technologicznego, prowadzącego do zbudowania takiego akceleratora niezbędna jest znajomość TW. Wtedy jesteśmy w sytuacji psa goniącego własny ogon, drepczącego w jednym miejscu. Z takiej stagnacji wydobyć nas mógłby tylko błysk geniuszu lub przypadkowe natrafienie na prawidłową teorię. TW może być bowiem bardzo specyficzna, albo być jedną w szerokiej klasie teorii. W obydwu przypadkach jej znalezienie przypadkowe byłoby mało prawdopodobne i pomóc mógłby tu szczęśliwy traf.

MODEL STANDARDOWY NA BEZRYBIU

0x08 graphic
Model standardowy, sformułowany w latach 70-tych XX wieku to najlepsza, jak na razie, teoria oddziaływań elektromagnetycznych, słabych i silnych. Został on napisany w „języku” mechaniki kwantowej. Właściwie, składa się on z równań dwóch teorii bardzo luźno i sztucznie ze sobą powiązanych: teorii elektrosłabej i chromodynamiki kwantowej. Daje on zadowalające przewidywania odnośnie wszystkich zjawisk w świecie cząstek elementarnych. W mikroświecie grawitacja, której on nie ujmuje, nie odgrywa żadnej roli bo jest 1042 razy słabsza niż siła elektromagnetyczna (dla 2 elektronów).

Są próby lepszego scalenia modelu standardowego w postaci
teorii GUT (ang. grand unified theories), ale nie doczekały się one pomyślnego testu eksperymentalnego. Przewidują one mgliście pewną przewagę materii nad antymaterią, więc należy je dalej rozwijać.

Wadami modelu standardowego są nie tylko brak pełnego scalenia (unifikacji) i nieujmowanie grawitacji. Jest on ponadto skomplikowany, nieelegancki i zawiera 19 swobodnych parametrów, których wartość wyznacza się doświadczalnie i tylko dzięki niemu teoria ta działa. Te parametry to: masy i ładunki cząstek elementarnych oraz natężenia oddziaływań. Jest to trochę sztuczne, bo chciałoby się, aby wartości tych parametrów wynikały z teorii, zwłaszcza, że są one bardzo ważne i fundamentalne.

Model standardowy w pełni zasługuje więc na miano teorii barokowej (termin ten ukuł A.Guth) i z pewnością nie jest to ostatnie słowo fizyki, tylko przejściowy twór funkcjonujący póki nie znajdzie się lepszy. Kontrastuje on niestety z ideałem 6P teorii, według którego powinna być ona:
piękna, prosta, prawdziwa (być nie do obalenia), pełna (ujmować wszystko), praktyczna i płodna (dawać przewidywania). Model standardowy nie jest ani prosty, ani pełny, ani piękny.

DZIECINNIE PROSTE PYTANIA

0x08 graphic
Oto lista 11 pytań, na które wszystkie skonstruowane dotychczas teorie fizyczne nie udzielają satysfakcjonującej odpowiedzi:

  • Dlaczego Wszechświat się zaczął ?

  • Dlaczego powstała materia ?

  • Czym jest materia ?

  • Czym materia różni się od próżni ?

  • Dlaczego we Wszechświecie materii jest tyle, ile jest ?

  • Dlaczego prawa fizyki są właśnie takie, jakie są ?

  • Dlaczego istnieją tylko trzy generacje cząstek elementarnych ?

  • Dlaczego obserwujemy właśnie takie wartości mas i ładunków cząstek elementarnych ?

  • Czego przejawem są 4 podstawowe siły przyrody ?

  • Dlaczego liczba podstawowych sił przyrody wynosi akurat 4 ?

  • Dlaczego stałe G (grawitacyjna), h (stała Plancka), c (prędkość światła) mają takie wartości (przy danych jednostkach) ?

Są to pytania proste i podstawowe. I niezwykle ciekawe. Z pewnością odpowiedź na nie będzie największym osiągnięciem fizyki. Niewątpliwie TW będzie musiała umieć na nie odpowiedzieć, jeśli będzie chciała być teorią z prawdziwego zdarzenia, a nie rozreklamowanym tworem, „cerowanym” w wielu miejscach danymi doświadczalnymi.

Kierunek badania zależności pomiędzy wielkościami fizycznymi i wyciąganie z nich ogólnych, abstrakcyjnych i ścisłych prawidłowości wywodzi się, jak już wiemy, od Galileusza. Był to kierunek na przestrzeni dziejów bardzo płodny, ale wszystko wskazuje na to, że teraz fizycy dotarli do punktu wysycenia nadal pozostawiając powyższe pytania bez odpowiedzi. Galileusz twierdził, że nie interesuje go istota, źródło podstawowych cech bytu. Do dziś te podstawowe cechy możemy tylko mierzyć doświadczalnie (stałe przyrody, ładunki masy cząstek elementarnych).

Jak widać wyraźnie, pytania powyższe dotyczą głównie istoty bytu, więc jeśli chcemy znać na nie odpowiedź, musimy iść dalej niż wskazywał Galileo Galilei. Pojawiają się głosy, że pytania te zawsze pozostaną bez odpowiedzi, ale nie zgadzam się z nimi. Uważam, że TW będzie się opierać na oszczędnych założeniach, z których wszystkie istotne własności materii i próżni będą wyprowadzalne. Ciekaw jestem czy okaże się, że te podstawowe parametry są jednymi z wielu, czy wynikają z jakichś uniwersalnych zależności (geometrycznych?), których nie znamy. Na przykład liczba π jest uniwersalnym stosunkiem obwodu okręgu do średnicy dla każdego okręgu. Jeśli będą tylko jednymi z wielu, będzie to mocna przesłanka na istnienie wielu Wszechświatów, bo wydaje się mało prawdopodobne, by powstał tylko jeden i to akurat z takimi parametrami (z wielu możliwych), aby mogło powstać w nim życie.

Pomyślne, bezproblemowe wyprowadzenie tych parametrów będzie na pewno bardzo mocnym potwierdzeniem słuszności początkowych założeń i prawdziwości TW. Byłoby też silnym dowodem na istnienie struktur, zawartych w założeniach nawet, gdyby nie było możliwości sprawdzenia tego doświadczalnie.

Myślę, że TW spotkałaby się wtedy z powszechną akceptacją, nawet gdyby nie dawała żadnych przewidywań, lub z przyczyn technicznych nie byłyby one na razie testowalne. Wyprowadzić jak najwięcej z jak najmniejszej liczby podstawowych założeń (czegoś co przyjęlibyśmy za pewnik), a zarazem niepodpieranie się danymi doświadczalnymi i wyjaśnienie problemów, które mają współczesne teorie (powyższe pytania), to byłoby już i tak wielkie osiągnięcie, które należałoby uznać.

TEORIA SUPERSTRUN

0x08 graphic
Teoria superstrun to jedyna z istniejących kandydatek na TW. Czy zdobędzie ona święty Graal fizyki ? Na dzień dzisiejszy trudno to rozstrzygnąć. Ma ona wiele pozytywnych cech. Zakłada, że cząstki nie są punktowe, tylko są strunami.

W teorii superstrun różne masy są wynikiem różnych wzorów drgań struny. Teoria ta nie ma również problemów z nieskończonościami, które pojawiają się w innych współczesnych teoriach (model standardowy, GUT) i które trzeba renormalizować (patrz rozdział o R. Feynmanie w poczecie fizyków). Ma to związek właśnie z tym, że teoria strun (TS) operuje strunami o niezerowych rozmiarach. Z TS wynika też istnienie grawitonu - cząstki przenoszącej oddziaływania grawitacyjne. TS udało się, jak żadnej innej teorii, spójnie połączyć grawitację z innymi oddziaływaniami w obrębie jednego schematu. Jest to chyba największe jej osiągnięcie.

Niestety, TS przewiduje istnienie nieskończonej liczby generacji cząstek elementarnych, a na dzień dzisiejszy jest prawie pewne, że istnieją tylko 3. Pewność ta bierze się z doświadczeń nad rozpadem ciężkich bozonów Z
0. Rozpadają się one na niezwykle lekkie lub bezmasowe neutrina elektronowe, mionowe i taonowe. Jako, że bozony Z0 są ciężkie, z pewnością miałyby też energię na neutrina czwartej generacji, ale rozpadów takich nie stwierdzono. Przestrzeń, w jakiej działa TS jest dziesięciowymiarowa: 3 wymiary przestrzenne, 1 czasowy i 6 wymiarów przestrzennych, zwiniętych w mikroskopijne tzw. przestrzenie Calabiego-Yau. Problem w tym, że możliwości zwinięcia tych przestrzeni jest bardzo dużo. Jako, że niewiadomo konkretnie jaki jest wzór zwinięcia w przypadku naszego Wszechświata, TS nie daje konkretnych przewidywań. Nie ma parametrów swobodnych, ale nie ma też przewidywań. Taka jest TS.

Tak na marginesie, z parametrami swobodnymi jest bardzo poważny problem, bo gdy ich wartości nie da wyznaczyć się doświadczalnie (np. mas hipotetycznej cząstki) zawsze można ratować teorię stwierdzając, że cząstki te istnieją, ale wartość parametru jest wysoka i potrzeba większej energii w doświadczeniu by cząstki te się pojawiły. Nietrudno zauważyć, że tak można ratować teorię w nieskończoność. Jeśli cząstki się nie pojawią, to nie dlatego, że nie istnieją, tylko trzeba zastosować wyższe energie. Jest to tzw.
modyfikacja ad hoc, która tak ratuje teorię, że nadal nie da się jej obalić. Na taką modyfikację cierpi tzw. teoria supersymetrii - SUSY, która przewiduje istnienie supersymetrycznych partnerów każdej cząstki elementarnej, ale ich masy pozostają parametrem swobodnym. Jak do tej pory, w doświadczeniach nie pojawiły się one, więc zawsze można powiedzieć, że energie użyte do ich wytworzenia są za niskie. Nie powinno tak być. Modyfikacja ad hoc jest narzędziem, które nauka powinna całkowicie wymazać.

Wracając do TS, okazało się, że istnieje 5 typów teorii superstrun: I, IIA, IIB, heterotyczna O i heterotyczna E8 x E8. Jak wykazały późniejsze badania, są one dualne (czyli różne matematycznie, ale opisujące tą samą fizykę) i stanowią szczególne przypadki jednej, ogólniejszej struktury matematycznej zwanej
teorią M. Znany polski fizyk - ks. Michał Heller przyrównuje je do 5 wysp będących częścią jednego, podwodnego masywu.

Badania nad TS nadal trwają i zobaczymy co przyniesie przyszłość. Na dzień dzisiejszy nie można jej wykluczyć jako kandydatki na TW, ale teorią wszystkiego nazwać się jej nie da.

DALEJ: ZŁOŻONOŚĆ

0x08 graphic
Planeta Neptun została wykryta w wyniku analizy zaburzeń w orbicie Urana. Możliwości interpretacji były dwie. Albo zaburzenia w trajektorii Urana wskazują na to, że coś jest nie tak z prawem powszechnego ciążenia, albo istnieje jeszcze dodatkowa planeta, której obecność musimy ująć w naszym analizowanym układzie i wtedy z prawem grawitacji wszystko jest OK. Trudno było zwątpić w prawa Newtona, założono więc, że sprawcą zaburzeń jest nowa planeta: Neptun i ten trop okazał się słuszny. Przykład ten pokazuje, że wystąpienie nieprawidłowości w przewidywaniach teorii może wskazywać, że układ, który badamy nie został przez nas całkowicie opisany.

Istotne są więc nie tylko prawa. Aby otrzymać konkretne przewidywania musimy „podać” prawom konkretne dane początkowe układu, który nas interesuje. Jeśli chcemy otrzymać dokładne i prawidłowe przewidywania,
nie możemy niczego istotnego pominąć. A zatem ważne jest prawo i struktura danego układu.

Na przykład: piorun kulisty. Często słyszy się głosy, że istnieją osobliwe zjawiska, które przerastają znane teorie. Osobiście, wątpię w to. Jeśli możemy mówić tu o przerastaniu to tylko w tym sensie, że teorie są bezradne dlatego, że nie została opisana struktura pioruna kulistego. Nic dziwnego; jest on bardzo efemeryczny. Moim zdaniem cała tajemnica pioruna kulistego tkwi w jego specyficznej strukturze. Po jej opisaniu, jego specyficzne własności dałoby się wyjaśnić za pomocą praw elektromagnetyzmu i wszystko jest z nimi OK.

Większość układów, z jakimi spotykamy się na co dzień jest niezmiernie skomplikowana. Składa się z miliarda miliardów miliardów cząstek elementarnych. Gdy sformułowana zostanie teoria ostateczna, jej równania będą bezpośrednio dotyczyć pojedynczych cząstek elementarnych. A więc struktury naszego codziennego życia (szczególnie struktury biologiczne i wyższego rzędu) będą stosowały się do niej, (bo nie są niczym innym jak zbiorowiskiem elementarnych), ale będą zbyt skomplikowane, by wyprowadzać z niej przewidywania odnośnie nich. Należałoby też dysponować wyczerpującym opisem struktur, a jak to zrobić skoro są one tak skomplikowane ? Nie mówiąc już zasadzie nieoznaczoności i teorii chaosu.

Paradoksalnie, TOE, będąc teorią wszystkiego może stać się teorią niczego, pozostając tylko ukoronowaniem wysiłków intelektualnych; pięknym, ale bezużytecznym trofeum. Niewykluczone jednak, że posłuży ona np. do uzyskiwania użytecznej energii z masy przez dematerializację. Jeśli będzie elegancka i będzie opisywać jaka jest struktura cząstek elementarnych, wyjaśniać skąd biorą się wartości ich mas, ich ładunki, to kto wie ? Być może da informację o tym, jak „rozpakować” cząstkę elementarną i uwolnić z niej energię.

W każdym razie, nigdy nie będziemy wiedzieć jaka jest istota bytu, choć niewykluczone, że będziemy dysponować doskonałym opisem matematycznym najmniejszych cegieł materii. I będzie to najlepsza z możliwych odpowiedzi na pytanie: czym jest byt ? Ujmując sprawę jaśniej, opis bytu do istoty bytu zawsze będzie miał się tak jak zapis nutowy do muzyki. Jest to doskonałe odzwierciedlenie muzyki, za pomocą którego wiele z muzyką można zrobić, ale nuta nie jest dźwiękiem. Porównanie to pochodzi od ks. Michała Hellera.

Różnorodność Wszechświata jest nieskończenie bogata i ze względu na to, o czym pisałem powyżej, nadal będą musiały być rozwijane teorie i metody ogólnego radzenia sobie z wyższym poziomem złożoności, tzn. wyznaczania zależności między parametrami nie elementarnych cząstek, lecz tymi, które charakteryzują duże ich grupy. Gdy fizyka osiągnie największy kamień milowy w swej historii (sformułowanie TW), takie dziedziny jak: biologia, psychologia, socjologia nadal będą w fazie burzliwego rozwoju. Odkrycie teorii ostatecznej nie sprawi, że nagle wszystko będzie wiadomo.

MACIEJ PANCZYKOWSKI

Autor wortalu: Maciej Panczykowski, Copyright © 2003-2008 by Maciej Panczykowski



Wyszukiwarka

Podobne podstrony:
Fizyce towarzyszy atmosfera absurdu, Fizyka XX wieku
Z czego zbudowany jest świat, Fizyka XX wieku
Zbudowanie komputera kwantowego zrewolucjonizuje współczesną informatykę, Fizyka XX wieku
!! Wypracowania !!, 98, Rozwój przemysłu na ziemiach polskich w XIX i XX wieku®
Rozwój konstytucji na ziemiach polskich od XVIII do XX wieku, Rozwój konstytucji na ziemiach polskic
Fizyka na przelomie XIX i XX wieku
15a Formy podawcze w dramacie w rozwoju historycznym Współwystępowanie wiersza numerycznego i nienum
Rozwój motoryczny i somatyczny w młodszym wieku szkolnym(2)(1)
12. Poezja E. Zegadłowicza, Lit. XX wieku
Sylwetka i twórczość K.K. Baczyńskiego, Lit. XX wieku
34 Geneza i charakter sojuszu Anglii i Rosji na początku XX wieku
Architektura XX wieku
Deschner Karlheinz Polityka papieska w XX wieku t 2 3 indeks osobowy
Rozwiązujemy jedną z największych zagadek XX wieku
Znani bohaterowi XIX i XX wieku, wszystko do szkoly
15. Główne kierunki w sztuce ogrodowej XX wieku, Architektura krajobrazu Inż
Zmiany powierzchni i przestrzennego rozmieszczenia lasów w Polsce w II połowie XX wieku(1)

więcej podobnych podstron