79

79. Co to jest nauka normalna

Nauka Normalna → jest to okres dla którego paradygmat jest jasno określony i nauka korzysta z niego w jego pełnych możliwościach, w pełnym jego potencjale. Paradygmat nie jest wzorcem, a nawet modelem. Poprzedza ją okres przedparadygmatyczny – czyli okres precyzowania paradygmatu.

*Nauka normalna to także struktura dla której paradygmat jest narzędziem i kryterium klasyfikacji pojęć i przyrody świata, terminów itp.

II. DROGA DO NAUKI NORMALNEJ

[1] Termin "nauka normalna" oznacza w niniejszych rozważaniach badania wyrastające z jednego lub wielu takich osiągnięć naukowych przeszłości, które dana społeczność uczonych aktualnie akceptuje i traktuje jako fundament swej dalszej praktyki. Z tych podstawowych osiągnięć - wprawdzie rzadko w ich formie oryginalnej - zdają dzisiaj sprawę podręczniki, zarówno elementarne, jak akademickie. Przedstawiają one zespół uznawanych teorii, omawiają wiele lub wszystkie ich udane zastosowania, konfrontując je z przykładowymi obserwacjami i eksperymentami. Nim w początkach XIX stulecia (a nawet jeszcze później, jeżeli chodzi o nowo powstałe dziedziny wiedzy) książki takie zostały spopularyzowane, zbliżoną funkcję pełniły prace wielu klasyków nauki. Fizyka Arystotelesa, Almagest Ptolemeusza, Principia Optyka Newtona, Elektryczność Franklina, Chemia Lavoisiera czy Geologia Lyella - te i liczne inne dzieła wyznaczały w swoim czasie uprawnione problemy i metody badawcze w danej dziedzinie dla kolejnych pokoleń uczonych. Nadawały się do tego celu, gdyż miały dwie istotne wspólne cechy. Reprezentowany w nich dorobek był dostatecznie oryginalny i atrakcyjny, aby odwrócić uwagę stałej grupy zwolenników danej teorii od konkurencyjnych sposobów uprawiania nauki. Jednocześnie dorobek ten był na tyle otwarty, że pozostawiał nowej szkole najrozmaitsze problemy do rozwiązania.

[2] Osiągnięcia odznaczające się wskazanymi cechami będę odtąd nazywał paradygmatami. Termin ten pozostaje w ścisłym związku z pojęciem nauki normalnej. Ma on wskazywać na to, że pewne akceptowane wzory faktycznej praktyki naukowej - wzory obejmujące równocześnie prawa, teorie, zastosowania i wyposażenie techniczne - tworzą model, z którego wyłania się jakaś szczególna, zwarta tradycja badań naukowych. Z takimi tradycjami mamy na przykład do czynienia, kiedy historycy mówią o astronomii ptolemeuszowej (lub kopernikańskiej), dynamice arystotelesowskiej (czy newtonowskiej), optyce korpuskularnej (albo falowej) itd. Właśnie studiowanie paradygmatów, często o wiele bardziej wyspecjalizowanych niż te, które przykładowo wymieniłem, przygotowuje studenta do przyszłego uczestnictwa w pracach danej wspólnoty naukowej. Ponieważ w ten sposób przyłącza się on do grupy, która uczyła się podstaw swej dyscypliny na tych samych konkretnych modelach, jego przyszła działalność rzadko kiedy doprowadzi go do wniosków zasadniczo sprzecznych z tym modelem w kwestiach podstawowych. Uczeni, których badania oparte są na wspólnych paradygmatach, podlegają w swej praktyce naukowej tym samym regułom i standardom. Takie współuczestnictwo i wynikająca z niego jednomyślność są niezbędnymi warunkami nauki normalnej, tzn. ukształtowania się i trwania określonej tradycji badawczej.

[3] Ponieważ pojęcie paradygmatu będzie w tych rozważaniach często zastępowało wiele dobrze znanych pojęć, musimy szerzej wyjaśnić przyczyny jego wprowadzenia. Dlaczego tym pierwotnym czynnikiem kształtującym zawodową wspólnotę ma być konkretne osiągnięcie naukowe, a nie rozmaite pojęcia, prawa, teorie i punkty widzenia, które mogą być z niego wyabstrahowane? W jakim sensie wspólny paradygmat jest podstawową jednostką dla badacza rozwoju nauki, i to jednostką, której nie sposób w pełni zredukować do jej logicznie składowych części, które mogłyby przejąć jej funkcje? W rozdziale piątym zobaczymy, że odpowiedź na te i inne podobne pytania jest niezbędna do zrozumienia nauki normalnej i związanego z nią pojęcia paradygmatów. Ta bardziej abstrakcyjna analiza będzie jednak wymagała uprzedniego przytoczenia przykładów paradygmatów i funkcjonowania nauki normalnej. Obydwa omawiane pojęcia staną się jaśniejsze, kiedy zrozumiemy, że pewien rodzaj badań naukowych może się obyć bez paradygmatów, a przynajmniej bez tak wiążących i jednoznacznych jak wymienione wyżej. Ukształtowanie się paradygmatu i bardziej wyspecjalizowanych badań, na jakie on pozwala, jest oznaką dojrzałości danej dyscypliny naukowej.

[4] Gdyby historyk nauki chciał prześledzić rozwój wiedzy o jakiejś wybranej grupie pokrewnych zjawisk, natknąłby się na pewne szczególne przypadki ogólnego schematu, który zilustrować tu można na przykładzie optyki fizycznej. Dzisiejsze podręczniki fizyki powiadają, że światło to strumień fotonów, tj. obiektów kwantowych przejawiających zarówno właściwości falowe, jak korpuskularne. To przekonanie właśnie, a ściślej - jego rozbudowane, oparte na matematyce ujęcie, z którego wywodzi się te słowne charakterystyki, wytycza dziś kierunek badań naukowych. Ale taka charakterystyka światła liczy sobie niedużo więcej niż pół wieku. Nim na początku tego stulecia wprowadzona została przez Plancka, Einsteina i innych, podręczniki fizyki twierdziły, że światło ma charakter ruchu fal poprzecznych. Koncepcja ta była zakorzeniona w paradygmacie opartym na pracach z optyki Younga i Fresnela (początek XIX wieku). Ale również teoria falowa nie była pierwszą w historii koncepcją uznaną przez wszystkich niemal uczonych zajmujących się optyką. W wieku XVIII paradygmatu dla tej dziedziny dostarczała Optyka Newtona, głosząca, że światło to materialne korpuskuły. W owym czasie fizycy poszukiwali świadectw, o które później nie kłopotali się pierwsi twórcy teorii falowej, na rzecz tezy, iż korpuskuły światła wywierają ciśnienie, uderzając w ciała stałe.

[5] Te przeobrażenia paradygmatów optyki fizycznej są rewolucjami naukowymi, a kolejne rewolucyjne przejścia od jednego do drugiego paradygmatu wyznaczają normalny schemat rozwoju dojrzałej nauki. Nie był to jednak schemat charakterystyczny dla nauki przed Newtonem i ta właśnie różnica jest tu dla nas interesująca. Od zamierzchłej starożytności aż do końca XVII wieku nie było okresu, w którym panowałby jeden ogólnie przyjęty pogląd na istotę światła. Odwrotnie, zawsze istniało wiele współzawodniczących szkół i szkółek, z których każda broniła takiego czy innego wariantu teorii Epikura, Arystotelesa lub Platona. Jedni uważali, że światło to cząstki emanujące z ciał materialnych, inni sądzili, że jest ono jakimś rodzajem ośrodka przewodzącego między ciałem a okiem; jeszcze inni usiłowali znaleźć wyjaśnienie w oddziaływaniu między ośrodkiem przewodzącym a emanacją płynącą z oka. Istniały również rozmaite kombinacje i modyfikacje tych poglądów. Każda ze szkół znajdowała oparcie w jakiejś metafizyce i każda kładła nacisk na ten szczególny zespół zjawisk optycznych - swój zespół obserwacji paradygmatycznych - które jej teoria potrafiła najlepiej wyjaśnić. Inne zjawiska tłumaczono za pomocą jakichś założeń ad hoc lub też pozostawały otwartym problemem dla przyszłych prac badawczych.

[6] Na przestrzeni wieków szkoły te wnosiły poważny wkład do zespołu koncepcji, zjawisk i technik, z którego Newton wyprowadził pierwszy niemal powszechnie przyjęty paradygmat optyki fizycznej. Każda definicja uczonego, która nie obejmuje przynajmniej bardziej twórczych przedstawicieli tych różnych szkół, wyklucza zarazem ze swego zakresu ich nowożytnych następców. Ludzie ci byli niewątpliwie uczonymi. Wszelako zapoznanie się z optyką fizyczną epoki przed Newtonem może nas doprowadzić do wniosku, że chociaż badacze tej dziedziny zjawisk byli uczonymi, to jednak ostatecznego rezultatu ich działalności nie można w pełni nazwać nauką. Nie mogąc uznać żadnego z funkcjonujących zespołów przekonań za dostatecznie uzasadniony, każdy, kto pisał na temat optyki fizycznej, czuł się zmuszony do budowania swej teorii od podstaw. Korzystał przy tym ze względnej swobody doboru najbardziej odpowiadających mu obserwacji i doświadczeń, brak było bowiem jakiegokolwiek modelu wyznaczającego, z jakich metod każdy musi korzystać i jakie zjawiska musi umieć wyjaśnić. W tych okolicznościach wywody przedstawiane w rozprawach zwracały się w równej mierze do przedstawicieli innych szkół, co do samej przyrody. Schemat ten nie jest czymś niezwykłym również i dzisiaj w wielu dziedzinach, nie wyklucza on też dokonywania ważnych odkryć i wynalazków. Nie jest to jednak ten schemat, wedle którego optyka fizyczna rozwijała się po Newtonie i który rozpowszechniony został przez inne gałęzie przyrodoznawstwa.

[7] Jeszcze lepszego i bardziej znanego przykładu rozwoju nauki przed osiągnięciem przez nią ogólnie uznanego paradygmatu dostarcza historia badań nad elektrycznością w pierwszej połowie XVIII wieku. W tej epoce funkcjonowało prawie tyle poglądów na istotę elektryczności, ilu było poważniejszych eksperymentatorów - ludzi takich jak Hauksbee, Gray, Desaguliers, Du Fay, Nollet, Watson, Franklin i inni. Wszystkie ich koncepcje, a było ich wiele, miały wspólną cechę: po części wywodziły się z takiej czy innej wersji mechanistyczno-korpuskularnej filozofii nadającej wówczas kierunek wszystkim badaniom naukowym. W dodatku wszystkie były komponentami rzeczywistych teorii naukowych, teorii opartych w pewnej mierze na eksperymencie i obserwacji i częściowo wyznaczających wybór i interpretację innych problemów podejmowanych w badaniach. Mimo że wszystkie te eksperymenty dotyczyły elektryczności, a eksperymentatorzy w większości wypadków zaznajamiali się wzajemnie ze swymi pracami, teorie ich odznaczały się najwyżej pokrewieństwem rodzinnym.

[8] Niektóre wczesne teorie, zgodnie z siedemnastowieczną praktyką, za podstawowe zjawiska elektryczne uważały przyciąganie i tarcie. Odpychanie usiłowały one ująć jako zjawisko wtórne, rezultat pewnego rodzaju mechanicznego odbicia. Starały się one również, tak długo, jak to było możliwe, pomijać zarówno analizę, jak systematyczne badania nad nowo odkrytym przez Graya zjawiskiem przewodnictwa elektrycznego. Inni "elektrycy" (używam tu ich własnego określenia) uważali przyciąganie i odpychanie za jednakowo elementarne przejawy elektryczności i odpowiednio do tego modyfikowali swoje teorie i doświadczenia. (Grupa ta była faktycznie bardzo nieliczna - nawet teoria Franklina nigdy w pełni nie wytłumaczyła wzajemnego odpychania się dwu ujemnie naładowanych ciał). Mieli jednak tyleż samo kłopotów co pierwsza grupa z jednoczesnym wyjaśnieniem najprostszych choćby zjawisk związanych z przewodnictwem. Te ostatnie stały się z kolei punktem wyjścia dla jeszcze jednej szkoły, która skłonna była ujmować elektryczność raczej jako fluid zdolny do przepływania przez przewodniki niż jako emanację wypływającą z nieprzewodników. Szkoła ta miała z kolei kłopoty z pogodzeniem swej teorii ze zjawiskami przyciągania i odpychania. Dopiero pracy Franklina i jego bezpośrednich następców zawdzięczamy teorię, która z jednakową niemal łatwością tłumaczyła prawie wszystkie te zjawiska i która mogła wobec tego dostarczyć, i faktycznie dostarczyła, następnym pokoleniom badaczy elektryczności wspólnego paradygmatu.

[9] Poza takimi dziedzinami nauki jak matematyka i astronomia, w których pierwsze trwałe paradygmaty pochodzą z czasów prehistorycznych, oraz takimi jak biochemia, które powstały poprzez podział i nowe połączenie wcześniej już dojrzałych dyscyplin, sytuacje opisane wyżej są historycznie typowe. Mimo iż zmusza mnie to do korzystania z niefortunnych uproszczeń polegających na przyporządkowaniu długim historycznym procesom określonych i może nieco dowolnie wybranych nazwisk (np. Franklina czy Newtona), twierdzę, że podobne zasadnicze sprzeczności cechowały na przykład badania ruchu przed Arystotelesem, statyki przed Archimedesem, ciepła przed Blackiem, chemii przed Boyle'em i Boerhaavem oraz geologii historycznej przed Huttonem. W niektórych działach biologii, np. w genetyce, pierwsze powszechnie uznane paradygmaty są nader świeżej daty. Pozostaje też sprawą otwartą, czy którakolwiek z dyscyplin nauk społecznych w ogóle osiągnęła już jakiś paradygmat. Historia pokazuje, że droga do osiągnięcia takiej jednomyślności w badaniach jest niezwykle trudna.

[10] Historia wskazuje jednak również niektóre przyczyny tych trudności. Tam, gdzie brak paradygmatu lub czegoś, co do tej roli mogłoby pretendować, wydaje się, że wszystkie fakty, które mogą przyczyniać się do rozwoju danej dyscypliny, są równie doniosłe. W rezultacie gromadzenie faktów we wczesnym okresie ma charakter o wiele bardziej przypadkowy niż działalność badawcza, którą znamy z późniejszego okresu rozwoju nauki. Co więcej, tam, gdzie brak bodźców do poszukiwania jakichś szczególnych, trudno dostępnych informacji, zbieranie faktów ogranicza się początkowo do wykorzystywania danych znajdujących się w najbliższym zasięgu. Otrzymywany w ten sposób zespół faktów zawiera zarówno te, które uzyskuje się w wyniku przypadkowych informacji i doświadczeń, jak też i bardziej wyspecjalizowane dane, wykrywane na gruncie takich rzemiosł, jak medycyna, układanie kalendarzy czy metalurgia. Ponieważ rzemiosła te są łatwo dostępnym źródłem faktów, których nie sposób wykryć w sposób przypadkowy, technologia często powoływała do życia nowe dyscypliny wiedzy.

[11] Chociaż ten typ zbierania faktów był nader istotnym czynnikiem powstania wielu ważnych nauk, to jednak badając na przykład encyklopedyczne pisma Pliniusza albo siedemnastowieczne "historie naturalne" Bacona, trudno oprzeć się wrażeniu, że prowadzą one na manowce. Nabieramy wątpliwości, czy literatura taka zasługuje na miano naukowej. Baconowskie "historie" ciepła, barwy, wiatru, górnictwa itd. przepełnione są informacjami niekiedy nawet bardzo wyszukanymi. Stawiają jednak na równi fakty, które później okazują się rewelacjami (np. ciepło mieszania), z innymi (np. ciepło kupy nawozu), które długo jeszcze były zbyt skomplikowane, by mogły być teoretycznie ujęte. W dodatku, wobec tego, że każdy opis musi być niepełny, typowa "historia naturalna" w swych najbardziej szczegółowych sprawozdaniach pomija właśnie te szczegóły, które w przyszłości staną się dla uczonych szczególnie inspirujące. Niemal żadna z dawnych "historii" elektryczności nie wspomina o tym, że skrawki przyciągnięte przez potarty szklany pręt opadają z powrotem. Zjawisko to uważano raczej za mechaniczne niż elektryczne. Co więcej, ponieważ przypadkowy zbieracz faktów rzadko kiedy rozporządza czasem i środkami niezbędnymi do zajęcia postawy krytycznej, "historie naturalne" często zestawiają opisy tego rodzaju co wyżej przytoczony z innymi, np. z ogrzewaniem przez chłodzenie, których absolutnie nie jesteśmy w stanie sprawdzić. Tylko zupełnie sporadycznie, jak na przykład w przypadku dawnej statyki, dynamiki i optyki geometrycznej, zdarzało się, że fakty zbierane przy tak słabym oparciu o teorię przemawiały w sposób dostatecznie jasny, by wyłonić się z nich mógł pierwszy paradygmat.

[12] W takich właśnie okolicznościach powstawały szkoły typowe dla pierwszych stadiów rozwoju nauki. Nie można interpretować żadnej "historii naturalnej", nie biorąc pod uwagę uwikłanych w nią przekonań teoretycznych i metodologicznych, stanowiących podstawę selekcji, oceny i krytyki. O ile zespół tych przekonań nie tkwi implicite w przedstawionym zbiorze faktów - w takim wypadku nie mielibyśmy do czynienia z samymi tylko faktami - musi być zaczerpnięty z zewnątrz - czy to z jakiegoś systemu metafizyki, czy z jakiejś innej nauki, czy też z wydarzeń osobistych lub historycznych. Nic dziwnego więc, że we wczesnych stadiach rozwoju nauk różni ludzie, mając do czynienia z tym samym zakresem faktów, lecz zazwyczaj nie ze wszystkimi tymi samymi indywidualnymi zjawiskami, opisywali je i interpretowali w rozmaity sposób. Zastanawiające jest - a w takiej mierze zachodzi to chyba tylko w nauce - że te początkowe rozbieżności później stopniowo znikają.

[13] Bo istotnie, najpierw maleją, a później, jak się zdaje, znikają raz na zawsze. Co więcej, nikną przeważnie dlatego, że triumfuje jedna ze szkół przedparadygmatycznych, która dzięki swym charakterystycznym przekonaniom i uprzedzeniom kładzie nacisk tylko na pewną część zbyt obszernych wyjściowych informacji; Doskonałym przykładem będą tutaj ci badacze elektryczności, którzy traktowali ją jako fluid i z tej racji zwracali szczególną uwagę na zjawisko przewodnictwa. Opierając się na tym przekonaniu, które coraz trudniej było pogodzić z wieloma zjawiskami przyciągania i odpychania, kilku z nich wpadło na pomysł gromadzenia fluidu elektrycznego w naczyniach. Pośrednim owocem ich wysiłków był wynalazek butelki lejdejskiej. Na taki pomysł nie mógł wpaść ten, kto bada przyrodę w sposób przypadkowy. A jednak co najmniej dwóch badaczy, zupełnie niezależnie od siebie, doszło do niego w początku lat czterdziestych XVIII wieku. Niemal od początku swych badań nad elektrycznością Franklin starał się przede wszystkim wytłumaczyć dziwne i rzeczywiście rewelacyjne działanie tego przyrządu. Jego ważkie i trafne argumenty przyczyniły się do tego, że opracowana przezeń teoria stała się paradygmatem, choć sama nie mogła jeszcze zdać sprawy ze wszystkich znanych przypadków elektrycznego odpychania. Aby teoria mogła być uznana za paradygmat, musi wydawać się lepsza od konkurencyjnych, ale nie musi tłumaczyć - i faktycznie nigdy nie tłumaczy - wszystkich faktów, do których można ją odnieść.

[14] Paradygmat Franklina stał się później dla wszystkich badaczy elektryczności tym, czym była koncepcja elektryczności jako fluidu dla grupy jej zwolenników. Wskazywał on, jakie doświadczenia warto podejmować, a jakimi zajmować się nie warto, gdyż ujawnić mogą tylko bądź uboczne, bądź zbyt złożone zjawiska elektryczne. Z tym tylko, że paradygmat ten o wiele skuteczniej spełniał tę funkcję. Po części dlatego, że wygaśnięcie sporów między poszczególnymi szkołami położyło kres stałemu przeformułowywaniu podstaw teoretycznych, częściowo zaś z tej racji, że uczeni, przekonani o słuszności obranej drogi, ośmielili się podejmować bardziej precyzyjne, wyspecjalizowane i szeroko zakrojone prace. Zwolnieni z obowiązku rozpatrywania wszystkich zjawisk elektrycznych łącznie i każdego z osobna, badacze elektryczności mogli się zająć bardziej szczegółowymi badaniami, projektując w tym celu specjalną aparaturę i korzystając z niej w sposób bardziej wytrwały i systematyczny niż kiedykolwiek przedtem. Zarówno zbieranie faktów, jak budowanie teorii stało się działalnością ściśle ukierunkowaną przez przyjęte zasady. Równocześnie badania nad elektrycznością stawały się coraz bardziej owocne i skuteczne, potwierdzając tym samym słuszność metodologicznego aforyzmu Franciszka Bacona: "Prawdę łatwiej wyłowić z błędów niż z zamętu".

[15] Istotą tych ukierunkowanych, czyli opartych na paradygmacie, badań zajmiemy się w następnym rozdziale. Na razie jednak musimy pokrótce rozważyć, w jaki sposób wyłonienie się paradygmatu wpływa, na strukturę grupy zajmującej się badaniem danej dziedziny zjawisk. Kiedy w naukach przyrodniczych po raz pierwszy indywidualnie lub grupowo osiągnięta zostaje synteza zdolna przyciągnąć zainteresowanie następnych pokoleń badaczy, następuje stopniowy upadek dawnych szkół. Po części jest to następstwem przyjęcia przez ich zwolenników nowego paradygmatu. Zawsze pozostaje jednak pewna ilość badaczy wiernych temu czy innemu dawnemu poglądowi. Zostają oni po prostu skreśleni z grona uznanych specjalistów, a prace ich są ignorowane. Nowy paradygmat narzuca nowe, bardziej restryktywne określenie przedmiotu badań danej dziedziny. Wszyscy, którzy nie chcą lub nie mogą się do niego przystosować, działać muszą w izolacji lub związać się z jakąś inną grupą. Historycznie rzecz biorąc, często pozostawali oni po prostu na wydziałach filozofii, z których wyłoniło się tak wiele specjalistycznych gałęzi nauki. Jak wynika z powyższego, akceptacja paradygmatu jest właśnie tym czynnikiem, który przekształci uprawiane przez jakąś grupę badania przyrody w zawód czy - co najmniej - w odrębną dyscyplinę! Przyjęcie w jakiejś dziedzinie nauki (ale nie w takich jak medycyna, technologia i prawo, których główną racją bytu jest płynące z zewnątrz zapotrzebowanie społeczne) pierwszego wspólnego paradygmatu wiązało się zwykle z powstawaniem wyspecjalizowanych towarzystw naukowych, pojawianiem się fachowych czasopism oraz przyznaniem jej odrębnego miejsca w programach nauczania. Przynajmniej tak się dzieje od stu pięćdziesięciu lat, od kiedy ukształtował się wzorzec naukowej specjalizacji, po nasze czasy, w których ugruntował się jej prestiż.

[16] Sztywniejsze określenie grupy naukowej ma jeszcze inne konsekwencje. Poszczególni uczeni, uznając dany paradygmat, nie muszą już w swoich głównych pracach podejmować prób budowania od nowa całej dziedziny wiedzy, zaczynać od podstawowych zasad i usprawiedliwiać każdego z wprowadzanych pojęć. Mogą to pozostawić autorom podręczników. Kiedy istnieje podręcznik, uczony może rozpocząć swą pracę w tym punkcie, w którym kończy się wiedza podręcznikowa. Dzięki temu może skupić całą swoją uwagę na najsubtelniejszych i najbardziej niezwykłych aspektach zjawisk przyrody interesujących jego grupę. Z tą chwilą zaczyna się zmieniać forma, w jakiej zdaje on sprawę z własnych badań; ewolucja tych form nie jest wprawdzie dostatecznie zbadana, ale jej skutki są dziś dla wszystkich widoczne, a dla wielu osób przytłaczające. Wyników swych nie będzie już przedstawiał w książkach tego typu, coExperiments... on Electricity (Doświadczenia... w dziedzinie elektryczności) Franklina czy Pochodzenie gatunków (Origin of Species) Darwina, adresowanych do każdego, kto interesuje się daną tematyką. Będą się one natomiast ukazywać w formie krótkich artykułów przeznaczonych dla kolegów specjalistów, tj. dla ludzi, co do których można założyć, że znany im jest wspólny paradygmat, i którzy rzeczywiście jako jedyni są w stanie czytać tego typu publikacje.

[17] Dzisiaj w naukach przyrodniczych książki są bądź podręcznikami, bądź retrospektywnymi refleksjami związanymi z takim czy innym aspektem życia naukowego. Uczony, który książkę taką pisze, bardziej naraża swą reputację na szwank, niż ją umacnia. Tylko w dawniejszych, przedparadygmatycznych stadiach rozwoju nauk przyrodniczych stosunek między napisaniem książki a wartością naukowych osiągnięć był taki, jaki w innych dziedzinach twórczych pozostał po dzień dzisiejszy. I tylko w tych dziedzinach, w których książka - wraz z artykułami czy bez nich - pozostaje nadal środkiem naukowego komunikowania się, profesjonalizacja jest wciąż jeszcze na tyle luźna, że laik może liczyć, iż nadąży za postępem, zapoznając się z oryginalnymi relacjami badaczy. Zarówno w matematyce, jak w astronomii doniesienia o pracach badawczych przestały być zrozumiałe dla przeciętnie wykształconego odbiorcy już w starożytności. W dynamice stały się one podobnie wyspecjalizowane w późnym średniowieczu; odzyskały swą zrozumiałość dla ogółu tylko na krótki okres w wieku XVII, kiedy nowy paradygmat zastąpił dawny, kierujący badaniami średniowiecznymi. Prace dotyczące elektryczności wymagały objaśniania ich laikom od końca wieku XVIII, a większość innych dziedzin nauk fizycznych przestała być zrozumiała dla każdego w wieku XIX. W ciągu tych samych dwustu lat podobne zjawiska można zaobserwować w różnych dziedzinach badań biologicznych, a współcześnie zachodzą one zapewne w niektórych naukach społecznych. Mimo że przywykliśmy do całkowicie uzasadnionych lamentów nad pogłębianiem się przepaści między uczonymi reprezentującymi różne dziedziny wiedzy, zbyt mało uwagi poświęcamy zasadniczym zależnościom między pojawianiem się tej przepaści a wewnętrznym mechanizmem postępu nauki.

[18] Już od czasów prehistorycznej starożytności jedna dziedzina wiedzy po drugiej przekraczała w swym rozwoju punkt, który dzieli jej dzieje - mówiąc słowami historyka - na prehistorię i historię właściwą. Te przejścia rzadko kiedy zachodziły tak nagle i jednoznacznie, jakby to mogło wynikać z moich, z konieczności schematycznych, rozważań. Ale nigdy też nie miały one charakteru tak stopniowego, by można było uznać, że rozciągają się na cały okres rozwoju dyscypliny, w której miały miejsce. Autorzy traktujący o elektryczności w pierwszym czterdziestoleciu XVIII wieku dysponowali dużo większą ilością informacji o zjawiskach elektrycznych niż ich szesnastowieczni poprzednicy. W ciągu następnych pięćdziesięciu lat po roku 1740 do informacji tych dodano niewiele nowego. Jednak jeśli chodzi o sprawy podstawowe, wydaje się, że to, co w ostatnich trzydziestu latach XVIII wieku pisali o elektryczności Cavendish, Coulomb i Volta, bardziej odbiega od prac Graya, Du Faya i nawet Franklina niż poglądy tych wczesnoosiemnastowiecznych badaczy od przekonań ich szesnastowiecznych poprzedników. Gdzieś między rokiem 1740 a 1780 badacze elektryczności mogli po raz pierwszy nabrać przekonania, że ich dziedzina opiera się na solidnych fundamentach. Przerzucili się wówczas na bardziej szczegółowe i zawiłe zagadnienia. Coraz częściej ogłaszali uzyskiwane wyniki w postaci artykułów przeznaczonych dla specjalistów, a nie w książkach adresowanych do szerokiego kręgu wykształconych czytelników. Osiągnęli to, co astronomia w starożytności, nauka o ruchu w wiekach średnich, optyka fizyczna w końcu wieku XVII, a geologia historyczna w początkach XIX stulecia: zdobyli paradygmat, który był w stanie pokierować badaniami całej grupy. Jeśli pominąć możliwości, jakie daje wiedza ex post, trudno o lepsze kryterium, które w tak jasny sposób rozstrzygałoby o tym, czy dana dziedzina jest nauką.

III. NATURA NAUKI NORMALNEJ

[1] Na czym polegają zatem te bardziej wyspecjalizowane i bardziej profesjonalne badania, na jakie pozwala wyłonienie się wspólnego dla jakiejś grupy paradygmatu? Jeśli paradygmat wiąże się z definitywnym rozstrzygnięciem badanych problemów, to jakie zagadnienia pozostawia on zjednoczonej na jego gruncie szkole do rozwiązania? Pytania te staną się jeszcze ważniejsze, gdy zdamy sobie sprawę, że pod pewnym względem stosowane dotąd terminy mogą być mylące. Przez "paradygmat" zwykło się rozumieć przyjęty model czy wzorzec. Ten właśnie odcień znaczeniowy pozwolił mi - z braku lepszego określenia - zastosować to słowo w niniejszej pracy. Wkrótce jednak ujrzymy, to znaczenie słów "model", "wzorzec" niezupełnie odpowiada treści, jaką wkłada się zazwyczaj w pojęcie paradygmatu. Na przykład w gramatyce amo, amas, amat jest paradygmatem, gdyż stanowi wzorzec koniugacji wielu innych czasowników łacińskich, według którego tworzy się np. formy laudo, laudas, laudat. W tym standardowym zastosowaniu funkcjonowanie paradygmatu polega na tym, że pozwala on powielać przykłady, z których każdy mógłby w zasadzie zająć jego miejsce. W nauce natomiast paradygmat rzadko kiedy jest przedmiotem takiego odwzorowania. Stanowi on raczej, podobnie jak decyzja prawna w prawie zwyczajowym, przedmiot dalszego uszczegółowienia i uściślenia w nowych lub trudniejszych warunkach.

[2] By to zrozumieć, musimy sobie uzmysłowić, jak bardzo ograniczony zarówno pod względem swego zakresu, jak i ścisłości może być nowo powstały paradygmat. Paradygmaty uzyskują swój status dzięki temu, że okazują się bardziej skuteczne od swych konkurentów w rozwiązywaniu niektórych problemów uznanych przez grono praktyków za palące. Nie znaczy to jednak, że paradygmaty są całkowicie skuteczne, gdy chodzi o rozwiązanie pojedynczego problemu czy, tym bardziej, większej ich ilości. Sukces paradygmatu - czy to będzie Arystotelesowska analiza ruchu, Ptolemeuszowe obliczenia położeń planet, zastosowanie wagi przez Lavoisiera czy też matematyzacja pola elektromagnetycznego przez Maxwella - to początkowo przede wszystkim obietnica sukcesu, na jaki liczy się, mając do dyspozycji tylko wybrane i niepełne przykłady. Nauka normalna urzeczywistnia tę obietnicę, rozszerzając wiedzę o faktach, które dany paradygmat ukazuje jako szczególnie ważne, poszerzając zakres zgodności między tymi faktami a formułowanymi na gruncie paradygmatu przewidywaniami oraz uściślając sam paradygmat.

[3] Spośród ludzi, którzy nie zajmują się uprawianiem którejś z dojrzałych nauk, tylko niewielu zdaje sobie sprawę z tego, jak szerokie pole dla tego rodzaju porządkowych prac pozostawia jeszcze paradygmat i jak fascynująca może być to praca. I to właśnie wymaga zrozumienia. Większość uczonych poświęca się w swojej działalności zawodowej pracom porządkowym. One właśnie składają się na to, co nazywam nauką normalną. Jeśli poddać je dokładniejszej analizie, czy to w aspekcie historycznym, czy w ich współczesnej postaci, odnosi się wrażenie, że polegają one na próbie wtłoczenia przyrody do gotowych już i względnie sztywnych szufladek, których dostarcza paradygmat. Celem nauki normalnej nie jest bynajmniej szukanie nowych rodzajów zjawisk; raczej nie dostrzega ona tych, które nie mieszczą się w jej gotowych szufladkach. Również uczeni nie starają się zazwyczaj wynajdywać nowych teorii i są często nietolerancyjni wobec tych, które sformułowali inni. Badania w ramach nauki normalnej dążą do uszczegółowienia tych zjawisk i teorii, których dostarcza paradygmat.

[4] Są to, być może, wady. Obszary objęte badaniami nauki normalnej są oczywiście bardzo ograniczone; badania te mają niezwykle zawężony horyzont. Ale okazuje się, że restrykcje zrodzone z wiary w paradygmat mają zasadnicze znaczenie dla rozwoju nauki. Paradygmat koncentruje uwagę uczonych na niewielkiej liczbie specjalistycznych zagadnień, pozwala im zbadać pewien wycinek przyrody w tak szczegółowy i dogłębny sposób, jaki bez niego trudno byłoby sobie nawet wyobrazić. Nauka normalna wyposażona jest wszakże w "wewnętrzny mechanizm", który rozluźnia restrykcje wiążące prace badawcze, gdy tylko będący ich źródłem paradygmat przestaje być skuteczny. Wówczas uczeni zmieniają tok postępowania i zmienia się charakter problematyki badawczej. Przedtem jednak, w okresie sukcesów paradygmatu, rozstrzygnięcie znajdują problemy, których poszczególni uczeni nawet nie podejrzewaliby i których nigdy by nie podjęli, gdyby nie polegali na paradygmacie. Okazuje się przy tym, że zawsze przynajmniej jakaś część tych osiągnięć zachowuje trwałą wartość.

[5] Chcąc lepiej wyjaśnić, co rozumiem przez badania normalne, czyli oparte na paradygmacie, postaram się wymienić i zilustrować problemy, jakimi zasadniczo zajmuje się nauka normalna. Dla wygody pominę na razie działalność teoretyczną i zacznę od gromadzenia faktów, tj. od eksperymentów i obserwacji, o których uczeni donoszą w czasopismach specjalistycznych w celu informowania swoich kolegów o wynikach badań. Jakich aspektów przyrody doniesienia te zazwyczaj dotyczą? Co determinuje ich wybór? Skoro zaś większość naukowych obserwacji wymaga wiele czasu, wyposażenia i pieniędzy, to jakie są motywy skłaniające uczonego, by uparcie poszukiwał rozwiązania wybranego problemu?

[6] Wydaje mi się, że normalnie tego typu badania naukowe skupiają się na trzech klasach faktów, przy czym nie zawsze i nie na stałe da się je odróżnić. Po pierwsze, chodzi o tę klasę faktów, które - jak to wykazał paradygmat - szczególnie dobitnie odsłaniają istotę rzeczy. Wykorzystując je do rozwiązywania problemów, paradygmat każe je badać zarówno z większą dokładnością, jak i w bardziej zróżnicowanych okolicznościach. W różnych okresach te ważne badania empiryczne dotyczyły: w astronomii - położeń i wielkości gwiazd, okresów zaćmień; w fizyce - ciężarów właściwych i ściśliwości materiałów, długości fal i natężenia widma, przewodnictwa elektrycznego i potencjałów styku; w chemii - składu i równoważników ciężarowych, punktów wrzenia i kwasowości roztworów, wzorów strukturalnych i aktywności optycznej związków. Próby uściślenia i poszerzenia wiedzy o tego rodzaju faktach zajmują znaczną część miejsca w literaturze nauk empirycznych. W tym celu konstruowano coraz to nowe, skomplikowane, specjalne przyrządy, których projektowanie, budowanie i wykorzystanie wymagało najwyższego talentu, wiele czasu i znacznych środków finansowych. Synchrotrony i radioteleskopy są tylko najnowszymi przykładami środków, do których odwołują się eksperymentatorzy, jeśli paradygmat daje im pewność, że fakty, których poszukują, są doniosłe. Od czasów Tychona Brahe do E. O. Lawrence'a niektórzy uczeni uzyskiwali sławę nie dzięki nowości swych odkryć, lecz dzięki dokładności, wiarygodności i zakresowi zastosowania metod, które opracowali z myślą o ponownym ujęciu znanych już uprzednio rodzajów faktów.

[7] Druga często występująca, choć węższa klasa badań eksperymentalnych dotyczy tych faktów, które - choć same przez się są często mało interesujące - mogą być bezpośrednio porównywane z prognozami formułowanymi na gruncie teorii paradygmatycznych. Wkrótce, kiedy przejdę od omawiania problemów doświadczalnych nauki normalnej do jej zagadnień teoretycznych, będziemy mogli się przekonać, że niewiele jest takich obszarów, na których teoria naukowa, zwłaszcza jeśli jest znacznie zmatematyzowana, może być bezpośrednio konfrontowana z przyrodą. Nawet dziś znane są tylko trzy grupy faktów, za pomocą których sprawdzać można ogólną teorię względności Einsteina. Co więcej, nawet w tych dziedzinach, w których możliwość taka istnieje, często niezbędne jest stosowanie zarówno teoretycznych, jak i doświadczalnych przybliżeń, co znacznie ogranicza zgodność uzyskiwanych wyników z teoretycznym przewidywaniem. Zmniejszanie tych rozbieżności lub znajdowanie nowych obszarów, na których można by taką zgodność wykazać, jest ciągłym wyzwaniem dla umiejętności i wyobraźni eksperymentatorów i obserwatorów. Specjalne teleskopy mające potwierdzić kopernikańską prognozę rocznej paralaksy, maszyna Atwooda po raz pierwszy zaprojektowana sto lat po ukazaniu się Principiów, aby udowodnić drugie prawo Newtona, aparatura Foucaulta pomyślana w celu wykazania, że prędkość światła jest większa w powietrzu niż w wodzie, lub gigantyczne liczniki scyntylacyjne, które miały wykazać istnienie neutrina - te i inne tego rodzaju przyrządy i aparaty pokazują, jak ogromnego wysiłku i pomysłowości było trzeba, aby uzyskiwać coraz większą zgodność teorii z przyrodą. Te właśnie dążenia do wykazania zgodności są drugim rodzajem normalnych badań eksperymentalnych; są one zależne od paradygmatu w sposób jeszcze bardziej oczywisty niż badania pierwszego rodzaju. Istnienie paradygmatu wyznacza problem do rozwiązania; często projekt aparatu przeznaczonego do rozwiązania problemu jest bezpośrednio oparty na teorii paradygmatycznej. Na przykład bez Newtonowskich Principiów pomiary za pomocą maszyny Atwooda pozbawione byłyby jakiegokolwiek znaczenia.

[8] Trzecia i ostatnia, jak sądzę, klasa eksperymentów nauki normalnej, mających na celu zbieranie faktów, obejmuje uszczegółowienie teorii paradygmatycznej, rozwiązywanie niektórych pozostałych jej dwuznaczności i rozwiązywanie problemów, na które poprzednio zwracano tylko uwagę. Ta klasa doświadczeń wydaje się najważniejsza, a dokładniejsze jej omówienie wymaga wyróżnienia w niej kilku podklas. W naukach bardziej matematycznych niektóre z doświadczeń mających na celu uszczegółowienie teorii służą do wyznaczania stałych fizycznych. Dzieło Newtona wskazywało na przykład, że siła przyciągania działająca między dwiema jednostkowymi masami umieszczonymi w jednostkowej odległości jest taka sama dla wszystkich rodzajów materii i wszystkich położeń we wszechświecie. Jednakże problemy, którymi zajmował się sam Newton, mogły zostać rozwiązane nawet bez szacunku wartości tego przyciągania - uniwersalnej stałej grawitacyjnej. I przez sto lat po ukazaniu się Principiów nie opracowano nawet projektu przyrządu umożliwiającego taki pomiar. Słynny pomiar Cavendisha w latach dziewięćdziesiątych XVIII wieku nie był też bynajmniej ostatni. Również po nim, ze względu na zasadnicze znaczenie stałej grawitacyjnej w fizyce, wielu wybitnych eksperymentatorów wciąż na nowo próbowało uściślić jej wartość. Inne przykłady ciągłych wysiłków tego samego rodzaju to ustalanie wartości jednostek astronomicznych, liczby Avogadra, współczynnika Joule'a, ładunku elektronu itd. Gdyby teoria paradygmatyczna nie precyzowała problemu i nie gwarantowała, iż istnieje dlań rozwiązanie, wiele tych pracochłonnych zagadnień nie byłoby w ogóle podjętych, a żadne nie zostałoby opracowane do końca.

[9] Wysiłki zmierzające do uszczegółowienia paradygmatu nie ograniczają się jednak do określania stałych uniwersalnych. Celem ich może być równie dobrze formułowanie praw ilościowych. Prawo Boyle'a ustalające zależność między ciśnieniem i objętością gazu, prawo przyciągania elektrostatycznego Coulomba, formuła Joule'a wiążąca wytwarzane ciepło z oporem elektrycznym i prądem - wszystkie one należą do tej właśnie kategorii. Być może to, że warunkiem koniecznym wykrywania tego rodzaju praw jest paradygmat, nie wydaje się zbyt oczywiste. Często słyszy się, że wykryto je w wyniku przeprowadzania analizy jakichś pomiarów podejmowanych dla nich samych, bez żadnej podbudowy teoretycznej. Historia jednak nie świadczy na rzecz takich skrajnie Baconowskich metod. Doświadczenia Boyle'a były nie do pomyślenia (a gdyby je nawet podjęto, inaczej by je zinterpretowano albo też wcale nie zostałyby zinterpretowane) dopóty, dopóki nie uznano powietrza za sprężysty fluid, do którego można było stosować wszystkie poprzednio wypracowane pojęcia hydrostatyki. Coulomb zawdzięczał sukces skonstruowanej przez siebie specjalnej aparaturze do pomiaru siły między ładunkami punktowymi. (Ci badacze, którzy poprzednio mierzyli siły elektryczne, posługując się zwykłymi wagami szalkowymi itp., w ogóle nie wykryli żadnej - ani regularnej, ani prostej - zależności). Po to jednak, aby zaprojektować tę aparaturę, trzeba było uprzednio wiedzieć, że każda cząstka elektrycznego fluidu oddziałuje na odległość na wszystkie pozostałe. Coulomb poszukiwał właśnie takiej siły między cząstkami - jedynej, jaką można było potraktować jako prostą funkcję odległości. Również doświadczenia Joule'a służyć mogą za ilustrację, jak prawa ilościowe formułowane są w drodze uszczegółowienia paradygmatu. W gruncie rzeczy związek między jakościowym paradygmatem a ilościowym prawem jest tak ogólny i ścisły, że od czasów Galileusza prawa takie trafnie odgadywano na gruncie paradygmatu na lata przed tym, nim możliwe było zaprojektowanie odpowiednich przyrządów do pomiarów.

[10] Wreszcie istnieje trzeci rodzaj doświadczeń zmierzających do uszczegółowienia paradygmatu. Bardziej niż inne przypominają one eksplorację, a były szczególnie rozpowszechnione w tych okresach i w tych naukach, które bardziej interesują się jakościowymi niż ilościowymi aspektami regularności przyrody. Często bywa tak, że paradygmat stworzony dla jakiegoś zespołu zjawisk staje się wieloznaczny przy próbach zastosowania go do innych, ściśle związanych z tamtymi. Aby wybrać jedną z alternatywnych dróg stosowania paradygmatu w nowym obszarze, niezbędne są doświadczenia. Na przykład paradygmat związany z teorią cieplika miał zastosowanie do zjawisk ogrzewania i chłodzenia przez mieszanie i zmianę stanu. Ciepło można jednak wyzwalać i absorbować na wiele innych sposobów - np. poprzez reakcje chemiczne, przez tarcie, sprężanie lub absorpcję gazu - i do każdego z tych zjawisk teorię można było stosować w rozmaity sposób. Gdyby na przykład próżnia miała pojemność cieplną, ogrzewanie w wyniku sprężania można by wyjaśnić jako rezultat mieszania się gazu z próżnią. Mogłoby ono również następować wskutek zmiany ciepła właściwego gazu w wyniku zmiany ciśnienia. Istniały i inne ewentualności. Aby opracować te rozmaite możliwości i wybrać właściwą, przeprowadzono mnóstwo doświadczeń. Wszystkie oparte były na teorii cieplika jako na paradygmacie. Korzystano z niego zarówno do projektowania doświadczeń, jak do interpretacji ich wyników. Od momentu gdy odkryto zjawisko ogrzewania przez sprężanie, wszystkie dalsze doświadczenia w tej dziedzinie były w ten sposób zależne od paradygmatu. Gdy dane jest określone zjawisko, jak inaczej można by dobrać odpowiedni do jego wyjaśnienia eksperyment?

[11] Przejdźmy teraz do teoretycznych zagadnień nauki normalnej, które da się sklasyfikować podobnie jak zagadnienia doświadczalne. Pewna, ale raczej niewielka część normalnych zabiegów teoretycznych polega na wyprowadzaniu prognoz z istniejących już teorii. Przewidywania zjawisk astronomicznych, obliczenia charakterystyk soczewek oraz krzywych rozchodzenia się fal radiowych - oto przykłady problemów tego rodzaju. Uczeni jednak traktują to zazwyczaj jako czarną robotę, którą wykonywać powinni inżynierowie i technicy. W poważnych czasopismach naukowych rzadko kiedy ukazują się doniesienia o tego rodzaju pracach. Czasopisma te zawierają jednak wiele rozważań teoretycznych nad problemami, które człowiekowi nie zajmującemu się nauką wydają się niemal identyczne z tamtymi problemami. Rozważań tych nie podejmuje się ze względu na samodzielną wartość wypływających z nich prognoz, lecz po to, by móc bezpośrednio skonfrontować te prognozy z doświadczeniem. Ich celem jest wykrycie nowych zastosowań paradygmatu bądź uściślenie dawniejszych.

[12] Potrzeba tego rodzaju badań rodzi się z ogromnych trudności, jakie często się spotyka, poszukując punktów styku między teorią a rzeczywistością. Kłopoty te można krótko zilustrować na przykładzie historii dynamiki po Newtonie. Na początku XVIII stulecia uczeni, którzy przyjęli paradygmat zawarty w Principiach, sądzili, że wypływające z niego wnioski mają walor uniwersalny, i jak najbardziej mieli do tego podstawy. Żadna ze znanych z historii nauki prac nie stwarzała takich możliwości rozszerzenia zakresu i zarazem uściślenia badań. Dla ciał niebieskich Newton wyprowadził keplerowskie prawa ruchu planet oraz wytłumaczył niektóre zaobserwowane odchylenia od nich w ruchu Księżyca. Dla Ziemi wyprowadził wnioski z niektórych nie powiązanych obserwacji wahadła i przypływów. Za pomocą dodatkowych założeń ad hoc zdołał również wyprowadzić prawo Boyle'a i ważny wzór na prędkość dźwięku w powietrzu. Biorąc pod uwagę stan nauki w tym czasie, mamy prawo sądzić, że dowody te musiały wywołać ogromne wrażenie. Jednakże mając na uwadze zamierzoną ogólność praw Newtona, trzeba stwierdzić, że liczba tych zastosowań była niewielka (wymieniliśmy prawie wszystkie). Co więcej, w porównaniu z tym, co korzystając z tych praw potrafi osiągnąć dziś każdy student kończący fizykę, zastosowania opracowane przez Newtona nie były zbyt ścisłe. Wreszcie Principia miały się w założeniu stosować przede wszystkim do problemów mechaniki niebieskiej. Nie było bynajmniej jasne, jak zastosować je do warunków ziemskich, zwłaszcza w zagadnieniu ruchu wymuszonego. W każdym razie zagadnienia mechaniki ziemskiej były podejmowanie już wcześniej i z powodzeniem rozwiązywane za pomocą całkiem innego zbioru technik, wypracowanych przez Galileusza i Huyghensa, a rozwiniętych na Kontynencie w XVIII wieku przez Bernoullich, d'Alemberta i wielu innych. Przypuszczalnie dałoby się wykazać, że ich techniki i techniki z Principiów są szczególnymi przypadkami jakiegoś ogólniejszego sformułowania, ale przez pewien czas nikt nie wiedział, jak to zrobić.

[13] Ograniczmy na chwilę nasze rozważania do kwestii ścisłości. Omówiliśmy już wyżej doświadczalny aspekt tego zagadnienia. Do uzyskania danych niezbędnych do konkretnych zastosowań paradygmatu newtonowskiego potrzebna była specjalna aparatura, taka jak przyrząd Cavendisha, maszyna Atwooda czy też ulepszone teleskopy. Podobne kłopoty z uzyskaniem zgodności [między teorią a doświadczeniem] istniały od strony teoretycznej. Na przykład stosując swe prawa do wahadła, Newton zmuszony był założyć, że cała masa ciężarka skupiona jest w jednym punkcie. Było to niezbędne do jednoznacznego określenia długości wahadła. Jego twierdzenia, wyjąwszy te o charakterze hipotetycznym i wstępnym, nie uwzględniały również skutków oporu powietrza. Były to trafne fizyczne przybliżenia. Wszelako jako przybliżenia ograniczały oczekiwaną zgodność między prognozami Newtona a rzeczywistymi wynikami doświadczeń. Podobne trudności występowały - i to jeszcze wyraźniej - przy stosowaniu teorii Newtona do zjawisk niebieskich. Proste ilościowe obserwacje teleskopowe wskazywały, że planety nie stosują się ściśle do praw Keplera, co pozostawało w zgodzie z teorią Newtona. Aby wyprowadzić te prawa, Newton zmuszony był pominąć wszystkie oddziaływania grawitacyjne z wyjątkiem przyciągania między poszczególnymi planetami a Słońcem. Wobec tego zaś, że planety oddziałują grawitacyjnie również między sobą, można było liczyć tylko na przybliżoną zgodność między teorią a obserwacjami teleskopowymi.

[14] Uzyskana zgodność była więcej niż zadowalająca. Pominąwszy niektóre problemy mechaniki ziemskiej, żadna inna teoria nie mogła tego zapewnić nawet w części. Nikt z tych uczonych, którzy kwestionowali teorię Newtona, nie czynił tego ze względu na jej ograniczoną zgodność z wynikami eksperymentów i obserwacji. Jednakże istniejące tu niezgodności stawiały przed następcami Newtona wiele fascynujących problemów teoretycznych. Techniki teoretyczne były na przykład niezbędne do ujęcia ruchu więcej niż dwóch przyciągających się ciał oraz do zbadania stabilności zakłóconych orbit. Zagadnienia tego rodzaju zajmowały najwybitniejszych matematyków europejskich w wieku XVIII i w pierwszej połowie wieku XIX. Niektóre z najświetniejszych prac Eulera, Lagrange'a, Laplace'a i Gaussa dotyczyły zagadnień, które trzeba było rozwiązać, aby uzyskać większą zgodność paradygmatu Newtonowskiego z obserwacją nieba. Wielu z tych uczonych pracowało zarazem nad stworzeniem aparatu matematycznego potrzebnego w zastosowaniach teorii, jakich w ogóle nie rozważał ani Newton, ani ówczesna kontynentalna szkoła zajmująca się mechaniką. W rezultacie powstała ogromna literatura i wypracowano niezwykle skuteczne metody matematyczne znajdujące zastosowanie w hydrodynamice i w zagadnieniach związanych z drganiem strun. Te osiągnięcia w dziedzinie zastosowań są zapewne najwybitniejszymi sukcesami nauki osiemnastowiecznej. Innych przykładów dostarczyć może badanie postparadygmatycznego okresu w rozwoju termodynamiki, falowej teorii światła, teorii elektromagnetycznej i wszystkich innych dziedzin nauki, w których fundamentalne prawa miały charakter ilościowy. Przynajmniej w naukach bardziej zmatematyzowanych większość prac teoretycznych dotyczy analogicznych zagadnień.

[15] Większość, ale nie wszystkie. Nawet w naukach zmatematyzowanych istnieją również problemy teoretyczne związane z uszczegółowianiem paradygmatu; w okresach, w których rozwój naukowy jest przede wszystkim rozwojem jakościowym, problemy te odgrywają dominującą rolę. Niektóre z nich - zarówno w naukach o charakterze bardziej jakościowym, jak i w tych o charakterze bardziej ilościowym - związane są po prostu z wyjaśnianiem teorii poprzez jej przeformułowywanie. Na przykład nie zawsze łatwo było stosować Principia - po części wskutek tego, że będąc pierwszym sformułowaniem teorii, musiały być w pewnym stopniu niedopracowane, a częściowo dlatego, że w wielu przypadkach ich istotny sens wyłaniał się dopiero w trakcie stosowania. W każdym razie dla wielu zastosowań w mechanice ziemskiej pozornie nie związany z koncepcją Newtona zbiór technik kontynentalnych wydawał się znacznie efektywniejszy. Dlatego wielu najwybitniejszych europejskich fizyków-teoretyków - od Eulera i Lagrange'a w wieku XVIII, do Hamiltona, Jacobiego i Hertza w wieku XIX - wciąż usiłowało tak przeformułować teorię Newtona, aby uzyskać system równoważny, lecz bardziej zadowalający pod względem logicznym i estetycznym. To znaczy, chcieli oni nadać i jawnym, i ukrytym wnioskom wypływającym z Principiów oraz mechaniki kontynentalnej spójniejszą postać logiczną, tak by można je było stosować w sposób bardziej jednorodny i zarazem bardziej jednoznaczny do nowo podejmowanych problemów mechaniki.

[16] Podobne przeformułowania paradygmatu występowały stale we wszystkich naukach, w większości wypadków jednak prowadziły one do bardziej zasadniczych zmian w jego treści niż przytoczone wyżej przeformułowania Principiów. Zmiany takie są wynikiem badań empirycznych mających na celu uszczegółowienie paradygmatu, o czym mówiliśmy poprzednio. Potraktowanie ich jako empirycznych było więc w pewnej mierze arbitralne. Problemy związane z uszczegółowieniem paradygmatu, bardziej niż jakikolwiek inny rodzaj badań normalnych, mają charakter teoretyczny i eksperymentalny zarazem. Ilustrują to wyżej przytoczone przykłady. Zanim Coulomb mógł zbudować swe przyrządy pomiarowe, musiał korzystać z teorii elektryczności, aby je zaprojektować. Rezultaty tych pomiarów były zarazem uściśleniem teorii. Podobnie uczeni, którzy projektowali doświadczenia mające na celu rozstrzygnięcie pomiędzy różnymi teoriami ogrzewania przez sprężanie, byli z reguły autorami tych teorii, które porównywali ze sobą. Praca ich miała zarówno charakter doświadczalny, jak teoretyczny, a jej rezultatem było nie tylko uzyskanie nowych informacji, lecz i uściślenie paradygmatu w wyniku eliminacji dwuznaczności, jakie zawierał w swej pierwotnej postaci. W wielu dziedzinach nauki znaczna część normalnych badań ma taki właśnie charakter.

[17] Te trzy klasy zagadnień - badanie istotnych faktów, konfrontacja faktów z teorią i uszczegółowianie teorii - wyczerpują, jak sądzę, problematykę zarówno doświadczalną, jak i teoretyczną, której poświęcona jest literatura nauki normalnej. Nie wyczerpują one jednak oczywiście całości literatury naukowej. Istnieją również zagadnienia nadzwyczajne i być może właśnie ich rozwiązywanie nadaje nauce jako całości tak wielką wartość. Ale problemy nadzwyczajne nie pojawiają się na zawołanie. Wyłaniają się one w szczególnych okolicznościach, przygotowanych przez postęp normalnych badań. Nieuchronnie więc przytłaczająca większość zagadnień podejmowanych nawet przez najwybitniejszych uczonych trafia zazwyczaj do jednej z trzech wymienionych kategorii. Prace badawcze wyznaczone przez paradygmat nie mogą być prowadzone w inny sposób. Porzucenie zaś paradygmatu oznacza zrezygnowanie z uprawiania nauki, którą on określa. Wkrótce przekonamy się, że takie wypadki się zdarzają. Są one źródłem rewolucji naukowych. Nim jednak zajmiemy się rewolucjami, uzyskać musimy bardziej panoramiczny obraz tych badań prowadzonych w ramach nauki normalnej, które przecierają szlaki rewolucji.

IV. NAUKA NORMALNA JAKO ROZWIĄZYWANIE ŁAMIGŁÓWEK

[1] Najbardziej uderzającą, jak się zdaje, cechą problemów nauki normalnej, z którymi zapoznaliśmy się dotąd, jest to, w jak małym stopniu dąży ona do uzyskania czegoś zasadniczo nowego zarówno w płaszczyźnie doświadczalnej, jak teoretycznej. Niekiedy, jak na przykład przy pomiarach długości fal, wszystko z wyjątkiem jakiegoś drobnego szczegółu jest z góry wiadome, a typowy zakres przewidywań jest tylko nieco szerszy. Wyniki pomiarów Coulomba nie musiały, być może, pokrywać się z odwrotnie proporcjonalną zależnością siły od kwadratu odległości; uczeni, którzy badali zjawisko ogrzewania przez sprężanie, byli często przygotowani na uzyskanie jednego z kilku wyników. Jednakże nawet w takich przypadkach jak powyższe zakres antycypowanych, a więc i dających się zaakceptować wyników pozostaje zawsze bardzo wąski w porównaniu z tym, jaki można sobie wyobrazić. Wynik badań nie mieszczący się w tym wąskim zakresie przewidywań traktuje się zazwyczaj jako błąd, za który odpowiedzialność ponosi nie przyroda, lecz uczony.

[2] W wieku XVIII na przykład niewiele poświęcano uwagi eksperymentalnym pomiarom przyciągania elektrycznego za pomocą takich przyrządów jak waga szalkowa. Ponieważ nie dawały one spójnych i jasnych wyników, nie można było wykorzystywać ich do uszczegółowienia paradygmatu, na którym były oparte. Dlatego właśnie pozostawały one "gołymi" faktami, nie powiązanymi i nie dającymi się powiązać ze stale rozwijającymi się badaniami zjawisk elektrycznych. Dopiero retrospektywnie, na gruncie kolejnego paradygmatu, można dostrzec, jakie cechy zjawisk elektrycznych ujawniały te eksperymenty. Oczywiście, Coulomb i jego współcześni dysponowali już tym późniejszym paradygmatem, a w każdym razie takim, który w zastosowaniu do zagadnień przyciągania prowadził do tych samych przewidywań. Dlatego właśnie Coulomb mógł zaprojektować przyrząd, który dawał wyniki dopuszczalne przy uszczegółowieniu paradygmatu. Ale również dlatego wyniki te nikogo nie zaskoczyły, a wielu współczesnych Coulombowi uczonych mogło je z góry przewidzieć. Nawet w eksperymencie, którego celem jest uszczegółowienie paradygmatu, nie chodzi o odkrycie czegoś nieoczekiwanego.

[3] Jeśli jednak w nauce normalnej nie dąży się do czegoś zasadniczo nowego, jeśli niepowodzenie w uzyskaniu wyniku bliskiego przewidywanemu oznacza zazwyczaj niepowodzenie uczonego, to czemu problemy te są w ogóle podejmowane? Częściowo odpowiedzieliśmy już na to pytanie. Przynajmniej dla samego uczonego wyniki uzyskane w toku normalnych badań są ważne, rozszerzają bowiem zakres stosowalności paradygmatu i zwiększają ścisłość tych zastosowań. Odpowiedź ta jednak nie tłumaczy, dlaczego uczeni wkładają w takie badania tyle entuzjazmu i zapału. Nikt przecież nie zdecyduje się poświęcić wielu lat pracy na ulepszanie spektrometru lub na uściślanie rozwiązania problemu drgających strun tylko ze względu na znaczenie informacji, jakie w wyniku tego uzyska. Dane, jakie można uzyskać, obliczając efemerydy albo dokonując dalszych pomiarów za pomocą istniejących już przyrządów, są często równie ważne, a jednak uczeni odnoszą się zazwyczaj do takich badań z lekceważeniem, gdyż polegają one w zasadniczej mierze na powtarzaniu zabiegów, które wielokrotnie już wykonano. To lekceważenie może być właśnie kluczem do zagadki: chociaż wyniki badań normalnych można przewidzieć często z taką nawet dokładnością, że to, co pozostaje do odkrycia, jest już samo przez się mało interesujące - to jednak sposób, w jaki wynik ten można uzyskać, pozostaje nader wątpliwy. Rozwiązanie problemu w ramach badań normalnych polega na osiągnięciu przewidywanego wyniku w nowy sposób i wymaga rozwikłania skomplikowanych łamigłówek matematycznych, teoretycznych i instrumentalnych. Uczony, który osiąga tu sukces, wystawia sobie świadectwo kompetencji; wyzwanie, jakie rzucają mu takie łamigłówki, jest istotnym czynnikiem motywującym jego aktywność.

[4] Terminy łamigłówka rozwiązywanie łamigłówek pozwolą lepiej ująć niektóre istotne kwestie poruszane w dotychczasowych wywodach. W potocznym znaczeniu słowa, do którego się tu odwołujemy, łamigłówki to taka szczególna kategoria problemów, które służyć mogą za sprawdzian pomysłowości i biegłości w rozwiązywaniu. Za przykład posłużyć mogą układanki czy też krzyżówki. Co łączy je z problemami nauki normalnej? Na jedną z takich wspólnych cech już wskazaliśmy. Kryterium wartości łamigłówki nie jest to, że jej wynik jest sam przez się doniosły czy interesujący. Przeciwnie, rzeczywiście naglące problemy - na przykład znalezienie lekarstwa na raka lub zagwarantowanie trwałego pokoju - często w ogóle nie są łamigłówkami, przede wszystkim dlatego, że mogą nie mieć rozwiązania. Przypuśćmy, że jakieś kawałki dwóch układanek wybrane zostały na chybił trafił z dwóch różnych kompletów. Wobec tego, że ułożenie ich w spójną całość może (choć nie musi) przekraczać możliwości najzdolniejszego człowieka, nie może być ono sprawdzianem umiejętności rozwiązywania. W potocznym sensie słowa nie jest to w ogóle żadna łamigłówka. Doniosłość rozwiązania nie jest kryterium wartości łamigłówki; jest nim natomiast samo istnienie rozwiązania.

[5] Przekonaliśmy się już poprzednio, że dzięki paradygmatowi społeczność uczonych zyskuje kryterium wyboru problemów, które - dopóki przyjmuje się ten paradygmat - można uznać za rozwiązalne. I właściwie tylko te problemy uzna społeczność uczonych za naukowe i przede wszystkim do ich rozwiązywania będzie zachęcać swych członków. Pozostałe zagadnienia, łącznie z tymi, które poprzednio uznawano za standardowe, są teraz odrzucane jako metafizyczne, jako należące do innej dyscypliny lub po prostu jako zbyt zagadkowe, by warto było poświęcać im czas. Paradygmat może nawet odizolować uczonych od społecznie istotnych problemów, jeśli nie da się ich sprowadzić do postaci łamigłówki, a więc jeśli nie można ich sformułować przy użyciu tych narzędzi, pojęciowych i technicznych, jakich on dostarcza. Problemy takie mogą rozpraszać, co świetnie ilustrują niektóre aspekty siedemnastowiecznego baconizmu i niektórych współczesnych nauk społecznych. Jedną z przyczyn, dla których rozwój nauki normalnej wydaje się tak szybki, jest to, że w jej ramach uczeni koncentrują swoją uwagę na problemach, których rozwiązanie mógłby uniemożliwić tylko ich własny brak pomysłowości.

[6] Jeśli jednak problemy nauki normalnej są łamigłówkami we wskazanym wyżej sensie, to nie musimy dłużej pytać, dlaczego uczeni podejmują je z taką pasją i poświęceniem. Nauką zajmować się można z najrozmaitszych powodów. Między innymi po to, aby być użytecznym, z pasji do eksploracji nowych obszarów, w nadziei wykrycia porządku, w dążeniu do sprawdzania ustalonych twierdzeń. Te i wiele innych motywów współdeterminują to, jakimi konkretnie problemami uczony będzie się zajmował. Co więcej, chociaż wynikiem może być niekiedy rozczarowanie, istnieją dobre racje po temu, by tego rodzaju motywy popychały go do podjęcia pracy badawczej i dalej nim kierowały. Przedsięwzięcia naukowe w swej całości okazują się niekiedy rzeczywiście użyteczne, odkrywają nowe obszary, wskazują na porządek, pozwalają sprawdzić przyjmowane od dawna poglądy. Wszelako jednostka zajmująca się normalnym problemem badawczym niemal nigdy nie czyni czegoś takiego. Z chwilą gdy zaangażuje się ona w badania, motywacja jej postępowania jest inna. Jest nią przekonanie, że jeśli tylko zdobędzie dość umiejętności, zdoła rozwiązać łamigłówki, których nikt dotąd nie rozwiązał, a co najmniej nie rozwiązał tak dobrze. Wiele najtęższych umysłów naukowych poświęcało całą swoją zawodową uwagę takim wymagającym łamigłówkom. W większości wypadków poszczególne dziedziny specjalizacji nie stwarzają żadnych innych możliwości prócz tej właśnie, przez co bynajmniej nie stają się mniej fascynujące dla prawdziwych zapaleńców.

[7] Przejdźmy teraz do kolejnego, trudniejszego i bardziej znaczącego aspektu analogii między łamigłówkami a problemami nauki normalnej. Do tego, by uznać problem za łamigłówkę, nie wystarczy to, że ma on zagwarantowane rozwiązanie. Istnieć muszą ponadto reguły, które wyznaczają tak zakres możliwych do przyjęcia rozstrzygnięć, jak i metody, za pomocą których można je uzyskać. Rozwiązanie układanki nie polega po prostu na "ułożeniu jakiegoś obrazka". Zarówno dziecko, jak współczesny artysta potrafi to zrobić, rozrzucając wybrane kawałki, jako abstrakcyjne kształty, na jakimś neutralnym tle. Powstały w ten sposób obrazek może być o wiele lepszy, a z pewnością będzie bardziej oryginalny od całości, z której pochodzą wybrane fragmenty. Jednak obrazek ten nie będzie rozwiązaniem. Aby je uzyskać, trzeba wykorzystać wszystkie fragmenty, obrócić czystą stroną na dół i tak długo cierpliwie je przekładać, aż wszystkie zaczną pasować do siebie. Na tym m.in. polegają reguły rozwiązywania układanki. Podobne ograniczenia zakresu możliwych do przyjęcia rozwiązań łatwo wskazać w wypadku krzyżówek, zagadek, problemów szachowych itd.

[8] Gdybyśmy zgodzili się używać terminu "reguła" w szerszym sensie - równoważnym niekiedy "ustalonemu punktowi widzenia" lub "powziętemu z góry przekonaniu" - to problemy dostępne na gruncie określonej tradycji badawczej wykazywałyby cechy bardzo zbliżone do wyżej wskazanych. Ktoś, kto buduje przyrząd przeznaczony do określenia długości fal świetlnych, nie może się zadowolić tym, że jego aparat przyporządkowuje określone liczby poszczególnym liniom widma. Nie jest on po prostu wynalazcą lub mierniczym. Przeciwnie, musi wykazać, analizując działanie swego przyrządu w kategoriach ustalonej teorii optycznej, że uzyskane przez niego liczby włączone być mogą do teorii jako długości fal. Jeśli jakieś niejasności w teorii lub nie zbadane dostatecznie części jego przyrządu nie pozwalają mu na przeprowadzenie tego dowodu do końca, jego koledzy specjaliści mają pełne prawo uznać, że w ogóle niczego nie zmierzył. Na przykład maksima na obrazie dyfrakcyjnego rozproszenia elektronów, które później uznano za wskaźnik długości fali elektronu, były czymś niezrozumiałym, gdy je po raz pierwszy wykryto i opisano. Aby stać się miarą czegoś, musiały zostać powiązane z teorią, która przewidywała falowe własności poruszających się cząstek. Ale nawet wtedy, gdy związek ten już uchwycono, trzeba było przebudować przyrząd tak, aby doświadczalne wyniki mogły być jednoznacznie przyporządkowane teorii. Póki nie spełniono tych warunków, żaden problem nie mógł zostać rozwiązany.

[9] Podobnym ograniczeniom podlegają również możliwe do przyjęcia rozwiązania problemów teoretycznych. W ciągu całego wieku XVIII uczonym nie udawało się wyprowadzić obserwowanego ruchu Księżyca z praw ruchu i grawitacji Newtona. W rezultacie niektórzy z nich proponowali zastąpić prawo mówiące o odwrotnie proporcjonalnej zależności siły od kwadratu odległości innym prawem, uwzględniającym odchylenie wartości siły przyciągania na małą odległość. Krok taki byłby jednak zmianą paradygmatu i sformułowaniem nowej łamigłówki, a nie rozwiązaniem starej. Uczeni w istocie nie odstąpili od reguł, a w roku 1750 jednemu z nich udało się wykryć, w jaki sposób mogą być one z powodzeniem zastosowane do tego problemu. Alternatywnym rozwiązaniem mogła być tylko zmiana "reguł gry".

[10] Badanie normalnych tradycji naukowych odsłania wiele dodatkowych reguł, a te dostarczają wiele informacji o tym, jakie przekonania czerpią uczeni ze swego paradygmatu. Pod jakie główne kategorie można by podciągnąć te reguły? Przykładem reguł najbardziej oczywistych i zapewne najbardziej wiążących są te rodzaje uogólnień, o których już wspominaliśmy. Są to wyraźnie sformułowane prawa naukowe, pojęcia i teorie. Póki są uznawane, pomagają stawiać problemy i ograniczać zakres dopuszczalnych rozwiązań. Prawa Newtona na przykład pełniły tę funkcję w wieku XVIII i XIX. Póki tak było, podstawową kategorią ontologiczną dla fizyków była ilość materii, a głównym przedmiotem ich badań - siły działające między obiektami materialnymi. W chemii przez długi czas analogiczną rolę odgrywały prawa stosunków stałych i wielokrotnych - stawiały problem ciężarów atomowych, wyznaczały możliwe wyniki analiz chemicznych, informowały chemików, czym są atomy i cząsteczki chemiczne, związki i mieszaniny. To samo znaczenie mają i tę samą funkcję pełnią dziś równania Maxwella i prawa termodynamiki statystycznej.

[11] Nie jest to jednak ani jedyny, ani najbardziej interesujący rodzaj reguł, na jakie wskazują badania historyczne. Na poziomie niższym czy bardziej konkretnym niż poziom praw i teorii doszukać się można na przykład całego mnóstwa przekonań związanych z preferowanymi rodzajami przyrządów i uprawnionymi sposobami posługiwania się nimi. Dla rozwoju siedemnastowiecznej chemii zasadnicze znaczenie miały zmieniające się poglądy na rolę, jaką w analizie chemicznej odgrywa ogień. W wieku XIX Helmholtz napotkał silny opór fizjologów, kiedy twierdził, że doświadczenia fizyczne mogą z powodzeniem być stosowane do badań w ich dziedzinie. W naszym stuleciu interesująca historia chromatografii chemicznej znów wskazuje, jak przekonania dotyczące aparatury badawczej, w równej mierze co prawa i teorie, dostarczają uczonym ich reguł gry. Kiedy badamy odkrycie promieni X, wykryć możemy przyczyny tego rodzaju przekonań.

[12] Inną cechą nauki - mniej lokalną i tymczasową, choć również nie niezmienną - jaką na ogólniejszym poziomie ujawniają stale badania historyczne, jest jej zależność od przekonańquasi-metafizycznych. Gdzieś po roku 1630 na przykład, zwłaszcza po ukazaniu się niezwykle wpływowych prac Kartezjusza, większość fizyków sądziła, że wszechświat składa się z mikroskopijnych korpuskuł i że wszystkie zjawiska przyrody można wytłumaczyć przez odwołanie się do ich kształtu, wielkości, ruchu i wzajemnego oddziaływania. Przekonania te wywierały wpływ zarówno metafizyczny, jak i metodologiczny. W płaszczyźnie metafizycznej mówiły one uczonym, jakiego rodzaju byty istnieją we wszechświecie, a jakich w nim nie ma: istnieje tylko materia w ruchu. W płaszczyźnie metodologicznej mówiły, jaką postać mają mieć ostateczne prawa i podstawowe wyjaśnienia naukowe: prawa ujmować mają ruch cząstek i ich oddziaływania, wyjaśnienia zaś redukować muszą każde zjawisko przyrody do ruchów i oddziaływań wskazanych przez te prawa. Co ważniejsze, korpuskularna koncepcja wszechświata mówiła uczonym, jakie powinny być ich problemy badawcze. Na przykład chemik przyjmujący - jak Boyle - tę nową filozofię zwracał szczególną uwagę na reakcje chemiczne, które potraktować można jako transmutacje. O wiele jaśniej bowiem niż wszelkie inne ujawniały one proces przegrupowania cząstek, który leżeć musi u podłoża wszelkich przemian chemicznych. Podobne skutki filozofii korpuskularnej wykryć można w badaniach nad mechaniką, optyką i ciepłem.

[13] Wreszcie, na jeszcze wyższym piętrze, napotykamy taki zespół przekonań, bez których nie może się obejść żaden uczony. Na przykład musi mu zależeć na zrozumieniu świata, musi dążyć do jego coraz ściślejszego i rozleglejszego uporządkowania. To z kolei każe uczonemu - czy to na własną rękę, czy też korzystając z prac kolegów - dociekać bardzo szczegółowo niektórych aspektów przyrody. A jeśli te dociekania ujawniają pozorny brak porządku, zmusza go to do dalszego udoskonalania techniki doświadczalnej i do dalszego uszczegółowiania teorii. Niewątpliwie istnieją jeszcze inne podobne do tych reguły, które zawsze obowiązywały uczonych.

[14] I przede wszystkim istnienie tego całego zespołu założeń - pojęciowych, teoretycznych, instrumentalnych i metodologicznych - pozwala porównać naukę normalną do rozwiązywania łamigłówek. Ponieważ dostarczają one specjalistom reguł mówiących, jaki jest świat i czym jest nauka, mogą się oni bezpiecznie skoncentrować na wyspecjalizowanych problemach wyznaczonych przez te reguły i nagromadzoną wiedzę. Tym, co ich osobiście frapuje, jest pytanie, jak doprowadzić do rozwiązania pozostałych zagadek. Pod tym względem i pod innymi jeszcze analiza łamigłówek i reguł rzuca światło na istotę normalnej praktyki naukowej. Jednakże pod pewnym względem wyjaśnienie takie może być grubo mylące. Chociaż bez wątpienia istnieją reguły, które wszyscy przedstawiciele danej dyscypliny w określonym czasie uznają, to jednak reguły te same przez się nie wyznaczają wszystkich wspólnych cech ich praktyki badawczej. Nauka normalna to działalność w znacznej mierze zdeterminowana, lecz nie wyłącznie przez reguły. Dlatego właśnie na początku tej rozprawy, chcąc wskazać na źródło spójności normalnych tradycji badawczych, wprowadziłem pojęcie wspólnych paradygmatów, a nie wspólnych reguł, założeń i punktów widzenia. Reguły, jak sądzę, wywodzą się z paradygmatów, ale paradygmaty kierować mogą badaniami nawet wtedy, gdy brak reguł.


Wyszukiwarka

Podobne podstrony:
79 Doustne leki przeciwcukrzycowe
79 84
73 79
75 79
Śpiewnik 79
piel 38 1 14 79 id 356923 Nieznany
79
79
70 79
77 79
79 Nw 08 System Halfera
79 80
79 Nw 11 Normogramy cz 2
GZN 79
79 Nw 01 Sterowanie modeli
12 1995 79
10 1995 79 80
79 80
79 w sprawie rzeczoznawców do spraw bezpieczeństwa i higieny pracy

więcej podobnych podstron