Grażyna Adamczyk-Łojewska
Wykład 3. Zarys metodologii badań nauk.
Ogólne sposoby rozumowania naukowego
Ogólne metody postępowania naukowego i ich zastosowanie w naukach ekonomicznych
Rozwój podejść metodologicznych
Źródła błędów naukowych
Od. 1. Podstawowe ogólne metody, sposoby postępowania i rozumowania naukowego to głównie indukcja i dedukcja oraz analogia
Indukcja jest metodą polegającą na tym, że na podstawie znajomości elementarnych i szczegółowych zjawisk, a także rozpoznawania zależności między nimi, przechodzi się do coraz bardziej ogólnych problemów.
Inaczej mówiąc, jest to wnioskowanie od szczegółu do ogółu. Od obserwacji poszczególnych konkretnych przypadków do odkrycia (sformułowania) prawidłowości.
Dedukcja (odwrotnie niż indukcja) polega na przechodzeniu w toku procesów myślowych - wnioskowania - od ogółu do pojęć szczegółowych, tj. od ogółu do szczegółu. Dedukcyjne rozumowanie to takie, gdzie wnioski wynikają np. z przyjętych ogólnych założeń, definicji itp.
W naukach empirycznych jest to przechodzenie od pewnego domniemanego wzorca, modelu do obserwacji, w której sprawdzamy czy dany model, wzorzec się sprawdzi - inaczej jest to metoda hipotetyczno-dedukcyjna.
Jednym ze sposobów rozumowania w naukach stosowanych, praktycznych może być też rozumowanie przez analogię.
Analogia może pomagać formułować nowe hipotezy, pomaga zrozumieć zjawiska i zdarzenia, tworzyć nowe metody badawcze. Np. w analizie systemów społeczno-gospodarczych wykorzystywane są niekiedy analogie z systemami przyrodniczymi itp.
Podobnie ogólne metody formułowania hipotez są również trzy:
poprzez logiczne tłumaczenie faktów empirycznych - czyli rozumowanie indukcyjne, wyciąganie wniosków z doświadczenia, obserwacji;
rozumowanie przez analogię - przenoszenie pewnych tez i zależności z jednych dziedzin po modyfikacji do innych dziedzin, może to dotyczyć również metod badawczych;
poprzez intuicję - pomysł bez procesu rozumowania (czyli rozumowanie przez dedukcję).
Intuicja objawia się w postaci nagłego przebłysku myślowego, w którym dostrzega się myśl, rozwiązanie problemu lub odpowiedź na nurtujące pytanie. Natura intuicji wynika z tego, że jest ona procesem podświadomym, którego nie można kontrolować. Jest ona procesem bardziej kreatywnym i działającym na wyższym poziomie abstrakcji w porównaniu do myślenia logicznego. Jak się wskazuje wynikać może z podświadomego kojarzenie pojęć, wykorzystanie metod heurystycznych dla kreowania nowych pomysłów (hipotez), które są później weryfikowane.
Ogólne sposoby rozumowania, takie jak m.in. dedukcja, indukcja, analogia, o których była wyżej mowa, mogą mieć różny zakres stosowania w naukach ekonomicznych, w tym w dwu pokrewnych naukach społecznych takich jak ekonomia oraz nauki o zarządzaniu, gdzie z założenia przyjmuje się, że:
ekonomia (w tym miroekonomia) zajmuje się głównie aspektami ekonomicznymi, tj. efektywnością funkcjonowania przedsiębiorstwa i efektywnością rynków i alokacji zasobów na różnych poziomach organizacji (przedsiębiorstwa, kraju, globalnym),
natomiast nauka o zarządzaniu ma wprawdzie bardziej interdyscyplinarny charakter (zawiera elementy innych nauk psychologii, socjologii) np. polityka zarządzania zasobami ludzkimi, style zarządzania itp. ale głównie w odniesieniu do przedsiębiorstwa.
I tak specyfiką nauk o zarządzaniu jest mianowicie to, że częściej stosuje się tu rozumowanie indukcyjne (od szczegółów do ogólnych wniosków).
Natomiast w ekonomii, zwłaszcza zachodniej, w większym stopniu rozumowanie dedukcyjne, tj. wprowadza się założenia i twierdzenia (często o rozbudowanej, złożonej konstrukcji logicznej i niekiedy matematycznej - jak modele wzrostu), które się później weryfikuje i doskonali.
Wg Blauga (Metodologia ekonomii, z 1995 r.) istnieje przekonanie, że zadaniem nauk ekonomicznych jest projektowanie teorii dla wyjaśniania pewnych zjawisk, przy tym przyjmuje się, że bezpośrednia weryfikacja postulatów czy założeń teorii jest zbędna.
Ekonomia, podobnie jak nauki o zarządzaniu, traktowane są jako swoistego rodzaju „skrzynka z narzędziami”, weryfikacja empiryczna służy nie tyle do pokazania czy konkretne modele są prawdziwe czy fałszywe, ale czy są one możliwe do zastosowania w danej sytuacji.
Takie podejście jest bardzo wygodne (zdaniem Blauga) - zaakceptowany zostaje prawie każdy model, pod warunkiem, że jest ściśle i logicznie sformułowany, ma elegancką konstrukcję i obiecuje możliwość odniesienia do sytuacji rzeczywistych.
Takie podejście też jest często krytykowane, że teoria nawet prawdziwa ale tylko dla pewnych założonych warunków, do założonego modelu, który realnie nie występuje, ma czysto teoretyczny charakter i mniejsze znaczenie utylitarne. A próby wyciągania praktycznych wniosków, jak np. z konkurencji doskonałej, której tak naprawdę w praktyce nie ma, mogą być fatalne dla praktyki - na co wskazuje się coraz częściej.
Niektórzy słynni ekonomiści np. tzw. późny Hicks (Blaug, s. 175) łączą nawet pogardę dla weryfikacji empirycznej, z jednoczesnym naciskiem na znaczenie wniosków dla polityki gospodarczej, co jest stanowiskiem schizofremicznym.
Jedną z cech różniących nauki ekonomiczne od fizyki, chemii itp. jest to, że twierdzenia ekonomiczne jednocześnie wyjaśniają zachowania ekonomiczne i często pełnią funkcję swoistego rodzaju norm zachowania ustalonych przez poszczególnych naukowców (co może budzić wątpliwości (zdaniem Blauga).
Stąd, np. mówi się o tzw. ekonomii:
Normatywnej
Pozytywnej (obiektywnie zweryfikowanych twierdzeniach)
Stąd, na co wielu zwraca uwagę, obserwuje się pewne cechy konwergencji (upodobniania) obu dyscyplin i często występują istotne trudności zaklasyfikowania badań naukowych np. rozpraw doktorskich, do jednej czy drugiej dyscypliny.
Istnieją też np. różne podejścia metodologiczne w samej ekonomii.
Istnieje tzw. ekonomia teoretyczna - klasyczna, neoklasyczna i inne szkoły ekonomii zachodniej.
oraz tzw. ekonomia stosowana, gdzie dokonuje się rozpoznanie i parametryzację zjawisk i obiektów ekonomicznych oraz na ich podstawie uogólniania pewnych zależności na potrzeby praktyki, polityki gospodarczej.
Skrajnym podejściem w tym zakresie jest. tzw. deskryptywna ekonomia japońska, która odrzuca normatywne elementy zachodniej ekonomii (klasycznej, neoklasycznej itp.). Zakłada, że każde zjawisko ekonomiczne ma swoją specyfikę i jest niepowtarzalne w przestrzeni i czasie. Badać można konkretne obiekty w danym miejscu i czasie i elementy z jakich się składa, a wnioski odnoszą się tylko do tego obiektu - nie można budować uniwersalnych teorii. Nie ma też uniwersalnych metod, każdy obiekt jest inny i wymaga indywidualnego podejścia.
Prawdziwe jest tylko to co zostało zbadane empirycznie, zweryfikowane. Każde zjawisko jest zdeterminowane jakimiś przyczynami i rolą nauki jest ich odkrywanie.
2. Rozwój podejść metodologicznych
Nie ma jednej logiki badań naukowych. Podejścia metodologiczne rozwijają się i zmieniają.
W 19 wieku dominował pogląd o indukcyjnym charakterze wnioskowania naukowego. Rozpoczynała je obserwacja rzeczywistości prowadząca do formułowania bardziej ogólnych zależności a następnie teorii.
W 20 w. umocnił się natomiast model hipotetyczno-dedukcyjny, prawa uniwersalne pojawiają się nie w wyniku uogólniania indukcyjnego doświadczeń, ale hipotez, domysłów i dopiero potem odnoszone są do zdarzeń.
Wg Poppera twórcy tzw. falsyfikacjonizmu:
weryfikacja - to pozytywne potwierdzenie, dowiedzenie tezy (hipotezy)
falsyfikacja - zanegowanie, obalenie tezy
Znaczenie obu tych procesów w nauce jest różne, ma miejsce asymetria w tym zakresie.
Żadne uniwersalne twierdzenie nie może być pozytywnie do końca zweryfikowane na podstawie pojedynczych doświadczeń, przypadków, choćby ich było bardzo dużo
Nie można mianowicie w nauce dowieść, że coś jest prawdziwe. To, że fakty potwierdzają nie znaczy, że teza jest prawdziwa.
Istnieje jednak logika dowodzenia fałszywości - falsyfikacji. Znaczenie falsyfikacji bardziej skutkuje w postaci obalenia tezy.
Przykład Poppera - tezę , że wszystkie łabędzie są białe, nie weryfikuje do końca choćbyśmy spotkali dziesiątki i setki białych łabędzi. Stwierdzając jednego czarnego możemy natomiast obalić tezę.
Nauka jest systemem twierdzeń, które poddane mogą być falsyfikacji. Teorie są przejściowo prawdziwe - do tej pory oparły się falsyfikacji. Pozytywnie weryfikowane są bardziej prawdopodobne, co nie znaczy, że pewne, nie mamy pewności, że nie zostaną negatywnie zweryfikowane.
Wg Poppera nie ma pewnej wiedzy empirycznej. Nauka to historia hipotez i ich falsyfikacji.
Z kolei wg filozofa Thomasa Kuhna historia nauki to okresy (status quo- stałego, określonego stanu rzeczy ) przerywane przez nieciągłe przeskoki od jednego paradygmatu do innego.
Paradygmat - to zbiór pojęć i teorii tworzących podstawy danej nauki. Teorii i pojęć, których raczej się nie kwestionuje, przynajmniej do czasu dopóki za jego pomocą można tworzyć teorie szczegółowe w danej nauce, zgodne z danymi doświadczalnymi
Różni go od dogmatu to, że nie jest on dany raz na zawsze - lecz jest przyjęty na zasadzie konsensusu większości badaczy.
Rozwój nauki, wg Kuhna, to proces swoistego rodzaju rewolucji naukowych, np. rewolucja kopernikańska, newtonowska, darwinowska, Einstaina-Planca .
Paradygmaty nie rozwijają się w sposób nagły ani nie zmieniają nagle - rozwijają się w procesie naukowego-intelektualnego współzawodnictwa i upływa zwykle sporo lat zanim nowe paradygmaty zostają uznane.
3. Źródła błędów naukowych
Błędy w nauce mogą wynikać:
z obiektywnych warunków niezależnych od badacza, np. złych warunków pracy, braku narzędzi, ze skomplikowania problemów badawczych;
z przyczyn subiektywnych - z psychiki badacza:
z niedostatecznych kwalifikacji metodycznych, pośpiechu, który zmniejsza dokładność obserwacji, trafność wnioskowania, a m.in. także z:
tzw. trwałych skłonności do popełniania błędów wynikających z ograniczeń psychicznych wrodzonych lub nabytych, przejawiających się w niechęci do wysiłku umysłowego (lenistwa umysłowego), przyjmowaniu prostych stereotypów i myślenia naiwnego
Wychowanie może korygować ograniczenia - sprzyjać wyrobieniu nawyków do systematycznej pracy, wysiłku intelektualnego, odwagi myślenia, krytycyzmu albo odwrotnie - nieprawidłowo motywować do bylejakości i przyjmowania prostego schematycznego myślenia.
Ze skłonności do myślenia uproszczonego, np. dostrzeganiu tylko jednej przyczyny, jednego związku, nie dostrzegania skomplikowania zjawisk. Przejawia się w ocenie na podstawie pierwszego wrażenia, przyjmowaniu stereotypów .
Wynika natomiast z ewolucyjnego dostosowania ludzkiego umysłu do praktycznego działania - wykonywania konkretnych prostych działań. Poznanie wymaga natomiast uruchomienia abstrakcyjnego i dokładnego, nastawionego na przyszłe cele.
Ze skłonności do akceptowania złudzeń wynikającej z przeceniania własnych zainteresowań, często bardzo wąskiego punktu widzenia, oraz bagatelizowaniu innych alternatywnych podejść.
Istotny wpływ na poznanie ma tzw. masa apercepcyjna, która narasta w umyśle podświadomie z różnych źródeł i łączy zasób wiedzy naukowej i potocznej. Skłaniać może do nieobiektywności, szczególnej selektywności, obrony przed nową wiedzą.
Prawidłowe myślenie mogą również zakłócać emocje, uczucia - negatywne lub pozytywne do zjawisk, obiektów, tj. sympatie lub uprzedzenia - mają wpływ na oceny i interpretacje m.in. zjawisk gospodarczych, zwłaszcza gdy są to emocje nie kontrolowane.
Szczególny przypadek to tzw. myślenie życzeniowe związane z tłumieniem krytycyzmu i uznawaniem za prawdziwe to co chcemy, żeby było prawdziwe. Skłania do lekceważenia opinii odmiennych i preferowania opinii korzystnych.
Bardzo istotnym i częstym błędem w naukach społecznych (ekonomii i zarządzaniu) są błędy wynikające z ideologicznego myślenia, np. zgodnego z tzw. „jedynie słuszną, poprawną”, obowiązującą w danym środowisku czy czasie doktryną (kiedyś marksistowską, potem z tzw. fundamentalizmem rynkowym itp.), która jest przyjmowana jako aksjomat.
Powstają wtedy nie w pełni obiektywne teorie - ich składnikami mogą być zdania prawdziwe, ale zestawione w całość z pominięciem pewnych aspektów.
Tego typu ideologizacja (religijna, nacjonalistyczna, liberalna, egalitarna) może być umiarkowana i to jest często, że ktoś ma takie poglądy i z tym się nie kryje, np. Ricardo klasyk ekonomii miał wyraźną niechęć, co się przejawia w jego twórczości, do tzw. klasy próżniaczej - pozostałości klasy feudalnej (ziemiaństwa), uznając ją za przeżytek i hamulec rozwoju przemysłu i handlu.
W wielu przypadkach przy bardzo złożonych problemach ten brak obiektywizmu jest jednak niekiedy trudny do identyfikacji.
Ideologizacja określonych celów, wartości występuje często w społeczeństwach niedemokratycznych (totalitarnych), bądź nie w pełni demokratycznych, gdzie nie docenia się pluralizmu, gdzie ideologizacja pewnych celów i wartości bywa narzucana w drodze manipulacji prowadzonej w interesie najsilniejszych układów (grup) w określonym kraju czy w skali globalnej.
Ideologizacja wynikać może m.in. również ze zbyt jednostronnego podejścia do kształcenia, zwłaszcza na poziomie wyższym, sprowadzonego do wąsko specjalistycznej wiedzy przedmiotowej. Brak szerszej, interdyscyplinarnej wiedzy przedmiotowej w określonych specjalnościach, jak i wiedzy metodologicznej może skłaniać do ideologizacji - trochę ślepej wiary. Do jednoaspektowego „ideologicznego” podejścia do nauki, bądź też wiary w wybrane i oderwane od realnego życia teorie.
Takie procesy ideologizacji nauki mogą się przekształcać nie tylko w „pobożne życzenia” (wishful thinking), ale i mity, np. mit klasy średniej, na co zwracają dwaj amerykańscy pisarze Edward Luce [2010] i Michael Lind [2010 na przykładzie USA.
Jak pisze Edward Luce [2010], w artykule pt. „Rozeźlona amerykańska klasa średnia, czyli kto zabił amerykański sen”, powolny ekonomiczny upadek amerykańskiej klasy średniej zaczął się na długo przed wybuchem kryzysu, który jedynie pogłębił osobistą recesję, przeżywaną przez zwykłych amerykanów od lat. Ekonomiści nazywają to zjawisko stagnacją przeciętnej pensji. Roczne dochody 90 proc. amerykańskich rodzin nie zmieniły się od 1973 roku - w ujęciu realnym wzrosły przez ostatnie 37 lat zaledwie o 10 proc. To oznacza, że większość Amerykanów od ponad pokolenia stoi w miejscu. W tym samym czasie dochody najbogatszego jednego procenta Amerykanów potroiły się. W 1973 roku prezesi zarabiali średnio 26-krotność średnich dochodów, a w 2010 r. jest to ponad 300 razy więcej.
Większość ekonomistów uważa wielką stagnację za problem strukturalny - co oznacza, że jest ona niezależna od fazy cyklu gospodarczego. Mimo dobrej kondycji gospodarki w latach 2002 - 2007 średni dochód amerykańskich gospodarstw spadł o 2 tys. dol..
To pierwszy w historii przypadek, gdy większość Amerykanów miała się gorzej na końcu wznoszącego się cyklu niż na początku. Jeżeli w dzisiejszej Ameryce, jak pisze cytowany autor, rodziłeś się na dnie, to jest bardziej prawdopodobne, że tam pozostaniesz przy rosnącym poziomem nierówności.
Wielu przedstawicieli amerykańskiej przyczyny wielkiej stagnacji upatruje, jak pisze cytowany autor, m.in. w globalizacji. Rozwój Chin, Indii, Brazylii i innych krajów ograniczył płace na Zachodzie i pozbawił pracy osoby nawet średnio wykwalifikowane. Przemysł zapewnia obecnie jedynie 12 procent miejsc pracy w USA.
Struktura rewolucji naukowych (The Structure of Scientific Revolutions) opublikowana w 1962 roku
The Financial Times Limited 2010; Diennik Gazeta Prawna, Magazyn, 13-15.VIII. 2010.
3