8. Możliwości i ograniczenia ekonometrii
R. E. Backhouse, Truth and Progress in Economic Knowledge, Cheltenham, Edward Elgar, 1997, rozdziały 11-13.
[W tekście tym pomijamy sekcje 12.1 i 13.2].
Tekst jest poświęcony 3 zagadnieniom:
1) zdolności ekonometrii do ustalania faktów ekonomicznych (rozdz. 11);
2) ekonometrycznym metodom testowania teorii ekonomicznych (rozdz. 12);
3) wkładowi ekonometrii do osiągnięcia postępu empirycznego w ekonomii (rozdz. 13).
11. Ekonometria i ustanowienie faktów ekonomicznych
11.1. Ekonometria i współczesna ekonomia
W początkowych dekadach XX wieku była silna nadzieja, że akumulacja danych statystycznych doprowadzi szybko do transformacji ekonomii i stanie się ona nauką stricte empiryczną, w pełni skwantyfikowaną.
Ekonomia rozwinęła się jednak inaczej.
1) Teoria stała się silniejsza niż kiedykolwiek wcześniej;
2) Akademicka ekonomia empiryczna została zdominowana przez ekonometrię (inne rodzaje badań empirycznych zmarginalizowano).
Pomimo wielkich wysiłków, wielkiego wzrostu mocy obliczeniowych i rozwoju dużo lepszych technik statystycznych, ekonometrii nie udało się uzyskać ilościowych praw ekonomicznych, o których kiedyś marzono. Ekonometria jest też ograniczona jako metoda służąca ekonomistom do akceptowania czy odrzucania teorii. Odgrywa pewną rolę w ekonomii, ale jej wpływ na to jak ekonomiści postrzegają zjawiska ekonomiczne jest raczej mniejszy, niż się kiedyś spodziewano. Dlaczego?
11.2 Sprawdzanie (checking), replikacja i reprodukcja wyniku
Sprawdzanie wyników badań empirycznych polega na weryfikacji czy eksperyment został przeprowadzony prawidłowo (te same dane, te same techniki badawcze). Sprawdzanie bada tylko kwalifikacje eksperymentatora (badacza).
Replikacja wyników badań - powtarzanie eksperymentu w celu testowania, wyjaśnienia zjawiska (nie kompetencji eksperymentatora). Nowy eksperyment powinien być przeprowadzony przy identycznych istotnych warunkach ale w innym laboratorium, przez inny zespół badaczy itp. Druga różnica ze sprawdzaniem (rezultat eksperymentu nie jest ustalony, ale jest właśnie badany).
Reprodukcja wyników badań - replikacja dowodzi tylko że istnieje pewne zjawisko, a nie że mamy teorię która je dobrze wyjaśnia. Testujemy teorię przy pomocy reprodukcji - przeprowadzenia innego eksperymentu (a nie przeprowadzania takiego samego eksperymentu, nawet z pewnymi małymi zmianami), który ma zweryfikować naszą teorię co do zjawiska.
Do ustalenia jakiegoś faktu np. ekonomicznego niezbędne jest sprawdzanie i replikacja.
Do testowania jakiejś teorii wyjaśniającej fakt niezbędne jest sprawdzanie i replikacja (by ustalić czy fakt istnieje naprawdę), a także reprodukcja.
Różnice między tymi pojęciami dość płynne.
11.3. Ekonometria a nauki eksperymentalne
Schemat badania w nauce eksperymentalnej (s. 140). W nauce takiej chodzi o uzyskanie reprezentacji teoretycznej zjawisk ze świata rzeczywistego (używa się i sprawdzania i replikacji).
Schemat badania w ekonometrii (s. 142). W ekonometrii do ustalenia faktów ekonomicznych również niezbędne jest sprawdzanie i replikacja (nowe badania ekonometryczne na schemacie). Ale czym naprawdę jest replikacja w ekonometrii i czy w ogóle jest ona możliwa?
11.4. Replikacja w ekonometrii
Poprawną metodą replikacji w ekonometrii jest stosowanie tych samych sprawdzonych technik ekonometrycznych do nowego zbioru danych z tej samej populacji, z której zaczerpnięto dane do poprzednich badań.
W szczególności stosowanie tych samych technik ekonometrycznych do tego samego zbioru danych oraz stosowanie innych technik ekonometrycznych do tego samego zbioru danych nie jest replikacją (nie upewnia nas czy oszacowana relacja faktycznie występuje w rzeczywistym świecie).
11.5 Ekonometria i ustanowienie faktów ekonomicznych
Precyzja oszacowań ekonometrycznych
Na umiejętność ekonometrii do ustanowienia faktów ekonomicznych rzuca pewne światło zdolność ekonometrii do pomiaru wartości stałych w teoriach ekonomicznych.
Do oceny precyzji oszacowań stałych służy współczynnik Birge'a. Def. s. 151.
Interpretacja wsp. Birge'a (B): Jeżeli np. B=2.23, to wariancja oszacowań danego parametru pomiędzy różnymi jego oszacowaniami (z różnych badań) jest o 123% większa, niż wynikałoby z błędów wynikających z próby w tych badaniach. Czyli, badacze niedoszacowali niepewności związanej z ich wynikami, byli zbyt pewni swoich rezultatów.
Z porównania wyników B dla różnych stałych w ekonomii, fizyce i psychologii (tab. 11.1, s. 153) wynika, że w ekonomii mamy dużo mniej precyzyjne (bardziej niezgodne) oszacowania stałych, niż w fizyce i nawet w psychologii.
Dlaczego w ekonomii nie doszło do ustalenie zgody w co do wartości parametrów teorii ekonomicznych?
1. Różne szacunki parametrów odnoszą się tak naprawdę do pomiaru różnych zjawisk (ekonomiści w praktyce stosują różne specyfikacje modeli szacując te same parametry np. elastyczność cenową popytu) - nic dziwnego, że osiągają dość niezgodne rezultaty.
2. Praktyczna niemożliwość replikacji w ekonometrii (zazwyczaj ekonomiści używają tego samego zbioru danych szacując np. elastyczność popytu na pieniądz względem stopy procentowej; istnieje tylko jeden zbiór danych dla danego kraju w danym okresie; tym samym faktycznie nie dokonują replikacji; poza tym zazwyczaj stosują różne techniki ekonometryczne w tego typu badaniach, co również nie jest replikacją - zob. punkt 1.). Jeżeli nawet stosowaliby te same techniki do nowych danych z tej samej populacji, to mechanizmy przyczynowo-skutkowe w gospodarce zmieniają się częściej, niż w świecie przyrody, co powoduje, że osiągnięcie zgody w ekonomii (co do wartości parametrów) dużo trudniejsze, niż w fizyce.
Natura teorii ekonomicznych i rola stałych ekonomicznych
Dlaczego nie ma w ekonomii zgody co do tego jakich technik ekonometrycznych używać szacując parametry teorii (oraz jakich zmiennych wyjaśniających używać, jakich opóźnień zmiennych wyjaśniających w modelach ekonometrycznych) - co umożliwiłoby replikację i osiągnięcie większej zgody w szacunkach parametrów?
Dlatego, iż teoria ekonomii w niewielkim stopniu opiera się na istnieniu pewnych numerycznych stałych (jak np. różne elastyczności różnych funkcji np. popytu). Ekonomiści są sceptyczni co do tego, czy stałe takie są trwałe, czy nie zmieniają wraz z różnymi zmianami zachodzącymi ciągle w życiu gospodarczym. Mają świadomość, że świat gospodarczy jest tak złożony i zmienia się tak ciągle i szybko, że wartości parametrów należy raczej szacować ciągle na nowo, niż dążyć do ustalenia ich zgodnej wartości.
Rozdział 12. Ekonometria i testowanie teorii ekonomicznych.
12.1 pomijamy
12.2 Ekonometria i testowanie
Standardowy pogląd na ekonometrię (T. Haavelmo i komisja Cowlesa w latach 40.) - zwany także metodologią Komisji Cowlesa. Trwał właściwie do lat 70/80.
Haavelmo założył, że procesy ekonomiczne mogą być modelowane jako rozkłady łącznego prawdopodobieństwa wszystkich istotnych zmiennych ekonomiczncych, przy założeniu że obserwowane dane są próbkami z tych rozkładów.
Takie założenie umożliwia testowanie modeli ekonometrycznych (uproszczeń teorii), nie tylko mierzenie (szacowanie wielkości) różnych stałych (np. elastyczności popytu), co było głównym przedmiotem zainteresowania ekonometryków przed latami 40. Wtedy używano faktów do sugerowania teorii i szacowano współczynniki, używano metod statystycznych (MNK, korelacja) by uzyskać opisowe statystyki, nie testy teorii ekonomicznych.
W tym ujęciu badanie ekonometryczne składa się z 3 etapów:
1) sformułowanie modelu matematycznego;
2) zebranie danych, które korespondują ze zmiennymi w modelu;
3) użycie testów statystycznych, by stwierdzić czy teoria jest zgodna z obserwowanymi danymi.
Cechy charakterystyczne ujęcia: forma funkcyjna modelu znana, parametry przy zmiennych wyjaśniających traktowane są jako niezmmienicze w czasie i niezmiennicze strukturalnie (dla różnych wartości zmiennych modelu), a także wiadomo a priori która zmienna w relacji jest przyczyną a która skutkiem (znany jest porządek przyczynowy), czyli wiadomo które zmienne są endo- a które egzogeniczne.
Zaleta ujęcia - oferuje prostą drogę do postępu w ekonomii, niektóre teorie odrzuca, można porównywać teorie pod względem dopasowania do danych. Jednak w latach 80. zdano sobie sprawę, że to ujęcie niewystarczające i że nie odniosło spodziewanego sukcesu. Dlaczego?
Użycie testów istotności
Szeroko rozpowszechniony pogląd utrzymuje, że to standardowe ujęcie nie doprowadziło do większego postępu teoretycznego i empirycznego, ponieważ ekonomiści źle używają testów istotności na wiele sposobów.
Ekonomiści w praktyce konstruują równania poddawane regresji, tak aby uzyskane współczynniki przy zmiennych wyjaśniających były istotne statystycznie na danym poziomie (np. 5%). W praktyce oznacza to wykonywanie serii regresji dopóki nie znajdzie się takiej, gdzie dla każdej zmiennej w równaniu, testy istotności okażą się wystarczające (np. statystyka t-studenta>2), pozostałe zmienne są odrzucone. Podobnie z innymi testami istotności.
Takie podejście jest związane z wieloma problemami.
1. myli się statystyczną istotność (prawd. że nie-zerowa wartość parametru pojawi się w następnej regresji) z ekonomiczną istotnością parametrów (wielkością parametru), czy też istotnością naukową albo istotnością dla celów polityki gosp.). Współczynnik może być statystycznie istotny, ale zbyt mały by być ekonomicznie istotny.
2. Niezdolność do pokazania że współczynnik w regresji jest istotnie różny od 0 nie jest tym samym co udowodnienie, że jest równy 0. Np. załóżmy że testujemy hipotezę, że współczynnik jest różny od 0 (jest dodatni) i statystyka t=0.7 (dużo mniej od wartości krytycznej na poziomie 2 wymaganej przy 5% poziomie istotności). Konwencjonalnie odrzucilibyśmy hipotezę mówiąc że współczynnik nie jest istotnie różny od 0 i wyrzucili odpowiednią zmienną z równania. Z drugiej strony prawdopodobieństwo że t=0.7 w wyniku błędu wynikającego z próby jest mniejsze niż 50%, małe. Zatem bardziej prawdopodobne jest że współczynnik jest dodatni, niż równy 0 lub ujemny.
3. Współczynnik może być nieistotny z 2 powodów: 1) jest bliski 0; 2) próba jest mała i błąd wynikający z próby jest duży. Trzeba więc podawać przedziały ufności biorąc pod uwagę wielkość próby.
4. Najważniejszy problem - tylko udane regresje są publikowane, lista zmiennych, postać funkcyjna i sposoby pomiaru zmiennych są tak wybrane by uzyskać najlepiej dopasowane równanie. Taka procedura podnosi prawdopodobieństwo, że statystyki t-Studenta będą się wydawały istotne przy wybranym nominalnym poziomie istotności (rośnie prawdopodobieństwo że odrzucamy prawdziwą hipotezę zerową, iż jakiś współczynnik=0).
To jest problem przerzucania danych - data mining. Jeden z głównych powodów dla których metodologia komisji Cowlesa (standardowa metodologia) została w latach 80. ostatecznie porzucona.
12.3 Ekonometria jako projektowanie modelu
Innym współczesnym podejściem modelowania ekonometrycznego jest podejście oparte na redukcji tzw. procesu generującego dane. PGD jest funkcją która przypisuje rozkład prawdopodobieństwa zaistnienia każdemu możliwemu stanowi świata, jest reprezentowany przez łączny rozkład całego zbioru obserwacji wszystkich interesujących nas zmiennych.
Definicja PGD:
D(X*tΦ*), gdzie
D(•) - funkcja gęstości łącznego rozkładu całego zbioru obserwacji n zmiennych przed i w chwili t, X*t - macierz wszystkich obserwacji na n zmiennych przed i w chwili t, Φ* - wektor parametrów gęstości łącznego rozkładu.
W podejściu tym chodzi o dokonanie takiej redukcji PGD, aby uzyskać pewien rozkład PGD (model) w którym zmienne endogeniczne zależą od opóźnionych zmiennych endogenicznych, zmiennych egzogenicznych i zbioru parametrów rozkładu D(•):
Yt-1; Zt; ϕ), gdzie
yt - wektor zmiennych endogenicznych, Yt-1 - przeszłe wartości yt; Zt - wektor zmiennych egzogenicznych, ϕ - wektor parametrów rozkładu warunkowego.
Takiej redukcji można dokonać poprzez testy ekonometryczne prowadzące do:
1) eliminacji zmiennych z wektora X, które nie mają znaczenia dla interesujących nas zmiennych;
2) oddzielenie zmiennych endogenicznych od egzogenicznych;
3) poszukiwanie prostszych specyfikacji modelu;
4) zastępowanie nieznanych parametrów wartościami oszacowanymi.
Jakich kryteriów użyć przy tych 4 procedurach?
Najbardziej ogólne kryterium mówi, że model powinien być zgodny z jak największą ilością informacji.
David Hendry uszczegółowił to kryterium:
1) błędy modelu powinny mieć stałą wariancję w czasie (być homoskedastyczne);
2) zmienne wyjaśniające powinny być egzogeniczne względem interesujących nas parametrów;
3) parametry nas interesujące powinny być niezmiennicze w czasie i strukturalnie;
4) model powinien być zgodny z teorią ekonomiczną;
5) model dobry powinien obejmować inne konkurencyjne modele (wyjaśniać przynajmniej tyle samo co inne modele, np. prognozy tych modeli).
Redukcja PGD odbywa się poprzez obliczenie różnych statystyk diagnostycznych dla wymienionych wyżej kroków 1-5. Może odbywać się drogą modelowania od ogólnego do szczegółowego.
Dla Hendry'ego model jest postępowy, jeżeli obejmuje poprzedni (np. względem prognoz)- wyjaśnia to samo co poprzedni i jeszcze coś dodatkowo - oznacza to, że kryterium Hendry'ego jest zgodne z kryterium postępu naukowego Lakatosa (udane predykcje nowych faktow).
Czym różni się to podejście od poprzedniego (od metodologii standardowej)? Nie jest znana a priori specyfikacja modelu (postać funkcyjna), nie znane zmienne endogeniczne i egzogeniczne; nie znany jest kierunek przyczynowości.
12.4. Testowanie modeli przy użyciu metod nieformalnych
M. Friedman także nalega na przewidywanie nowych faktów jako jedyne kryterium oceny teorii, ale uważa że badanie ekonomiczne powinno być prowadzone zupełnie inaczej - poprzez tzw. naturalne eksperymenty.
Podejście to najlepiej przedstawić w kontekście książki Friedmana i Schwartz, A Monetary history of the US 1867-1962. Główną tezą książki jest, iż „pieniądz ma znaczenie” - ilość pieniądza jest niezależną i możliwą do kontrolowania siłą która silnie wpływa na gospodarkę.
Naturalnymi eksperymentami w tym kontekście są okazje, w których zasób pieniądza zmieniał się z powodów niezwiązanych z bieżącym stanem gospodarki tak, że można przypisać następujące później zmiany w gospodarce zmianom w zasobie pieniądza, a nie np. zmianom dochodu czy cen (można traktować te zmiany zasobu pieniądza jako egzogeniczne). Wtedy następujące zmiany w gospodarce można traktować jako skutki przyczyny jaką jest zmiana zasobu pieniądza w gospodarce.
W pracy Friedmana i Schwartz odnalezionych zostało mnóstwo tego typu sytuacji historycznych, które są następnie interpretowane jako argumenty na rzecz ilościowej teorii pieniądza. Np. autorzy zaobserwowali, że wiosną 1928 roku Rezerwa Federalna rozpoczęła ograniczanie podaży pieniądza w warunkach, które tego nie wymagały (recesja dopiero co się skończyła, a ceny spadały). FED zacieśnił jednak politykę pieniężną (obawiając się spekulacji na Wall Street). F. i S. zaobserwowali, iż po zacieśnieniu polityki nastąpił dalszy spadek cen i spadek aktywności gospodarczej. Ten i wiele innych przypadków F. i S. traktowali jako świadectwo na rzecz tezy, że czynniki monetarne wywołały wielki kryzys gospodarczy.
Dodatkowo używali także wielu regresji opartych danych przekrojowych (danych pochodzących z wielu krajów).
Metodologia Friedmana :
1) ponieważ nie ma w ekonomii kontrolowanych eksperymentów, musimy sięgać do historycznych epizodów, gdzie interesujące nas zjawiska przejawiały się w b. różnych okolicznościach (np. w przypadku ilościowej teorii pieniądza, Friedman obserwował ruchy pieniądza, dochodu i cen przez ok. 100 lat, w różnych okresach, w różnych okolicznościach).
2) są specyficzne historyczne epizody (naturalne eksperymenty), gdzie czynniki zakłócające (np. decyzje FED) przejawiają się tak jasno, że nie można ich nie zidentyfikować jako przyczyn pewnych następnych wydarzeń;
3) w celu orzekania o przyczynowości należy sięgać po inne informacje (jakościowe), niż tylko korelacje, wiadomo zawsze coś więcej np. wiadomo dużo o posunięciach właśnie rezerwy federalnej czy rządu w sprawach polityki gosp.
Podejście Friedmana w porównaniu z dwoma poprzednimi jest nieformalne (nie stosuje wyrafinowanej ekonometrii) i eklektyczne (nie domaga się uzyskania jednego modelu, który obejmuje wszystkie pozostałe modele). Wg Friedmana należy zbadać szeroką klasę modeli i używać ich w argumentacji na korzyść jakiejś tezy (np. ilościowej teorii) razem z inną informacją np. historycznymi obserwacjami. Różne regresje dla różnych krajów i okresów czasu (w historii monetarnej są ich setki) - te modele nie dadzą się zredukować do jednego i Friedman wcale tego nie zamierzał robić.
To podejście otwarte na krytykę, że uprawia data mining i że nie używa wyrafinowanych testów diagnostycznych przy modelach (takich jak w ujęciu Hendry'ego).
12. 5. Kalibracja
Czwarte podejście do badań empirycznych w ekonomii to kalibracja. Czołowi przedstawiciele: F. Kydland i E. Prescott. Używane bywa w obliczeniowych modelach równowagi ogólnej, finansach publicznych, teorii cyklu koniunkturalnego i teorii wzrostu gosp. Może być jednak zastosowane do każdego modelu ekonomicznego.
Procedura kalibracji składa się z 4 kroków:
1) sformułowanie teorii ekonomicznej odpowiadającej na interesujące nas pytanie;
2) wybranie postaci funkcyjnej i wartości parametrów na podstawie ekonometrycznych oszacowań wziętych z wcześniejszych mikroekonomicznych studiów i stylizowanych faktów dot. wyjaśnianych danych (np. stałość płac w dochodzie narodowym itp.);
3) ustalenie wartości parametrów, co do których nie ma informacji - tak aby model naśladował świat jak najbardziej się da;
4) przeprowadzenie symulacji, by odpowiedzieć na pytanie badawcze.
Kydland i Presscot wzieli neoklasyczny model wzrostu, skalibrowali go (ustalili postać funkcyjną f. produkcji, f. użyteczności itp., a także numeryczne wartości parametrów w funkcjach użyteczności i produkcji) i przeprowadzili symulację w celu odpowiedzi na pytanie jaki jest wpływ szoków technologicznych na cykl koniunkturalny (teoria realnego cyklu koniunkturalnego), czyli wygenerowali losowo liczby jako losowe zmiany technologii i badali jak zmienia się poziom dochodu i produkcji. Otrzymane wielkości dochodu, produkcji itp. porównali z faktycznym zachowaniem się makroszeregów czasowych. Okazało się, że zmienność produktu w USA jest dobrze wyjaśniana przez ich model. Symulacje naśladowały dobrze niektóre ważne szeregi czasowe. Wniosek - teoria realnego cyklu koniunkturalnego jest potwierdzona.
Czym to podejście różni się od pozostałych metod?
To podejście nie zajmuje się estymacją parametrów równań i nie dąży do znalezienia modelu, który by najlepiej pasował do danych. Teoria tutaj jest po prostu wybrana ze względu na to, że jest obecnie obowiązująca (neoklasyczna teoria wzrostu) (a nie dlatego, że jest najlepiej dopasowana do danych).
Zwolennicy tego podejścia nie uważają potwierdzonych czy sfalsyfikowanych predykcji jako ostatecznego testu teorii. Modele tego typu są rozwijane przy założeniu, że teorie obecne (powszechnie przyjęte) są prawdziwe. Kalibracja nie testuje teorii, tylko je ilustruje. Porzuca się tu ideę, że teorie mają być testowane empirycznie albo że ostatecznym testem przy wyborze spośród dostępnych teorii jest świadectwo empiryczne.
Konkluzje rozdz. 12
1. model standardowy nie jest już używany właściwie;
2. ujęcie w którym modele traktuje się jako redukcje PGD pozbywa się problemów modelu standardowego (data mining), ale trudno rozpocząć badanie z całkowicie ogólnym modelem (zazwyczaj zakłada się ograniczoną ilość opóźnień np.). Poza tym użycie tego podejścia wymaga uzyskania modelu zdolnego do generacji predykcji, które mogą być testowane przeciw danym - bardzo wymagające podejście, w praktyce trudno je przeprowadzić.
3. nieformalne podejście Friedmana jest podatne na zarzut, że jego metody są tak elastyczne, iż mogą obronić każdą teorię. Poza tym jego sceptycyzm co do wyrafinowanych nowoczesnych metod ekonometrycznych jest przeciw dominującym od lat 40. tendencjom w kierunku testowania teorii przy użyciu najlepszych dostępnych formalnych kryteriów statystycznych.
4. problemy związane z tymi podejściami skłaniają wielu współczesnych ekonomistów do kalibracji, ale ta też ma wady przynajmniej w oryginalnym ujęciu Kydlanda i Prescotta - nie jest testowaniem teorii, nie służy do predykcji, ale jest „tylko” ilustracją teorii.
13. Teoria ekonomii, świadectwo empiryczne i postęp w ekonomii
13. Co ma znaczenie dla ekonomistów?
1) Studenci dobrych amerykańskich uniwersytetów są przekonani, że raczej zdolności matematyczne, niż bycie biegłym w badaniach empirycznych mają większe znaczenie w karierze ekonomisty (wyniki badań sondażowych).
2) Świadectwo lingwistyczne
Dwóch lingwistów przeanalizowało artykuły w czasopiśmie Economic Journal, w konteście `hedging' (zabezpieczania sie) - taktyki osłabiania, mitygowania sądów (np. `chciałbym zasugerować', `wydaje się prawdopodobne, że', `zdaje się że mamy do czynienia z sytuacją taką, iż' itp). Zauważono skądinąd, że w biologii taktykę zabezpieczania stosuje się w przypadku rozważania problemów centralnych w danej nauce jako taktykę grzecznościową, gdyż podważenie ustalonych rozwiązań tych problemów mogłoby narazić kolegów (którzy stworzyli standardowe rozwiązania tych problemów) na utratę twarzy. W przypadku problemów peryferyjnych się jej nie stosuje. W biologii systematycznie używa się jej w przypadku twierdzeń empirycznych, a twierdzenia teoretyczne są znacznie mniej zabezpieczane. Czyli w biologii najważniejsze jest świadectwo empiryczne.
Nasi lingwiści w ekonomii odnaleźli zupełnie coś innego - ekonomiści systematycznie zabezpieczają twierdzenia matematyczne i metodologiczne, a rzadko sądy o rzeczywistości. przykłady.
Sądy empiryczne w ekonomii zawierają przybliżenia, ale bez zwrotów grzecznościowych - może to oznaczać, że nie są po prostu centralne, najważniejsze w ekonomii.
3) sami ekonometrycy są sceptyczni co do roli świadectwa empirycznego w ekonomii - 2 przykłady, s. 189-190.
Wszystko to świadczy o tym, że ekonomiści traktują dość lekko badania empiryczne, mają one mniejsze znaczenie dla nich, niż teorie.
13.2 Jak teoretycy ekonomii używają świadectwa empirycznego?
Teoretycy używają faktów w teoriach i w tym znaczeniu fakty mają znaczenie w ekonomii. Jak są używane fakty przy tworzeniu teorii?
1. używa się świadectwa empirycznego by ustalić fakty, które teorie powinny wyjaśnić;
2. aby podminować konkurencyjne wobec naszej teorie.
Teoretycy nie używają zaś faktów:
1. by wspomóc, uzasadnić założenia teorii;
2. aby spróbować w jakiś sposób przetestować konkluzje teorii.
13.3 Teoria ekonomii, świadectwo empiryczne i postęp w ekonomii
W ekonomii nie wydarzył się tak duży postęp empiryczny, jak się kiedyś spodziewano. Natomiast postęp teoretyczny jest znaczny.
Dlaczego nie ma tak dużego postępu empirycznego?
Wynika to zarówno z ograniczeń teorii ekonomicznych, jak i z ograniczeń ekonometrii.
1. ograniczenia teorii ekonomicznych
Gospodarka się szybko zmienia, zmienia się też rozumienie pojęć teoretycznych, które ma wyjaśnić ekonomia, brak zgody co do tego, które podstawowe pojęcia ekonomiczne powinni ekonomiści wyjaśniać, skrajna złożoność gospodarki powoduje, że teorie mają bardzo nierealistyczne założenia. Stąd panuje duża swoboda w rozwijaniu teorii ekonomicznych, drzwi otwarte dla wartości matematycznych, pojawienie się formalizmu w teorii ekonomicznej.
Teoria rozwijała się w ekonomii na sposoby dalekie od idealnych dla testowania empirycznego. Np. założenie, że teorie ekonomiczne posługują się pojęciem preferencji (a parametry indywidualnych f. użyteczności nie mogą być zmierzone). Dodatkowo modele ekonomiczne nie zawsze prowadzą do testowalnych predykcji. Teorie stały się w dużej mierze twierdzeniami matematycznymi, a nie zdaniami dotyczącymi rzeczywistości.
To jedna z przyczyn względnych niepowodzeń ekonometrii, wynikająca ze słabości teorii ekonomicznych.
2. ograniczenia ekonometrii
Przede wszystkim, gdy pojawiła się ekonometria panował zbyt duży optymizm co do jej możliwości, nic dziwnego, że nie spełniła wygórowanych nadzieji.
Inne przyczyny:
1) wyrugowanie nieformalnego testowania przez formalną ekonometrię;
2) zaawansowane techniki ekonometryczne nie są zbytnio przydatne do odkrywania trwałych empirycznych uogólnień, które byłyby ograniczeniem dla teoretyzowania.
To wszystko nie oznacza, że ekonometria nie jest pożyteczna, bezcelowa, czy też że można bronić nieznajomości zaawansowanej ekonometrii. Jest ona niezbędna aby: 1) rugować z ekonomii pozorne rezultaty (niepotwierdzone przez dane; 2) przewidywanie jest niezwykle istotne, wymaga zaawansowanych i czasem innych technik ekonometrycznych, niż używane przy testowaniu teorii ekonomicznych.
Dlaczego empiryczna ekonomia jest względnie niedorozwinięta?
Wyjaśnienie tego dlaczego ekonomia jest niewystarczająco empiryczna, dlaczego ekonomiści nie testują swoich teorii wystarczająco może być związane ze strukturą instytucjonalną ekonomii - ekonomiści podlegają bowiem bodźcom środowiskowym.
Można argumentować, że struktura bodźców w ekonomii została poważnie zakłócona (W. Leontief). Zbyt mało prestiżu wiąże się z badaniami empirycznymi a zbyt dużo z rozwojem teorii i technik ekonometrycznych. Trudniej jest rozpowszechnić (przez podręczniki np.) wyniki badań empirycznych, niż teoretycznych, trudniej też uzyskać co do tych wyników zgodę.
Niektórzy argumentują, że obecny stan ekonomii jest najlepiej opisywany przez dylemat więźnia. Podczas gdy wszyscy ekonomiści mieliby się lepiej, gdyby ekonomia stała się bardziej empiryczna, to tak długo jak większość zajmuje się teorią (lub ceni teorię najbardziej), wypłata dla indywidualnego ekonomisty zajmującego się badaniami empirycznymi jest niska, więc wszyscy są uwięzieni w stanie nieoptymalnej równowagi.
Sukcesy ekonomii - działy w których obserwujemy postęp empiryczny
Pomimo wszystkich tych problemów, możemy znaleźć przypadki w których należy uznać, że ekonomia odniosła bez wątpienia empiryczny postęp. Żeby odkryć jakie czynniki przyczyniają się do postępu empirycznego w ekonomii, najlepiej rozważyć te dziedziny w których ten postęp jest widoczny (poza tymi, które przedstawił Lipsey - m.in. historia gosp., ekonomia rynku pracy). Wg Backhouse'a takimi dziedzinami są finanse, ekonomia przemysłowa, ekonomia rynku pracy i ekonomia rolnictwa.
W finansach dokonał się znaczący postęp empiryczny z wielu powodów:
1. Dobra jakość danych, które precyzyjnie odpowiadają danym dostępnym podmiotom rynkowym;
2. Dokładna znajomość struktury i funkcjonowania rynku (ścisła regulacja rynków finansowych)
3. Cele podmiotów są relatywnie jasne (zał. o maksymalizacji zysków wiarygodne)
4. Prosta technologia i niewielkie koszty transakcji (zał. o arbitrażu wystarcza do uzyskania wielu rezultatów)
5. Transakcje są dokonywane przez profesjonalistów, którzy są dobrze poinformowani
6. Bezpośrednio od podmiotów rynkowych można uzyskać informację o tym jak podejmowane są decyzje i z jakich powodów
7. Transakcje finansowe mogą być analizowane niezależnie od działania czynników realnych w gospodarce (wynika to z tzw. twierdzenia o separacji udowodnionego w ekonomii finansów).
8. Istnieją dobrze ugruntowane empiryczne uogólnienia, które mają bezpośrednie implikacje dla teorii finansów
Ogólnie do postępu empirycznego w ekonomii potrzebne są: 1) dane o dobrej jakości, które mogą być bezpośrednio odniesione do zmiennych które występują w teoriach; 2) dobra znajomość instytucjonalnych struktur występujących w tym fragmencie rzeczywistości który bada teoria; 3) uzyskanie trwałych empirycznych uogólnień, które mogą kierować i ograniczać rozważania teoretyczne.
11