CZĘŚĆ I. Określanie preferencji społecznych
Identyfikacji preferencji społecznych dokonuje się w oparciu o dwa podejścia:
- pozytywne służy wskazaniu preferencji jakie społeczeństwo ma
- normatywne ma na celu określenie preferencji jakie społeczeństwo powinno mieć (bazuje
na etycznych czy politycznych zasadach
To właśnie w oparciu o podejście normatywne funkcjonuje pojęcie ekonomii dobrobytu - wyznaczanie celów polityki gospodarczej oraz ocena stopnia realizacji zamierzonych działań.
O uporządkowaniu społecznym mówimy, gdy pewne sytuacje społeczne (sytuacja taka może być interpretowana np. jako alokacja zasobów) uszeregowane są w pewien sposób. Szereg taki budowany jest poprzez porównywanie sytuacji, ocenę czy są one wzajemnie obojętne, któraś jest lepsza lub gorsza ( ze społecznego punktu widzenia).Zakłada się, że uszeregowanie takie powinno być przechodnie (a>b i b>c to a>c).
Wyróżnia się 2 rodzaje uporządkowania: bezpośrednie (oparte na zasadach etycznych i politycznych) oraz pośrednie (oparte o indywidualne preferencje; welfaryzm = indywidualizm etyczny - każda jednostka najlepiej zna swoje preferencje). Oba podejścia mają swoich przeciwników. Uporządkowanie pośrednie krytykowane jest za ignorowanie powszechnych praw i wolności, a skupienie na własnym JA, oraz za zniekształcenia jakim ulegają preferencje indywidualne pod wpływem nacisków otoczenia (moda, nawyki). Na liście wad podejścia bezpośredniego podkreśla się sprowadzenie preferencji społecznych do preferencji jednej osoby (np. filozofa, który np. wskazał wzór postawy moralnej - może się on przecież kłócić z odczuciami innych uczestników życia społecznego).
Przy tworzeniu uporządkowania pośredniego stosowane są dwie metody pomiaru satysfakcji jednostek: porządkowa (a>b>c) i kardynalna (jak funkcja użyteczności: a1=20, a2=50). Bardziej szczegółowych informacji dostarczają: mierzalność na skali względnej (pozwala dodatkowo na porównywanie zmian proporcjonalnych bez względu na zastosowaną skalę) i absolutnej (każdy poziom satysfakcji opisany jest przez jedną konkretną liczbę rzeczywistą).
Rozdział 3 Zasada Pareta i nowa ekonomia dobrobytu
Zasada Pareta ma zastosowanie w przypadku, gdy indywidualne preferencje są mierzalne lecz wzajemnie nieporównywalne. Dokonanie uporządkowania preferencji jest jednak możliwe w oparciu o następujące dwie tezy:
„Słabe” kryterium Pareta
Grupa jednostek zwiększa swój dobrobyt przechodząc od stanu a do stanu b, jeżeli wszystkie jednostki są bardziej usatysfakcjonowane w stanie b niż w stanie a
„Silne” kryterium Pareta
Grupa jednostek zwiększa swój dobrobyt przechodząc od stanu a do stanu b, jeżeli co najmniej jedna jednostka jest w lepszej sytuacji w stanie b, a sytuacja żadnej jednostki nie jest gorsza
W systemie ekonomicznym, w którym produkcja jest dana, alokacja dóbr w sensie Pareta może być poprawiana tak długo jak długo krańcowe stopy substytucji dóbr dla różnych jednostek są różne. Zrównanie KSS sprowadza nas do optimum paretowskiego. Każda jednostka zostaje wówczas „nasycona” konkretnym dobrem.
Wykorzystując podejście Pareta dokonuje się również alokacji czynników produkcji. Gdy za czynniki produkcji przyjąć pracę i maszyny to stosunek w jakim maszyny mogą zastąpić pracę przy danym poziomie produkcji musi być równy zarówno w branży produkującej A jak i B - innymi słowy krańcowe stopy technicznej substytucji między wymienionymi czynnikami produkcji obu dóbr muszą być sobie równe.
Krzywa możliwości produkcyjnych inaczej nazywana również krzywą transformacji wskazuje na wielkości produkcji przy zaangażowaniu konkretnej liczby poszczególnych czynników produkcji.
F
A B C
Przesuwając się po krzywej transformacji zauważamy, że by zwiększyć produkcję jednego dobra należy zrezygnować z części produkcji drugiego z dóbr. Warunki tej redukcji definiowane są przez krańcową stopę transformacji KST (marginal rate of transformation). Gdy KST między dobrem X, a dobrem Y wynosi pięć, rezygnując z produkcji jednostki dobra Y można wyprodukować 5 dodatkowych jednostek dobra X. Jeżeli KSS (krańcowa stopa substytucji) wyniesie dla tych dóbr np.2 będzie oznaczać to tyle, że nabywcy dóbr byli by tak samo usatysfakcjonowani gdyby rezygnując z jednostki Y dostawali tylko dwie jednostki dobra X. Ogólna efektywność Pareta osiągana jest wówczas gdy KSS=KST.
g
i h
, KMU
m k
dla Franka i Janka są wyższe niż odpowiadające im użyteczności w punkcie m. Jednocześnie można powiedzieć, że żadna z tych alokacji nie jest efektywna w sensie Pareta. Dla każdego z tych punktów istnieje możliwość zwiększenia użyteczności jednego z członków społeczeństwa (Janka bądź Franka) bez zmniejszania użyteczności drugiego. Optymalne są tylko punkty znajdujące się na linii KMU. W takiej postaci zasada Pareto nie pozwala na porównanie alokacji i oraz k. Rozwiązania problemu
podjął się Kaldor formułując zasadę kompensacji. Zgodnie z tą zasadą w przypadku gdy zysk osiągany przez Franka po przejściu z punktu i do k jest wystarczająco duży, by umożliwiał wypłacenie Jankowi kompensaty i osiągnięcie zysku netto, to zmiana z i do k jest pożądana. Oznacza to, że punkt k ma wyższą pozycję w społecznym uporządkowaniu.
Kenneth Arrow wykazał że, po przyjęciu pewnych założeń co do oczekiwanej racjonalności decyzji grupowych, skonstruowanie satysfakcjonującej metody podejmowania grupowych decyzji jest niemożliwe. Taka racjonalna metoda winna spełniać poniższe założenia:
Uniwersalność - procedura głosowania musi na podstawie rankingu preferencji każdego z głosujących wybrać w sposób deterministyczny (bez udziału elementu losowego) ranking preferencji grupy. Nie możemy w pewnych sytuacjach stwierdzić, że "decyzji nie osiągnięto", czy też wylosować wyniku.
Suwerenność - każdy wynik powinien być możliwy do osiągnięcia przez pewną kombinację głosów. Wykluczamy więc procedury, w których pewne rozstrzygnięcia są niemożliwe niezależnie od woli wyborców.
Brak dyktatury - wynik głosowania zależy od głosów więcej niż jednego uczestnika.
Monotoniczność - jeśli wyborca zmieni preferencje podnosząc ranking jednej z opcji, wynik musi albo zwiększyć ranking tej opcji, albo pozostawić go na tym samym miejscu, nie może go zaś obniżyć.
Niezależność nieistotnych alternatyw - jeśli ograniczymy zakres opcji do dowolnego podzbioru, względna kolejność opcji w wyniku musi pozostać taka sama jak w pełnym zbiorze. Czyli jeśli pełny zakres opcji to A, B, C, D, E, i wynikiem procedury jest kolejność C D E A B, to względna kolejność C A B musi zostać taka sama niezależnie od tego jak zmieniałyby się preferencje dla D i E
Twierdzenie mówi, że jeśli jest przynajmniej 2 głosujących i przynajmniej 3 możliwości, nie da się zbudować takiej metody podejmowania decyzji, która spełniałaby powyższe kryteria.
Teoria głosowania
Reguła jednomyślności głosowania ma zastosowanie, gdy wybór stanu a przed b popierają wszyscy członkowie społeczności.
Inną metodą głosowania jest metoda większościowa. Wygrywa ta opcja, która uzyska co najmniej połowę + 1 głos (większość zwykła). Reguła ta nie jest odporna na kolejność głosowania. Oznacza to, że gdy założyć, iż opcja która przegrywa w głosowaniu binarnym (głosowaniu poddawana jest tylko jedna para możliwości) zostaje wykluczona, a opcja wygrywająca porównywana jest następnie z kolejną rozpatrywaną alternatywą, kolejność porównywania par ma wpływ na ostateczny wynik głosowania:
Opcja |
Janek |
Franek |
Zbyszko |
A |
1 |
3 |
2 |
B |
2 |
1 |
3 |
C |
3 |
2 |
1 |
W powyżej tabeli przedstawiono preferencje trzech osób. Janek, Franek i Zbyszko uporządkowali 3 rozpatrywane opcje, cyfrę „3” otrzymała najlepsza, odpowiednio 1 najgorsza ich zdaniem opcja. Porównując najpierw możliwości A i B, wybrana zostanie opcja B, którą pokona w kolejnym głosowaniu możliwość C - ostateczny zwycięzca głosowania. Gdy zaczynać głosowanie od porównania pary AC wygra A, które przegra z B - zwycięzcą głosowania. Co więcej, rozpoczęcie głosowania od porównania par BC wyłoni C jako zwycięzcę. Opcja C pokonana zostanie jednak przez A - która w końcu doczekała się swojego zwycięstwa. Widać, że kolejność porównywania rozpatrywanych alternatyw ma wpływ na wybór ostatecznego zwycięzcy. Opisany przykład doczekał się nawet swojej nazwy. To paradoks Condorceta.
Twierdzenie Blacka o wyborcy medianowym głosi, że jeśli możliwe jest przedstawienie upodobania wyborców w postaci preferencji jednowierzchołkowych (każdy głosujący preferuje tylko jedną propozycję spośród poddawanych pod głosowanie), to metoda głosowania większościowego zawsze doprowadzi do wyboru punktu idealnego wyborcy medianowego. Jeśli liczba wyborców jest nieparzysta, to istnieje jeden wyborca medianowy. Jeśli liczba wyborców jest zaś parzysta, istnieje dwóch wyborców medianowych. W głosowaniu większościowym mogą wówczas zostać wybrane wszystkie punkty leżące na odcinku łączącym ich punkty idealne.
Inną jeszcze metodą głosowania jest metoda Bordy. Uczestnicy głosowania proszeni są o uporządkowanie rozpatrywanych możliwości od ich zdaniem najlepszej do najgorszej. Wskazana kolejność staje się podstawą przyznania punktów wybranym możliwościom, odpowiednio największej ich liczby najlepszej opcji i stopniowo niższej liczby punktów opcjom uznanym za gorsze. Punkty przyznane tak przez wszystkich uczestników głosowania są następnie zliczane i na tej podstawie dokonuje się ostatecznego uporządkowania przedłożonych do głosowania możliwości.
W temacie teorii głosowania pozostaje jeszcze wspomnieć o kwestii manipulacji preferencjami. Głosujący mogą głosować niezgodnie z własnymi prawdziwymi preferencjami po to, by zapewnić sobie lepszy rezultat. Znając preferencje innych głosujących Zbyszek „manipulator” zna jednocześnie wynik głosowania przy założeniu, że wszyscy jego uczestnicy będą głosować zgodnie ze swoimi preferencjami. Zbyszek może głosować wbrew swoim przekonaniom by w ostatecznym rozrachunku zwycięzcą głosowania okazała się opcja bardziej mu odpowiadająca niż ta będąca rezultatem głosowania, w którym Zbyszek manipulator nie poddał się pokusie „manipulatorstwa”. Zgodnie z twierdzeniem Gibbarda-Satterthwaite'a nie istnieje żadna niedyktatorska procedura głosowania odporna na manipulowanie preferencjami, gdy liczba możliwości do wyboru większa jest niż dwa.
Rozdział 4 Teorie sprawiedliwości, funkcje dobrobytu i optimum społeczne
Funkcja dobrobytu społecznego jest matematycznym przekształceniem preferencji jednostek w pojedyncze preferencje społeczne, swego rodzaju agregacją preferencji indywidualnych. Poniżej omówione zostały najczęściej stosowane funkcje tego typu:
Utylitarystyczne funkcje dobrobytu społecznego
Zakładając, że rozpatrujemy H jednostek, których funkcje użyteczności ui(x) są porównywalne, to przypisując każdej z nich tą samą wagę, funkcję dobrobytu społecznego W(x) przedstawić można jako ich sumę:
Funkcje dobrobytu społecznego Bernouliego-Nasha
Mają postać analogiczną do wyżej opisanych, zamiast dodawać mnoży się funkcje użyteczności poszczególnych jednostek. Funkcje takie mają charakter bardziej egalitarny - wyrównany, przynoszą większy dobrobyt społeczny ( w przypadku większego rozdrobnienia dochodu w społeczeństwie).
Funkcja dobrobytu społecznego Rawlsa
W1
Funkcja dobrobytu społecznego Bergsona-Samuelsona
Jest określona bardzo ogólnie: W = W (u1, u2, u3, …, uH), ma następujące właściwości:
Jest zdefiniowana z wykorzystaniem indywidualnych użyteczności - uwzględnia założenia ekonomii dobrobytu
Użyteczność osiągana przez poszczególne jednostki jest porównywalna
Spełnione jest mocne kryterium Pareta
Preferencje społeczne są wypukłe lub mocna wypukłe (co wskazuje na branie pod uwagę użyteczności dla różnych osób, a nie koncentrowanie się tylko na użyteczności dla jednej osoby jak u Rawlsa)
Aby omówić sposób wyboru optimum społecznego należy wprowadzić pojęcie granicy możliwych użyteczności GMU. Otóż dla każdego punktu wzdłuż granicy produkcji (krzywej transformacji) możliwe jest narysowanie innej krzywej możliwych użyteczności KMU (pojęcie wprowadzone na str. 2). Na każdej z tych krzywych znajdzie się jeden lub więcej punktów odzwierciedlających ogólną efektywność Pareto. Zbiór punktów spełniających warunek ogólnej efektywności nazywany jest
W
GMU
Poniżej zamieszczam dwa twierdzenia Pigou, które wskazują na warunki wystarczające wzrostu dobrobytu społecznego:
Dobrobyt ekonomiczny wzrasta, jeśli wielkość dochodu narodowego wzrasta bez „pogorszenia” się podziału dochodu, to znaczy bez zmniejszenia dochodu ubogich
Dobrobyt ekonomiczny wzrasta, jeśli rozkład dochodów „poprawia się” a wielkośc dochodu narodowego nie zmniejsza się
Zasada dyferencji
Rawlsa
Funkcje dobrobytu analizowane do tej pory bazują na zasadzie indywidualizmu etycznego. Oznacza to, że stany społeczne oceniane są za pośrednictwem preferencji jednostek. Inną teorię sprawiedliwości zaproponował Nozik. Dla Nozika determinantą sprawiedliwości nie jest użyteczność osiągana przez jednostkę lecz jest nią korzystanie z praw i ich respektowanie. Również Sen odbiegł od prezentowanych wcześniej teorii opartych na dobrobycie formułując swą teorię sprawiedliwości. Zanegował on rolę użyteczności jako kryterium dobrobytu. W jego ocenie użyteczność jest wskaźnikiem psychologicznym. Odczucie człowieka nie zawsze pokrywa się z właściwym
zaspokojeniem jego potrzeb. Można przecież czerpać przyjemność z kromki chleba, ale brak podstawowych składników pokarmowych może nadwyrężyć czyjeś zdrowie. Według Sena istnieją pozapsychologiczne aspekty dóbr, które są kluczowe z punku widzenia ich korzyści dla ludzi i społeczeństwa.
CZĘŚĆ II. WYBORY SPOŁECZNE, PAŃSTWO I RYNEK
Rozdział 5. Preferencje społeczne i instytucje
Rozdział 5.1 Rola rynku i państwa
W części I analizowane były stany społeczne i cele społeczeństwa. W części II będą analizowane instytucje ekonomiczne, tj. „reguły”, procedury jakimi kierują się ludzie we wzajemnych ekonomicznych stosunkach. Analizy zostały ograniczone do „konstytucyjnych” aspektów instytucji ekonomicznych. Te dwie reguły, czyli sposoby ekonomicznego współdziałania, to: rynek i państwo. Inne instytucje, jak firmy, czy stowarzyszenia, zostaną pominięte, żeby na podstawie państwa i rynku wskazać najbardziej skrajne aspekty działań, które z jednej strony to zysk(cel indywidualny) i inne cele - zbiorowe. Później zostaną omówione różnice między osiągnięciem celów na rynku lub przez państwo. Analiza dokonana zostanie przez pryzmat prywatnych i publicznych interesów, reprezentowanych przez te instytucje oraz różnicy w alokacji zasobów, specyfiki procesu decyzyjnego,. W przypadku rynku - proces (decyzyjny) ma charakter dobrowolny, państwa - przymusowy.
W analizach będziemy odnosić się do zasady efektywności wg Pareta. Przeniesiemy kryterium efektywności na poziom instytucji, co ma na celu optymalizację dobrobytu społecznego. …(opisuje co będzie opisywała dalej)
5.2. Podstawowe twierdzenia ekonomii dobrobytu
Zostało dowiedzione w teorii ekonomii, że istnieje podwójny związek między rynkiem a optymalnością w rozumienia Pareta. Zostały owe związki zapisane w 2 „podstawowych” twierdzeniach ekonomii dobrobytu:
„W systemie ekonomicznym z doskonałą konkurencją i kompletnością rynków stan równowagi, jeśli istnieje, jest optymalny w rozumienia Pareta.”
„Jeżeli rynki są kompletne oraz spełnione są pewne warunki dotyczące funkcji użyteczności dla jednostek (wypukłość map obojętności) i funkcji produkcji (wypukłość zbiorów produkcji), to przy właściwej redystrybucji zasobów między jednostki (początkowego wyposażenia jednoste)każdy stan optymalny w rozumieniu Pareta jest stanem równowagi w warunkach konkurencji.”
Pierwsze twierdzenie ma charakter deskryptywny, gdyż pokazuje, w kategoriach danego kryterium porządkowania społecznego, konsekwencje dokładnie określonej sytuacji na rynku.
Drugie twierdzenia ma charakter preskryptywny, gdyż określa warunki dotyczące alokacji i redystrybucji, które muszą być spełnione w celu osiągnięcia pewnych określonych stanów(określonych przez funkcje użyteczności).
5.3 Pierwsze podstawowe twierdzenie
Żeby zrozumieć pierwsze twierdzenie, najpierw wyjaśnimy pojęcia w nim używane:
Doskonała konkurencja to system, w którym występują:
Jednorodne dobra,
Duża (hipotetycznie nieskończona) liczba podmiotów na rynku,
Brak zmów między podmiotami,
Swoboda wejścia/wyjścia,
Pełna informacja o cenach.
Jednorodność dóbr umożliwia identyfikacje rynków, warunki 2,3,4 zapewniają uznanie przez podmioty ceny rynkowej za dane (są cenobiorcami), warunek 5 - stanowi wymóg przejrzystości, dzięki niemu podmioty nie zrobią segmentacji rynku, na całym rynku będzie obowiązywała jedna cena.
Z kompletności rynków wynika brak efektów zewnętrznych,; równowaga w warunkach konkurencji jest wektorem cenowym i alokacją ekonomiczną(wektory konsumpcji i produkcji), która spełnia warunki max. Funkcji użyteczności i zysku oraz oczyszcza rynek. Równowaga istnieje gdy f.użyteczności mają standardowe właściwości(ciągłość, niezaspokajalność preferencji itp.) i nei ma rosnących korzyści skali(wypukłe krzywe produkcji). Korzyści skali spowodowałyby stale malejące koszty długookresowe średnie, każda firma chciałaby zwiększyć swój rozmiar, aż do nasycenia rynku.
W warunkach konkurencji może istnieć więcej niż jeden stan równowagi. Najbardziej problematyczny aspekt równowagi w warunkach konkurencji dotyczy jej stabilności, tzn. możliwości jej osiągnięcia i utrzymania.
Paretowska optymalność w gospodarce z wymianą i produkcją wymaga:
Efektywnej alokacji konsumpcji, osiągniętej, gdy krańcowa stopa substytucji (KSS) dla każdej pary dóbr jest równa dla wszystkich konsumentów,
Efektywna alokacja czynników produkcji . osiągnięta, gdy w przypadku wszystkich dóbr krańcowa stopa technicznej substytucji (KSTS) dla każdej pary czynników produkcji jest taka sama,
Ogólnej efektywności, osiągniętej, gdy KSS między każdą parą dóbr dla wszystkich konsumentów jest równa krańcowej stopie transformacji (KST).
Konsumpcja jest efektywna (w przypadku równowagi na konkurencyjnym rynku), gdy obowiązuje prawo jednej ceny. Czyli identyczny będzie stosunek między dwoma dowolnymi dobrami. Ponieważ równowaga na doskonale konkurencyjnym rynku dla każdego konsumenta na doskonale konkurencyjnym rynku znajduje się w punkcie, w którym KSS między tymi dwoma dobrami jest równa temu samemu stosunkowi między cenami tych dóbr, to KSS między tymi dwoma dobrami będzie równa dla wszystkich konsumentów.
Prawo jednej ceny zapewnia też efektywną alokację również na rynku czynników produkcji. Producent będzie minimalizował koszty, stosując kombinację czynników zrównoważającą KSTS między pracą a maszynami ze stosunkiem pracy ceny i urządzeń. Na doskonale konkurencyjnym rynku występuje tylko jedna cena czynnika produkcji, czyli stosunek między cenami dwóch czynników produkcji będzie taki sam (we wszystkich przemysłach).
5.4 Drugie podstawowe znaczenie
Rynki doskonale efektywne mogą stwarzać stany niepożądane równowagi, gdy niektórzy obywalatele nie mają dostępu do zasobów koniecznych do przeżycia. Niewolnictwo też może być paretowsko efektywne. Paretowska optymalność nie mówi, czy jakaś sytuacja jest pożądana, czy że jest dobra, mówi tylko o tym, świadczy o tym, że zapewniona jest efektywność produkcji, konsumpcji i efektywność w relacji do danego początkowego rozkładu zasobów.
Niepożądane, a optymalne w sensie paretowskim rozwiązanie optymalne, lecz o skrajnie różnych funkcjach użyteczności, można zmienić za pomocą mechanizmów rynkowych. Każdy stan optymalny paretowsko, jest stanem równowagi w warunkach konkurencji, jeśli są spełnione pewne warunki i tak długo, jak zasoby są odpowiednio rozdzielne za pomocą transferów, które nie zakłócają procesów rynkowych jako mechanizmów alokacji zasobów. Państwo spełniałoby funkce redystrybucyjne, a rynk alokacyjną.
5.5 Rozszerzenie dotychczasowych twierdzeń
Równowaga w obu warunkach jest to równowaga w pojedynczym okresie. Stan równowago można rozszerzyć na kilka okresów, np. T okresów. Mamy m rodzajów dóbr, działalność trwa w T okresach, to całkowita ilość dóbr wynosi mT. Cena dobra będzie się zmieniać w kolejnym okresie o realną stopę procentową. Możemy teraz analizować podaż i popyt na kilka okresów do przodu. Konsument może zaplanować ile będzie konsumował danego dobra w każdym kolejnym okresie, żeby osiągnąć maksymalną użyteczność. Firma może zaplanować wielkość produkcji w kolejnych okresach. Wymogi modelu: trzeba znać wszystkie ceny w przedziale czasu T, zatem muszą być rozwinięte rynki na dobra, które muszą zostać dostarczone w początkowym okresie (rynki natychmiastowe) oraz rynki na dobra, które mają być dostarczone w przyszłych okresach (rynki terminowe). Ceny przyszłe muszą być znane na początku rozpatrywanego okresu, żeby móc dokonać alokacji. Model ciągle jest statyczny, podmiot dokonuje wyboru w jednym momencie, a nie sekwencyjnie. Można rozszerzyć model o niepewność, wprowadzając rynki warunkowe, na którym dobro jest zdefiniowane przez swoje właściwości fizyczne, przez okres w jakim jest dostępne, oraz przez sytuację w danym okresie. Dzięki rynkom warunkowym możliwy jest „hedging”, czyli zabezpieczenie przed pewnymi zdarzeniami. Jednym z rodzajów rynków warunkowych jest rynek ubezpieczeń np. życiowych.
5.6 Pierwsze twierdzenie jako precyzyjne przedstawienie (granic) „niewidocznej ręki”..
Ale w rzeczywistym świecie:
rynki nie są doskonale konkurencyjne
nie są kompletne (istnieją efekty zewnętrzne, dobra publiczne, asymetria informacji, koszty transakcji)
statyczność oraz indywidualizm metodologiczny (preferencje jednostek są dane, bez odnoszenia się do czynników wpływających na preferencje) ogranicza pierwsze twierdzenie
optymalność w sensie Pareta jest z kolei ograniczona przez przyjęcie hipotezy o nieporównywalności i stanowiska indywidualizmu etycznego (przez nie dochód nie może być uwzględniony jako znaczący czynnik uporządkowania społecznego, co więcej nie pozwala na wzięcie pod uwagę dostępności dóbr społecznie pożądanych).
Według drugiego twierdzenia działanie rynku powinno być wspomagane działaniem państwa.
Rozłączność funkcji alokacyjnych i funkcji podziału zależy od istnienia pełnej informacji.
Rynek może stanowić przeszkodę dla działań publicznych i osiągania efektywności i sprawiedliwości.
Rozdział 6. Niesprawności rynku: aspekty mikroekonomiczne
6.2. Konkurencja doskonała a rzeczywiste rynki
Nierealistyczne założenia towarzyszące modelowi doskonałej konkurencji. W rzeczywistości są to konkurencja niedoskonała, konkurencja monopolistyczna, oligopol lub monopol - nie spełniają optimum Paretowskiego dotyczącego równości ceny i kosztu krańcowego.
6.2.1. Liczba uczestników rynku i przychody ze skali
Założenie o dużej liczbie uczestników rynku nie jest spełnione po stronie podaży, którego źródłem jest charakter przychodów ze skali w analizowanej branży. Jeżeli są one rosnące - mamy monopol naturalny (koszty dostarczenia produkcji żądanej przez rynek są najmniejsze, gdy produkcja ta odbywa się w ramach jednej firmy - patrz: koleje, energetyka).
Jeżeli cena zostałaby ustalona na poziomie MC, to przedsiębiorstwo miałoby jeszcze do pokrycia stratę w wysokości AC-MC. Rozwiązanie: opłata zryczałtowana (opłata taka nie zakłóca efektywnej alokacji zasobów). Szacuje się minimalną liczbę nabywców, n*, między których dzieli się koszty stałe, od wszystkich zaś dodatkowych konsumentów żąda się ceny równej kosztom krańcowym. Ale nikt nie chce należeć do grupy n*, wszyscy chcą być „gapowiczem”. Problemu gapowicza można uniknąć wtedy, gdy monopolista jest w stanie różnicować ceny, co wymaga posiadania informacji o cenowej elastyczności popytu każdego z nabywców oraz uniemożliwienia nabywcom odsprzedaży dobra na rynku wtórnym. Prawie niemożliwe, więc nie będzie ustalania ceny=MC, czyli niesprawność rynku, czyli nie ma optimum Paretowskiego.
Korzyści skali nie są tak duże, aby mogły doprowadzić do powstania monopolu, ale są wystarczające dla oligopolu. Firmy zachowują się „strategicznie” dopasowując ceny i ilość produkcji do oczekiwanych reakcji konsumentów. Skutek-wiele spośród możliwych stanów równowagi nie jest paretooptymalne.
6.2.2 Swoboda wejścia i wyjścia
Sytuacja modelowa: istnieją na rynku firmy, które osiągają ponadnormalne zyski - zachęta dla innych firm. Wchodzą inne, oferują niższe ceny, odbierają część ponadnormalnych zysków. Osiągną zyski - wychodzą z rynku, żeby uniknąć wojen cenowych. Jest to strategia „uderz i uciekaj”, możliwa tylko wtedy, gdy wejście i wyjście z rynku są naprawdę swobodne i darmowe. Nie jest to spełnione w rzeczywistości - cena kapitału, zarówno ludzkiego, jak i rzeczowego, koszty adaptacji. Część to koszty utopione.
Po drugie - i tak nie ma tam ceny równej kosztom krańcowym.
Sytuacja paretooptymalna możliwa na takim rynku wtedy i tylko wtedy, gdy krzywa popytu rynkowego przecina krzywą kosztu przeciętnego w jej najniższym punkcie, w którym koszty przeciętne równe są kosztom krańcowym:
Rzeczywiste bariery wejścia i wyjścia: prawne, takie jak licencje i zezwolenia na prowadzenie określonych rodzajów działalności gospodarczej, koszty reklamy.
6.2.3 Dygresja na temat różnych koncepcji efektywności
Efektywność Paretowska,
Efektywność X (Leibenstein) - określenie zdolności pojedynczej firmy, nie zaś całego rynku, do efektywnego alokowania zasobów (dzięki zrównaniu krańcowej stopy substytucji technicznej z ilorazem cen czynników produkcji) oraz do wyboru efektywnych technicznie planów produkcji,
Efektywność dynamiczna - dwa rodzaje na poziomie mikro:
efektywność adaptacyjna - zdolność stopniowego dostosowywania się do zmian otoczenia, rozpoznawania natury pojawiających się problemów i metod właściwego ich rozwiązywania,
efektywność innowacyjna - zdolność do wprowadzania innowacji - zarówno zastosowanie nowych, zmniejszających koszty metod produkcji (innowacja technologiczna), ale również tworzenie nowych produktów (innowacja produktowa).
Uważa się, że najbardziej innowacyjne są rynki monopolistyczne, bo w konkurencji firma innowacyjna natychmiast będzie naśladowana przez inne i nie będzie miała z tego żadnych korzyści (pogląd krytykowany, niepotwierdzony empirycznie).
6.2.4. Inne założenia towarzyszące modelowi konkurencji doskonałej
Co zakłóca model:
porozumienia między przedsiębiorstwami (państwo powinno interweniować),
zakłócona jednorodność produktu - np. reklama.
niepełna informacja, która segmentuje rynek.
6.3. Rynki niekompletne i efekty zewnętrzne
Pierwsze twierdzenie ekonomii dobrobytu zakłada istnienie kompletnych rynków - konieczność istnienia rynków na wszystkie dobra i usługi w danym okresie.
Rynki mogą być niekompletne, bo:
efekty zewnętrzne,
istnienie dóbr publicznych,
brak wielu rynków natychmiastowych i terminowych, spowodowany występującymi w rzeczywistości dużymi kosztami transakcji, asymetryczną informacją i niepewnością.
Z definicji pojęcia efektu zewnętrznego wynika, że brak płatności za osiąganą korzyść lub czynioną komuś szkodę świadczy o nieistnieniu jakiegoś rynku. Przyczyny:
określonym dobrom nie są przypisane indywidualne prawa własności;
nierozłączność wszystkich efektów towarzyszących produkcji (produkcyjny efekt zewnętrzny) lub konsumpcji (konsumpcyjny efekt zewnętrzny) danego dobra, klasyczne przypadki: hałas spowodowany przez osobę słuchającą zbyt głośno radia (konsumpcyjny koszt zewnętrzny), uprawa ogrodu - konsumpcyjna korzyść zewnętrzna, zanieczyszczenia przemysłowe - produkcyjny koszt zewnętrzny, budowa dostępnej dla wszystkich infrastruktury komunikacyjnej - produkcyjna korzyść zewnętrzna;
Istnienie efektów zewnętrznych sprawia, że pojawia się różnica między kosztami prywatnymi (naszym prywatnym dobrobytem) a kosztami społecznymi - między prywatnym a społecznym produktem krańcowym.
Podatki i regulacje prawne - pewni członkowie społeczeństwa mają prawo do czegoś, a inni nie, np. ludzie mają prawo do oddychania czystym powietrzem, a firmy nie mają prawa do zanieczyszczania tego powietrza.
6.4. Efekty zewnętrzne: twierdzenie Coase'a.
Zdaniem Coase'a, rzeczywistym problemem, przed jakim staje społeczeństwo w sytuacji występowania efektów zewnętrznych, jest wybór właściwych instytucji, a tym samym kryteriów określania praw własności, dla zagwarantowania jak najwyższej efektywności. Dwie propozycje C.:
Występują koszty zewnętrzne + spełnienie warunków (zdefiniowanie prawa własności i zerowy koszty transakcji) = korzystne porozumienie bez interwencji państwa.
Gdy koszty transakcji są większe od zera, możliwość osiągnięcia najbardziej efektywnego rozwiązania przez mechanizm rynkowy może zależeć od początkowego rozkładu praw własności.
Jednym z zarzutów w stosunku do dokonań Coase'a jest to, że jego twierdzenie jest tautologią. Inny zarzut: w przypadku braku władzy zdolnej wymusić na zainteresowanych stronach przystąpienie do negocjacji jako alternatywa dla prób poszukiwania porozumienia pojawia się możliwość zastosowania przez nie środków „wojennych” (groźby, przemoc). Chybiony argument Dalej - znaczenie sposobu przyznawania praw własności.
6.5. Dobra publiczne
Na rynkach konkurencyjnych, odpowiadających założeniom podstawowych twierdzeń ekonomii dobrobytu, zarówno konsumenci jak i producenci rywalizują między sobą o korzystanie z dóbr, przy czym korzystanie z danego dobra przez jedną osobę ogranicza, lub wyklucza, dostępność tego dobra dla innych osób. Ale: dobra publiczne: „Więcej dla Ciebie, nie oznacza mniej dla mnie”. Korzystanie z dobra przez każdą kolejną osobę nie zwiększa łącznego kosztu produkcji tego dobra, co oznacza, że koszt krańcowy, jest praktycznie równy 0. Np. obrona narodowa, pomniki, oświetlenie uliczne, emisje programów radiowych i telewizyjnych.
Ale: zanieczyszczenia - publiczne „antydobra”.
Dobra publ. można traktować jako szczególny rodzaj efektów zewnętrznych, bo producent tego rodzaju dóbr dostarcza korzyści sobie i innym, którzy korzystają z nich za darmo. Przy wytwarzaniu dóbr publicznych ponosimy jedynie koszty stałe. Malejące koszty stałe wraz ze zwiększaniem ilości korzystających z dobra publicznego osób, prowadzi do niesprawności rynku. Jeżeli wyprodukowanie jednostki dobra dla A kosztuje tyle samo co wyprodukowanie jednostki dobra dla B, to A i B mogą zdecydować o zakupie samodzielnie. Do kooperacji mogłaby ich zachęcić niższa cena, gdyby zaoferowana przy wspólnym zakupie. Ale zarówno A jak i B wolą być gapowiczami.
Przy niektórych dobrach nie istnieje możliwość wykluczenia poszczególnych jednostek z korzystania z dobra publicznego, zwiększa się problem gapowicza. Gra typu „dylemat więźnia” może zostać użyty do zilustrowania istoty dóbr publicznych.
KOSZTY TRANSAKCYJNE I ASYMETRIA
Od czasów publikacji artykułu Coase'a ekonomiści zwracają baczniejszą uwagę na koszty transakcyjne, szczególnie na rynkach terminowych (a w szczególności warunkowych). Wysokie koszty transakcyjne są spowodowane niepewnością na tych rynkach, której nie da się ubezpieczyć. Na rynkach terminowych jak również na rynkach natychmiastowych koszty transakcyjne są wyższe w przypadku asymetrii informacji.
Asymetryczna (prywatna) informacja odnosi się do sytuacji, gdy każda ze stron transakcji dysponuje różną ilości informacji.
Strona posiadająca pełną informację nazywana jest pełnomocnikiem (agent), a strona gorzej poinformowana to mocodawca (principal). Strona posiadająca mniej informacji musi polegać na drugiej stronie. Problem, w którym występuje asymetria informacji nazywany jest problemem pełnomocnictwa (agencji). Asymetria informacji stwarza 2 główne zagrożenia: selekcję negatywną oraz ryzyko nadużycia.
Selekcja negatywna mocodawca nie jest w stanie w pełni obserwować działań pełnomocnika lub nie zna ważnych egzogenicznych charakterystyk pełnomocnika lub dobra będącego przedmiotem transakcji. Te charakterystyki istnieją już w czasie podejmowania decyzji, dlatego nazywa się je egzogenicznymi.
Przykładem mogą być sprzedający używane samochody, nieliczni kupujący są w stanie ocenić realny stan samochodu lub firmy ubezpieczeniowe, które nie są w stanie odróżnić klientów o wysokim i niskim ryzyku; banki udzielające kredytów - zaciąganie kredytów będzie opłacalne dla klientów o wys. Ryzyku, wtedy banki podniosą oprocentowanie, klienci o niskim poziomie ryzyka zostaną zniechęceni do zaciągania kredytów. Wzrost stóp okazał się niekorzystny dla banków. Banki będą starały się pozostawić oprocentowanie na niezmienionym poziomie, lepiej analizując klientów. Banki mogą przy tym nie wybierać projektów, które generują najwyższą oczekiwaną stopę zwrotu.
Ryzyko nadużycia (lub problem motywacji) to drugie ryzyko powstałe przy niesymetrycznej informacji. Powstaje, gdy mocodawca nie jest w stanie monitorować działań podejmowanych przez pełnomocnika lub charakterystyki danego dobra (będącego pod kontrolą pełnomocnika) powstają lub zmieniają się po zawarciu danej transakcji, a pełnomocnik nie ma żadnej motywacji, aby działać w interesie mocodawcy. Przykłady:
Osoba wykupująca polisę ubezpieczeniową zaniedbuje działania mogące przyczynić się do obniżenia prawdopodobieństwa zajścia zdarzenia, przed którym się ubezpieczyła;
Pracownik zajmuje się innymi sprawami niż objęte w umowie - obija się;
W następstwie wysokich stóp procentowych kredytobiorcy mają skłonność do podejmowania bardziej ryzykownych projektów;
Próby rozwiązywania problemów asymetrii informacji przez prywatne rynki mogą doprowadzić do niekorzystnych skutków, np. do racjonalizowania kredytów, bezrobocia spowodowanego przez wysokie płace.
Rozwiązaniem mogłaby być interwencja publiczna, począwszy od działań mikroekonomicznych, przez tworzenie przedsiębiorstw państwowych dostarczających dobra publiczne lub rozwiązujących problem asymetrii.
TEORIA ROZWIĄZANIA NASTĘPNEGO PO NAJLEPSZYM stwierdza, że nie jest prawdą, że sytuacja, w której spełniona jest większość, choć nie wszystkie, założeń niezbędnych do osiągnięcia optimum Paretowskiego, musi być lepsza od sytuacji, w której spełnionych jest mniej tych założeń.
Nawet niewielki odstępstwa od założeń podstawowych twierdzeń ekonomii dobrobytu mogą powodować konieczność bardzo daleko idących modyfikacji warunków koniecznych istnienia optimum Paretowskiego, w szczególności zaś mogą sprawiać, że doskonała konkurencja na pewnych rynkach nie jest stanem pożądanym.
Znaczenie sprawiedliwości ekonomicznej. Jednym ze wskaźników sprawiedliwości jest rozkład dochodów.
>>Dobra pożądane społecznie<<
Zastąpienie wyborów dokonywanych przez jednostki decyzjami jakiegoś podmiotu zewnętrznego stanowi istotę paternalizmu. Przyjęcie takiego rozwiązania może być uzasadnione dwoma powodami:
Ludzie mogą nie dysponować informacjami o ważnych czynnikach określających sytuację, w której mają podjąć decyzję, lub też informacje te mogą być „zakłócone” przez reklamę lub inne wpływy zewnętrzne;
Sposób podejmowania decyzji przez ludzi nie odpowiada normalnym regułom racjonalności.
Paternalizm cechuje wiele działań ochronnych przez państwo:
Działania ochronne w: bezpieczeństwo (obowiązkowe kaski, pasy bezpieczeństwa), zdrowie, edukacja, sztuka, państwowe systemy ubezpieczeń.
Potrzeby pożądane społecznie - potrzeby, których zaspokojenie powinno być według państwa wspierane niezależnie od indywidualnych preferencji.
Dobra pożądane społecznie - dobra służące zaspokajaniu potrzeb pożądanych społecznie.
Rozdział 7. Niesprawności rynku: aspekty makroekonomiczne
7.1 Niestabilność kapitalistycznej gospodarki rynkowej
Pełna ocena rzeczywistych rynków nie może ignorować kilku ważnych zjawisk, które nie są bezpośrednio widoczne na poziomie mikroekonomicznym lub, w każdym razie, są trudne do wytłumaczenia na gruncie teorii równowagi ogólnej. Przykłady „niestabilności” w gospodarkach rynkowych to: przymusowe bezrobocie, inflacja, nie zrównoważony bilans płatniczy, niedorozwój gospodarczy. Niestabilność nie oznacza jedynie niepowodzenia gospodarki w zmierzaniu ku równowadze ale również możliwość, że gospodarka może w takim nieoptymalnym stanie pozostać. Według niektórych teorii, zjawiska te - oznaczające nieefektywność i nierówność - należy przypisać cechom strukturalnym rynków, które nie pozwalają im funkcjonować tak, jak to sugerują abstrakcyjne założenia teorii równowagi ogólnej. Dlatego zjawiska te nazywamy „niesprawnościami rynku”. Ponieważ teorie makroekonomiczne najlepiej opisują te zjawiska, nazywamy je „makroekonomicznymi niesprawnościami rynku”.
Model Walrasowskiej równowagi pomija wiele czynników występujących w kapitalizmie rynkowym, takich jak: niepewność, czynniki historyczne i instytucjonalne.
7.2 Bezrobocie
Bezrobocie przymusowe jest szczególnie ważnym przykładem niestabilności oznaczającym nieefektywność i nierówność. Bezrobocie przymusowe powstaje gdy pracownicy chcą podjąć pracę przy istniejącej lub niższej stawce płacy ale popyt na pracę jest niewystarczający aby zapewnić wszystkim zatrudnienie. Występowanie bezrobocia przymusowego oznacza stratę efektywności w kategoriach statycznych (możliwa jest poprawa położenia niektórych jednostek bez pogorszenia położenia innych) i dynamicznych (występuje deprecjacja kwalifikacji). Bezrobocie powoduje powiększenie różnic w podziale dochodu. Państwo podejmuje działalność redystrybucyjną w celu załagodzenia skutków bezrobocia. Dla społeczeństwa jako całości bezrobocie oznacza koszt ekonomiczny w postaci utraconej produkcji. Bezrobocie jest również przyczyną frustracji, niepokojów społecznych i przestępczości. Jest pewien poziom bezrobocia, który w gospodarce rynkowej będzie zawsze występował, jest to naturalne.
7.3 Inflacja
Ze względu na przyczyny inflację można podzielić na: popytową (wywołana przez presję ze strony popytu przewyższającego podaż), finansową (wzrost wydatków rządowych bez wzrostu wpływów z podatków), kredytową (nadmierne pożyczki bankowe), podażową (skutek szoków obniżających podaż), kosztową (przeniesienie na ceny kosztów produkcji szczególnie kosztów zmiennych), zysków (spowodowana wzrostem marż zysków spowodowanym niekonkurencyjnymi rynkami) oraz importowaną (spowodowana wpływem zagranicy np. wzrost eksportu napędzany popytem z zagranicy). Ze względu na tempo inflację można podzielić na: pełzającą (2-3%), umiarkowaną (<10%), galopującą (dwu a nawet trzycyfrowa stopa wzrostu) oraz hiperinflację (min. 300%). Inflację mierzy się najczęściej za pomocą delatora PKB lub indeksu cen. Bez względu na przybieraną formę, inflacja oznacza konkurencję w dziedzinie podziału dochodu. Zwykle powoduje ona redystrybucję dochodu i bogactwa oraz koszty dla społeczeństwa jako całości, które w zależności od poziomu inflacji będą większe lub mniejsze. Wymienia się dwa koszty związane z inflacją: koszty zmiany karty dań (częsta aktualizacja cenników) oraz koszty zdzieranych zelówek. W gospodarce otwartej inflacja prowadzi do utraty konkurencyjności i w konsekwencji do problemów z bilansem płatniczym.
7.4 Zdolności mechanizmu rynkowego do przywracania równowagi w „klasycznej” teorii makroekonomicznej
Za „klasyków” uważa się wszystkich przed Keynesem. Jest to bardzo nieścisła definicja, jednak się ją stosuje. „Klasyczna” wizja makroekonomiczna jest bardzo podobna do leżącej u podstaw „niewidzialnej ręki”: gospodarka rynkowa ma pewien naturalny porządek, który obdarza ją stabilnością. W szczególności, przywracające równowagę dostosowania stóp procentowych i płac realnych zapewniają pełne zatrudnienie. Prawo Saya mówi, że podaż tworzy swój własny popyt. Obowiązuje ono w gospodarce barterowej (towarowej) ale nie w gospodarce pieniężnej. Płaca realna równa jest w punkcie równowagi krańcowemu produktowi z pracy i jest ustalana bezpośrednio na rynku pracy. W rzeczywistości to płaca nominalna ustalana jest na rynku pracy a płacę realną określa stosunek płacy nominalnej do ogólnego poziomu cen. Teoretyczny system „klasyczny” ma strukturę dychotomiczna tzn. aspekty monetarne SA oddzielone od aspektów realnych. Pieniądz wg. Klasyków jest neutralny względem realnej gospodarki.
Krytyka teorii klasycznej Keynes i Kalecki
Teoria Keynesa opiera się na założeniu, że w krótkim okresie zdolności produkcyjne, technologia, preferencje konsumentów oraz stopień konkurencji są dane. Keynes kwestionuje zdolność gospodarki rynkowej do przywracania równowagi poprzez zmiany cen względnych, głównie stopy procentowej i stawki płacy realnej. Niepewność, która panuje w gospodarce pieniężnej, stwarza niestabilność utrudniającą tworzenie nowego kapitału (inwestycje) i dla pieniężnej wartości finansowego bogactwa, z możliwym ujemnym wpływem na zagregowany popyt i zatrudnienie. W opinii Keynesa interwencja państwa poprzez politykę monetarną i fiskalną jest jedyną siła, która może doprowadzić system do pełnego zatrudnienia. Model IS-LM jest przybliżeniem funkcjonowania gospodarki w krótkim okresie.
7.5 Renesans tezy o zdolności gospodarki do przywracania równowagi: Pigou i Patinkin
Patinkin rehabilituje zdolność gospodarki rynkowej do przywracania równowagi, przywracając neutralność pieniądza, ale Gurley i Shaw dowodzą, że obowiązuje ona jedynie w określonych sytuacjach. Definiują oni dwa rodzaje pieniądza: wewnętrzny (wykreowany przez władze) i zewnętrzny (wykreowany przez banki). Model Patinkina funkcjonuje jedynie dla pieniądza wewnętrznego. Droga która wybrali Pigou i Patinkin jest nie do pokonania. Monetaryści zaprezentowali inne podejście.
7.6 Bezrobocie „naturalne” i ograniczenia roli państwa według Friedmana
Friedman i monetaryści pojmują gospodarkę rynkową jako nieodłącznie stabilną. To działalność państwa a nie sektora prywatnego powoduje, że gospodarka jest w rzeczywistości niestabilna. Polityka monetarna jest skuteczna tylko w krótkim okresie; w długim okresie nie ma wymiany między inflacją a bezrobociem (krzywa Philipsa jest pionowa). Z drugiej strony, polityka fiskalna wypiera prywatne wydatki. Takie spojrzenie na funkcjonowanie gospodarki rynkowej w jeszcze bardziej radykalnej formie reprezentują teoretycy nowej makroekonomii klasycznej, którzy zakładają racjonalne oczekiwania i zawsze zrównoważone rynki. Krzywa Philipsa jest pionowa również w krótkim okresie. Polityka fiskalna i polityka monetarna są zatem, w najlepszym wypadku, bezużyteczne, a mogą nawet być szkodliwe z powodu inflacji, którą powodują. Ważnym elementem analizy Friedmana jest hipoteza stałego dochodu, wg. której konsumpcja zależy od przewidywanego średniego dochodu, jaki otrzyma jednostka w ciągu całego życia. Friedman traktuje pieniądz jako jeden z rodzajów bogactwa. Friedman wprowadził nowe pojęcia: naturalnej stopy procentowej rozumianej jako cena równowagi między popytem na kapitał (inwestycje) a podażą kapitału (oszczędności) oraz naturalnej stopy bezrobocia, która występuje wtedy, gdy liczba liczba wolnych miejsc pracy pozostaje w pewnym stosunku równowagi do liczby bezrobotnych. Wniosek szkoły nowej makroekonomii klasycznej i monetarystów Friedmana o „neutralnym” działaniu państwa jest skutkiem uproszczonego i wprowadzającego w błąd traktowania wielu rzeczywistych problemów związanych z niedoborem informacji, ograniczeniami zdolności jednostek do dokonywania rachunku ekonomicznego i optymalizacji oraz ze złożonością procesu uczenia się.
7.7 Niektóre nowe teorie bezrobocia przymusowego
Podjęto wiele prób znalezienia nowego podejścia do wyjaśnienia bezrobocia przymusowego. Dotyczyły one:
badania funkcjonowania gospodarki ze sztywnymi cenami
wyjaśnienia sztywności cen i płac
wyjaśnienia wysokiego poziomu płac realnych
określenia strategicznej komplementarności między wyborami różnych podmiotów gospodarczych, które mogłyby prowadzić do długookresowego bezrobocia równowagi.
Można wyróżnić kilka rodzajów nowych modeli rynku pracy:
hipoteza płac efektywnościowych (efficiency wages) - poziom płac wpływa na wydajność pracowników. Jednak występuje asymetria informacji co do efektywności pracy, gdyż tylko pracownik wie o swojej efektywności. Przedsiębiorstwo podwyższa więc płace aby pracownikowi opłacało się pracować efektywniej (gdyż będzie bardziej bał się jej utraty).
Modele swoi - obcy (insider - outsider) - zatrudnienia mają większa siłe przetargową i wymuszają wyższe płace, co wpływa niekorzystnie na sytuacje bezrobotnych, których jest jednak mniej i nie mają takiej pozycji jak pracujący.
7.8 Wzrost i rozwój
Wzrost dochodu jest wskaźnikiem wzrostu. Rozwój jest odrębnym pojęciem, które uwzględnia inne przyczyny postępu ekonomicznego i społecznego. Indeks rozwoju ludzkiego zaproponowany przez ONZ jest wskaźnikiem, który próbuje mierzyć zdolność ludzi do dokonywania wyboru (mierzy on długowieczność, poziom wiedzy oraz stopę życiową). W ujęciu dynamicznym problemami zatrudnienia można się zajmować w powiązaniu z pojęciem produkcji potencjalnej: cel w postaci długookresowego poziomu dochodu przy pełnym zatrudnieniu prowadzi nas do próby zmniejszenia odchylenia między produkcją na tym poziomie a produkcją rzeczywistą. Prawo Okuna mówi o tym, że aby zmniejszyć bezrobocie o 1% to PKB powinno wzrosnąć o 2,5%.
Niesprawności rynku w teoriach wzrostu
Analiza problemów wzrostu gospodarczego podkreśla możliwość występowania licznych niesprawności rynku. Po pierwsze, niestabilność u Harroda jest przeformułowaniem, w ujęciu dynamicznym, problemów wskazanych przez Keynesa, wywodzących się z autonomicznego charakteru decyzji inwestycyjnych. Ponadto Harrod pokazuje, że jest mało prawdopodobne, aby wymagana stopa wzrostu była równa jego stopie naturalnej, a zatem aby zwiększającą się siła robocza była w stanie znaleźć pracę. Neoklasycy i postkeynesiści proponują odmienne rozwiązania kwestii możliwości występowania mechanizmów zapewniających zbliżanie się tych dwóch stóp wzrostu. Teorie wzrostu endogenicznego wskazują liczne, kumulatywne czynniki, które wyjaśniają postęp techniczny i wzrost gospodarczy (niezamierzone uczenie się, celowe działania w zakresie badań i rozwoju, inwestycje w kapitał ludzki) oraz zwracają uwagę na możliwość niewystarczającej stopy wzrostu gospodarki rynkowej.
Część III. Normatywna i pozytywna teoria polityki gospodarczej
Rozdział 8 i 9.
Planowanie jest podejmowaniem skoordynowanych i spójnych decyzji w sferze polityki gospodarczej. Do elementów planu zalicza się cel ( ustalany tak by dawał się mierzyć w kategoriach zmiennej ekonomicznej takiej jak dochód czy zatrudnienie) oraz instrument - zmienna ekonomiczna wybrana w taki sposób by odpowiednia zmiana jej poziomu miała wpływ na zmianę wartości zmiennej celu w pożądany sposób. Rozróżnia się cztery sposoby określania celów:
Cele o ustalonej wartości
p G
u
Cel priorytetowy
Cel priorytetowy definiuje się w przypadku, gdy nie jest znany dokładny przebieg krzywej transformacji. Innymi słowy nie znany jest związek między jednym celem a drugim. Wybierając za cel priorytetowy zwiększenie zatrudnienia, wskazano by w pierwszym rzędzie na docelowy poziom stopy bezrobocia, a dopiero następnie politycy dążyliby do minimalizacji stopy inflacji.
Cele o zmiennej wartości: funkcja dobrobytu społecznego
p
u
znajdujące się bliżej początku układu współrzędnych przedstawiają wyższą użyteczność. Fakt, że krzywe są wklęsłe wskazuje na rosnące krańcowe stopy substytucji. Wyboru celu dokonuje się nakładając na krzywe obojętności ograniczenia, czyli krzywej transformacji (krzywa Philipsa). Wybrany zostanie punkt B.
Cele o zmiennej wartości: funkcja dobrobytu społecznego ze stałą krańcową stopą substytucji
Przypadek ten rozważany jest dla funkcji dobrobytu społecznego, które poddano procesowi linearyzacji (sprowadzono do postaci funkcji liniowych).
Dla przykładu z bezrobociem i inflacją uproszczenie takie sprowadza funkcję do postaci W = ap + bu, gdzie a,b są stałe i mniejsze od zera.
Instrumenty polityki gospodarczej
Aby zmienna mogła być uznana za instrument polityki muszą być spełnione poniższe warunki:
Politycy mogą kontrolować daną zmienną
Zmienna powinna mieć wpływ na zmienne celowe
Musi istnieć możliwość odróżnienia zmiennej od innych instrumentów
Istnieją różne sposoby klasyfikowania instrumentów polityki. Zaproponowany przez Tinbergena wyróżnia trzy rodzaje polityki: ilościową (polega na dokonywaniu zmian wartości istniejących instrumentów), jakościową (wprowadzenie nowego instrumentu lub eliminacja już istniejącego bez doprowadzania do istotnych zmian systemu gospodarczego), oraz politykę reform (wprowadzenie bądź eliminacja instrumentu prowadzące do istotnej zmiany systemu). Inny ważny podział obejmuje środki uznaniowe (instrumenty, którymi politycy mogą dysponować wedle uznania) oraz reguły. Szczególną grupę reguł stanowią automatyczne stabilizatory - instrumenty (narzędzia) na stałe wmontowane w system gospodarczy będące częścią składową polityki gospodarczej, które samoczynnie pobudzają lub hamują wysoką aktywność gospodarczą bez ingerencji państwa. Służą realizacji funkcji stabilizacyjnej dochodów i wydatków publicznych.
Niesprawności państwa: elementy pozytywnej teorii polityki gospodarczej
Normatywna teoria polityki gospodarczej krytykowana jest za brak realizmu założeń w oparciu o które funkcjonuje. Dotyczy to w szczególności natury jednostek oraz zachowań polityków. W swojej krańcowej formie teoria normatywna przyjmuje, że jednostki są anonimowe, choć mają swoje indywidualne preferencje. Państwo zaś podejmuje działania mając na uwadze interes publiczny utożsamiany z interesem owych jednostek indywidualnych. Spoglądając na problem realnie, należy zauważyć, że społeczeństwo to nie zbiór anonimowych jednostek. Niejednokrotnie jednostki te tworzą klasy czy grupy, które skłonne są działać wspólnie poprzez swoje organy. Teoria interesów grupowych (inna nazwa: teoria podporządkowania interesom grupowym) uwzględnia występowanie takich grup i postrzega działanie państwa jako wypadkową nacisku z ich strony. Drugim aspektem budzącym zrozumiałe wątpliwości jest wspomniana kwestia polityków. Teoria klasyczna zupełnie pomija ich indywidualne cechy. Innymi słowy nie mają oni żadnych przekonań, nie reprezentują osobistych interesów, działają jedynie w tak zwanym „interesie społecznym”. Założenie to zakwestionowane zostało w latach siedemdziesiątych ubiegłego wieku przez Nordhausa. Zaproponowana przez niego Teoria politycznego cyklu koniunkturalnego zakłada, że politycy przywiązują szczególnie dużą wagę do swojej reelekcji. Stąd próbują oni manipulować gospodarką tak by zmaksymalizować liczbę głosów otrzymanych w najbliższych wyborach. Nie jest jednak tak, że przypadkowy, nie określony bliżej polityk próbuje wpłynąć na decyzję przypadkowego wyborcy. Koncepcja „stronniczego polityka” wskazuje na przywiązanie partii politycznych do celów ideologicznych. Każda z nich reprezentuje różne grupy społeczne. Wybierając partię wyborca de facto wybiera sposób podejścia do określonego problemu. Walka o elektorat może jednak doprowadzić do bardziej radykalnych działań mających wpływ na powstawanie wspomnianych cykli koniunkturalnych, które nie bez przyczyny określane są mianem „politycznych”. Badania empiryczne wskazują jednak na przewagę teorii stronniczych polityków nad teorią politycznych cykli koniunkturalnych. Przyczyny takiego stanu rzeczy należy upatrywać w ograniczeniach przed którymi staje państwo chcąc oddziaływać na zmienne ekonomiczne.
Acocella „Zasady polityki gospodarczej” - część IV
CZĘŚĆ IV. INTERWENCJA MIKROEKONOMICZNA
Rozdział 10. Polityka mikroekonomiczna.
ZAPEWNIENIE FUNKCJONOWANIA RYNKU
Państwo minimalne - państwo, które podejmuje się jedynie działań niezbędnych do funkcjonowania społeczeństwa obywatelskiego. Te działania to:
stanowienie praw,
ochrona obywateli przed przemocą, kradzieżą i oszustwem,
zapewnienie egzekwowania prawa i swobodnie zawartych umów.
Wymaga to jednak od państwa ponoszenia pewnych wydatków, dlatego obywatele muszą w tym uczestniczyć, zazwyczaj w formie płacenia podatków.
Efekty zewnętrzne - powodują powstanie różnicy między prywatnymi i społecznymi kosztami lub prywatną i społeczną użytecznością krańcową. Można je wyeliminować poprzez:
a) opodatkowanie działań, którym towarzyszą koszty,
b) stwarzanie bodźców do eliminowania kosztów zewnętrznych,
c) tworzenie zbywalnych praw (zezwolenia), które mogą stać się przedmiotem obrotu,
d) regulowanie działań podmiotów gospodarczych.
Podatki:
Nakłada się podatek w wysokości kosztu zewnętrznego, w ten sposób przedsiębiorstwo ponosi wyższe koszty krańcowe, które będą już równe społecznym kosztom krańcowym.
aq - podatek na każdą dodatkową jednostkę produkcji.
W przypadku podatków przedsiębiorstwo będzie produkowało mniej. Gdy przedsiębiorstwo przynosi korzyści zewnętrzne przyznaje się subsydia i wtedy (analogicznie) będzie ono produkowało więcej.
Bodźce skłaniające do eliminacji kosztów zewnętrznych:
Można także skłonić przedsiębiorstwo do produkowania mniej poprzez przyznanie subsydiów na każdą jednostkę produkcji poniżej jakiegoś poziomu. Jeżeli firma nie zmniejszy produkcji to jej koszt krańcowy zwiększy się o wartość utraconego subsydium. W krótkim okresie skutek taki sam, jak przy podatku, w długim koszt zewnętrzny może się zwiększyć poprzez wchodzenie nowych firm na rynek.
Zezwolenia:
Państwo określa „optymalny” poziom kosztów zewnętrznych (np. zanieczyszczeń) i np. w drodze aukcji rozdziela się „prawa do emisji zanieczyszczeń”. Fajne, jest to, że te prawa mogą kupić także obrońcy środowiska, a wtedy zanieczyszczenia znacznie się zmniejszą;) Prawa te mogą być ponownie sprzedawane, dlatego często osiągają wysokie ceny. W firmie, która kupi takie prawa krzywa kosztów krańcowych przesunie się w górę, czyli będą wyższe, jak w przypadku subsydiów, będą więc produkować mniej.
Przewaga podatków i zezwoleń nad subsydiami:
pobudzają inwestycje w technologie korzystne dla środowiska (bo zanieczyszczanie jest drogie)
są źródłem przychodów dla budżetu.
Spadek zanieczyszczeń po zezwoleniach jest bardziej przewidywalny, niż po podatkach.
Regulacja:
Jest to nakładanie nakazów lub zakazów na przedsiębiorstwa. Może nie tylko służyć do eliminacji kosztów zewnętrznych, ale także do tworzenia korzyści zewnętrznych.
Koszty administracyjne niższe niż przy podatkach, subsydiach czy zezwoleniach. Lepsze do redukcji zanieczyszczeń, gdy nie wiadomo, jak zareagują firmy. Gorsze w sensie, że jest motywacją tylko dla firm, które w chwili wprowadzenia przekraczają normy (podatki i spółka zachęcają wszystkie firmy do zmniejszenia kosztów).
DOBRA PUBLICZNE I ICH FINANSOWANIE
Równowaga Lindhala - optymalny punkt przy wyznaczaniu społecznie efektywnej ilości dobra publicznego i jego finansowania. Wyznacza się go poprzez przecięcie indywidualnych krzywych popytu na to dobro przy danych obciążeniach podatkowych potrzebnych do dostarczenia tego dobra. Problemem jest, że zazwyczaj deklarowany popyt jest niższy od rzeczywistego, bo ludzie chcą uniknąć udziału w finansowaniu tego dobra. W rezultacie produkcja dobra publicznego będzie zbyt niska. Powstał więc:
Mechanizm Clarke'a-Grovesa - dawanie premii (równej korzyściom zewnętrznym) za wybór dobra publicznego. Miało to prowadzić do deklarowania rzeczywistego popytu na to dobro. Ciężko jednak zastosować w praktyce.
SIŁA RYNKOWA, REGULACJA I PRZEDSIĘBIORSTWA PAŃSTWOWE
W celu zwiększenia efektywności na rynku, państwo stara się:
zwiększyć konkurencję potencjalną - usuwając prawne bariery wejścia i wyjścia (nigdy nie da się wszystkich),
zwiększyć konkurencję rzeczywistą poprzez:
zmuszanie monopolisty naturalnego do podziału na mniejsze firmy (zadziała tylko gdy korzyści skali nie są szczególnie duże w porównaniu z wielkością rynku);
sprzedaż praw do prowadzenia działalności na danym rynku - konkurencja o rynek lub konkurencja o monopol. Nie zadziała, gdy istnieje ryzyko zmowy między uczestnikami aukcji (większe im mniej uczestników) lub gdy jedna firma dysponuje strategiczną przewagą (np. większe doświadczenie w danej branży, najczęściej gdy są duże korzyści skali jako efekty uczenia się) - może wtedy pozwolić sobie na zaoferowanie wyższej ceny.
Te działania nie są jednak tak efektywne jak polityka antymonopolowa, aby siła rynkowa nie była nadużywana.
Ustawodawstwo antymonopolowe:
Nieefektywność alokacyjna jest powodowana przez:
porozumienia mające na celu ograniczenie konkurencji (np. zmowy cenowe),
nadużywanie dominującej pozycji (np. ustalanie niskich cen zakupu lub wysokich cen sprzedaży, dyskryminacja cenowa, stosowanie strategii zmierzających do tworzenia barier wejścia),
połączenia i przejęcia wpływające ujemnie na konkurencję potencjalną i rzeczywistą.
Powyższym ma zapobiegać ustawodawstwo antymonopolowe, które było zapoczątkowane w 1890 w Stanach Zjednoczonych - Ustawa Shermana. Niemal wszystkie późniejsze na świecie były wzorowane na niej. Jednak prawno Unii Europejskiej zezwala na porozumienia „promujące postęp techniczny lub sprzyjające poprawie produkcji oraz dystrybucji dóbr i usług”.
Kontrola cen:
Ceny minimalne - by zagwarantować określony dochód producentowi; ceny maksymalne - w celu zwalczania monopoli. Choć kontrola może także prowadzić do zwiększenia efektywności, nie zastępuje ustawodawstwa czy nacjonalizacji produkcji. Techniki:
ustalenie maksymalnej marży zysku - Przy czym firma może dążyć do zwiększania kosztów jednostkowych, co umożliwi jej zwiększenie zysków całkowitych.
ustalenie maksymalnej stopy zwrotu od zainwestowanego kapitału - Efekt Avercha-Johnsona - firma może wybierać nadmiernie kapitałochłonne techniki produkcji (a nie zapewniające efektywność alokacyjną), w celu zwiększenie zysków całkowitych.
ustalenie pułapu cenowego - W tym przypadku firma korzysta na obniżce kosztów. Gdy państwo chce ustalać zmienny pułap: metoda RPI-X - wskaźnik rocznej inflacji minus ustalona wartość procentowa - zmiana cen w ciągu roku nie może być wyższa niż wynik tego (np. inflacja 5% - ustalone 3% = 2%).
Przedsiębiorstwa państwowe:
Zakładamy, że przedsiębiorstwa państwowe nie są nastawione na zysk. Mogą też tworzyć oligopol mieszany - oligopol złożony z firm prywatnych i państwowych.
Argumenty na istnienie przedsiębiorstw państwowych: |
|
ZA |
PRZECIW |
|
|
Ceny Ramsey'a-Boiteuxa - ceny ustalane w relacji odwrotnej do elastyczności popytu na poszczególne dobra (a nie na poziomie kosztów krańcowych). Używane przez monopolistów produkujących wiele produktów. Zakładają osiągnięcie progu rentowności (czyli niekoniecznie są stosowane przez przedsiębiorstwa państwowe, bo może to być nieoptymalne społecznie).
Efektywność dynamiczna i polityka przemysłowa:
Efektywność dynamiczna - zdolność gospodarki do dokonywania zmian i/lub reakcji na zmiany wprowadzanych przez innych, która umożliwia wzrost zysków i szybszy wzrost dochodów. Zależy od cech struktury produkcyjnej, której czynnikami mikroekonomicznymi są:
struktura sektorowa,
podział produkcji między poszczególne regiony kraju,
koncentracja techniczna, ekonomiczna i finansowa,
stosowane technologie produkcyjne oraz innowacyjność wytwarzanych produktów,
bariery wejścia i wyjścia,
organizacja produkcji,
stopień integracji firm.
Dynamiczne korzyści zewnętrzne - korzyści lub bodźce, jakie inwestycje w jednej branży stwarzają dla rozwoju rynku w innych branżach działających na późniejszych lub wcześniejszych etapach danego procesu produkcyjnego.
Polityka przemysłowa - nastawiona na modyfikowanie struktury produkcji i dzięki temu polepszanie alokacyjnej i dynamicznej efektywności gospodarki. Przykładowe instrumenty: subsydia i ulgi inwestycyjne, zamówienia publiczne, polityka handlowa.
Restrukturyzacja - polityka przemysłowa mająca na celu zmianę branżowej struktury gospodarki i/lub pobudzenie innych zmian struktury produkcyjnej.
Rozdział 11. Polityka redystrybucji dochodu i optymalny system podatkowy.
Optymalny podatek - podatek maksymalizujący dobrobyt społeczny, uwzględniając zarówno sprawiedliwość, jak i efektywność.
Polityka podziału dochodu - państwo dąży do zapewnienia określonej dystrybucji dochodu, niezależnie od sił rynkowych. Polityka redystrybucji - zmiana podziału dochodu, będącego wynikiem działania procesów rynkowych.
TEORIE SPRAWIEDLIWOŚĆI I ZASADY REDYSTRYBUCJI
Sprawiedliwość pozioma - osoby znajdujące się w takim samym położeniu są traktowane jednakowo. Sprawiedliwość pionowa - osoby znajdujące się w różnym samym położeniu są traktowane odmiennie.
Zasada produktywności (Nozick) - każdy ma nienaruszalne, naturalne prawo do produktów swojej pracy i kapitału; wyklucza redystrybucję poza dobrowolnymi transferami (jak darowizny). Łagodniejsza wersja tej zasady zakłada, że państwo powinno zmierzać do zapewnienia równych szans (np. poprzez edukację młodych).
Zasada redystrybucji - popierają ją utylitaryści, różnice w możliwościach nie mogą uzasadniać różnic w dochodach, państwo powinno działać tak, aby dostosować dochody do potrzeb jednostek i wszystkim zapewnić dostęp do podstawowych dóbr i usług.
Rawls - teoria sprawiedliwości - zasoby powinny być transferowane od bogatych do biednych, aż dochody wszystkich się zrównają. Sen - powinno dążyć się do tego, żeby każdy miał zapewnioną jednakową możliwość właściwego funkcjonowania w społeczeństwie, w którym się znajduje.
POLITYKA REDYSTRYBUCJI
Podstawowym narzędziem redystrybucji jest polityka budżetowa. Podatki bezpośrednie - te, których podstawą są dochody lub majątek. Podatki pośrednie - nakładane na dobra i usługi. Podatki:
liniowe - przeciętna i krańcowa stopa opodatkowania są sobie równe (T1 = t1Y).
progresywne - krańcowa stopa jest wyższa od przeciętnej (bogatsi płacą proporcjonalnie więcej).
- z kwotą wolną od podatku (T2 = -G + t2Y)
- z progresywnością ciągłą (T3 = t2Y + t3Y2)
- z progami podatkowymi (krańcowa stopa rośnie w sposób nieciągły) (T4 = t0Y0 + t1(Y1-Y0) + t2(Y2-Y0))
regresywne - wielkość płaconego podatku rośnie wolniej o dochodu.
Narzędziem polityki redystrybucji mogą być także transfery: pieniężne - przekazywanie środków płatniczych oraz niepieniężne - bezpośrednie dostarczanie dóbr i usług lub bonów (lecz jeżeli można je odsprzedać, to zalicza się je do transferów pieniężnych).
UTYLITARYZM, ZDOLNOŚĆ PŁATNICZA I OPTYMALNY PODATEK
Zdolność płatniczą można mierzyć za pomocą dochodu ogólnego - bieżąca konsumpcja powiększona o zyski kapitałowe netto. Reguła jednakowego krańcowego wyrzeczenia - wyrzeczenie związane z ostatnim groszem zapłaconym w postaci podatku jest równe dla wszystkich podatników. Po użyciu tej zasady sprawiedliwości optymalny jest równy podział dochodów netto, przy założeniu, że użyteczność każdej osoby zależy jedynie od dochodów, a to nie jest realne: podatek zmniejsza dochód netto z pracy, co skłania ludzi do zwiększania czasu przeznaczonego na pracę (efekt dochodowy), ale też zachęca do zwiększania czasu wolnego, bo jego koszt alternatywny jest zmniejszony (efekt substytucyjny). Problemem optymalnego opodatkowania dochodu jest, że ludzie mogą zmniejszać ilość czasu przeznaczonego na pracę, żeby osiągając mniejszy dochód zmniejszyć swoje obciążenia fiskalne lub uzyskać dodatkowe transfery. Mogłoby to być rozwiązane, gdyby pojawiły się motywacyjne systemy podatkowe - takie, które skłaniają ludzi do ujawniania informacji o swoich prawdziwych zdolnościach.
CECHY OPTYMALNEGO PODATKU (żeby nie chcieli ukrywać, ile zarabiają):
Krańcowa stopa podatkowa powinna być mniejsza niż 100% (oznaczało by to, że przy wyższym dochodzie brutto uzyskuje się niższy dochód netto) - w rzeczywistości jest to rzadko spełnione, zwłaszcza w przypadku bardzo niskich poziomów dochodów.
Krańcowa stopa podatkowa powinna być tym niższa, im większa część populacji uzyskuje dochody, od których płaci się tą krańcową stopę.
Krańcowa stopa podatkowa dla osoby o największych możliwościach powinna wynosić 0.
Krańcowa stopa podatkowa powinna być tym niższa, im wyższa jest produktywność grupy osób, której dotyczy.
Krańcowa stopa podatkowa powinna być tym niższa, im wyższa jest elastyczność podaży pracy.
WYBÓR MIĘDZY EFEKTYWNOŚCIĄ A SPRAWIEDLIWOŚCIĄ
„Przeciekające wiadro” Okuna - pogląd, że redystrybucja (transfery majątku od bogatych do ubogich) pociąga za sobą koszty i obniża efektywność alokacyjną. W rzeczywistości zmniejszanie nierówności, a w szczególności zwalczanie ograniczania kapitału ludzkiego przyczynia się do zwiększenia produktu społecznego. Nie jest jednak możliwe precyzyjne określenie zakresu, w jakim większa równość dochodów czy majątku przyczynia się do zwiększenia, a nie zmniejszenia efektywności.
OPTYMALNY PODATEK OD TOWARÓW
Rodzaje podatków od konsumpcji dóbr:
Akcyza - pobierane w momencie dostarczenia dóbr na rynek, także cła na dobra pochodzące z importu.
Podatki od sprzedaży - mogą być nakładane na każdym z etapów pośrednich:
podatek od wartości finalnej
podatek od wartości dodanej (stosowany w krajach Unii Europejskiej)
lub na finalnym etapie procesu produkcyjnego - podatek od sprzedaży detalicznej (stosowany w USA).
Ponieważ:
łączny dochód wszystkich czynników produkcji = wartość łącznej produkcji w gospodarce zamkniętej = zagregowany popyt (suma wydatków konsumpcyjnych i inwestycyjnych)
to jednolity podatek nałożony na:
dochody po podziale = jednolity podatek nałożony na dobra konsumpcyjne i inwestycyjne.
Reguła Ramseya - nawet gdy nie można nałożyć podatku zryczałtowanego, można stworzyć optymalny (czyli minimalizujący zakłócenia efektywności) system podatków od towarów - dobra, na które popyt jest najmniej elastyczny powinny być opodatkowane najwyżej. Ciężko wprowadzić w życie, bo takie towary to zazwyczaj żywność stanowiąca podstawę utrzymania ubogich gospodarstw domowych. Założenia: konkurencyjna gospodarka, praca jako jedyny czynnik produkcji, stałe przychody ze skali (czyli standardowe założenia neoklasyczne) oraz populacja powinna składać się z identycznych jednostek. Aby stosować tę regułę w praktyce, do zagadnień związanych z redystrybucją, wyższymi stopami opodatkowuje się dobra luksusowe, a niższymi dobra podstawowe.
Plusem stosowania takich podatków jest to, że nie trzeba oceniać zdolności płatniczej obywateli, można więc zmniejszyć zakres unikania podatków. Wady stosowania podatków pośrednich:
administracyjna złożoność zarządzania systemem, na który składa się wiele stóp podatkowych,
wyższe stopy podatkowe niektórych dóbr powodują gorszą pozycję nie tylko ich konsumentów, lecz także producentów, co nie było zamierzone, ani nie jest pożądane,
zakłócenia efektywności alokacji konsumpcji, jeżeli nie wpływa w tym samym stopniu na konsumpcję dóbr substytucyjnych (ludzie z opodatkowanego dobra będą się przerzucali na dobro substytucyjne),
strata dobrobytu konsumentów dobra, na który nałożono podatek (jeżeli nie będzie się analizować także korzyści, które mogą płynąć z tego podatku), bo zazwyczaj cena takiego dobra rośnie.
ROZKŁAD OPODATKOWANIA
Płatnik rzeczywisty - osoba faktycznie obciążona podatkiem; płatnik formalny - może w rzeczywistości przerzucać obciążenie podatkowe na tego pierwszego. Np. państwo chce nałożyć na firmy podatek - BC:
ale w rzeczywistości płaca netto spadnie (A → B), a firmy zapłacą tylko część podatku - CG, a resztę podatku - GB będzie przerzucone na pracowników (zakładamy doskonałą konkurencję). Gdyby pracownicy obciążeni podatkiem chcieli go przerzucić, skutkowałoby to wzrostem krańcowych kosztów ponoszonych przez firmy, więc i spadkiem produkcji, co wywołałoby wzrost cen.
INNE SYSTEMY REDYSTRYBUCJI DOCHODU I TRANSFERÓW SOCJALNYCH
Transfery socjalne - stosowane w celu zapewnienia każdej jednostce minimalnego standardu życia. Rodzaje:
Programy socjalne:
- systemy zapewniające dochód minimalny, w przypadku których osoby o dochodzie niższym od określonego poziomu otrzymują dodatki socjalne, mające na celu podniesienie ich dochodu do tego minimum.
- dodatni podatek dochodowy płacony od dochodów przekraczających określony poziom oraz ujemny podatek dochodowy od dochodów poniżej tego poziomu.
- dodatki do płac otrzymywane jedynie przez osoby pracujące, których dochód jest mniejszy od określonego poziomu minimalnego; wielkość tych subsydiów maleje wraz ze wzrostem dochodu.
Program wymagający od beneficjenta podjęcia pracy organizowanej przez instytucje państwowe.
Można wyróżnić transfery pieniężne - preferowane przez tych, którzy przywiązują większą wagę do wolności negatywnej („wolności od...”), wskazując na zaletę z racji braku ingerencji państwa w sferę prywatnych wyborów obywateli; transfery niepieniężne są, przynajmniej w pewnych okolicznościach (np. w przypadku potrzeb osób, które najbardziej potrzebują rzadkich dóbr, w szczególności gdy zróżnicowanie dochodów jest znaczne), wywyższane przez zwolenników wolności pozytywnej („wolności do...”).
PAŃSTWO OPIEKUŃCZE
Państwo opiekuńcze - zespół działań państwa, na które składają się transfery pieniężne, zapewnienie opieki zdrowotnej, edukacji, wyżywienia, mieszkania oraz innych podstawowych usług. Czasem rozszerza się tą definicję o działania takie jak: progresywny system podatkowy, zapewnienie pełnego zatrudnienia, czy nawet zbiorowe systemy negocjacji. Raport Beveridge'a - początek państwa opiekuńczego, 1942 r., był on projektem radykalnych reform po II wojnie światowej. Podstawowe modele państwa opiekuńczego:
Model konserwatywno-korporacjonistyczny - przyznaje prawo do korzystania z instytucji państwa opiekuńczego osobom, które są lub były zatrudnione. Utrzymuje nierówności, łagodząc jedynie najbardziej jaskrawe ich przypadki. Redystrybucja głównie za pośrednictwem sektora prywatnego (dobroczynność).
Model liberalny czysty - (USA, Kanada, Australia) państwo uzupełnia działania rynku, pasywnie gwarantując jedynie minimum dochodu lub aktywnie subsydiując prywatne programy dobroczynne. Lub zreformowany (po raporcie Beveridge'a) - działania redystrybucyjne państwa są ściśle powiązane z niedoskonałościami rynku (państwo interweniuje wymuszając na jednostkach ubezpieczenie się od np. chorób czy bezrobocia).
Model socjaldemokratyczny - (kraje skandynawskie) realizuje zasadę równości między wszystkimi obywatelami państwa. Instytucje rynku i rodziny odgrywają niewielką rolę.
Model katolicki - państwo interweniuje jedynie, gdy działania jednostek czy wspólnot lokalnych są niewystarczające.
KRYTYKA POLITYKI REDYSTRYBUCJI, PODATEK LINIOWY I DOCHÓD PODSTAWOWY
W wielu badaniach wskazywano na negatywny wpływ polityki redystrybucji na podaż pracy. Dwoma propozycjami zmian systemu podatków i transferów zasługującymi na uwagę są (można byłoby je połączyć):
Dochód podstawowy - (James Mead) zagwarantowanie każdemu obywatelowi pewnego podstawowego dochodu, niezależnie od innych źródeł jego dochodów. Mógłby być równy dla wszystkich lub się wahać. Zastąpiłby wszystkie istniejące programy pomocy społecznej i ulgi podatkowe. Obniżyłoby to koszty administracyjne.
Podatek liniowy - zastąpienie istniejących podatków dochodowych i świadczeń na rzecz ubezpieczeń społecznych jedną krańcową stopą podatkową dla wszystkich dochodów przekraczających określony próg. Także obniżenie kosztów administracyjnych. Zachęcałoby do pracy osoby o wysokich dochodach.
W praktyce ciężko oba zastosować, bo np. w Wielkiej Brytanii obliczono, że zapewnienie zadowalającego poziomu dochodu podstawowego wymagałoby stopy podatkowej w wysokości co najmniej 50%.
Rozdział 12. Wybór społeczny i analiza kosztów i korzyści.
KRYTERIA WYBORU PRZY PROJEKTACH PRYWATNYCH I PUBLICZNYCH
Firmy przeprowadzają tylko finansową analizę projektu. Władza publiczna rozważa również wszystkie konsekwencje bezpośrednie i pośrednie - analiza ekonomiczna. Może także przeprowadzić analizę fiskalną - oszacowanie wkładu projektu do budżetu oraz analizę polityczną - ocena wpływu na prawdopodobieństwo reelekcji lub osiągnięcie celów partii politycznej lub grupy społecznej, której chce służyć. W przypadku firm mowa o kosztach i przychodach, a w publicznej ocenie projektu - analiza kosztów i korzyści (nie przychodów).
Przy porównaniu kosztów i korzyści stosuje się dyskontowanie.
Bieżąca Wartość Netto projektu = zdyskontowane koszty - zdyskontowane korzyści
Każdy projekt z dodatnią BWN przy danej stopie procentowej jest opłacalny. Wybiera się projekt z najwyższą BWN. Aby wziąć pod uwagę również wielkość projektu należy skorzystać ze:
względnej BWN = BWN / (zdyskontowane koszty)
Obie te wartości zależą w znacznej mierze od stopy dyskonta. Mniejsza stopa dyskonta ma mniejszy ujemny wpływ na korzyści.
Wewnętrzna Stopa Zwrotu - taka stopa dyskontowa, przy której suma zdyskontowanych korzyści jest równa sumie zdyskontowanych kosztów (czyli przy której BWN jest równa 0). Projekt jest uważany za zasadny, gdy jego WSZ jest wyższa od społecznej stopy dyskontowej (która, najłatwiej jest założyć, jest równa rynkowej stopie procentowej). Wybieramy projekt z największą WSZ.
IDENTYFIKOWANIE SKUTKÓW PROJEKTU
Istotne koszty i korzyści to takie, które są rezultatem projektu dla gospodarki jako całości. Bezpośrednie - skutki projektu w popycie na czynniki produkcji lub w podaży dóbr. Pośrednie - wywołują zmiany w czynnikach wytwórczych i w produkcji na innych, zniekształconych rynkach. (np. budowa metra: popyt na stal, cement itp. - redukcja ruchu drogowego).
WYCENA SKUTKÓW PROJEKTU
Korzyści z projektu mierzy się zagregowaną gotowością do płacenia za nie przez beneficjentów.
Nadwyżka społeczna - suma nadwyżki (prywatnej) konsumenta - A (która jest różnicą między tym, co konsumenci byli gotowi zapłacić, a tym, co faktycznie płacą, aby zdobyć pewną ilość dóbr) i nadwyżki (prywatnej) producenta - B (to, co producenci zyskują ze sprzedaży dóbr przy cenie wyższej od najniższej ceny, którą gotowi są zaakceptować).
Jeżeli rynki są efektywne i jeżeli projekt nie wpływa na ceny czynników produkcji, to koszty można oszacować przez pomnożenie ilości czynników potrzebnych do realizacji projektu przez ich ceny, bo nie zachodzi zmiana nadwyżki społecznej. Jeżeli projekt powoduje istotną zmianę ceny dóbr i czynników na konkurencyjnych rynkach, to należy uwzględnić zmiany w nadwyżce społecznej.
CENY HIPOTETYCZNE
Cena hipotetyczna (społeczna) - przyrost wartości (społecznej) funkcji celu w wyniku zwiększenia o jednostkę wydatków na dany projekt. Stosuje się je, gdy ceny rynkowe nie odzwierciedlają kosztu społecznego, czyli na rynkach niekonkurencyjnych (gdy ceny rynkowe są wyższe od kosztu krańcowego). Ceny hipotetyczne odpowiadają cenom na rynkach doskonale konkurencyjnych. Są miarą kosztu alternatywnego.
WYCENA DÓBR NIE WYMIENIANYCH NA RYNKU
Dobra nie wymieniane na rynku, to np. autostrady, mosty itp., a także dobra niematerialne, jak:
Życie - uwzględnienie tej wartości faworyzuje projekty cechujące się niższym prawdopodobieństwem spowodowania śmierci. Techniki wyceny życia:
Metoda bezpośrednia (konstruktywna) - wartość życia mierzona jako zdyskontowane dochody jednostki w ciągu oczekiwanej długości jej życia. Minusem to, że wartość przypisana życiu emerytów lub inwalidów byłaby bliska 0.
Metoda pośrednia - wykorzystuje ujawnione przez jednostki preferencje w odniesieniu do stojących przed nimi możliwości, wiążących się z różnym prawdopodobieństwem śmierci (np. poprzez wybieranie mniej niebezpiecznej pracy czy dóbr i usług). Minusem: niższa wartość życia ubogiego człowieka, który jest skłonny zaakceptować bardzo ryzykowne prace.
Analiza kosztów i efektywności - cel projektu przyjmujemy jako dany i skupiamy się na pomiarze kosztów alternatywnych sposobów osiągnięcia tego celu
Środowisko naturalne. Można mierzyć:
Zmniejszone zdolności jednostek do osiągania dochodów w konsekwencji szkód środowiskowych lub oszacować ich gotowość do płacenia za uniemożliwienie powstania takich szkód.
Koszty ponoszone przez społeczeństwo w celu zapobieżenia szkodom lub przywrócenia środowisku pierwotnego stanu.
Czas - można mierzyć gotowością do płacenia (np. wybór taksówki a nie autobusu - szybszy, ale droższy środek transportu).
CZĘŚĆ V. Interwencja makroekonomiczna w gospodarce zamkniętej
Cele makroekonomiczne a polityka pieniężna
Cele makroekonomiczne: pełne zatrudnienie, stabilność cen, równowaga bilansu płatniczego i wzrostu
Narzędzia makroekonomiczne: polityka pieniężna, polityka fiskalna, polityka cen i dochodów, polityka kursowa
Funkcje pieniądza:
jest środkiem wymiany lub płatniczym (obniża koszty transakcji)
jednostka obrachunkowa
służy do przechowywania wartości
ma charakter fiducjarny
Umowy odkupu - operacje polegające na sprzedaży przez jedną stronę drugiej stronie krótkoterminowych papierów wartościowych i jednoczesnym zobowiązaniu się do ich odkupu w określonym czasie po określonej cenie
Certyfikaty depozytowe - przenoszalne papiery wartościowe emitowane przez bank w zamian za wkład terminowy
Akcepty bankowe - weksle wystawiane na bank przez klienta
Bank centralny - zazwyczaj instytucja emisyjna, kredytodawca ostatniej instancji, pełni funkcję regulacyjną (wymóg trzymania rezerw obowiązkowych) i nadzorczą wobec sektora bankowego
Tworzenie bazy monetarnej:
za pośrednictwem sektora zagranicznego - gdy bank centralny kupuje oficjalne rezerwy, które stanowią pożyczkę dla tego sektora lub aktywa, które mogą być wykorzystane w transakcjach z nim
ministerstwo skarbu lub finansów przez emisję bilonu
b.c. Może tworzyć bazę monetarną przez zakup rządowych papierów wartościowych na rynku wtórnym (operacje otwartego rynku)
b.c. Tworzy bazę monetarną przez dostarczanie środków do systemu kredytowego
Bank centralny może regulować dostęp do kredytu, dokonując zmiany oficjalnej stopy redyskontowej lub stopy od pożyczek pod zastaw - stopy udogodnień kredytowych.
Łączna podaż bazy monetarnej z różnych źródeł powinna być równa łącznemu popytowi na nią.
Baza monetarna daje się kontrolować, jeśli politycy kontrolują co najmniej jedno ze źródeł jej kreacji lub współczynnik rezerw obowiązkowych.
W przypadku restrykcyjnej polityki pieniężnej rzeczywisty mnożnik wkładów jest większy niż w przypadku polityki ekspansywnej.
Efekt Roosy (efekt zamknięcia) - wzrost rynkowej stopy procentowej powoduje wywołany zaostrzeniem warunków monetarnych powoduje spadek cen papierów wartościowych trzymanych przez banki => sprzedaż papierów wartościowych prowadziłaby do strat kapitałowych
Restrykcje monetarne mogą zwiększać niepewność co do przyszłości i podnosić popyt na płynność.
Endogeniczne racjonowanie kredytu - w obliczu ryzyka niewypłacalności kredytobiorcy i asymetrii informacji banki nie reagują na nadmierny popyt przez podnoszenie stóp procentowych tylko przez przydzielanie kredytów niektórym klientom.
Wskaźniki polityki pieniężnej: wzrost podaży pieniądza, stopa procentowa; dostarczają sumarycznej miary stopnia ekspansywności lub restrykcyjności.
Cele pośrednie: zmienne, które oddziałują na cele finalne, ale które same są wcześniej kształtowane przez narzędzia polityki; np. przyrost kredytu krajowego, agregaty.
Cele operacyjne/referencyjne - zmienne znajdujące się między instrumentami a celami pośrednimi np. tempo wzrostu M3.
Wybór celów pośrednich zależy od:
możliwości kontrolowania agregatu, który zamierza się wykorzystać jako cel pośredni
stabilność funkcji behawioralnych
związków między celami pośrednimi i finalnymi
Polityka pieniężna ma bardzo krótkie opóźnienie w sensie administracyjnym, ale jej oddziaływanie/reakcja jest długie i zmienne.
Cele makroekonomiczne a polityka fiskalna
pol. Fiskalna - narzędzia budżetu państwa służące do dokonywania zmian dochodu i zatrudnienia w krótkim okresie
części składowe budżetu:
a) bieżące dochody (głownie z podatków bezpośrednich i pośrednich i składek na ubezpieczenie społeczne)
b) dochody rachunku kapitałowego (ze sprzedaży własności państwa i przedsiębiorstw sektora publicznego)
c) wydatki państwa (na konsumpcję - pensje, zakup dóbr i usług, na inwestycje - na zwiększenie jego zasobów, budynki, szkoły, drogi)
d) transfery bieżące do gospodarstw domowych, przedsiębiorstw - subsydia, oficjalne - na rzecz organizacji międzynarodowych
e) odsetki płacone od długu państwa
f) transfery rachunku kapitałowego - płatności w celu pobudzenia inwestycji prywatnych
Całościowe saldo budżetu - suma sald na rachunku bieżącym i kapitałowym.
Saldo bieżące jest zbieżne z oszczędnościami prywatnymi.
Opodatkowanie może być zryczałtowane, proporcjonalne lub progresywne. Progresywne jest automatycznym stabilizatorem gospodarki.
Wydatki państwa mogą być finansowane za pomocą podatków (przy zrównoważonym budżecie) lub za pomocą deficytu.
Twierdzenie Haavelma ( o zrównoważonym budżecie) - każdy cel dotyczący dochodu można osiągnąć bez zwiększania deficytu, a jedynie dzięki zmianie poziomu wydatków państwa równej pożądanej zmianie dochodu.
Uchylanie się od podatków i ich obchodzenie powoduje wzrost deficytów budżetowych. Przepisy , które celowo prowadzą do zwolnień od podatków prowadzą do erozji bazy podatkowej.
Finansowanie deficytu za pomocą bazy monetarnej jest tańsze od finansowania długiem i ma większy wpływ na dochód bo powoduje jednoczesne przesunięcie w górę krzywych IS i LM. W pobliżu poziomu pełnego zatrudnienia skutkom w zakresie dochodu mogą towarzyszyć napięcia inflacyjne.
Amortyzująca polityka monetarna - polityka, która usiłuje utrzymać stałą stopę procentową.
Finansowanie za pomocą długu pozostawia rozmiar bazy monetarnej na nie zmienionym poziomie i powoduje wzrost stóp procentowych, wskutek tego wydatki państwa wypierają prywatne inwestycje (finansowy efekt wypierania). Wypieranie realne występuje, gdy gospodarka znajduje się blisko poziomu pełnego zatrudnienia.
Ekwiwalentność Ricardo - Barro - finansowanie wydatków państwa za pomocą długu jest równoważne z finansowanie ich za pomocą podatków.
Jeśli deficyty budżetowe utrzymują się to dług publiczny stale rośnie. Nie ma ustalonych granic wzrostu stosunku dług/PKB. Obniżanie długu można przeprowadzać za pomocą polityki zwiększania dochodu, ograniczania wydatków, polityki stopy procentowej (obniżanie stopy proc płaconej od długu publicznego może przyczynić się do zmniejszenia stosunku dług/PKB).
Polityka dochodowa i polityka cenowa
celem polityki dochodowej jest zahamowanie wzrostu ogólnego poziomu cen za pośrednictwem kontrolowania zmiennych oddziałujących na dystrybucję, którymi są przede wszystkim: stawka płacy i marża zysku.
Etatystyczna polityka dochodowa obejmuje środki kontroli bezpośredniej, np. nakazuje zamrożenie płac.
Rynkowa polityka dochodowa wykorzystuje przez państwo system bodźców i anty bodźców zamiast nakazów, np. przydzielenie przedsiębiorcom zbywanych pozwoleń na podnoszenie cen
Polityka instytucjonalna stara się stworzyć kooperacyjne stosunki między przedsiębiorcami a pracownikami przez ustanawianie reguł ich kontrolowania, np. arbitraż.
CZĘŚĆ VI. INTERWENCJA MAKROEKONOMICZNA W GOSPODARCE OTWARTEJ
Rozdział 16 Systemy walutowe i reżimy kursów walutowych
16.1 Stany nierównowagi bilansu płatniczego i ich przyczyny
Bilans płatniczy = rachunek obrotów bieżących + rachunek obrotów kapitałowych
Rachunek obrotów bieżących = [transakcje importu/eksportu + transfery bezzwrotne], w tym: transakcje towarowe = „bilans handlowy”, a wszystkie inne transakcje = „pozycje/transakcje niewidzialne”
Rachunek obrotów kapitałowych = przepływy finansowe (krótko-, średnio- i długookresowe), które można podzielić inaczej na: kapitał bankowy i inne aktywa krótkoterminowe, kredyty handlowe (krótko-, średnio- i długoterminowe), pożyczki publiczne i sektora prywatnego, bezpośrednie inwestycje zagraniczne, inwestycje portfelowe.
Suma przepływów na obu rachunkach = nadwyżka/deficyt bilansu płatniczego = zmiana oficjalnych rezerw dewizowych w kraju
16.2 Nominalny bilateralny kurs walutowy = cena jednej waluty wyrażona w innej, gdy bierzemy pod uwagę wymianę między „krajem” a „resztą świata”.
System notowań bezpośrednich - ile waluty krajowej można kupić za jednostkę waluty zagranicznej.
System notowań pośrednich - ile waluty obcej można kupić za jednostkę krajowej.
Nominalny efektywny kurs walutowy - średnia ważona n-1 bilateralnych kursów walutowych waluty krajowej, gdzie n = liczba państw.
Pogorszenie/polepszenie bilansu płatniczego wpływa na kurs walutowy niezależnie od struktury całości bilansu
Kurs walutowy wzmacnia konkurencyjność, jeśli ceny są stałe w obu krajach
Realny bilateralny kurs walutowy=(cena dóbr zagranicznych w walucie zagranicznej X kurs walutowy)/cena dóbr krajowych w walucie krajowej
Jeśli bierzemy pod uwagę wiele krajów , wtedy wzór na realny bilateralny kurs walutowy pokazuje realny efektywny kurs walutowy
System walutowy określa:
Jednostkę walutową (środek płatniczy);
Sposób emisji pieniądza;
Związki waluty z zagranicznymi walutami w kategoriach jej wartości, obrotu i wymienialności.
16.3 System waluty złotej:
Bank centralny kraju emituje banknoty wymienialne na dobra;
Określa zawartość złota w jednostce pieniężnej (jej „ekwiwalent”);
Bank centralny utrzymuje rezerwy złota w ilości proporcjonalnej do ilości emitowanej waluty;
Złoto może być swobodnie importowane i eksportowane.
Parytet = ”relatywna cena referencyjna”
Fluktuacje wokół parytetu ograniczone „punktem złota” (sumą parytetu i kosztów przesyłania złota za granicę), tak więc kurs prawie stały.
16.4 System waluty złoto-dewizowej:
Co najmniej jeden kraj stosuje system waluty złotej, a inne:
Określają zawartość złota w swojej walucie;
Utrzymują walutę kraju stosującego system waluty złotej jako rezerwę zabezpieczającą wartość waluty narodowej;
Zezwalają na zamianę waluty krajowej na walutę rezerwową wg stałego przelicznika.
Powoduje bardziej efektywne wykorzystanie złota.
Umożliwia państwom, które go wprowadziły, dochód z oprocentowania.
16.5 Rezerwy tworzone centralnie - takie porozumienie międzynarodowe musi określać alternatywne metody dystrybucji pieniądza międzynarodowego między krajami, ile rezerw należy tworzyć, oraz jak utrzymać stabilną wartość niewymienialnego pieniądza papierowego oraz zapewnić dostosowania bilansu płatniczego.
Specjalne prawa ciągnienia - SDR - jednostka rozrachunkowa utworzona prze MFW w Rio de Janeiro, 1967, pieniądz nie-papierowy, istniejący tylko na rachunkach bankowych.
16.6 Płynne kurs walutowy (elastyczny, zmienny):
Ogranicza działania polityków gospodarczych
Zaakceptowany przez MFW w latach 70'.
16.7 „Przestrzeliwanie” = „nadreakcja kursu walutowego”, oraz samospełniające się oczekiwania, to zjawiska wywołujące cykle walutowe.
16.8 „Wąż walutowy” - powstał przez decyzję o zawężeniu pasma wahań między kursami walut europejskich, 1974 r.
1979 r. - powstaje Europejski System Walutowy oparty na stałych kursach walutowych, najważniej sze elementy:
Mechanizm Kursów Walutowych - do zredukowania wahań między kursami walut
Mechanizm dostarczania kredytu krajom mającym trudności z bilansem płatniczym
ECU - koszyk walut krajów EWG
Wskaźnik dywergencji wartości walut w stosunku do kursu centralnego = różnica między wartością ECU wyliczoną zgodnie z kursami centralnymi a wartością wyliczoną zgodnie z kursami rynkowymi
Tworzenie unii walutowej przez UGW (unię gospodarczo -walutową):
1990 - zniesienie ograniczeń w transakcjach kapitałowych
1994 - utworzenie Europejskiego Instytutu Walutowego
1999 - wprowadzenie całkowitej wymienialności walut, integracja rynków pieniężnych i kapitałowych, ustalenie poziomu kursów walutowych między walutami państw członkowskich a euro. ECU wymieniono na euro w stosunku 1:1.
Kryzysy walutowe:
Wywołany wzrostem cen surowców, lata 70'
Wywołany liberalizacją przepływu kapitału, 1997, Tajlandia - rozprzestrzenienie się kryzysu m.in. na Rosję i Brazylię.
Rozdział 17 Polityka oddziałująca na bilans płatniczy
17.1 Wielkość importu zależy od:
Czynników strukturalnych, zmiennych tylko w długim okresie
Czynników konkurencyjności (cenowej, pozacenowej)
Przepływy kapitału zależą od:
Długookresowych (inwestycje portfelowe, pożyczki długookresowe, kredyty) i krótkookresowych (krótkoterminowe pożyczki różnic w stopach procentowych
Oczekiwanych zmian w kursie walutowym
17.2 Równowaga bilansu płatniczego = suma bilansu obrotów bieżących i bilansu obrotów kapitałowych jest równa 0. Jest to długookresowy cel polityki gospodarczej.
17.3 Automatyczne mechanizmy dostosowawcze:
Zmiany cen (deficyt bilansu płatniczego/utrata złota ->zmniejszenie podaży pieniądza ->spadek cen ->poprawienie bilansu obrotów bieżących dzięki relatywnej zmianie cen).
Zmiany dochodu (wzrost eksportu danego kraju -> wzrost dochodu -> wzrost importu -> nadwyżka ( w wyniku wzrostu eksportu), która następnie się zmniejszy (w wyniku wzrostu importu).
17.4 Osiągnięcie równowagi bilansu płatniczego przy stałych kursach walutowych wymaga określonej interwencji rządu.
17.5 Przy braku barier dla ruchu kapitału i braku różnic w ryzyku między dłużnikami, równowaga na rynku walutowym jest osiągana, gdy krajowe stopy procentowe są równe zagranicznym, zwiększonym o oczekiwaną zmianę kursu walutowego.
W przypadku deficytu władze mogą ograniczyć wielkość bazy monetarnej i przez to podaży pieniądza, aby zwiększyć krajową stopę procentową i polepszyć bilans obrotów kapitałowych. Wzrost stóp % powoduje jednak spadek popytu wewnętrznego.
17.6 Bilans rachunku obrotów bieżących jest ujemnie związany z poziomem popytu wewnętrznego, oraz dodatnio związany z poziomem popytu zagranicznego.
17.7 Konkurencyjność.
Nierównowaga bilansu związana z zbyt małą lub nadmierną konkurencyjnością może zostać wyeliminowana przez dostosowanie:
Płac, produktywności, marż zysku
Nominalnego kursu walutowego (dopuszczenie do deprecjacji/aprecjacji waluty przy kursie płynnym kierowanym, dewaluacja/rewaluacja przy kursie stałym)
Nakładanie ceł zwiększających ceny dóbr zagranicznych
17.8 Na kurs stały (w systemie waluty złotej, złoto-dewizowej, w ESW) można wpływać manipulując np. parytetem lub kursem centralnym. Kursy płynne też można kontrolować - przez interwencję rządu.
17.9 Efekt przełożenia - wkalkulowywanie przez przedsiębiorstwa deprecjacji waluty w ceny zagraniczne. Efekt jest tym większy, im większe są korzyści skali i im mniejsza jest elastyczność cenowa popytu zagranicznego oraz poziom zagranicznego i krajowego popytu w poszczególnych sektorach i w gospodarce jako całości.
Dostosowania za pomocą kursu walutowego są efektywne jedynie w pewnych warunkach bilansu płatniczego.
17.10 Firmy mogą być zmuszone do pozostania na rynku walutowym przez wysoką zmienność kursu walutowego, a także przez perspektywę poniesienia wysokich kosztów utopionych powrotu na ten rynek.
17.11 Skutki porównywalne ze wzrostem kursu - jednoczesne pobudzenie eksportu i ograniczenie importu - można uzyskać dzięki nieselektywnym subsydiom eksportowym i cłom.
Poglądy na wolny rynek/protekcjonizm:
Ricardo - zwolennik wolnego handlu (głosił przewagę specjalizacji wywodzącą się z teorii kosztów komparatywnych)
Smith - za protekcjonizmem
J. S. Mill - konieczna ochrona nowopowstających gałęzi przemysłu
Keynes - zaczynał jako zwolennik wolnego rynku, później opowiadał się m. in. za pewnymi formami protekcjonizmu, np. za cłami importowymi.
Argumenty na poparcie protekcjonizmu:
Możliwość poprawy przez państwo „terms of trade”
Ochrona przed tanią siłą roboczą za granicą
Ochrona przed „dumpingiem socjalnym” - skutecznym konkurowaniem krajów o niższych standardach i ochronie miejsc pracy z innymi krajami.
Pomoc w przywróceniu pełnego zatrudnienia.
Rozdział 18 Polityka gospodarcza w gospodarce otwartej
18.1 Model Mundella - Fleminga stanowi rozszerzenie modelu IS - LM - wykracza poza przyjmowaną początkowo w modelach keynesistowskich hipotezę, że gospodarka jest zamknięta.
Jeśli gospodarka znajduje się w stanie równowagi rynku dóbr, rynku pieniądza i bilansu płatniczego, to zmiana warunków równowagi na jednym z trzech rynków doprowadzi do nierównowagi przynajmniej na jednym z dwóch pozostałych rynków. Powstałym stan nierównowagi może być wyeliminowany na dwa sposoby:
System gospodarczy może mieć tendencję do powracania w pewnym stopniu do swojego pierwotnego położenia lub
Może się przesuwać w kierunku nowego stanu równowagi.
Wariant zależy od rodzaju nierównowagi (pieniężna, realna, zewnętrzna), jak również od systemu kursu walutowego (stały lub płynny)
18.2 W systemie stałego kursu walutowego, można w pełni kontrolować zagregowany popyt stosując politykę fiskalną, natomiast polityka monetarna jest względnie nieskuteczna - tym bardziej, im większa jest międzynarodowa mobilność kapitału. W systemie kursu płynnego jest odwrotnie.
W systemie stałego kursu walutowego nierównowaga bilansu płatniczego nie powoduje zmian kursu walutowego, lecz prowadzi do zmian bazy monetarnej, pod warunkiem, że nie prowadzi się wcześniej sterylizacji.
Ekspansywna polityka fiskalna -> dwa efekty równoległe:
1. pogorszenie bilansu obrotów bieżących,
2. Poprawa w bilansie obrotów kapitałowych spowodowana wzrostem stopy % wynikającym ze wzrostu dochodu i braku zmian podaży pieniądza.
Ekspansywna polityka fiskalna w systemie stałego kursu walutowego prowadzi do wzrostu dochodu, który jest w warunkach dużej mobilności kapitału wzmacniany, a przy małej mobilności - tłumiony.
Polityka monetarna - nieskuteczna w systemie stałego kuru walutowego, gdy chodzi o zwiększanie dochodu. Gdy rośnie baza monetarna ->wzrost podaży pieniądza -> przejściowy spadek stopy % -> pogorszenie się bilansu obrotów kapitałowych -> presja na wzrost kursu walutowego -> władze interweniują, sprzedając waluty zagraniczne za walutę krajową -> absorpcja wyemitowanego wcześniej w drodze ekspansji monetarnej pieniądza.
18.3 Niepożądany wzrost/spadek bazy monetarnej wywołany czynnikami zewnętrznymi, neutralizacja za pomocą odpowiednich operacji otwartego rynku (tzw. sterylizacja zmian w bazie monetarnej).
18.4 W przypadku kursu płynnego nadwyżka lub deficyt bilansu prowadzą do zmian kursu walutowego, a nie do zmian bazy monetarnej, jak przy stałych kursach walutowych. Pogorszenie się salda nie prowadzi więc do kurczenia się bazy monetarnej i dalszych restrykcyjnych skutków, lecz do deprecjacji, która wywołuje skutki ekspansywne.
W sytuacji całkowitej mobilności kapitału narzędzia polityki fiskalnej są całkowicie nieskuteczne.
Polityka monetarna natomiast jest skuteczna, ponieważ każda nierównowaga w bilansie płatniczym wywołana przez politykę monetarną będzie prowadziła jedynie do modyfikacji kursu walutowego (a nie do interwencji banku centralnego, jak w przypadku kursów stałych), która będzie dodatkowo wzmacniała prowadzoną politykę.
Wprowadzenie zmiennego kursu walutowego daje pewną niezależność - możliwe staje się wtedy oddzielenie polityki pieniężnej od celów w zakresie bilansu płatniczego - które osiąga się wtedy dzięki zmianom kursu walutowego - i wykorzystanie tej polityki do osiągania celów krajowych.
18.5 Model Mundella - Fleminga analizuje sytuację przy założeniu ogólnej (a nie pełnej!) równowagi bilansu płatniczego, którą można osiągnąć przy różnych kombinacjach sald na dwóch rachunkach:
Nadwyżce na rachunku bieżącym i deficycie na rachunku kapitałowym;
Deficycie na rachunku bieżącym i nadwyżce na rachunku kapitałowym;
Równowadze na każdym rachunku (pełna równowaga).
18.6 Pozostałe ograniczenia tego modelu:
- przyjmuje się, że ceny krajowe, jak i zagraniczne są w modelu dane;
- rozważa się jedynie strumienie kredytowe i debetowe, pomija się natomiast ich związek z zasobami;
- zakłada się, że inwestorzy nie oczekują żadnych zmian kursu walutowego.
18.7 Różnice w szybkości reakcji kursów walutowych oraz cen dóbr i usług są powodem występowania efektu „przestrzelenia” kursu walutowego.
CZĘŚĆ VII. PROBLEMY „REŻIMU” W KRAJOWYCH I MIĘDZYNARODOWYCH DZIAŁANIACH RZĄDU
Rozdział 19 - Spójność w wyborze publicznym
19.1. Niespójność w Czesie: stałe reguły a interwencja uznaniowa
Trzy argumenty za stosowaniem reguł i interwencji uznaniowych(prostych i Friedmana):
Długość i zmienność opóźnień, z jakimi działają różne rodzaje polityk(np.pieniężna), oznacza, że działania uznaniowe mogą się przyczynić do wzmocnienia wahań cyklicznych,
Działalnia dyskrecjonalne o charakterze ekspansywnym (!) są nieskuteczne poza krótkim okresem, w długim powodują jedynie inflację,
Proste reguły=niskie koszty administracji niezbędnej do jej stosowania
Badamy wybór między automatycznymi regułami a działaniami uznaniowymi.
Pierwsa sytuacja - nie ma automatycznych reguł. Mamy 2 okresy, a rząd może w każdym z nich wybrać jakieś działania, by zmaksymalizować swoją funkcję celu.
Cel: tempo wzrostu produkcji, środki do osiągnięcia celu: stymulacja innowacji.
Żeby stymulować postęp techniczny, rząd może obiecać wynalazcy ochronę patentem. Gdy na końcu okresu 1 wynalazki powstaną, rządowi będzie zależało, żeby rozpowszechnić wynalazek, ze względu na nieefektywną alokację monopolu. Wtedy polityka ochrony patentu będzie niespójna w czasie, optymalna w okresie 1, w 2 nie. Złamanie przyrzeczenia, możliwe gdy decyzje rządu są dyskrecjonalne i nie ogranicza ich reguła, przynoszą lepsze rezultaty z punktu widzenia rządu. Trzeba przyjąć jednak, że podmioty kierują się krótkowzrocznym przekonaniem, że rząd nie zmieni decyzji w okresie 2. Przedsiębiorcy kierują się racjonalnymi oczekiwaniami - uznaniowe działanie rządu nie zapewni oczekiwanych rezultatów. Pierwsi tak stwierdzili Kydland i Prescott (1977) - przy racjonalnych oczekiwaniach optymalna nie jest polityka spója w czasie, czyli wybierana przez rząd w poszczególnych okresach, lecz przyjęta a priori decyzja, że rząd nie może dowolnie zmieniać wcześniejszych decyzji.
Ograniczenia nałożone na rząd mogą być oparte na zwyczaju, konwencji, prawie i służą wyrobieniu reputacji oraz wzmocnieniu wiarygodności. Reguły stałe nie muszą być najlepsze, to że rządy prowadzą czasami dyskrecjonalną politykę jest strategią (regułą) elastyczną, Buiter wykazał, że elastyczna jest bardziej efektywna w warunkach niepewności. Odnoścnie wynalazków, lepsza jest reguła elastyczna, umożliwiająca zmiane decyzji w przyszłym okresie, jeśli bierze się pod uwagę parametry, np. znaczenie patentu, i od nich określa się długość ochrony.
Niespójność polityki - bezrobocie a inflacja (Barro i Gordon)
Tu wykorzystywane są: krzywa Phillipsa (przyjęta przez autorów pionowa) , oczekiwania inflacyjne i preferencje polityków gospodarczych. Wybór dwuokresowy przez polityków i robotników. Rząd postanawia w okresie 1 nie zastosować ekspansywnej polityki, również w okresie 2, gdy związki podejmą decyzję o wyspkości płac. Jeśli związki uwierzą w zapewnienia rządu, rząd mógłby odstąpić od obietnicy, żeby zmniejszyć bezrobocie kosztem większej inflacji. Robotnicy mogą to przewidzieć i zarządać od razu wyższych płac. W takim przypadku rząd nie powinien stosować ekspansywnej polityki.
Możliwe jest wystąpienie pozytywnych aspektów odstąpienia od danej polityki.
19.2 Spójność a decentralizacja polityki krajowej: właściwe powiązanie narzędzi z celami
Analizując model zredukowany z części 8 widzieliśmy, że każdy instrument oddziałuje na wszystkie cele. Nie można zatem przyporządkowywać poszczególnych wyłącznie określonym celom. Osiągnięcie jednego celu (np. równowaga bilansu płatniczego za pomocą zmiany kursu walutowego wpływa też np. na inflację). Posługując się modelami, upraszczamy rzeczywistość, wiemy jakie narzędzia będą bardziej skuteczne w osiąganiu poszczególnych celów ale nie możemy przewidzieć wszystkich skutków. Trudno jest politykom gospodarczym sformułować rozwiązania problemu polityki, dlatego muszą oni stosować metodę prób i błędów, zmieniając każdorazowo tylko jeden z instrumentów.
Dadatkowo instytucje w państwie mogą być zobowiązane do niezależnego decydowania.(np. Parlament i bank centralny). Problem ma dwa aspekty:
Trzeba określić warunki, czemu ma wystąpić decentralizacja w polityce gospodarczej, kiedy takie rozwiązanie jest ekonomicznie racjonalne,
Który z celów przyporządkowujemy każdemu z organów kontrolujących poszczególne narzędzia składające się na działania rządu.
Decentralizacja jest korzystna jeżeli obniża koszty polityki w ramach specjalizacji w realizowaniu jej różnych funkcji. W ujęciu Mundella-Fleminga podejście zdecentralizowane jest możliwe i teoretycznie tak samo skuteczne jak scentralizowane, jeżeli:
Dany instrument jest bardziej skuteczny w osiąganiu jednego celu, niż inne instrumenty,
Zmiany każdego instrumentu są wykonywane przez organ, który jest relatywnie bardziej skuteczny niż inne w osiąganiu danego celu(właściwe przyporządkowanie narzędzi do celów).
W niektórych przpadkach decentralizacjaidecyzji może wystąpić „przestrzelenie” celów, nawet jeśli następuje przybliżenie się do końcowego jednoczesnego rozwiązania. Inaczej mówiąc, działania korygujące zastosowane przez każdy z organów prowadzących politykę mogą być nadmierne w porównaniu z sytuacją jednoczesnego rozwiązania problemu decyzyjnego.
Nieformalna koordynacja polityki w skali międzynarodowej i problem redundancji
Przy braku formalnej koordynacji polityki w skali międzynarodowej pojawia się problem redundancji lub inaczej problem n-tego kraju.
Na „świat” składa się n krajów, czyli jest n bilansów płatniczych, ale tylko n-1 krajów ma charakter niezależny i może stanowić cel polityki w poszczególnych krajach.(prawo Walrasa). Wartośc bilansu n-tego panstwa jest uzależniona od wartości bilansów krajów n-1, bo:
Σ Bpi (po i od i=0 do i=n) = 0.
Jeżeli każdy z n-1 krajów będzie stosował niezależnie dany instrument (np. politykę pieniężną)w celu osiągnięcia pożądanego bilansu, to n-ty kraj nie będzie mógł wybrać własnego preferowanego bilansu.
Kraj n może zaakceptować ze jest n-tym krajem , jako wybór autonimiczny. Jeżeli nie, to wszytkie kraje powinny się dogadać, co do wielkości bilansów n krajów, żeby ich suma wynosiła 0, lub: porozumieć się żeby jeden z krajów przyjął na siebie rolę n-tego kraju. N-ty kraj musi zachowywać się pasywnie, akceptując swój bilans. Nie musi być jego stanowiska niekorzystne, bo zostanie uwolniony od zadania osiągnięcia celu w zakresie bilansu płatniczego, może ukierunkować się na cele wewnętrzne. Cele n-1 krajów mogą oznaczać deficyt n-tego kraju, n-ty nie musi się tym niepokoić, jeśli pozostałe kraje akceptują bez ograniczeń pasywa n-tego kraju (czyli jego walutę) w rozliczeniu deficytu. W innych warunkach,. N-y kraj może osiągać nadwyżkę w bilansie płatniczym.
N-ty kraj może swobodnie określić swoją politykę pieniężną, tak aby osiągnąć cele zatrudnienia i inflacji, ignorując swój bilans płatniczy. Pozostałe n-1 krajów będzie musiało dostosować instrumenty polityki pieniężnej tak, aby stopa procentowa zapewniała osiągnięcie pożądanego bilansu płatniczego.
Kto jest n-tym krajem zależy od uwarunkowań historycznych, czynników politycznych, warunków gospodarczych. Czasami n-1 krajów będzie zadowolone, jeśli n-ty kraj zastosuje polityke ekspansywną, co pobudzi również ich gospodarke (czasy breton Woods, gdy po okresie niedbory dolarów, ekspansywna polityka USA przyczyniła Siudo powstania deficytu bilansu płatniczego, co było spójne z dążeniem pozostałych krajów do gromadzenia rezerw dolarowych. Powstaje problem zaufania. W latach 80-tych, Giavazzi i Giovannini, uznawali Niemcy za n-ty kraj w ramach Europejskiego Systemu Walutowego, bo Niemcy określały politykę pieniężną w sposób niezależny, pozostałe kraje musiały dostosowywać stpy procentowe, by osiągnąć pożądaną równowagę zewnętrzną.
Powody dlaczego kraj może wybrać rolę n-tego kraju:
Kraj n może mieć możliwość wpływania na swój bilans płatniczy, ponieważ inne kraje będą skłonne akceptować jego walutę przy rozliczaniu deficytów.
N-ty kraj może swobodnie określić swoją politykę pieniężną. Gdy instrument ten nie jest nakierowany na zapewnienie stabilności zewnętrznej, może zostać wykorzystany do osiągnięcia stabilności monetarnej celu w zakresie zatrudnienia.
Wg. Coopera, międzynarodowa koordynacja to sytuacja, w której każdy kraj dostosowuje swoje narzędzia polityki tak, aby osiągnąć zarówno cele reszty świata oraz własne. Koordynacja występuje w dwóch możliwościach:
Gdy istnieje współzależność między różnymi gospodarkami,
Gdy nie skoordynowane działania różnych krajów prowadziłyby do suboptymalnych rezultatów.
Potrzeba koordynacji wynika ze współzależności między krajami oraz z możlowości osiągnięcia dzięki nim lepszego rozwiązania w rozumieniu Pareta.
Nazwa pojawia się po raz pierwszy w pracy angielskiego ekonomisty Pigou, 1920 r.
W dalszej części rozdziału autor odnosi się do silnego kryterium Pareta.
A i B to dowolne dobra
Zgodnie z regułą pluralistyczną głosowaniu poddaje się jednocześnie więcej niż dwie możliwości
Teorie Nozika i Sena należą do nurtu nieutylitarystycznych kryteriów uporządkowania
Krzywa Philipsa została stworzona przez Phelpsa i Friedmana
Dla a=b=1 mamy do czynienia ze skonstruowanym przez Okuna wskaźnikiem mizerii makroekonomicznej, który jest sumą stopy bezrobocia i inflacji.
Tinbergen wprowadził również pojęcie tzw. „złotej reguły' polityki gospodarczej mówiącą, że rozwiązanie jakiegoś problemu PG w przypadku celów o ustalonej wartości jest możliwe tylko wtedy, gdy liczba instrumentów jest co najmniej równa liczbie celów.
Zasady polityki gospodarczej - D.Acocella |
1 |
1
B
G
Dobro X
Alokacja zasobów wskazana w punkcie A jest zgodnie z zasadą Pareta nieefektywna. Możliwy jest wzrost produkcji co najmniej jednego z dóbr bez zmniejszenia produkcji drugiego (np. B). Efektywne są wszystkie punkty na lini F. Alokacja w punkcie C powoduje co prawda jeszcze większą produkcję dobra Y przy niezmienionej pierwotnej produkcji dobra X. Znajduje się jednak poza krzywą transformacji. Taka ilość dobra Y nie jest możliwa do wyprodukowania
Dobro Y
Istnieje nieskończenie wiele możliwych alokacji dóbr. Każda z nich odpowiada parze użyteczności dla Janka i Franka z rysunku obok. Zbiór ograniczony linią KMU jest obszarem możliwych użyteczności a sama linia nazywana Krzywą możliwych użyteczności. Korzystając z rysunku łatwo wywnioskować, że społeczeństwo tworzone przez Janka i Franka woli alokację w punkcie i nad alokację w punkcie m (w punkcie i użyteczności zarówno dla Janka jak i
Użyteczność Janka
Użyteczność Franka
C
u
Określa dobrobyt społeczny w oparciu o wartość funkcji użyteczności dla jednostki znajdującej się w najgorszym położeniu. Można wyrazić ją następującym przekształceniem:
W(x) = min ui(x) i = 1,2,3,4…, H
Zgodnie z Rawlsowską FDS dobrobyt społeczeństwa wzrasta tylko wtedy, gdy minimalna wartość funkcji użyteczności rośnie (jest maksymalizowana). Z tego powodu funkcja ta nazywana jest maksiminowoą funkcją dobrobytu społecznego
u1
W2
u2
maksiminowoą funkcją dobrobytu społecznego. W interpretacji graficznej krzywe dobrobytu mają kształt litery L. Kształt krzywej oznacza, że wzrost wartości funkcji użyteczności dla jednej osoby nie powoduje zmiany użyteczności dla drugiej osoby, nie zmienia się więc również wartość funkcji dobrobytu.
właśnie granicą możliwych użyteczności. Wybór optimum społecznego jest maksymalizacją FDS przy ograniczeniach wyznaczanych przez GMU. Optimum społeczne znajdzie się w punkcie w którym nachylenie GMU równe jest nachyleniu społecznej krzywej obojętności W
Nierówności w perspektywach życiowych mogą być usprawiedliwione tylko wtedy, gdy powiążemy je z korzyścią dla znajdujących się w najgorszym położeniu. Rozważając sytuację w której pierwszej osobie powodzi się lepiej, każdy stan lub działanie, które poprawiać będzie położenie drugiej osoby jest pożądane społecznie bez względu na to czy poprawia ono położenie osoby pierwszej
p
B
Metoda polega na konstruowaniu społecznych krzywych obojętności, które wyrażają cele w sposób elastyczny. Nie wskazują na konkretne ich wartości lecz pewne „układy” celów, które przynoszą tę samą satysfakcję. Rozważając dalej przykład bezrobocia i inflacji należy zwrócić uwagę, iż mamy tu do czynienia z „antydobrami” (im niższy poziom jednego antydobra przy danym poziomie drugiego tym wyższa użyteczność. Oznacza to, że krzywe
A
Metoda ta opracowana została przez Tinbergena. Polega na przypisaniu ustalonych wartości zmiennym, które wybrano jako cele polityki gospodarczej. Przykładem przypisywania celom stałych wartości jest próba pogodzenia celu dotyczącego zatrudnienia ze stabilnością monetarną. Oba cele przedstawić można za pomocą krzywej transformacji G. Przy definicji celu wskazuję się tu na jeden konkretny punkt. Np. A - cel
C
A
E F
D'
D
S
0
Ilość pracy
Płaca netto