Nojszewska pytania

1. Wykorzystanie teorii gier w procesach gospodarczych, przykład.

Teoria gier jest narzędziem uniwersalnym. Znalazła szerokie zastosowania w ekonomii, biologii ewolucyjnej, socjologii, naukach politycznych, informatyce. We wszystkich tych dziedzinach służy do rozpatrywania modeli podejmowania optymalnych decyzji (strategii).

Za pomocą teorii gier można rozpatrywać sytuacje, w których gracze są nie tylko osobami czy instytucjami, ale także takie, w których jedna ze stron sytuacji konfliktowej jest „bezosobowa” i nie jest zainteresowana wygraną w grze – tzn. „gry przeciwko naturze”. Są to sytuacje, w których mamy do czynienia z nieprzewidywalnymi siłami przyrody, np. warunki klimatyczne odpowiadające za osiągnięcie odpowiednich poziomów plonów rolnych, czy też ogólna światowa koniunktura gospodarcza uzależniona od nieprzewidywalnych konfliktów zbrojnych w strategicznych ekonomicznie obszarach świata.

Przykład: sytuacja kształcenia przyszłych pracowników względem przydatności sostosowania ich szkoleń do określonego przyszłego Niszu zawodowego na rynku pracy. Nie da się przewidzieć czy na przyszłym rynku będą miejsca pracy dla szkolących się obecnie. Jednak z pewnym prawdopodobieństwem można przewidzieć przyszłe trendy.

W ekonomii teorię gier stosuje się np.: w analizie oligopoli, analizie karteli, analizie kosztów zewnętrznych, negocjacjach, przetargach.

2. Przykłady zastosowania indeksów Laspeyresa i Paaschego

Indeks Laspeyresa

● Informuje jak zmieni się łączna wartość całego agregatu produktów w badanym okresie w porównaniu do okresu bazowego, gdyby ceny wszystkich produktów w obydwu porównywanych okresach były identyczne, jak w okresie bazowym.

● Ważony indeks agregatowy- oparty na sumie ważonej

● Przyjmujemy ilości odnoszące się do roku (okresu) bazowego.

● Jest użyteczny, gdy ilości zbytnio nie zmieniają się z roku na rok (z okresu na okres).

Indeks Paaschego

● Porównanie wartości towarów spożytych w okresie badanym ustalone w cenach z okresu podstawowego z wartością tych towarów obliczoną w cenach z okresu badanego.

● Ważony indeks agregatowy- oparty na sumie ważonej.

● Przyjmujemy ilości odnoszące się do roku (okresu) bieżącego. Zastosowanie indeksów:

● CPI- wskaźnik wzrostu cen towarów i usług konsumpcyjnych; najpopularniejsza miara inflacji na świecie; jest to średnia ważona cen towarów oraz usług znajdujących się w tzw. koszyku inflacyjnym (dobra najczęściej nabywane przez przeciętne gospodarstwo domowe); GUS ustala raz w roku zawartość takiego koszyka.

● Rynki finansowe, istnieje bardzo dużo indeksów giełdowych i różnią się one wieloma czynnikami, m.in.: zasięg terytorialny (np. WIG- uwzględnia wyniki spółek z jednego kraju), wielkość (np. WIG20- uwzględnia kilkanaście spółek), wybór spółek (np. mWIG40- bierze się pod uwagę wielkość spółek).

● Indeks Paaschego wykorzystywany jest do obliczania delatora PNB (lub PKB); delator PNB (PKB) - wskaźnik stosowany podczas przechodzenia z nominalnego PNB do realnego PNB, dzięki niemu uwzględniane są zmiany cen wszystkich dóbr zawierających się w PNB.

3. Efektywność monopoli naturalnych w sferze użyteczności publicznej

Rozmiar produkcji w danej gałęzi spełnia kryterium efektywności w rozumieniu Pareta, gdy cena równa się kosztowi krańcowemu. Monopolista natomiast produkuje na poziomie, przy którym krańcowy krańcowy przychód równa się krańcowemu kosztowi, i z tego powodu wytwarza zbyt mało produktu. Wydawałoby się ze całkiem łatwo można pokierować monopolem, aby wyeliminować nieefektywność- wystarczyłoby narzucić ceny równe kosztowi krańcowemu, a zasada maksymalizacji zysku dokonałaby reszty. Niestety jednak może się zdarzyć , ze przy takiej cenie monopolista osiągnąłby ujemne zyski. Taka sytuacja często ma miejsce w przypadku dóbr użyteczności publicznej. Weźmy pod uwagę np. gazownictwo. Tutaj technologia wymaga bardzo wysokich kosztów stałych- jak budowa i utrzymanie gazociągów- i bardzo niskich kosztów krańcowych dostarczenia dodatkowej jednostki gazu. Gdy gazociąg jest już położony, to samo pompowanie większej ilości gazu kosztuje niewiele. Podobnie lokalna spółka telefoniczna ponosi bardzo duże koszty budowy i podłączenia sieci, gdy tymczasem koszt krańcowy dodatkowej jednostki usług telefonicznych jest bardzo niski. Wszędzie tam gdzie mamy wysokie koszty stałe i niskie koszty krańcowe, może wystąpić taki rodzaj sytuacji jaki przedstawiono na rys. 26.4. Zazwyczaj monopole naturalne są kierowane przez państwo. Różne kraje wypracowały rozmaite rozwiązania. W niektórych krajach usługi telefoniczne są dostarczane przez państwo, a w innych przez firmy prywatne, które są regulowane przez rząd. Państwowe urzędy regulacji ustalają ceny, jakie przedsiębiorstwo użyteczności publicznej ma prawo pobierać. W idealnym przypadku ceny te mają pozwolić przedsiębiorstwu na osiągnięcie progu rentowności- produkcję na poziomie, przy którym cena równa się kosztom przeciętnym.

4. Wykorzystanie programowania liniowego w działalności gospodarczej (z maila SGH)

Programowanie liniowe w działalności gospodarczej służy wyznaczeniu optymalnego planu produkcji. By go wyznaczyć należy znać liczbę produktów, która ma być wytworzona.

W tym celu liczba produktów traktowana jest jako zmienne decyzyjne. Pierwszym etapem programowania linowego jest formułowanie zadania, czyli:

● przetłumaczenie problemu decyzyjnego na matematyczny język formalnego modelu,

● określenie zmiennych decyzyjnych ( w tym przypadku liczby produktów jaka ma zostać wytworzona)

● wyznaczenie funkcji celu (planu produkcji) i wyrażenie jej w języku zmiennych decyzyjnych,

● określenie ograniczeń (wszystkie wymagania, jakie musi sprostać oraz limity, którym podlega),

● ograniczenia wraz z funkcją celu mają obejmować wszystkie istotne fakty i wymagania zawarte w słownym sformułowaniu problemu, ponieważ ograniczenia wraz z funkcją celu mają być dokładnym odwzorowaniem sformułowania słownego.

Drugim etapem jest rozwiązywanie zadania. Wobec tego jeżeli wyznaczone zostały 2 zmienne decyzyjne należy zastosować metodę graficzną (geometryczną). Jako że produkcja zwykle przekracza liczbę dwóch produktów, warto omówić metodę, która zakłada większą ilość zmiennych jaką jest algorytm simpleks. Jest to procedura iteracyjna (etapowa), która polega na badaniu kolejnych rozwiązań bazowych (rozwiązań dopuszczalnych) programu liniowego w postaci kanonicznej, tj.:

● wyznaczanie (dowolnego) rozwiązania bazowego programu,

● sprawdzanie optymalności tego rozwiązania,

● a w razie stwierdzenia nieoptymalności, konstruowane jest następne lepsze rozwiązanie bazowe i trwa to aż do znalezienia rozwiązania, którego nie można już poprawić i takiego, którego zastosowanie w pełni zaspokoi potrzeby przedsiębiorstwa.

Ostatnim etapem programowania liniowego jest interpretacja optymalnego rozwiązania zadania. Interpretacja rozwiązania powinna być w języku właściwym dla dziedziny, z której wywodzi się problem. Do niej należy również dołączyć interpretację ograniczeń przedsiębiorstwa w związku z planowaną produkcją.

5.Charakterystyka metody oceny efektywności DEA

Istnieje kilka podejść do mierzenia efektywności przekształceń nakładów w rezultaty. Metody DEA stosują podejście od strony badań operacyjnych. Polega ono na ustaleniu dla danego obiektu wybranych obiektów referencyjnych (wzorcowych) np.: minimalizujących nakłady. Jeżeli okazałoby się, że nie ma obiektów, które osiągają rezultaty badanego obiektu mniejszym nakładem, niż badany obiekt, byłby on w pełni efektywny. Jeżeli natomiast inne obiekty uzyskałyby te rezultaty mniejszym nakładem, badany obiekt należałoby uznać za nieefektywny.

Data Envelopment Analysis jest metodologią badania efektywności gospodarczej nawiązującą do konstrukcji funkcji produkcji jako empirycznej obwiedni (otoczki = envelopment) danych.

Rozpatrywana w DEA górna obwiednia danych D(X,Y), podobnie jak model ekonometryczny czy obwiednia przestrzeni produkcyjnej, musi być rosnąca coraz wolniej z uwagi na postulat malejącej krańcowej produktywności nakładów. W Data Envelopment Analysis postać obwiedni danych wynika bezpośrednio z układu empirycznych , a nie z jakichkolwiek rozważań natury matematycznej czy ekonomicznej. Obwiednia D(X,Y) jest granicą efektywności rozpatrywanego zbioru obiektów: obiekty leżące na granicy mają efektywność 100%, a poniżej mniejszą niż od 100%. W terminologii angielskiej granica efektywności często nazywana jest best practice frontier czyli granica najlepszej „praktyki” produkcyjnej.

Podstawowe rodzaje efektywności spotykane w DEA

1) Efektywność Pareto (najstarszy rodzaj efektywności)

Jeżeli obiekt pierwszy nie jest efektywniejszy od drugiego i jednocześnie drugi nie jest efektywniejszy od pierwszego, to oba obiekty są względem siebie efektywne w sensie Pareto.

Wykorzystując efektywność Pareto, posługujemy się najsłabszą (w sensie teorii pomiaru) skalą pomiarową, tzw. skalą nominalną, za pomocą której wykonać można tylko zliczenie relacji równości i różność. Oznacza to, że można jedynie sklasyfikować obiekty na dwie grupy: obiekty nieefektywne i efektywne (w sensie Pareto).

2) Efektywność Koopmansa

Dwa obiekty są efektywne względem siebie w sensie Koopmansa, gdy zmniejszenie rezultatu netto w jednym obiekcie jest dokładnie skompensowane zwiększeniem rezultatów netto drugiego obiektu, czyli gdy suma zmian rezultatów jest zerowa.

3) Efektywność Farrella–Debreu (w DEA częściej zwana efektywnością Farrella)

W odróżnieniu od efektywności Pareto, można klasyfikować obiekty wyrażać ich stopień efektywności. Debreu i Farell sformułowali definicje produktywności p jako stosunek pojedynczego efektu Y do pojedynczego nakładu X, czyli:

Propozycja Farrella przedstawia czysta efektywność techniczna odpowiadającą na pytanie czy dany obiekt znajduje się na krzywej możliwości produkcyjnych czy nie. Możliwe wiec stawało się wyznaczenie maksymalnej wartości efektów osiąganych przy określonych kombinacjach nakładów lub minimalnej tychże nakładów ilości koniecznej do osiągniecia zakładanych z góry efektów.

Posługiwanie się efektywnością Farella oznacza wykorzystanie najbardziej rozwiniętej skali pomiarowej (skali ilorazowej), gdzie możliwe są wszystkie operacje matematyczne.

4) Efektywność Russela

Efektywność Russela jest uogólnieniem efektywności Farrella–Debreu. Z ekonomicznego punktu widzenia najważniejszą własnością efektywności Russella jest możliwość substytucji nakładów w przypadku ukierunkowania na nakłady lub substytucji rezultatów w przypadku ukierunkowania na rezultaty. Nie zakłada bowiem jakichkolwiek relacji proporcjonalności między nakładami bądź rezultatami.

W większości modeli Data Envelopment Analysis ustalenie efektywności danego obiektu możliwe jest poprzez rozwiązanie liniowego zadania decyzyjnego ( czyli modelu matematycznego, w którym zarówno funkcja celu jak i warunki ograniczające są funkcjami liniowymi) , w którym wymagane jest znalezienie optymalnego sposobu przekształcania nakładów obiektu w jego rezultaty, czyli znalezienie technologii optymalnej. Optymalna technologia to np. ta która minimalizując nakłady do poziomu nie wyższego od autentycznych pozwala uzyskać rezultaty nie gorsze od autentycznych.

Data Envelopment Analysis (w skrócie DEA) czyli metody analizy danych granicznych, są przypuszczalnie najbardziej popularnymi procedurami ustalania efektywności obiektów gospodarczych i społecznych. Definiują one efektywność jako stosunek sumy ważonych efektów do sumy ważonych nakładów. Za pomocą metod DEA bada na przykład: banki oraz instytucje finansowe, gospodarstwa rolne, instytucje ubezpieczeniowe i edukacyjne oraz wiele innych.

Metoda DEA mierzy efektywność od strony badań operacyjnych. Polega ona na ustaleniu dla danego obiektu wybranych obiektów referencyjnych (wzorcowych) np.: minimalizujących nakłady. Jeżeli okazałoby się, że nie ma obiektów, które osiągają rezultaty badanego obiektu mniejszym nakładem, niż badany obiekt, byłby on w pełni efektywny. Jeżeli natomiast inne obiekty uzyskałyby te rezultaty mniejszym nakładem, badany obiekt należałoby uznać za nieefektywny.

Metoda DEA nawiązuje do konstrukcji funkcji produkcji jako empirycznej obwiedni (otoczki = envelopment) danych. Podobnie jak model ekonometryczny czy obwiednia przestrzeni produkcyjnej, musi być rosnąca coraz wolniej z uwagi na postulat malejącej krańcowej produktywności nakładów.

Zilustrowano to na poniższym rysunku:

Na wstępie warto podkreślić, że w DEA postać obwiedni danych nie wynika z jakichkolwiek rozważań natury matematycznej czy ekonomicznej. Obiekty efektywne wyznacza się za pomocą badań empirycznych. Obwiednia D(X,Y) jest granicą efektywności rozpatrywanego zbioru obiektów: obiekty leżące na granicy (Q1, Q2 i Q7) mają efektywność względną 100%, a poniżej mniejszą niż od 100%. Efektywność względna pozostałych obiektów (Q3,Q4,Q5,Q6) liczy się jako stosunek efektywności danej jednostki do efektywności jednostki najlepszej. Graficznie jest to odległość od jakiej jednostki nieefektywne odchylają się od górnej obwiedni.

Model DEA może występować jako ukierunkowany na nakłady. Dzięki temu dokonuje się wówczas minimalizacji nakładów przy ograniczeniu na dolnej wielkości rezultatów. Biorąc pod uwagę nieefektywną jednostkę Q3 będziemy ograniczać jej nakłady do tego stopnia aż osiągnie ona maksymalną efektywność (Przesuwać poziomo po linii niebieskiej aż dotrzemy do granicy obwiedni).

Może także występować jako ukierunkowany na rezultaty, co oznacza maksymalizacje rezultatów przy ograniczeniu na górną wielkość nakładów. To znaczy, że przy takiej samej kombinacji nakładów (być może wykorzystując inne czynniki, jak sprawne zarządzanie) będziemy starali się osiągnąć rezultat równy granicy obwiedni w pionie (Linia zielona).

Podstawowe zalety i wady metody DEA

ZALETY:

● Możliwość badania obiektów opisanych wieloma nakładami oraz wieloma rezultatami (brak wymagań co do postaci funkcji wyrażającej zawiązek między nakładami a efektami);

● Metoda DEA nie wymaga aż tak szczegółowego rodzaju informacji, tak jak to jest w przypadku metod wskaźnikowych i modeli ekonometrycznych. W łatwy sposób można określić relacje między układem globalnie poniesionych nakładów a układem globalnie otrzymanych rezultatów oraz pozwala na ustalenie z jaką efektywnością wielowymiarowy układ nakładów jest przekształcany w wielowymiarowy układ rezultatów;

● Nakłady i rezultaty niekoniecznie muszą wyrażać się w jednostkach pieniężnych, lecz mogą określane w jednostkach naturalnych. Gdy nakłady i efekty wyrażone są w jednostkach pieniężnych i są wzajemnie addytywne, metoda DEA nie jest konieczna;

● Metoda wychwytuje wielkości skrajne zamiast je uśredniać́jak to dzieje się̨na przykład w przypadku linii regresji;

● Łatwość stosowania metody w przypadku jednostek, których nie można scharakteryzować przez miary efektywności oparte o współczynniki finansowe tj. instytucje publiczne lub oddziały bankowe o różnych charakterystykach. WADY:

● Duża wrażliwość wyników na nietypowe dane w obiektach uznanych za wzorcowe (jeśli obiekt nietypowy jest wzorcowy, obniża to znacznie wyniki badania efektywności pozostałych obiektów);

● Uzyskanie niestabilnych i dość zaskakujących wyników w przypadku silnego skorelowania oraz zależności liniowych w obrębie rezultatów lub w obrębie nakładów, lub między rezultatami a nakładami;

● Nadmiarowość liczby obiektów efektywnych, zwłaszcza w tradycyjnych wersjach DEA nawiązujących do metody CCR, dla których zdarza się, że połowa lub nawet więcej obiektów jest w pełni efektywna;

● Mało rozwinięta teoria nieliniowych zależności między nakładami a rezultatami;

● Względny charakter efektywności obiektu. Efektywność określona jest na tle pozostałych obiektów, może się więc zdarzyć, że obiekt o niezbyt dużej sprawności uznany zostanie za w pełni efektywny, albo że obiekt o bardzo wysokiej sprawności uznany zostanie za nieefektywny;

Duża wrażliwość na błędne dane.

6. Zmiana kompensacyjna przy wyprowadzaniu krzywej popytu

Zmiana kompensacyjna – zmiana dochodu niezbędna by przesunąć konsumenta na początkową krzywą obojętności. Rekompensuje zmianę ceny, ile rząd powienien dać piniondza konsumentowi by zrekompensować mu zmianę ceny.

zmiana ekwiwalentna (EV)- zmiana dochodu, która jest równoważna ze zmianą ceny wyrażoną zmianą użyteczności. Czyli ile piniondza trzeba byłoby zabrać konsumentowi przed zmianą ceny, aby pozostawić go w położeniu równie dobrym, w jakim znalazłby się po zmianie ceny.

Krzywa popytu Hicksa jest czasem nazywana krzywą popytu skompensowanego. Pojęcie to wynika z faktu dopasowania dochodu do zmian cen, tak aby pozostawić niezmienny poziom użyteczności konsumenta. Konsumentowi ''kompensujemy'' zmiany cen dzięki czemu użyteczność pozostaje na tym samym poziomie w każdym punkcie krzywej popytu Hicksa. Odróżnia to tę sytuację od sytuacji charakterystycznej dla zwykłej krzywej popytu, w której konsument znajduje się w gorszym położeniu, gdy ceny są wyższe, i w lepszym, gdy są niższe.

Na podstawie zmian zachodzących na wykresie równowagi preferencji i ograniczenia budżetowego konsumenta, można wyznaczyć krzywą popytu skompensowanego.

7.analiza równowagi cząstkowej - wpływ podatku jednostkowego i ad valorem

Analiza równowagi cząstkowej pomija drugorzędne efekty wpływu podatku na inne dobra. Wadą analizy z użyciem równowagi cząstkowej jest ignorowanie potencjalnych efektów danej zmiany na pozostałych rynkach. Z tego powodu wprowadzono pojęcie równowagi ogólnej, która dotyczy zmian na wszystkich istniejących rynkach. Równowaga ogólna ma miejsce, gdy spełnione są wszystkie możliwe równowagi cząstkowe.

Podatek rozumiany jest jako pieniężne, przymusowe, ogólne, nieodpłatne i bezzwrotne świadczenie na rzecz państwa lub innych związków publicznoprawnych Stawki podatkowe występują w dwóch formach:

-stawka kwotowa
-stawka procentowa

Stawka kwotowa określa bezpośrednio wielkość podatku należnego władzom publicznym, natomiast stawka procentowa określa, jaką część podstawy opodatkowania stanowi zobowiązanie podatkowe. Podatek ad valorem przesuwa krzywą popytu lub podaży o wartość procentową

Opodatkowanie może skutkować :

· wzrostem ceny produktów

· zmianą struktury konsumpcji

· różnym wzrostem podatków w różnych gospodarstwach domowych co ma związek z dystrybucją dochodu narodowego

· różnymi zachowaniami ludzi (skłonność do wydawania i oszczędzania, do podejmowania ryzyk)

· redukcją siły nabywcze wśród produktów produkowanych przez sektor publiczny

· zmiany opodatkowania zmieniają stopień popytu w taki sam sposób stopień bezrobocia itd.

WPŁYW NA ANALIZĘ CZĄSTKOWĄ: 1. Podatek kwotowy(jednostkowy?): Wprowadzenie podatku jest równoznaczne ze wzrostem podaży oraz spadkiem popytu. na wykresie mamy dwie linie podaży, jedna z uwzględnieniem podatku oraz druga- całkowitą podaż S . Pomiędzy dwoma krzywymi podaży zachodzi różnica, którą jest kwota, którą otrzymał rząd dla każdej sprzedanej jednostki. Efektem opodatkowania jest wzrost ceny płaconej przez konsumentów co skutkuje spadkiem produkcji i daje nam dochód rządu.

2. Podatek Ad Valorem valorem przesuwa krzywą popytu lub podaży o wartość procentową, a nie tak jak w przypadku podatku kwotowego o wartość absolutną. Krzywe nie przesuwają się równolegle, a o określony kąt- procent,.

8. Efekty zewnętrzne i sposoby uporania się z nimi

Każda sytuacja ekonomiczna pociąga za sobą występowanie efektów zewnętrznych. Efekt zewnętrzny to koszt bądź korzyść osób trzecich, która nie podlega rekompensacie i powstaje wskutek produkcji lub konsumpcji podmiotu, który nie ponosi kosztów lub nie odnosi korzyści związanych z tymi działaniami. Innymi słowy – efekt zewnętrzny sprowadza się do tego, że różne podmioty mają wpływ na koszty lub użyteczność innych inaczej niż za pośrednictwem cen.

Efekty zewnętrzne możemy podzielić na konsumpcyjne i produkcyjne, a te z kolei na pozytywne (dodatnie) i negatywne (ujemne). Negatywne efekty zewnętrzne występują wówczas, gdy podmioty (gospodarczy) przerzuca na innych część kosztów swojej działalności. Z kolei pozytywne efekty zewnętrzne pojawiają się gdy pewne podmioty korzystają, bez ponoszenia odpowiednich wydatków, z rezultatów działalności innych podmiotów.

Przykłady:

● Konsumpcyjny – pozytywny: sąsiadka ma piękny ogródek, a ty lubisz przyrodę.

● Konsumpcyjny – negatywny: współlokator lub palić tanie cygara.

● Produkcyjny – pozytywny: pasieka i sad znajdują się w sąsiedztwie.

● Produkcyjny – negatywny: huta odprowadza zanieczyszczenia do rzeki przy której ulokowana jest firma rybacka. Sposoby radzenia sobie z efektami zewnętrznymi:

● Internalizacja – firmy produkujące efekt zewnętrzny łączą się i staje się on wewnętrzny oddziały wyjąc bezpośrednio na f. produkcji

● Wprowadzenie rynku na efekty zewnętrzne – rynek na emisję CO2, czyli „pakiet klimatyczny”.

● Podatek Pigou – podatek od efektu zewnętrznego (np. zanieczyszczenia powietrza, ale żeby go wyznaczyć trzeba znać optymalny poziom zanieczyszczeń). Wszystkie powyższe rozwiązania, po wprowadzeniu, prowadzą do ustanowienia na rynku efektywności w sensie Pareto.

9. Funkcja oczekiwanej użyteczności i punkt równowagi - w warunkach niepewności.

Pojęcie oczekiwanej użyteczności- w skrócie jest to suma iloczynów prawdopodobieństwa i użyteczności każdego z możliwych wyników podjętych decyzji, natomiast, teoria oczekiwanej użyteczności jest hipotezą dotyczącą postępowania osób w warunkach ryzyka. Zgodnie z nią indywidualne osoby zachowują się, jakby posiadały, albo fizycznie posiadają funkcję użyteczności określoną na zbiorze pewnych alternatyw S. W obliczu niepewności czy ryzyka, gdy muszą wybrać losowe zdarzenie oparte o wyniki w tym zbiorze, czynią to w taki sposób, aby zmaksymalizować oczekiwaną wartość funkcji użyteczności U.

Teoria oczekiwanej użyteczności dotyczy modelowania wyboru konsumenta, gdy wybiera on nie pomiędzy zdarzeniami pewnymi, ale loteriami sformalizowanymi przy pomocy zmiennych losowych, których możliwe wyniki należą do zbioru dostępnych, pewnych alternatyw S.

Teoria oczekiwanej użyteczności wymaga zdefiniowania funkcji oczekiwanej użyteczności V(p), która zdefiniowana jest na zbiorze P loterii, zdefiniowanych jako zmienne losowe, których możliwe wyniki należą do zbioru możliwych alternatyw S.

Procedura szacowania.

a) budowa skali użyteczności,

b) konstrukcja drzewa decyzyjnego (graficzna metoda wspomagania procesu decyzyjnego, stosowana w teorii decyzji) wykorzystującego przyjętą skalę; zasady konstrukcji są podobne jak poprzednio, występuje jednak podstawowa różnica: menedżer podejmujący decyzję oblicza nie przeciętną pieniężnych wycen wszystkich możliwych wyników, lecz średnią użyteczności związanych z poszczególnymi wartościami pieniężnymi.

Celem podejmującego decyzję menedżera jest maksymalizacja oczekiwanej użyteczności.

Zasada substytucji- założenie pozwalające zastąpić pieniężną wycenę wyników decyzji oczekiwaną użytecznością, lub inaczej ekwiwalentem ryzyka.

Podejmowanie decyzji inwestycyjnych jest działaniem w warunkach niepewności. Dlatego określając te warunki należy mieć na uwadze ryzyko, które wiąże się dokładnie z przedmiotem podejmowanych działań. Podejmowana skala ryzyka nigdy do końca nie jest znana, dopóki nie zostanie osiągnięty cel inwestycyjny. Dopiero po osiągnięciu tego celu można ocenić jego poziom. Natomiast w trakcie trwania inwestycji można tylko monitorować czynniki kształtujące ryzyko i ewentualnie bardziej zabezpieczyć inwestycję przy zmianie jego poziomu. Uczestnik dążący do maksymalizacji oczekiwanej użyteczności musi pogodzić stopień podejmowanego ryzyka z poziomem oczekiwanych efektów zadowolenia. Jeśli przy dwóch podobnych inwestycjach o takich samych stopach zwrotu, ale mających różny poziom ryzyka, inwestycja o mniejszym ryzyku ma wyższą oczekiwaną użyteczność, niż ta druga, to przy kolejnych dwóch inwestycjach o takim samym poziomie ryzyka, różni ludzie skłonni są inaczej reagować oceniając to samo ryzyko. Ocena ryzyka to posiadana wiedza i doświadczenie na jego temat. Wydaje się, że stopień akceptacji poziomu ryzyka wynika nie tylko ze skłonności do maksymalizacji oczekiwanej użyteczności, ale i z preferencji podejmującego to ryzyko. Na przedstawionych poniżej rysunkach przedstawiono korelację pomiędzy ryzykiem, jakie jest podejmowane, a oczekiwaną użytecznością.

a) gotowość do ryzyka

b) neutralność do ryzyka

c) niechęć do ryzyka

10. Analiza równowagi cząstkowej - skutki pomiaru opodatkowania.

11.Rynek dóbr używanych - wg teorii Akerlofa.

Opisana przez amerykańskiego ekonomistę George'a A. Akerlofa sytuacja w której asymetria informacji powoduje wypieranie produktu lepszego przez produkt gorszy.

Rozpatrzmy rynek, na którym 100 ludzi chce sprzedać swoje samochody i 100 ludzi pragnie nabyć samochód używany. Każdy wie, ze 50 z tych samochodów to ‘rodzynki’, a 50 to ‘graty’. Aktualni właściciele samochodów znają ich jakość, ale przyszli nabywcy nie wiedzą czy konkretny samochód to rodzynek czy grat. Właściciel grata chce dostać nie mniej niż 1000dol., a właściciel rodzynka chce dostać 2000 dol. Nabywcy są skłonni zapłacić 2400 za rodzynka i 1200 za grata. Gdyby łatwo było określić jakość samochodu, nie byłoby problemów na tym rynku. Graty byłyby sprzedawane po jakiejś cenie miedzy 1000 a 1200, a dobre samochody po cenie między 2000 a 2400. Co się jednak dzieje gdy nabywcy nie mogą określić jakości samochodu? W takim przypadku nabywcy muszą zgadnąć ile wart jest każdy samochód. Załóżmy że jeśli samochód z jednakowym prawdopodobieństwem jest rodzynkiem albo gratem , to typowy nabywca będzie skłonny zapłacić oczekiwana wartość samochodu. Przy liczbach podanych wyżej, oznacza to ze nabywca byłby skłonny zapłacić (1/2) *1200 + (1/2) * 2400=1800 dol. Kto jednak byłby skłonny sprzedać swój samochód po takiej cenie? Właściciele gratów z pewnością tak, ale właściciele rodzynków nie chcieliby tak tanio pozbywać się samochodów - z założenia żądają oni co najmniej 2000 dol. Za rozstanie się ze swoim pojazdem, Cena jaką kupujący są w stanie zapłacić za ‘średni’ samochód wynosi mniej niż sprzedawcy rodzynków chcą zaakceptować. Po cenie 1800 dol. Do sprzedaży byłyby oferowane tylko buble. Gdyby jednak kupujący byli pewni ze dostają graty, nie chcieliby płacić 1800 dol. W istocie cena równowagi na tym rynku musiałaby się znajdować miedzy 1000 i 1200. Tylko właściciele gratów oferowaliby swoje samochody po cenie w tym przedziale, nabywcy spodziewaliby się zaś (słusznie) , ze otrzymają samochód zlej jakości. Na takim rynku nie byłby sprzedany żaden rodzynek. Nawet jeśli cena, po której nabywcy są skłonni kupić dobre samochody, przewyższa cenę, po której ich sprzedawcy sa skłonni je sprzedać, żadna taka transakcja nie będzie miała miejsca. Jeśli oferuje się zbyt wiele dóbr o niskiej jakości, to sprzedawcy dóbr wysokiej jakości napotykają trudności z ich sprzedażą.

12. Charakterystyka mierzenia efektywności w metodzie SFA

● Metoda SFA, czyli metoda stochastycznej analizy graficznej, porównuje się nakłady i efekty działalności jednostek w danej branży przy uwzględnieniu dwóch składników: czynnika losowego i nieefektywności.

● Metodę SFA stosuje się do oceny ogólnej działalności przedsiębiorstwa - jest to metoda całościowa. Opiera się ona na założeniu, że wszystkie jednostki powinny być zdolne do działania na określonym poziomie efektywności. Poziom ten jest nazywany granicznym.

● Dzięki temu że metoda SFA bierze pod uwagę zmienną losową możliwe jest rozdzielenie odchyleń od krzywej efektywności na faktyczną nieefektywność i szum statystyczny (wpływ błędu pomiaru bądź też efektów pozostających poza specyfikacją modelu).

● Charakterystyka mierzenia efektywności metodą SFA: 1. dla danego zbioru danych przeprowadza się regresję szukając tzw. przeciętnej funkcji kosztów, którą wyznacza się za

pomocą metody najmniejszych kwadratów zakładając, że zmienne losowe wynikają z nieefektywności; 2. funkcję tę logarytmuje się, żeby można było przeprowadzać na niej operacje na macierzach; 3. kolejno szuka się granicznej funkcji kosztów przyjmując, że jedna z badanych firm jest

w pełni efektywna, a zatem nieefektywność pozostałych mierzy się w stosunku do niej; Graniczna funkcja kosztów jest zatem wyznaczana poprzez równoległe przesuwanie przeciętnej funkcji kosztów wzdłuż osi rzędnych. Przesuwanie następuje dopóki funkcja ta nie napotka na najbardziej efektywną firmę. 4. wykorzystując tak wyznaczoną graniczną funkcję kosztów, można określić miarę względnej efektywności kosztowej; miara ta jest liczona jako iloraz minimalnego kosztu niezbędnego (wynikającego z granicznej funkcji kosztów) do kosztu rzeczywiście poniesionego przy tym samym poziomie produkcji;

● Metoda SFA potencjalnie prowadzi do poprawnych wyników (dzięki wydzieleniu wpływu czynników losowych), jednakże może okazać się trudna do użytkowania przez niedoświadczonych analityków. 13. Administracja publiczna i jej efektywność

Administracja publiczna- system złożony z ludzi, zorganizowany w celu stałej i systematycznej skierowanej ku przyszłości relacji dobra wspólnego jako misji publicznej polegającej głównie na bieżącym wykonywaniu ustaw, wyposażonych w tym celu we władztwo państwowe oraz środki materialno-techniczne.

Funkcje administracji publicznej: funkcja porządkowo- reglamentacyjna, funkcja świadcząca, funkcja regulatora rozwoju gospodarczego, funkcja organizatorska, funkcja wykonawcza, funkcja kontrolno-nadzorcza, funkcja prognostyczno-planistyczna

Cechy administracji publicznej: przymus, monopolistyczny charakter, trwałość, planowość, ciągłość, stabilność, apolityczność, fachowość, wyodrębnienie i uporządkowanie organizacyjne i kompetencyjne, legalizm, poszanowanie interesu publicznego oraz środowiska naturalnego.

Wyróżnia się dwa aspekty efektywności: alokacyjną oraz x-efektywność

Efektywność alokacyjna: odpowiada na pytanie czy sektor publiczny wytwarza taki poziom i różnorodność usług, że wyborcy są zadowoleni. Pozwala ustalić czyje preferencje są najważniejsze.

X-efektywność- dotyczy strony podażowej, odpowiada na pytania, czy usługi wytwarzane przez sektor publiczny są produkowane minimalnym kosztem, czy poziom zatrudnienia w sektorze jest odpowiedni.

Stworzenie takiej konstrukcji rządu, która pozwalałaby osiągnąć efektywność jest niezwykle skomplikowana, ze względu na potrzebę zrównoważenia kosztów i zysków związanych z funkcjonowaniem alternatywnych struktur organizacyjnych. W każdym przypadku uzyskanie efektywności alokacyjnej może zostać zniweczone ze względu na występowanie X-nieefektywności. Uzyskanie X-efektywności jest możliwe jedynie poprzez budowę odpowiedniego systemu zachęt dla pracowników administracji publicznej.

Szczególnie zagrożone nieefektywnością typu X zdają się być przedsiębiorstwa państwowe z rozmytymi prawami własności - tzw. "własność niczyja". Zdaniem niektórych ekonomistów, nie jest to jednak efektem świadomych decyzji polityków

gospodarczych, mających na celu podniesienie efektywności alokacyjnej, lecz raczej rezultatem złego zarządzania, nieefektywności powodowanych przez "ograniczenia" polityczne, niewłaściwych relacji między menedżerami przedsiębiorstw państwowych, a politykami, bądź też korupcji. Doskonałych przykładów dostarcza pod tym względem historia gospodarowania Polski za czasów realnego socjalizmu.

13. Administracja publiczna i jej efektywność

Administracja publiczna- system złożony z ludzi, zorganizowany w celu stałej i systematycznej skierowanej ku przyszłości relacji dobra wspólnego jako misji publicznej polegającej głównie na bieżącym wykonywaniu ustaw, wyposażonych w tym celu we władztwo państwowe oraz środki materialno-techniczne.

Funkcje administracji publicznej: funkcja porządkowo- reglamentacyjna, funkcja świadcząca, funkcja regulatora rozwoju gospodarczego, funkcja organizatorska, funkcja wykonawcza, funkcja kontrolno-nadzorcza, funkcja prognostyczno-planistyczna

Cechy administracji publicznej: przymus, monopolistyczny charakter, trwałość, planowość, ciągłość, stabilność, apolityczność, fachowość, wyodrębnienie i uporządkowanie organizacyjne i kompetencyjne, legalizm, poszanowanie interesu publicznego oraz środowiska naturalnego.

Wyróżnia się dwa aspekty efektywności: alokacyjną oraz x-efektywność

Efektywność alokacyjna: odpowiada na pytanie czy sektor publiczny wytwarza taki poziom i różnorodność usług, że wyborcy są zadowoleni. Pozwala ustalić czyje preferencje są najważniejsze.

X-efektywność- dotyczy strony podażowej, odpowiada na pytania, czy usługi wytwarzane przez sektor publiczny są produkowane minimalnym kosztem, czy poziom zatrudnienia w sektorze jest odpowiedni.

Stworzenie takiej konstrukcji rządu, która pozwalałaby osiągnąć efektywność jest niezwykle skomplikowana, ze względu na potrzebę zrównoważenia kosztów i zysków związanych z funkcjonowaniem alternatywnych struktur organizacyjnych. W każdym przypadku uzyskanie efektywności alokacyjnej może zostać zniweczone ze względu na występowanie X-nieefektywności. Uzyskanie X-efektywności jest możliwe jedynie poprzez budowę odpowiedniego systemu zachęt dla pracowników administracji publicznej.

Szczególnie zagrożone nieefektywnością typu X zdają się być przedsiębiorstwa państwowe z rozmytymi prawami własności - tzw. "własność niczyja". Zdaniem niektórych ekonomistów, nie jest to jednak efektem świadomych decyzji polityków gospodarczych, mających na celu podniesienie efektywności alokacyjnej, lecz raczej rezultatem złego zarządzania, nieefektywności powodowanych przez "ograniczenia" polityczne, niewłaściwych relacji między menedżerami przedsiębiorstw państwowych, a politykami, bądź też korupcji. Doskonałych przykładów dostarcza pod tym względem historia gospodarowania Polski za czasów realnego socjalizmu.

14.Narzędzia analizy decyzyjnej

Jedną z metod podejmowania decyzji są modele matematyczne. Thierauf przedstawia

ich następujące rodzaje:

● programowanie liniowe,

● programowanie dynamiczne,

● drzewo decyzyjne,

● model Markowa,

● modele symulacyjne,

● modele zapasów,

● modele kolejek,

● planowanie sieciowe,

● techniki statystyczne i ekonometryczne. Drzewo decyzyjne jest najbardziej popularną techniką analityczną. Stworzenie poprawnego drzewa decyzyjnego zostało podzielone na 5 kroków:

1. Nadanie problemowi struktury poprzez zbudowanie matematycznego modelu podejmowania decyzji. 2. Przypisanie prawdopodobieństwa do możliwych wydarzeń. 3. Przypisanie wartości do wszystkich możliwych rezultatów, które wynikają z poszczególnych zdarzeń. 4. Połączenie niepewności i preferencji. 5. Wykonanie analizy wrażliwości. Model Markowa to model ułatwiający podejmowanie decyzji zwłaszcza w przypadku schorzeń przewlekłych. Model Markowa jest podejściem umożliwiającym ustrukturyzowanie i przeanalizowanie procesów zmiany stanu zdrowia, przy uwzględnieniu wymiaru czasu. Wynika to z tego, iż w rzeczywistości wiele procesów ma charakter dynamiczny. Wg modelu cała choroba podzielona jest na stany istotne z punktu widzenia klinicznego i ekonomicznego (tzw. stany Markowa). W danym momencie analizowany chory może przebywać wyłącznie w jednym stanie. Przez opisanie zmiany stanu prawdopodobieństwa przejścia do kolejnego stanu, kosztu i użyteczności istnieje możliwość oszacowania długoterminowych kosztów związanych z różną terapią. W określonych okresach, zwanymi cyklami Markowa, możliwe pozostanie jest w określonym stanie, bądź zmiana z jednego na drugi, przy uwzględnieniu prawdopodobieństwa przejścia. Cały proces chorobowy można ująć w formie cyklicznych zmian stanów, pod warunkiem, że założymy niezależność prawdopodobieństwa zmiany stanu w danym cyklu od tego, co działo się wcześniej (tzw. warunek Markowa).

Alokacja to świadomy podział dostępnych zasobów między dwóch lub więcej beneficjentów, zależnie od przyjętych kryteriów. Alokacja zasobów odbywa się w oparciu o dwa kryteria:

● efektywność – kryterium ekonomiczne,

● równość i sprawiedliwość społeczną– kryterium nieekonomiczne. Próba jednoczesnej realizacji kryteriów jest niemożliwa, co w praktyce sprowadza się do

dylematu. Optymalna alokacja zasobów będzie zatem oznaczała osiągnięcie równowagi między realizacją kryteriów efektywności i równości.

Modele alokacji zasobów można podzielić na dwie grupy:

1. modele jednobiegunowe:

● równości

● efektywności

● egalitarny 2. modele dwubiegunowe:

● równość – efektywność

● efektywność – równość Symulacja zdarzeń dyskretnych polega na badaniu zachowania się systemu. Pod pojęciem systemu rozumieć będziemy pewien zbiór powiązanych ze sobą obiektów scharakteryzowanych przy pomocy atrybutów (cech), które również mogą być ze sobą powiązane. Zakładamy, że ich struktura nie podlega zmianom, a jedynie cechy poszczególnych obiektów mogą przyjmować różne wartości w kolejnych jednostkach czasu.

Zdarzenia mogą zachodzić w dowolnej chwili i mogą wpływać na cechy obiektów i odwrotnie - czas do wystąpienia danego zdarzenia może zależeć od charakterystyk obiektu. Wyróżnić można trzy metody modelowania i symulacji dyskretnej: planowania zdarzeń, przeglądu i wyboru działań oraz interakcji procesów.

Programowanie liniowe w działalności gospodarczej służy wyznaczeniu optymalnego planu produkcji. By go wyznaczyć należy znać liczbę produktów, która ma być wytworzona. W tym celu liczba produktów traktowana jest jako zmienne decyzyjne. Pierwszym etapem programowania linowego jest formułowanie zadania. Kolejnym jego rozwiązywanie i tu ze względu na ilość zmiennych można wyróżnić dwa sposoby:

a. metoda graficzna (geometryczna) jeżeli istnieją 2 zmienne decyzyjne b. algorytm simpleks jeżeli ilość zmiennych decyzyjnych jest większa niż 2 Ostatnim etapem jest interpretacja optymalnego rozwiązania zadania programowania linowego w języku właściwym dla dziedziny, z której wywodzi się problem, wzbogacona o interpretację ograniczeń.

15. Dobra publiczne

Dobra publiczne w swojej czystej postaci, to dobra, które wykazują dwie właściwości: ich konsumpcja nie ma charakteru rywalizacji i z konsumpcji tej nie da się nikogo wykluczyć. Takie cechy dobra publicznego powodują, że nie może ono być skomercjalizowane. Żadne przedsiębiorstwo nie podejmie się jego produkcji i sprzedaży. Nie znaleźli by się też chętni do jego nabycia, skoro każdy może je konsumować, a opłata pieniężna nie warunkuje tej konsumpcji. Tego typu dobro musi produkować i finansować państwo. Przykładem takiego dobra jest np.:

● bezpieczeństwo wewnętrzne,

● oświetlenie ulic, Ogólnie mówiąc, jest to takie dobro, które konsumowane (użytkowane) przez jedną osobę, może być jednocześnie konsumowane przez innych. Dobra publiczne są przeciwieństwem dóbr prywatnych, które mają cechy: wyłączności w korzyściach oraz konkurencyjności w użytkowaniu.

Finansowanie dóbr i usług dostarczane w sferze użyteczności publicznej pochodzi ze środków publicznych, które są ograniczone. Ponadto decyzje o wykorzystaniu i przeznaczeniu tych środków mają charakter polityczny, co w połączeniu z niewystarczającymi środkami powoduje, iż faktyczne potrzeby publiczne są realizowane częściowo lub nie są realizowane w ogóle. W związku z tym część zadań publicznych jest świadczona przez sektor prywatny na rzecz sektora publicznego. Jedną z form współpracy między tymi dwoma sektorami, polegającą na wykorzystaniu kapitału prywatnego w celu wykonania określonego zadania publicznego jest partnerstwo publiczno-prywatne.

Pomijając ograniczenia budżetowe, jednym z czynników, który warunkuje poziomie inwestycji w infrastrukturę użyteczności publicznej, jest poziom jakości. Według J. Tirole dobra można podzielić ze względu na wiedzę o poziomie ich jakości na:

- dobra, których jakość można poznać przed spożyciem (searchgoods)

- dobra, których jakość można poznać w trakcie spożycia lub ex post (experiencegoods)

- dobra, których jakości nie można poznać, nawet po spożyciu (credencegoods)

Należy zauważyć, że dobra mogą posiadać cechy więcej niż jednej grupy. M. Moszoro zakwalifikował dobra publiczne do grupy dóbr, których jakość poznawana jest w trakcie spożycia lub ex post. Zmiana poziomu jakości wywołuje dwa efekty: przesunięcie krzywej popytu i zmianę kąta jej nachylenia

Cechy dóbr publicznych:

1. niewykluczalność (z konsumpcji) 2. nieodmawialność 3. nieodpłatność 4. niekonkurencyjność 5. krańcowy koszt dostarczenia=0 6. różna partycypacja w kosztach wytworzenia 7. zaspokajanie potrzeb zbiorowych 8. dodatnie efekty zewnętrzne

16. Analiza równowagi ogólnej - oddziaływanie podatków na całą gospodarkę

Celem modelu równowagi ogólnej jest prezentacja dochodzenia gospodarki do stanu, w którym nie można dokonać żadnej alokacji czynników wytwórczych i/lub produktów, poprawiającej czyjąś sytuację, bez pogarszania równocześnie położenia kogoś innego. Taki stan nazywa się stanem optymalności (efektywności) w sensie Pareto i jest uważany za równowagę ogólnogospodarczą. Po jego osiągnięciu nie da się w gospodarce dokonać żadnej transakcji wymiany dóbr ani realokacji czynników produkcji, które byłyby korzystne dla wszystkich uczestników rynku. Wpływ podatków na całą gospodarkę w warunkach równowagi ogólnej został opisany m.in. w modelu Herbergera.

W momencie nałożenia ogólnego podatku na dany czynnik produkcji (1) zmieniają się ceny czynników produkcji; (2) ilość pracy nie zmieni się - pozostanie na tym samym poziomie; (3) ogólna wielkość konsumpcji nie zmieni się, ale zmieni się jej struktura (to, jakie podmioty gospodarcze zgłaszają popyt na dobra konsumpcyjne).

Podatek ogólny, który jest nałożony na dany czynnik produkcji we wszystkich działach gospodarki utrzymuje efektywność alokacji na tym samym poziomie, który istniał przed nałożeniem podatku. Natomiast selektywne nałożenie podatku na czynnik produkcji tylko w niektórych gałęziach powoduje zniekształcenia, które obniżają efektywność całej gospodarki, powodują ogólny spadek dobrobytu i przynoszą stratę społeczną (którą ilustruje tzw. trójkąt Herbergera).

Zmiana kompensacyjna i ekwiwalentna.

Nadwyżka konsumenta w wielu zastosowaniach może być miarą zadowolenia konsumenta (zwłaszcza w przypadku użyteczności quasi-liniowej). Zazwyczaj błędy szacunku krzywej popytu przewyższają błędy szacunku wynikające z wykorzystania nadwyżki konsumenta. Może jednak zdarzyć się tak, że przybliżenia nie będą wystarczająco dokładne. Dlatego istnieją sposoby mierzenia zmian użyteczności bez wykorzystania nadwyżki konsumenta. Poziomy dobrobytu porównuje się wtedy za pomocą specjalnych miar zmian dochodu: wyznacza się ilość dochodu, która byłaby potrzebna, aby zrekompensować zmianę składu koszyka dóbr (nierynkowych) albo cen dóbr rynkowych, przy utrzymaniu użyteczności na niezmienionym poziomie. Wyróżniamy dwie miary zmian dobrobytu, które stosuje się w zależności od tego, co uznamy za punkt wyjściowy.

Pierwszą jest zmiana kompensacyjna (CV ) – czyli zmiana dochodu niezbędna do tego aby przesunąć konsumenta na jego początkową krzywą obojętności. Rekompensuje ona konsumentowi zmianę ceny. Zmiana kompensacyjna wskazuje ile dodatkowych pieniędzy rząd powinien dać konsumentowi, gdyby chciał dokładnie zrekompensować mu zmianę ceny. (Zmianę kompensacyjną można interpretować jako minimalną kwotę, jaką powinien otrzymać konsument gdybyśmy chcieli dokładnie zrekompensować mu wzrost cen). Dla zmiany kompensacyjnej podstawą pomiaru jest sytuacja obecna.

Drugą jest zmiana ekwiwalentna (EV)- zmiana dochodu, która jest równoważna ze zmianą ceny wyrażoną zmianą użyteczności. Czyli ile pieniędzy trzeba byłoby zabrać konsumentowi przed zmianą ceny, aby pozostawić go w położeniu równie dobrym, w jakim znalazłby się po zmianie ceny.

Dla zmiany ekwiwalentnej podstawą poziomu pomiaru jest nowy poziom użyteczności.

W ujęciu geometrycznym zmiany kompensacyjna i ekwiwalentna są dwoma różnymi sposobami wyrażania tego, „jak daleko” od siebie znajdują się obie krzywe obojętności. W każdym przypadku mierzymy odległość między dwiema krzywymi obojętności za pomocą odległości między liniami do nich stycznymi. Taka miara odległości będzie zależała od nachylenia stycznych, tzn. od cen, które wybieramy określając linię budżetu.

Wykres 8: zmiana kompensacyjna i ekwiwalentna

Ogólnie rzecz biorąc, ilość pieniędzy, jaką konsument byłby skłonny zapłacić, aby uniknąć zmiany ceny, będzie różna od ilości pieniędzy, jaka musiałaby być wypłacona konsumentowi, by zrekompensować mu zmianę ceny. Przy różnych zestawach cen pieniądz przedstawia dla konsumenta różne wartości, ponieważ mógłby za niego nabyć różne ilości konsumpcji.

W jednym przypadku jednak zmiany kompensacyjna i ekwiwalentna są takie same – mianowicie w przypadku użyteczności quasi-liniowej (rysunek). Wtedy bowiem krzywe obojętności są równoległe, a zatem odległość między nimi jest taka sama w każdym punkcie.

W praktycznych zastosowaniach przy wycenie dóbr nierynkowych zamiast wartości CV i EV stosuje się tzw. gotowość do zapłaty (ang. willingness to pay, WTP) lub gotowość do zaakceptowania rekompensaty (ang. willingness to accept, WTA). WTP stosowana jest zwykle w przypadku wyceny pozytywnych zmian dobrobytu (w stosunku do poziomu, do którego konsument „ma prawo”), WTA zaś – dla negatywnych. WTP oznacza maksymalną kwotę, jaką konsument byłby gotów zapłacić za wprowadzenie zmiany pozytywnej (dodatnia CV ) lub zaniechanie wprowadzenia zmiany negatywnej (ujemna EV ). WTA oznacza zaś minimalną kwotę, jaką konsument zgodziłby się przyjąć w zamian za wprowadzenie negatywnej zmiany (ujemna CV ) lub zaniechanie.


Wyszukiwarka

Podobne podstrony:
pytania krzyzowka nojszewska
Mechanika Semest I pytania egz
prelekcja ZUM z pytaniami
pytania przykladowe exam zaoczne(1)
pytania nowe komplet
Pytania egzaminacyjneIM
EGZAMIN PKM2 pytania2011
Podstawy Teorii Okretow Pytania nr 4 (20) id 368475
haran egzamin opracowane pytania
NAI A2 pytaniaKontrolne
OU pytania id 342624 Nieznany
BWCZ Pytania BWCZ 1 seria id 64 Nieznany (2)
Prawo handlowe pytania odp
MG pytania id 297579 Nieznany
ZiIP%20Fiz1%20pytania%20z%20I%20sprawdzianu%2030%20kwietnia%202008
Fitosocjologia pytania I termin
analiza pytania egzanim

więcej podobnych podstron