Pytania na egzamin całość
Obszary polemiki ekonomii głównego nurtu i ekonomii ewolucyjnej.
Główny nurt ekonomii (zwany też syntezą neoklasyczną) stanowi próbę połączenia różnych teorii ekonomicznych, głównie elementów teorii keynesowskiej i monetaryzmu. Jest to obecnie prawdopodobnie najbardziej popularny kierunek myślenia ekonomicznego na świecie. W historii ekonomii występowały okresy dominacji różnych teorii. Do lat 30-tych obowiązywało, zgodne z teorią neoklasyczną przekonanie, że konkurencyjny rynek potrafi skutecznie skoordynować wszystkie decyzje gospodarcze. Wierzono, że dostosowania popytu i podaży na różnych rynkach dóbr, pracy i pieniądza następują szybko poprzez zmiany cen, zatem gospodarka jako całość będzie prawie zawsze znajdowała się w stanie równowagi: pełnego zatrudnienia pracy i kapitału. Dopiero od czasu Wielkiego Kryzysu w latach 1929-1933, z jego ogromnym i uporczywym bezrobociem, datuje się prężny rozwój makroekonomii jako dyscypliny. Początkowo, odpowiedzią na kłopoty z objaśnieniem zjawisk recesyjnych stała się teoria keynesowska. Mówiła ona, że rynek pracy i rynki dóbr w zasadzie nie są w stanie dostosować się do stanu równowagi ze względu na sztywność cen, a zatem gospodarka nie musi wcale dążyć do pełnego zatrudnienia i eliminacji bezrobocia. Jeżeli stan bezrobocia trwa długo, niesie za sobą koszty społeczne, biedę i poczucie wykluczenia. Aby temu przeciwdziałać, potrzebna jest interwencja rządu (odpowiednia polityka pieniężna i fiskalna).
Główny nurt ekonomii powstał jako próba syntezy wszystkich tych kierunków. Ekonomiści głównego nurtu uważają, że gospodarka ma, co prawda, samoczynny mechanizm powrotu do pełnego zatrudnienia (tak, jak sądzą zwolennicy teorii neoklasycznej), ale działa on zbyt wolno. Uznają (tak jak zwolennicy teorii keynesowskiej), że w krótkim okresie polityka antycykliczna może być skuteczna w likwidacji bezrobocia. Sądzą przy tym (tak, jak monetaryści), że istnieją ograniczenia dla interwencji państwa. W długim okresie wzrost ilości pieniądza bez wzrostu produkcji dóbr i usług przynosi jedynie inflację, podobne są skutki ekspansywnej polityki budżetowej. Co więcej, deficyty budżetowe prowadzą do narastania długu publicznego. Konieczność jego spłaty może zmusić rząd do późniejszego podniesienia podatków i odwrócenia dotychczasowej polityki, korzystnej dla krótkookresowego wzrostu gospodarczego.
Ekonomia ewolucyjna - terminem tym określa się rozmaite koncepcje ekonomiczne, rozwijane w latach 1950-1980, które dopuszczały możliwość wyjaśniania procesów gospodarczych przez analogię z procesem ewolucji, zachodzącym w środowisku przyrodniczym.
Ekonomia ewolucyjna nawiązywała do koncepcji Karola Darwina, Jeana Lamarcka, Herberta Spencera i była skierowana przeciw metodzie oraz paradygmatowi ekonomii neoklasycznej, w szczególności instytucjonalizmowi. W opozycji do niej, za przedmiot nauki ekonomii, ekonomia ewolucyjna uznaje poznanie motywów działalności ludzi w procesie gospodarowania, określenie zasad rozwoju gospodarczego oraz zrozumienie istoty aktywności podmiotów gospodarczych i mechanizmów kierujących tą aktywnością za pomocą narzędzi nauk przyrodniczych, a nie mechaniki.
Ekonomia ewolucyjna nie izoluje sfery ekonomicznej aktywności ludzi od wpływu innych czynników, np. psychologicznych, kulturowych, socjologicznych, klimatycznych, politycznych i technologicznych. Analizuje proces gospodarczy w jego ruchu,czyli w dążeniu do równowagi nieustannie zakłócanej przez rozmaite czynniki. Podkreśla ograniczoność wiedzy ludzkiej, co ma wpływ na decyzje jednostki, które nie mogą być optymalne.
Konkurencję pojmuje w kategoriach walki właściwej dla świata przyrody, w której zwycięża silniejszy osobnik: z rynku eliminowane są podmioty niespełniające oczekiwań konsumentów, a pozostają te, które efektywnie wykorzystują zasoby i wprowadzają innowacje. Efektem naturalnej selekcji przedsiębiorstw jest rozwój gospodarczy.
2. Założenia i wnioski dla kształtowania procesów gospodarczych w kontekście teorii racjonalnych oczekiwań
Teoria racjonalnych oczekiwań to teoria przyjmująca, że uczestnicy rynku formułują swoje oczekiwania co do przyszłości, łącznie z przyszłą polityką, na podstawie informacji minionych, obecnych i przewidywanych w okresie przyszłym. Działania ich, kierowane własnym interesem z czasem czynią politykę ekonomiczną częściowo lub całkowicie nieefektywną, ale jednocześnie pozwalają wykorzystać wszystkie opłacalne możliwości.
Podstawą tej teorii jest więc założenie mówiące, że ludzie potrafią się zachowywać racjonalnie i potrafią też uszeregować stojące przed nimi możliwości w kolejności od najbardziej do najmniej preferowanych, a także postępować według tak ustalonych priorytetów. Aby tak postępować muszą mieć dokładne informacje i efektywnie je wykorzystywać, co nie jest wcale łatwe, gdyż cenne informacje są zazwyczaj kosztowne i trudne do zdobycia.
3. Równowaga rynków dóbr, pieniądza i pracy w ujęciu ekonomii keynesowskiej i neoklasycznej.
WYZNACZANIE PRODUKTU RÓWNOWAGI
Produkt równowagi- oznacza, że wydatki konsumpcyjne oraz wydatki inwestycyjne są równe produkcji globalnej. W makroekonomii mamy dwa główne podejścia dotyczące wyznaczania produktu w równowadze.
1)ujęcie klasyczne
2)ujęcie Keyne'sowskie
Założenia modelu klasycznego
1)Podmioty gospodarcze tj. przedsiębiorstwa i gospodarstwa domowe są racjonalne. Przedsiębiorstwa dążą do maksymalizacji zysku a gospodarstwa domowe maksymalizacji użyteczności.
2)Wszystkie rynki są doskonale konkurencyjne także ceny nie są stałe ( sztywne ).
3)Wszystkie podmioty dysponujące doskonałą wiedzą o warunkach rynkowych.
4)Wymiana następuje tylko wtedy, gdy na wszystkich rynkach zostały ustalone ceny
5)Oczekiwania podmiotów gospodarczych są stabilne.
Ten model produktu w równowadze zakładał pełne wykorzystania zasobów tzn. brak bezrobocia oraz brak marnotrawstwa a także nieingerencję państwa w stosunki gospodarcze.
Keynes- podważył założenia ekonomii klasycznej.
Założenia modelu
1)Płace i ceny są sztywne tzn. niezmienne
2)Równowagę można osiągnąć przy niepełnym wykorzystaniu zasobów tzn. głównie przy istnieniu bezrobocia.
3)Konieczna jest interwencja państwa w stosunki.
Stałość plac i cen.
W gospodarce występują ceny urzędowe czyli ustalone przez państwo i w związku z tym zmiana cen nie może nastąpić zbyt często. Płace w gospodarce stanowią przedmiot umów między pracownikiem a pracodawcą i te umowy mają charakter długookresowy przez co jest niemożliwa zbyt często zmiana wysokości stawki płacowej. Jeżeli są ceny monopolowe ustalone przez przedsiębiorstwa monopolistyczne to zmiana takiej ceny wiąże się z czasem.
4. Inflacja a polityka pieniężna - charakter i siła sprzężeń zwrotnych.
Głównymi narzędziami, które stosuje bank centralny, realizując politykę pieniężną, są: stopy procentowe banku centralnego, rezerwy obowiązkowe i operacje otwartego rynku. Decyzje na temat polityki pieniężnej, a zwłaszcza na temat wysokości stóp procentowych banku centralnego, mają niezwykle istotny wpływ na gospodarkę. Decydują one o krótkookresowej cenie kredytu na rynku bankowym (jeśli bank centralny obniża swoje stopy, rynkowe stopy procentowe też spadają i odwrotnie).
Polityka pieniężna wpływa przede wszystkim na poziom inflacji i siłę nabywczą pieniądza. Jeśli pieniądz jest drogi (stopy procentowe są wysokie), zmniejsza się popyt na kredyty. Kredytobiorcy - przedsiębiorstwa i gospodarstwa domowe - ostrożniej sięgają po pożyczki bankowe, obawiając się wysokich kosztów obsługi długu. W rezultacie spada ilość pieniędzy na rynku. Mniejsza ilość pieniędzy oznacza, że producentom trudniej jest znaleźć nabywców na ich wyroby, co nie pozwala na podwyżki cen. Innymi słowy, wysokie stopy procentowe banku centralnego przeciwdziałają inflacji.
Oddziaływanie banku centralnego na inflację nie jest natychmiastowe. Na to, by w reakcji na zmianę stóp procentowych mogły zajść wszystkie dostosowania gospodarcze, prowadzące ostatecznie do zmiany inflacji, potrzebny jest czas. Badania wskazują, że zwykle maksymalna reakcja inflacji ujawnia się z opóźnieniem od 1 roku do 2 lat. Decyzje banku centralnego są tylko jednym z czynników wpływających na poziom inflacji. Przykładami innych takich zjawisk są np. wahania ceny ropy na rynkach światowych, wielkość zbiorów w rolnictwie, bądź podejmowane przez władze państwowe decyzje dotyczące poziomu cen regulowanych administracyjnie.
Działania polityki pieniężnej, mające na celu utrzymanie stabilności cen, wywierają krótko- i średniookresowy wpływ na sferę realną gospodarki, w tym m.in. na tempo wzrostu gospodarczego. W szczególności podwyżki stóp procentowych mogą prowadzić do obniżenia dynamiki PKB i wzrostu bezrobocia. Jeśli stopy procentowe są wysokie, przedsiębiorcy i gospodarstwa domowe mniej chętnie sięgają po kredyty. Oznacza to jednak również rezygnację z całego szeregu wydatków, przede wszystkim inwestycyjnych, które finansowane są zazwyczaj kredytem. Mniejsze inwestycje i zakupy dóbr trwałego użytkowania oraz ogólne zmniejszenie ilości pieniędzy na rynku, mogą oznaczać gorszą koniunkturę gospodarczą.
Odwrotnie, w przypadku jeśli bank centralny obniża swoje stopy procentowe, pieniędzy na rynku przybywa. Ułatwia to sprzedaż i wzrost produkcji. Jeśli jednak pieniędzy na rynku jest za dużo, pojawia się ryzyko inflacji.
Wpływ stóp procentowych banku centralnego na inflację i bezrobocie ma jednak tylko charakter krótkookresowy i średniookresowy. W długim okresie realna wielkość produkcji nie zależy od polityki pieniężnej. Dlatego należy przyjąć, że dla zapewnienia stabilnego i długofalowego wzrostu gospodarczego, najcenniejszą rzeczą, jaką bank centralny może „dać” gospodarce, jest niska inflacja.
5. Wpływ niedoskonałej informacji na zachowania gospodarcze.
Niedoskonała informacja . Pojęcie to oznacza sytuację w której jedna ze stron posiada więcej informacji, niż druga. Może tak być w sytuacji, gdy klient nie jest w stanie w pełni ocenić jakości towaru przez co dokonuje nietrafnych zakupów (np. przypadku zakupu używanych samochodów). Drugim ważnym polem w którym ujawnia się asymetria informacji są ubezpieczania - wiąże się z pokusą nadużycia oznaczającą w tej sytuacji, że ubezpieczony swoim działaniem (lub brakiem działania) zwiększa prawdopodobieństwo wystąpienia zdarzenia od którego jest ubezpieczony. Państwo może interweniować odpowiednimi regulacjami bądź wprowadzeniem publicznych systemów zabezpieczeń społecznych (opinie na temat adekwatności tych ostatnich działań są jednak podzielone).
Ekonomiką informacji zainteresowano się w latach 70. XX w. Opiera się ona na założeniu niedoskonałości informacji, którą dysponują uczestnicy rynku, i pozwala modelować niezrozumiałe wcześniej zjawiska oraz wyjaśniać istnienie pewnych rynkowych instytucji nie całkiem ekonomicznie uzasadnionych z punktu widzenia tradycyjnej teorii ekonomii. Okazuje się bowiem, że nawet najmniejsze niedoskonałości informacji i niezerowe koszty jej uzyskania mogą mieć daleko idące konsekwencje, zmieniające wyniki analizy. Ekonomika informacji podważa, jako sprzeczne, niektóre wnioski i wyniki tradycyjnej analizy. Nie jest tak jak przez lata uważano, że niedoskonała informacja, jeśli nie jest zbyt niedoskonała, daje się sprowadzić do stanu informacji ,,prawie doskonałej”, a rynki na których występuje, zachowują się tak, jak te z doskonałą informacją.
Ekonomika informacji daje odpowiedzi na wiele pytań. dotyczących m.in. problemu selekcji, jakości dóbr, bodźców czy zakresu występowania pokusy nadużycia. W przypadku tych kwestii ceny nie rozwiązują problemu rzadkości, a różnorodność spełnianych przez nie funkcji w obliczu ukrytych charakterystyk i bodźców czyni tradycyjne narzędzia bezużytecznymi. Przełomem ekonomii informacji było uznanie, że informacja jest dobrem innym niż wszystkie, choć ma pewne cechy dobra publicznego (konsumpcja jednego podmiotu w zasadzie nie wpływa na konsumpcję innego; nawet jeśli wykluczenie kogokolwiek z korzyści z nią związanych jest możliwe, to jest ono nieefektywne). W jej przypadku istotny jest zatem zwrot z inwestycji w informację i wiedzę. Od dobra publicznego, a także każdego innego, odróżnia informację jej charakter - każda informacja jest inna, a nabywający nie może jej ocenić (gdyby mógł ją poznać straciłby powód żeby za nią płacić. Nie można także dwa razy kupić tej samej informacji (przestaje być nowa, bo kupujący już ją zna). Oznacza to, że z rynkami informacji nieuchronnie związane są niedoskonałości, szczególnie związane z tym, co właściwie jest kupowane. Aby na nie odpowiedzieć, wykorzystuje się mechanizmy pomijane przez tradycyjną teorię (np. reputacja). Istnieje tak wiele nurtów teorii informacji, że mogą być one tematem obszernych monografii.
Mechanizmy wynikające z niedoskonałości informacji dotyczące rynku pracy:
Pokusa nadużycia (hazard moralny)
Zazwyczaj nie da się dokładnie kontrolować jakości wykonywania pracy przez pracowników. Kontrakty nie precyzują wszystkich aspektów wykonywania zadań, co stwarza pracownikom możliwe nadużycia (np. bumelowania). Wynagradzanie dokładnie za to, co pracownicy zrobili, bywa niemożliwe ze względu na zbyt wysokie koszty pomiaru, jego potencjalną niedokładność oraz brak możliwości zweryfikowania oceny pracodawcy. W takim przypadku efektywnym narzędziem motywującym pracowników do pracy, a zniechęcającym do bumelowania mogą być płace motywujące, wyższe niż płace równoważące rynek.
Selekcja negatywna
Problem wyboru pojawia się najczęściej w sytuacji, w której jedni uczestnicy rynku dysponują gorszą informacją o innych uczestnikach rynku, co wpływa na użyteczność (wyrażoną np. w postaci zysku) tych pierwszych. Dobrym przykładem jest pracodawca nie znający przed zatrudnieniem (ani niedługo po) produktywności swoich pracowników. Mimo że wpływa ona na jego zysk, nie dysponuje on żadną metodą jej ujawnienia bez konieczności poniesienia kosztów. negatywna selekcja polega na tym, że w obliczu asymetrii informacyjnej na rynku lepiej poinformowani sprzedawcy (lub inni uczestnicy rynku) oferujący dobra o (naj)niższej jakości wypierają z rynku innych uniemożliwiając tym samym dokonanie wielu obustronnie korzystnych transakcji.
Signaling
Jeżeli pracodawca nie umie rozróżnić pracowników o różnych produktywnościach, to istnieje dodatnie prawdopodobieństwo, że zatrudniając dowolnego pracownika, zatrudni kogoś o niskiej produktywności. Fakt ten negatywnie wpływa na oferowaną płacę. Wpływ ten jest tym większy, im większe jest to prawdopodobieństwo. W takiej sytuacji pracownik zainteresowany jest ujawnieniem swojej prawdziwej charakterystyki.
Screening
To działanie podejmowane przez pracodawców, które pozwala rozróżnić typy pracowników. Stiglitz wymodelował to zjawisko jako jeden z pierwszych. W jego modelu pracodawcy oferując odpowiednie kontrakty stawiają pracowników przed sytuacją decyzyjną, w której pracownikom o niższej produktywności nie opłaca się akceptować kontraktów adresowanych do pracowników o wyższych produktywnościach i odwrotnie".
6. Istota i konsekwencje niezależności banku centralnego.
Rodzajem polityki gospodarczej państwa jest polityka monetarna (pieniężna), która polega na kształtowaniu podaży pieniądza. Główną zasadą polityki monetarnej jest zapewnienie odpowiedniej regulacji dopływu i odpływu pieniądza w obiegu tzn. zapewnienie odpowiedniej podaży pieniądza. Nadmiar pieniądza powoduje inflację, a niedostatek pieniądza w obiegu powoduje deflację (spadek pieniądza) i drenowanie rynku pieniężnego. W gospodarce rynkowej pieniądz jest podstawą funkcjonowania gospodarki. Głównym podmiotem polityki pieniężnej państwa jest Bank Centralny i rada polityki pieniężnej. Głównym ich celem jest zapewnienie stabilnej wartości pieniądza (cen) - przeciwdziałanie inflacji. Bank centralny pełni funkcje:
kontroluje podaż pieniądza w celu dostosowania do aktywności gospodarczej i wzrostu cen; wzrost masy pieniądza powinien odpowiadać stopie wzrostu gospodarczego; Bank Centralny jako podmiot regulacji podaży pieniądza stosuje narzędzia:
emisja pieniądza gotówkowego - emitowanie banknotów i monet, bank reguluje w ten sposób ilość pieniądza w obiegu rynkowym,
kształtowanie stopy procentowej - gospodarka ściśle zależy od wysokości stóp procentowych.; rada polityki pieniężnej poprzez obniżenie stopy procentowej może pobudzać gospodarkę i zwiększać jej efektywności,
kształtowanie stopy redyskontowej - stopa redyskontowa jest stopą procentową pobieraną przez bank centralny od pożyczek udzielanych bankom komercyjnym (często pod zastaw weksli lub innych papierów wartościowych). Wysokość stopy redyskontowej wpływa na wielkość pożyczek zaciąganych przez banki komercyjne w banku centralnym. Wzrost stopy redyskontowej powoduje, że banki komercyjne podnoszą koszt kredytu, co z kolei prowadzi do: spadku rezerw banków komercyjnych, zmniejszenia popytu na pieniądz kredytowy, ograniczenia inwestycji, spadku podaży pieniądza. Spadek stopy redyskontowej powoduje spadek kosztu kredytu, a co za tym idzie prowadzi do: ożywienia działalności inwestycyjnej, wzrostu produkcji, wzrostu rezerw banków komercyjnych i podaży pieniądza w gospodarce,
prowadzenie operacji otwartego rynku, które polegają na zakupie i sprzedaży papierów wartościowych przez bank centralny w celu zwiększenia lub zmniejszenia podaży pieniądza w obiegu. Przedmiotem operacji otwartych rynku są: krótkoterminowe obligacje skarbu państwa (weksle skarbowe), rządowe obligacje skarbowe o dłuższych terminach płatności oraz krótkoterminowe bony banku centralnego.
Powyższe operacje dokonuje się metodą dyskonta, która polega na tym, że od nominalnej wartości potrąca się kwoty należnych odsetek za okres od dnia ich płatności, zaś w dniu płatności, nabywca uzyskuje nominalną wartość tych papierów. Kupując na otwartym rynku papiery wartościowe bank centralny przyczynia się do: zwiększania rezerw w bankach, zwiększania ilości pieniądza w obiegu, prowadzi do wzrostu podaży pieniądza (rosną udzielane kredyty przez banki), prowadzi do obniżenia stopy procentowej; Z kolei sprzedaż na otwartym rynku papierów wartościowych prowadzi do przeciwnych rezultatów m.in. do zmniejszenia podaży pieniądza (ograniczone są możliwości banków do udzielania kredytów) i podwyższenia stopy procentowej,
zarządzanie rezerwami w systemie bankowym - polega na ustaleniu minimalnej ilości rezerw w gotówce w stosunku do ogólnej sumy wkładów zgromadzonych w banku. Konieczność tworzenia rezerwy obowiązkowej wynika z następujących powodów: zabezpieczenie wypłacalności banków komercyjnych oraz utrzymanie ich płynności, stworzenie instrumentu umożliwiającego regulowanie podaży pieniądza w gospodarce. Banki komercyjne mają swobodę udzielania kredytów i zdolność do kreacji pieniądza. Jeśli stopa rezerw obowiązkowych rośnie, to większa część depozytów pozostaje w skarbcu jako rezerwa obowiązkowa i powoduje ograniczenie podaży pieniądza (środki na udzielanie kredytów są ograniczone). Jeśli stopa rezerw obowiązkowych maleje, to banki udzielają więcej kredytów, a podaż pieniądza rośnie, a co za tym idzie rosną dochody i popyt globalny,
bezpośrednia kontrola kredytów bankowych poprzez wyznaczanie stopy rezerw obowiązkowych, które determinują wielkość kredytów udzielanych przez banki,
selektywna polityka kredytowa,
stosowanie preferencyjnych stóp procentowych,
oddziaływanie na kurs walutowy - bank pełni rolę centrum walutowego kraju, tzn. decyduje o zapasach złota i walut zagranicznych oraz przeprowadza operacje inwestycyjne w obrocie kursu waluty krajowej,
stabilizacyjną - polega na stabilizacji rynku pieniężnego i walutowego,
spełnia funkcję banku banków - bank centralny prowadzi rachunki innych banków komercyjnych i udziela im pożyczek,
spełnia funkcję banku państwa obsługując budżet państwa i finansując deficyt budżetu państwa, a także prowadząc rachunki rządowe, udzielając rządowi pożyczek oraz przeprowadza w imieniu rządu operacje finansowe w kraju i za granicą,
bank pełni rolę centrum walutowego kraju, tzn. decyduje o zapasach złota i walut zagranicznych oraz przeprowadza operacje inwestycyjne w obrocie kursu waluty krajowej.
Zadania rady polityki pieniężnej:
ustalanie wysokości stóp oprocentowania kredytu refinansowego, lombardowego i redyskontowego,
ustalanie zasad naliczania i wysokości stóp procentowych rezerw obowiązkowych,
ustalanie górnych granic pożyczek i kredytów zaciąganych przez NBP w zagranicznych bankach i instytucjach finansowych,
zatwierdzanie planu finansowego NBP i sprawozdania z działalności NBP,
ustalanie zasad operacji otwartego rynku,
Ekspansywna polityka monetarna - polega na takim wykorzystaniu narzędzi polityki monetarnej (np. zakupy na otwartym rynku, obniżenie stopy redyskontowej albo stopy rezerw obowiązkowych), które prowadzi do zwiększenia podaży kredytów, czyli do zwiększenia podaży pieniądza w gospodarce, co powoduje spadek stopy procentowej i prowadzi do zwiększenia wydatków inwestycyjnych i wreszcie powoduje mnożnikowy wzrost popytu.
Restrykcyjna polityka monetarna - polega na takim wykorzystaniu narzędzi polityki monetarnej (np. sprzedaż na otwartym rynku, podwyższanie stopy redyskontowej albo stopy rezerw obowiązkowych), które prowadzi do zmniejszenia podaży kredytów, czyli do zmniejszenia podaży w gospodarce, co powoduje wzrost stopy procentowej, wskutek czego inwestycje zostają ograniczone i maleje zagregowany popyt dzięki mechanizmowi mnożnikowemu..
7. Rola oczekiwań inflacyjnych w prowadzeniu polityki pieniężnej.
Podaż pieniądz - całkowita wartość znajdujących się w obiegu zasobów pieniądza, traktowanego jako środek wymiany. Podaż pieniądza powinna być dostosowana do potrzeb gospodarki- zarówno nadmierna jak i niedostateczna podaż pieniądza wpływa niekorzystnie na przebieg procesów gospodarczych. Kontrola podaży pieniądza jest zadaniem BC, realizującego politykę pieniężną państwa. Najważniejsze narzędzia:
stopy procentowe- państwo podwyższając lub obniżając je reguluje ilość pieniądza na rynku
operacje rynku pieniężnego- emisja papierów wartościowych- ściąganie kapitału z rynku, skup papierów wartościowych- zastrzyk dodatkowego pieniądza na rynku
Operacje otwartego rynku- działania banku centralnego polegające na kupowaniu lub sprzedawaniu rządowych papierów wartościowych w celu regulowania podaży pieniądza kredytowego w gospodarce, poprzez ograniczenie lub rozszerzenie zdolności kredytowej banków komercyjnych. Operacje otwartego rynku są jednym z instrumentów polityki pieniężnej państwa, zmierzającej do stabilizacji gospodarki, przeciwdziałania inflacji i pobudzania wzrostu gospodarki.
Polityka pieniężna może mieć charakter ekspansywny(łagodny)- państwo, wykorzystując instrumenty ( stopę %, stopę rezerw, operacje otwartego rynku) zwiększa podaż pieniądza w celu pobudzenia popytu globalnego, wzrostu dochodu narodowego i zatrudnienia ( powstaje tu jednak groźba inflacji), albo restrykcyjny ( twardy)- państwo ogranicza podaż pieniądza, dążąc do zmniejszenia nadmiernego popytu i związanego z tym wzrostu cen ( ten typ polityki pieniężnej wykorzystywany jest w walce z inflacją). Realizując określone cele polityki ekonomicznej, państwo posługuje się zazwyczaj odpowiednią kombinacją polityki pieniężnej i polityki fiskalnej.
Inflacja na ogół jest taka, jakiej się spodziewamy. Nasze oczekiwania przekładają się na nasze zachowania. Zarówno rząd, banki, konsumenci uzależniają swoje zachowania od spodziewanej inflacji ( rząd zechce zwiększyć wpływy na pokrycie przyszłej inflacji, banki uwzględniają ją w stopach %). Gdy spodziewamy się 7% inflacji, to nasze oczekiwania dotyczące płac- zwiększyć przynajmniej o 7%. Pracodawcy- to, co składa się na ich koszty też wzrośnie o 7%, będą, więc chcieli zwiększyć swoje ceny o ok. 8%. Wtedy banki „wmontują” te 7% w stopy %. Budżet państwa- gdy wszystkie ceny wzrosną o 7% to musi tak zaprojektować budżet, aby ściągnąć 7% więcej podatku.
8. Teoria dochodu permanentnego Miltona Friedmana.
Teoria dochodu permanentnego - stworzona przez amerykańskiego ekonomistę Miltona Friedmana w 1957 roku. Zgodnie z teorią dochodu permanentnego wielkość konsumpcji w danym okresie zależy od poziomu dochodu permanentnego, czyli przeciętnego, długookresowego dochodu gospodarstw domowych, nie zaś od wysokości ich dochodu w danym okresie. Friedman twierdził, że przejściowe zmiany dochodu ludzi nie powodują wzrostu ich konsumpcji. Ludzie planując swoją konsumpcję kierują się dochodem permanentnym, dlatego też wzrost konsumpcji w danym okresie może być tylko wynikiem zmiany dochodu, która będzie postrzegana przez konsumentów za stałą. Teoria ta stała w opozycji wobec keynesowskiej teorii konsumpcji, której podstawą była liniowa funkcja konsumpcji.
9. Egzogeniczny a endogeniczny model wzrostu gospodarczego.
Wzrost gospodarczy to proces wzrostu realnej wartości PKB na osobę. Wzrost zrównoważony to stan, w którym zmienne endogeniczne i egzogeniczne rosną w tym samym tempie. Egzogeniczne modele wzrostu gospodarczego nazywane są także neoklasycznymi, podażowymi, bądź długookresowymi.
Założeniami tego modelu są istniejące czynniki produkcji w pełni wykorzystywane oraz nie istniejące trudności związane ze zbytem wytworzonej produkcji, co oznacza, że w gospodarce występuje nieograniczony popyt. Z tego wynika, że długookresowy wzrost produkcji faktycznej jest możliwy jedynie dzięki wzrostowi produkcji potencjalnej.
Gospodarki opisywane przez te modele wykazują się dążeniem do długookresowego, zrównoważonego wzrostu. Jego stopa jest zdeterminowana przez egzogeniczną (daną z zewnątrz) stopę postępu technicznego. W modelach neoklasycznych polityka gospodarcza ukierunkowana jest na wzrost inwestycji, mający na celu zwiększenie podaży Do najbardziej znanych modeli typu egzogenicznego można zaliczyć model wzrostu Solowa
Endogeniczne modele wzrostu gospodarczego to modele, w których postęp techniczny (rozumiany jako wiedza i kapitał ludzki) jest przede wszystkim skutkiem decyzji inwestycyjnych konsumentów i producentów, którzy zawsze postępują racjonalnie. Trzecim podmiotem podejmującym decyzje o alokacji kapitału jest państwo, realizujące określoną, długookresową politykę ekonomiczną.
W endogenicznej teorii wzrostu szczególnego znaczenia nabiera analiza możliwości oddziaływania państwa na przebieg procesów wzrostu. Państwo w tych modelach ma wpływ nie tylko na poziom produkcji, ale także determinuje długookresową stopę wzrostu. Najważniejszy wniosek płynący z modeli endogenicznych mówi o tym, że motywacją powinna być jakość inwestycji, a nie ich ilość..
Modele endogeniczne wzrostu kładą nacisk na efekt pośredni polegający na tym, że wzrost inwestycji w jednej firmie przyczynia się do globalnego wzrostu produkcji poprzez zwiększenie ogólnego poziomu wiedzy i kwalifikacji.
10. Istota teorii realnego cyklu koniunkturalnego.
Teoria realnego cyklu koniunkturalnego zakłada, że wahania produkcji i zatrudnienia są wynikiem zmian realnych czynników w gospodarce przy rynkach dostosowujących się szybko i zawsze pozostających w stanie równowagi. Znaczący wkład w rozwinięcie teorii realnego cyklu koniunkturalnego wnieśli laureaci Nagrody Nobla: Kydland i Prescott.
Teoria realnego cyklu koniunkturalnego zbudowana jest na założeniu, że tempo postępu technologicznego podlega dużym fluktuacjom. Wstrząsy podażowe wywołują wahania ogólnej produkcji i zatrudnienia, ponieważ racjonalnie działające jednostki odpowiadają zmianami podaży i decyzji konsumpcyjnych na zmiany względnych cen. Zatem szoki technologiczne, przy założeniu stałego kapitału i liczby godzin pracy, powodują fluktuacje w gospodarce. Według tej teorii występowanie cykli jest związane z koniecznością oczyszczania się rynków i przywracaniem stanu równowagi wskutek szoków podażowych związanych z techniką produkcji. Powodują one zmianę produktywności czynników produkcji i zmieniają otoczenie, w których działają podmioty rynkowe. Faza nagłego przyspieszenia wzrostu wywołana "szokiem technologicznym" trwa do momentu kiedy siły rynkowe zniwelują jego działanie. Innymi słowy do momentu wyczerpania się przyspieszenia.
W teorii realnego cyklu koniunkturalnego pomijane są czynniki monetarne i uznaje się, że źródła zjawiska cyklu koniunkturalnego tkwią po podażowej stronie gospodarki. Ceny i płace w teorii realnego cyklu koniunkturalnego dostosowują się prawie natychmiast do nowych warunków, są doskonale elastyczne. Teoria ta zakłada, iż w każdym punkcie czasu podmioty znajdują się w swoim optimum, dlatego interwencja rządowa może być nieskuteczna, a nawet szkodliwa.
11. Skuteczność i efekty przywracania pełnego zatrudnienia w kontekście histerezy.
Monetaryści - ekonomiści hołdujący doktrynie klasycznej utrzymującej, że wzrost podaży pieniądza prowadzi w istocie do wzrostu cen, a nie do wzrostu produkcji.
Cechy:
przekonanie, że przywracanie pełnego zatrudnienia może się nieco przeciągnąć w czasie;
histereza jest mało istotna (bo kiedy po przejściowym szoku gospodarka powraca do stanu pełnego zatrudnienia, to jest on analogiczny do wyjściowego stanu równowagi długookresowej);
przekonanie, że powrót do pełnego zatrudnienia trwa niedługo (2-3 lata), więc najważniejszą konsekwencją zwiększenia nominalnej podaży pieniądza jest po prostu wzrost cen);
na krótką metę bodźce fiskalne lub pieniężne mogą spowodować zmiany w popycie globalnym, produkcji i zatrudnieniu (ale nie należy podejmować takich działań w praktyce, bo gospodarka po kilku latach i tak wróci do stanu pełnego zatrudnienia; poza tym powstaje niebezpieczeństwo, że polityka taka przyniesie skutki odwrotne od zamierzonych, jeśli celem polityki ekonomicznej nie jest zwiększanie przeciętnego poziomu produkcji i zatrudnienia, tylko szybkie amortyzowanie wstrząsów i zmniejszenie skali odchyleń od pełnego zatrudnienia);
działania podejmowane w krótkim okresie powinny być podporządkowane celom długofalowym;
niskie tempo wzrostu ilości pieniądza sprzyja utrzymaniu niskiej inflacji;
bardzo znaczne ograniczenie podaży pieniądza może doprowadzić do poważnego kryzysu typu keynesowskiego (bo konieczne stanie się głębokie dostosowywanie płac i cen);
obniżając wolniej stopę wzrostu podaży pieniądza, można złagodzić problemy wynikające z dostosowań płac i cen (więc recesja będzie mniej ostra);
podstawową powinnością rządu jest podnoszenie poziomu produkcji potencjalnej i pełnego zatrudnienia środkami polityki podażowej oraz ograniczenie inflacji.
Umiarkowani keynesiści
Keynesiści „na krótką metę” i monetaryści w analizie długookresowej.
Cechy:
pogląd, że gospodarka ostatecznie powróci do stanu pełnego zatrudnienia, ale dostosowywanie płac i cen przebiega dość powoli, więc powrót do równowagi może nastąpić po upływie kilku lat;
w krótkim okresie spadek globalnego popytu może spowodować silną recesję;
ważniejszy jest krótki okres;
wydłużenie recesji zmniejsza niebezpieczeństwo wystąpienia odwrotnego do zamierzonego skutku polityki stabilizacyjnej, a zarazem zwiększa potrzebę prowadzenia takiej polityki (recesje mogą być bardziej dotkliwe);
rząd powinien ponosić odpowiedzialność za politykę stabilizacyjną w krótkim okresie;
teza, że utrzymywanie wysokiego tempa wzrostu podaży pieniądza musi w końcu doprowadzić do inflacji, gdy tylko zostanie osiągnięte pełne zatrudnienie;
w bardzo długim okresie trwały wzrost gospodarczy może pobudzić tylko polityka podażowa oddziałująca na zwiększenie produkcji potencjalnej.
Nowi keynesiści - w latach 70. podejście keynesistów stało się niemodne (niedocenianie znaczenia mikroekonomii + wzrost bezrobocia i inflacji)
chcieli stworzyć mikroekonomiczne podstawy analizy keynesowskiej;
mechanizm rynkowy nie może działać prawidłowo a zdolność rynku jest rezultatem problemów z informacją, efektów zewnętrznych oraz kosztów podejmowania decyzji i kosztów wprowadzania zmian;
G. Mankiw, D. Romer - analiza powolnego dostosowywania się cen o płac (nawet małe ograniczenie elastyczności wielkości nominalnych może uzasadnić standardowe keynesowskie reakcje gospodarki);
J. Stiglitz - prawie natychmiastowa reakcja cen na rynku dóbr nie tylko pomaga w przywracaniu równowagi w gospodarce, ale może nawet zaostrzyć problemy będące przedmiotem zainteresowań keynesistów;
„nowi” zwolennicy histerezy - przesunięcie krzywej podaży może mieć trwałe następstwa (trzeba prowadzić politykę stabilizacyjną, bo zapobiega przekształcaniu się trudności krótkookresowych w długookresowe).
Skrajni (ortodoksyjni) keynesiści
Cechy:
teza o niezdolności rynków do osiągania równowagi w krótkim okresie + przekonanie, że nawet w długim okresie rynki nie osiągają równowagi;
bezrobocie keynesowskie może być permanentne, jeśli rząd nie podejmie interwencji w celu pobudzenia popytu globalnego;
stymulowanie popytu globalnego przez państwo musi być skuteczne (zawsze!);
założenie o sztywności rynku pracy (hipoteza płacy realnej - brak elastyczności płacy realnej prowadzi do nadwyżki podaży na rynku pracy);
udowodnienie niemożliwości faktu, że obniżenie wszystkich zmiennych nominalnych spowodowałoby wzrost realnej podaży pieniądza i spadek stopy procentowej (bo: niemożliwe jest skoordynowanie zmian płac nominalnych i cen; nawet gdyby udało się doprowadzić do pewnego spadku zmiennych nominalnych, efekty mogą być znikome, jeśli gospodarka jest w stanie głębokiej recesji);
wiara w skuteczność polityki fiskalnej w przezwyciężanie głębokich recesji;
ułomności koordynacji (tj. efekty zewnętrzne) występują w przypadku oczekiwań i ustalania wysokości płac.
12. Uwarunkowania efektywnej polityki makroekonomicznej w gospodarce otwartej (model Mundella-Fleminga).
Równowaga makroekonomiczna w gospodarce otwartej zachodzi w warunkach jednoczesnej równowagi na rynku dóbr, na rynku pieniądza oraz równowagi bilansu płatniczego. Oznacza to, że w punkcie równowagi istnieje taki poziom stopy procentowej i dochodu, którym odpowiada pewien poziom kursu walutowego przy których zagregowane wydatki równają się wartości produkcji krajowej, popyt na pieniądz zrównuje się z podażą pieniądza oraz bilans płatniczy znajduje się w równowadze, tj. bank centralny nie gromadzi ani nie wyzbywa się rezerw walutowych. Gromadzenie rezerw przez długi okres czasu wywołuje trudności w kontrolowaniu podaży pieniądza, zaś stale wyzbywanie się rezerw nie jest możliwe do utrzymania.
Model ten, stworzony na początku lat sześćdziesiątych XX wieku przez Roberta A. Mundella i Markusa Fleminga, opisuje makroekonomiczne powiązania gospodarki krajowej z resztą świata. Uczeni Ci już wówczas określili charakter zmian, które miały nastąpić w gospodarce światowej, tj. odejście od stałych kursów walutowych i zewnętrznej wymienialności pieniądza na złoto oraz wzrost znaczenia przepływów kapitałowych. Istnieje wiele wersji tego modelu ale wszystkie opierają się na modelu ISLM opisującym popytową stronę gospodarki i warunki równowagi w gospodarce zamkniętej1. Model ten został dostosowany do prezentowania powiązań gospodarki krajowej z resztą świata poprzez stopy procentowe i kursy walutowe. Zmiany stóp
procentowych i kursów walutowych inaczej oddziałują na sytuację w gospodarce przy różnych systemach kursów walutowych oraz różnym stopniu mobilności kapitału. Model ten pozwala zaprezentować warunki jednoczesnej równowagi na trzech rynkach
jednocześnie, towarowym (krzywa IS), pieniężnym (krzywa LM) i walutowym (krzywa FB), przy danym poziomie cen. Umożliwia także prześledzenie zmian jakie nastąpią w danej gospodarce pod wpływem stosowania przez państwo polityki makroekonomicznej (budżetowej i pieniężnej) oraz skutków zmian poziomu cen w danej gospodarce.
MODEL IS-LM-FE. JEDNOCZESNA RÓWNOWAGA NA TRZECH RYNKACH
Jednoczesna równowaga na rynku towarowym i pieniężnym następuje przy stopie procentowej doprowadzającej do zrównania popytu globalnego z dochodem równowagi. Dochód ten wyznacza popyt na pieniądz, który, przy tej stopie procentowej, równy jest realnej podaży pieniądza. Graficznie sytuacja taka jest wyrażona w punkcie przecięcia krzywej IS i LM. Jeżeli ten sam poziom stopy procentowej i dochodu równowagi doprowadza do zrównoważenia bilansu płatniczego w danej gospodarce, oznacza to także warunki równowagi rynku walutowego i punkt na krzywej FE. Jednoczesna równowaga na trzech rynkach pokazywana jest zatem przez punkt przecięcia krzywych IS, LM, FE wyznaczając warunki jednoczesnej równowagi wewnętrznej i zewnętrznej,
Wykorzystując model IS-LM-FE analizować można np. skuteczność polityki makroekonomicznej (budżetowej i pieniężnej), gospodarcze skutki zmiany poziomu cen krajowych czy zagranicznych, zmiany poziomu kursu walutowego oraz skutki zmiany poziomu krajowej stopy procentowej na warunki równowagi w gospodarce. Teoretyczna analiza tych problemów dokonywana być może w ramach różnych systemów kursu walutowego oraz przy różnym stopniu mobilności kapitału. Realna analiza tych problemów wymaga zatem określenia obowiązującego w danej gospodarce systemu kursu walutowego oraz określenia swobody przepływu kapitału, gdyż są to są to dwie
podstawowe determinanty określające warunki powadzonej analizy.
13. Powstanie i ewolucja koncepcji kapitału ludzkiego.
Kapitał ludzki - pojęcie ekonomiczne, oznaczające zawarty w każdym człowieku i społeczeństwie jako całości zasób fachowej wiedzy, umiejętności, doświadczenia, zdrowia i energii życiowej. Jest on wskaźnikiem możliwości adaptacyjnych i produkcyjnych oraz kreatywności. Kapitał ludzki nie jest wartością stałą, ale może się zmieniać w zależności od przebiegu procesu socjalizacji w społeczeństwie. Wartość kapitału ludzkiego można podnieść poprzez inwestowanie w rozwój człowieka. Kapitał ludzki jest quasi częścią swojego posiadacza; jest trwale z nim połączony i jest zawsze obecny bez względu na to, jaki rodzaj pracy ta osoba podejmuje.
Teoria kapitału ludzkiego sięga w swej istocie myśli Smitha, który doszukiwał się podobieństw między zdolnościami i umiejętnościami pracowników a właściwościami kapitału rzeczowego (model klasyczny). Stanowi ona jednak modyfikację tego modelu poprzez zerwanie z założeniem homogeniczności podaży pracy.
Teoria kapitału ludzkiego powstała w latach 70. XX wieku, została stworzona przez G.S. Beckera na podstawie prac m.in. Schultza. Zakłada ona, że człowiek jest najcenniejszym elementem zasobów przedsiębiorstwa. Wydatki na podwyższenie poziomu kapitału ludzkiego traktuje się w kategoriach czysto ekonomicznych. Inwestycje w ten czynnik, to ogół działań, które wpływają na fizyczny i pieniężny dochód oraz powiększenie zasobów w ludziach. Prowadzą one do zmiany wartości nagromadzonych zdolności pracowników i w efekcie do zmiany jakości. Inwestycje są ściśle powiązane i wzajemnie się warunkują.
Teoria kapitału ludzkiego stała się istotnym elementem wszechstronnej analizy roli jakości czynnika ludzkiego w procesach ekonomicznych. Zgodnie z tą teorią, nakłady na podnoszenie jakości tego czynnika traktuje się w kategoriach czysto ekonomicznych, a dokładniej - jako inwestycyjne. Ponieważ właśnie Schultz jako pierwszy w ten sposób potraktował inwestycje w człowieka dlatego można go uznać za twórcę teorii kapitału ludzkiego. Wprawdzie wkład człowieka w gospodarkę poruszany był przez wcześniejszych autorów, jednak ich stwierdzenia miały charakter ogólny i były formułowane w związku z innymi zagadnieniami teoretycznymi.
Obecnie do rangi aksjomatu urasta stwierdzenie, że kapitał ludzki jest źródłem bogactwa narodów. Słabo wykształcone społeczności w zglobalizowanej rzeczywistości skazane są na ubóstwo. Rozwój technologii, zwłaszcza informatycznych i telekomunikacyjnych, wymaga odpowiedniego poziomu kwalifikacji od twórców i użytkowników. Umiejętność przystosowania się do szybkich zmian we współczesnym świecie ma fundamentalne znaczenie. Od zarania cywilizacji ludzkiej przetrwanie człowieka zależy od posiadanej wiedzy i zdolności posługiwania się nią. W czasach, gdy wiedza osiągnęła status najważniejszego czynnika rozwoju, zasadnym jest przeniesienie tej zależności na poziom regionu czy państwa. Polaryzacja świata, kraju, regionu, była zauważalna zawsze. Aktualnie jednak, dzięki zdynamizowaniu procesów globalizacji, staje się ona wyraźniejsza.
14. Wycena kapitału ludzkiego w organizacji.
Omów metodę MKL
Jest to metoda wykorzystywana na poziomie organizacji w zakresie pomiaru wartości kapitału ludzkiego - Monitor Kapitału Ludzkiego (MKL) autorstwa A. Mayo. Monitor ten składa się z trzech elementów: 1-pracownicy jako aktywa, 2-motywacja i zaangażowanie pracowników, 3-wkład pracowników w tworzenie wartości. W pierwszym elemencie metody MKL przeprowadza się pomiar wartości KL(HAW) uwzględniając koszty zatrudnienia pracownika(EC) mnożąc przez indywidualny mnożnik wartości (IAM)/1000.
HAW=EC*IAM/1000 Podstawą do obliczenia wartości KL są wynagrodzenia pracownika, uwzględniając dodatkowe wydatki (podatki), jak również wszystkie pozapłacowe bonusy otrzymane przez pracownika. Indywidualny mnożnik wartości determinowany jest czynnikami: zdolnością (wiedza, doświadczenie, umiejętności), potencjałem (rozwój zawodowy i spełnianie wymagań na wyższych stanowiskach), współudziałem (pracownik tworzy wartość dla akcjonariuszy), wyznawaniem wartości (dopasowanie się do panującej kultury organizacyjnej). Każdy pracownik oceniany jest przez pryzmat tych czynników w skali od 0,1 do 2. Otrzymane wartości modyfikowane są przez dobrane do każdego miejsca pracy wagi. W ten sposób otrzymamy po podstawieniu danych do wzory wartość KL pracownika. W drugim elemencie metody MKL -motywacja i zaangażowanie pracowników w proces pracy i kolejne trzeci element - wkład pracowników w tworzenie wartości- następuje indywidualizacja wyceny KL. Każdy pracownik ma swój własny mnożnik wartości, ukazuje to różnice w grupach pracowników. Zaleta ta ogranicza możliwości zastosowania tej metody do małych i średnich przedsiębiorstw, gdyż stosowanie tak indywidualnego podejścia w organizacjach zatrudniających tysiące osób jest bardzo problematyczne.
15. Metody wnioskowania statystycznego.
Wnioskowanie statystyczne to proces myślowy polegający na formułowaniu sądów o całości przy dysponowaniu o niej ograniczoną liczbą informacji.
Wyróżnia się dwie grupy metod uogólniania wyników, definiujące jednocześnie dwa działy wnioskowania statystycznego:
Estymacja - szacowanie wartości nieznanych parametrów rozkładu
Weryfikacja hipotez statystycznych - sprawdzanie poprawności przypuszczeń na temat rozkładu
Estymacja to dział wnioskowania statystycznego będący zbiorem metod pozwalających na uogólnianie wyników badania próby losowej na nieznaną postać i parametry rozkładu zmiennej losowej całej populacji oraz szacowanie błędów wynikających z tego uogólnienia. Wyrażenie nieznana postać jest kluczem do odróżnienia estymacji od drugiego działu wnioskowania statystycznego, jakim jest weryfikacja hipotez statystycznych, w którym najpierw stawiamy przypuszczenia na temat rozkładu, a następnie sprawdzamy ich poprawność.
W zależności od szukanej cechy rozkładu można podzielić metody estymacji na dwie grupy:
Estymacja parametryczna - metody znajdowania nieznanych wartości parametrów rozkładu
Estymacja nieparametryczna - metody znajdowania postaci rozkładu populacji
W praktyce estymacja nieparametryczna jest zastępowana prostszymi metodami bazującymi na weryfikacji hipotez statystycznych.
Metody estymacji parametrycznej można w zależności od sposobu szacowania szukanego parametru podzielić na dwie grupy:
W estymacji punktowej oceną wartości szukanego parametru jest konkretna wartość uzyskana z próby (estymator), natomiast w estymacji przedziałowej operuje się pojęciem przedziału ufności, czyli przedziału, do którego z pewnym prawdopodobieństwem należy szukana wartość.
Estymacja przedziałowa to grupa metod statystycznych służących do oszacowania parametrów rozkładu zmiennej losowej w populacji generalnej. Wynikiem oszacowania nie jest tutaj ocena punktowa, tak jak w przypadku metod estymacji punktowej. Można zauważyć, że w przypadku rozkładu ciągłego prawdopodobieństwo, że ocena punktowa parametru przyjmie wartość równą wartości szacowanego parametru wynosi zero. W metodach estymacji przedziałowej oceną parametru nie jest konkretna wartość, ale pewien przedział, do którego z określonym prawdopodobieństwem należy szacowana wartość parametru.
Inny podział metod estymacji wynika ze sposobu doboru wiekości próby.
Weryfikacją hipotez nazywamy sprawdzanie sądów o populacji, sformułowanych bez zbadania jej całości. Przebieg procedury weryfikacyjnej wygląda następująco:
1. Sformułowanie hipotezy zerowej i alternatywnej
Hipoteza zerowa (H0) - Jest to hipoteza poddana procedurze weryfikacyjnej, w której zakładamy, że różnica między analizowanymi parametrami lub rozkładami wynosi zero. Przykładowo wnioskując o parametrach hipotezę zerową zapiszemy jako: H0: θ1 = θ2 .
Hipoteza alternatywna (H1) - hipoteza przeciwstawna do weryfikowanej. Możemy ją zapisać na trzy sposoby w zależności od sformułowania badanego problemu:
H1: θ1 ≠ θ2
H1: θ1 > θ2
H1: θ1 < θ2
2. Wybór statystyki testowej
Budujemy pewną statystykę W, która jest funkcją wyników z próby losowej W = f(x1, x2, ..., xn) i wyznaczamy jej rozkład przy założeniu, że hipoteza zerowa jest prawdziwa. Funkcję W nazywa się statystyką testową lub funkcją testową.
3. Określenie poziomu istotności α
Na tym etapie procedury weryfikacyjnej przyjmujemy prawdopodobieństwo popełnienia błędu I rodzaju, który polega na odrzuceniu hipotezy zerowej wtedy, gdy jest ona prawdziwa. Prawdopodobieństwo to jest oznaczane symbolem α i nazywane poziomem istotności. Na ogół przyjmujemy prawdopodobieństwo bliskie zeru, ponieważ chcemy aby ryzyko popełnienia błędu było jak najmniejsze. Najczęściej zakładamy, że poziom istotności α≤ 0.1 (np. α=0.01 ; α=0.05 ; α=0.1)
4. Wyznaczenie obszaru krytycznego testu
Obszar krytyczny - obszar znajdujący się zawsze na krańcach rozkładu. Jeżeli obliczona przez nas wartość statystyki testowej znajdzie się w tym obszarze to weryfikowaną przez nas hipotezę H0 odrzucamy. Wielkość obszaru krytycznego wyznacza dowolnie mały poziom istotności α, natomiast jego położenie określane jest przez hipotezę alternatywną.
Obszar krytyczny od pozostałej części rozkładu statystyki odzielony jest przez tzw. wartości krytyczne testu (wα), czyli wartości odczytane z rozkładu statystyki przy danym α, tak aby spełniona była relacja zależna od sposobu sformułowania H1:
P{|w|≥wα} = α gdy H1: θ1 ≠ θ2 (obszar dwustronny)
P{w ≥wα} = α gdy H1: θ1 > θ2 (obszar prawostronny)
P{w ≤wα} = α gdy H1: θ1 < θ2 (obszar lewostronny)
5. Obliczenie statystyki na podstawie próby
Wyniki próby opracowujemy w odpowiedni sposób, zgodnie z procedurą wybranego testu i są one podstawą do obliczenia statystyki testowej. Większość statystyk testowych, mających dokładny rozkład normalny, t-Studenta lub graniczny rozkład normalny, obliczamy w następujący sposób:
gdzie:
W - Statystyka testowa
a - Statystyka obliczona z próby
b - Hipotetyczna wartość parametru(ów)
c - Odchylenie standardowe rozkładu statystyki
6. Podjęcie decyzji
Wyznaczoną na podstawie próby wartość statystyki porównujemy z wartością krytyczną testu.
Jeżeli wartość ta znajdzie się w obszarze krytycznym to hipotezę zerową należy odrzucić jako nieprawdziwą. Stąd wniosek, że prawdziwa jest hipoteza alternatywna.
Jeżeli natomiast wartość ta znajdzie się poza obszarem krytycznym, oznacza to, że brak jest podstaw do odrzucenia hipotezy zerowej. Stąd wniosek, że hipoteza zerowa może, ale nie musi, być prawdziwa.
Reguły postępowania przy weryfikacji hipotez są określane mianem testów statystycznych.
16. Weryfikacja hipotez statystycznych.
Weryfikacja hipotez statystycznych dotyczy badanej populacji, która polega na podejmowaniu decyzji o prawdziwości lub fałszywości hipotez w oparciu o próbę losową.
Można wyróżnić następujące etapy weryfikacji hipotez:
sformułowana zostaje hipoteza zerowa i hipoteza alternatywna,
dokonuje się wyboru testu do weryfikacji hipotezy zerowej
następnie, przyjmujemy poziom istotności oraz wyznaczamy obszar krytyczny dla hipotezy zerowej
podejmowana jest decyzja weryfikacyjna (określane prawdopodobieństwo błędu)
Przy weryfikacji hipotez możemy popełnić dwa błędy:
- błąd pierwszego rodzaju - polegający na odrzuceniu hipotezy prawdziwej(zerowej) , pomimo, że jest ona prawdziwa,
- błąd drugiego rodzaju - polegający na przyjęciu hipotezy fałszywej
Przyjęcie i odrzucenie hipotezy w teście statystycznym nie jest równoznaczne z logicznym udowodnieniem jej prawdziwości lub fałszywości.
Prawdopodobieństwo popełnienia błędu I rodzaju definiujemy jako:
Prawdopodobieństwo popełnienia błędu II rodzaju definiujemy jako:
17. Etapy badania statystycznego.
Statystyka matematyczna to nauka o budowie reguł wnioskowania o właściwościach badanej zbiorowości statystycznej na podstawie danych dotyczących części tej zbiorowości, wybranej w sposób losowy. Zajmuje się weryfikacją hipotez statystycznych oraz estymacją (szacowaniem) punktową lub przedziałową parametrów. Etapy badania statystycznego:
programowanie badania, przygotowanie (projektowanie badania) - etap ten obejmuje czynności związane z przygotowaniem i zaprojektowaniem badania statystycznego: określenie ogólnych i szczegółowych celów badawczych, sprecyzowanie tematu oraz określenie hipotez roboczych, wybór cech statystycznych, zdefiniowanie zbiorowości statystycznej oraz jej jednostek, wybór odpowiednich metod i technik obserwacji. Źródłem uzyskania danych pierwotnych jest obserwacja, wywiad, ankieta i wtórnych sprawozdawczość przedsiębiorstw itp. Etap ten obejmuje także opracowanie formularzy statystycznych (np. ankiety) oraz makiet tablic wynikowych, opracowanie sposobów weryfikacji i kontroli materiału;
gromadzenie materiału statystycznego (pomiar lub obserwacja statystyczna) - etap ten polega na ustaleniu wartości cech ilościowych lub odmian cech jakościowych wszystkich jednostek tworzących populacje statystyczną lub u prawidłowo dobranej ich reprezentacji. Może to się odbywać za pomocą bezpośredniego pomiaru (obserwacji) lub zbieranie informacji od jednostek sprawozdawczych. Obejmuje spis, sprawozdawczość statystyczną i techniki specjalne, jak: eksperyment, ankietowanie, wywiad z kwestionariuszem itd.;
opracowanie i prezentacja danych statystycznych (tablice, wykresy) - obejmuje porządkowanie, grupowanie (polega na wyodrębnianiu jednorodnych lub względnie jednorodnych części grup w ramach większej i zróżnicowanej zbiorowości statystycznych) i zaliczanie (kwalifikowanie); podstawowe metody prezentacji danych statystycznych to przedstawienie w formie szeregów statystycznych, tablic i wykresów;
opis i wnioskowanie statystyczne (analiza wyników obserwacji) - przy zastosowaniu metody tabelarycznej, graficznej czy rachunku syntetycznego charakterystyk liczbowych.
18. Liniowe i nieliniowe modele w zjawiskach gospodarczych.
Model ekonometryczny
to formalna konstrukcja, która za pomocą jednego lub kilku równań przedstawia powiązania występujące pomiędzy elementami zjawiska ekonomicznego.
Jest to model matematyczny, który został „dopasowany” do rzeczywistości za pomocą metod statystycznych.
Modele matematyczne są:
zwięzłe,
jednoznaczne,
precyzyjne,
mają logiczną strukturę,
łatwe do wykorzystania przy użyciu komputerów.
Podział modeli ekonometrycznych
- ze względu na uwzględnienie powiązań zachodzących jednocześnie lub w kolejnych okresach czasu:
statyczne,
dynamiczne.
- ze względu na ilość równań:
jednorównaniowe,
wielorównaniowe.
- ze względu na postać funkcji opisującej charakter wpływu zmiennych X na zmienne Y:
liniowe,
nieliniowe.
Przykłady modeli ekonometrycznych
Liniowy (jednorównaniowy):
C = α + βY
gdzie: C - konsumpcja
Y - dochód narodowy
α, β - parametry modelu
Liniowy (wielorównaniowy):
C = α + βY
Y = C + I + G
gdzie: I - inwestycje
G - wydatki budżetowe
Nieliniowy:
I = α0 + α1R + α2R2 + α3Y + α4Y2
gdzie: R - stopa procentowa
Dynamiczny:
Ct = α0 + α1Yt-1
It = β0 + β1(Yt-1 - Yt-2)
Yt = Ct + It + Gt
gdzie: „t”, „t-1”, „t-2” oznaczają kolejne okresy czasu.
19. Błędy w modelach ekonometrycznych.
Błędy prognozy ex ante są miarą dokładności prognoz statystycznych.
Do wyznaczenia mierników ex ante wykorzystuje się najczęściej błędy predykcji tj.
gdzie:
- zmienna losowa „możliwe realizacje zmiennej prognozowanej Y dla t > n,
- zmienna losowa „możliwe prognozy zmiennej prognozowanej Y dla t > n.
Rodzaje błędów ex ante dla predykcji punktowej
1. Obciążenie predykcji.
E(Dt)
Jego wartość określa nam o ile średnio, wyliczone prognozy, będą przeszacowane/niedoszacowane.
dla:
E(Dt) > 0 - prognozy niedoszacowane
E(Dt) < 0 - prognozy przeszacowane
2. Średni błąd predykcji
Wskazuje o ile średnio rzeczywiste wartości prognozowanej zmiennej będą się odchylać od wartości oszacowanych prognoz.
3. Względny błąd predykcji
Wskazuje jaki procent obliczonej prognozy wynosi średni błąd predykcji.
Rodzaje błędów ex ante dla predykcji przedziałowej
Wiarygodność predykcji (prawdopodobieństwo spełnienia się prognozy) - oznacza procent trafnych prognoz przedziałowych.
Precyzja predykcji(połowa długości przedziału predykcji
) - określa maksymalny błąd prognozy przedziałowej (przy danym poziomie wiarygodności γ).
Względna precyzja predykcji wyznacza stosunek precyzji predykcji przedziałowej do prognozy punktowej.
Im krótszy przedział predykcji, tym użyteczniejsza prognoza
Błędy prognozy ex post - statystyki używane do późniejszej oceny dokładności prognozowania; są one wynikami porównania przeszłych prognoz ze znanymi już prawdziwymi wartościami prognozowanych wielkości.
Błąd bezwzględny
Bezwzględny błąd prognozy ex post w czasie t wynosi:
gdzie:
yt - realizacja zmiennej Y w chwili t (wartość rzeczywista, zaobserwowana),
- prognoza zmiennej Y w chwili t.
n - liczba wyrazów w szeregu czasowym
Błąd względny]
Względny błąd ex post w chwili t wynosi:
Średni względny błąd prognozy
Średni względny błąd prognozy ex post w okresie empirycznej weryfikacji:
,
gdzie okresem czasowym jest podział czasowy [t + 1,T].
Średniokwadratowy błąd prognozy
Średni kwadratowy błąd prognozy ex post w okresie empirycznej weryfikacji:
Wskaźnik ten mierzy o ile odchylają się rzeczywiste relacje zmiennej prognozowanej od obliczonych prognoz. Systematyczne obliczenie tego wskaźnika daje cenne informacje o rzędzie dokładności sformułowanych prognoz. Szybki napływ informacji z danych empirycznych, pozwala na podstawie wartości omawianego wskaźnika, określić na ile jest jeszcze aktualny model będący podstawą prognozowania.
Wartość wskaźnika s * jest porównywana z odchyleniem standardowym reszt modelu
Przyjmuje się, że jeśli s * < s , wtedy wektor prognoz można uznać za zadawalający.
20. Modelowanie i prognozowanie zjawisk sezonowych.
Prognozy ekonomiczne są nieodzowne do prowadzenia właściwej polityki gospodarczej, planowania i sterowania rozwojem gospodarczym. Są one naukowym uzasadnieniem strategii gospodarowania i sposobów bezpośredniego wpływu na ekonomikę. Konstrukcja prognoz gospodarczych wykorzystywana jest w kształtowaniu obrazu wzrostu gospodarki, jej poszczególnych gałęzi lub wybranych zjawisk społeczno-gospodarczych w celu określenia ogólnego kierunku rozwoju badanych wielkości ekonomicznych w przyszłości. Tak więc prognoza jest to konkretny wynik wnioskowania w przyszłość na podstawie znajomości modelu ekonometrycznego opisującego pewien wycinek sfer zjawisk ekonomicznych. Konstrukcja modelu ekonometrycznego wymaga przejścia kilku etapów:
określenie zjawisk poddanych badaniu i dokonanie wyboru postaci analitycznej funkcji służącej za podstawę prognozowania (dobór odpowiednich zmiennych objaśniających),
zabranie danych statystycznych, na podstawie których szacuje się parametry strukturalne i parametry stochastyczne struktury modelu,
przeprowadzenie estymacji parametrów modelu,
weryfikacja modelu,
wykorzystanie zbudowanego modelu w planowaniu.
Modele ekonometryczne wykorzystywane są najczęściej w ekonomii, zarządzaniu, finansach, bankowości, rachunkowości, ubezpieczeniach i marketingu. Budowa modeli ekonometrycznych w planowaniu dotyczy takich wielkości, jak: wzrost. wielkość i struktura zatrudnienia, inflacja, bilans handlowy, kursy akcji i walut na giełdzie, stopy procentowe, rynek kapitałowy, sprzedaż w przedsiębiorstwie, obrót finansowy, ryzyko gospodarcze itd. W planowaniu wykorzystywane są metody oparte na modelach ekonometrycznych:
modele szeregu czasowego z wahaniami sezonowymi - w celu ustalania analitycznej postaci trendu (wyznaczenie kierunku rozwoju badanego zjawiska w czasie), charakteryzują się stałą postacią analityczną i stałymi parametrami; stosowane są tak długo, jak długo spełniona jest zasada dynamicznego status qwo (wypadkowa oddziaływania wszystkich czynników na badane zjawisko jest w przybliżeniu stała); wykorzystuje się metody: teoretyczne (krzywych wzrostu) służących do badania popytu na dobra trwałego użytku a skali makro, metody graficzne i empiryczne, oraz metody badania dynamicznej wartości trendu za pomocą niżej wymienionych modeli:
model trendu liniowego,
model trendu kwadratowego,
model trendu trzeciego stopnia,
model wykładniczego trendu liniowego,
model wykładniczego trendu kwadratowego,
model wykładniczego trendu trzeciego stopnia,
modele adaptacyjne bez wahań sezonowych - stosowane są jeśli zasada dynamicznego status qwo nie jest spełniona; charakteryzują się tym, że zarówno postać analityczna, jak i parametry ulegają zmianom; wykorzystuje się modele:
modele wyrównania wykładniczego Browna: prosty (składa się z jednego równania), liniowy (składa się z 4 równań) i kwadratowy,
modele wyrównania wykładniczego Holta-Wintersa: model addytywny i multiplikatywny.
21. Analiza ekonomiczna w procesie podejmowania decyzji.
Analiza ekonomiczna - metoda badania procesów gospodarczych, polegająca na rozpatrywaniu związków zachodzących pomiędzy poszczególnymi elementami tych procesów.
Może być stosowana zarówno do badania zjawisk i procesów gospodarczych zachodzących w skali całej gospodarki (analiza makroekonomiczna), jak również zjawisk i procesów występujących w ramach poszczególnych jednostek gospodarczych i instytucji (analiza mikroekonomiczna). Analiza ekonomiczna umożliwia stawianie diagnoz, ułatwia podejmowanie decyzji, a także sprzyja racjonalizacji procesów gospodarczych, zarówno w skali makro-, jak i mikroekonomicznej.
Celem analizy ekonomicznej jest przygotowanie dla kierownictwa informacji ekonomicznej, wynikającej z zapoznania się z poszczególnymi zjawiskami, procesami i faktami. Analizowane zjawiska, procesy czy fakty zostają poddane ocenie. Jeżeli ocena ta jest negatywna, to z analizy powinny wynikać sposoby usprawnień, a także ewentualne ich skutki, co bardzo ułatwia podejmowanie właściwej decyzji.
Charakterystyczną cechą analizy w gospodarce rynkowej jest bezpośrednie wykorzystanie jej w procesie zarządzania. Wyniki analizy stanowią podstawę do weryfikacji słuszności decyzji podjętych w przeszłości oraz ustalenie punktu wyjścia zamierzeń bieżących i przyszłościowych. W bieżącej działalności przedsiębiorstwa analiza ekonomiczna ma na celu jak najszybsze dostarczenie informacji o zakłóceniach tej działalności w stosunku do stanu będącego podstawą porównań. W fazie oceny i weryfikacji rezultatów działalności przyszłych okresów analiza dostarcza informacji o efektywności gospodarowania oraz pozycji przedsiębiorstwa w branży i na rynku. Pozwala, więc na dobre przygotowanie przyszłej działalności wyrażonej w strategii rozwoju przedsiębiorstwa.
Rodzaje analizy ekonomicznej.
Regulowanie i sterowanie procesami gospodarczymi w przedsiębiorstwie wymaga poddawania analizie zarówno stanów tych procesów, jak i przebiegu oraz wyników osiąganych w danym czasie. Przyjęcie kryterium przedmiotowego lub czasowego umożliwia wyróżnienie kilku rodzajów analizy ekonomicznej.
Uwzględniając kryterium przedmiotowe, należy przede wszystkim wyodrębnić analizę:
• makroekonomiczną
• mikroekonomiczną
Przedmiotem analizy makroekonomicznej są stany i wyniki ekonomiczne całej gospodarki narodowej. Sporządzają ją centralne organy administracji państwowej, tj. Centralny Urząd Planowania, Ministerstwo Finansów, Główny Urząd Statystyczny.
Zadaniem analizy mikroekonomicznej jest natomiast badanie stanów i wyników działalności ekonomicznej i podmiotów gospodarczych.
W ramach analizy mikroekonomicznej można wyodrębnić analizy dziedzinowe, obejmujące poszczególne dziedziny działalności gospodarczej, np. analizę gospodarki materiałowej, analizę zatrudnienia i płac, oraz analizy problemowe, dotyczące głównych w danym okresie problemów gospodarczych, np. wydajność pracy, kosztów własnych produkcji, obrotów aktywów.
Analizę ekonomiczną ze względu na przyjęty horyzont czasowy można podzielić na: analizę ex post (retrospektywną), analizę ex ante (antycypacyjną), tę ostatnią zaś na analizę taktyczną (średniookresową) oraz analizę strategiczną (długookresową).
Analiza ex post, zwana także retrospektywną, należy do najlepiej opracowanych rodzajów analizy ekonomicznej. Może być przeprowadzona na wszystkich szczeblach zarządzania w przedsiębiorstwie. Jej podstawowym celem jest przeprowadzenie badań strukturalnych i przyczynowych w odniesieniu do minionych zadań gospodarczych w przyjętym przedziale czasu (kwartał, rok). Dzięki wynikom analizy ex post można nie tylko wyjaśnić zmiany, jakie zaszły w przedsiębiorstwie jako całości, lecz również w poszczególnych wycinkach jego działalności. Można także, wykorzystując uzyskane wyniki, zapobiegać w przyszłości zmianom niepożądanym, a także utrwalać tendencje w zarządzanych obiektach gospodarczych.
Analiza ex ante, zwana także antycypacyjną, podobnie jak analiza ex post może być przeprowadzana na wszystkich poziomach zarządzania w przedsiębiorstwie. Pozwala ustalać wyniki przewidywanych procesów gospodarczych we wszystkich dziedzinach działalności oraz w przedsiębiorstwie jako całości. Uwzględnia ona zarówno czynniki te, które działały wcześniej, jak i te, które mogą się pojawić w przyszłości. Analizę ex ante wykorzystuje się we wszystkich procesach decyzyjnych, a przede wszystkim planowania.
22. Decyzje a skutki prawne w sferze majątkowej.
Czynność prawna - czynność konwencjonalna (skonstruowana przez normę prawną) podmiotu prawa cywilnego, zawierająca treść określającą konsekwencje prawne zdarzenia prawnego. Jest to całość zdarzenia prawnego, w skład którego wchodzi co najmniej jedno oświadczenie woli.
Czynności prawne są aktami o doniosłości społecznej, ponieważ kształtują sytuację prawną nie tylko tych podmiotów, które dokonują tych czynności, ale i innych podmiotów „uwikłanych” w stosunki prawne. Zgodnie z art. 56 kc, czynność prawna wywołuje nie tylko skutki w niej wyrażone, lecz również te, które wynikają z ustawy, z zasad współżycia społecznego i z ustalonych zwyczajów. Dlatego w prawie polskim instytucja czynności prawnej uwzględnia nie tylko akty woli działających podmiotów, ale również interesy innych osób.
Niewłaściwe decyzje majątkowe są brzemienne w skutkach, a ich dokonywanie bez odpowiedniej wiedzy lub wsparcia prawnego może powodować skutki odczuwane przez wiele lat.
|
23. Ocena umów pomiędzy podmiotami gospodarczymi.
Działalność gospodarcza to działalność zarobkowa: wytwórcza, handlowa, usługowa, budowlana oraz poszukiwanie, rozpoznawanie i eksploatacja zasobów naturalnych wykonywana w sposób zorganizowany i ciągły.
Przedsiębiorcą jest osoba fizyczna, osoba prawna i jednostka organizacyjna niebędąca osobą prawną, posiadająca zdolność prawną - wykonująca we własnym imieniu działalność gospodarczą. Za przedsiębiorców uznaje się także wspólników spółki cywilnej w zakresie wykonywanej przez nich działalności gospodarczej. Pojęcie wolności gospodarczej - podejmowanie, wykonywanie i zakończenie działalności gospodarczej jest wolne dla każdego na równych prawach z zachowaniem warunków określonej przepisami prawa. Podstawę wolności gospodarczej stanowi:
wolność w sferze własności, tzn. każdy może być właścicielem, a każdy właściciel ma określone prawa i możliwości,
wolność osobista, np. wolność wyboru miejsca zamieszkania lub prowadzenia działalności gospodarczej, wolność wyboru zajęcia,
wolność konkurencji - swoboda występowania w gospodarce jako jeden z podmiotów. Konkurencja to współzawodnictwo, każdy może współzawodniczyć z innymi,
wolność umów (zasada swobody umów w kodeksie cywilnym) - swobodne kształtowanie stosunków między przedsiębiorstwami, legalne prawo używania własności prywatnej w sposób, jaki właściciel uważa za słuszny.
W ramach podejmowania działalności gospodarczej można wyróżnić takie swobody jak:
swoboda wyboru przedmiotu działalności gospodarczej;
swoboda wyboru formy organizacyjnej działalności gospodarczej;
swoboda doboru środków majątkowych służących podjęciu działalności;
swoboda w kwestii podjęcia działalności gospodarczej osobiście lub przy wykorzystaniu pracowników najemnych;
swoboda wyboru siedziby podmiotu działalności gospodarczej.
Prowadzenie działalności gospodarczej natomiast należy łączyć z następującymi swobodami:
swobodą w zakresie nabywania i zbywania towarów i usług;
swoboda umów;
swobodą ustalania cen na własne towary lub usługi;
swobodą rywalizacji z innymi podmiotami działalności gospodarczej;
swobodą wyboru koncepcji i programu gospodarowania;
swobodą wyboru miejsca prowadzenia działalności;
swobodą w zakresie zorganizowania przedsiębiorstwa.
Ograniczenie wolności (reglamentacja) działalności gospodarczej jest dopuszczalne, w myśl zasady konstytucyjnej, tylko w drodze ustawy i ze względu na ważny interes publiczny. Przedsiębiorca może podjąć działalność gospodarczą po uzyskaniu wpisu do rejestru przedsiębiorców w Krajowym Rejestrze Sądowym albo wpisu do Ewidencji Działalności Gospodarczej. Podjęcie i wykonywanie działalności gospodarczej może wiązać się dodatkowo z obowiązkiem uzyskania przez przedsiębiorcę koncesji, zezwolenia, licencji, zgody albo wpisu do rejestru działalności regulowanej. Niezależnie od tego przedsiębiorca jest obowiązany dopełnić formalności i uzyskać NIP oraz REGON lub PESEL. Wykonywanie działalności gospodarczej bez wymaganego zgłoszenia do ewidencji lub wpisu do rejestru działalności regulowanej albo bez wymaganej koncesji bądź zezwolenia podlega karze ograniczenia wolności, lub grzywny.
Wolność umów polega na tym, że strony zawierające umowę mogą ułożyć stosunek prawny według swego uznania zgodnie z zasadami współżycia społecznego, mając jednak na uwadze ograniczenia wynikające z przepisów prawa (KC). Strony umowy mogą swobodnie decydować o tym, czy w ogóle zawierać umowę, z kim ją zawrzeć, i jaką treść nadać umowie. Ograniczenia zasady wolności umów, przewidziane przepisami, powinny mieć uzasadnienie w interesie społecznym. Typowym przykładem takiego ograniczenia jest zakaz zawierania umów, w których jedna ze stron zobowiązuje się popełnić przestępstwo. Uzasadnienie ograniczenia swobody stron jest w takim przypadku oczywiste.
24. Rola państwa w redystrybucji dochodu narodowego.
Podstawowymi narzędziami za pomocą których państwo dokonuje redystrybucji dochodu narodowego są:
• system podatkowy
• wydatki z budżetu
• składki na ubezpieczenia społeczne
• oddziaływanie na system cen, opłat
Redystrybucja w formie opodatkowania opiera się na zasadzie stawki wzrastającej wraz ze wzrostem dochodów (podatki progresywne).
Wydatki „państwa dobrobytu” mogą dotyczyć grup społecznych o szczególnie niskich dochodach. W ten sposób niweluje się nierówność społeczną i jednocześnie oddziałuje się na strukturę konsumpcji oraz dostęp do preferowanych społecznie dóbr i usług w takich dziedzinach życia jak np. kultura, oświata, szkolnictwo wyższe, służba zdrowia, mieszkalnictwo. Państwo może także dokonywać redystrybucji dochodów przez interwencyjne zmiany relacji cen kształtujących się na rynku (np. w formie kontroli czynszów, cen gwarantowanych dla rolników)
Głównymi formami pomocy ze strony państwa są różnego typu świadczenia pieniężne, a także świadczenia w naturze.
• świadczenia pieniężne możemy podzielić na:
• świadczenia dofinansowywane przez państwo (emerytury, renty, zasiłki inwalidzkie i chorobowe, zasiłki dla bezrobotnych)
• świadczenia finansowane przez państwo w całości (zasiłki dla osób o niskich dochodach, zasiłki dla niepełnosprawnych, dodatki rodzinne, dodatki mieszkaniowe )
• świadczenia w naturze to np. świadczenia w ramach powszechnej służby zdrowia i oświaty
Redystrybucyjna funkcja państwa wzbudza nieco mniejsze kontrowersje niż dwie pozostałe funkcje. Jednakże tradycyjny sposób jej realizacji doprowadził do poważnych sprzeczności między zasadą sprawiedliwości społecznej a wymogami efektywności ekonomicznej. Nieprawidłowo skonstruowany oraz zbyt mocno rozbudowany system ubezpieczeń i świadczeń nie wpływa korzystnie na system motywacji do pracy i wywołuje problemy z jego dalszym finansowaniem. Państwo choć dokonuje transferów na masową skalę to jednak w praktyce okazuje się, że nie trafiają one zawsze do tych, którzy najbardziej ich potrzebują.
25. Podstawowe obszary polityki społecznej.
Można powiedzieć, iż w codziennym życiu co krok mamy do czynienia z polityką społeczną. Zajmuje się ona bowiem problemami, które spotykają i dotyczą każdego z nas. Są to problemy:
- ubóstwa, a więc stanu gdzie jednostce lub jakiejś grupie społecznej brakuje środków do życia, które są jej niezbędne do tego aby mogła zaspokoić swoje podstawowe potrzeby. Za podstawowe potrzeby uznaje się te, które w danym społeczeństwie są niezbędne do prawidłowego, normalnego funkcjonowania.
- bezrobocie
- problemy rodzinne oraz problemy dzieci
- bezdomność - za bezdomnych uznaje się ludzi, którzy w wyniku wypadków losowych lub w wyniku własnych zachowań znalazły się na najgłębszym skraju biedy, ubóstwa.
- sprawami mieszkaniowymi
- niepełnosprawnością - niepełnosprawność od paru lat stała się powszechnie uznawanym problemem społecznym, a to głównie z tej racji, iż zaczęła ono wyodrębniać ludzi, którzy dotknięci zostali niepełnosprawnością i przy braku właściwej i odpowiedniej edukacji spycha niepełnosprawność na społeczny margines.
Polityka społeczna zajmuje się także różnymi społecznymi zagrożeniami, wśród których wymienić należy przede wszystkim: alkoholizm czy uzależnienia patologiczne, jak również przestępczość. Warto podkreślić, że przestępczość w ostatnich latach bardzo wzrosła, jest to zjawisko niepokojące, tym bardziej, że wzbudza ono coraz mocniejsze powszechne poczucie zagrożenia.
Inną kwestią jest także narkomania, która jest nadal narastającym problemem niemal we wszystkich krajach świata. I To, co trzeba podkreślić to fakt, iż zjawisko to jest trudne do statystycznego ujęcia podobnie jak bezdomność.
26. Kategorie socjologiczne.
Kategoria socjologiczna jest jedną z odmian zbiorowości ludzkich i jest to zbiór ludzi podobnych pod względem jakiejś cechy istotnej społecznie, która przesądza o realnym podobieństwie sytuacji życiowej, interesów i szans osób należących do tego zbioru. Osoby te nie posiadają jednak zbiorowego poczucia odrębności, które tworzyłoby z nich jakiś realny podmiot życia społecznego. Coś ich wyróżnia, a element wyróżniający jest istotny społecznie. Członków takiej zbiorowości łączy tzw. „więź obiektywna”, a wśród czynników generujących taką więź wskazuje się płeć, wiek, rasę, obywatelstwo, teren zamieszkania, rodzaj pracy, itp. Przykładem kategorii socjologicznej może być zbiór jednostek zamieszkujących wielkie miejskie blokowiska; ich sytuacja życiowa cechuje się określonym podobieństwem warunków życia i typu sąsiedztwa, które różni się od warunków zamieszkiwania w kamienicy czy we własnym domu. Jako zbiorowość jednostki te nie posiadają jednak żadnych wspólnych celów, które krystalizowałyby z nich jakiś zbiorowy podmiot życia społecznego.
Pozostałe odmiany zbiorowości ludzkich to: populacja, zbiór statystyczny, kategoria społeczna, organizacja społeczna. Przy tym populacja jest zbiorem najbardziej ogólnym, a organizacja społeczna zbiorem najbardziej zintegrowanym. Kategoria socjologiczna plasuje się pomiędzy zbiorem statystycznym a kategorią społeczną.
27. Metody badawcze w socjologii.
Metody badań socjologicznych to metody wypracowane w socjologii dla bardziej obiektywnego oglądu zjawisk i procesów społecznych.
Określone metody badawcze związane mogą być z daną szkołą socjologiczną czy też mogą być bardziej efektywne, jeżeli założone hipotezy badawcze wynikają z określonych paradygmatów w socjologii. Przykładowo w ujęciu strukturalno-funkcjonalnym, które opisuje system społeczny jako pewną całość, bardziej przydatna jest metoda wywiadu, przy zastosowaniu wywiadu kwestionariuszowego niż obserwacja uczestnicząca, która może być bardziej przydatna, jeżeli badacz wychodzi z podejścia etnometodologicznego.
Zasadnicze rodzaje metod badawczych w socjologii ;
metoda badań dokumentów :
metoda badań dokumentów osobistych
analiza treści
obserwacja
eksperyment
socjometria
wywiad :
wywiad kwestionariuszowy
ankieta
wywiad swobodny
wywiad biograficzny
Podział metod ;
metody badań socjologicznych podzielić można przede wszystkim na:
metody jakościowe
metody ilościowe
28. Zastosowanie metod matematycznych w ekonomii.
Ekonomia matematyczna - modeluje funkcjonowanie układów gospodarczych (pojedynczego konsumenta, grupy konsumentów, gospodarstwo domowe, firma, branża, gospodarka kraju). Postępowanie tej sfery polega na tym, że czyni się pewne założenia i bada się ich konsekwencje o wartości układów gospodarczych. Układ gospodarczy zapisuje się za pomocą równań. W skład ekonomii matematycznej wchodzi teoria wzrostu, przy pomocy której bada się tempo wzrostu PKB w różnych warunkach funkcjonowania gospodarki. Modele w ekonomii matematyczne różnią się od pozostałych tym, że mają charakter teoretyczny, pozwalają lepiej zrozumieć funkcjonowanie gospodarki i dość rzadko są weryfikowalne empirycznie.
Ekonometria - jest to nauka, która zajmuje się pomiarem za pomocą metod statystycznych i matematycznych konkretnych ilościowych prawidłowości zachodzących w życiu gospodarczym. Zjawiska te muszą być: mierzalne, stabilne w czasie, muszą być dane statystyczne, mierzone rzetelnie i uczciwie. Ekonometria posługuje się modelami ekonometrycznymi, które opisują: dynamikę zmiennych ekonomicznych, rozkłady lub strukturę tych zmiennych, zależności lub współzależności zjawisk ekonomicznych. Cechą tych modeli jest to, że mają charakter: konkretny (zjawiska określane są przestrzennie i czasowo) i stochastyczny (występuje w nich składnik losowy).
Teoria podejmowania optymalnych decyzji - istota tej teorii osadzona jest ściśle w teorii racjonalnego działania i gospodarowania. Polega na minimalizacji nakładów, aby osiągnąć dany cel i maksymalizacji zysku, gdy dane są środki.
Łączy je to, że w każdej z tych sfer wykorzystuje się modele matematyczne.
29. Międzynarodowe stosunki gospodarcze, handel i przepływ czynników produkcji.
Międzynarodowe stosunki gospodarcze stanowią część ekonomii, czyli nauki o sposobach i narzędziach za pomocą, których społeczeństwa decydują o alokacji środków produkcji w celu zaspokojenia potrzeb, oraz międzynarodowych przepływów czynników produkcji (ziemia, praca, kapitał, technologia, myśl naukowa)
Handel zagraniczny to odpłatna wymiana towarów i usług z partnerami mającymi stała siedzibę poza granica państwa. Odnosi się do dóbr materialnych. Formy to eksport i import. Import polega na przywozie towarów z zagranicy w celu wykorzystania ich na rynku wewnętrznym oraz na przyjęciu usług od cudzoziemców. Eksport to wywóz za granicę towarów pochodzenia krajowego lub w znacznym stopniu przetworzonych w kraju w celu ich sprzedaży oraz świadczenie usług cudzoziemcom.
Przyczyny eksportu:
-Nadmiar określonych towarów na rodzimym rynku, przy ich jednoczesnym braku na rynkach zagranicznych
-różnice komparatywne kosztów i cen w ujęciu międzynarodowym.
Przyczyny importu
-niedobór określonych towarów na rynku rodzimym
-koszty produkcji wyższe w stosunku do zagranicy
- potrzeba zaspokojenia zróżnicowanego [popytu na towary lub usługi.
W klasycznej i neoklasycznej teorii ekonomii rozróżnia się 3 podstawowe czynniki produkcji: ziemię, pracę i kapitał.
Ziemia jako czynnik produkcji jest rozumiana niezwykle szeroko. Pojęcie to obejmuje kopaliny, wody podziemne i powierzchniowe, terytorium, faunę, florę i atmosferę.
Praca jest rozumiana jako fizyczna zdolność człowieka do wykonywania pewnych czynności łącznie z jego kwalifikacjami i motywacjami.
Współcześnie upowszechnia się utożsamianie pracy z kapitałem ludzkim.
Kapitał jako czynnik produkcji jest rozumiany w ujęciu rzeczowym (a nie finansowym). Tworzą go maszyny i urządzenia służące do produkcji innych dóbr.
Głównym motywem przemieszczania się czynników produkcji przez granice jest chęć uzyskania wyższej stopy zysku.
Migracja siły roboczej ma miejsce gdy występuje różnica w poziomie płacy między krajem a zagranicą.
30. Międzynarodowa polityka makroekonomiczna.
Polityka handlowa to ogół decyzji rządowych dotyczących wymiany międzynarodowej. Występuje w dwóch podstawowych formach: polityki wolnego handlu i polityki protekcjonizmu.
Polityka wolnego handlu oznacza brak oddziaływania rządu na handel zagraniczny i pozostawienie podmiotom gospodarczym pełnej swobody w zakresie kształtowania rozmiarów, struktury asortymentowej i kierunków geograficznych eksportu i importu.
Polityka protekcjonizmu oznacza wykorzystywanie przez rząd określonych instrumentów ekonomicznych i administracyjnych w celu podporządkowania decyzji podmiotów gospodarczych w zakresie handlu zagranicznego realizowanym celom ogólnogospodarczym, czasem również politycznym.
Definicje polityki wymiany gospodarczej z zagranicą (polityki handlowej) zawierają dwa elementy, a mianowicie cele i narzędzia, które służą do osiągnięcia wytyczonych celów. Jest ich bardzo dużo, a wybór zależy od realizowanego celu.
W literaturze narzędzia, w zależności od kryterium, najczęściej dzieli się na:
- administracyjnego i rynkowego oddziaływania,
- selektywnego i globalnego oddziaływania,
- instrumenty polityki pieniężno-kredytowej, fiskalno-budżetowej, handlowej i walutowej.
W polityce wymiany gospodarczej z zagranicą (polityce handlowej), państwo może stosować zakazy i nakazy (narzędzia administracyjnego oddziaływania).
W gospodarce rynkowej ich stosowanie jest jednak ograniczone. Nie jest ono zgodne z zasadą wolności, która jest podstawą państwa demokratycznego. Najczęściej mamy do czynienia z instrumentami pośredniego oddziaływania, które opierają się na wykorzystywaniu mechanizmu rynkowego.
Państwo może również stosować narzędzia, które oddziaływają na całokształt stosunków gospodarczych z zagranicą (globalne) oraz na niektóre wybrane aspekty, np. wzrost obrotów usług, poprawa sytuacji w bilansie handlowym itp. (selektywne). Ponadto państwo oddziaływujące na wymianę gospodarczą z zagranicą oprócz typowych narzędzi polityki handlowej (cła, opłaty wyrównawcze, subwencje eksportowe itd.) stosuje wiele narzędzi właściwych polityce makroekonomicznej (np. zmiany stóp podatkowych, kursu walutowego itp.).
Narzędzia taryfowe.
Cło jest to opłata nakładana przez państwo na towar w momencie przekraczania przez niego granicy celnej. Historycznie jest to najstarszy instrument polityki handlowej. W przeszłości cła stanowiły ważne źródło dochodu państwa, a także ochraniały własną produkcję.
Narzędzia pozataryfowe.
Do pozataryfowych narzędzi polityki handlowe zaliczamy wszystkie pozacelne środki tej polityki. Są to takie instrumenty, które ograniczają lub zniekształcają handel międzynarodowy, zmieniają jego strukturę geograficzną i towarową. Narzędzia pozataryfowe w ujęciu historycznym są środkami nowszymi w stosunku do cła. Występowały one również w przeszłości (epoka merkantylizmu), jednak nie w tak szerokiej skali. Współcześnie rozwinęły się wraz z liberalizacją stawek celnych po II wojnie światowej. Często, bowiem redukcji ceł towarzyszyło wprowadzenie innych barier handlowych. Dopiero w ostatnich latach, w wyniku porozumień zawartych przez GATT w ramach tzw. Rundy Tokijskiej, a zwłaszcza Rundy Urugwajskiej ich rola zmniejszyła się. Liczba narzędzi pozataryfowych jest ogromna. Jest to zróżnicowana grupa środków, często nieporównywalnych, wywołujących różne skutki. Z tego powodu ich klasyfikacja jest bardzo utrudniona.
Według szerokiego, uniwersalnego kryterium (wpływ środków pozataryfowych na strukturę towarową, wolumen handlu i kierunku handlu zagranicznego) możemy wyróżnić trzy typy środków pozacelnych. Są to:
- środki bezpośrednio oddziałujące na handel międzynarodowy,
- środki pośrednio dyskryminujące,
- środki ogólnogospodarcze nie wpływające bezpośrednio na handel.
Jeżeli chodzi o typ pierwszy, to podzielono je na środki oddziałujące na import oraz eksport. Wyróżniono tam również - w każdej z tych grup - środki ilościowe i działające poprzez koszty i ceny
Klasyfikacja GATT z 1985r (uwzględniająca w szczególności relacje środków pozataryfowych do produkcji krajowej) wyodrębnia pięć kategorii narzędzi pozacelnych.
Są to:
- udział państwa w handlu (pomoc rządu, cła wyrównawcze, zakupy rządowe, handel państwowy, monopol państwa),
- cła i administracyjne postępowanie przy imporcie (cła antydumpingowe, wartościowanie celne, klasyfikacja, zasady pochodzenia towaru, formalności celne),
- techniczne przeszkody (ogólne i techniczne przepisy, standardy, wymogi dotyczące testowania i certyfikatów),
- ograniczenia specyficzne (ograniczenia ilościowe i licencjonowanie importu, embargo, kontrola wymiany, VER, dyskryminacyjne porozumienia dwustronne itp.),
- opłaty w imporcie (uprzednie depozyty importowe, opłaty portowe, podatki dyskryminujące, restrykcje kredytowe, podatki graniczne).
Główne narzędzia pozataryfowe.
• Subwencje eksportowe
Subwencje (subsydia) eksportowe są to wszelkie ulgi dla producentów krajowych udzielane przez państwo w celu zachęcenia ich do zwiększenia eksportu. Powodują one zwiększenie ich konkurencyjności na rynkach zagranicznych (bez ograniczania ich zysku). Jest to jednak element nielojalnej konkurencji. Subwencje eksportowe- w odróżnieniu od wielu innych barier pozataryfowych- nie ograniczają, lecz zwiększają obroty towarowe (eksport).
• Opłaty wyrównawcze
Mają na celu podtrzymanie wysokich cen rynku wewnętrznym na określone produkty. Ich wprowadzenie może wynikać z chęci rozwoju jakiejś gałęzi ze względów strategicznych, zapewnienia producentom wysokich dochodów, z konieczności poprawy sytuacji w bilansie płatniczym, zmniejszenia deficytu w budżecie państwa itd. Zadaniem tych opłat jest wyrównywanie różnicy pomiędzy niską ceną zagraniczną a wysoką ceną krajową (podniesienie ceny zagranicznej do ceny krajowej). Stosowane są zamiast cła lub (najczęściej) jako ich uzupełnienie.
• Dodatkowe opłaty nakładane na import
Są to opłaty stosowane z różnych przyczyn, a mianowicie:
- opłaty ze względów fiskalnych (dotyczą głównie dóbr nie produkowanych w kraju lub artykułów luksusowych),
- opłaty specjalne, np. manipulacyjne, administracyjne, statystyczne itp. (mogą występować z przyczyn fiskalnych, chęci ochrony rynku, poprawy sytuacji w bilansie płatniczym itd.),
- dopłaty do ceł, głównie w celu poprawy sytuacji w bilansie płatniczym.
Opłaty pełnią, więc podobna funkcję, jak cła. Można ich uniknąć podwyższając poziom stawek celnych, ale w praktyce tego się nie stosuje. W ten sposób unika się ustalania ceł na wysokim poziomie, co byłoby nie najlepiej odbierane przez inne państwa czy organizacje międzynarodowe Dodatkowe opłaty nakładane na import mają ponadto charakter autonomiczny.
• Ograniczenia ilościowe
Są to wszelkie posunięcia państwa, które mają na celu ograniczenie wielkości importu bądź eksportu. Ograniczenia te mogą mieć charakter ilościowy lub wartościowy. Przybierają postać limitów, kontyngentów, licencji itp. Mogą być stosowane na różnym poziomie. W skrajnym przypadku limit (kontyngent) może wynosić zero. Wtedy mamy do czynienia z zakazem importu (embargo). Może być wyższy od poziomu importu, jaki byłby możliwy, gdyby tych ograniczeń nie było. Kontyngent taki jest, więc fikcją.
• Dobrowolne ograniczenia eksportu
Są to ograniczenia w stosunku do eksportu, tzw. VER (Voluntary Export Restraint). Polegają na tym, że eksportujący dany towar zobowiązuje się wobec importera,że jego eksport w ciągu roku nie przekroczy określonej kwoty. Ograniczenia te są stosowane najczęściej na żądanie importera, dlatego określenie „dobrowolne” nie odzwierciedla istoty zjawiska i może być mylące.
• Protekcjonizm wewnętrzny
Związany jest z polityką regionalną, socjalną, przemysłową itd. Wiele przedsięwzięć (środków) w ramach tych polityk ma wyraźnie na celu wywołanie określonych skutków w wymianie międzynarodowej. Na przykład, wspierając regiony zacofane gospodarczo państwo stosuje ulgi podatkowe, udziela tańszych kredytów itp., co równocześnie przyczynia się do wzrostu eksportu.
• Handel państwowy
W wielu krajach, zwłaszcza rozwijających się, istnieje monopol państwowy w handlu. Obejmuje on mniejszy lub większy zakres towarów, a także import. Stanowi barierę pozataryfową, jeżeli dany monopol preferuje produkt krajowy kosztem produktu importowanego. Preferencje te są odpowiednikiem ograniczeń ilościowych importu.
• Zakupy rządowe
Są to tzw. zamówienia publiczne. Ich udział w produkcie krajowym brutto w ostatnich latach znacznie wzrósł. Są barierą pozataryfową w sytuacji, kiedy rząd preferuje zakupy krajowe, nawet, jeśli oferowana przez krajowych cena jest wyższa od ceny oferowanej przez producentów zagranicznych.
• Ograniczenia dewizowe
Jest to bardzo restrykcyjny środek stosowany przez państwo, które w ten sposób kontroluje całość obrotów z zagranicą (dotyczy także obrotu kapitałowego). Skutki ich stosowania dla gospodarki są poważniejsze niż w przypadku ograniczeń ilościowych importu.
• Ograniczenia biurokratyczne
Maja na celu ograniczenie importu. Mogą to być: bariery techniczne (przepisy i normy dopuszczające towar na rynek), przepisy dotyczące bezpieczeństwa (sanitarne itp.), ochrony środowiska naturalnego, sposobu dokonywania odprawy celnej (np. ograniczenie ilości punktów odpraw) itp. Pełnią rolę barier pozataryfowych, kiedy podobne przepisy dla produktów krajowych są bardziej liberalne.
• Podwyższenie podstawy wymiaru cła
Dokonuje się różnorodnych manipulacji, aby cena, która jest podstawą wymiaru cła była wyższa od rzeczywistej ceny zakupu. Może to być cena standardowa, cena minimalna, cena obowiązująca w kraju, a nie za granicą itp.
1