opracowane pytania na obronę z ekonomii 2


  1. Podstawy decyzji ekonomicznych przedsiębiorstwa

Przedsiębiorstwo to jednostka gospodarcza zajmująca się produkcją dóbr lub świadczeniem usług, wyodrębniona pod względem techniczno-produkcyjnym, organizacyjnym, ekonomiczno-prawnym, terytorialnym i kadrowym. Od innych typów podmiotów gospodarczych. Główną cechą przedsiębiorstwa jest jego samodzielność ekonomiczno-finansowa. Polega ona na możliwości dysponowania posiadanymi zasobami środków trwałych i obrotowych, pokrywaniu wydatków z własnych przychodów, posiadaniu rachunku rozliczeniowego w banku, zaciąganiu kredytów itp. Decyzje podejmują przedsiębiorstwa na własny koszt i ryzyko, instrumentem wyboru jest rachunek ekonomiczny umożliwiający ocenę każdego wariantu zachowania się, tak by osiągnąć nadwyżkę finansową z punktu widzenia kosztów, przychodów i opłacalności. Decyzje przedsiębiorstw znajdują odzwierciedlenie w kształtowaniu się popytu rynkowego na czynniki produkcji (ponieważ jako producent musi zaopatrywać się na rynku w niezbędne czynniki produkcji: surowce, maszyny, siał robocza) oraz w kształtowaniu się podaży wyprodukowanych dóbr (występuje jako sprzedający produkty i usługi). Powszechnie uważa się, że celem działania przedsiębiorstwa jest maksymalizacja zysku. Osiąganie zysku jest podstawowym warunkiem rozwoju przedsiębiorstwa. Zysk wpływa na możliwości inwestycyjne, wywiera wpływ na wielkość zatrudnienia, decyduje o stopniu samofinansowania. Dlatego zadanie przedsiębiorstwa polega na takim wyborze kombinacji nakładów na produkcję i efektów z produkcji, aby różnica między nakładami i przychodami była dodatnia i możliwie maksymalna.

Przedsiębiorstwo staje przed dylematem wyboru technologii. Technologia procesu wyznacza kombinacje czynników produkcji (nakładów), które umożliwiają osiągnięcie określonej wielkości produkcji (efektu). Kryterium oceny jaką technologię wybrać stanowią:

Zależność między wielkością produkcji a rozmiarem nakładu czynników można przedstawić przy pomocy funkcji produkcji. Posługując się zasadą ceteris paribus funkcję produkcji można przedstawić jako jednoczynnikową (rozmiary produkcji zmieniają się wraz ze zmianą jednego czynnika np. zatrudnienia a pozostałe są bez zmian) lub wieloczynnikową. O ile zmieniać się będzie tylko jeden czynnik zmienny w procesie produkcji, drugi natomiast czynnik jest stały, wówczas przyrosty produkcji do pewnego momentu rosną bardziej niż proporcjonalnie a następnie rosną mniej niż proporcjonalnie i spadają (prawo 0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
nieproporcjonalnych przychodów). Rozróżniamy trzy etapy produkcji:

0x08 graphic
0x08 graphic
Nakład czynnika

I etap - wszystkie wielkości rosną; efekt korzystny i efektywny dla przedsiębiorstwa

II etap - PrC rośnie, PrP i PrM maleją; etap wygaszania pewnych możliwości przedsiębiorstwa, ale etap korzystny. Jest to etap najbardziej korzystny dla przedsiębiorstwa.

III etap. Wszystkie wielkości maleją; etap niekorzystny.

Produkt przeciętny (PrP) - wielkość produkcji podzielona przez wielkość czynnika zmiennego.

Produkt marginalny (PrM) - przyrost produkcji osiągany z dodatkowej jednostki czynnika zmiennego.

Zależność między PrP a PrM:

PrM > PrP PrP ↑

PrM < PrP PrP ↓

PrM = PrP PrP = max

W długim okresie czasu (zmienna technologia) wszystkie czynniki produkcji są zmienne. Producent szuka optymalnej kombinacji czynników zmiennych, które wykorzystuje do produkcji. Zmienne czynniki produkcji mogą być połączone ze sobą według stałych i zmiennych proporcji. Procesy produkcyjne o stałych proporcjach czynników zmiennych charakteryzują się stałymi, malejącymi i rosnącymi efektami skali produkcji:

Produkcję o zmiennych proporcjach czynników można analizować przy pomocy izokwant produkcji. Izokwanta produkcji jest krzywą łączącą wszelkie możliwe kombinacje czynników dające producentowi taką samą wielkość produkcji. Izokwanta jest wypukła w stosunku do początku układu współrzędnych, a jej nachylenie jest negatywne. W ramach danej izokwanty występuje zjawisko substytucji czynników produkcji: wzrostowi nakładu jednego czynnika towarzyszy spadek nakładu drugiego czynnika. Stosunek, zgodnie z którym można zastąpić jeden czynnik produkcji drugim czynnikiem tak, aby wielkość produkcji nie uległa zmianie nazywa się marginalną stopą technicznej substytucji (MSTS).

MSTS = -∆K/∆L = PML/PMK

L - czynnik pracy

K - czynnik kapitału

MSTS jest malejąca - w miarę zastępowania czynnika kapitału przez coraz większą ilość czynnika pracy zmniejsza się ilość kapitału, którą można zastąpić każdą dodatkową jednostką pracy.

Producent podejmuje decyzje w ramach danych ograniczeń technicznych i ekonomicznych - w ramach danej technologii oraz danych cen rynkowych czynników produkcji. Producent ograniczony jest daną wielkością środków, które przeznacza na zakup czynników produkcji oraz danymi cenami czynników. Linia, na której koszty całkowite (TC) związane z zakupem czynników są stałe nosi nazwę linii jednakowego kosztu. Nachylenie tej linii jest ujemne i wyznacza je stosunek cen czynników produkcji (-w/r). Uwzględniając krzywe jednakowego produktu (izokwanty) oraz jednakowego kosztu producent poszukuje sytuacji optymalnej. Optimum produkcji znajduje się w punkcie styczności linii jednakowego kosztu z możliwie najwyżej położoną izokwantą produkcji. Jest to jedyny punkt, w którym MSTS czynników równa się relacji cen czynników produkcji. Optimum producenta jest nierynkowe; jest to optimum cząstkowe (związane z zasadą racjonalnego gospodarowania). I optimum cząstkowe - zasada najmniejszego kosztu - taka kombinacja czynników produkcji, która dany poziom produkcji pozwala zrealizować przy minimalnych kosztach (PML/w = PMK/r). II optimum cząstkowe - zasada największej wydajności - kombinacja, która pozwala osiągnąć maksymalny poziom produkcji przy danych kosztach (PML/PMK = w/r).

TC - koszt całkowity

w- cena czynnika pracy

0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
r - cena czynnika kapitału

0x08 graphic
TC/w L

  1. Mechanizm rynkowy oraz jego mikro- i makroekonomiczne konsekwencje

0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
Mechanizm rynkowy - to zależności przyczynowo-skutkowe zachodzące między elementami rynku tj. popytem, podażą i ceną. Są to wszelkie oddolne popytowo-podażowe sprzężenia na rynkach wszystkich rodzajów zasobów, umożliwiające występowanie podobnych sprzężeń w sferze dóbr finalnych. Cechą tego ujęcia jest to, że procesy dostosowawcze musza być oddolne oraz występować w sposób naturalny i spontaniczny. Oznacza to, że podmioty wymiany rynkowej powinny być sobie równe, a dokonując dobrowolnych transakcji - kierować się własnymi korzyściami. Podstawowym ogniwem łączącym zależności popytowo-podażowe są ceny.

0x08 graphic
0x08 graphic
0x08 graphic
Przedstawiony na rysunku mechanizm występuje na rynku tylko w warunkach konkurencji doskonałej. W innych modelach rynku ulega on mniejszym lub większym deformacjom, które polegają na wykształceniu się jednostronnych zależności między poszczególnymi elementami rynku. Wówczas wyżej przedstawiony schemat należy zastąpić następującym:

0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
Jednostronne zależności mogą przejawiać się tym, że zmiany podaży wywierają wpływ na zmiany popytu, lecz zmiany popytu nie muszą wywierać wpływu na zmiany podaży. Podobnie jest ze zmianą ceny w stosunku do popytu i zmianą podaży w stosunku do ceny.

Konsekwencje mikroekonomiczne

  1. Adaptacja podaży do popytu

W sferze dóbr finalnych, dostosowania powyższego typu wywołują ostatecznie tendencję do takiego kształtowania się proporcji między zasobami w alternatywnych zastosowaniach, że ceny dóbr finalnych zapewniające ciągłość obrotu tymi dobrami, umożliwiają osiąganie zysku normalnego (odpowiadającego w przybliżeniu przeciętnej stopie zysku w danej dziedzinie). Występują tu dwojakiego rodzaju dostosowania, zarówno w okresie krótkim jak i długim:

  1. popytowo-cenowe

  2. ilościowe

Pierwsze, ujawniając zmiany w popycie na dobra finalne i zapewniając ciągłość obrotów nimi, sygnalizują jednocześnie narastanie dysproporcji w alokacji zasobów materialnych i ludzkich. Realokacja tych zasobów dokonująca się w ramach dostosowań ilościowych, umożliwia z kolei odpowiednie do zmian zachodzących w popycie przestawienia w podaży dóbr finalnych. Warunkiem dostosowań popytowo-cenowych jest odpowiednia elastyczność cen. Natomiast warunkiem dostosowań ilościowych jest przenośność zasobów (możliwość przemieszczania od jednego podmiotu do drugiego, lub różnorodność zastosowania w ramach jednego podmiotu). Szczególnie ważna jest przenośność środków pieniężnych w ujęciu tak podmiotowym jak i przedmiotowym. D strony technicznej zapewnia ją płynny charakter pieniądza gotówkowego i bezgotówkowego. Od strony ekonomicznej natomiast - swoboda dysponowania pieniądzem (brak ograniczeń formalnych) oraz dostosowania popytowo-cenowe w sferze pieniężnej.

Ważną rolę odgrywa tu rynek kapitałowy, na który zbierają się nie wydane środki pieniężne (oszczędności). Kierowane są one do tych zastosowań produkcyjnych, które rokują najwyższe możliwe korzyści mikroekonomiczne przy danym stopniu ryzyka. Rynek kapitałowy stwarza - z jednej strony - możliwości ujawnienia się podaży oszczędności i popytu na nie, a z drugiej - może bezpośrednio wpływać (poprzez stopę % i kurs akcji) na dostosowania ilościowe w sferze zasobów i dóbr finalnych.

  1. Adaptacja popytu do podaży

Taka sytuacja ma miejsce gdy producent wchodzi dopiero na rynek z wyrobem nowym (w sensie typu) lub udoskonalonym (jakościowo). Popyt na ten wyrób musi być więc dopiero przez producenta kreowany. Producent musi przeprowadzić rachunek wytwarzania i wprowadzania na rynek wyrobu, musi brać także pod uwagę przewidywane kształtowanie się zależności dostosowawczych o charakterze zarówno popytowo-cenowym, jak i ilościowym. Prognozowanie tych zależności znajdować może swoje oparcie w znajomości dostosowań rzeczywiście występujących w obrocie wyrobami uznanymi za pokrewne czy zbliżone.

Konsekwencje makroekonomiczne

Bezpośrednim odzwierciedleniem procesów przystosowawczych zachodzących na rynkach cząstkowych jest kształtowanie się cen dóbr finalnych oraz materialnych zasobów służących ich produkcji, płac, stóp procentowych, kursów akcji, obligacji itp. W skali gospodarki, procesy te kształtują zarazem podstawowe relacje (makroproporcje) pomiędzy globalnym (efektywnym) popytem, a globalną podażą przy danym ogólnym poziomie cen. Elastyczność tego poziomu umożliwia przy tym - w pewnych granicach - likwidowanie ewentualnych dysproporcji między popytem i podażą. Dolną granicę tej elastyczności wyznaczają w szczególności koszty produkcji (zwłaszcza koszty zmienne), poniżej których ceny spaść już nie mogą. Granicę górną określają występujące i przewidywane zjawiska inflacyjne.

Niezakłócone i elastyczne przebiegi procesów dostosowawczych związanych z działaniem mechanizmu rynkowego w makroskali wymagają w szczególności swobody dysponowania pieniądzem oraz braku przynajmniej formalnych ograniczeń w obrocie dobrami finalnymi i „usztywnień” w przenośności zasobów materialnych i ludzkich. Wskutek działania mechanizmu rynkowego kształtują się: poziom i struktura produkcji i konsumpcji, inwestycji i oszczędności. W trakcie procesów dostosowawczych, podmioty gospodarcze podejmują stale decyzje produkcyjno-inwestycyjno-konsumpcyjne. Rezultat tych decyzji określa - w ujęciu krótkookresowym wielkość produktu społecznego i makroproporcje jego podziału, w ujęciu długookresowym natomiast - decyduje o stopie gospodarczego wzrostu.

3. Przesłanki podejmowania decyzji ekonomicznych przez konsumenta.

1. Konsument jest suwerennym podmiotem gospodarczym podejmującym decyzje odnośnie konsumpcji w oparciu o własne preferencje oraz istniejące ograniczenia zasobowe w postaci: jego dochodu oraz cen rynkowych kupowanych dóbr.

To podmiot gospodarujący - dokonujący wyborów ekonomicznych pomiędzy różnorodnymi produktami i usługami zaspokajającymi jego potrzeby biorąc pod uwagę ograniczoność zasobów będących do jego dyspozycji w momencie podejmowania decyzji.

W teorii konsumenta zakłada się, iż jest on podmiotem racjonalnym. Dokonując wyborów konsument dąży do osiągnięcia maksymalnych korzyści, jakie w danych warunkach może uzyskać z konsumpcji dóbr. Konsument racjonalny opiera proces podejmowania decyzji na zasadzie optymalizacji.

Każdy konsument dokonując zakupu określonego produktu lub usługi posiada swoje preferencje. Traktuje się go jako suwerenny podmiot gospodarczy w zakresie tworzenia i kształtowania preferencji w dokonywanych przez niego aktach wyboru konsumpcji.

2. Podstawą teorii zachowania się konsumenta są następujące założenia:

3. Ważną kategorią wyjaśniającą prawidłowość zachowania się konsumenta jest użyteczność dóbr, która wyraża poziom zadowolenia (satysfakcji) z konsumpcji.

Użyteczność jest sumą zadowolenia jaką osiąga indywidualny konsument z konsumowania lub posiadania danego dobra. Ma ona charakter subiektywny i ze swej natury to kategoria abstrakcyjna.

Współczesna ekonomia traktuje użyteczność niejako konkretną wielkość liczbową lecz jako kategorię porządkową, która wskazuje na relatywne znaczenie użyteczności w stosunku do siebie. W tym znaczeniu odzwierciedla ona uporządkowany system preferencji. (syst. preferencji wprowadził do ekonomii Vilfredo Pareto).

W analizie zachowania konsumenta wystarczy jeśli przyjmie się, że konsument potrafi porównywać użyteczności różnych dóbr i kombinacji dóbr w dokonywanych przez siebie wyborach. Konsumenta dąży do maksymalizacji użyteczności - do wybrania takiej kombinacji konsumowanych dóbr, która daje mu możliwie największe zadowolenie.

4. Krzywa użyteczności całkowitej rośnie w miarę zwiększania ilości konsumowanego dobra jednakże jej przyrosty są coraz mniejsze. Wynika to z istnienia prawidłowości malejącej użyteczności marginalnej.

Użyteczność całkowita (UC) jest sumą użyteczności konsumowanej ilości produktu lub usługi.

Użyteczność marginalna (UM) wyraża zadowolenie konsumenta ze zwiększenia (zmniejszenia) konsumpcji danego dobra o kolejną, dodatkową jednostkę.

n

UC = Q i i = 0,... n

i = 1

Δ UC

UM = __

Δ Q i

Zależności:

0x01 graphic
użyteczność całkowita wzrasta (maleje) w miarę zwiększania (spadku) ilości konsumowanego dobra. Wzrost użyteczności całkowitej jest jednak coraz wolniejszy i może wystąpić jej spadek,

0x01 graphic
użyteczność marginalna zmniejsza się (rośnie) wraz ze wzrostem (spadkiem) ilości konsumowanego dobra.

Prawo malejącej użyteczności marginalnej mówi, że zadowolenie z pierwszej jednostki dobra jest znacznie większe aniżeli z kolejnej, drugiej jednostki. W rezultacie przyrosty zadowolenia z konsumpcji mierzone jako użyteczność marginalna zmniejszają się wraz ze wzrostem ilości konsumowanego dobra. Zależność ta jest odwracalna.

5. Podstawą współczesnej teorii wyborów konsumenta jest uporządkowany system preferencji odnośnie kombinacji konsumowanych dóbr.

Konsument dokonuje równoczesnych wyborów wielu dóbr dążąc do osiągnięcia takich kombinacji konsumowanych dóbr, które spełnią w najwyższym stopniu jego preferencje. Podstawą tych wyborów jest uporządkowany system preferencji odnośnie kombinacji konsumowanych dóbr.

6. Teoria wyboru konsumenta opiera się na pewnych założeniach dotyczących preferencji:

7. W oparciu o powyższe założenia można zbudować model zachowania się konsumenta podejmującego decyzje wyboru kombinacji konsumowanych dóbr. Ważną kategorią analityczną modelu jest krzywa obojętności konsumenta. Przedstawia ona wszystkie kombinacje konsumpcji dwóch dóbr, które są dla konsumenta obojętne. Każda z tych kombinacji daje mu takie samo zadowolenie, w związku z tym dana krzywa obojętności charakteryzuje się stałym poziomem zadowolenia. Biorąc pod uwagę preferencje, konsument zawsze woli znaleźć się na wyższej krzywej obojętności bowiem zapewnia mu to większe rozmiary konsumpcji obydwu dóbr.

Krzywe obojętności posiadają następujące właściwości wynikające z założeń odnoszących się do preferencji konsumenta: nachylenie krzywych jest negatywne i są wypukłe w stosunku do początku układu, krzywe nie mogą przecinać się i jest ich nieskończenie wiele.

8. Negatywne nachylenie krzywej obojętności oznacza, że zwiększenie konsumpcji jednego dobra wymaga zmniejszenia konsumpcji drugiego dobra. Między dwoma dobrami istnieje stosunek substytucyjności. Miernikiem tego efektu jest marginalna stopa substytucji, która określa jaką ilość dobra Y należy poświęcić w celu zwiększenia konsumpcji dobra X o jednostkę w sytuacji kiedy konsument pozostaje na tej samej krzywej obojętności, czyli nie zmienia poziomu zadowolenia.

Przy niższym poziomie konsumpcji

dobra X konsument jest skłonny

poświęcić większą ilość dodatkowych

jednostek dobra Y w celu zwiększenia

konsumpcji X o jednostkę. Przy wyższym

poziomie konsumpcji dobra X konsument

jest skłonny poświęcić mniej dodatkowych

jednostek dobra Y w celu zwiększenia

konsumpcji X o jednostkę.

9. Konsument podejmujący w określonym czasie decyzje dotyczące zakupu różnych dóbr musi uwzględniać wielkość budżetu, który ma do swojej dyspozycji. Ograniczenia wyborów konsumenta można przedstawić w postaci linii budżetowej konsumenta, która oddziela osiągalne kombinacje dóbr od nieosiągalnych.

10. Konsument jest podmiotem gospodarującym w sposób racjonalny. Oznacza to, że podejmując decyzje odnośnie konsumpcji konfrontuje swoje oceny subiektywne (odczucia dotyczące zadowolenia) z faktycznymi możliwościami ich realizacji.

Konsument poszukuje sytuacji optymalnej, która umożliwi mu osiągnięcie maksymalnych korzyści z konsumpcji. Sytuacja taka oznacza równowagę - konsument nie jest wówczas zainteresowany w zmianie osiągniętej kombinacji konsumowanych dóbr. Punkt, w którym konsument maksymalizuje zadowolenie z konsumpcji znajduje się na najwyższej krzywej obojętności możliwej do osiągnięcia przy danych ograniczeniach. Jest to punkt styczności linii budżetowej z krzywą obojętności.

4. Wady rynku jako przesłanki interwencjonizmu państwowego

„Rynek- ogół transakcji kupna-sprzedaży (stosunków wymiennych) oraz warunków umożliwiających ich realizację. Jest formą nawiązywania kontaktów między kupującymi i sprzedającymi, która pozwala im ujawnić, co chcą kupić lub sprzedać i na jakich warunkach oraz, po ewentualnym skorygowaniu oczekiwań, ustalić zasady transakcji możliwe do zaakceptowania przez obie strony”. Definicja ta jest znacznie szersza od potocznie stosowanej, w której przez rynek rozumie się określone miejsce kupna i sprzedaży, gdyż obejmuje całokształt warunków, w jakich dokonuje się wymiana towarów i usług. Obecnie bowiem, obok rynków tradycyjnych istnieją również takie, które nie mają swojej siedziby i na których nie ma bezpośrednich kontaktów między sprzedawcami a nabywcami. Transakcje na tych rynkach zawierane są za pomocą różnych środków łączności np. telefony, telefaksy, odpowiednio zaprogramowane komputery. Mieczysław Nasiłowski określa rynek jako "formę poziomych więzi między różnymi podmiotami gospodarczymi i konsumenckimi próbującymi sprzedać i kupić towar". Z kolei L. Balcerowicz definiuje rynek "jako szczególny mechanizm koordynacji zamierzeń (planów) i działań dostawców oraz odbiorców danego dobra, kiedy dochodzi do uzgodnień między nimi bez odgórnego, szczegółowego kierowania". Jak widać w literaturze pojęcie rynku jest różnorodnie definiowane. Wszystkie jednak te definicje można by sprowadzić do jednej wspólnej, w myśl której rynek to miejsce, gdzie łączna podaż spotyka się z globalnym popytem i gdzie kształtuje się poziom cen, zysków, rozmiarów i struktury zapotrzebowania oraz produkcji.

Teoretycznie można powiedzieć, że idealny mechanizm rynkowy działa jak olbrzymi komputer, rozwiązujący równocześnie niebywałe ilości równań i doprowadzający gospodarkę za pomocą procesów iteracyjnych (samoczynne działanie mechanizmu rynkowego za pośrednictwem sprzężeń zwrotnych. Postępowanie iteracyjne mechanizmu rynkowego prowadzi do przemieszczeń zasobów środków produkcji z dziedzin o relatywnie nadmiernej podaży do dziedzin, w których występują deficyty → alokacja zasobów) do stanu równowagi ogólnej. W rzeczywistości jednak:

W gospodarce rynkowej istnieją trzy zjawiska zawodności rynku:

  1. niestabilność (inflacja, bezrobocie, niski wzrost gospodarczy)

  2. nierówność (nieakceptowalne społecznie nierówności w dochodach i bogactwie oraz w dostępie do edukacji, usług zdrowotnych i zabezpieczenia na starość)

  3. nieefektywność.

Za najważniejsze przyczyny nieefektywności rynku uznaje się:

Dobra publiczne, efekty zewnętrzne, monopol sztuczny i monopol naturalny nie występują w poszczególnych dziedzinach gospodarki z jednakową siłą i intensywnością.

Zawodność rynku oznacza generalnie takie sytuacje, w których nie istnieją dostateczne warunki osiągnięcia efektywnych rozwiązań za pomocą mechanizmu rynkowego. Niestabilność i nierówność są oczywistymi powodami regulacyjnej funkcji państwa. Uznaje się, że rynek w pewnych sytuacjach może prowadzić do nadmiernej produkcji niektórych dóbr, przy ograniczonej podaży innych. W skrajnym przypadku może dojść nawet do tego, iż pewne dobra, szczególnie wartościowe dla społeczeństwa i gospodarki, nie będą w ogóle produkowane. Uzasadnienie interwencji państwa wychodzi zatem z ogólnego założenia, że w rzeczywistości nie istnieje doskonale konkurencyjna gospodarka na wszystkich jej obszarach z powodu różnej organizacji produkcji oraz odmienności w charakterystyce dóbr i usług a także różnego stopnia ujawniania się efektów zewnętrznych w procesach produkcji i konsumpcji dóbr i usług.

Wyjaśnienia:

Dobra publiczne - to produkty lub usługi, których koszt generalnie nie rośnie wraz z liczbą korzystających a satysfakcja jaką przynosi jednemu konsumentowi lub użytkownikowi nie wpływa na zdolność odczuwania satysfakcji przez innych. Inaczej mówiąc konsumpcja przez jedna osobę nie wymaga zmniejszenia konsumpcji przez kogokolwiek innego. Są dostępne dla każdego w sposób stały i automatyczny. Oznacza to, że z takiego dobra mogą korzystać zarówno osoby godzące się na pokrycie kosztów jego wytworzenia, jak i osoby, które odmawiają jakiejkolwiek partycypacji w kosztach. Muszą w zasadzie być finansowane przez budżet. Przykłady: obrona narodowa, bezpieczeństwo publiczne, ochrona ppoż, oświetlenie ulic.

Dodatnie efekty zewnętrzne - to w zasadzie dobra publiczne.

Ujemne efekty zewnętrzne (koszty zewnętrzne) - zachowania producentów lub konsumentów mają wpływ na koszty innych firm lub na dobrobyt innych osób. Efekty te powodują, że indywidualny rachunek kosztów i korzyści prowadzony przez przedsiębiorstwo nie odzwierciedla w pełni prawdziwych kosztów i korzyści w szerszej skali. Działalność gospodarcza lub konsumpcja może być racjonalna z punktu widzenia firmy lub jednostki, natomiast ze społecznego punktu widzenia może wywoływać określone dysekonomie zewnętrzne lub prowadzić do powstawania różnych kosztów społecznych (np. ekologiczne koszty zewnętrzne).

5. Metody interwencjonizmu państwowego.

Metody interwencji państwa:

  1. 0x08 graphic
    regulacja bezpośrednia interwencja

  2. finansowanie państwa

  3. produkcja państwa na rynku

  4. transfery dochodowe - pośrednie

Polityka społeczna jako interwencja państwa w mechanizm rynkowy wynika z zawodności rynku i z przyczyn korekty efektów rynków.

6. Zasady racjonalnego gospodarowania w decyzjach producenta.

Celem producenta jest maksymalizacja zysku. Producent podejmuje decyzje w ramach danej technologii produkcji, środków którymi dysponuje oraz cen rynkowych czynników produkcji. Producent kieruje się zasadą maksymalizacji, czyli poszukiwania najlepszej relacji między nakładami na produkcję i jej efektami. Optimum produkcji znajduje się w punkcie zrównoważenia relacji cen czynników z marginalną stopą technicznej substytucji.

1. Producent jest podmiotem gospodarczym odgrywającym podwójną rolę na rynku. Z jednej strony kupuje czynniki produkcji wpływając na popyt na te czynniki oraz na ich cenę, z drugiej strony wytwarza dobra i współdecyduje o kształtowaniu się podaży rynkowej produktów i usług.

2. Zadaniem producenta jest przetwarzanie zasobów w celu wytworzenia dóbr. Dysponuje daną technologią produkcji, która wskazuje jakie zasoby oraz w jakich proporcjach muszą być połączone ze sobą w celu uzyskania określonego dobra.

3. Zysk jest celem działalności producenta. Dąży on do takiego wyboru kombinacji nakładów na produkcję i efektów z produkcji, aby różnica między kosztami i przychodami była dodatnia i możliwie maksymalna. Producent jest podmiotem racjonalnym. Inwestując swoje dochody w produkcję dąży do osiągnięcia jak największego zysku, a nie straty z podjętej działalności. W rzeczywistości gospodarczej okazuje się niekiedy, iż wyniki działalności produkcyjnej są negatywne. Racjonalizm producenta wskazuje wówczas, że powinien ograniczać lub zaniechać działalność produkcyjną.

4. Zysk związany jest bezpośrednio z istotnymi funkcjami działalności przedsiębiorstwa:

5. Producent staje często przed dylematem wyboru technologii - czy wybrać i zastosować dotychczas istniejącą i powszechnie znaną technologię czy też wprowadzić do przedsiębiorstwa technologię nową. Kryterium takiej oceny może być efektywność techniczna technologii. Oznacza ona, iż producent maksymalizując efekt produkcji nie będzie wkładał do produkcji więcej czynników (nakładów) aniżeli jest to konieczne dla osiągnięcia danej wielkości efektu. Niekiedy kieruje się on kryterium efektywności ekonomicznej, które polega na takim wykorzystaniu nakładów czynników produkcji, aby koszt wytworzenia jednostki produktu był minimalny (zasada najmniejszego kosztu produkcji).

6. Zależności między wielkością produkcji a rozmiarem nakładu czynników można przedstawić w formie funkcji produkcji. Funkcje produkcji mogą być jednoczynnikowe i wieloczynnikowe. Ogólna postać funkcji produkcji ma postać:

Q = f (F1, F2, … , Fn) Q - wielkość produkcji , F - czynniki produkcji

Jeśli uwzględnimy tylko jeden z czynników produkcji zakładając, że wpływ pozostałych czynników na rozmiary produkcji jest niezmienny, wówczas otrzymujemy jednoczynnikową f-cję produkcji np. Q = f 1 (L), Q = f 2 (K) L - siła robocza, K - kapitał

Poniższa wieloczynnikowa f-cja produkcji (tutaj dwuczynnikowa) przedstawia wpływ zmian zarówno czynnika siły roboczej jak i kapitału na wielkość produkcji.

Q = f 3 (L, K)

7. Czynniki produkcji dzieli się na zmienne i stałe. W krótkim okresie czasu technologia produkcji jest dana. Nakład niektórych czynników (siła robocza, surowce, półfabrykaty, energia itp.) zmienia się wraz ze zmianami wielkości produkcji, natomiast nakład innych czynników (budynki, ziemia, maszyny i urządzenia itp.) nie zmienia się. W długim okresie czasu wprowadza się nowe technologie produkcji - wszystkie czynniki produkcji są zmienne.

8. Zmiany wielkości produkcji i zatrudnienia można przedstawić w formie wykresu - krzywej produkcji całkowitej. Produkt przeciętny otrzymujemy dzieląc wielkość produkcji całkowitej przez ilość zatrudnionych pracowników. Natomiast marginalny produkt pracy można rozumieć jako przyrost produkcji całkowitej osiąganej z dodatkowej jednostki czynnika zmiennego (np. pracy).

0x08 graphic
0x08 graphic
PC PPL

0x08 graphic
produkt całkowity PML

0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic

L L

PC

PPL ႾႾ PML > PPL zawsze, kiedy produkt przeciętny rośnie

L

∆ PC

PML ႾႾ PML < PPL zawsze, kiedy produkt przeciętny spada

∆ L

9. W krótkim okresie czasu produkcja podlega działaniu prawa malejących przychodów. Zwiększając, ceteris paribus, nakład czynnika zmiennego osiągamy taki punkt, po przekroczeniu którego każda dodatkowa jednostka czynnika zmiennego daje coraz mniejsze przyrosty produkcji. Produkt marginalny czynnika produkcji jest malejący. Prawo to informuje o tym, że nie jest możliwe ciągłe dodawanie czynników zmiennych do jednego lub kilku czynników stałych i osiąganie nieustannie coraz większej produkcyjności.

10. Biorąc pod uwagę kształtowanie się produktu przeciętnego (PP) i produktu marginalnego (PM) można wyróżnić trzy etapy produkcji: etap I - PP rośnie, aż do wielkości maksymalnej; etap II - PP spada, PM spada lecz ciągle jest dodatni; etap III - PP spada, PM przybiera wartości ujemne.

Producent maksymalizujący zysk nie będzie produkował w ramach I i III etapu produkcji.

11. Zmienne czynniki produkcji mogą być połączone ze sobą według stałych i zmiennych proporcji. Procesy produkcyjne o stałych proporcjach czynników zmiennych (dotyczą długiego okresu czasu) charakteryzują się stałymi, malejącymi i rosnącymi efektami skali produkcji.

12. Produkcję o zmiennych proporcjach czynników można analizować przy pomocy izokwant produkcji.

Izokwanta produkcji jest krzywą, na której znajdują się wszystkie efektywne kombinacje czynników dające taką samą wielkość produkcji.

13. Izokwanta produkcji jest wypukła w stosunku do początku układu, a jej nachylenie jest negatywne. W ramach danej izokwanty występuje zjawisko substytucji czynników produkcji: wzrostowi nakładu jednego czynnika produkcji towarzyszy spadek nakładu drugiego czynnika.

14. Stosunek, zgodnie z którym można zastąpić jeden czynnik drugim tak, aby wielkość produkcji nie uległa zmianie nazywa się marginalną stopą technicznej substytucji - MSTS = - K/∆L = PML/PMK

MSTS jest malejąca: w miarę zastępowania czynnika kapitału przez coraz większą ilość czynnika pracy zmniejsza się ilość kapitału, którą można zastąpić każdą dodatkową jednostką pracy.

15. Producent podejmuje decyzje w ramach danych ograniczeń technicznych i ekonomicznych - w ramach danej technologii oraz cen rynkowych czynników produkcji.

16. Optymalna kombinacja czynników produkcji to taka kombinacja, która pozwala osiągnąć maksymalny poziom produkcji przy danych kosztach, lub taka, która dany poziom produkcji pozwala zrealizować przy minimalnych kosztach.

17. Producent ograniczony jest daną wielkością środków, które przeznacza na zakup czynników produkcji oraz danymi cenami czynników. Linia, na której koszty całkowite związane z zakupem czynników są stałe nosi nazwę linii jednakowego kosztu. Nachylenie tej linii jest ujemne i wyznacza je stosunek cen czynników produkcji (-w/r).

18. Uwzględniając linie jednakowego produktu (izokwanty) oraz jednakowego kosztu producent poszukuje sytuacji optymalnej. Optimum produkcji znajduje się w punkcie styczności linii jednakowego kosztu z możliwie najwyżej położoną izokwantą produkcji. Jest to jedyny punkt, w którym marginalna stopa technicznej substytucji czynników równa się relacji cen czynników produkcji.

7. Klasyczny cykl koniunkturalny w gospodarce rynkowej

Cykl koniunkturalny (gr. kỳklos = koło) - to szereg procesów lub zjawisk, tworzących zamkniętą całość, przypadających na pewien odcinek czasu i powtarzających się periodycznie. Cykl koniunkturalny więc to powtarzające się okresowo wahania podstawowych wielkości ekonomicznych, produkcji, dochodu narodowego, spożycia, inwestycji, zatrudnienia, kredytu, cen, przechodzące kolejno przez fazę kryzysu, depresji, ożywienia i rozkwitu. Cechy cyklu koniunkturalnego: punkty przecięcia z linią trendu, wysokość amplitudy, długość okresu wahań i regularność wahań.

Gospodarka rynkowa jest dotknięta chroniczną nierównowagą podażową. Nierównowaga przybiera najmniejsze natężenie na rynku dóbr finalnych (dobra przeznaczone do konsumpcji) (asymetria). Na tym rynku najłatwiej można ulokować dodatkową produkcję. Jeżeli jest to produkcja dóbr nowych, dotąd nie wytwarzanych, jej uruchomienie wymaga inwestycji. Moment ich rozpoczęcia jest początkiem cyklu - faza ożywienia. Ożywienie - charakteryzuje się szybkim tempem wzrostu popytu globalnego na wszystkie dobra inwestycyjne i konsumpcyjne, co wywołuje wzrost produkcji i wzrost inwestycji dla zapewnienia wzrostu produkcji. Ponieważ inwestycje nie przynoszą natychmiastowego wzrostu produkcji, ożywieniu towarzyszy pewien wzrost cen, wypełniający lukę podażową i zapewniający bieżącą równowagę rynkową. Zwiększenie inwestycji wzmaga zapotrzebowanie na kredyt, zaś wzrost cen zachęca do gromadzenia zapasów towarów, surowców i półfabrykatów w przedsiębiorstwach, w obrocie towarowym i gospodarstwach domowych. Dochód narodowy zwiększa się w szybkim tempie.

Kiedy inwestycje osiągają swój najwyższy poziom gospodarka osiąga szczytowy stan koniunktury (rozkwit). To szczytowy poziom produkcji (wzrost zdolności produkcyjnych w wyniku inwestycji) i dochodu narodowego, którego dynamika wygasa stopniowo i przechodzi w moment zastoju. Pojawia się wraz z tym wzrost kosztów produkcji, szybszy od tempa wzrostu cen wyrobów finalnych i produktów pośrednich. Wzrost kosztów wytwarzania wynika stąd, iż w szczytowym okresie koniunktury wykorzystuje się gorsze urządzenia wytwórcze, zatrudnia się więcej pracowników, zwiększa się pracę w godzinach nadliczbowych. Wzrostowi dochodów pracowników najemnych i pracodawców towarzyszy wzrost skłonności do oszczędzania. Oznacza to zahamowanie wzrostu popytu konsumpcyjnego. Utrudnia to obsługę spłat zaciągniętych kredytów inwestycyjnych. Wywołuje to psychologiczny stan niepewności, banki wykazują coraz większą ostrożność w udzielaniu kredytów inwestycyjnych. To wszystko powoduje stopniowe wygasanie optymistycznych nastrojów wśród przedsiębiorców.

Kryzys - to nagłe załamanie lub stopniowe ograniczanie produkcji i inwestycji, wywołane raptownym zmniejszeniem zapotrzebowania. Powoduje to wzrost zapasów dóbr konsumpcyjnych i inwestycyjnych, zwiększenie bezrobocia, radykalne ograniczanie kredytów udzielanych przez banki, zahamowanie wzrostu cen, a nawet ich spadek, bankructwa słabszych przedsiębiorstw. Towarzyszy temu zwykle gwałtowny spadek kursów akcji, obligacji oraz innych papierów wartościowych, przybierający niejednokrotnie charakter panicznego wyzbywania się tych papierów, powodujący katastrofalny spadek kursów.

Depresja - to okresowe ustabilizowanie produkcji na najniższym kryzysowym poziomie, przy obniżonym poziomie cen, które jednak więcej nie spadają, przy wysokim bezrobociu i znacznym niewykorzystaniu aparatu produkcyjnego. Przedsiębiorstwa dostosowują się do obniżonego poziomu popytu i niskich cen przez redukcje zatrudnienia i obniżkę kosztów zmiennych, co następuje w drodze usprawnień organizacyjnych, obniżania materiałochłonności i energochłonności produkcji oraz podejmowania inwestycji modernizacyjnych. Tego typu inwestycje są możliwe dzięki niższemu oprocentowaniu kredytów, będącego skutkiem uprzedniego spadku popytu na kredyty bankowe. Tworzy się w ten sposób grunt do wejścia w kolejny cykl koniunkturalny i jego pierwszą fazę - ożywienie.

Budowa i cechy morfologiczne cyklu klasycznego:

8. Konsekwencje zmian kursu walutowego w krótkim i długim okresie.

Kursy walut i dewiz (ang. rates of exchange, franc. cours de change, niem. Valutakurs) są ceną płaconą w walucie krajowej za jednostkę lub na 100 jednostek waluty obcej. Kurs walutowy w gospodarce rynkowej oddziałuje bezpośrednio na ceny towarów i usług w imporcie oraz eksporcie. Związek między poziomem cen i kursem skłania władze wielu państw do ingerencji w dziedzinie kursów walutowych. Poziom kursu może być bowiem kształtowany przez popyt i podaż na rynku, a także przez ustalenia władz; może on też wynikać z kombinacji obu tych czynników. W ten sposób powstają różnorodne systemy kursów.

W sferze rozliczeń osób fizycznych występuje kurs rynkowy, w uproszczeniu nazywany kantorowym, który kształtuje się w zależności od podaży i popytu. Przy wykonywaniu operacji walutowo-dewizowych zaciera się granica między walutami a dewizami i często określenia te są używane zamiennie. Walutą nazywamy znaki pieniężne będące prawnym środkiem płatniczym w danym kraju. Natomiast dewizami są pieniężne należności zagraniczne, które ze względu na swą formę i płynność mogą być zrealizowane natychmiast lub w krótkim czasie (np. czeki, weksle, obligacje itp.).

W operacjach międzynarodowych obok ryzyka handlowego pojawia się ryzyko kursowe, zwłaszcza gdy występują kursy płynne kształtowane przez popyt i podaż. Każdy eksporter jest zainteresowany wyborem waluty stabilnej, aby po dokonaniu transakcji i zainkasowaniu należności mógł kupić inne waluty bez straty na kursie. Na ryzyko kursowe są także banki przeprowadzające operacje walutowo-dewizowe. Wynika ono ze zmiany kursu walut, w okresie od przyjęcia depozytu lub udzielenia kredytu do dnia zwrotu depozytu lub spłacenia kredytu. na przykład w banku powstaje strata (ujemna różnica kursowa), gdy w okresie, na jaki udzielił on kredytu dewizowego, spadnie kurs tej waluty. W przypadku wzrostu kursu bank w opisanej sytuacji zyska (dodatnia różnica kursowa), a straci kredytobiorca. Należy jednak pamiętać, że banki w tym samym czasie utrzymują depozyty i kredytują klientów w różnych walutach. Ponieważ występują zmiany kursów wielu walut, różnice kursowe częściowo się kompensują, co zmniejsza ryzyko kursowe banku. Ponadto w celu zmniejszenia tego ryzyka banki komercyjne stosują różne formy i metody zabezpieczenia.

Pytanie: jaki mechanizm ekonomiczny kształtuje kurs walut w danym kraju? Były różne próby wyjaśnienia tego mechanizmu oparte na sile nabywczej pieniądza, mierzonej wskaźnikiem przeciętnego poziomu cen rynkowych wszystkich towarów i usług wytwarzanych w kraju. Najnowsze teorie ekonomiczne wyjaśniają kurs walut na podstawie równowagi bilansu płatniczego. Opiera się ona na twierdzeniu, że kursy walutowe są wynikiem relacji podaży do popytu na waluty obce, która odzwierciedla aktualny stan bilansu płatniczego. Kurs walutowy powinien zatem równoważyć wszelkie wpływy dewizowe z wydatkami na import dóbr i usług oraz różnymi zobowiązaniami finansowymi i płatnościami niehandlowymi.

Dewaluacja polega na podwyższeniu kursu wymiennego waluty zagranicznej wyrażonego w jednostkach waluty krajowej. Dewaluacja waluty krajowej jest korzystna dla eksporterów, a niekorzystna dla importerów. Eksporter może wówczas zadowolić się niższą ceną, jaka uzyskuje za sprzedane za granicą towary, ponieważ za jednostkę pieniądza zagranicznego otrzymuje więcej jednostek pieniądza krajowego niż przed dewaluacją. Dewaluacja wzmacnia pozycję konkurencyjną eksporterów i czyni eksport bardziej opłacalnym. Równocześnie drożeją wszystkie towary importowane, gdyż ceny towarów zagranicznych są przeliczane na walutę krajową po wyższym kursie. To z kolei wpływa na wzrost cen innych towarów wytwarzanych w kraju, opartych na surowcach, materiałach, paliwie i komponentach importowanych z zagranicy. Dewaluacja podnosi zatem przeciętną stopę inflacji w kraju. Pogorszenie opłacalności importu może wpłynąć na jego ograniczenie. Jeżeli zagraża to wzrostowi produkcji, państwo może po dewaluacji obniżyć cła na niektóre towary i w ten sposób podtrzymać opłacalność najbardziej niezbędnych składników produkcji.

Zdewaluowana waluta pobudza w ten sposób eksport i może ograniczyć w jakimś stopniu import, a więc uruchamia mechanizm ekonomiczny zmierzający do przywrócenia zachwianej równowagi bilansu płatniczego. Im wyższy był deficyt tego bilansu, tym silniejsza musi być dewaluacja waluty krajowej, czyli tym wyższy musi być kurs wymienny innych walut. Koszty tej operacji przerzuca się jednak na społeczeństwo, które traci nie tylko przy wyjazdach zagranicznych, ale także w kraju na skutek wzrostu kosztów utrzymania. Dewaluacja może przynosić korzystne efekty w bilansie płatniczym dopiero po pewnym czasie, ponieważ wzrost wpływów z eksportu następuje powoli, zaś zawarte uprzednio kontrakty importowe zmuszają do zwiększonych wydatków dewizowych. Dewaluacja pogarsza jednak sytuację finansową budżetu państwa w krajach zadłużonych. Państwo musi wówczas przeznaczyć więcej środków pieniężnych na zakup dewiz niezbędnych do bieżącego regulowania należnych procentów oraz rat kredytu.

Dewaluacja wpływa korzystnie na transfery prywatne, gdyż zachęca do przesyłania dewiz zarobionych za granicą i lokowania ich w różne przedsięwzięcia inwestycyjne.

W sumie można stwierdzić, że dewaluacja daje efekty krótkookresowe. Prowadzi ona bowiem do wzrostu cen nie tylko towarów importowanych, ale wszystkich towarów i usług. Towarzyszy temu z reguły wzrost stopy procentowej, wzrost kosztów utrzymania, wzrost płac i tym samym wzrost kosztów produkcji towarów eksportowych. Zatem początkowe korzyści dewaluacji są stopniowo eliminowane na skutek postępującego spadku opłacalności eksportu. Po upływie pewnego okresu powstaje ponowna konieczność dalszej dewaluacji waluty krajowej. W ten sposób dewaluacja przynosi wprawdzie doraźne efekty i staje się konieczna w warunkach rosnącego deficytu bilansu płatniczego, ale równocześnie otwiera drogę niepożądanym zjawiskom gospodarczym.

Rewaluacja polega na obniżeniu kursu waluty krajowej do innych walut. Za jednego dolara płaci się wówczas odpowiednio mniej w jednostkach waluty krajowej.

Rewaluacja jest dokonywana gdy istnieje duża nadwyżka w bilansie płatniczym i kraj dysponuje dużymi rezerwami dewiz. Po rewaluacji zmniejsza się opłacalność eksportu, natomiast zwiększa się opłacalność importu. W wyniku tego stopniowo będzie się zmniejszać nadwyżka eksportu nad importem i tym samym bilans płatniczy będzie zmierzał do równowagi.

9. Inwestycje w modelach wzrostu

Ekonomia neoklasyczna, jak również ekonomia keynesowska zdominowane były przez długi okres analizami typu statycznego, które opierały się na założeniu, że zdolności produkcyjne gospodarki się nie zwiększają.

Neoklasycy koncentrowali się na dowodzeniu, że samoregulujące mechanizmy rynkowe zapewniają wytwarzanie dochodu narodowego w warunkach pełnego wykorzystania istniejących zdolności produkcyjnych oraz pełnego zatrudnienia siły roboczej.

Keynesiści, odwołujący się do realiów gospodarki rynkowej, wskazywali, że zdolności produkcyjne nie są w pełni wykorzystywane, ani zasoby siły roboczej nie znajdują pełnego zatrudnienia. Stąd ich argumentacja koncentrowała się na uzasadnianiu konieczności prowadzenia aktywnej polityki interwencyjnej państwa, której głównym celem jest zwiększanie dochodu narodowego przy istniejących zdolnościach produkcyjnych gospodarki narodowej i tym samym zwiększanie zatrudnienia oraz ograniczanie rozmiarów bezrobocia.

Wzrost gospodarczy po zakończeniu II wojny światowej stał się nie tylko podstawowym warunkiem rozwiązywania najważniejszych problemów społecznych w poszczególnych krajach, ale także głównym wyzwaniem podzielonego świata na rywalizujące ze sobą różne systemy polityczne. Nastąpiło więc wyraźne przesunięcie punktu ciężkości z analiz w stanie równowagi statycznej na analizę mechanizmów zapewniających długofalowy wzrost gospodarczy.

Model wzrostu gospodarczego R. Harroda

Ekonomista angielski, Roy Harrod, wykorzystał keynesowską interpretacje współzależności między inwestycjami a oszczędnościami i przekształcił ją w proste równanie tempa wzrostu dochodu narodowego. W tym celu obie strony równości I = Os podzielił przez dochód narodowy Y i do tej nowej równości wprowadził niezwykle ważną relację między wydatkami inwestycyjnymi I a przyrostem dochodu narodowego ∆ Y. Relacja ta została nazwana przyrostową kapitałochłonnością produkcji i uznana za najważniejszy wkład R. Harroda do teorii ekonomii.

W zapisie formalnym można to ująć w następujące równania:

I Os ∆ Y I Os ∆ Y Os I

—— = ——, lub —— • —— = ——, stąd —— = —— : ——

Y Y Y ∆ Y Y Y Y ∆ Y

gdzie:

∆ Y

——— = G f - tempo wzrostu dochodu narodowego

Y

Os

——— = s - udział oszczędności w dochodzie narodowym, który wyraża stałą przeciętną

Y i krańcową skłonność do oszczędzania

I

——— = k - krańcowy współczynnik kapitałochłonności produkcji mierzony wielkością

∆ Y nakładu inwestycyjnego na jednostkę przyrostu dochodu narodowego

Równanie wzrostu Harrod zapisał w następującej postaci:

s

Gf = ——

k

Oprócz faktycznej stopy wzrostu Gf Harrod sformułował także naturalną stopę wzrostu - Gn oraz gwarantowaną stopę wzrostu - Gw.

Naturalna stopa wzrostu gospodarczego określana jest przez dwa podstawowe czynniki: stopę przyrostu naturalnego, która w długim okresie decyduje o stopie podaży siły roboczej β, oraz postęp techniczny, który decyduje o stopie wzrostu wydajności pracy λ. Stąd: Gn = β + λ.

Gn jest zatem miarą potencjalnych możliwości wzrostu danej gospodarki narodowej, określonych przez naturalne czynniki związane z przyrostem naturalnym ludności oraz możliwym postępem technicznym.

Gwarantowana stopa wzrostu gospodarczego Gw wyraża wzrost dochodu narodowego przy pełnym wykorzystaniu istniejących zdolności produkcyjnych gosp. narodowej. Jest to ścieżka zrównoważonego wzrostu. Jeśli zostanie osiągnięta to wywoła ona stan zadowolenia wśród przedsiębiorstw i chęć dalszego utrzymania się na tej ścieżce wzrostu, gdyż popyt na ich produkty będzie wystarczający, aby zapewnić pełne wykorzystanie zdolności produkcyjnych.

I. Gdy: Gw = Gf = Gn

Równość trzech stóp wyraża stan równowagi dynamicznej. Faktyczna stopa wzrostu Gf kształtuje się na poziomie zapewniającym nie tylko pełne wykorzystanie rosnących zdolności produkcyjnych, ale także pełne zatrudnienie rosnących zasobów siły roboczej - tzn. społeczeństwo tyle oszczędza ze swojego dochodu, zaś przedsiębiorcy tyle inwestują, ile jest niezbędne do stworzenia agregatowego popytu, określającego pełne wykorzystanie istniejących możliwości produkcyjnych i pełne zatrudnienie siły roboczej.

Oszczędności są stałą częścią dochodu narodowego, zaś inwestycje zależą od stopy wzrostu dochodu narodowego. Jak długo inwestuje się tyle, ile się oszczędza z rosnącego dochodu narodowego przy pełnym wykorzystaniu istniejących czynników produkcji, gospodarka znajduje się na wąskiej ścieżce równowagi. Jest to jednak równowaga niestabilna, gdyż jakiekolwiek odchylenie faktycznej stopy wzrostu od stopy gwarantowanej uruchamia mechanizmy pogłębiające zaistniały stan nierównowagi, a nie mechanizmy przywracające równowagę. Owa niestabilność wynika z uzależnienia decyzji inwestycyjnych przedsiębiorców od faktycznej stopy wzrostu dochodu narodowego, która w gospodarce narodowej nigdy nie rośnie równomiernie, lecz podlega różnym nieregularnym wahaniom.

II. Gdy: Gw > Gf < Gn

Odchylenie faktycznej stopy wzrostu poniżej gwarantowanej stopy wzrostu uruchamia mechanizm depresyjny. Gwarantowana stopa wzrostu wyrażona jest równaniem:

s

Gw = ——, gdzie kw oznacza wymagany współczynnik kapitałowy, tj. niezbędną sumę

kw inwestycji do przyrostu dochodu narodowego, który zapewni pełne

wykorzystanie rosnących zdolności produkcyjnych

Skoro Gw > Gf, tzn. że:

s s

—— > ——

kw k

Ponieważ s = s, to nierówność będzie spełniona, jeśli k > kw. Oznacza to, że faktyczny współczynnik kapitałochłonności k jest większy od wymaganego kw, gdyż zaczynają gromadzić się nie sprzedane zapasy towarów. Obniżana stopa wzrostu dochodu narodowego powoduje zmniejszenie wydatków inwestycyjnych w stosunku do nagromadzonych oszczędności. Zmniejszy się efektywny popyt i nie sprzedane zapasy towarów jeszcze bardziej pogłębiają spadek inwestycji. Pojawiają się i coraz bardziej rosną nie wykorzystane zdolności produkcyjne, a wraz z tym zwiększa się bezrobocie. Wraz ze spadkiem stopy wzrostu dochodu narodowego kurczą się jedynie inwestycje indukowane (zależne od wzrostu dochodu narod.). Dolną granicą spadku dochodu narodowego są więc inwestycje autonomiczne oraz autonomiczny poziom wydatków konsumpcyjnych, które są niezależne od wytwarzanego dochodu narod.

III. Gdy: Gw < Gf ≤ Gn

Oznacza to, że ścieżka wzrostu przy pełnym wykorzystaniu zdolności produkcyjnych leży poniżej ścieżki wzrostu wyznaczonej przez potencjalne rezerwy siły roboczej oraz postęp techniczny. W tym przypadku uzyskujemy nierówność:

s s

—— < ——, czyli kw > k

kw k

Faktyczny współczynnik kapitałowy k staje się mniejszy od współczynnika wymaganego kw, gdyż występuje zjawisko zmniejszania się stanu zapasów w gospodarce narodowej w stosunku do wymaganych ich wielkości. Wyższa stopa wzrostu dochodu narodowego pobudzi zwiększone wydatki inwestycyjne ponad zwiększone oszczędności, co będzie prowadziło do wzrostu globalnego popytu i zatrudnienia. Tej fazie wzrostu będzie towarzyszył inflacyjny wzrost cen. Górną granicą wzrostu gospodarczego jest Gn, gdyż faktyczne tempo wzrostu dochodu narodowego nie może przewyższać możliwości określonych przez podaż siły roboczej oraz postęp techniczny.

Model wzrostu gospodarczego E. Domara

W 1947 r. amerykański ekonomista, Evsey Domar, opierając się na teorii Keynesa, skonstruował inny model wzrostu gosp. W przeciwieństwie do modelu Harroda uwzględnił on zarówno popytowy, jak i podażowy aspekt nakładów inwestycyjnych. Popytowy aspekt związany jest z wydatkami inwestycyjnymi, które tworzą rynek zbytu na dobra inwestycyjne. Te wydatki po pewnym okresie zwiększają jednak zdolności produkcyjne gospodarki narodowej i tym samym tworzą możliwości zwiększenia podaży produkcji. Przyjmuje on założenie, że skłonność do oszczędzania jest stała i gospodarka narodowa w punkcie wyjściowym funkcjonuje w warunkach pełnego zatrudnienia i pełnego wykorzystania zdolności produkcyjnych. Stawia on wówczas pytania: jak powinny rosnąć inwestycje, a wraz z nimi dochód narodowy, aby rosnące zdolności produkcyjne dzięki tym inwestycjom mogły być nadal w pełni wykorzystane? W swoim rozumowaniu nie uwzględni on ani salda handlu zagranicznego, ani wydatków rządowych, a koncentruje się na analizie dwoistego charakteru wydatków inwestycyjnych.

Proces tworzenia nowych zdolności produkcyjnych w wyniku działalności inwestycyjnej wyraża się równaniem:

∆ Yz = I • δ

gdzie:

∆ Yz - przyrost zdolności produkcyjnych

δ - potencjalna produkcyjność inwestycji mierzona stosunkiem potencjalnego przyrostu dochodu narodowego ∆ Yp do poniesionych nakładów inwestycyjnych I.

Wymagany popyt, który decyduje o wykorzystaniu rosnących zdolności produkcyjnych, wyrażony jest równaniem:

1

∆Yp = ∆ I —

α

gdzie:

∆Yp - potencjalny przyrost dochodu narodowego,

∆ I - przyrost wydatków inwestycyjnych,

1/α - odwrotność krańcowej skłonności do oszczędzania, która z założenia jest stała i określa wielkość mnożnika inwestycyjnego mi

Z teorii Keynesa wynika, że wzrost inwestycji ∆I tylko za pośrednictwem mnożnika inwestycyjnego mi wpływa na wzrost dochodu narodowego ∆Y. Jeśli inwestycje będą stałe, czyli nie będzie przyrostu wydatków inwestycyjnych, wówczas nie będzie także przyrostu dochodu narodowego. Pojawiają się wtedy nie wykorzystane zdolności produkcyjne oraz bezrobocie.

Warunkiem wzrostu gospodarczego przy pełnym wykorzystaniu zdolności produkcyjnych i pełnym zatrudnieniu siły roboczej jest spełnienie równości:

1

I • δ = ∆ I —

α

co sprowadza się do równania ∆Yz = ∆Yp, tzn., że dochód rośnie w takich rozmiarach, w jakich rosną zdolności produkcyjne gospodarki narodowej.

Powyższe równanie można również zapisać w postaci:

∆ I

—— = δ • α

I

Domar przyjmuje upraszczające założenie, że nie tylko współczynnik skłonności do oszczędzania α jest stały, ale stała jest także potencjalna produkcyjność inwestycji δ. Wynika stąd, że w modelu Domara zakłada się stałe tempo wzrostu nakładów inwestycyjnych, które równa się stałemu tempu wzrostu dochodu narodowego. Przy jednakowym tempie wzrostu nakładów inwestycyjnych roczne przyrosty inwestycji ∆ I muszą być coraz wyższe.

Domar wyciąga ważny wniosek praktyczny, że gospodarka rynkowa musi ciągle zwiększać inwestycje, jeśli ma rosnąć dochód narodowy. Wraz z tym będzie rosło zatrudnienie i tylko w ten sposób można uniknąć bezrobocia. Ten warunek nie jest jednak spełniony, gdyż inwestycje w prywatnej gospodarce nie mogą rosnąć w nieskończoność. Dlatego w rzeczywistym świecie mamy do czynienia zarówno z niepełnym wykorzystaniem zdolności produkcyjnych, jak i niepełnym zatrudnieniem siły roboczej. Na podstawie tego typu analizy dynamicznej Domar potwierdził słuszność argumentacji Keynesa, że wydatki na inwestycje prywatne powinny być wspierane i uzupełniane wydatkami rządowymi finansowanymi z budżetu państwa.

Różnica między modelem Harroda i modelem Domara, polega na tym, że Harrod patrzył w tył i szukał odpowiedzi, czy rosnący dochód narodowy jest wystarczający do pobudzania wydatków inwestycyjnych zdolnych do wchłonięcia oszczędności przy pełnym wykorzystaniu zdolności produkcyjnych, reprezentowanych przez gwarantowaną stopę wzrostu Gw. Domar natomiast patrzył w przód. Analizował on bowiem wpływ dzisiejszych inwestycji na jutrzejszą zdolność produkcyjną i szukał stopy wzrostu, przy której rosnące zdolności produkcyjne będą w pełni wykorzystane.

10. Rodzaje rachunku dochodu narodowego i ich związek z ruchem okrężnym płatności

Podstawowe pojęcia:

Produkt krajowy brutto (PKB, GDP) - jest miarą produkcji wytworzonej przez czynniki wytwórcze zlokalizowane na terytorium danego kraju, niezależnie od tego, kto jest ich właścicielem. Jest sumą wartości dodanej brutto podmiotów gospodarczych powiększoną o podatki pośrednie pobierane od produktów i pomniejszoną o dotacje do produktów.

Produkt krajowy netto (PKN, NDP) - jest to PKB pomniejszony o amortyzację.

Produkt narodowy brutto (PNB, GNP) - jest miernikiem całkowitych dochodów osiąganych przez obywateli danego kraju powiększonych o dochody netto z tytułu własności za granicą. Dochody netto są różnicą między dochodami otrzymanymi z tytułu własności za granicą a dochodami wypłaconymi z tytułu własności cudzoziemcom. PNB = PKB + dochody netto z tytułu własności za granicą.

Produkt narodowy netto (PNN, NNP) - PNB - amortyzacja.

Powyższe cztery mierniki występują w cenach rynkowych. W cenach tych zawarty jest podatek pośredni, który wpłacany jest przez producentów we wszystkich fazach przetwórstwa do budżetu państwa.

Dochód narodowy - jest mniejszy od PNN o wielkość podatków pośrednich. Suma podatków pośrednich stanowi korektę w stosunku do produktu narodowego netto wyrażonego w cenach rynkowych.

Dochód do dyspozycji rodzin - jest częścią dochodu narodowego, która pozostaje po potrąceniu nie rozdzielonych zysków przeznaczonych na rozwój przedsiębiorstw oraz po spłaceniu podatku od dochodów przedsiębiorstw do budżetu państwa. Jednocześnie osobisty dochód ludności jest powiększony o różnego rodzaju transfery z budżetu państwa na rzecz ludności (emerytury, renty, zasiłki dla bezrobotnych, wydatki na opiekę socjalną, stypendia). Osobiste dochody ludności podlegają bezpośredniemu opodatkowaniu. Suma wszystkich dochodów po potrąceniu podatków reprezentuje potencjalna siłę nabywcza społeczeństwa.

Powyższe dwa mierniki wyrażane są w cenach czynników produkcji.

0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
Ruch okrężny strumieni dochodów i wydatków

0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
Dla uproszczenia w ruchu okrężnym uczestniczą trzy podstawowe podmioty gospodarcze: gospodarstwa domowe, rząd i przedsiębiorstwa. Podmioty te kierując się różnymi celami i motywami, podejmują decyzje o sposobie wykorzystania zarobionych lub otrzymanych dochodów. Nagromadzone dochody w gospodarstwach domowych są kierowane na bieżące wydatki konsumpcyjne, a pewna ich część jest oszczędzana z myślą o przyszłych wydatkach. Oszczędności w większości są kierowane do banków komercyjnych, które z kolei kierują te środki w formie kredytów na inwestycje. Budżet państwa, poza transferami na rzecz ludności, kieruje znaczną część zgromadzonych środków pieniężnych na finansowanie inwestycji publicznych, a także na zakup różnych dóbr konsumpcyjnych.

W ten sposób nagromadzone dochody przedsiębiorstw, budżetu państwa oraz gospodarstw domowych przekształcają się w ciągu roku w wydatki konsumpcyjne (K), inwestycyjne (I) oraz rządowe (G). Suma tych wydatków tworzy globalny popyt, który z kolei decyduje o wielkości wytwarzanego PNB. Schemat ruchu okrężnego jest schematem tworzenia i podziału PNB, podporządkowanym fundamentalnej zasadzie, zgodnie z którą wydatki decydują o rozmiarach wytworzonego dochodu narodowego, a nie odwrotnie.

Mierniki dochodu

MPS (Material Product System) - system statystyki oparty o analizę produktu globalnego. Metoda rzeczowa liczenia i podziału dochodu. Stosowana w zarządzaniu scentralizowanym, nakazowo-rozdzielczym, gdzie jest plan decyzji a nie ma rynku. Dochodu nie tworzy każda działalność, lecz tylko gałęzie produkcyjne (np. przemysł, budownictwo, rolnictwo) oraz usługi produkcyjne służące przenoszeniu tych dóbr (transport). Czyli na dochód narodowy w danym roku składają się nowo wytworzone a nie zużyte w produkcji dobra materialne. Wartość nowo wytworzona jest zaś rezultatem pracy tylko ludności produkcyjnej. Efekt traktowany jest jako suma nakładów, stąd kraj może rozwijać się tak długo dopóki są wolne zasoby.

Q = zużyte mater. + amortyzacja + płace + zysk

Q - produkcja globalna

Amortyzacja + płace + zysk = dochód narodowy brutto

Płace + zysk = dochód narodowy netto

Metody liczenia:

liczenie korygowano o obroty wewnętrzne i przedmioty pracy poza działem aby uzyskać z produkcji globalnej produkcję czystą.

Podział dochodu narodowego według MPS:

SNA (System of National Accounts) - system narodowej statystyki. Polega na traktowaniu obu sfer gospodarki, a więc zarówno materialnej, jak i niematerialnej, jako tworzących dochód narodowy. Zgodnie z tym systemem każda działalność przynosząca dochód uznawana jest za działalność gospodarczą tworzącą dochód narodowy. W systemie tym miernikami dochodu narodowego są wymienione na początku opracowania wielkości (w podstawowych pojęciach).

PNB według SNA składa się z 9 elementów:

  1. amortyzacja i straty

  2. podatki pośrednie minus subsydia

  3. narzuty do świadczeń

  4. podatki (dochodowy, od nieruchomości)

  5. nie rozdzielone zyski

  6. pensje i płace

  7. dochody właścicieli przedsiębiorstw

  8. inne dochody z tytułu własności środków produkcji

  9. dochody państwa z tytułu własności czynników produkcji

Podział dochodu narodowego według SNA:

C+I+G+B+NX = Y = YD+TA-TR+P-L = C+S+TA-TR+P-L

C -konsumpcja

I -inwestycje

G - wydatki rządowe

B - bank

NX - saldo handlu zagranicznego

Y - dochód wytworzony

YD - dochód do dyspozycji (dwóch pierwszych podmiotów)

TA - podatki

TR - transfery

P - płatności na rzecz banku

L - kredyty udzielane przez bank

S - oszczędności

11. Mechanizm powstawania nierównowagi podażowej przy stałych i zmiennych cenach

W gospodarce rynkowej stale istnieje nierównowaga podażowa. Objawia się ona bądź jako nadwyżka dóbr, których nie można sprzedać, bądź jako nadwyżka mocy produkcyjnych, których - z braku popytu - nie sposób uruchomić.

Nierównowaga przy założeniu stałych cen

0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
Celem przedsiębiorcy w gospodarce rynkowej jest max zysku, czyli różnica między poniesionym kosztem a uzyskanym utargiem. Gdyby koszty rosły w tym samym tempie, w którym wzrasta produkcja, ekspansja przedsiębiorstwa rynkowego nie byłaby od tej strony hamowana. Tak jednak nie jest. Koszt krańcowy, czyli koszt wytwarzania każdej następnej jednostki produktu, najpierw spada, a później rośnie. Koszt krańcowy początkowo, czyli przy bardzo niskich rozmiarach produkcji, wyższy jest od przeciętnego utargu (który w sytuacji nie zmienionych cen jest równocześnie utargiem krańcowym), co oznacza, że przedsiębiorstwo ponosi bezwzględne straty (do punktu OA). Po przekroczeniu jednak pewnej ilości produkcji każda następna jednostka przynosi zysk. Zysk krańcowy (osiągnięty dzięki sprzedaży kolejnej jednostki produktu) jest początkowo coraz wyższy, a później (po osiągnięciu punktu OC) zaczyna spadać aż przedsiębiorstwo osiąga punkt równowagi (koszt krańcowy = utarg krańcowy) (punkt OD). Dalszy rozwój przedsiębiorstwa jest możliwy jedynie poprzez obniżanie kosztów (linia K1).

0x08 graphic
0x08 graphic
0 A B C produkcja D D'

Rys. W. Balicki , Makroekonomia, str. 134.

Nierównowaga przy założeniu cen zmiennych

Założenie jw. że nie ma inwestycji podnoszących rozmiary mocy produkcyjnych. Przedsiębiorca wykorzysta każdą okazję do podniesienia ceny. O ile rozmiary produkcji pozostają niezmienione, możliwość taka pojawi się w chwili wzrostu popytu. Uwidaczniają się dwie tendencje: popyt wykazuje skłonność do słabnięcia, druga sprowadza się do faktu, że jeśli z jakiegoś powodu jest on w niektórych przypadkach zbyt wysoki, jego nadwyżka jest natychmiast likwidowana przez spontaniczny wzrost cen. Osłabienie popytu nie pociąga za sobą natychmiastowego obniżenia ceny, gdyż jest to sprzeczne z dążeniem przedsiębiorcy do max zysku. Jeśli założymy te dwie tendencje i weźmiemy pod uwagę, że wszyscy przedsiębiorcy postępują w ten sposób, otrzymamy nierównowagę podażową jako chroniczną przypadłość gospodarki rynkowej.

Wzrost ceny produktów nabywanych przez przedsiębiorcę to wzrost jego kosztów. Krzywa kosztu krańcowego przesuwa się ku górze, co powoduje, iż punkt równowagi przesuwa się w lewo. Ilość nabywanych produktów maleje. Im wyższa cena - popyt niższy. Wzrost ceny produktów sprzedawanych przez przedsiębiorcę powoduje skutek odwrotny. Prosta obrazująca utarg przesuwa się ku górze, a zatem punkt równowagi ulega przesunięciu w prawo, co oznacza możliwość powiększania produkcji.

12. Polityka pieniężna, fiskalna i kursowa a stabilizacja gospodarki.

Przywrócenie równowagi w gospodarce, tj. doprowadzenie do stanu, w którym jej wzrost odbywa się w sposób stabilny, bez krótkookresowych fluktuacji. Stanowi jeden z głównych celów interwencjonizmu państwowego w warunkach braku stabilności i cyklicznych wahań koniunktury. Polityka stabilizacji gospodarczej ma na celu przeciwdziałanie podstawowym symptomom odchyleń od stanu równowagi w gospodarce, powtarzającymi się przemiennie, mianowicie wzrostowi bezrobocia występującemu w fazach spadkowych cyklu koniunkturalnego lub wzrostowi cen występującemu w okresach wysokiej koniunktury (lub pod wpływem innych przejawów tendencji inflacyjnych). Ten antycykliczny charakter polityki stabilizacyjnej wyraża się w podejmowaniu przez państwo środków polityki pieniężno-kredytowej i budżetowej w celu wywołania kompensacyjnych zmian w obu tych wielkościach gospodarczych.

Polityka fiskalna to decyzje rządu dotyczące wydatków i podatków.

Polityka stabilizacyjna obejmuje działania rządu zmierzające do utrzymania poziomu produkcji, tak by PNB był blisko poziomu zapewniającego pełne wykorzystanie czynników wytwórczych (pełne zatrudnienie).

Deficyt budżetowy jest to nadwyżka wydatków państwa nad jego dochodami.

  1. Wydatki państwa na dobra i usługi powodują wzrost dochodu i produkcji. W okresie recesji, gdy równowaga występuje na niskim poziomie produkcji, wzrost wydatków państwa na dobra i usługi podwyższy łączny popyt i poziom produkcji zapewniający równowagę.

  2. Stopa podatków netto wzrasta, gdy rząd podnosi podatki bezpośrednie, np. stopę podatku dochodowego lub ogranicza stopę subsydiów, takich jak zasiłki dla bezrobotnych. Inaczej - dochody z podatków netto wzrastają przy każdym poziomie dochodu narodowego i bezrobocia. Zwiększenie stopy opodatkowania netto obniża poziom produkcji zapewniający równowagę, a obniżenie stopy opodatkowania netto prowadzi do ustalenia się równowagi na wyższym poziomie produkcji. To sugeruje, że gdy łączny popyt i produkcja zapewniająca równowagę znajdują się poniżej poziomu pełnego zatrudnienia, to niższa stopa opodatkowania albo niższa stopa wypłat transferowych podniesie łączny popyt i przesunie poziom produkcji odpowiadający stanowi równowagi bliżej poziomu zapewniającego pełne zatrudnienie.

  3. Mnożnik zrównoważonego budżetu oznacza, że wzrost wydatków państwa, któremu towarzyszy taki sam wzrost podatków, powoduje zwiększenie produkcji.

  4. Wzrost wydatków państwowych na dobra i usługi podnosi poziom produkcji zapewniający równowagę. Przy danej stopie podatkowej wpływy podatkowe rosną. Mimo to deficyt budżetowy powiększa się (lub nadwyżka budżetu zwiększa się).

Automatyczne stabilizatory i aktywna polityka fiskalna.

Automatyczne stabilizatory ograniczają zakres wahań PNB poprzez zmniejszenie wartości mnożnika. Podatek dochodowy, VAT, zasiłki dla bezrobotnych są głównymi automatycznymi stabilizatorami w gospodarce zamkniętej. Import jest kolejnym ich przykładem w gospodarce otwartej.

Dodatkowo rząd może zastosować aktywną (dyskrecjonalną) politykę fiskalną w celu ustabilizowania poziomu produkcji. W praktyce nie należy oczekiwać, by aktywna polityka fiskalna była w stanie w pełni ustabilizować poziom produkcji. Występują bowiem opóźnienia czasowe w rozpoznawaniu problemu, wprowadzaniu zmian w polityce oraz w dostosowaniu się do nowego stanu równowagi. Ponieważ efekty polityki fiskalnej nie pojawiają się natychmiast, rząd musi prognozować zmiany pozostałych składników popytu, aby ustalić niezbędny zakres zmian w bieżących posunięciach fiskalnych. Błędy w przewidywaniu przyszłego popytu, oszacowaniu wysokości mnożnika i w ocenie zakresu zmian w - jak się zakłada - autonomicznych składnikach popytu wywołanych posunięciami fiskalnymi, wszystko to prowadzi do pomyłek w obliczeniu skali zmian w polityce fiskalnej, niezbędnych do pełnego (doskonałego) ustabilizowania produkcji.

13. Kontrowersje wokół polityki zwalczania inflacji i bezrobocia - stanowiska różnych szkół

W połowie lat 50-tych XX wieku powstał nowy kierunek myśli ekonomicznej nazywany monetaryzmem. Monetaryści nawiązali do ilościowej teorii pieniądza i na tej podstawie sformułowali czysto monetarystyczną teorię inflacji. Ilościowa teoria pieniądza została wyrażona prostym równaniem, w którym każdy jego składnik zależy od pozostałych składników:

M • V = P • Y

Monetaryści przyjęli założenie, że w krótkim okresie szybkość obiegu pieniądza V jest stała. Nie zmienia się także pod wpływem czynników pieniężnych realny poziom dochodu narodowego Y. Jego wzrost zależy od innych realnych czynników produkcji. Przy założeniu, że V oraz Y są stałe, poziom cen rynkowych P będzie się zmieniał proporcjonalnie do wzrostu podaży pieniądza M zgodnie z poniższą formułą:

∆ M ∆ P

—— = ——

M P

To proste równanie wyraża istotę teorii monetarystycznej. Monetaryści bowiem wychodzą z założenia, że występuje przyczynowo-skutkowy związek między podażą pieniądza M a przeciętnym poziomem cen - ten właśnie związek tłumaczy przyczyny inflacji, która wynika z nadmiernej podaży pieniądza w stosunku do realnego produktu narodowego brutto. Polityka ta opiera się na fundamentalnej zasadzie, że podaż pieniądza powinna rosnąć w stałym tempie na poziomie przewidywanego tempa wzrostu dochodu narodowego. W ten sposób można ukształtować popyt globalny na dostatecznie wysokim poziomie i stymulować za pośrednictwem umiarkowanego dopływu pieniądza równomierny wzrost dochodu narodowego. Monetaryści uważali, że inflacja jest w rezultacie zjawiskiem pieniężnym. Skoro wszystko zależy od polityki pieniężnej banku centralnego, to wszelka inna ingerencja państwa w życie gospodarcze kraju jest zbędna, a nawet może być szkodliwa, gdyż samoregulujące mechanizmy rynkowe są w stanie zapewnić równomierny wzrost przy pełnym wykorzystaniu czynników produkcji.

A. W. Phillips, ekonomista z Nowej Zelandii wykładający w Anglii, prowadził badania długookresowej zależności między stopą inflacji a stopą bezrobocia. Badania te wykazały wysoki stopień zależności między tymi wielkościami, a mianowicie okazało się, że przy wysokiej stopie inflacji występuje niska stopa bezrobocia, i odwrotnie, przy niskiej stopie inflacji - wysoka stopa bezrobocia. Na tej podstawie sformułował on krzywą o nachyleniu ujemnym tzw. krzywą Phillipsa.

0x08 graphic
0x08 graphic
0x08 graphic
B

0x08 graphic
• D

A

stopa inflacji (%) •

C

0x08 graphic

stopa bezrobocia (%)

Z ogólnego kształtu krzywej Phillipsa wynika, że przesunięcie z punktu A do B może spowodować pewien spadek bezrobocia, ale tylko za cenę silniejszego wzrostu inflacji. Natomiast przesunięcie z punktu A do C oznaczałoby całkowitą redukcję stopy inflacji do zera, ale tylko kosztem znacznego wzrostu stopy bezrobocia. Krzywa ta wskazuje zjawisko wzajemnej konkurencyjności między stopą bezrobocia a stopą inflacji nazywane zjawiskiem wymienności. Jeśli państwo pragnie zmniejszyć bezrobocie, musi zwiększyć wydatki, złagodzić restrykcje finansowe, aby ułatwić dostęp do taniego pieniądza i zwiększyć skłonność do inwestowania. Te działania sprzyjają jednak nakręcaniu inflacji. Chcąc z kolei ograniczyć inflację, państwo zwiększa dyscyplinę wydatków budżetowych, zaś bank centralny, a za nim banki komercyjne zaczynają prowadzić restrykcyjną politykę pieniężną. Te posunięcia prowadzą do recesji gospodarczej i wzrostu bezrobocia typu koniunkturalnego. W latach 70-tych pojawiły się nowe niekorzystne zjawiska - stagnacja gospodarki amerykańskiej. Produkcja przestała rosnąć, a nawet nieco spadała, ceny zaś nadal rosły wraz ze wzrostem bezrobocia. W tych warunkach dalsze zwiększanie wydatków państwa nie prowadziło do wzrostu produkcji i spadku bezrobocia, a powodowało głównie wzrost stopy inflacji. Zwolennicy teorii Keynesa i krzywej Phillipsa wskazywali, że pod wpływem szokowego wzrostu cen nastąpiło przesunięcie krzywej do góry i gospodarka znalazła się w punkcie D, który ilustruje wyższą stopę inflacji i bezrobocia niż w punkcie A.

Spór między keynesistami a monetarystami

Monetaryści - opierając się na podstawowych twierdzeniach teorii neoklasycznej - odrzucili keynesowską teorię przymusowego bezrobocia spowodowanego niedostatecznym globalnym popytem. Akceptowali oni neoklasyczną teorię bezrobocia dobrowolnego oraz wprowadzili nową kategorię bezrobocia naturalnego, wynikającego z niedoskonałości rynku pracy oraz z niedostosowań strukturalnych. Stopa bezrobocia naturalnego rzędu 4-5% nie zależy od wysokości stopy inflacji. Dlatego krzywa nie ma kształtu spadającego coraz wolniej, lecz kształt pionowy. Przecina ona oś odciętych na wysokości określonej przez stopę bezrobocia naturalnego i może pionowo przesuwać się w lewo lub w prawo w zależności od niewielkich zmian w stopie bezrobocia. Jeśli bezrobocie wzrasta powyżej stopy naturalnej, wówczas płace spadają, zwiększa się rentowność produkcji i wzrasta zatrudnienie. Natomiast spadek bezrobocia poniżej stopy naturalnej wzmaga żądania płacowe, co obniża rentowność produkcji, jej rozmiary i wywołuje wzrost bezrobocia do poziomu stopy naturalnej. W ten sposób - zdaniem monetarystów - sama wraca do stanu równowagi gospodarczej.

0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic

stopa inflacji (%)

0x08 graphic

0x08 graphic
8

0x08 graphic
6

0x08 graphic
4

2

0x08 graphic
0x08 graphic

0 3 4 5

stopa naturalnego bezrobocia (%)

Pojęcie „naturalna stopa bezrobocia”, wprowadzone przez M. Friedmana w 1967 r., stało się początkiem wielkiej dyskusji wśród ekonomistów zachodnich w latach 70-tych i 80-tych. Zaczęto szczegółowo badać znaczenie informacji w zachowaniu różnych podmiotów gospodarczych. Uzasadniono, że gospodarka narodowa będzie funkcjonowała w stanie równowagi przy naturalnej stopie bezrobocia. Z tego rozumowania wynikał wniosek, że wszelka polityka ekonomiczna państwa jest nieskuteczna, gdyż podmioty gospodarcze, działające według zasady racjonalnych oczekiwań, nie dadzą się zepchnąć ze stanu równowagi i będą reagowały tak. iż uczynią interwencyjne decyzje państwa zbędnymi.

W ten sposób teoria naturalnej stopy bezrobocia zapoczątkowała nową ekonomią klasyczną, bazującą na złożeniach racjonalności działania wszystkich podmiotów gospodarczych. Tej współczesnej filozofii ekonomicznej nie udało się pogodzić z koncepcją krzywej Phillipsa.

Keynesiści tradycyjnie akcentują, że ważniejsze jest zwalczanie bezrobocia przez wzrost całkowitych wydatków wchodzących w skład globalnego popytu, nawet jeśli będzie to prowadziło do wzrostu pełzającej inflacji, która nie jest groźna dla stabilności gospodarki rynkowej. Teoria Keynesa odnosząca się do krótkiego okresu zakłada, że w warunkach niskiego wykorzystania zdolności produkcyjnych wzrost jakichkolwiek składników globalnego popytu będzie wpływał na wzrost realnego dochodu przy nie zmienionym poziomie cen rynkowych. Niebezpieczeństwo inflacji pojawia się dopiero wówczas, gdy zwiększenie składników globalnego popytu dokonuje się w warunkach „wąskich gardeł” ograniczających dalszy wzrost produkcji w granicach istniejących zdolności produkcyjnych.

Monetaryści i nowa ekonomia klasyczna wykazują, że bezrobocie nie jest żadnym problemem społecznym, zaś inflacja może być zredukowana do minimum przy rozmiarach dochodu narodowego odpowiadających istniejącym zdolnościom produkcyjnym. Jeśli przyjmiemy hipotezę monetarystów, że inflacja jest zjawiskiem czysto pieniężnym, co oznacza, że wzrost cen spowodowany jest przede wszystkim nieodpowiednimi zmianami nominalnej podaży pieniądza, wówczas walka z inflacją sprowadza się do umiejętnej regulacji podaży pieniądza w wyrażeniu realnym. Współczesne teorie neokeynesistowskie zakładają, że wzrostowi realnego dochodu narodowego towarzyszy więcej niż proporcjonalny wzrost cen nawet wówczas, gdy zdolności produkcyjne nie są w pełni wykorzystane. Przyczyny wzrostu cen są bardzo różnorodne i można hamować ten wzrost przez odpowiednie hamowanie wzrostu płac pieniężnych, ograniczanie nadmiernego deficytu budżetowego oraz odpowiednią regulację dopływu pieniądza do obiegu za pośrednictwem polityki banku centralnego.

15. Ekologiczne uwarunkowania wzrostu gospodarczego.

Do końca XVIII wieku wzrost gospodarczy dokonywał się tak powoli, iż nie był dostrzegany przez człowieka w ciągu całego życia. Nie były zatem dostrzegane jego skutki. Od początku XIX wieku rozpoczęło się stopniowe przyspieszanie, a obecnie cała niemal ludzkość uczestniczy w wyścigu, w którym główną nagrodą jest dogonienie społeczeństw najwyżej rozwiniętych. Wzrost gospodarczy stwarza wiele zagrożeń, a ich spora część to zagrożenia śmiertelne. Jednym z nich jest degradacja środowiska naturalnego. Do problemów środowiska przywiązuje się coraz większą wagę, rosną nakłady na jego ochronę, a w makroekonomii rozważana jest kwestia wzrostu ekologicznie zrównoważonego.

Termin ten jest używany na oznaczenie takiego procesu wzrostu gospodarczego, w którym stan zanieczyszczenia środowiska utrzymuje się na stałym poziomie. Czasem warunek ten jest zastępowany sformułowaniem - na poziomie społecznie akceptowanym. Zastępowanie przymiotnika stały sformułowaniem społecznie akceptowany sugeruje, że w tym drugim przypadku pogorszenie się poziomu degradacji środowiska odbywa się za społecznym przyzwoleniem. Zdajemy sobie sprawę, że zanieczyszczenie jest ceną wygód, jakie dostarcza mieszkańcom Ziemi postęp cywilizacyjny. Z faktem tym ludzkość jest pogodzona. Protesty mogą się pojawić dopiero wówczas gdy cena ta okaże się zbyt wysoka.

Dla ułatwienia wprowadźmy terminy:

Wskaźnik świadomości ekologicznej społeczeństwa. Jest to liczba, która informuje na ile % degradacji środowiska wyraża zgodę społeczeństwo, jeśli mierzony przyrostem produktu krajowego brutto wzrost dobrobytu wynos 1%. Liczba ta określona jest przez formułę:

0x01 graphic

gdzie:

D - degradacja środowiska

∆ D - przyrost degradacji

Y - produkt krajowy brutto

∆ Y - przyrost produktu krajowego

Wzrost zrównoważony ekologicznie. Jeśli dokonuje się wzrost gospodarczy, przy czym spełniony jest postulat S = 0, to mamy do czynienia ze wzrostem ekologicznie zrównoważonym. Spełnienie postulatu S = 0 powoduje bowiem, że mimo wzrostu gospodarczego degradacja środowiska utrzymuje się na poziomie niezmienionym.

Wzrost społecznie akceptowany. Jeżeli wzrost gospodarczy spełnia warunek S, to mamy do czynienia ze wzrostem społecznie akceptowanym. Liczba S charakteryzuje poziom świadomości ekologicznej społeczeństwa. Im liczba ta jest mniejsza tym poziom wyższy.

Rysunek 1.

0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
D 0x01 graphic
S1 > 1

S2 = 1

S3 < 1

Y

Funkcja S3 ilustruje względnie wysoki poziom świadomości ekologicznej gdyż tempo wzrostu degradacji środowiska jest wolniejsze od tempa wzrostu produktu krajowego brutto.

Funkcja S2 oznacza , że społeczeństwo godzi się na pogorszenie stanu środowiska w tym samym tempie, w jakim rośnie jego dobrobyt mierzony stopą wzrostu PKB.

Funkcja S1 ilustruje niski poziom świadomości, gdyż degradacja środowiska może, za społecznym przyzwoleniem, rosnąć szybciej od dobrobytu.

Ważnym elementem jest ochrona środowiska. Jeżeli nakłady na nią są skutecznie wykorzystywane - powstrzymują tempo jego degradacji. Postulat wzrostu ekologicznie zrównoważonego lub przynajmniej społecznie akceptowanego wiąże się z żądaniem takiego tempa nakładów na ochronę, aby mimo wzrostu PKB, postęp degradacji został zahamowany całkowicie lub częściowo. Środowisko posiada zdolność do absorpcji zanieczyszczeń, ale jest ona w wysokim stopniu ograniczona. Inny problem stanowi wyczerpywanie zasobów złóż naturalnych, które nie są odnawialne i ich ciągła eksploatacja doprowadzi prędzej czy później do ich całkowitego wyczerpania. Ma to także pozytywny bodziec, gdyż pojawiają się na rynku nowe pomysły i technologie które mają na celu wykorzystanie złóż naturalnych w bardzo oszczędny sposób lub użycie dóbr niewyczerpywalnych.

Konsekwencje wzrostu gospodarczego wykraczają daleko poza granice makroekonomii. Być może świadomość ekologiczna zmieni się w przyszłości do tego stopnia, że wskaźnik S przybierze wartość zero.

16. Metody badań związków zależnościowych między zmiennymi.

W życiu pewne zjawiska (zmienne) są od siebie zależne, bądź są ze sobą związane. Mówimy na przykład, iż płaca zależy od wydajności, a wydajność między innymi od płacy, że spożycie napojów chłodzących zależy od temperatury. Pierwszy rodzaj zależności określamy mianem zależności dwustronnej bądź obustronnej, drugi mianem zależności jednostronnej, nie wpływa na temperaturę. W podobnych przypadkach (po stwierdzeniu istnienia logicznego związku między zmiennymi charakteryzującymi określone zjawiska), pojawia się problem pomiaru natężenia występującego między zmiennymi związku. Jeżeli między dwoma rozpatrywanymi zmiennymi występuje związek o charakterze prostoliniowym, czego wyrazem jest smuga punktów - którą tworzą współrzędne odnotowanych w wyniku obserwacji statystycznej wartości tych zmiennych - zbliżona kształtem do linii prostej, to współzmienność badanych zmiennych charakteryzuje tzw. kowalencja, czyli średnia arytmetyczna iloczynu odchyleń wartości zmiennych od ich średnich arytmetycznych:

wzór 1

n

cov (x,y) = cov (y,x) = 1/n ∑ (x-xśr) • (y-yśr)

i=1

Ponieważ wartość kowalencji zależy od rzędu wielkości, w jakich wyrażone są obydwie cechy, więc nie można jej wykorzystywać bezpośrednio do porównań. Unormowanym miernikiem natężenia i kierunku współzależności liniowej dwóch zmiennych ilościowych jest współczynnik korelacji liniowej Pearsona r, wyznaczany poprzez standaryzację kowariancji, czyli:

1 n

— • Σ (xi - xśr) • (yi - yśr)

wzór 2 n i = 1

r = ———————————

δx • δy

gdzie: n - liczba obserwacji,

xśr, yśr - średnie wartości badanych zmiennych,

δxy - ich odchylenia standardowe.

Współczynnik koleracji liniowej Pearsona przyjmuje wartości z przedziału <-1, +1>.

Znak + przy współczynniku korelacji oznacza, iż między rozpatrywanymi zmiennymi występuje zależność o charakterze dodatnim, co oznacza, iż wraz ze wzrostem wartości jednej zmiennej obserwujemy wzrost wartości drugiej (bądź wraz ze spadkiem wartości jednej zmiennej obserwujemy spadek wartości drugiej zmiennej). Znak „-„ przy współczynniku koleracji oznacza, iż między rozpatrywanymi zmiennymi występuje zależność ujemna, która oznacza, iż wraz ze wzrostem wartości jednej zmiennej obserwujemy spadek wartości drugiej zmiennej.

Im bezwzględna wartość współczynnika koleracji jest bliższa jedności, tym związek między zmiennymi jest silniejszy, im zaś jest ona bliższa zeru, tym słabszy. Precyzja oceny siły związku między rozpatrywanymi zmiennymi wymaga jednak założenia określonego poziomu istotności (ufności) oceny oraz uwzględnienia liczby obserwacji danych zmiennych (n), na podstawie których bada się związek między tymi zmiennymi, a ściślej tzw. liczby stopni swobody (n-k) uwzględniającej poza liczbą obserwacji zmiennych także liczbę szacowanych parametrów funkcji opisującej związek między tymi zmiennymi. W przypadku zależności prostoliniowej k=2. w badaniach zjawisk ekonomiczno-społecznych najczęściej przyjmuje się poziom istotności α=0,05 (tj. współczynnik ufności 1-α=0,95). Hipotezę zerową głoszącą, iż współczynnik korelacji ρ(ro) w populacji generalnej (dla którego oceną jest współczynnik korelacji r w próbie) jest równy zero, weryfikujemy w zależności od liczebności próby za pomocą testu istotności z (dla n≥122):

wzór 3

0x08 graphic
r

0x08 graphic
ze = ———— • √ n

√1 - r2

Bądź testu t-Studenta (dla n<122):

wzór 4

r

0x08 graphic
te = ———— • √ n - 2

0x08 graphic
√1 - r2

Hipotezę zerową (H0: ρ=0) o braku zależności między rozpatrywanymi zmiennymi odrzucamy w przypadku, gdy n≥122, jeśli bezwzględna wartość statystyki z obliczona według wzoru nie jest niższa od wartości odczytanej z tablic dystrybuanty rozkładu normalnego N (0;1) na założonym poziomie istotności α . W przypadku gdy n<122, hipotezę zerową odrzucamy, jeżeli bezwzględna wartość tzw. empirycznej statystyki t-Studenta obliczona według wzoru nie jest niższa od tzw. wartości krytycznej statystyki t odczytanej z tablicy wartości krytycznych rozkładu t-Studenta na danym poziomie istotności (główka tablicy) i przy liczbie stopni swobody n-2 (boczek). W przeciwnych przypadkach nie ma podstaw do odrzucenia hipotezy zerowej o braku korelacji między rozpatrywanymi zmiennymi.

Współczynnik korelacji liniowej Pearsona informuje o charakterze i sile związku między badanymi zmiennymi. Nie pozwala jednak określić jaki będzie poziom jednej zmiennej przy określonym poziomie wartości drugiej zmiennej. Nie pozwala nam również określić, o ile średnio zmieni się wartość jednej zmiennej, jeżeli druga wzrośnie o jednostkę. Odpowiedzi na powyższe pytania są niezwykle ważne w analizie związku dwóch zmiennych. Można je uzyskać na podstawie tzw. rachunku regresji.

Analitycznym wyrazem przyporządkowania średnich wartości zmiennej objaśnianej, konkretnym wartościom zmiennych objaśniających, jest funkcja regresji. Dokładny obraz takiego przyporządkowania daje funkcja regresji I rodzaju Y'i = f(Xi) i składnik losowy ξi . Aproksymantą (przybliżeniem) funkcji regresji I rodzaju jest opisująca zależność korelacyjną zmiennych w próbie losowej, funkcja regresji II rodzaju y'i = f(xi) i składnik resztowy zi jako estymator ξi. Różnica między funkcja regresji I rodzaju a funkcją regresji II rodzaju polega na tym, iż funkcja regresji I rodzaju odnosi się do populacji generalnej, a II rodzaju do próby.

Jeżeli więc zależność między dwoma zmiennymi może być opisana za pomocą funkcji prostoliniowej, przy czym zmienną objaśnianą (czyli zależną) jest zmienna y, to model regresji zmiennej y względem zmiennej x (zmiennej niezależnej, objaśniającej) ma postać:

wzór 5 yi = ay + byxi + zi, gdzie zi to zmienna resztowa

Zmienna resztowa zawiera w sobie efekty łącznego oddziaływania kilku czynników, w tym głównie zmiennych niezależnych poza wprowadzonymi do modelu, błędów pomiaru zmiennych zależnych i niezależnych oraz składnika „czysto” losowego. Uwagi te odnoszą się do wszystkich zagadnień związanych z opisem kształtowania się zmiennych statystycznych za pomocą wszelkiego typu funkcji matematycznych, przy czym dotyczą nie tylko problemu regresji zmiennych, ale także opisu tendencji rozwojowej zmiennych w czasie.

W równaniu prostoliniowej funkcji regresji:

wzór 6 yi' = ay + byxi

ocena współczynnika regresji by informuje, o ile średnio zmieni się zmienna objaśniana y, jeżeli zmienna niezależna x wzrośnie o jednostkę. Ocenę parametru a nazywa się zwykle wyrazem wolnym, a jego wartości nie interpretuje się. Powyższe równanie regresji pozwala na oszacowanie wartości zmiennej y przy założonym poziomie zmiennej x, przy czym chodzi o to, aby oszacowane wartości na podstawie równania powyżej jak najmniej różniły się od wartości rzeczywistych, czyli by suma kwadratów tych różnic była jak najmniejsza:

n

wzór 7 W = Σ (yi - yi')2 = min

i=1

Zatem zagadnienie sprowadza się do znalezienia minimum funkcji:

n

wzór 8 W = Σ (yi - ay - byxi)2

i=1

Minimum funkcji W można otrzymać stosując właściwie dla rachunku różniczkowego zasady znajdowania ekstremum funkcji. Należy więc obliczyć pochodne cząstkowe funkcji W względem ay oraz by i przyrównać je do zera.

Zależności krzywoliniowe

W rzeczywistości wiele badanych zależności nie ma charakteru prostoliniowego. Smuga punktów w układzie współrzędnych badanych zmiennych, będąca graficzną prezentacja odnotowanych w wyniku obserwacji statystycznej ich wartości, swym kształtem zdecydowanie bardziej przypomina inną niż prostoliniowa postać funkcji. Zależności krzywoliniowe generalnie charakteryzują się tym, iż w miarę wzrostu wartości zmiennej niezależnej stosunek przyrostu zmiennej zależnej do przyrostu tej zmiennej niezależnej jest średnio biorąc malejący, rosnący lub dla pewnego przedziału wartości zmiennej niezależnej - rosnący, a dla innego przedziału wartości tej zmiennej niezależnej - malejący. Analiza stosunków przyrostów zmiennej zależnej od przyrostów zmiennej niezależnej może być bardzo pomocna w analizie jakościowej stanowiącej podstawę doboru kształtu funkcji dla badanej zależności. Oczywiście kryterium najlepszego dopasowania jest metoda najmniejszych kwadratów. Badana zależność przy pewnych wartościach zmiennej może być dodatnia, a przy innych ujemna, czyli dana współzależność krzywoliniowa na pewnym odcinku tej krzywej może być dodatnia, na innym zaś ujemna. Jednakże, podobnie jak w przypadku zależności prostoliniowych, problem sprowadza się do oszacowania parametrów możliwie najlepiej dobranej dom charakteru badanej zależności funkcji matematycznej. Oszacowaniu tych parametrów służy odpowiedni dla danej funkcji układ równań. Zależności krzywoliniowe dwóch zmiennych mogą więc mieć na przykład charakter regresji hiperbolicznej, wykładniczej, wielomianowej lub innej. Idea postępowania rachunkowego i analitycznego jest jednak w tych przypadkach podobna. Ilustracja jest przykład funkcji wielomianowej drugiego stopnia, czyli paraboli opisującej związek dochodu z liczbą osób (dzieci) w próbie 10 gospodarstw domowych.

W przypadku tychże funkcji wybór stopnia wielomianu w znacznej mierze jest subiektywny, jednakże cenną zaletą tych funkcji jest to, iż w przypadku przyjęcia funkcji wielomianowej zbyt wysokiego stopnia, niektóre oceny jej parametrów przyjmują wartości bliskie zeru. W wyniku tego otrzymujemy funkcję regresji takiego stopnia, jaki jest właściwy dla opisu badanej zależności. (W przypadku istnienia zależności prostoliniowej, funkcja paraboliczna zredukuje się do postaci prostoliniowej).

0x01 graphic

Na podstawie otrzymanego rozrzutu punktów empirycznych badaną zależność określimy więc ogólną postacią funkcji:

wzór 9 yt' = a + bxi + cxi2

której parametry oszacowane według układu równań. (dalsze obliczenia są zbyt szczegółowe.) Parametry podstawia się je do funkcji.

Do oceny istotności równania regresji jako całości służy następujący test F:

wzór 10

0x08 graphic
n

Σ (yi' - yśr)2 / k średni kwadrat zmiennej w regresji

i=1

Fe = ————————— ———————————

n średni kwadrat zmiennej resztowej

Σ (yi' - yśr)2 / (n - k)

i=1

k jest liczbą szacowanych parametrów w ogólnym równaniu regresji.

Jeżeli obliczona wg powyższego wzoru tzw. empiryczna wartość statystyki F przekracza wartość krytyczną, tj. odczytaną z tablic na określonym poziomie istotności i przy liczbie swobody k oraz n-k , to równanie regresji jako całość możemy uznać za statystycznie istotne.

Funkcja wielomianowa charakteryzuje się tym, że przyrost zmiennej zależnej jest różny dla różnych wartości zmiennej niezależnej. Przyrost ten można obliczyć na podstawie równania regresji jako:

Przyrostem marginalnym nazywamy stosunek przyrostu zmiennej zależnej do przyrostu zmiennej niezależnej, gdy ten ostatni dąży do zera. Jest to, jak wiadomo, pierwsza pochodna. W przypadku paraboli ma postać: f' (x) = b + 2 cx.

Średni przyrost zmiennej objaśnianej (zależnej) wywołany jednostkowym przyrostem zmiennej niezależnej w przedziale <x1,x2> wyznaczamy za pomocą wzoru:

wzór 11 y2' - y1'

0x08 graphic
P =

x2 - x1

Korelacja i regresja wielu zmiennych

W większości przypadków na kształtowanie się określonego zjawiska wpływa wiele czynników. Wpływ niektórych z tycz czynników można pomierzyć, innych zaś - nie. W przypadku analizy związków miedzy większa niż dwoma liczbą zmiennych, mówimy o analizie korelacji i regresji wielu zmiennych.

Siłę związku między daną zmienną zależną a przyjętym zespołem zmiennych niezależnych (objaśniających) określa współczynnik korelacji wielorakiej, który w przypadku gdy cecha 1 jest zmienną zależną, a cechy 2 i 3 zmiennymi niezależnymi, może być oszacowany za pomocą następującego wzoru:

0x08 graphic
r212 + r213 - 2r12r13r23 1/2

0x08 graphic
R1.23 =

0x08 graphic
1-r223

gdzie r12, r13, r23 są współczynnikami korelacji Pearsona pomiędzy odpowiednimi parami zmiennych, oszacowanymi zgodnie ze wzorem 2.

Współczynnik korelacji wielorakiej przyjmuje wartości z przedziału <1,0>. Generalnie im jego wartość jest bliższa jedności, tym związek między daną zmienną objaśnianą a rozpatrywanymi objaśniającymi jest silniejszy, im zaś bliższa zeru tym słabszy.

Dalej to już jest kysz-mysz.

16. Metody badań związków zależnościowych między zmiennymi

Zależność dwóch zmiennych

Między dwiema zmiennymi mogą występować dwa rodzaje zależności: dwustronna (płaca zależy od wydajności a wydajność zależy od płacy) i jednostronna (spożycie napojów chłodzących zależy od temperatury). Jeżeli między dwoma zmiennymi występuje związek o charakterze liniowym, to współzmienność badanych zmiennych charakteryzuje tzw. kowariancja (średnia arytmetyczna iloczynu odchyleń wartości zmiennych od ich średnich arytmetycznych):

cov(x,y) = cov(y,x) = 1/n Σ (xi - xśr) (yi - yśr)

Ponieważ wartość kowariancji zależy od rzędu wielkości, w jakich wyrażone są obydwie cechy, więc nie można jej wykorzystywać bezpośrednio do porównań. Unormowanym miernikiem natężenia i kierunku współzależności liniowej dwóch zmiennych ilościowych jest współczynnik korelacji liniowej Pearsona:

r = [1/n Σ (xi - xśr) (yi - yśr)]/δx δy

Powyższy współczynnik przyjmuje wartości z przedziału <-1, +1>. Znak + przy współczynniku oznacza, że między rozpatrywanymi zmiennymi występuje zależność o charakterze dodatnim (czyli wraz ze wzrostem wartości jednej zmiennej następuje wzrost wartości drugiej zmiennej, bądź ze spadkiem jednej wartości jednej zmiennej obserwujemy spadek wartości drugiej zmiennej). Znak „- „ przy współczynniku oznacza ujemną zależność między zmiennymi, która oznacza, że wraz ze wzrostem wartości jednej zmiennej następuje spadek wartości drugiej zmiennej. Im bezwzględna wartość współczynnika korelacji jest bliższa jedności, tym związek między rozpatrywanymi zmiennymi jest silniejszy.

Współczynnik korelacji liniowej Pearsona nie pozwala nam jednak określić, jaki będzie poziom jednej zmiennej przy określonym poziomie wartości drugiej zmiennej. Nie pozwala nam również określić, o ile średnio zmieni się wartość jednej zmiennej, jeżeli druga wzrośnie o jednostkę. Odpowiedzi na powyższe zagadnienia można uzyskać na podstawie tzw. rachunku regresji.

17. Weryfikacja hipotez statystycznych i jej przykłady

Hipoteza statystyczna to sąd (przypuszczenie) odnoszący się do nieznanego poziomu parametrów w zbiorowości generalnej albo do nieznanej postaci rozkładu zmiennych losowych w zbiorowości generalnej. W związku z tym hipotezy dzielimy na dwie grupy:

Hipotezy parametryczne i nieparametryczne formułujemy zamiennie, w zależności od celu analizy statystycznej. Sprawdzanie sformułowanych hipotez jest podejmowaniem określonych decyzji statystycznych i nosi nazwę weryfikacji hipotez. Celem weryfikacji hipotez parametrycznych jest sprecyzowanie wartości parametru w rozkładzie populacji generalnej znanego typu. Natomiast celem weryfikacji hipotezy nieparametrycznej jest sprecyzowanie typu rozkładu określonej populacji generalnej.

Proces weryfikacji hipotez statystycznych przebiega kolejnymi czterema etapami:

  1. sformułowana zostaje tzw. hipoteza zerowa (H0) oraz hipoteza lub hipotezy alternatywne (H1),

  2. dokonuje się wyboru testu do weryfikacji hipotezy zerowej,

  3. następuje przyjęcie tzw. poziomu istotności (α) oraz wyznaczenie obszaru krytycznego hipotezy zerowej.

  4. podejmowana jest decyzja weryfikacyjna z określonym prawdopodobieństwem błędu.

Treścią hipotezy zerowej (H0) jest założenie braku różnic między wynikami z próby losowej a teoretycznym modelem rozkładu zmiennej losowej i jego parametrów w zbiorowości generalnej. Konkurencyjną względem hipotezy zerowej jest hipoteza alternatywna; należy ją jednoznacznie sformułować obok hipotezy zerowej. Przez hipotezy alternatywne (H1) należy rozumieć wszystkie inne przypuszczenia co do postaci rozkładów zmiennej losowej i wartości ich parametrów. Hipoteza alternatywna jest konkurencyjna względem hipotezy zerowej w tym sensie, że jeśli odrzuca się hipotezę zerową, to przyjmuje się z reguły hipotezę alternatywną. Trzeba przy tym rozróżnić następujące sytuacje:

Sposoby weryfikacji hipotez statystycznych nazywamy testami statystycznymi, przy czym - w zależności od rodzaju hipotezy - rozróżniamy testy parametryczne i nieparametryczne. Szczególne procedury to testy istotności, użyte do użyte do weryfikacji zerowych hipotez parametrycznych, oraz testy zgodności, użyteczne przy weryfikacji zerowych hipotez nieparametrycznych. Testy istotności i testy zgodności - jako podstawowe procedury weryfikacji hipotez - opierają się na pewnych statystykach, które mają określone rozkłady teoretyczne. Na przykład w przypadku operowania małymi próbami (n≤ 30), gdy wykorzystujemy testy parametryczne, mamy do czynienia ze statystykami t.

W trzecim etapie rachunku weryfikacji hipotez statystycznych przyjmowany jest tzw. poziom istotności oraz określane są obszary krytyczne hipotez zerowych. Zarówno pierwsza, jak i druga kwestia wiążą się z teorią błędów popełnianych przy podejmowaniu decyzji weryfikacyjnych. Wynika to stąd, że na podstawie próbki nigdy nie mamy całkowitej informacji o zbiorowości, z której pobrana została próbka. W wyniku testowania hipotezy zerowej możemy więc podjąć poprawną decyzję albo popełnić błąd. Rozróżnia się tu dwa rodzaje błędów, których rozmiary występują z określonym prawdopodobieństwem, a mianowicie:

Prawdopodobieństwo błędu pierwszego rodzaju (P = α) ustalane jest z góry jako dowolnie niskie prawdopodobieństwo odrzucenia prawdziwej hipotezy Hο i nazywane jest poziomem istotności. W naukach ekonomicznych prawdopodobieństwo błędu I rodzaju jest przyjmowane zazwyczaj na poziomie z przedziału < 0,01; 0,10>, przy czym najczęściej α = 0,05. Jest to zatem analogia do procedury estymacyjnej (przy ustalaniu przedziału ufności Neymana) kiedy to analogicznie przyjmowany jest współczynnik ufności (P = 1 - α). Jednak przyjęty z góry poziom istotności - przy założeniu, iż prawdziwa jest hipoteza zerowa - równa się dokładnie prawdopodobieństwu tego, że sprawdzian przyjmuje wartość należącą do obszaru krytycznego. Obszarem krytycznym hipotezy zerowej nazywamy obszar odrzuceń hipotezy zerowej w założeniu jej prawdziwości.

Ostatnim (czwartym) etapem weryfikacji hipotez statystycznych jest podjęcie decyzji weryfikacyjnej. W procesie weryfikacji można podjąć jedną z dwóch decyzji, a mianowicie hipotezę uznać za prawdziwą i przyjąć ją lub hipotezę uznać za fałszywą i odrzucić ją, z tym że w obu przypadkach podejmowana decyzja może być słuszna lub niesłuszna. Miarą ryzyka ponoszonego przy podejmowaniu decyzji weryfikacyjnych jest prawdopodobieństwo błędu I rodzaju α i II rodzaju β.

Parametryczne testy istotności

Parametryczne testy istotności dla określonych hipotez zerowych konstruowane są jako standaryzowane zmienne losowe u oraz t, przy czym kryterium ich zastosowania stanowi liczebność próby losowej. Statystyką podstawową, której rozkład służy do ustalenia obszaru krytycznego w tych testach jest średnia z próby x (z kreską). Jeśli przeprowadzono badanie n-elementowej próby losowej ze względu na zmienną losową X i ustalono ocenę punktową jej wartości oczekiwanej (tzn. x z kreską), to będzie nas interesować, czy próba losowa n-elementowa pochodzi z danej zbiorowości generalnej, w której wartość oczekiwana E(X) = m. Załóżmy, że populacja generalna ma rozkład normalny N(m;σ) o wartości średniej m oraz znanym odchyleniu standardowym σ. Wartość mο potraktujemy jako pewną hipotetyczną (przypuszczalną) średnią z populacji. Odpowiednia hipoteza zerowa jest zapisana:

H0 : m = mο

wobec hipotezy alternatywnej H : m ≠ mο. Testem istotności weryfikującym hipotezę zerową - dla różnych liczebnie prób losowych - jest statystyka u o rozkładzie normalnym N(0;1), a więc o wartości oczekiwanej równej 0 i odchyleniu standardowym równym 1 (wzór 1):

x - mο ___

u = ----— √ n

σ

Procedura weryfikacyjna powyższej hipotezy zerowej przebiega zgodnie z kolejnymi etapami weryfikacyjnymi. Jeśli odchylenie standardowe σ w populacji nie jest znane, to można je zastąpić odchyleniem standardowym z próby S(x).

Jeśli H0 jest prawdziwa, to obliczona za pomocą powyższego wzoru statystyka u nie powinna przekraczać wartości krytycznej odczytanej z tablicy rozkładu normalnego N(0; 1) przy z góry przyjętym poziomie istotności α. Ponieważ hipotezę alternatywną sformułowano jako H : m ≠ mο, więc z tablicy rozkładu normalnego należałoby odczytać wartość krytyczną w taki sposób, że

P(│u│≥ uα/2) = α

Wartości zmiennej u spełniające nierówność tworzą dwustronny obszar krytyczny testu. Jeśli więc│u│≥ uα/2, to hipotezę zerową H0 : m = mο odrzucamy. Jeśli natomiast │u│< uα/2, to stwierdzamy, że przy poziomie istotności α nie ma podstaw do odrzucenia hipotezy zerowej. Trzeba jednak wyraźnie podkreślić, że nie jest to równoważne z jej przyjęciem; oznacza to tylko, że wyniki tej jednej próby, na podstawie której weryfikujemy hipotezę H0 przy przyjętym α (równym prawdopodobieństwu błędu I-go rodzaju - nie przeczą tej hipotezie.

Przykład

Plony pszenicy w gospodarstwach indywidualnych pewnego województwa są zmienną losową o rozkładzie normalnym N(38; 7). Na podstawie próby złożonej z 144 losowo wybranych gospodarstw stwierdzono, że średnie plony wynoszą x (z kreską) = 31 q/ha. Przy poziomie istotności α = 0,05 zweryfikować hipotezę, iż średnie rzeczywiste plony żyta nie różnią się istotnie od teoretycznych.

Analizowana cecha X ma rozkład normalny o znanym odchyleniu standardowym (σ = 7). Formułujemy hipotezę zerową H0 : m = 38 oraz hipotezę alternatywną H ≠ 38. Do weryfikacji H0 wykorzystamy statystykę u zdefiniowaną wzorem 1. Wartość tej statystyki dla 144 elementowej próby wynosi:

31 - 38

u = ———— 12 = - 12

7

Ze względu na zapis H mamy do czynienia z dwustronnym obszarem krytycznym. Wartość krytyczną odczytujemy z tablic dystrybuanty rozkładu normalnego, tak aby zachodziło: P (│u│≥ uα/2) = 0,05; zatem mamy u0,025 = 1,96. Ponieważ:

│u│= 12 > u0,025 = 1,96, więc wartość znalazła się w obszarze odrzucenia, tzn. w przedziale od 1,96 do + ∞. Oznacza to, że hipotezę H0 należy odrzucić na rzecz hipotezy alternatywnej.

W procedurze budowy krytycznych obszarów parametrycznych hipotez zerowych rozróżniamy też drugą sytuację, gdy przy danej parametrycznej hipotezie zerowej, hipoteza alternatywna jest stawiana jednostronnie (tj. lewostronnie lub prawostronnie) i wtedy obszary krytyczne (odrzuceń) H0 buduje się również jednostronnie. Jeśli więc hipotezę alternatywną sformułowalibyśmy jako H : m > mο, to wtedy wartość krytyczną odczytujemy z tablic dystrybuanty rozkładu normalnego N(0; 1) w taki sposób, aby zachodziła równość: P (u ≥ uα) = α (relacja 1). Ze względu na postać powyższej hipotezy alternatywnej obszar krytyczny - określony relacją 1 - jest prawostronny; tak zdefiniowany obszar krytyczny obejmuje wartości od u2α do + ∞. Jeśli wynik z próby spełnia relację u ≥ uα, to hipotezę zerową odrzucamy na korzyść hipotezy alternatywnej. Natomiast gdy u ≤ uα, wtedy nie ma podstaw do odrzucenia H0. Oczywiście hipoteza alternatywna do przedstawionej hipotezy zerowej może być sformułowana inaczej, a mianowicie w postaci H : m < mο, wtedy mamy do czynienia z obszarem krytycznym lewostronnym, określonym relacją: P{ u ≤ - uα} = α. Wtedy obszar krytyczny testu obejmuje wartości od - ∞ do - uα.

Testy nieparametryczne

Testy nieparametryczne dotyczą rozkładu zbiorowości według określonej cechy. Są one uniezależnione od rozkładu, a więc mogą być stosowane zarówno wtedy, gdy mamy do czynienia z rozkładem normalnym, jak i we wszystkich innych przypadkach. Wśród testów nieparametrycznych stosowanych w analizie struktury zbiorowości wyróżnia się trzy podstawowe ich grupy:

Niewątpliwie najpopularniejszym i najważniejszym jest test chi-kwadrat. Jego duże znaczenie wynika stąd, że ma wielorakie zastosowanie. Stosuje się go przy badaniu normalności rozkładów, przy porównywaniu struktury uzyskanej na podstawie próby z określoną strukturą hipotetyczną, przy porównaniu dwóch lub więcej struktur, przy badaniu niezależności cech.

18. Wahania sezonowe w analizie popytu.

Cecha charakterystyczną wielu szeregów dynamicznych poza tendencją rozwojową, są wahania sezonowe, których szczególnym przypadkiem jest tzw. sezonowość. Przez wahania sezonowe rozumiemy powtarzające się co roku w tych samych okresach dość regularne zmiany ilościowe w kształtowaniu się danego zjawiska. Wahania sezonowe jako dokonujące się w ciągu roku kalendarzowego związane są bezpośrednio lub pośrednio z porami roku. Są one wynikiem zmian klimatycznych, a także zwyczajów społecznych, które zresztą ze zmianami klimatycznymi są związane. Wahaniom sezonowym podlega na przykład produkcja rolna, budowlana, przewozy transportowe i osobowe, zakupy pewnych dóbr. Aby określić charakter i natężenie zmian sezonowych, należy najpierw z danego szeregu czasowego wyeliminować trend, oczywiście po uprzednim jego określeniu. Po wyodrębnieniu więc tendencji rozwojowej w kształtowaniu się danego zjawiska - metoda analityczną lub mechaniczną - trend z szeregu czasowego eliminujemy bądź przez podzielenie empirycznych wartości badanej zmiennej przez wartości teoretyczne, bądź przez odjęcie wartości teoretycznych od wartości empirycznych. Pierwszy sposób postępowania stosujemy w przypadku występowania tzw. modelu multiplikatywnego, drugi - w przypadku modelu addytywnego.

Modelem multiplikatywnym nazywamy model, w którym występuje względna stałość wahań sezonowych, modelem addytywnym zaś nazywamy model, w którym występuje absolutna stałość wahań sezonowych.

Przez stałość wahań sezonowych rozumiemy regularne wzrosty i spadki wokół linii trendu wartości danej zmiennej charakteryzującej określone zjawisko.

Absolutna stałość wahań sezonowych oznacza, iż natężenia wzrostów i spadków wartości badanej zmiennej wokół linii trendu są generalnie jednakowe. Jeżeli zaś natężenia wzrostów i spadków wartości badanej zmiennej wokół linii trendu są wyraźnie różne, to mamy do czynienia z modelem multiplikatywnym.

0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic

0x08 graphic

0x08 graphic
0x08 graphic

Ryc.1. Model multiplikatywny w przypadku prostoliniowego trendu rosnącego

0x08 graphic
0x08 graphic

0x08 graphic
0x08 graphic

0x08 graphic

0x08 graphic
0x08 graphic

Ryc. 2. Model addytywny w przypadku prostoliniowego trendu rosnącego

W modelu multiplikatywnym sezonowość łączy się z tendencją rozwojową przez mnożenie, gdyż wahania sezonowe są w tym przypadku proporcjonalne do wielkości tendencji rozwojowej. Zatem eliminacja trendu w przypadku tego modelu wymaga podzielenia wartości empirycznych przez teoretyczne. W modelu addytywnym trend łączy się z sezonowością przez dodawanie, gdyż wahania sezonowe addytywne oznaczają stałe co do wartości bezwzględnej odchylenia poziomu badanego zjawiska w poszczególnych podokresach cyklu od poziomu przeciętnego. Zatem eliminacja z szeregu czasowego tendencji rozwojowej wymaga odjęcia teoretycznych wartości zmiennej od jej wartości empirycznych. W rzeczywistości częściej mamy do czynienia z modelem multiplikatywnym.

Wskaźniki wahań sezonowych obliczamy jako przeciętne dla jednoimiennych okresów (a więc np. wskaźnik wahań sezonowych dla pierwszego kwartału uzyskujemy jako przeciętna wskaźników wszystkich pierwszych kwartałów występujących w szeregu czasowym, otrzymanych po wyeliminowaniu trendu; analogicznie postępujemy w przypadku innych jednostek czasu). Suma wskaźników sezonowości wyrażonych w % powinna być równa 1200 dla wskaźników sezonowości miesięcznej, 400 dla kwartalnej oraz 200 dla sezonowości półrocznej. Wskaźniki sezonowości nie spełniające tego warunku nazywają się surowymi (nie oczyszczonymi) wskaźnikami sezonowości. W takim przypadku należy podzielić surowe wskaźniki dla poszczególnych okresów przez współczynnik korygujący liczony np. jako średnią arytmetyczną surowych wskaźników wahań sezonowych dla wszystkich okresów. W ten sposób otrzymujemy tzw. czyste wskaźniki wahań sezonowych, które interpretujemy. Informują one o tym, w których okresach natężenie badanego zjawiska jest największe, a w których okresach najmniejsze. Ponadto, określają o ile poziom wartości rozpatrywanej zmiennej w danym okresie jest wyższy bądź niższy od średniej, czyli od przeciętnego poziomu wartości tej zmiennej.

Najprostszym i dość pewnym sposobem określania typu modelu jest prezentacja graficzna badanego zjawiska.

20. Informatyczne systemy zarządzania wiedzą

Coraz częściej w zasobach informatycznych polskich przedsiębiorstw można znaleźć systemy wspomagające zarządzanie. Dzięki nim firmy lepiej mogą funkcjonować, poprawić wydajność swoich pracowników oraz relacje z klientami. Pierwsze zintegrowane systemy informatyczne znajdowały zastosowanie jedynie w działalności operacyjnej przedsiębiorstwa. W latach 60-tych pojawiły się rozwiązania, które wspomagały gospodarkę magazynową, następnie produkcję i finanse. Z czasem zaczęto wdrażać oprogramowanie do usprawniania procesów dystrybucyjnych oraz transportowych. Wraz z rozwojem nowoczesnych technologii rozwiązania te zaczęły ewaluować w kierunku zintegrowanych systemów wspomagających zarządzanie.

23. Zasady estymacji statystycznej

Estymacja parametrów polega na szacowaniu nieznanych parametrów z populacji generalnej na podstawie ustalonych wielkości z próby losowej i jest działem wnioskowania statystycznego. Podstawowym narzędziem szacowania parametru jest funkcja zwana estymatorem (Tn). Estymatorem Tn parametru Θ nazywamy więc każdą jednoznacznie określoną funkcję wyników obserwacji empirycznej badanej zmiennej losowej X z n-elementowej próby losowej. Konkretnie przybraną przez estymator wartość liczbową w n-elementowej próbie losowej nazywamy oceną parametru, którą uznajemy za zadowalającą wtedy, kiedy estymator spełnia następujące warunki:

co oznacza zbieżność estymatora Tn do wartości Θ (wraz ze wzrastaniem liczebności próbki maleje do zera prawdopodobieństwo, że wartość funkcji Tn będzie się różnić od Θ o jakąkolwiek ustaloną wartość dodatnią)

25. Motywy i ujemne strony tworzenia funduszów parabudżetowych.

Fundusze parabudżetowe (fundusze celowe)- fundusze typu budżetowego o charakterze celowym, tworzone w ramach budżetu lub poza budżetem i stanowiące alternatywne w stosunku do budżetu źródło finansowania zadań państwa i samorządów terytorialnych.

Źródłami dochodów funduszów parabudżetowych są:

Z funduszów parabudżetowych finansowana jest działalność bieżąca lub inwestycyjna. Najbardziej odpowiadają one jednak specyfice działalności inwestycyjnej. Fundusze te charakteryzuje celowe przeznaczenie gromadzonych w nich dochodów. Różni to gospodarkę funduszów od gospodarki budżetowej, z którą związana jest zasada jedności materialnej i zasady jednoroczności.

Gospodarka funduszowa jest uznawana za bardziej elastyczną od budżetowej. Wiąże się to z możliwością wykorzystywania środków funduszu - nie wydanych w roku ich nagromadzenia - w latach następnych, aż do chwili likwidacji funduszu. Ponadto elastyczność gospodarki funduszowej przejawia się tym, że na ogół bez większych przeszkód prawnych można zmieniać plany funduszów szczególnie w przypadku uzyskania dodatkowych dochodów.

Motywy tworzenia funduszów parabudżetowych wiążą się przedstawionymi różnicami między gospodarką budżetową a funduszową:

Ujemne strony tworzenia funduszów parabudżetowych:

Obecnie największe znaczenie mają:

Fundusze celowe finansują zadania o charakterze: gospodarczym, socjalnym, kulturalnym, społecznym.

26. Pojęcie podatków bezpośrednich i pośrednich. Wady i zalety podatków pośrednich

Podział podatków na bezpośrednie i pośrednie wynika z podziału wg dwóch kryteriów:

  1. wg tego kto ponosi ich ciężar

Bezpośrednie- ich ciężar ponosi bezpośrednio podmiot, na który podatek jest nakładany, czyli bezpośrednio obciąża dochód lub majątek podatnika,

Pośrednie- ich ciężar nie jest ponoszony przez podmiot, na który podatek jest nakładany, lecz przez osoby trzecie, podmioty na które nakładane są podatki pośrednie są tylko pośrednikami pomiędzy władza publiczną (ustanawiającą podatki), a tymi którzy rzeczywiście ponoszą ich ciężar.

  1. zależności między źródłem pokrycia podatku a podstawą jego wymiaru

Bezpośrednie - związane bezpośrednio z źródłem pokrycia tego podatku, czyli podatki wymierzane tylko od dochodu i majątku są podatkami bezpośrednimi - stąd też zwane są podatkami majątkowymi i dochodowe,

Pośrednie- pozostałe podatki, ponieważ sięgają do dochodu czy majątku nie wprost lecz np. poprzez konsumpcję lub przychód- stąd też czasami są zwane podatkami od wydatków i podatkami przychodowymi.

Taki podział podatków jest związany z problemem przerzucalności podatków. Zasadniczo przerzucalnymi są podatki pośrednie, chociaż bezpośrednie też w pewnych warunkach bywają przerzucalne. Przerzucalność podatków jest: w przód” (ciężar przenoszony na odbiorców poprzez podniesienie ceny tow. i usług) i „wstecz” oraz rzeczywista (z inicjatywy obowiązanego podmiotu) i pozorna (władza podatkowa z góry zakłada, że faktyczny ciężar opodatkowania poniesie inna osoba niż ta obowiązana).

ZALETY PODATKÓW POŚREDNICH- PRZERZUCALNYCH:

  1. ci którzy ponoszą ich ciężar nie zdają sobie zazwyczaj z tego sprawy, podwyższenie tego podatku nie powoduje reakcji, powoduję tzw. znieczulenie podatkowe, są często wygodne dla władzy publicznej ze względów psychologicznych, Np. VAT

  2. silne powiązanie z przebiegiem zjawisk gosp., głównie z wrażliwością na wahania gosp. i w związku z tym są jednym z automatycznych stabilizatorów gosp., wrażliwość ta jest korzystna ze względów fiskalnych: w okresie ekspansji gosp. i wysokiej inflacji, w związku z tym , iż pod. pośrednie to głównie konsumpcyjne to mimo wahań gosp.-stagnacji czy recesji, zapewniają pewne dochody publiczne,

  3. znaczna wydajność,

  4. szybkość poboru,

  5. systematyczność wpływów podatkowych.

WADY PODATKÓW POŚREDNICH- PRZERZUCALNYCH:

  1. niesprawiedliwość, gdyż dotyka głównie podstawowej konsumpcji i powoduje rozkład ciężaru podatku na zasadzie odwróconej progresji, czyli obciążają te podmioty najsłabsze (gosp. dom.)

  2. mogą krępować dział. i aktywność gosp., gdy ze względu na warunki wymiany rynkowej utrudniona jest przerzucalność podatku oraz to, iż pobór podatku jest w momencie osiągania przychodów, gdy koszty ich uzyskania nie są jeszcze znane,

  3. niedogodności dotyczące poboru i wysokie tego koszty, gdy jest rozproszenie podmiotów zobowiązanych.

27. Struktura dochodów budżetowych gmin w Polsce i jej ocena z punktu widzenia samodzielności samorządu terytorialnego

Budżetem gminy nazywamy opracowywany, uchwalany i wykonywany w sposób określony w przepisach prawnych plan finansowy gminy, obejmujący jej wydatki nie przekraczające dochodów wraz z wpływami zwrotnymi na czas roku kalendarzowego, na podstawie którego prowadzona jest w gminie w sposób jawny i samodzielny gospodarka finansowa.

Dochody budżetów samorządowych różnią się od dochodów budżetu państwa. Nie mają one jednolitego charakteru. Najogólniej można wyodrębnić dwie ich grupy: dochody własne i dochody uzupełniające (wyrównawcze, równoważące). Pojęcie dochodów własnych może być rozpatrywane w ujęciu wąskim (obejmującym dochody pochodzące ze źródeł, na które organy samorządowe mogą wywierać wpływ) lub szerokim (w skład dochodów włącza się dochody pobierane ze źródeł znajdujących się na terenie działania danego samorządu, przekazanych do jego dyspozycji w całości i bezterminowo z mocy prawa).

Do dochodów własnych zaliczamy:

W skład dochodów uzupełniających wchodzą:

Gmina ma prawo - jako podstawowa jednostka samorządu terytorialnego - do zaciągania zobowiązań. dlatego w budżecie obok dochodów bezzwrotnych mogą wystąpić także dochody zwrotne: kredyty i pożyczki, wpływy z emisji papierów wartościowych.

Samodzielność prowadzenia gospodarki finansowej nie oznacza jej dowolności. Zakres samodzielności wynika z przepisów prawnych i tylko kompetencje ustawowe gmin podlegają ochronie sądowej. Tak rozumiana samodzielność gmin rodzi określone implikacje w sferze stanowienia i pobierania dochodów. Gminy nie mogą stanowić ani pobierać dochodów innych niż wymienione w ustawach, przede wszystkim w ustawie o finansowaniu gmin.

Struktura grup dochodów w budżetach samorządowych, a szczególnie proporcje między dochodami własnymi i dochodami i dochodami podobnymi do własnych (odpowiednio skonstruowane udziały w dochodach budżetu państwa) a dotacjami mogą być rozmaite. Finansowanie zadań głównie z dochodów własnych ma dodatnie i ujemne strony. Przyjęcie takiego rozwiązania w znacznym stopniu uniezależnia samorząd od organów państwowych i tym samym od sytuacji budżetu państwa. Ponadto samorząd, znając w dłuższym okresie źródła dochodów i ich zasobność, może podejmować swoje decyzje w sposób racjonalny i jest przy tym zainteresowany zwiększeniem wydajności tych źródeł. Wpływa to aktywizująco na samorząd. Wadą takiej polityki jest natomiast to, że w lepszej sytuacji finansowej będą zawsze samorządy działające na terenie o wyższym stopniu rozwoju społeczno-gospodarczego, co wiąże się zarówno z występowaniem w szerszym zakresie źródeł przyznanych dochodów, jak i z możliwością zwiększenia ich wydajności. Z jednej strony może to pobudzać samorządy do działania aby dorównać lepszym gminom, z drugiej może jednak prowadzić do pogłębiania różnic w rozwoju regionalnym kraju.

Oparcie działalności samorządu głównie na dotacjach z budżetu państwa zwalnia organy samorządowe z troski o zdobywanie dochodów budżetowych i pozwala na skupienie zasadniczej uwagi na ustalaniu właściwej hierarchii potrzeb i wydatków oraz racjonalnym wydatkowaniu przyznanych dotacji. Dotacje są instrumentem, przy pomocy którego organy państwowe oddziaływują na gospodarkę organów samorządowych. Podstawowym celem dotacji jest zasilanie budżetów samorządowych, związane z równoważeniem tych budżetów w celu wykonania zadań ciążących na samorządach. Inny cel to regulowanie (wyrównywanie) poziomu świadczonych usług przez samorządy w skali regionu lub kraju.

30. Rola marketingu w zarządzaniu przedsiębiorstwem

W początkowym okresie marketing zastosowano w przedsiębiorstwach amerykańskich, które miały trudności ze zbytem już wytarzanych towarów. Wzrost konkurencji między przedsiębiorstwami, zahamowanie sprzedaży w wyniku powtarzających się w końcu XIX i na początku XX w. kryzysów gospodarczych pobudzały niektórych producentów do stosowania środków antycyklicznych, głównie w formie reklamy.

Rozwój produkcji na wielką skalę zwiększył ryzyko związane ze sprzedażą. W takich warunkach wytwórca stara się uzyskać maksimum informacji o oczekiwaniach nabywców dotyczących jego produktu, wielokrotnie poddaje swoje wyroby różnych testom rynkowym przed rozpoczęciem produkcji na wielką skalę, próbuje określić potencjalne segmenty rynku i różnicować produkcję w celu jej dostosowania do zmieniających się potrzeb konsumentów. Równocześnie przez zastosowanie różnorodnych metod oddziaływania na nabywców dąży do wywołania i następnie utrzymania popytu na swoje wyroby.

Marketing (market = rynek) - podejmowanie przez przedsiębiorcę skoordynowanych czynności ukierunkowanych na skłonienie konsumenta lub użytkownika dóbr produkcyjnych do zakupu oferowanego produktu, a zarazem badanie reakcji rynku na właściwości i cenę produktu, wyrażające się w wielkości sprzedaży, oraz wpływanie w drodze sprzężenia zwrotnego na jakość, koszty i cenę produktu w celu zmaksymalizowania wielkości utargu. Do podstawowych funkcji marketingu zalicza się określenie cech produktu z punktu widzenia potrzeb potencjalnych odbiorców, prognozowanie wielkości zapotrzebowania z uwzględnieniem oddziaływania na koszt i cenę produktu, przewidywanie zakresu i stopnia wpływania na rynek produktu konkurentów, oraz segmentację rynku, czyli podział rynku na poszczególne grupy odbiorców według kryteriów zwyczajowych i dochodowych. Marketing można więc określić jako więź przedsiębiorstwa z rynkiem. Więź ta może być tradycyjna, a więc odnosić się do produktu już wytwarzanego, lub dynamiczna wyróżniająca się uwzględnianiem potrzeb rynku jeszcze przed powzięciem decyzji o rozpoczęciu produkcji towaru bądź usługi.

Wprowadzenie marketingu do działalności przedsiębiorstw miało w pewnym stopniu charakter rewolucyjny, gdyż zmieniło podejście do funkcjonowania firmy. Klasyczna forma działalności przedsiębiorstw w XIX i na początku XX w. opierała się na zasadzie wyraźnego podziału pracy, a więc specjalizacji w zakresie poszczególnych funkcji gospodarczych. Producent zajmował się wytwarzaniem towarów, hurtownik gromadził je od różnych wytwórców w miejscach, w których znajdowała się odpowiednia liczba odbiorców detalicznych. Detal, z reguły drobny i rozproszony, miał bezpośredni kontakt z ostatecznym odbiorcą. Ogniwo, które posiadało nadwyżki towarów, poszukiwało innych rynków zbytu oraz, głównie na lokalna skalę, stosowało najprostsze środki promocyjne lub zwalczało konkurencję przez obniżkę cen.

Zastosowanie marketingu naruszyło te klasyczne zasady postępowania. Producent zaczął coraz bardziej sięgać w głąb rynku, często z pominięciem ogniw pośrednich. Również pośrednicy zaczęli odgrywać rolę producentów oraz organizatorów produkcji. Coraz większego znaczenia nabierała marka towaru. Takie odejście do rynku wymagało nowej kadry specjalistów. Służba marketingowa zaczynała rządzić przedsiębiorstwem, co budziło i nadal budzi naturalny sprzeciw innych działów w każdej firmie.

31. Rola banków w obsłudze podmiotów gospodarczych oraz instytucji publiczno-prawnych.

Pośrednik Finansowy to instytucja, która jest łącznikiem w kontaktach pomiędzy kredytodawcami i kredytobiorcami.

Banki komercyjne (handlowe) są to pośrednicy finansowi, którym państwo udzieliło licencji na działalność polegającą na udzielaniu kredytów i przyjmowaniu depozytów, włączając w to wkłady, które mogą być uruchomione przez wystawienie czeku. Aby przyciągnąć do siebie pieniądze, bank oferuje potencjalnym depozytariuszom korzystne warunki otwierania prowadzenia wkładów. Dysponując już odpowiednimi środkami finansowymi, banki muszą znaleźć zyskowne sposoby wykorzystania ich w działalności kredytowej. Bank przekształca pożyczki udzielane mu przez gospodarstwa domowe w kredyty bankowe udzielane szerokiej grupie podmiotów: rządowi na sfinansowanie deficytu budżetowego, przedsiębiorstwom np. na budowę nowej fabryki, osobom prywatnym, które zamierzają rozpocząć działalność gospodarczą lub nabyć nowy dom.

Banki pełniąc role pośrednika, minimalizują ryzyko ewentualnego niedotrzymania warunków w rozliczeniach międzynarodowych. Ich funkcja nie ogranicza się do pośredniczenia płatnościach zagranicznych. Aktywnie kształtują sposoby zapłaty za pomocą odpowiednich instrumentów, do których można zaliczyć przede wszystkim kredytowanie transakcji handlu zagranicznego, akceptowanie i dyskontowanie weksli oraz udzielanie gwarancji bankowych. Banki spełniają przy tym rolę fachowego doradcy.

32. Rola banków w systemie finansowym państwa

Rolę banku w gospodarce narodowej można scharakteryzować poprzez prezentacje trzech najbardziej istotnych dziedzin działalności banku. Są to:

Udział w kreacji pieniądza

Banki komercyjne mogą w ograniczonym stopniu tworzyć pieniądz bankowy ponad pozostawione mu sumy wkładów za pomocą kreacji dodatkowych kredytów.

Kreacja pieniądza bankowego przez banki komercyjne następuje poprzez wzrost wielkości kredytów udzielanych przez te banki, a także przez zwiększenie zakupu walut obcych. Obie te operacje powodują wzrost środków płatniczych (wkładów) w danym banku lub w innym banku, na którego konto zostały przekazane środki otrzymane w formie kredytu.

Środki utrzymane przez banki na rachunkach w banku centralnym, a także gotówka przechowywana w ich skarbcach, stanowią płynne rezerwy banków komercyjnych, zwane także pieniądzem rezerwowym banku centralnego czy bazą monetarną obiegu pieniężnego.

Ograniczenie kreacji pieniądza przez bank komercyjny wynika z konieczności utrzymania płynności, co jest uwarunkowane przez wielkość posiadanych środków banku centralnego. Każde udzielenie kredytu oznacza, że część tego kredytu może być wypłacona w gotówce bądź też przekazana na rachunek innym bankom , tzn. że tylko część środków z udzielonego kredytu pozostaje na rachunku w banku. Te czynniki powodują, że bank komercyjny musi posiadać odpowiednią wielkość pieniądza rezerwowego banku centralnego, żeby móc bez ograniczeń pokryć wpływy gotówkowe swoich klientów oraz pokryć ujemne dla siebie saldo rozliczeń z innymi bankami.

Możliwość kreacji pieniądza bankowego przez bank komercyjny są więc ograniczone przez wielkość posiadanego pieniądza rezerwowego banku centralnego, gdyż klienci mogą chcieć wykorzystać posiadane środki na rachunkach w banku komercyjnym w formie gotówki bądź też przekazać je do innego banku. Jeżeli suma środków otrzymywanych i płaconym innym bankom komercyjnym jest dla danego banku komercyjnego niekorzystna, to musi on dysponować odpowiednimi środkami na rachunku w banku centralnym, żeby pokryć różnicę.

Wielkość pieniądza rezerwowego posiadanego przez bank komercyjny może być zatem znacznie mniejsza od wielkości posiadanych wkładów. Wzajemne relacje między posiadanym pieniądzem rezerwowym a nagromadzonymi wkładami jest określona jako tzw. mnożnik pieniądza wkładowego lub multiplikator.

Zależność ta jest wykorzystywana przez bank centralny w celu regulowania wielkości podaży pieniądza poprzez interwencje, których zadaniem jest bądź pomnażanie wkładów pieniężnych, bądź też zahamowanie tego procesu.

Udział w społecznym podziale pracy

Bank jest przedsiębiorstwem, które prowadzi działalność mającą na celu przejęcie od jednostek gospodarczych i osób fizycznych czynności finansowych, jest także instytucją dokonującą transformacji terminu, wielkości i ryzyka w stosunkach pieniężnych między pożyczkobiorcą a pożyczkodawcą.

W gospodarce, która w małym stopniu zależy od podziału pracy, podmioty gospodarcze muszą dokonywać czynności finansowych samodzielnie. Natomiast w gospodarce o rozwiniętym podziale pracy banki stają się przedsiębiorstwami, które przejmują szereg czynności w zakresie gospodarki finansowej od przedsiębiorstw i gospodarstw domowych. Może nawet powstać sytuacja krańcowa, kiedy to tzw. bank domowy przejmie wszystkie funkcje finansowe wspomnianych podmiotów gospodarczych, a będzie to oznaczać, że podmioty te zamiast stosunków finansowych z wieloma klientami czy dostawcami będą miały stosunki tylko z jednym bankiem.

Banki przede wszystkim przyjmują wkłady i udziały i udzielają kredytów, co sprawia, że przedsiębiorstwa i gospodarstwa domowe nie muszą same szukać kredytodawcy czy kredytobiorcy.

Banki przejmują także szereg czynności usługowych, zwłaszcza w zakresie obsługi papierami wartościowymi. Banki zawiadamiają właścicieli o zebraniach akcjonariuszy, a także pobierają odsetki i dywidendy dla nich. Papiery wartościowe mogą też być przekazywane do specjalnych banków.

Banki występują również w zastępstwie podmiotów gospodarczych w handlu papierami wartościowymi. Kupują i sprzedają w imieniu swoich klientów określone akcje i obligacje. Obsługa papierów wartościowych przez banki to m. in. przejęcie emisji tych papierów od przedsiębiorstw oraz obsługa sprzedaży weksli i obligacji skarbowych.

Banki udzielają porad podmiotom gospodarczym, które chcą dokonywać lokaty. W ich imieniu mogą dokonywać wkładów zakupów papierów wartościowych czy też przekazywać te środki specjalnym instytucjom zajmującym się cudzym majątkiem.

Dokonywanie alokacji i transformacji środków

Banki spełniają istotną rolę jako instytucje transformacyjne, pośredniczące w doprowadzaniu do wzajemnego uzgodnienia różniących się struktur podaży i popytu. Odnosi się to zwłaszcza do transformacji informacji, wielkości zapotrzebowanej sumy pieniądza, transformacji terminu i transformacji ryzyka.

Transformacja informacji jest konieczna ze względu na to, że posiadacz sumy pieniężnej i poszukujący pieniądza muszą osiągnąć informacje o sobie, a następnie przeprowadzić odpowiednie negocjacje. Nie bez znaczenia jest też o solidności partnera. Taką wiedzę możne zapewnić pośredniczący bank, dysponujący odpowiednio wyszkoloną kadrą

Transformacja wielkości sumy pieniądza wiąże się z występującym na ogół brakiem zgodności między sumą oferowaną przez posiadacza a sumą zapotrzebowaną przez poszukującego pieniądza. Problem ten może być rozwiązany przez pośredniczący bank. Dodatkowe ułatwienia stwarza tu rynek pieniężny.

Transformacja terminu jest konieczna ze względu na to, że posiadacze wolnych środków na ogół chcą ulokować swoje środki w krótsze terminy, natomiast poszukujący pieniądza chcieliby go otrzymać na terminy dłuższe.

Taka transformacja jest możliwa dzięki temu, że w praktyce bankowej następują:

Transformacja ryzyka jest możliwa dzięki:

*

Rolę banku można więc określić następująco:

33. Ryzyko finansowe w działalności banków, jego źródła i metody ograniczania

Pojęcie ryzyka najczęściej jest rozumiane jako zagrożenie nieosiągnięcia zamierzonych celów, czyli jest równoznaczne z wystąpieniem zdarzeń oddziałujących negatywnie na sytuację banku. Rozmiary ryzyka występującego w działalności bankowej są zależne od wielu wzajemnie na siebie oddziałujących czynników, z których duża część ma charakter zewnętrzny (niezależny od działań banku). Zaliczamy do nich:

Oprócz powyższych czynników coraz większy wpływ na występowanie ryzyka w działalności banków mają nowe tendencje na międzynarodowych rynkach finansowych:

Ryzyka występujące w obszarze finansowym można podzielić na dwie grupy:

  1. ryzyko płynności

  2. ryzyko wyniku.

Ryzyko płynności wywodzi się z transformacji terminów dokonywanej przez banki. Operacje aktywne banku (kredyty) dotyczą z reguły znacznie dłuższych terminów niż operacje pasywne. Wiąże się więc z niezsynchronizowaniem w czasie dopływu i odpływu środków. Może ono występować w czterech formach:

Instrumenty ograniczania ryzyka płynności:

Ryzyko wyniku polega na niebezpieczeństwie nieosiągnięcia założonego wyniku. Może ono być związane:

Instrumenty ograniczania ryzyka wyniku:

  1. dokonanie oceny wiarygodności kredytowej

  2. transakcje terminowe:

  1. zawieranie transakcji tylko w walucie krajowej

  2. uzyskiwanie gwarancji kursowej (udzielanej przez Rząd).

34. Wpływ innowacji bankowych na organizację i zarządzanie bankami.

Rozwój działalności banków w latach sześćdziesiątych określa się jako strategię intensywnego rozwoju - rozszerzania gamy świadczonych usług i zasięgu terytorialnego działalności. Polityka ta była formowana w szczególnie sprzyjających warunkach ekonomicznych. W okresie tym następował szybki rozwój oraz modernizacja przemysłu handlu. Pojawiło się rosnące zapotrzebowanie na kredyty na te cele. Równocześnie na skutek rozwoju gospodarki wzrastało zatrudnienie i poziom zamożności gospodarstw domowych, czego następstwem był przyrost oszczędności i dążenie do poszukiwania rentownych lokat. Banki okazały żywe zainteresowanie zasobami pieniężnymi osób fizycznych i podjęły starania o pozyskanie jak największej kwoty wkładów oszczędnościowych jako stosunkowo taniego źródła finansowania działalności. stało się to możliwe dzięki zliberalizowanym przepisom, które uchyliły lub ograniczyły zasadę wyłączności kas oszczędnościowych i pozwoliły szerokiemu gronu banków na przyjmowanie wkładów. Banki zaoferowały prywatnym posiadaczy zasobów pieniężnych różnorodne udogodnienia w postaci rachunków czekowych, dzięki którym rozwinął się w tym czasie obrót czekowy, rachunków dopuszczających powstanie salda debetowego, kredytów konsumpcyjnych itp. gromadzenie się środków pieniężnych i poszukiwanie korzystnych lokat stworzyło dogodny grunt dla rozwoju rynku papierów wartościowych, którego rozkwit nastąpił jednak w późniejszym okresie. Dzięki pozyskiwaniu przez banki źródeł finansowania wzrosła podaż kredytów, aczkolwiek nie pokryła w pełni rosnących potrzeb. Rozwinęły się wydatnie pewne formy kredytowania, m.in. krótkoterminowego, w postaci dyskonta weksli ciągnionych przez dostawców na ich odbiorców, a także w wielu innych formach.

W sumie więc sprawdziła się teza, zgodnie z którą po to, aby banki dostosowały się do nowych potrzeb i wykonały jak najlepiej swe zadania, należy zapewnić im więcej swobody. Banki, uwalniane ze sztywnych ograniczeń dotyczących zakresu specjalizacji, wykazały wiele inicjatywy i dynamizmu. Lista świadczonych usług została znacznie rozszerzona o zupełnie nowe produkty. Banki pojawiły się na rynku papierów wartościowych, w niektórych krajach dopiero powstającym, w roli pośrednika przy zakupie i sprzedaży nowych walorów, organizatora emisji, administratora portfeli akcji i obligacji.

Przyznane bankom prawo do swobodnego tworzenia oddziałów bez zezwolenia władz umożliwiło szybki wzrost liczby placówek świadczących usługi bankowe. Kraje EWG pokryły się gęstą siecią placówek bankowych. W latach 1960-1970 liczba tych placówek w 9 krajach EWG wzrosła na każde 100 tyś. mieszkańców z 38 do 46, a więc o 21 %, w Holandii z 30 do 40, tzn. o 33 %, w Belgii z 20 do 33, czyli o 65 %. Nastąpiło „ubankowienie” ponad 90 % gospodarstw domowych, tzn. pozyskanie ich w charakterze stałych klientów banku.

Ten imponujący rozwój sektora bankowego uległ zahamowaniu w pierwszej połowie lat 70-tych, gdy wystąpiły poważne zaburzenia gospodarcze wywołane wzrostem cen paliw i wybuchem inflacji, a następnie zjawiskiem ogólnej stagnacji połączonej z inflacją. Zyski banków gwałtownie spadły, a wiele nowo otwartych oddziałów okazało się nierentownych. W tej sytuacji zaczęto poddawać krytyce dotychczasowa politykę banków, nastawiona wyłącznie na wdrażanie nowych usług, zwiększanie obrotów i rozszerzanie obszarów działania. Właśnie w tym okresie zwrócono uwagę na silne uzależnienie banku od środowiska, w którym działa oraz na ograniczenia, jakie stwarza to środowisko w okresach zahamowania wzrostu gospodarczego. Stwierdzono także, że nawet w czasie pomyślnej koniunktury nie można planować na danym obszarze nieograniczonego rozwoju działalności, następuje bowiem nasycenie rynku usługami bankowymi. W związku z tym zakładanie dalszego wzrostu obrotów staje się możliwe tylko w tym przypadku, jeżeli dokonane analizy dowiodą, że istnieje tu rzeczywiście pole do dalszej ekspansji.

Pogorszenie sytuacji ekonomicznej w pierwszej połowie lat 70-tych skłoniło banki do skupienia uwagi na problemach rynku. Zaczęła się kształtować polityka pozyskiwania klienteli i umacniania współpracy z klientela w drodze oferowania odpowiednio opracowanego i gruntownie przemyślanego wachlarza usług, wprowadzania konkurencyjnych stawek % i prowizyjnych oraz podnoszenia jakości obsługi. Politykę tę zaczęto określać jako marketingowa.

Nowa polityka wywarła głęboki wpływ na cały system zarządzania bankiem: strukturę organizacyjną, system planowania, treść i zakres sprawozdawczości, metody pracy. Dla oznaczenia tego systemu zarządzania pojawiła się nazwa Marketing Management. Zmiana sytuacji rynkowej w latach 70-tych przyniosła zmianę zachowań zarówno banków, jak i klientów. Banki podjęły znaczne wysiłki, by nadać świadczonym usługom możliwie atrakcyjny charakter i zdobyć nowych klientów. Klienci zaś stali się bardziej wymagający i aktywni, co przejawiło się w nowej skłonności do porównania warunków proponowanych przez poszczególne banki i przenoszenia rachunków lub lokat tam, gdzie warunki wydawały się najlepsze bądź do korzystania z usług kilku banków jednocześnie. Do klienteli zaczęto kierować oferty. Oceniono, że wypróbowany, solidny i w miarę zamożny klient, który korzysta tylko z rachunku czekowego, da się, być może, zachęcić do lokaty w PW, do korzystania z karty kredytowej czy kredytu na zakup doradzanej przez bank nieruchomości. Innym ciekawym zjawiskiem było „odkrywanie” nowych kategorii klienteli, którymi poprzednio interesowano się w bardzo małym stopniu: młodzieży, która nie rozpoczęła jeszcze pracy zawodowej oraz osób w wieku emerytalnym. Opracowano cały system kredytów na zakup pojazdów, sprzętu sportowego czy kempingowego dla najmłodszych klientów, udzielanych oczywiście za poręczeniem osób starszych. Stworzono również system dogodnych i bardzo pewnych lokat dla osób najstarszych, przewidziano dla nich wygodne warunki obsługi, uruchomiono system poradnictwa.

Rozwój informatyki i systemów telekomunikacyjnych spowodował, że wiele otwartych wcześniej oddziałów bankowych zostało gruntownie zreorganizowanych.

Lata 70-te i 80-te były okresem intensywnego rozwoju nowych usług bankowych, pojawiły się:

35. Rola ubezpieczeń w zarządzaniu ryzykiem w przedsiębiorstwie.

Ryzyko, które jest nieodłącznym elementem wszelkiej działalności człowieka, w tym również działalności społecznej i gospodarczej, stanowi jeden z podstawowych obiektów zainteresowań człowieka mającego na celu optymalizację tej działalności. Współczesna ekonomia wraz z rozwojem i rozpowszechnieniem nowoczesnych metod optymalizacyjnych, bazujących na epokowych osiągnięciach nauk ścisłych, oraz rozwojem elektronicznej techniki obliczeniowej zwróciła również uwagę na istotne znaczenie dla zagadnień optymalizacji problemów związanych z prewencją (zapobieganiem) i kontrolą ryzyka towarzyszącego działalności gospodarczej i społecznej. W konsekwencji proces optymalizacji działalności gospodarczej oraz społecznej (głównie dążenie do maksymalizacji zysku) wymusił potrzebę zajęcia się tzw. „technologią” ryzyk, a więc profesjonalnym, planowym i zorganizowanym diagnozowaniem przeciwdziałaniem stratom powstającym w wyniku realizacji różnych ryzyk. Mamy więc tu do czynienia z procesem świadomego diagnozowania i sterowania ryzykiem, który jest określamy angielskim terminem risk management (proces zarządzania ryzykiem).

Risk management jest to proces opanowywania ryzyka obejmujący ogół działań związanych z analizą, eliminowaniem, ograniczeniem oaz zarządzaniem ryzykiem w konkretnym przypadku.

Cechą charakterystyczną procedur zarządzania ryzykiem jest fakt, iż mamy do czynienia z rozłożonym w czasie procesem opanowywania i zarządzania ryzykiem, składającym się z wielu elementów składowych. Elementy te muszą występować w określonej sekwencji czasowej, poczynając od identyfikacji ryzyka poprzez wybór metody „manipulacji”, aż do podjęcia decyzji dotyczącej wdrożenia w życie określonego programu zarządzania ryzykiem w konkretnym wypadku. Aczkolwiek wspomniane elementy nie są przez wszystkich autorów ujmowane jednolicie, ich sekwencję czasową można przedstawiać następująco:

Wyróżnia się trzy etapy lub dwie główne fazy procesu zarządzania ryzykiem, przy czym podział na dwie fazy jest podziałem najbardziej ogólnym, obejmującym zaprezentowany powyższy podział na elementy składowe procedury oraz podział na poniższe etapy.

Etapy procedury zarządzania ryzykiem:

  1. Analiza ryzyka - identyfikacja i oszacowanie ryzyka oraz ustalenie hierarchii ryzyk.

  2. Aktywne podejście do ryzyka - eliminowanie, ograniczenie, segmentowanie, podział, kontrola i przemieszczenie ryzyka.

  3. Finansowanie ryzyka - rozeznanie możliwości samoubezpieczenia lub ubezpieczenia w systemie ubezpieczeń gospodarczych (transfer ryzyka).

Fazy procedury zarządzania ryzykiem:

  1. Diagnozowanie ryzyka (etap 1)

  2. Kontrola ryzyka (etap 2 i 3).

Procedury zarządzania ryzykiem koncentrują się na zagadnieniach identyfikacji oraz oceny ilościowej i jakościowej ryzyka obiektywnego, z którym mamy do czynienia w działalności gospodarczej. Głównym celem tych procedur jest rozszyfrowanie prawidłowości rządzących ryzykiem i wpływających na wielkość potencjalnych strat, a w konsekwencji znalezienie najmniej kosztownych metod finansowania ujemnych ekonomicznie następstw poszczególnych ryzyk.

Metoda ubezpieczeniowa, która jest jednym instrumentów finansowej kontroli ryzyka należy do tych metod, które są dość popularne w procedurze risk management zwłaszcza w sytuacji, gdy głównym celem zarządzania ryzykiem jest jego finansowanie. Samo ubezpieczenie nie redukuje czy też nie eliminuje ryzyka, co najwyżej może to ryzyko „pokrywać” - kompensuje straty finansowe. Tym samym ubezpieczenie nie jest jedyną metodą zarządzania ryzykiem. Zaliczamy do tych metod wiele innych, wśród nich również bardzo ważne dla procesu zarządzania ryzykiem metody „obchodzenia się z ryzykiem”, tzw. metody manipulacji (sterowania) ryzykiem.

Manipulowanie ryzykiem odnosi się więc wyłącznie do metod obchodzenia się z ryzykiem, tymczasem risk management jest procesem opanowywania ryzyka od identyfikacji poprzez metody manipulacji, aż od podjęcia decyzji dotyczących wdrożenia programu zarządzania (kontroli) ryzykiem dla konkretnego problemu. Manipulowanie jest jednym z elementów, które są brane pod uwagę w pełnym procesie zarządzania ryzykiem (element risk management).

Manipulowanie ryzykiem są to metody obchodzenia się z ryzykiem, będące sumą doświadczeń człowieka w tej dziedzinie zdobytych w przeszłości.

Podstawowym problemem jest wypracowanie i zajęcie określonej postawy przez człowieka wobec grożącego mu ryzyka. Te właśnie postawy skatalogowano według tzw. metod manipulacji ryzykiem. Główne pozycje zawarte we wspomnianym katalogu tych metod przedstawiają się następująco:

  1. unikanie ryzyka,

  2. zatrzymanie ryzyka:

    1. aktywne zatrzymanie ryzyka,

    2. pasywne (bierne) zatrzymanie ryzyka,

  3. kontrola ryzyka,

  4. transfer ryzyka,

  5. repartycja strat (dystrybucja, dzielenie ryzyka),

  6. ubezpieczenie ryzyka.

Unikanie ryzyka jest to indywidualna i świadoma odmowa akceptacji nawet chwilowego ryzyka. Zaliczane jest do tych metod manipulacji ryzykiem, które określane są jako negatywne, bowiem ich stosowanie wiąże się z ujemnymi konsekwencjami (np. unikanie ryzyka utonięcia poprzez niewchodzenie do wody).

Gdy osoba lub firma w pełni świadome występowania danego ryzyka i jego potencjalnych skutków, podejmuje decyzję o zatrzymaniu go w całości lub w części, wówczas mamy do czynienia z aktywnym zatrzymaniem ryzyka. W sytuacji, gdy składka ubezpieczeniowa, która dana osoba lub firma nie chce lub nie może zapłacić jest zbyt wysoka, zainteresowany może zastosować pewną odmianę aktywnego zatrzymania ryzyka jaką jest samoubezpieczenie, tzn. gromadzenie rezerw pieniężnych na okoliczność zmaterializowania się ryzyka w postaci strat. Wypada przy tym wspomnieć, iż użyteczność tej metody może być duża tylko w przypadku ryzyk o wysokiej częstości i niskiej ostrości, tzn. wówczas, gdy potencjalne straty będą niewielkie.

Pasywne zatrzymanie ryzyka występuje w sytuacji, w której osoba lub firma podejmuje decyzje o zachowaniu danego ryzyka w pełni nieświadomie. Zwykle jest to spowodowane ignorancją, obojętnością, lenistwem lub arogancją decydenta. Podstawa decydenta, wykazującego swego rodzaju bierność wobec ryzyka, może być spowodowana samą naturą tego ryzyka. Najczęściej bowiem pasywne zatrzymanie ryzyka dotyczy ryzyk o niskiej częstotliwości, których obecność jest nie dostrzegana przez osobę zagrożoną (nie dociera do jej świadomości).

Kontrola ryzyka są to działania podejmowane w celu obniżenia częstości występowania strat, jak i ich potencjalnych następstw. W efekcie metoda kontroli ryzyka ogranicza się do dwóch głównych aspektów:

  1. zapobiegania stratom,

  2. redukcji strat.

Zapobieganie stratom są to wszelkie działania ukierunkowane na obniżenie częstości występowania strat, a tym samym obniżenie prawdopodobieństwa obiektywnego danego ryzyka.

Redukcja strat są to działania często mylnie utożsamiane z działaniami prewencyjnymi (zapobiegawczymi). Redukcja strat są to działania podejmowane w celu zmniejszenia wielkości potencjalnych strat, które powstają w wyniku niedoskonałości działań prewencyjnych ( zapobiegawczych), a więc są to działania istotnie różniące się od działań prewencyjnych.

Transfer ryzyka jest to przeniesienie ryzyka na inny podmiot przy wykorzystaniu mechanizmów prawnych (umowa ubezpieczenia, umowa przechowania, umowa o dozór obiektu) oraz działań o charakterze organizacyjnym czy zabezpieczającym.

Dystrybucja ryzyka jest metodą manipulacji polegającą na podzieleniu, czy też bardziej rozłożeniu (dystrybucji) skutków finansowych realizacji danego ryzyka na grupę (między uczestników wspólnego konsorcjum, wspólnego funduszu czy też wspólnego przedsięwzięcia, tzn. pool). Typowym przykładem jest ryzyko związane z działalnością spółki. Ryzyko to rozkłada się na udziałowców tej spółki lub jej akcjonariuszy.

Ubezpieczenia zaliczamy do najbardziej popularnych i praktycznych metod manipulacji ryzykiem. Jednocześnie większość fachowców podkreśla fakt, iż w istocie jest to metoda manipulacji będącą kombinacją metod prezentowanych wcześniej. Zauważmy bowiem, że istota ubezpieczenia, które w literaturze fachowej określane jest jako instrument finansowej kontroli ryzyka, sprowadza się do transferu (przeniesienie ryzyka na inny podmiot, zwykle jest to ubezpieczyciel, tj. firma ubezpieczeniowa), jego dystrybucji (rozłożenie finansowych skutków danego ryzyka na grupę ubezpieczonych) oraz kontroli ryzyka. Przy czym kontrola ryzyka ma miejsce w przypadku ubezpieczenia wówczas gdy wspomniane ubezpieczenie oddziałuje prewencyjnie na postawę ubezpieczonego, tzn. powoduje, że ubezpieczony podejmuje działania utrudniające bądź zapobiegające realizacji ubezpieczonego ryzyka.

Do wad metody ubezpieczeniowej zalicza się:

Do zalet metody ubezpieczeniowej zalicz się:

36. Ubezpieczenia życiowe w systemie emerytalnym.

Reforma ubezpieczeń społecznych wprowadzona w Polsce od 1 stycznia 1999 roku posiada swoją własną logikę wynikającą z jej trójfilarowego charakteru. W momencie wprowadzania reformy uwaga zainteresowanych stron koncentrowała się przede wszystkim wokół jej I i II filaru. W kwietniu 1999 r. rozpoczęły działalność otwarte fundusze emerytalne. Ustanowienie II filaru - powszechnego, obowiązkowego segmentu kapitałowego stało się zasadniczą innowacją nowego systemu ubezpieczeń społecznych. Oprócz oczywistych korzyści dla ich użytkowników II filar spełnia również niezwykle ważne funkcje ekonomiczne. W krajach, w których wprowadzono tę nowoczesną formę ubezpieczeń społecznych, stał się on narzędziem napędzającym koniunkturę, przyspieszającym wzrost gospodarczy i powodującym podnoszenie się ogólnego poziomu zamożności społeczeństwa.

Prawdopodobnie emerytura z I i II filaru zapewni człowiekowi w przyszłości jedynie minimum egzystencji. Realna, docelowa stopa zastąpienia czyli procentowa relacja emerytury do ostatniego wynagrodzenia z ubezpieczenia w I i II filarze, będzie oscylowała w granicach 50%, przy założeniu, że ubezpieczony osiągnął wynagrodzenie w granicach średniej krajowej i nie miał w swej karierze zawodowej zbyt wielu okresów bezskładkowych.

III filar to rozmaite formy dodatkowego zabezpieczenia przyszłości, podejmowane niezależnie od ubezpieczenia społecznego. Analizując samo pojęcie „zabezpieczenie” czy „ubezpieczenie” odnajduje się w nich wyraźny, decydujący o ich istocie rdzeń - bezpieczeństwo. Poczucie bezpieczeństwa to elementarna potrzeba psychologiczna każdego człowieka. Pragnienie ochrony przed skutkami niepomyślnych zdarzeń losowych towarzyszy ludzkości nieodmiennie od zarania jej dziejów. Długoterminowe ubezpieczenia na życie w ramach III filaru łączą ochronę życia i zdrowia z gromadzeniem kapitału dla zabezpieczenia przyszłości. To bardzo efektywna i atrakcyjna forma oszczędzania. Wpłacane składki do towarzystwa ubezpieczeniowego są inwestowane tak, aby przynosiły maksymalne zyski. Długoterminowe, regularne oszczędzanie nawet niewielkich kwot pozwoli w efekcie na zgromadzenie kapitału, który w przyszłości może zagwarantować niezależność finansową. Niezmiernie ważna jest tutaj ochrona ubezpieczeniowa, jaką uzyskuje klient, który wykupi polisę na życie. W przypadku śmierci ubezpieczonego towarzystwo wypłaca wyznaczonym przez niego uposażonym pełną sumę ubezpieczenia bez względu na to, jak długo opłacał składki. III filar zabezpieczenia stał się najbardziej liberalnym segmentem nowego systemu emerytalnego istniejącym już od kilku lat i działającym na zdrowych wolnorynkowych zasadach. Określone rygory finansowe związane z długoterminowym oszczędzaniem sprzyjają pomnażaniu środków pieniężnych. Pieniądz umacnia się, spada inflacja, łatwiej więc budować kapitał z niewielkich kwot, ale odkładanych przez długi czas. W dzisiejszych czasach oszczędzanie to nie tylko sztuka odkładania kosztem koniecznych wyrzeczeń, ale przede wszystkim sztuka inwestowania, która przyniesie pozytywne efekty finansowe w przyszłości. Na uwagę zasługuje również wysokie bezpieczeństwo lokat ubezpieczeniowych. Wynika ono z narzuconego przez ustawę ubezpieczeniową, wolnego od nadmiernego ryzyka sposobu inwestowania składek. Nieprzypadkowo towarzystwa i zakłady ubezpieczeniowe są traktowane przez władzę ustawodawczą i wykonawczą jako instytucje zaufania publicznego, z uwagi na ogromną społeczno-gospodarczą rangę prowadzonej działalności. Zarówno gromadzony kapitał i świadczenia, które wynikają z umów ubezpieczenia na życie, są chronione gwarancjami w przypadku niewypłacalności zakładu ubezpieczeń. System gwarantowanych świadczeń jest tworzony i nadzorowany przez państwo. W Polsce działa Państwowy Urząd Nadzoru Ubezpieczeń, który pełni funkcję nadzorczo-kontrolną nad działalnością tych instytucji zgodnie z ustawą o działalności ubezpieczeniowej. W państwach wysoko rozwiniętych system ubezpieczeń komercyjnych stanowi jednocześnie uzupełnienie i alternatywę dla ubezpieczeń społecznych opartych na idei repatycji. Ubezpieczenia na życie korzystają tam ze szczególnej opieki i preferencji podatkowych. W Polsce zgodnie z zasadą jednorazowego opodatkowania, składki z tytułu dodatkowych dobrowolnych zabezpieczeń są opłacane z dochodu po opodatkowaniu, natomiast wszelkie świadczenia są wolne od podatku dochodowego, czy spadkowego.

Standardowe produkty ubezpieczeniowe

Ubezpieczenie na życie i dożycie

Ten produkt ubezpieczeniowy uznawany jest za podstawowe ubezpieczenie indywidualne. Ubezpieczenie to stanowi zabezpieczenie finansowe w wieku emerytalnym, będąc jednocześnie materialnym zabezpieczeniem dla rodziny w przypadku przedwczesnej śmierci ubezpieczonego. Ustala się tutaj okres ubezpieczenia, po upływie którego ubezpieczony otrzymuje świadczenie w wysokości sumy wcześniej ustalonej. Jeśli ubezpieczony umrze w trakcie trwania ubezpieczenia wówczas uposażony otrzymuje świadczenie w takiej wysokości, jak w przypadku dożycia przez ubezpieczonego wieku określonego w umowie, bez względu na sumę wpłaconych składek. Również w tym produkcie po okresie kilku lat istnieje możliwość, zależnie od specyfiki zakładu ubezpieczeń, dokonania wykupu polisy lub jej zamiany na ubezpieczenie ze stałą sumą ubezpieczenia bez konieczności opłaty kolejnych składek.

Ubezpieczenie na dożycie

To typowy produkt oszczędnościowy. Oszczędzanie polega na systematycznym opłacaniu składek. Korzystanie ze zgromadzonego kapitału ustala się najczęściej na schyłek aktywności zawodowej i przejście na emeryturę. Wypłacie podlegają wpłacone składki wraz z zyskiem z inwestycji.

Ubezpieczenie zaopatrzenia dzieci (posagowe)

Jest to szczególny sposób oszczędzania celowego. Ubezpieczony rodzic opłaca składki przez cały czas trwania programu. Po okresie, na jaki została zawarta umowa, dziecko otrzymuje sumę ubezpieczenia. Wyjątkowy charakter tego produktu określają następujące przesłanki:

  1. W razie śmierci ubezpieczonego rodzica składka przestaje być opłacana, nie powoduje to jednak przerwania programu i świadczenie uprzednio określone zostaje wypłacone dziecku w czasie przewidzianym umową. To nie jedyna korzyść wynikająca z tego produktu - niektóre towarzystwa proponują rozszerzenie zakresu ochrony ubezpieczeniowej.

  2. W przypadku śmierci ubezpieczonego rodzica niezależnie od świadczenia omówionego powyżej, dziecko lub jego prawny opiekun do końca trwania programu może otrzymywać miesięczną rentę w wysokości określonej przez ogólne warunki ubezpieczenia.

  3. Jeżeli w okresie pobierania renty dziecko trwale utraci zdolność do wykonywania pracy powyższa renta będzie mu wypłacana dożywotnio.

Ubezpieczenie na życie

W ubezpieczeniu tym suma ubezpieczenia wypłacana jest w przypadku śmierci ubezpieczonego. Celem tego produktu jest zabezpieczenie rodziny na wypadek dodatkowych kosztów oraz zmniejszenia dochodów w związku ze śmiercią osoby, która często była jedynym żywicielem rodziny. Ubezpieczenie to może funkcjonować jako dożywotnie i terminowe.

Ubezpieczenie na życie z funduszem inwestycyjnym

Ten nowoczesny produkt ubezpieczeniowy pozwala dostosować ochronę życia i przyszłe potrzeby finansowe klienta do bieżących preferencji i sytuacji materialnej. Ubezpieczony ma prawo regularnie określać i zmieniać zakres ochronny i oszczędnościowy (inwestycyjny) swojego ubezpieczenia. Ma on również możliwość dokonywania oceny jego przebiegu i podejmowania ewentualnych decyzji o zmianie proporcji następnych wpłat.

Wpłaty wszystkich ubezpieczonych tworzą jeden fundusz inwestycyjny stanowiący wydzieloną część aktywów towarzystwa ubezpieczeniowego. Każdemu ubezpieczonemu jest przypisany indywidualny rachunek, zwany rachunkiem udziałów. Stan posiadania na tych rachunkach nie jest wyrażany w jednostkach pieniężnych, lecz w ilości udziałów jednostkowych, których wartość jest ściśle uzależniona od efektywności inwestycji kapitałowych ubezpieczyciela. Po zakończeniu programu towarzystwo wypłaca ubezpieczonemu aktualną wartość jego rachunku udziałów.

37. Rola ubezpieczeń gospodarczych w gospodarce rynkowej.

Ubezpieczenia gospodarcze są urządzeniem (instytucją) celowym, które w swoim przeznaczeniu i istocie ma zaspokajać określone potrzeby podmiotów gospodarczych oraz ludności. Potrzeby te należ określać zarówno z mikro- i makroekonomicznego punktu widzenia, jak też z punktu widzenia gospodarczego i społecznego. Oczywiście te dwa podziały potrzeb nie są rozłączne, albowiem potrzeby społeczne mają niemal zawsze charakter makro, czyli ogólny, nie wiążą się z indywidualnym klientem zakładu ubezpieczeń. Zaspokojenie określonych potrzeb to podstawowe zadanie ubezpieczeń gospodarczych. Z kolei realizacja tych zadań jest w mniejszym lub większym stopniu przejawem istoty ubezpieczeń. Należy więc przyjąć, że funkcje ubezpieczeń gospodarczych to formy przejawiania się ich gospodarczego i społecznego przeznaczenia, czyli realizacji nałożonych na nie zadań. Ubezpieczenia realizując swoje zasadnicze zadania mogą - w sensie instrumentalnym - służyć realizacji różnych celów i zadań cząstkowych, koniunkturalnych, wynikających z okresowych potrzeb społecznych lub gospodarczych. Ostatecznie można wyróżnić:

  1. funkcję ochrony ubezpieczeniowej,

  2. funkcję prewencyjną,

  3. funkcje finansowe.

Funkcja pierwsza posiada charakter zdecydowanie nadrzędny, albowiem najpełniej wyraża zarówno istotę, jak i zasadnicze treści społeczno-ekonomiczne ubezpieczeń, natomiast funkcja druga i trzecia są jakby skutkiem funkcji pierwszej.

Ad. 1) Usługa ubezpieczeniowa polega na sprzedaży ochrony ubezpieczeniowej, która oznacza gotowość przejęcia przez zakład ubezpieczeń materialnych skutków zdarzeń losowych (czyli realizacji ryzyk), objętych umową ubezpieczeniową. Swoistość usługi ubezpieczeniowej polega - między innymi - na tym, że zakład ubezpieczeń roztacza nad ubezpieczającymi ochronę w sensie finansowym, przez co uwalnia on ich od ewentualnego kłopotu szybkiego zgromadzenia znacznych niekiedy środków finansowych, niezbędnych do naprawienia powstałego uszczerbku majątkowego lub zaspokojenia określonych potrzeb majątkowych. Najistotniejszym bowiem jest fakt, że ubezpieczający kupują coś więcej, kupują ochronę finansową, której odszkodowanie, czyli kompensacja jest ewentualną konsekwencją wynikającą z charakteru nabytej usługi. Odszkodowanie lub świadczenie nie może być uznane za konieczną, bezwzględną cechę ubezpieczenia, gdyż wystąpi ono wyłącznie w sytuacji, kiedy nastąpi realizacja ryzyka objętego umową ubezpieczeniową.

Ad. 2) Pod pojęciem prewencji rozumieć należy wszelką działalność (wraz z nakładmi) zmierzającą do zmniejszenia szkód losowych, tak przez ograniczenie ich rozmiarów, liczebności, częstotliwości, jak i zmniejszenie prawdopodobieństwa ziszczenia się ryzyka. Działalność ta może przybierać postać materialną oraz niematerialną. Ubezpieczenia gospodarcze w szerokim zakresie realizują tak pojmowaną prewencję, albowiem działalność ta przynosi zakładom ubezpieczeń jak i ubezpieczonym wymierne korzyści. Stały wzrost sum wypłacanych odszkodowań i świadczeń ubezpieczeniowych, wynikający ze wzrostu liczby wypadków ubezpieczeniowych, powiększa pasywa ubezpieczycieli w bilansie działalności ubezpieczeniowej. Z tego też względu zakłady ubezpieczeń są niekiedy bardziej niż ubezpieczający zainteresowani w tym, aby do wypadku ubezpieczeniowego nie doszło, i w tym celu gotowe są ponieść określone koszty. Jednakże materialna postać prewencji ubezpieczeniowej, polegająca na finansowaniu przez zakłady ubezpieczeń konkretnych przedsięwzięć prewencyjnych, nie odgrywa w ich działalności tak istotnej roli jak prewencja niematerialna, zwana też ogólną lub legislacyjną. Klasycznym przykładem tej ostatniej jest zasada nieodpowiedzialności ubezpieczyciela za winę umyślną lub rażące niedbalstwo ubezpieczającego.

Ad. 3) Ubezpieczenia gospodarcze spełniają także szereg funkcji związanych z przynależnością do szeroko rozumianego systemu finansowego państwa, a nazywanych wspólnie funkcjami finansowymi.

Funkcje finansowe ubezpieczeń gospodarczych polegają generalnie na gromadzeniu środków w postaci funduszy i rezerw, oraz na spełnianiu funkcji finansowych takich jak: redystrybucyjna, fiskalna, lokacyjna, interwencyjna i kontrolna.

Pierwsza z nich (redystrybucyjna) związana jest z istotą ubezpieczeń gospodarczych i sprowadza się do kumulowania i odpowiedniego rozdzielania środków finansowych. Pobierając znaczne kwoty składek i wypłacając sporą ich część uposażonym lub poszkodowanym, zakłady ubezpieczeń dokonują redystrybucji środków finansowych między podmioty (przedsiębiorstwa, gospodarstwa domowe). Efekt tej redystrybucji nie jest jednak podobny do efektu redystrybucyjnego systemu podatkowego czy repartycyjnego systemu ubezpieczenia społecznego. Pomniejszanie zasobów podmiotów przez pobieranie składki nie ma charakteru progresywnego w odniesieniu do wartości majątku czy wysokości dochodów. Składki nie redukują więc silniej wyższych dochodów niż niższych. Nie dokonują się więc zauważalne zmiany w poziomie życia grup społecznych wskutek opłaty składek Wypłacanie zaś świadczeń z ubezpieczeń czysto ochronnych nie powoduje podwyższania statusu majątkowego, gdyż z reguły służy kompensowaniu strat. Efektem redystrybucji ubezpieczeniowej jest zachowanie przez osoby dotknięte stratami spowodowanymi wypadkami ubezpieczeniowymi statusu majątkowego bliskiego statusowi przedwypadkowemu, czli zachowanie status quo.

Funkcja fiskalna polega na dostarczaniu państwu i innym podmiotom publicznym dochodów w postaci płaconych podatków.

Kolejna tj. lokacyjna przejawia się w inwestowaniu wolnych środków finansowych (np. kapitałów własnych, rezerw techniczno-ubezpieczeniowych) zgromadzonych przez ubezpieczycieli w różnorakie instrumenty finansowe (np. akcje, obligacje, lokaty bankowe) w celu osiągnięcia dodatkowych dochodów. Dodatkowe dochody wpływają przede wszystkim na kalkulację składki oraz wyniki finansowe zakładów ubezpieczeń. W przypadku ubezpieczeń na życie z dochodów tych korzystają także ubezpieczający (w postaci np. niższej składki lub udziału w zyskach). Korzyści z tej funkcji odnosi także gospodarka, gdyż otrzymuje ona dodatkowe fundusze na rozwój poszczególnych dziedzin.

Funkcja interwencyjna zwana również stymulacyjną polega na stwarzaniu przez ubezpieczenie bodźców zmierzających do zmniejszenia stopnia zagrożenia ubezpieczonego przedmiotu. Ubezpieczenie może zostać wykorzystane jako narzędzie skłaniające ubezpieczonych do większej dbałości o przedmiot ubezpieczenia. Między innymi temu właśnie służy rozwój nowych dziedzin gospodarki wskutek szerszego zastosowania osiągnięć postępu naukowo-technicznego.

Ostatnia z nich tzw. kontrolna dotyczy postępowania ubezpieczającego z przedmiotem ubezpieczenia. W przypadku, gdy jest ono nieodpowiednie, zakład ubezpieczeń może interweniować przy pomocy różnych instrumentów techniczno-ubezpieczeniowych.

Funkcje finansowe mają tym większe znaczenie, im większą rolę odgrywają ubezpieczenia gospodarcze w systemie finansowym państwa, tzn. im większe gromadzą i rozdzielają fundusze. Funkcje finansowe są funkcją uzupełniającą do funkcji ochrony ubezpieczeniowej i prewencyjnej, dlatego też należy traktować je w sposób komplementarny a nie substytucyjny.

Działalność finansowa zakładów ubezpieczeń, szczególnie tych, które dysponują bardzo dużymi rezerwami, odgrywa znaczącą rolę. Obserwuje się cykle, w których w okresie koniunktury gospodarczej zakłady ubezpieczeń bazują tak dalece na dochodach z działalności finansowej, że sprawą normalną staje się ujemny wynik na ich działalności podstawowej. Oznacz to obniżenie cen za usługi i zaostrzenie konkurencji cenowej. W okresach dekoniunktury towarzystwa ubezpieczeniowe podnoszą ceny usług i rygorystycznie kontrolują wynik na działalności podstawowej.

38. Struktura demograficzna, a świadczenia społeczne w Polsce.

Wydatki społeczne można wyrazić w cenach stałych lub w miarach względnych - stopa świadczeń społecznych jako łączna miara zaangażowania w wydatki socjalne; to wydatki w odniesieniu do PKB. Średnia w UE na 15 państw członkowskich w 1996 roku wynosiła 28,7 %. Do tych wydatków zaliczamy:

  1. świadczenia pieniężne:

  • świadczenia niepieniężne: