Notatki EM

Zarządzanie przez jakość

Cykl Deminga. Jest to schemat ilustrujący podstawową zasadę ciągłego ulepszania. Według twórcy składa się on z działań następujących po sobie w porządku logicznym. Są to kolejno:

1. PLANUJ: ustal cele i procesy niezbędne do dostarczenia wyników zgodnych z wymaganiami klienta i organizacji

2. WYKONAJ: Wdróż. Przeprowadź pilotażowe wdrożenie zmiany w małej skali, w kontrolowanych warunkach.

3. ZBADAJ: Sprawdź, monitoruj i mierz procesy i wyrób w odniesieniu do polityki, celów i wymagań. Wyprowadź wnioski.

4. DZIAŁAJ: podejmij działanie dotyczące ciągłego doskonalenia funkcjonowania procesu

Zestaw norm ISO nie odnosi się do badania jakości wyrobów lub usług, lecz do zarządzania procesami.

TQM – Total Quality Management, czyli kompleksowe zarządzanie jakością, albo inaczej zarządzanie przez jakość, to wdrażanie kultury powszechnej jakości. TQM to filozofia kierowania przedsiębiorstwem oparta na ciągłym doskonaleniu, zwiększaniu efektywności i wydajności wszystkich istniejących procesów w oparciu o stale zmieniające się potrzeby i oczekiwania klientów.

Arkusz analityczny Bada jak często występuje dany problem. Jest to bardzo proste i skuteczne narzędzie.

PPP

Partnerstwo publiczno-prywatne (w skrócie PPP) jest formą długoterminowej współpracy sektora publicznego oraz prywatnego przy świadczeniu usług.

Składnik majątkowy

Wniesienie wkładu własnego w postaci składnika majątkowego może nastąpić poprzez sprzedaż, użyczenie, użytkowanie, najem bądź dzierżawę

Zarządzanie informacją

‘społeczeństwa informacyjnego”, oznaczający społeczeństwo, w którym towarem staje się informacja jako dobro niematerialne, równoważne lub nawet cenniejsze od dóbr materialnych.

Informacja:

  1. Aktualność – oznacza, że dotyczy ona bieżącego odcinka rzeczywistości, ale też to, że powinna być dostarczona w odpowiednim momencie, w którym będzie mogła być najlepiej wykorzystana. To związane jest także z szybkością przepływu informacji.

  2. Ścisłość – w przypadku, gdy będzie niedokładna, może być nieskuteczna bądź nawet szkodliwa. Ocena ścisłości powinna być jednym z zadań kierownika.

  3. Dokładność – prezentacja w taki sposób, by informacja mogła być wykorzystana użytecznie, na przykład czasami dobrze jest przedstawiać bardzo dokładne dane liczbowe, ale nie zawsze.

  4. Pełność – informacja nie może dotyczyć tylko jakiegoś fragmentu, ale powinna być wszechstronna, opisywać cały stan. W przeciwnym razie decyzje podejmowane na jej podstawie będą niepewne i nieskuteczne. Informacja pełna to taka, która dostarcza wszystkich potrzebnych szczegółów.

  5. Jakość – warto porównać podaną informację z rzeczywistością, bo im jest ona dokładniejsza, tym jej jakość jest wyższa, i bardziej można na niej polegać

  6. Obiektywizm, zrozumiałość – zwłaszcza dla osoby, która będzie z niej korzystać. Niezrozumiały i nieobiektywne informacje będą miały wpływ na błędne decyzje, pomyłki, czy wydłużenie czasu decydowania.

  7. Ilość – zarówno zbyt mało, jak i zbyt dużo informacji będzie niekorzystne. W przypadku dużego natłoku informacji istnieje większe ryzyko przeoczenia tego, co najważniejsze.

  8. Związek z zadaniami – otrzymywane informacje muszą mieć związek z wykonywanymi zadaniami, w innym razie będą one nie istotne dla danej osoby.

  1. Pokrzepiająca – dotycząca bieżącej sytuacji organizacji. Informacja ta ma zapewnić, że wszystko przebiega zgodnie z przyjętymi założeniami.

  2. Rozwojowa – związana z oceną stanu lub przebiegu jakiegoś zjawiska lub procesu oraz wykazaniem ewentualnych trudności związanych z jego realizacją.

  3. Ostrzegawcza – uprzedza, iż wystąpiły określone zagrożenia w wyniku realizacji działalności organizacji lub też, że mogą one niebawem wystąpić.

  4. Planistyczna – odnosząca się do poziomu lub stanu przyszłego zjawiska, lub procesów gospodarczych.

  5. Operacyjna – określa działanie własnej organizacji i pozwala na jej umiejscowienie na „mapie” działalności innych podobnych organizacji.

  6. Opiniodawcza – dotyczy informacji zarówno o najbliższym, jak i dalszym otoczeniu organizacji.

  7. Kontrolowana – ma być przekazana otoczeniu (np. bankom, mediom).

SFA i DEA

efektywny oznacza dający dobre wyniki, wydajny, ale także istotny i rzeczywisty.1 Natomiast jako przedmiot ekonomi jest ona po prostu brakiem marnotrawstwa lub inaczej

najlepszym możliwym wykorzystaniem zasobow – czynnikow wytworczych , czyli takim ktore

z punktu widzenia ekonomii jest najbardziej racjonalne.

Ocena projektów inwestycyjnych.

NVP - Metoda oceny inwestycji poprzez wartość bieżącą netto jest stosunkowo prosta w użyciu. Mierzy ona wielkość środków pieniężnych jakie zostaną w firmie, po realizacji danego projektu.

Wskaźnik rentowności (PI) natomiast pozwala uzyskać informację na temat efektywności nakładów, gdy pojawi się sytuacja, w której należy porównać kapitałochłonność różnych działań. Wskaźnik rentowności (PI) natomiast pozwala uzyskać informację na temat efektywności nakładów, gdy pojawi się sytuacja, w której należy porównać kapitałochłonność różnych działań. Gdy należy dokonać wyboru jednego z kilku projektów, najlepszy będzie ten, którego wskaźnik rentowności jest największy. Oznacza to bowiem, że jednostka nakładu kapitału na daną inwestycję generuje większy zysk od pozostałych.

IRR – (Internal Rate of Return) wewnętrzna stopa zwrotu – jest to taka stopa dyskontowa, przy której zwróci się w zakładanym okresie eksploatacji zainwestowany kapitał. Wewnętrzna stopa zwrotu jest maksymalną stopą dyskontową, przy której możliwe jest odzyskanie poniesionych wydatków na realizację projektu inwestycyjnego.

Zmodyfikowana wewnętrzna stopa zwrotu (MIRR) to stopa, która zrównuje wartość bieżącą kosztów z wartością przyszłą wpływów

Podstawowym narzędziem oceny projektu publicznego pod względem analizy efektywności ekonomicznej jest analiza kosztów i korzyści (Cost-Benefit Analysis CBA). Jest to rozwiązanie na tyle przydatne ponieważ pozwala na uwzględnienie w wymiarze ekonomicznym wieloaspektowych efektów projektu oraz wprowadza ono jednolite kryterium oceny projektu.

Efekty zewnętrzne są to korzyści lub koszty jakie są ponoszone przez osoby trzecie w wyniku pośredniego wpływu efektów projektu podjętego przez bezpośrednich inicjatorów.

Wtedy w ocenie korzyści i kosztów projektu stosuje się podejście nazywane ceną dualną (shadow prices). W istocie polega ono na szacowaniu w wymiarze pieniężnym cen dóbr, lub korygowaniu cen obserwowanych na rynkach (które nie odzwierciedlają wartości ekonomicznej).

Przyczyniło się to do wprowadzenia kryterium efektywności społeczno-ekonomicznej (kryterium Bergsona). Zgodnie z nim projekt publiczny może być zrealizowany jeżeli spełnia kryterium efektywności finansowej, jednocześnie przy założeniu „dobrej redystrybucji kosztów i korzyści projektu”. Zakłada ona, że wyliczenie korzyści projektu powinno uwzględniać wagi dystrybucyjne obrazujące wartość jednostki kosztu i korzyści za względu na status ekonomiczny grup społecznych na które projekt wywiera wpływ.

Metoda kosztów podróży Występuje tu założenie, że użytkownicy danego dobra posiadają odmienne lokalizacje i aby móc skorzystać z tego dobra muszą ponieść różne koszty podróży (np. koszt paliwa związany z dojazdem do parku, koszt alternatywny wolnego czasu, koszty parkingu itp). Poza tym użytkownicy płacą opłatę administracyjną za możliwość skorzystania z danego dobra. Tak więc łącznie cena skorzystania z tego dobra składa się z 2 elementów – opłaty administracyjnej oraz kosztów podróży.

Metoda oszczędności czasu

W sytuacji gdy rynek działa nieefektywnie lub dla danego dobra nie występuje rynek w ogóle, oszacowanie wartości dóbr dostarczanych przez projekt publiczny może polegać na określeniu korzyści wynikających z oszczędności czasu. Metoda ma zwykle zastosowanie dla projektów z zakresu transportu lub których końcowym efektem staje się skrócenie czasu obsługi. Występuje w niej założenie, że wartość ekonomiczna godziny wolnego czasu jest równoznaczna ze stawką godzinową płacy.

Efekty środowiskowe mogą mieć charakter zarówno pozytywny jak i negatywny. Analiza wartości tego typu efektów następuje poprzez wykorzystanie metody cen dualnych. Jedno z podejść sugeruje, że korzyści i koszty można przełożyć na wymiar pieniężny z wykorzystaniem kar i opłat za korzystanie z elementów środowiska, które wynikają z regulacji prawnych.

Szacowanie oszczędności z tytułu niewypłacania zasiłków

Metoda stosowana jest w przypadku szacowania korzyści i kosztów projektów związanych z tworzeniem lub utrzymaniem istniejących miejsc pracy. W tej metodzie podstawowym założeniem jest to że liczba miejsc pracy wpływa na wielkość transferów związanych z wydatkami publicznymi (w szczególności są to zasiłki wypłacane osobom pozostającym bez pracy). Zatem wielkość takich transferów stanowi dobre przybliżenie pieniężne dla wartości ekonomicznej tego rodzaju projektów.

Szacowanie wartości życia ludzkiego

Efekty projektów publicznych często wywierają wpływ na życie bądź zdrowie ludzi. Podstawowym założeniem w metodzie szacowania wartości życia i zdrowia jest postrzeganie ich jako zasobów o charakterze ekonomicznym. Zatem szacowanie wartości życia odbywa się poprzez określenie jej użyteczności w procesie tworzenia dobra. W wycenie pieniężnej efektów ekonomicznych takich projektów zastosowanie mają następujące metody:

  1. Metoda przyszłych zarobków – zakłada, że życie ludzkie wycenione zostaje na podstawie przeciętnej stawki płac stanowiącej podstawę wynagrodzenia osoby lub grupy zawodowej. Inaczej mówiąc życie ludzkie jest warte tyle ile zdyskontowana wartość przyszłych zarobków danej osoby. Jest to podejście dość kontrowersyjne jak również nieprecyzyjnie, ponieważ płaca może się znacząco różnić w różnych regionach kraju wśród tych samych grup zawodowych.

  2. Badanie zakupów konsumenta – w tej metodzie wartość życia ludzkiego szacowana jest na podstawie wielkości wydatków jakie dana osoba ponosi w celu zwiększenia swojego bezpieczeństwa (konkretnie są ro wydatki na dobra zwiększające prawdopodobieństwo przeżycia np. zakup samochodu z poduszkami powietrznymi), Ogólna kalkulacja wartości życia w tej metodzie to:


$$wartosc\ zycia = \ \frac{\text{wyda}\text{tek\ poniesiony\ na\ dane\ dobro}}{\begin{matrix} wzrost\ prawdopodoienstwa\ przezycia\ \\ \text{w\ wyniku\ zastosowania\ danego\ dobra} \\ \end{matrix}}$$

  1. Badania rynkowe siły roboczej – w tej metodzie występuje założenie, że ludzie ponoszący w pracy większe ryzyko utraty zdrowia lub życia otrzymują wyższą rekompensatę w postaci wynagrodzenia. W tej metodzie wartość życia kalkulowana jest następująco:


$$wartosc\ zycia = \ \frac{dodatkowa\ wilekosc\ zar\text{obku}}{\begin{matrix} wzrost\ wypadkowosci\ na\ skutek \\ wykonywania\ okreslonej\ pracy \\ \end{matrix}}$$

Metoda wydatków na obronę

Koszty na obronę są to nakłady ponoszone przez osoby trzecie w celu obrony przed negatywnymi efektami zewnętrznymi

Okres zwrotu jest to czas niezbędny do tego aby nakłady poniesione na realizację określonego projektu inwestycyjnego zostały w pełni pokryte korzyściami netto wypracowanymi przez to przedsięwzięcie.

Inaczej nazywana jest księgową stopą zwrotu. Oznacza ona stosunek zysku netto z przedsięwzięcia inwestycyjnego powiększonego o odsetki od kredytu do wartości początkowych nakładów poniesionych na realizację inwestycji.

Test pierwszego roku

Jest to jedna z najrzadziej stosowanych miar oceny inwestycji, ponieważ obejmuje ona tylko pierwszy rok przedsięwzięcia.

Próg rentowności oznacza zrównanie się przychodów i kosztów całkowitych przedsiębiorstwa. Informuje on bank na temat wrażliwości projektu na niekorzystne zmiany determinujące jego opłacalność

Modele prognozowania upadku przedsiębiorstwa

SWO Altmana

Jest to jeden ze sposobów całościowej oceny danego przedsiębiorstwa pod względem jego kondycji finansowej.

Makroekonomia

Powszechne jest przekonanie że państwo w celu zwiększenia dochodów powinno podwyższać podatki. Jednak według Arthura Laffera nie musi być to oczywistym następstwem takiego działania, co więcej efekt może być wręcz odwrotny. Zjawisko to przedstawia tzw. krzywa Laffera

Regresja

Regresja jest metodą statystyczną pozwalającą na badanie związku pomiędzy

poszczególnymi wielkościami danych oraz prognozowaniu na ich podstawie nieznanych

wartości danych na podstawie innych danych, odnosi się to przede wszystkim do

prognozowania danych nieznanych na podstawie danych znanych.

Metoda eksperymentu rynkowego jest jednocześnie najdroższą z przestawionych

metod. Przede wszystkim kosztowne jest znalezienie odpowiednich rynków i przystosowanie

eksperymentu indywidualnie do każdego. Kosztowne jest również przeprowadzenie samego

eksperymentu, gdy na jednym rynku będziemy inwestować w reklamę, a na innym ustalimy

bardzo niską cenę produktu To powoduje, że eksperyment jest przeprowadzany w krótkim

okresie i na małej próbie, co z kolei będzie źródłem informacji o zmianie popytu jedynie w

krótkim okresie. Mimo, iż stosując metodę eksperymentu należy być bardzo ostrożnym przy

interpretacji przedsiębiorstwa chętnie ją stosują.

W obliczu powstałych problemów badań ankietowych powstał alternatywny pomysł

tworzenia kontrolowanych eksperymentów z udziałem kupujących. Na przykład, osoby

badane otrzymują określoną sumę pieniędzy (rzeczywistych lub fikcyjnych) i dokonują

zakupu wybranych przez siebie produktów.

Suma kwadratów błędów (SSE) jest jedna z

miar dobroci dopasowania równania i dokładności prognozy.

Regresja wieloraka polega na włączeniu do równania regresji więcej niż jednej

zmiennej objaśniającej i/lub poszukiwanie zależności nieliniowych.

Cechą charakterystyczną regresji wielorakiej jest występowanie

ryzyka nadmiernego dopasowania do danych. Stąd też należy pamiętać o kontrolowania

liczby zmiennych objaśniających w celu zachowania zdolności predykcyjnych tworzonego

modelu.

Współczynnik R2 (kwadrat współczynnika korelacji; współczynnik determinacji) mierzy część

zmienności zmiennej zależnej wyjaśnioną przez równanie regresji wielorakiej. Nazywany jest

18

też miernikiem dobroci dopasowania, ponieważ pokazuje w jaki stopniu równanie regresji

pasuje do danych empirycznych.

Miarą błędu standardowego współczynnika regresji jest odchylenie standardowe

dyspersji.

Statystyka t- Studenta to obliczona wartość współczynnika regresji podzielona przez

jego błąd standardowy.

Współliniowość jest zniekształceniem wyniku analizy regresji wielu zmiennych, która

wynika z powiązania pomiędzy tymi parametrami.

Autokorelacja składników

losowych to zjawisko polegające na tym, że wartość składnika losowego w jednym okresie

zależy od jego wartości w okresie poprzednim.

Elastyczność cenowa popytu mierzy siłę reakcji sprzedaży danego dobra na zmiany ceny tego dobra.

Franchising to forma współpracy, w której firma udzielająca koncesji (koncesjodawca) zwiększa rozmiary sprzedaży dzięki ciągłemu rozszerzaniu sieci swych partnerów.

Paradoks polega na tym, iż mimo odnotowanych rekordowych zbiorów, dochody rolników zamiast wzrastać zostaną obniżone. Przyczyną spadku dochodów jest to, iż popyt na artykuły pierwszej potrzeby, takie jak kukurydza, pszenica ma tendencje do nieelastyczności i wielkość konsumpcji tych artykułów w bardzo niewielkim stopniu reaguje na cenę. Nieelastyczny popyt na artykuły pierwszej potrzeby powoduje, iż rolnicy uzyskują większy dochód ogółem, gdy zbiory są złe, niż gdy są wyjątkowo dobre. Wzrost podaży wynikający z obfitych zbiorów powoduje obniżenie ceny, ale niższa cena w niewielkiej mierze zwiększa ilość, na którą zgłaszany jest popyt.

Zastosowanie rachunkowości zarządczej

Ewidencją operacji gospodarczych określa się gromadzenie danych i przetwarzanie ich w użyteczną informację, poprzez odpowiednie grupowanie zdarzeń i ich rezultatów.

Rachunkowość zarządczą uważa się za system gromadzenia, opracowywania i prezentowania informacji dotyczących przeszłych i przyszłych zjawisk gospodarczych w celu

wspomagania kierownictwa jednostki gospodarczej w planowaniu, podejmowaniu decyzji i kontroli działalności.

Głównym celem stawianym przed rachunkiem kosztów jest dostarczanie informacji użytkownikom wewnętrznym podmiotu gospodarczego.

Do kosztów należą też pozycje niezwiązane ze zużyciem zasobów, lecz na mocy obowiązujących przepisów, jak na przykład: podatki obciążające koszty, ubezpieczenie majątku, ubezpieczenie społeczne, opłaty itp. Są to tzw. Nakłady pieniężne”.

Rachunek kosztów zmiennych to system, który jest prowadzony dla przedsiębiorstwa dla jego wewnętrznych potrzeb. Jego celem jest dawanie informacji, które mogą okazać się pomocne przy zarządzaniu jednostką gospodarczą w krótkim okresie

Rachunek kosztów standardowych jest jednym z najczęściej wykorzystywanych w praktyce rodzajów rachunku kosztów postulowanych. Celem tego rachunku jest wdrożenie do systemu pomiaru w rachunku kosztów kategorii kosztów standardowych w charakterze pewnej formy kosztów wzorcowych określonych a priori.

Zgodnie z przedmiotem, standaryzacji kosztów można wyróżnić dwa kryteria wyodrębnienia obiektów standaryzacji kosztów:

1) Kryterium produktowe, w którym obiektami standaryzacji kosztów są wytwarzane produkty, zarówno produkty gotowe, jak i produkty niezakończone (półprodukty)

2) Kryterium procesowe, w którym obiektami standaryzacji kosztów są proces technologiczny jako całość lub poszczególne elementy procesu technologicznego: operacje technologiczne lub czynności

Rachunek kosztów działań ABC to system rachunku kosztów zorientowany na zarządzanie podmiotem gospodarczym w układzie działań. Metoda ta bazuje na założeniu, iż procesy gospodarcze, które są wykonywane w podmiocie gospodarczym obejmują mnóstwo odrębnych, lecz powiązanych ze sobą niezbędnych działań do produkowania i sprzedaży wyrobów.

Zarządzanie przedsiębiorstwem wiążę się z koniecznością podejmowania licznych decyzji, które mają zapewnić mu rentowność działalności. Podstawowym miernikiem rentowności jest poziom osiąganego zysku, na który wpływ mają relacje zachodzące pomiędzy przychodami ze sprzedaży i kosztami. Istotnym narzędziem analitycznym ułatwiającym dokonywanie oceny zależności między przychodami, kosztami i zyskiem jest analiza progu rentowności (ang. break-even point, BEP).

Zasadniczym celem analizy progu rentowności jest wyznaczenie tzw. punktu krytycznego (granicznego), czyli punktu w którym realizowane przychody ze sprzedaży zrównują się z kosztami całkowitymi.

Strefę bezpieczeństwa można określić jako różnicę pomiędzy wielkością faktycznych lub planowanymi przychodów ze sprzedaży, a ich wielkością w progu rentowności. Strefa bezpieczeństwa informuje, o ile mogą obniżyć się przychody ze sprzedaży, aby nie ponieść straty.

Różnica pomiędzy ceną sprzedaży wyrobu a jednostkowym kosztem zmiennym nazywana jest jednostkową marżą pokrycia.

Pierwszym obszarem analizy wrażliwości jest określenie granicznego poziomu poszczególnych czynników wyznaczających próg rentowności oraz dopuszczalnych zmian tych czynników, czyli tzw. strefy bezpieczeństwa. Najczęściej sprowadza się to do obliczenia ilościowego i/lub wartościowego progu rentowności, wyznaczenia poziomu bezpieczeństwa ze względu na wielkość sprzedaży, cenę oraz jednostkowy koszt zmienny.

Najważniejszym zadaniem analizy wrażliwości jest jednak ustalenie jak zmiana cen i kosztów (jkz i kosztów stałych) oddziałuje na zmianę progu rentowności oraz który z tych czynników powoduje największą zmianę.

Dźwignia operacyjna jest miarą wagi kosztów stałych w ogólnej strukturze kosztów. Działanie dźwigni jest silniejsze w przedsiębiorstwach o wyższym udziel kosztów stałych w stosunku do kosztów zmiennych, gdyż wtedy ich zyski bardziej są wrażliwe na zmiany przychodów ze sprzedaży.

Miarą siły dźwigni operacyjnej jest tzw. stopień dźwigni operacyjnej (SDO). Odpowiada on na pytanie o ile % zmieni się wynik ze sprzedaży (zysk operacyjny), jeżeli przychód ze sprzedaży zmieni się o 1%. SDO

Podejmując decyzje cenowe przedsiębiorstwo powinno więc dążyć do ustalenia ceny optymalnej, która zapewni odpowiednią rentowność sprzedaży i usatysfakcjonuje klientów.

Ustalana jest więc poprzez dodanie do kosztu jednostkowego określonego zysku. Jest to tzw. klasyczna formuła kosztowa, inaczej określania jako koszt plus (koszt jednostkowy + zysk na jednostkę wyrobu).

Metoda „koszt plus zysk od kapitału” bazuje na założeniu, że celem każdego działania jest osiąganie zysku z zainwestowanego kapitału. Od klasycznych formuł kosztowych odróżnia ją to, że poza kosztami uwzględnia zysk z zainwestowanego kapitału.

Dolna granica ceny jest to najniższa cena sprzedaży wyrobu lub realizacji danego zamówienia, której obniżenie doprowadziłoby do zmniejszenia całkowitego zysku osiąganego

przez przedsiębiorstwo.

Metoda budżetowania przyrostowego jest tradycyjną metodą budżetowania, która wykorzystywana jest najpowszechniej. W tej metodzie budżet sporządza się opierając się na wynikach przedsiębiorstwa osiągniętych w okresie poprzednim.

Metoda budżetowania „od zera” jest przeciwieństwem metody przyrostowej. Jak wskazuje nazwa, ta metoda opiera się na założeniu, że przedsiębiorstwo rozpoczęło działalność a

wielkości przychodów, kosztów i wyników nie są szacowane na podstawie poprzednich okresów.

Ostatnią metodą jest metoda budżetowania kroczącego. Jej cechą charakterystyczną jest to, że budżety opracowane na kolejne okresy są ciągle uaktualniane i uszczegółowiane. Można zatem określić ją jako metodę, w której proces budżetowania jest procesem ciągłym.

Poziom 0: Budżet statyczny:

Polega na porównaniu osiągniętego zysku z zyskiem zaplanowanym. Na tym poziomie analizy skupiamy się jedynie na wielkości i kierunku tego odchylenia i nie jesteśmy w stanie ustalić jego przyczyn

Na tym etapie należy oddzielić wpływ zmian wielkości sprzedaży od zmian w kosztach, cenach i wydajności pracy. W tym celu posłużyć się można budżetowaniem elastycznym.

Zarządzanie zasobami ludzkimi

W prognozowaniu popytu i podaży personelu używa się różnych metod takich jak:

Prognozowanie o bazie zerowej – w tej metodzie punktem wyjścia jest dany stan zatrudnienia, co roku kontrolowany i przystosowywany do aktualnych potrzeb

Prognozowanie na podstawie informacji oddolnych – informacje na temat zatrudnionych, zapotrzebowania liczbowego i jakościowego na pracowników są agregowane oraz przekazywane od menedżerów niższego szczebla poprzez wszystkie poziomy aż do top managementu gdzie podejmowane są decyzje personalne

Analiza statystyczna – prognozujący uwzględnia dane statystyczne dotyczące demografii, struktury ludności, te dane są punktem wyjścia do dalszych analiz prognostycznych

Model sita prowadzi do powstania kultury organizacyjnej opartej na konkurencji i rywalizacji między kandydatami – tylko najlepsi przyjmowani są do pracy, pozostali kandydaci są na wstępie „odsiewani”. Przydatność kandydatów jest w tym modelu mierzona ich kwalifikacjami, dyplomami, wynikami rozmów kwalifikacyjnych etc.

Kolejnym modelem doboru pracowników jest model kapitału ludzkiego. W firmach stosujących ten model, preferowana jest kultura organizacyjna sprzyjająca rozwojowi wszystkich pracowników, ich lojalności, zaangażowaniu i współpracy. Pracodawca nie zawsze przyjmuje kandydatów o najlepszych kwalifikacjach – stawia często na tych, którzy są otwarci na zmiany, chcą doskonalić swoją wiedzę i umiejętności, u których wyczuwa się potencjał rozwoju oraz umiejętność współpracy, osoby pasujące to działającego już zespołu oraz określonej kultury organizacyjnej.

Headhunters - łowcy głów - są to wyspecjalizowane agencje, używane głównie w rekrutacji segmentowej w celu poszukiwania kandydatów na stanowiska menedżerów i specjalistów.

Można wyróżnić trzy typy działalności headhunterów:

cold calls bieżąca analiza rynku pracy, poprzez kontakty z firmami i zbieranie informacji, czy i na jakich pracowników firma ma lub będzie miała zapotrzebowanie w niedługim czasie,

marketing calls agencja kontaktuje się z daną firmą i pyta, czy firma nie ma zapotrzebowania na pracownika z puli kandydatów,

client calls zleceniodawca kontaktuje się z agencją i zgłasza zapotrzebowanie na określonych pracowników.

Koszty pracy są w wielu krajach bardzo wysokie, bowiem pracodawcy obciążeni są poza płacami także tzw. Pozapłacowymi kosztami wynagrodzeń. Mowa tu o tzw. Klinie podatkowym. Ów klin to różnica między tym co pracodawca musi wydać na zatrudnienie pracownika a tym co ten pracownik otrzymuje „na rękę”.

OUTSOURCING

Zlecanie na zewnątrz (innym firmom/osobom) części działań firmy zamiast zatrudnienia nowych pracowników. W tym przypadku to zleceniobiorca jest pracodawcą dla pracowników, wykonujących usługę na rzecz firmy zleceniodawcy i on ponosi wszelkie koszty osobowe.

2. OFFSHORING

Za odmianę outsourcingu uważa się offshoring czyli przenoszenie za granicę produkcji/usług, głównie po to by obniżyć koszty pracy. Wybierając siedziby firm lub miejsc na ich filie, bierze się pod uwagę te kraje, w których koszty pracy są zdecydowanie niższe niż w kraju macierzystym i gdzie istnieją także inne przesłanki do tego, by firmę w nich ulokować.

3. ONSHORING

Może się zdarzyć, że przenoszenie usług za granicę nie jest zawsze opłacalne. Wówczas, część usług przenosi się do innych miast w obrębie tego samego kraju, które oferują niższe koszty działalności.

4. CENTRUM USŁUG WSPÓLNYCH (SHARED SERVICE CENTRE)

Definicja dotycząca Centrum Usług Wspólnych- to wydzielona organizacyjnie jednostka, której celem jest obsługa transakcji na rzecz co najmniej kilku jednostek biznesowych. Jednostki tego typu skupiają usługi dotyczące funkcji wsparcia dla klienta wewnętrznego.

Szacuje się, że w Polsce działa już około 150 takich centrów obsługujących grupy kapitałowe.

5. KOMPLEKSOWA REORGANIZACJA PRACY (REENGINEERING)

W tym wypadku, alternatywą dla rekrutacji jest zlikwidowanie niepotrzebnych komórek, zwolnienie części menedżerów - zwłaszcza średniego szczebla. Wówczas, celem reorganizacji w firmie jest spłaszczenie jej struktury. W tak „odchudzonej” firmie następują kolejne reorganizacje, polegające na analizie dotychczasowych obciążeń pracowników i ponownym rozdzieleniu zadań.

Selekcja jest definiowana jako kolejny etap zarządzania zasobami ludzkimi, polegający na wyborze przez reprezentantów firmy najlepszych ze zgłoszonych w wyniku rekrutacji osób. Możemy wyróżnić trzy rodzaje rekrutacji:

a) Bieg przez płotki” (play off) jest najbardziej popularna, polega na tym, że do każdego kolejnego etapu przechodzi coraz mniej kandydatów. Pozostają ci, którzy wypadli najlepiej, pozostali „przewrócili się na płotkach”, czyli nie sprostali zadaniom stawianym przed nimi podczas rekrutacji. Zaletą tej metody jest oszczędność czasu i kosztów (np. mniej testów do przeprowadzenia i zanalizowania przez specjalistów)

b) Strategia kompensacyjna w tej metodzie wszyscy kandydaci podlegający selekcji przechodzą przez wszystkie etapy rekrutacji, bez względu na wyniki które otrzymali. Eliminacja ma miejsce na koniec procesu, zliczane są punkty zdobyte przez kandydatów za poszczególne zadania – osoba z największą ich liczbą „zwycięża”

c) Koncepcja mieszana zakłada, że do pewnego momentu przez kolejne etapy przechodzą wszyscy kandydaci, a od określonego etapu zaczynają odpadać poszczególne osoby, czyli do następnych zadań przechodzą najlepsi.

Kontrakt psychologiczny - dzielony ze względu na akceptację ze strony organizacji i pracownika.

Funkcje mentoringu wg Kathy Kram:

1. Pomagająca w rozwoju kariery podwładnego, np. poprzez delegacje na określone stanowisko, kontaktowanie go z doświadczonymi menedżerami, ochronę w trudnych sytuacjach (wszystko w celu zdobycia doświadczeń)

2. Psychospołeczna - modelowanie roli pracownika, na doradztwie, na akceptowaniu człowieka, a nawet na zawieraniu przyjaźni

Wg niej kształtowanie się relacji między mentorem a protegowanym można ukazać w postaci 4 faz przedstawiających kolejne pory roku:

1. Wiosna - początek współpracy, poznanie się. Protegowany podziwia mentora, a mentor szanuje protegowanego i wierzy w to, że ma co mu oferować

2. Lato - kultywacja. Rośnie wzajemne zaufania między mentorem a protegowanym, który rozwija swoje kompetencje. Zmiana relacji z zależności we współzależność.

3. Jesień - separacja, ponieważ protegowany zyskuje niezależność. Możliwa nawet wrogość między mentorem a protegowanym.

4. Zima - redefiniowanie relacji. Podejmowanie decyzji odnośnie dalszej współpracy oraz tego, jak ją można zmienić.

Cross-mentoring - zatrudnianie w charakterze mentorów osoby niezwiązane z podopiecznymi żadnymi stosunkami pracy, przede wszystkim zaś niepowiązane więziami służbowymi.

Japoński system "5S":

Seiri - schludność - wrzuć z miejsca pracy wszystkie śmieci i zbędne materiały (czyli nieprzydatne drobiazgi, rzeczy itd.)

Seiton - porządek - miej wszystko na swoim miejscu, by szybko wszystko znaleźć (czyli np. rzeczy używane często są najbliżej, a te rzadko można pochować gdzieś po szafkach)

Seiso - czystość - czyść swoje miejsce pracy; każdy powinien być sprzątającym (czyli czyszczenie maszyn - od szeregowego pracownika do menedżerów. To miejsce ma zrobić na gościu dobre wrażenie)

Seiketsu - standaryzacja - sposób utrzymania miejsca pracy w czystości powinien być zestandaryzowany (najpierw standard własnego wyglądu a później otoczenie pracy)

Shitsuke - dyscyplina - praktykuj "5S" w codziennej pracy - uczyń to sposobem życia; bądź zaangażowany (stosowanie pierwszych 4 w praktyce oraz eliminowanie złych nawyków)

HRA – Human Resources Accounting – wartościowanie nakładów i efektów zzl

HRA to pomiar kosztów i wartości pracowników dla organizacji. To jedno z narzędzi służących do uzyskania informacji niezbędnych do sporządzenia kosztorysów związanych z przeprowadzeniem rekrutacji, selekcji, wynagrodzenia i szkolenia pracowników.

Bezrobocie strukturalne , powstaje w wyniku niedopasowania struktury podaży i popytu na siłę roboczą, przede wszystkim w aspekcie kwalifikacyjnym, zawodowym oraz regionalnym.

Nieredukowalnym poziomem bezrobocia w dynamicznej gospodarce jest bezrobocie frykcyjne. Powstaje ono w związku z powolnością przystosowań struktury podaży siły roboczej i struktury popytu na silę roboczą na niedoskonale funkcjonującym rynku pracy10.

Zagłębiając się bardziej w drugi przypadek , wiążący się z osłabnięciem ogólnej aktywności gospodarczej nosi nazwę bezrobocia koniunkturalnego.

W zależności od tempa wzrostu cen możemy rozróżnić:

- inflację pełzającą - nie rodzącą zbyt negatywnych skutków, oraz nie powodującą zakłóceń w przebiegu procesów gospodarczych, poddającą się kontroli.

- inflację kroczącą - wzrost cen sięga kilkunastu % w skali rocznej (taki ruch cen daje się przewidzieć i uwzględnić w podejmowanych decyzjach)

- inflację galopującą - wzrost cen powyżej 20% w skali rocznej, powodującą narastające zakłócenia w przebiegu procesów gospodarczych, osłabienie systemów motywacyjnych, a w rezultacie zahamowanie wzrostu gospodarczego.

- hiperinflację - wzrost cen o więcej niż 50% w skali miesiąca działa ona już destrukcyjnie na gospodarkę i destabilizuje stosunki społeczno-polityczne, osłabi wiarygodność finansową u wierzycieli. Uniemożliwia racjonalne gospodarowanie z powodu niemożności prowadzenia rachunku ekonomicznego, planowania działań gospodarczych, nieskuteczności systemów motywacyjnych, co prowadzi do anarchizacji życia społecznego.

Krzywa Philipsa dowodzi, że wyższej stopie inflacji towarzyszy niższa stopa bezrobocia i odwrotnie. Sugeruje to, że możemy uzyskać niższe bezrobocie za cenę wyższej inflacji lub odwrotnie.

Deflacja, będąca odwrotnością inflacji, to sytuacja, gdy przez dłuższy okres ceny spadają.

Ważnym narzędziem w procesie dochodzenia do optymalnych decyzji menedżerskich jest analiza marginalna. Stanowi ona podstawę podejmowania decyzji w zakresie produkcji i cen. Jednym z problemów, przed którym staje przedsiębiorstwo jest określenie optymalnego wolumenu produkcji, który zapewni mu największy zysk. Do znalezienia tego poziomu można zastosować analizę marginalną. Umożliwia ona badanie zmian zysku wywołanych niewielkimi zmianami zmiennej decyzyjnej.

Zysk krańcowy to przyrost zysku osiągnięty dzięki sprzedaży dodatkowej jednostki produktu.

Maksymalny poziom produkcji jest osiągany przy zysku krańcowym równym 0 (jest to podstawowa zasada optymalizacji).

Utarg krańcowy (MR – ang. marginal revenue) prezentuje dodatkowy utarg, który zyskuje przedsiębiorstwo poprzez zwiększenie produkcji i sprzedaży o jedną jednostkę.

Koszt krańcowy (MC – ang. marginal cost) jest to przyrost kosztów związany z wytworzeniem dodatkowej jednostki produktu.

Analizując kwestię dochodu potencjalnych nabywców danego dobra czy usługi należy mieć na uwadze podział dóbr na: dobra normalne, dobra niższego rzędu, oraz luskusowe. W przypadku gdy dochód konsumenta jest niski, będzie on kupował większą ilość dóbr niższego rzędu jeżeli natomiast jego dochód będzie wzrastał, będzie mógł sobie pozwolić na zakup droższych dóbr. Oznacza to, że przy dobrach normalnych i luksusowych wzrost dochodu przekłada się na wzrost popytu na dobra i usługi.

Dobra luksusowe mają elastyczność dochodową wyższą od jedności, dzięki czemu popyt na dobra luksusowe rośnie szybciej niż rosną dochody konsumentów. Dobra normalne mają elastyczność dochodową większą od zera i mniejszą od jedności. Oznacza to, że popyt na te dobra rośnie wolniej od dochodów. Są jeszcze dobra niższego rzędu, przy których wraz ze wzrostem dochodów, popyt na nie spada (elastyczność dochodowa mniejsza od 0)

Podstawowym wskaźnikiem w analizie popytu jest elastyczność cenowa popytu, która pozwala przedsiębiorstwu przewidzieć wpływ zmian cen na wielkość sprzedaży.

Warto zauważyć, że w przedsiębiorstwach występuje pewien konflikt pomiędzy maksymalizacją zysku i utargu. Oczywiście zazwyczaj dla każdej firmy znacznie

ważniejszym celem jest maksymalizacja zysku, ponieważ uwzględnia ona też koszty działalności. Są jednak przypadki, w których oba te cele mogą się pokrywać. Taka sytuacja w przedsiębiorstwie nazywa się czystym problem sprzedaży: wytwarzanie dobra lub usługi przy nie ponoszeniu żadnych kosztów zmiennych (lub tak niskich, że są one pomijane w analizie).

Analizę marginalną produkcji można wykorzystać jako narzędzie do ustalenia optymalnego poziomu produkcji. W wykorzystanym modelu analizy marginalnej produkcji przyjęto założenie o celu maksymalizacji zysku przedsiębiorstwa. Należy zauważyć, że jest to cel teoretyczny, a chociaż logiczny i spójny, to w praktyce gospodarczej nie zawsze jednak osiągany.

Analiza popytu natomiast może stanowić cenne źródło informacji o możliwej do uzyskania sprzedaży oraz strategii cenowej przedsiębiorstwa. Zatem, podczas gdy analiza marginalna produkcji oferowała spojrzenie od strony procesów wytwórczych, analiza popytu pozwala przyjrzeć się „drugiej stronie medalu” czyli zgłaszanemu na wytworzony produkt popytowi.

W końcu, analiza wpływu podatków na decyzje przedsiębiorstwa może być wykorzystana do przyjęcia odpowiedniej, korzystnej dla danego przedsiębiorcy strategii minimalizacji podatków. Jest to nieco inny od poprzednich model funkcjonowania przedsiębiorstwa, gdyż nie jest opisany wykresami, funkcjami, ani w ogóle językiem matematycznym. Wyjaśnia jednak zachowania przedsiębiorstwa w zależności od ustanowionych podatków i może stanowić cenną wskazówkę w obraniu odpowiedniej strategii podatkowej.

W podanej definicji podatku zawarte są jego cechy:

1. Pieniężny charakter podatki pobierane są w formie pieniężnej. Powszechnie uważa się, że zapłata podatku przez podatnika w pieniądzu jest dla niego liberalną techniką poboru.

2. Powszechność, podatki nakładane są w formie ustaw. W ustawach nie uwzględnia się konkretnego

podatnika. Przepisy podatkowe zawarte w ustawach odnoszą się do ogółu podatników.

3. Przymusowość, jest on obowiązkowy dla każdego podmiotu spełniającego warunki określone w ustawie.

4. Bezzwrotność, podatek zapłacony nie podlega zwrotowi. Wyjątkowo może być on zwrócony podatnikowi w sytuacji gdy został naliczony w sposób nieprawidłowy.

5. Nieodpłatność, polega ona na tym, że podatnikowi z tytułu zapłacenia podatku nie przysługuje żadne kontrświadczenie ze strony związku publicznoprawnego. Można jednak mówić jedynie o tzw. odpłatności zbiorowej.

6. Jednostronność, państwo lub organizacja samorządowa stosują tu zasadę podporządkowania podmiotów zobowiązanych do płacenia podatków podmiotom uprawnionym do ich nakładania. W kwestii podatków, żadna konstytucja demokratycznych państw nie przewiduje referendów.

parapodatki, są nimi określane pozostałe płatności o charakterze przymusowym. Ich cechą charakterystyczną jest znaczne zróżnicowanie

Istnieje wiele określeń raju podatkowego, wśród nich często używane są „oaza podatkowa”, „oaza fiskalna”, „azyl podatkowy”, „tax haven” oraz „strefa offshore”. Na świecie nie ma jednej, oficjalnej definicji raju podatkowego. Pojęcie to jest trudne do zdefiniowania, ze względu na duży subiektywizm podejścia do tematu. Wszystkie definicje posiadają jednak wspólną cechę – aspekt podatkowy (nienakładanie wcale lub nakładanie niskich podatków na określone kategorie dochodów).

Najczęściej używaną definicją raju podatkowego jest stosowana przez Departament Skarbu Stanów Zjednoczonych: „Państwo posiadające niską lub zerową stopę podatkową na wszystkie lub wybrane kategorie dochodów, pewien poziom tajemnicy bankowej lub handlowej oraz minimalne lub żadne wymogi rezerw w banku centralnym lub żadne ograniczenia wymiany walut. Większość rajów podatkowych ma nieskomplikowane wymogi licencyjne i regulacyjne dla banków i innych przedsiębiorstw”.

1.Transfer zysków, polega na sztucznej manipulacji cenami. Przykładem takich działań może być minimalizacja zysku przed opodatkowaniem, co ilustruje rysunek 2. Stosując tę metodę, spółka macierzysta nie wysyła towaru bezpośrednio do importera, ale sprzedaje je spółce z siedzibą w raju podatkowym (spółce zależnej), która płaci cenę transferową niższą od ceny faktycznie oferowanej i płaconej przez finalnego odbiorcę.

Zastosowanie spółki rotacyjnej jest jednym z najprostszych sposobów wykorzystywania rajów podatkowych do redukcji obciążeń fiskalnych. Spółki rotacyjne zakładane są przez podmioty pozostające w kraju o wysokim stopniu progresji opodatkowania, które posiadają zdecydowaną większość udziałów i sprawują pełną kontrolę.

Nabywanie umownych korzyści (treaty shopping), zjawisko to odnosi się do praktyki wykorzystywania umów o unikaniu podwójnego opodatkowania i polega na dokonywaniu inwestycji w państwie, które jest sygnatariuszem umowy o unikaniu podwójnego opodatkowania, przez inny kraj niebędący stroną tej umowy.

Efektywność można badać na wiele sposobów. Jednakże powszechnie metody te dzieli się na 3 grupy:

 Metody wskaźnikowe – powstają poprzez zestawienie ze sobą różnych wielkości co w rezultacie daje nam wskaźnik (np. rentowności, zadłużenia). Niekiedy wskaźniki te są trudne w interpretacji

 Metody parametryczne – w których funkcja produkcji (lub kosztów) badana jest za pomocą metod ekonometrycznych (np. metoda SFA Stochastic Frontier Approach, TFA –Thick Frontier Approach, DFA –Distribution Free Approach)

 Metody nieparametryczne – do konstrukcji których wykorzystuje się programowanie liniowe (np. metoda DEA –Data Envelopment Analysis, FDH –Free Disposal Hull). Niestety metody te nie są pozbawione błędów, tj. nie uwzględniają składnika losowego czy błędów pomiaru.

Teoria gier

Tragedia wspolnego pastwiska (ang. Tragedy of the (unregulated) commons) to koncepcja

mikroekonomiczna omawiająca pułapkę społeczną, w której indywidualny zysk jednego z uczestników społeczności prowadzi do strat dla społeczności jako całości.

Przykładami sytuacji, w ktorych w gospodarce mamy do czynienia z tragedią wspolnego

pastwiska są przede wszystkim obszary gospodarki związane z zasobami naturalnymi oraz dobrami

publicznymi. Do najważniejszych przykładow należą:

• nadmierne połowy ryb. W ten sposob drastycznie zmniejszyła się na przykład liczebność łososi

w rzekach – przede wszystkim w Columbia River. W przeszłości sytuacja taka miała miejsce na

wodach połnocnego Atlantyku;

• farmerzy, ktorzy pasą swoje bydło na polach American West2. Występował tutaj klasyczny

przykład „wspolnego pastwiska”;

Gra to dowolna sytuacja konfliktowa, gracz natomiast to dowolny jej uczestnik. Graczem może być na przykład człowiek, przedsiębiorstwo lub zwierzę. Każda strona wybiera pewną strategię postępowania, po czym zależnie od strategii własnej oraz innych uczestników każdy gracz otrzymuje wypłatę w jednostkach użyteczności. Zależnie od gry jednostki te mogą reprezentować pieniądze, wzrost szansy na przekazanie własnych genów czy też cokolwiek innego, z czystą satysfakcją włącznie. Wynikowi gry zwykle przyporządkowuje się pewną wartość liczbową.

Teoria gier bada jakie strategie powinni wybrać gracze żeby osiągnąć najlepsze wyniki.

Gry dzielą się na:

Teoria gier dwuosobowych o sumie stałej jest najlepiej rozwinięta i daje najbardziej konkretne wyniki.

Wyróżniamy kilka rodzajów strategii, w zależności od ich własności:

Strategia dominująca to strategia która jest zawsze nie gorsza od jakiejś innej strategii, niezależnie od wyboru strategii przez przeciwnika i zdarzeń losowych.

Jeśli jakaś strategia jest zdominowana przez inną, nie ma sensu nawet jej rozpatrywać.

Jeśli przeciwnik jest racjonalny można odrzucać strategie algorytmem:

Jeśli przeciwnik nie jest racjonalny, nie ma powodów przypuszczać że nie wybierze jednej ze "zdominowanych" strategii, tak więc nie można posługiwać się tym sposobem.

Dylemat więźnia – problem w teorii gier. Jest oparty na dwuosobowej grze o niezerowej sumie, w której każdy z graczy może zyskać oszukując przeciwnika, ale obaj stracą jeśli obaj będą oszukiwać. Dylemat ten jest więc niekooperacyjną (o częściowym konflikcie) grą o sumie niezerowej, ponieważ strategia konfliktu przeważa nad strategią pokojową: najwięcej można zyskać oszukując, a najwięcej stracić idąc na współpracę. W odróżnieniu jednak od dylematu kurczaków w tej grze istnieje większe pole do współpracy, która może zaistnieć w strategiach wielokrotnego dylematu więźnia[1].


Wyszukiwarka

Podobne podstrony:
sciaga bez 6 wykładu na EM, Notatki, Makroekonomia
EM DYSTRYBUCJA
EM t 4 Ceny
Istota , cele, skladniki podejscia Leader z notatkami d ruk
MODELOWANIE DANYCH notatki
Prezentacja ochrona własności intelektualnej notatka
EM t 6 produkcja
notatki makro2 wiosna09
Prawo cywilne notatki z wykładów prof Ziemianin
Poker współczesny Texas Hold'em i inne odmiany pokera (2)
podatki notatki id 365142 Nieznany
em
Praktyczna Nauka Języka Rosyjskiego Moje notatki (leksyka)2
Biomedyczne podstawy rozwoju notatki(1)

więcej podobnych podstron