Informacyjny ład gospodarczy
Transformacja
Transformacja jest elementem charakterystycznym dla każdej cywilizacji zachodniej
V w - upadek Cesarstwa Zachodniego
XIII w - odrodzenie miast, cechów, handlu
XV - XVI - odrodzenie
1455 - maszyna drukarska
1492 - odkrycie Ameryki
1517 - reformacja
XVIII - rewolucja przemysłowa
1776 - Bogactwo narodów A.Smitha
1776 - Deklaracja Niepodległości Stanów Zjednoczonych
XVIII-XIX - początek kapitalizmu i komunizmu
1815 - fortuna Rothschildów przyćmiewa królów i książęta
Obecnie jesteśmy świadkami kolejnej transformacji.
Co ją zapoczątkowało ?
1960 - początek ekspansji gospodarczej Japonii ?
Upowszechnienie komputera ?
Karta Praw Obywatela ?
Początku ostatniej fali przemian można upatrywać w zmieniającej się roli pracy
Społeczeństwo kapitalistyczne:
Kapitaliści - kontrolujący środki produkcji, posiadający kapitał
Proletariusze - zdaniem Marksa (1818-1883) - wyalienowani, wyzyskiwani, zależni
I - informacja wykorzystana dla usprawnienia narzędzi
Po śmierci Marksa, na fali „rewolucji produkcyjnej” zaczęła się zmieniać pozycja proletariusza
Zaczął żyć dostatniej
1950 - dominująca siła w polityce i społeczeństwie
II - informacja wykorzystana dla zmiany zarządzania
Sukcesywnie zmniejszający się udział siły niewykwalifikowanej
Spadek pozycji kapitalistów
Bogacą się menadżerowie
Właścicielami kapitału stają się fundusze (uosobienie ideologii socjalizmu )
III - informacja źródłem przewagi konkurencyjnej
Informacja staje się dominującym czynnikiem produkcji, staje się podstawowym zasobem
Tworzenie dobrobytu: |
|
NIE |
TAK |
Według Marksa, Keynesa czy neoklasyków było to odpowiednie dzielenie kapitału i siły |
Produktywność, innowacja, wiedza
|
Grupy społeczne: |
|
NIE |
TAK |
Kapitaliści i proletariusze |
Wykwalifikowani pracownicy i świadczący usługi |
Wiodące grupy: |
|
NIE |
TAK |
Kapitaliści, którzy wiedzieli jak dzielić kapitał i pracę
|
Wykwalifikowani pracownicy, którzy wiedzą jak wykorzystać produktywność, innowację i wiedzę. Posiadają i kapitał (fundusze) i narzędzia (wiedzę) |
Opisywanie nowego etapu jest możliwe tylko na gruncie doświadczeń. Przyszłość jest niepewna. Pewne wydaje się że:
Nowe społeczeństwo nie będzie socjalistyczne ani komunistyczne. Będzie pokapitalistyczne.
Rynek pozostanie głównym integratorem aktywności ekonomicznej, ale zmienią się funkcje instytucji rynkowych
Nastąpi przesunięcie akcentów od państwa narodowego do struktur ponadnarodowych - państwo pozostanie ważnym ale nie jedynym integratorem
Zmienią się kwestie, wokół których koncentrują się partie, grupy społeczne, systemy wartości społecznych i indywidualnych.
Wyzwaniem dla społeczeństwa prokapitalistycznego jest znalezienie miejsca dla obu nowych „klas”
Definicja „nowej gospodarki”
Brak jest jednej powszechnie akceptowanej definicji “nowej gospodarki”.
Świat przeszedł z ery industrialnej (przemysłowej) do ery postindustrialnej, nazywanej inaczej gospodarką postkapitalistyczną (P. Drucker), gospodarką cyfrową (D. Tapscot), gospodarką społeczeństwa informacyjnego (A. Toffler), a także gospodarką opartą na wiedzy (OECD).
Za jej cechę konstytuującą pojęcie nowej gospodarki uznaje się zazwyczaj rosnące znaczenie globalizacji i technik informatycznych (information technology), jako przyczyn leżących u podstaw zmian zachodzących w gospodarce.
“Nowa gospodarka” lub “nowy paradygmat” oznacza “pogląd, w myśl którego innowacje w zaawansowanej technice i globalizacja rynków światowych zmieniły naszą gospodarkę na tyle, że musimy myśleć o niej i działać w niej w inny sposób”. (Nakamura 2000),
Często istota “nowej gospodarki” jest definiowana poprzez przeciwstawienie jej “starej gospodarce”. Wówczas “nowa gospodarka” oznacza poszukiwanie źródeł szybszego wzrostu oraz zmian strukturalnych w rozwoju technik informatycznych, a w szczególności w szybkiej komercjalizacji Internetu, które to czynniki w fundamentalny sposób modyfikują działalność gospodarczą. (Jorgenson i Stiroh, 2000)
Przy takim postawieniu sprawy nasuwają się następujące ważne pytania:
Czy niekorzystna relacja między inflacją a bezrobociem powróci, gdy skończy się korzystne oddziaływanie szoków krótkookresowych, czy też uległa ona trwałej poprawie w wyniku zmian w technice oraz nasilenia się konkurencji międzynarodowej? (por. Tyson, 1999)
Czy gospodarka powróci do poprzedniego, niższego “limitu prędkości”, gdy dokona się już restrukturyzacja będąca konsekwencją zastosowania nowych technik, czy też techniki te w sposób trwały podniosą tempo produktywności i wzrostu gospodarczego?
Czy korzyści płynące z zastosowania technik informatycznych okażą się porównywalne z pozytywnymi skutkami wcześniejszych rewolucji technicznych.
“New economy” czy “new economics”?
Czy tradycyjna ekonomia dysponuje odpowiednimi narzędziami analitycznymi pozwalającymi opisać i wyjaśnić nowe jakościowo zjawiska i zależności, czy też konieczne staje się rozwinięcie nowej ekonomii? (Andrzej Wojtyna, „Gazeta Bankowa”, 29 styczeń 2001, Nowa ekonomia i nowe prawa)
Z jednej strony chodzi o określenie, czy zmiany nie odnoszą się jedynie do techniki a nie ekonomii.
Czy stare prawa ekonomiczne wystarczy przekalibrować czy też trzeba je sformułować po nowemu (D'Andrea Tyson, 1999).
Czemu to takie ważne?
Stosunkowo niewielka liczba opracowań stricte naukowych sprzyja wysuwaniu w tekstach publicystycznych radykalnych, ale słabo udokumentowanych tez. W rezultacie zarówno po stronie zwolenników, jak i przeciwników “nowej gospodarki” pojawiło się na jej temat wiele mitów.
Chodzi o to, że również wśród polskich ekonomistów i polityków pojawiają się opinie, w myśl których w pewnych specyficznych okresach niektóre podstawowe zależności przestają obowiązywać lub uzyskują jakościowo nowy charakter. Pojawia się więc ryzyko “importu” pewnych kontrowersyjnych, nie sprawdzonych koncepcji w celu pokazania, że w polityce gospodarczej można uniknąć trudnych wyborów i nie brać pod uwagę występujących ograniczeń.
Dylemat makroekonomiczny
Dla zrozumienia “nowej gospodarki” bardziej przydatny od dominującego we współczesnej ekonomii “paradygmatu niewidzialnej ręki” (doskonałej konkurencji) jest “paradygmat twórczej destrukcji” J. Schumpetera. Wynika to przede wszystkim ze wzrostu znaczenia innowacji w gospodarce amerykańskiej, co znajduje odzwierciedlenie we wzroście wśród zatrudnionych udziału tzw. twórczych pracowników.
Paradygmat doskonałej konkurencji odpowiadał dobrze warunkom przełomu wieków, kiedy dominowała bezpośrednia produkcja dóbr i usług. Jego adekwatność staje się jednak problematyczna w warunkach, gdy tak duża liczba pracowników wykonuje zadania wymagające kreatywności.
Wynika to stąd, że “paradygmat niewidzialnej ręki” traktuje zarówno korzyści skali, jak i kreatywność (w tym postęp techniczny) jako wielkości egzogeniczne, znajdujące się zasadniczo poza zainteresowaniem ekonomii. (Nakamura 2000)
Dylemat mikroekonomiczny
Mikroekonomiczną podstawą zmian jest daleko idąca transformacja w sposobie prowadzenia przez firmy działalności gospodarczej w wyniku coraz powszechniejszego stosowania technik informatycznych.
Część ekonomistów sądzi, że nie można wyjaśnić funkcjonowania nowej gospodarki za pomocą ortodoksyjnej (neoklasycznej) ekonomii. Ich zdaniem, w gałęziach opartych na wiedzy bardzo dużą rolę odgrywają rosnące przychody, które przyjmując postać tzw. efektów sieciowych sprzyjają powstawaniu pozycji monopolistycznej. Efekty te oddziałują zarówno na produkcję, jak i na konsumpcję. Wspólną cechą nowych technik jest to, że ich wartość dla każdego użytkownika wzrasta proporcjonalnie do kwadratu liczby wszystkich użytkowników. Jeśli więc dany produkt usadowi się na rynku, to popyt na podobne produkty załamie się; może się okazać, że konsumenci zostaną zmuszeni do korzystania z gorszego produktu, co należy uznać za rodzaj niesprawności rynku.
Zdaniem innych ekonomistów, aczkolwiek efekty sieci i związane z nimi niesprawności rzeczywiście występują, to ich wyjaśnienie nie wymaga wyjścia poza ekonomię neoklasyczną. Ich zdaniem, niesprawność rynku pojawia się tylko wtedy, gdy gorszy produkt utrzyma się na rynku, mimo że korzyści z przerzucenia się na inny, lepszy produkt są większe od kosztów. Jeśli natomiast gorszy produkt utrzymuje swą pozycję, ponieważ koszty przerzucenia się na inny produkt są wysokie, to jest to sytuacja zgodna z postulatami tradycyjnej ekonomii: przerzucenie się byłoby działaniem nieefektywnym. Tak więc uwzględnienie kosztów “przerzucenia się” bardzo istotnie zawęża zakres niesprawności rynku. Co więcej, zarówno konsumenci, jak i producenci, którzy ponoszą straty w wyniku tej niesprawności rynku będą poszukiwać sposobu wyjścia z “pułapki gorszego produktu”.
Nowy ład gospodarczy, nowe zasady przedsiębiorczości, nowe technologie - dwanaście wzajemnie zależnych reguł
Sfera gospodarki |
Sfera organizacji |
Sfera technologii |
1. Wiedza
|
||
Odejście od pracy fizycznej na rzecz pracy umysłowej. „Wkład wiedzy" staje się istotną częścią produktów. |
Praca oparta na wykorzystywaniu wiedzy i umiejętności staje się podstawą tworzenia wartości, przychodów i zysków. Wkład wiedzy" jest realizowany przez łańcuch dodawania wartości. |
Rozwój technologii opartych na wykorzystywaniu wiedzy i umiejętności oraz sztucznej inteligencji. Powstają systemy eksperckie. |
2. Potęga techniki cyfrowej
|
||
Nastaje era binarnego, zero-jedynkowego przetwarzania i wyrażania kodów komunikacji międzyludzkiej, usług, agend rządowych, procesów wymiany gospodarczej, transakcji pieniężnych itp. |
Technika cyfrowa zastępuje analogową we wszelkich systemach wewnętrznej komunikacji i prezentacji (notatki, raporty, spotkania, rozmowy telefoniczne, zapisy na tablicach, projekty, modele, fotografie, schematy, wzorce itd.). |
Przechodzenie na systemy cyfrowe i odchodzenie od analogowych urządzeń transmisji i przechowywania informacji (tj. telewizji, radia, kopiarek, kamer, magnetofonów, wewnętrznych central telefonicznych itp.). |
3. Ku rzeczywistości wirtualnej
|
||
Dotychczasowe materialne, fizyczne instytucje i przedmioty (urządzenia) mogą być zastępowane przez wirtualne odpowiedniki, czego efektem będzie przemiana wszelkich relacji gospodarczych oraz rodzajów i charakteru organizacji i zależności ekonomicznych. |
Powstawanie wirtualnych przedsiębiorstw, zespołów, instytucji wymiany gospodarczej, agencji rządowych, obszarów pracy itd. |
Wizualizacja danych, animacja w czasie rzeczywistym, rozwój systemów rzeczywistości wirtualnej zmieniają charakter fizycznej reprezentacji czynności. |
4. Molekularyzacja
|
||
Zastępowanie molekularnymi systemami wymiany danych produkcji, sprawowania władzy dotychczasowych mass mediów, produkcji masowej, jednolitych systemów rządzenia. |
Odchodzenie od nakazowych zhierarchizowanych systemów kontroli na rzecz struktur opartych na zespołach zadaniowych. Indywidualni pracownicy czy grupy pracowników otrzymują szansę wyjścia z systemów korporacyjnych i skutecznej działalności na własny rachunek jako tzw. twórcy wartości. |
Nadejście epoki systemów informatycznych, zorientowanych obiektowo, na zasadzie rozdzielenia obszarów danych od technicznych aspektów oprogramowania - pozwala to na operowanie fragmentami (kodów), które mogą być szybko kojarzone na wiele sposobów. |
5. Integracja - praca w sieci
|
||
Nowa gospodarka to gospodarka cyfrowa, powiązana w ramach i między organizacjami. Zarówno działalność gospodarcza, tworzenie wartości i dobrobytu, jak również sfera socjalna oparte są na wszechobecnej i powszechnej infrastrukturze.
|
Nowy model działalności gospodarczej to dosłownie i w przenośni praca w sieci. Współczesna technologia informatyczna umożliwia, na zasadzie tworzenia spójnej sieci usług, integrację niezależnych jednostek, które w ten sposób stają się elementami dużych organizacji i instytucji. Poprzednio takie „zespolenie" podmiotów składowych było możliwe wyłącznie przez stosowanie rozbudowanych, własnościowych struktur korporacyjnych.
|
W obszarze technicznej organizacji funkcjonowania sieci obserwuje się odchodzenie od komputerów głównych (host computers) na rzecz bardziej zaawansowanego wykorzystywania poszczególnych maszyn podłączonych do sieci. Dotychczasowe centra „wtajemniczenia" sieciowego ustępują miejsca sieciom typu client-server, które z kolei są elementami całościowej infrastruktury dla działalności społecznej i gospodarczej. |
6. Eliminacja pośredników i funkcji pośrednich (Disintermediation)
|
||
Eliminowanie pośredników łańcucha wymiany gospodarczej: agentów, brokerów, hurtowników niektórych detalistów, właścicieli instytucji medialnych, producentów rynku muzycznego i wszelkich innych instytucji, których istnienie jest możliwe wyłącznie producentami a konsumentami. |
Ograniczanie roli i znaczenia pośrednich stanowisk menedżerskich oraz agentów, brokerów i pozostałych pośredników, których rola w organizacjach starego typu sprowadzała się do „wzmacniania" i powielania sygnałów, informacji i przekazów |
Odejście od wielopoziomowej, hierarchicznej architektury systemów informatycznych na rzecz modeli sieciowych. Komputery główne tracą rację bytu w systemach sieciowych o równorzędnym poziomie dostępu (peer- to-peer). |
7. Korelacja obszarów gospodarki (Conwergence)
|
||
Postępowanie korelacji (i upodabniania się) podstawowych obszarów życia gospodarczego - sfery obliczeń i przetwarzania danych (computing), komunikacji (communications) i otoczenia ekonomicznego (content). |
Zespalanie struktur organizacyjnych związanych z technologią obszarów: obliczeniowego, komunikacji i otoczenia ekonomicznego. |
Uniformizacja i standaryzacja technologii obszarów: obliczeniowego, komunikacji i otoczenia ekonomicznego. |
8. Nowatorstwo (innovation)
|
||
W sferze życia gospodarczego nowatorstwo staje się kluczowym czynnikiem sukcesu i głównym obszarem tworzenia wartości. Zastępuje tym samym tradycyjne wyznaczniki powodzenia, jak dostęp do surowców, wydajność, skala działania czy koszty wynagrodzeń. Ludzki geniusz i wyobraźnia stają się podstawowymi czynnikami tworzenia i dodawania wartości.
|
Nowatorstwo staje się czołowym czynnikiem powodzenia wszelkich przedsięwzięć i strategii w zakresie produkcji, marketingu, zarządzania, zmian organizacyjnych. Stare reguły i zasady szybko przeżywają się. Jedynym trwałym czynnikiem przewagi konkurencyjnej pozostaje zdeterminowanie organizacji do ustawicznego podnoszenia swojej świadomości i wiedzy. |
Zaawansowanie technicznych rozwiązań informatycznych w przedsiębiorstwach staje się warunkiem i bazą dla innowacji. Nowe narzędzia informatyczne umożliwiają nieograniczony dostęp do ogromu zasobów sieciowych zarówno do informacji i baz danych, jak również do ludzi czy źródeł kapitału. |
9. Konsument producentem (Prosumption)
|
||
Następuje zanikanie różnic między producentami a konsumentami. Konsumenci zyskują de facto możliwość partycypowania w procesach produkcyjnych, gdyż ich informacje, wiedza i pomysły stają się decydujące na etapie projektowania produktów. Efektem międzyludzkich kontaktów i współpracy za pośrednictwem sieci jest powstawanie ogólnoświatowych zasobów wiedzy.
|
Dotychczasowi odbiorcy - konsumenci informacji i technologii zajmują pozycje zarezerwowane uprzednio dla producentów. Międzyludzka wymiana poglądów i myśli przez sieć przyczynia się do pomnażania korporacyjnych zasobów informacyjnych. Użytkownicy stają się projektantami przez samodzielne tworzenie nowych aplikacji. Coraz trudniejsze staje się jasne definiowanie osób/instytucji odpowiedzialnych za transfery i wdrożenia technologii. |
Dostępność nowych narzędzi służących do tworzenia oprogramowania, przetwarzanie i projektowanie obiektowe (object computing), procedury personalizacji i konfiguracji oprogramowania (software agents) - wszystkie te czynniki umożliwiają użytkownikom tworzenie systemów i baz danych, eliminując po części funkcję specjalistów. Jest to zmiana podobna do tej sprzed dziesięciu lat, kiedy w wyniku pojawienia się arkuszy kalkulacyjnych przestano powoływać zespoły robocze pracujące nad tworzeniem wszelkich, nawet nieskomplikowanych aplikacji informatycznych. Dodatkowo obecnie graficzne interfejsy użytkowe są zastępowane interfejsami multimedialnymi, które dzięki m.in. możliwości kontaktu głosowego dają wrażenie pracy w naturalnym otoczeniu. |
10. Czas rzeczywisty (lmmediacy)
|
||
Działalność gospodarcza nowego typu to działalność w czasie rzeczywistym (real time economy. Elektronizacja wymiany informacji sprawia, że wszelkie transakcje przeprowadzane są z prędkością światła, a nie jak dotychczas z prędkością... tradycyjnej usługi pocztowej. |
Również organizacje nowego typu to przedsiębiorstwa czasu rzeczywistego (real-time enterprise) - niezwłocznie i nieustannie dostosowujące się do zmieniających się warunków rynkowych. Następuje wyraźne skrócenie cykli życia produktów. |
Zastosowania technologii są podporządkowane bieżącemu ogarnianiu i przetwarzaniu informacji oraz stałemu uaktualnianiu baz danych. W efekcie możliwe staje się bieżące (dosłownie) zarządzanie procesami wytwórczymi. |
11. Globalizacja
|
||
Wiedza nie zna granic. Wraz z uznaniem wiedzy i intelektu za najważniejsze zasoby powstaje tylko jedna gospodarka - gospodarka światowa, bez względu na to, że poszczególne organizacje funkcjonują w lokalnych i regionalnych otoczeniach. Efektem powstawania i wzrostu znaczenia nowych struktur geopolitycznych (jak Unia Europejska) jest ograniczanie roli państw narodowych i dalsze zacieśnianie współzależności między państwami. |
Nowego typu organizacje pozwalają na zmianę postrzegania czasu i przestrzeni oraz na sprawne funkcjonowanie ponad dotychczasowymi ograniczeniami. Praca może być obecnie świadczona z dowolnego miejsca, np. z domu pracownika. Z kolei sieć staje się środowiskiem komunikacji i współpracy bez względu na bariery czasowe. Zespolone za pośrednictwem sieci grupy kooperantów współpracują na poziomie globalnym realizując wspólne przedsięwzięcia. |
Światowe informatyczne sieci gospodarcze staję się motorem nowoczesnej działalności i podstawowym systemem dystrybucji usług. Najistotniejszą cechą i zaletą sieci jest z jednej strony stwarzanie warunków dla komunikacji w czasie rzeczywistym, z drugiej umożliwianie przechowywania i odtwarzania przesianych w dowolnym czasie informacji. Kolejnym wyznacznikiem systemów sieciowych jest dostęp do licznych zasobów informacji i baz danych z dowolnego miejsca na świecie. |
12. Era niepokoju i zagrożenia (Discordonce) |
||
Powstawanie nowych, wysoko opłacanych profesji j miejsc pracy i jednoczesne brutalne eliminowanie niewykwalifikowanej lub nisko kwalifikowanej siły roboczej grozi pojawieniem się poważnych społecznych niepokojów. Taki stan rzeczy będzie potęgować pogłębiający się rozdźwięk między ludźmi posiadającymi wiedzę, umiejętności oraz dostęp do informacji i sieci a resztą społeczeństwa pozostającą poza „kręgiem wtajemniczenia".
|
Uwidaczniają się poważne sprzeczności w dążeniu do identyfikowania się pracowników z miejscem pracy. Jaką bowiem mają oni motywację do „wytężonej pracy, uczestniczenia w tworzeniu wartości i image przedsiębiorstwa, identyfikowania się z zespołem i firmą", jeśli nie mają udziału w wartości, którą tworzą? |
Istnieje narastający konflikt między z jednej strony różnorodnymi architekturami systemów komputerowych, niekompatybilnymi, rywalizującymi ze sobą standardami, z drugiej zaś wymogami nowych standardów technologicznych. Ponadto w licznych firmach systemy informatyczne nie są skorelowane z pozostałymi funkcjami instytucji. |
In the new economy we observe a shift of the paradigms of:
production
management
work
The change of the main paradigms of production processes:
FROM |
TO |
mass production |
flexible, mass customisation of products and services |
productions of goods |
productions of services |
tangible products |
digital, intangible, dematerialization, weightless production |
long cycle of production |
shortest cycle by permanent innovation |
national market |
global market |
comparative advantage |
competitive advantage |
The change of the main paradigms of companies organisation and management:
FROM |
TO |
centralisation |
descentralization and delocalisation |
rigid hierarchy |
flexible organisation |
companies-structures |
companies project oriented and virtual companies |
chain of activities |
network and "disintermediation" (eliminate existing intermediaries) |
"we are separated and rivals" |
"we are connected and we can co-operate" |
The change of the main paradigms of work:
FROM |
TO |
routine work |
work is changing continuously |
fixed programme |
flexible program of work |
life-career |
"just-in-time" worker |
office first |
work first |
fixed work-place |
mobile work-place |
worker go to work |
work comes to worker |
"live local - work local" |
"live local - work global" |
Znaczenie informatyka w nowej firmie
Jeśli efekty wdrożeń informatycznych są znikome lub w ogóle ich nie ma, przyczyn niepowodzenia może być wiele:
firma nie jest w stanie określić swoje przyszłe potrzeby
nie starcza środków, by na bieżąco adaptować wdrożenie do zmian organizacyjnych i operacyjnych zachodzących w przedsiębiorstwie
firma nie chce podejmować równoległych działań biznesowych, które warunkują efekty ekonomiczne wdrażanego systemu
Zanim więc informatyk stanie się chłopcem do bicia, należałoby zadać parę podstawowych pytań:
Czy przy rozstrzyganiu spraw związanych z wdrożeniem IT brane jest pod uwagę jego zdanie?
Czy informatyk traktowany jest przez menedżerów jak partner
Czy informatyk rozumie tkankę organizacyjną biznesu firmy i jest kompetentny na tyle, by współdecydować o losach firmy (bez względu na źródła tej kompetencji, którym może być wykształcenie, ale niekiedy głównie praktyka)
Przedstawiciele działu IT rzadko postrzegani są jako równoprawni partnerzy w dyskusji i przy podejmowaniu decyzji. Przyczyny:
Dwa światy
Kierownictwo firmy i członkowie zespołu IT należą do innych światów i dlatego odmiennie postrzegają rzeczywistość. Dla informatyka sukcesem jest to, że system obsługi gospodarki magazynowej w ogóle ruszył i nie sypie się, menedżer natomiast wyrywa sobie włosy z głowy, bo brakuje mu modułu analizy sprzedaży, w tym płatności i zobowiązań, a pod magazynem kłębią się TIR-y.
Informatyk musi dobrze rozumieć biznesowy proces gospodarki magazynowej i zaopatrzenia, by właściwie zaprojektować, zmodyfikować lub zweryfikować proponowany przez dostawców obieg dokumentów magazynowych.
Źle sformułowane przez dostawców problemy czy procesy, niekompetentnie weryfikowane przez kadrę informatyczną i menedżerską firmy, są jedną z przyczyn niepowodzenia wdrożeń systemów informatycznych.
Osiągnięcie sukcesu może też utrudniać ogromne tempo zmian technologicznych, brak standardów w firmie, płynność kadr czy zależność przedsiębiorstwa od dotychczasowych systemów. Ta przynależność do dwóch światów powoduje też różną tolerancję na przeciągające się wdrożenie.
Potrzebne jest zatem porozumienie i zarządzanie nie osobno procesami informatycznymi, które fascynują informatyków, i biznesowymi, którymi władają menedżerowie, ale właśnie procesami biznesowo-informatycznymi.
Poczuć bluesa
Informatyk powinien umieć od podstaw zdefiniować, zaprojektować i doprowadzić do uruchomienia proces biznesowo-informatyczny oraz mieć wpływ na jego zarządzanie i rozwój. Niezbędna jest do tego świadomość wszystkich istniejących w firmie procesów gospodarczych, pełna informacja o ich przebiegu i wzajemnych relacjach, rozumienie tych procesów i obowiązujących/istniejących ograniczeń natury formalnej, personalnej, organizacyjnej czy technicznej, a nade wszystko świadomość głównych celów firmy i przyjętej lub planowanej strategii ich osiągania. Innymi słowy, informatyk, od którego oczekuje się trafnych rozwiązań, zwłaszcza rozwiązań obejmujących całą lub znaczną część firmy, musi mieć pełną i szczegółową wiedzę o niej.
Należy jednak umożliwić mu nawiązanie partnerskiej rozmowy o projektowanych rozwiązaniach z zarządem firmy lub działów, których rozwiązania dotyczą. Konieczne jest rozhermetyzowanie klanu informatycznego i klanu władzy, bo te dwa światy słabo kontaktują się ze sobą. Powodów jest kilka: hierarchiczny, nienowoczesny model zarządzania lub/i brak merytorycznej wiedzy i kompetencji biznesowej informatyków. Bywa też, że kierownictwo wstydzi się swej informatycznej niewiedzy wobec pracowników-informatyków i starannie stara się ukryć kompleksy za drzwiami gabinetów...
Również informatykowi nie jest łatwo oderwać się od fascynującego go świata logiki informatycznej i wejść w nie zawsze uporządkowany i dodefiniowany świat organizacji firmy. To naprawdę trudne i wymagające merytorycznego przygotowania zadanie - czuć "puls biznesu", trzymając jednocześnie rękę... na pulsie technologii informatycznych.
Infobiznesmeni potrzebni od zaraz
Część informatyków poznała smak biznesu, prowadząc własne firmy. Jeżeli nadal są profesjonalnymi informatykami, to tylko dlatego, że ich biznes nie był na tyle duży, by jego organizowanie wyrwało ich z zawodu. Przy większej skali działań bycie biznesmenem zwykle kończy się wyjściem z pierwotnego zawodu. Należy pamiętać, że w przypadku informatyki odbywa się to szybko i na ogół bezpowrotnie, gdyż rozwój technologii informatycznych jest bardzo dynamiczny.
Informatyk, który "wypadł" już z branży, a przy tym samouk i praktyk biznesu, może być partnerem menedżerów niewielkiej organizacji, ale czy będzie projektantem nowoczesnych rozwiązań informatycznych?
Projektant nowoczesnych, nieprzestarzałych w momencie uruchomienia rozwiązań nie musi znać najnowszej technologii, by móc ocenić, ile z niej można "wyciągnąć" czy też zweryfikować propozycje dostawców rozwiązań.
Informatyk, który ma nawet nieduże doświadczenie biznesowe, ale pozostał czynny zawodowo nie jest partnerem dla menedżerów większych firm. Spotyka się w nich z inną organizacją, innymi procesami i ich prowadzeniem, z dziesiątkami spraw, z którymi w swoim niewielkim biznesie nie miał do czynienia.
Informatyka i ekonometria
Większą szansę na zdobycie kwalifikacji infobiznesmena powinno dawać wyższe wykształcenie. Dopiero teraz jednak uczelnie uruchamiają odpowiednio zmodernizowane programy nauczania informatyki lub nowe kierunki nauczania prowadzenia zinformatyzowanego biznesu.
Nowe ekonomiczne prawa
Andrzej Wojtyna
Czy tradycyjna ekonomia dysponuje odpowiednimi narzędziami analitycznymi pozwalającymi opisać i wyjaśnić nowe jakościowo zjawiska i zależności, czy też konieczne staje się rozwinięcie “nowej ekonomii”?
W połowie lat 90. w odniesieniu przede wszystkim do gospodarki Stanów Zjednoczonych zaczęto coraz częściej używać określenia “nowa gospodarka” (new economy). W ślad za tym w literaturze pojawiło się również określenie “nowa ekonomia” (new economics). Nasuwa się więc pytanie, czy w gospodarce amerykańskiej zaszły rzeczywiście tak istotne jakościowe zmiany, które uzasadniają posługiwanie się nowym pojęciem. Drugie pytanie dotyczy natomiast tego, czy tradycyjna ekonomia dysponuje odpowiednimi narzędziami analitycznymi pozwalającymi opisać i wyjaśnić nowe jakościowo zjawiska i zależności czy też konieczne staje się rozwinięcie “nowej ekonomii”. Z jednej strony chodzi o określenie, czy zmiany nie odnoszą się jedynie do techniki a nie ekonomii. Z drugiej natomiast strony problem dotyczy tego, czy stare prawa ekonomiczne wystarczy przekalibrować czy też trzeba je sformułować po nowemu (D'Andrea Tyson, 1999).
Długi boom
Szukanie odpowiedzi na te pytania ma pewne szczególne znaczenie w kontekście transformacji gospodarek postsocjalistycznych. Chodzi o to, że również wśród polskich ekonomistów i polityków pojawiają się opinie, w myśl których w pewnych specyficznych okresach niektóre podstawowe zależności przestają obowiązywać lub uzyskują jakościowo nowy charakter. Pojawia się więc ryzyko “importu” pewnych kontrowersyjnych, nie sprawdzonych koncepcji w celu pokazania, że w polityce gospodarczej można uniknąć trudnych wyborów i nie brać pod uwagę występujących ograniczeń.
W sensie chronologicznym pojęcie “nowa gospodarka” wiązane jest z okresem bardzo pomyślnego przebiegu koniunktury w Stanach Zjednoczonych w latach 90. Ze względu na korzystną koniunkturę w tym samym okresie pojęcie to jest przez niektórych autorów odnoszone również do Wielkiej Brytanii i Danii (Nielsen, 1999). Taylor (1998) uważa natomiast za właściwe posługiwanie się określeniem “długi boom”, odnoszącym się do kilkunastoletniego okresu stabilnej ekspansji gospodarki amerykańskiej, zapoczątkowanego w listopadzie 1982 r., a przerwanego jedynie krótką i łagodną recesją, która wystąpiła w drugiej połowie 1990 r. Zdecydowana większość autorów używa jednak pojęcia “nowa gospodarka” w kontekście szybkich zmian zachodzących w latach 90.
Istotna poprawa sytuacji gospodarczej w Stanach Zjednoczonych w ostatnim okresie zaskoczyła obserwatorów, ponieważ jeszcze kilka lat wcześniej nic jej właściwie nie zwiastowało. Sytuacja zaczęła ulegać wyraźnej poprawie ok. 1996 r., mimo że trudno wskazać konkretne zmiany we wcześniej dominujących niekorzystnych zjawiskach. Co więcej, wzmocnienie pozytywnych tendencji nastąpiło w okresie kryzysu azjatyckiego, który znacznie osłabił koniunkturę światową.
Pogłębionych studiów analitycznych na temat “nowej gospodarki” ukazało się do tej pory stosunkowo niewiele. Być może wynika to częściowo ze skumulowania się w tak krótkim okresie wielu nowych, trudnych do interpretacji zjawisk. Trudno jednak uznać toczący się dyskurs naukowy za adekwatny do skali wyzwań, jakie “nowa gospodarka” stawia przed badaczami. Niektórzy wybitni ekonomiści (Gordon, 2000) wyrażają w związku z tym zdziwienie, że obecna debata ustępuje znacząco wcześniejszym wielkim sporom ekonomistów dotyczącym np. przyczyn przyspieszenia inflacji w latach 60., hipotezy naturalnej stopy bezrobocia czy szoków podażowych. Zdecydowanie bardziej ożywiona dyskusja rozgorzała natomiast w mediach. Stosunkowo niewielka liczba opracowań stricte naukowych sprzyja wysuwaniu w tekstach publicystycznych radykalnych, ale słabo udokumentowanych tez. W rezultacie zarówno po stronie zwolenników, jak i przeciwników “nowej gospodarki” pojawiło się na jej temat wiele mitów.
Nowy paradygmat
Chociaż brak jest jednej powszechnie akceptowanej definicji “nowej gospodarki”, to za jej cechę konstytuującą uznaje się zazwyczaj rosnące znaczenie globalizacji i technik informatycznych (information technology), jako przyczyn leżących u podstaw zmian zachodzących w gospodarce. I tak zdaniem Nakamury (2000), “nowa gospodarka” lub “nowy paradygmat” oznacza “pogląd, w myśl którego innowacje w zaawansowanej technice i globalizacja rynków światowych zmieniły naszą gospodarkę na tyle, że musimy myśleć o niej i działać w niej w inny sposób”. Często istota “nowej gospodarki” jest definiowana poprzez przeciwstawienie jej “starej gospodarce” (np. Jorgenson i Stiroh, 2000A). Wówczas “nowa gospodarka” oznacza poszukiwanie źródeł szybszego wzrostu oraz zmian strukturalnych w rozwoju technik informatycznych, a w szczególności w szybkiej komercjalizacji Internetu, które to czynniki w fundamentalny sposób modyfikują działalność gospodarczą. “Starą gospodarkę” należy natomiast utożsamiać ze stanowiskiem wskazującym na “ospałość” gospodarki amerykańskiej w pierwszej połowie lat 90. oraz na splot korzystnych, ale przejściowych szoków, które wystąpiły w drugiej połowie dekady. Przy takim postawieniu sprawy nasuwają się następujące ważne pytania (por. Tyson, 1999): czy niekorzystna relacja między inflacją a bezrobociem powróci, gdy skończy się korzystne oddziaływanie szoków krótkookresowych, czy też uległa ona trwałej poprawie w wyniku zmian w technice oraz nasilenia się konkurencji międzynarodowej? Czy gospodarka powróci do poprzedniego, niższego “limitu prędkości”, gdy dokona się już restrukturyzacja będąca konsekwencją zastosowania nowych technik, czy też techniki te w sposób trwały podniosą tempo produktywności i wzrostu gospodarczego?
W dyskusji nad istotą “nowej gospodarki” bardzo ważne miejsce zajmuje kwestia, czy korzyści płynące z zastosowania technik informatycznych okażą się porównywalne z pozytywnymi skutkami wcześniejszych rewolucji technicznych. Wiele na to wskazuje, aczkolwiek specjaliści różnią się dosyć poważnie w opiniach na temat konsekwencji obecnej “rewolucji” (zob. szerzej Woodall, 2000).
Za ważną cechę określającą istotę “nowej gospodarki” uważa się też wysoki stopień jej przejrzystości. Za sprawą Internetu kupującym i sprzedającym łatwiej jest bowiem porównywać ceny, zbyteczni stają się pośrednicy, a więc obniżają się koszty transakcyjne; ograniczeniu ulegają również bariery wejścia. Podstawowe pytanie o charakterze normatywnym dotyczy natomiast tego, czy i w jakim zakresie “nowa gospodarka” oznacza “lepszą gospodarkę”.
Jeśli przyjąć, że pierwotną, nieredukowalną do innych, przyczyną “nowej gospodarki” jest przyspieszenie postępu technicznego w sektorze IT, to wywołany przez to zjawisko ciąg zależności można najbardziej skrótowo przedstawić w następujący sposób (Gordon, 2000). Szybsze tempo wydajności pracy pozwoliło utrzymać na niskim poziomie inflację mimo szybszego wzrostu płac. Niska inflacja pozwoliła Systemowi Rezerwy Federalnej utrzymywać przez pięć lat stopy procentowe na mniej więcej niezmienionym poziomie, podczas gdy oprocentowanie długookresowych obligacji rządowych było wyraźnie niższe. Luźna polityka monetarna i szybki wzrost gospodarczy spowodowały bezprecedensowy wzrost zysków, który wraz z falą optymizmu związaną z przyspieszeniem postępu technicznego wywołał jeszcze szybszy wzrost kursów na giełdzie. Wynikający stąd wzrost zamożności gospodarstw domowych (efekt bogactwa) wywołał wzrost wydatków konsumpcyjnych zdecydowanie przekraczający wzrost rozporządzalnych dochodów i tym samym zanik oszczędności gospodarstw domowych (w każdym razie mierzonych w sposób konwencjonalny).
Podsumowując, podstawowym przejawem i dowodem jakościowych zmian składających się na “nową gospodarkę” jest, zdaniem jej zwolenników, zachowanie się podstawowych wielkości makroekonomicznych, a ściślej - kombinacja szybkiego wzrostu gospodarczego, bardzo niskiego poziomu inflacji i bezrobocia oraz rekordowych notowań na giełdzie.
Wkład sektora
Mikroekonomiczną podstawą tych zmian jest natomiast daleko idąca transformacja, jaka dokonała się (i nadal się dokonuje) w sposobie prowadzenia przez firmy działalności gospodarczej w wyniku coraz powszechniejszego stosowania technik informatycznych. Zwraca się uwagę, że w okresie 1995-98 wkład sektora technik informatycznych we wzrost gospodarczy wynosił 35 proc., mimo że jego udział w PKB wynosi tylko 8 procent.
Część ekonomistów sądzi, że nie można wyjaśnić funkcjonowania nowej gospodarki za pomocą ortodoksyjnej (neoklasycznej) ekonomii. Ich zdaniem, w gałęziach opartych na wiedzy bardzo dużą rolę odgrywają rosnące przychody, które przyjmując postać tzw. efektów sieciowych sprzyjają powstawaniu pozycji monopolistycznej. Efekty te oddziałują zarówno na produkcję, jak i na konsumpcję. Wspólną cechą nowych technik jest to, że ich wartość dla każdego użytkownika wzrasta proporcjonalnie do liczby wszystkich użytkowników. Jeśli więc dany produkt usadowi się na rynku, to popyt na podobne produkty załamie się; może się okazać, że konsumenci zostaną zmuszeni do korzystania z gorszego produktu, co należy uznać za rodzaj niesprawności rynku. Zdaniem innych ekonomistów, aczkolwiek efekty sieci i związane z nimi niesprawności rzeczywiście występują, to ich wyjaśnienie nie wymaga wyjścia poza ekonomię neoklasyczną. Ich zdaniem, niesprawność rynku pojawia się tylko wtedy, gdy gorszy produkt utrzyma się na rynku, mimo że korzyści z przerzucenia się inny, lepszy produkt są większe od kosztów. Jeśli natomiast gorszy produkt utrzymuje swą pozycję, ponieważ koszty przerzucenia się na inny produkt są wysokie, to jest to sytuacja zgodna z postulatami tradycyjnej ekonomii: przerzucenie się byłoby działaniem nieefektywnym. Tak więc uwzględnienie kosztów “przerzucenia się” bardzo istotnie zawęża zakres niesprawności rynku. Co więcej, zarówno konsumenci, jak i producenci, którzy ponoszą straty w wyniku tej niesprawności rynku będą poszukiwać sposobu wyjścia z “pułapki gorszego produktu”.
Na inny rodzaj ograniczenia, na jaki w wyjaśnianiu najważniejszych cech i mechanizmów “nowej gospodarki” natrafia ekonomia głównego nurtu, zwraca uwagę Nakamura (2000). Autor ten przyjmuje stanowisko metodologiczne J. Hicksa, zgodnie z którym nauki ekonomiczne muszą adaptować się do zmieniającego się charakteru gospodarki i stawia tezę, że dla zrozumienia “nowej gospodarki” bardziej przydatny od dominującego we współczesnej ekonomii “paradygmatu niewidzialnej ręki” (doskonałej konkurencji) jest “paradygmat twórczej destrukcji” J. Schumpetera. Wynika to przede wszystkim ze wzrostu znaczenia innowacji w gospodarce amerykańskiej, co znajduje odzwierciedlenie we wzroście wśród zatrudnionych udziału tzw. twórczych pracowników.
Doskonała konkurencja
Paradygmat doskonałej konkurencji rozwinięty został na gruncie teorii Smitha przez Jevonsa, Walrasa i Mengera. Odpowiadał on dobrze warunkom przełomu wieków, kiedy dominowała bezpośrednia produkcja dóbr i usług. Zdaniem Nakamury, jego adekwatność staje się jednak problematyczna w warunkach, gdy tak duża liczba pracowników wykonuje zadania wymagające kreatywności. Wynika to stąd, że “paradygmat niewidzialnej ręki” traktuje zarówno korzyści skali, jak i kreatywność (w tym postęp techniczny) jako wielkości egzogeniczne, znajdujące się zasadniczo poza zainteresowaniem ekonomii
Według Nakamury, podstawowe elementy teorii Schumpetera są obecne w dynamicznie rozwijającej się w ostatnich latach teorii wzrostu endogenicznego. Chociaż trudno to kwestionować, to jednak za arbitralne należy uznać zaklasyfikowanie autorów tej teorii do “paradygmatu twórczej destrukcji”. Oznacza to bowiem, że zostali oni wyłączeni z głównego nurtu ekonomii, co pozostaje w sprzeczności z dominującymi schematami klasyfikacyjnymi współczesnej myśli ekonomicznej i najprawdopodobniej także z opinią samych zainteresowanych. Można natomiast przyjąć, że jest to przejaw komplikowania się struktury współczesnej ekonomii, a ściślej - stopniowego inkorporowania przez główny nurt pewnych koncepcji, które w przeszłości wydawały się pozostawać w stosunku do niego w silnej opozycji.
Bardziej bezpośrednie implikacje rozważań Nakamury dla dyskusji o “nowej gospodarce” są następujące. Otóż dominacja “paradygmatu niewidzialnej” ręki powoduje, że znaczenie kreatywności jest słabo uwzględniane w statystykach. Jej sposób pomiaru pozostawia wiele do życzenia, co z kolei prowadzi do zaniżania rzeczywistego tempa wzrostu, poziomu oszczędności oraz zysków.
Poglądy akcentujące efekty sieci i rosnące przychody są najbardziej radykalnym wariantem koncepcji nowej gospodarki. Stiroh (1999) określa go jako wariant “nowych źródeł wzrostu” i uważa, że jest on najbardziej interesujący, najbardziej kontrowersyjny i najtrudniejszy do udowodnienia. Pozostałe dwa warianty mają charakter bardziej umiarkowany. Zgodnie z pierwszym z nich, długookresowe tempo wzrostu gospodarczego uległo przyspieszeniu. Dzięki wyższemu tempu wydajności gospodarka może rozwijać się szybciej bez zwiększenia się presji inflacyjnej. Wariant trzeci akcentuje natomiast zmiany w charakterze cyklu koniunkturalnego, a ściślej - w charakterze krótkookresowej zależności między inflacją a bezrobociem. Cechą łączącą wszystkie trzy wersje koncepcji nowej gospodarki jest traktowanie globalizacji i komputeryzacji nie jako przejawu oddziaływania innych czynników, lecz jako siły napędowej fundamentalnych zmian w gospodarce. Zdaniem Stiroha dwie najbardziej radykalne tezy formułowane przez zwolenników koncepcji “nowej gospodarki” to: a) teza o “śmierci” (“końcu ery”) inflacji i b) teza o “śmierci” cyklu koniunkturalnego.
Przeciwnicy koncepcji nowej gospodarki uważają natomiast, że aczkolwiek globalizacja i komputeryzacja wywarła bardzo istotny wpływ na gospodarkę amerykańską, to zbyt wcześnie jest jeszcze, aby stwierdzić, iż dokonały się w niej poważne zmiany strukturalne. Zwracają oni uwagę, że bardzo pomyślny przebieg koniunktury w latach 90. można w decydującej mierze wyjaśnić równoczesnym wystąpieniem kilku korzystnych szoków podażowych.
Źródła siły
Bardzo ważne miejsce w toczącej się dyskusji zajmuje problem, czy i w jakim stopniu bardzo korzystna sytuacja makroekonomiczna w Stanach Zjednoczonych w latach 90. jest wynikiem immanentnych cech gospodarki, a w jakim właściwie prowadzonej polityki ekonomicznej. Przykładem krańcowego stanowiska, całkowicie negującego znaczenie polityki rządu, jest opinia Sahlmana (1999). Jego zdaniem, świetna sytuacja w gospodarce amerykańskiej utrzyma się, jeśli tylko władze potrafią powstrzymać się od jakiejkolwiek interwencji. Za realne zagrożenie dla gospodarki uważa nie wysokie tempo wzrostu, ale sztuczne jego zahamowanie poprzez podniesienie stóp procentowych. Źródeł siły gospodarki amerykańskiej upatruje natomiast w następujących czynnikach: a) wysokim statusie, jakim cieszą się przedsiębiorcy szukający nowych rozwiązań, b) wysokim poziomie tolerancji wobec niepowodzeń, jakimi kończy się znaczna część przedsięwzięć, c) łatwym dostępie nowych przedsiębiorców do kapitału, d) przyciąganiu przez sektor przedsiębiorstw (a nie jak to dawniej było - przez sektor finansowy) najbardziej utalentowanych pracowników.
Przykładem diametralnie odmiennego stanowiska jest pogląd wyrażony przez Taylora (1998). Otóż dokonując przeglądu czynników, które mogłyby wyjaśnić utrzymywanie się w Stanach Zjednoczonych “długiego boomu” (wzrost znaczenia sektora usług, lepsze zarządzanie zapasami, korzystne szoki podażowe), autor ten dochodzi do wniosku, że ich znaczenie nie jest wystarczająco duże. Przechodząc następnie do roli, jaką odegrać mogła polityka makroekonomiczna stwierdza, że konieczne staje się też odrzucenie tezy o pozytywnym wpływie polityki fiskalnej. Uważa natomiast, że “długi boom” znajduje bardzo przekonujące wytłumaczenie w charakterze prowadzonej przez System Rezerwy Federalnej (SRF) polityce monetarnej. Kluczem do sukcesu okazuje się znacznie bardziej agresywne reagowanie SRF na wzrost presji inflacyjnej w okresie “długiego boomu” niż miało to miejsce w okresach poprzednich. Dzięki takiemu podejściu udało się utrzymać inflację na niższym i bardziej stabilnym poziomie.
Na zdecydowanie “wyższą jakość” polityki SRF w ostatnich kilkunastu latach wskazują wyniki prowadzonych przez Romer (1999) badań nad cyklem koniunkturalnym. Przeprowadzona przez tę autorkę analiza wskazuje, że zakres wahań cyklicznych po drugiej wojnie światowej nie uległ radykalnemu zmniejszeniu w porównaniu z okresem międzywojennym i okresem przed pierwszą wojną światową, aczkolwiek okresy ekspansji były dłuższe, a liczba poważnych recesji zmniejszyła się. Nastąpiła natomiast bardzo poważna zmiana przyczyn wywołujących wahania cykliczne. W okresie powojennym polityka makroekonomiczna oraz podjęte reformy gospodarcze wyeliminowały lub ograniczyły wiele szoków, które w przeszłości wywoływały recesje. Jednocześnie jednak pojawiły się recesje wywoływane przez politykę ukierunkowaną na ograniczenie inflacji. Jak zauważa autorka, “zastąpiliśmy przedwojenne cykle napędzane działaniami instynktownymi (animal spirits) i panikami finansowymi powojennymi cyklami napędzanymi przez politykę gospodarczą”.
Uzyskane przez Romer wyniki rodzą oczywiście pytanie, dlaczego w okresie powojennym inflacja stała się dużo poważniejszym problemem. Szukając odpowiedzi na to pytanie autorka formułuje pogląd, że podstawową rolę odegrały w tym względzie błędy popełnione przez polityków gospodarczych. Problemem nie był więc brak odpowiednich narzędzi, lecz niewłaściwy sposób ich wykorzystania. Jej zdaniem, ewolucji ulegał również charakter popełnianych błędów. W latach 60. i 70. błędy stały się ponadto bardziej systematyczne i rozmyślne.
Nietypowy przypadek
Znacznie bardziej stabilne zachowanie się wskaźników makroekonomicznych po roku 1985 Romer przypisuje przede wszystkim temu, że inflacja znalazła się pod znacznie ostrzejszą kontrolą. Polityka makroekonomiczna przestała generować okresy szybszej inflacji, w związku z czym niepotrzebne stało się wywoływanie recesji w celu jej poskromienia. Bardziej wyważona polityka sterowania popytem przyczyniła się więc w dużo większym stopniu do powstania “nowej gospodarki” niż zmiany strukturalne, globalizacja i rewolucja informatyczna. Otwartą sprawą pozostaje natomiast to, w jakim stopniu lepsza polityka była skutkiem rozwoju wiedzy ekonomicznej, a w jakim kwalifikacji poszczególnych polityków gospodarczych oraz coraz większej zgodności poglądów co do celów możliwych do osiągnięcia przez politykę ekonomiczną.
Należy zwrócić jednak uwagę, że z punktu widzenia zmian w przebiegu cyklu koniunkturalnego przypadek gospodarki amerykańskiej jest raczej nietypowy. Badania przeprowadzone przez Zarnovitza (1999) na próbie siedmiu dużych i siedmiu małych gospodarek wskazują, że recesje występowały częściej w drugiej niż w pierwszej części okresu powojennego. Brak jest też dowodów empirycznych na to, że decydenci potrafią antycypować recesje i podejmować skuteczne środki zapobiegawcze. Rezultatowi temu zaprzeczają z kolei badania Balla (1999). Wynika z nich, że wśród krajów G-7 podejście władz monetarnych wobec ryzyka wystąpienia recesji było zróżnicowane. Na początku lat 80. zaznaczyła się mianowicie wyraźna dychotomia między krajami Ameryki Płn. (Stany Zjednoczone i Kanada) a krajami europejskimi. W większości przypadków recesji USA i Kanada dokonały ostrych cięć nominalnych stóp procentowych, podczas gdy w krajach europejskich pozostały one na niezmienionym poziomie lub nieznacznie wzrosły. Zdaniem Balla, fakty te przeczą dominującemu, konwencjonalnemu poglądowi, że polityka SRF była w tym okresie jednostronnie ukierunkowana na walkę z inflacją. W rzeczywistości SRF zaostrzył co prawda politykę w okresie poprzedzającym recesję, ale poluzował ją, gdy tylko recesja się rozpoczęła, mimo że inflacja nie uległa jeszcze wyraźnemu obniżeniu. “Wyższa jakość” tak prowadzonej polityki polega według Balla na tym, że nie wywołuje ona kosztu w postaci trwale wyższego bezrobocia, który występuje przy pasywnym charakterze polityki w czasie recesji.
Autor jest profesorem w Akademii Ekonomicznej w Krakowie i INE PAN. Tekst, którego pierwszą część publikujemy, będzie wygłoszony na VII Kongresie Ekonomistów Polskich (25-26 stycznia w Warszawie).
por. Andrzej Wojtyna, „Gazeta Bankowa”, 29 styczeń 2001, Nowa ekonomia i nowe prawa
Jolanta Brzostek-Pawłowska, „PCkurier” 14/2002, Na pograniczu biznesu i informatyki - Informatyk - (re)inżynier firmy?
Jolanta Brzostek-Pawłowska, „PCkurier” 14/2002, Na pograniczu biznesu i informatyki - Informatyk - (re)inżynier firmy?
Jolanta Brzostek-Pawłowska, „PCkurier” 14/2002, Na pograniczu biznesu i informatyki - Informatyk - (re)inżynier firmy?
Jolanta Brzostek-Pawłowska, „PCkurier” 14/2002, Na pograniczu biznesu i informatyki - Informatyk - (re)inżynier firmy?
Nowa gospodarka
I.
gospodarka cyfrowa
II.
globalizacja
III.
innowacyjność
IV.
stabilny wzrost