Wdrażanie systemu zarządzania jakością według normy PN – EN ISO 9001:2000
1.Trudności przy projektowaniu i wprowadzaniu SZJ
Wpływ SZJ na funkcjonowanie organizacji jest niewątpliwy. Poza oczywistymi zależnościami, jak wzrost prestiżu organizacji na rynku i zwiększenie własnej konkurencyjności, często wymienia się:
- uzyskanie bardziej czytelnej struktury organizacyjnej, w tym zakresu kompetencji i odpowiedzialności;
- poprawę elastyczności działania;
- wzrost efektywności (ocenia się, że ekonomiczne rezultaty wprowadzania SZJ wyrażają się w 5 – 20 % wzroście sprzedaży lub zysku).
Podkreśla się jednocześnie, że nie ma uniwersalnej struktury SZJ pasującej do każdej organizacji. Nie można też powiedzieć, że dla danej organizacji istnieje tylko jedna struktura, która pozwala najlepiej spełniać wymagania jakościowe. System musi być elastyczny (w jak największym stopniu), w celu “poradzenia sobie” w efektywny sposób ze zmieniającymi się uwarunkowaniami wewnętrznymi i zewnętrznymi.
Sposób opracowania i wprowadzania systemu jest indywidualną sprawą każdej organizacji. Wprowadzony w organizacji SZJ musi odpowiadać jego wielkości, a także sprostać wymaganiom odnośnie do wyrobów i usług, które organizacja oferuje. Ważny jest również zakres, w jakim organizacja jest włączona w projektowanie swoich wyrobów lub usług (początek łańcucha jakości).
Nawet najlepiej zaprojektowany i wprowadzany SZJ jest bezwartościowy, jeśli personel nie stosuje się do zawartych w nich procedur, instrukcji, zaleceń, zasad itp. Ponadto, organizacja ma małą szansę pełnego wykorzystania zalet SZJ, jeśli jedyną przesłanką podjęcia działań w kierunku jego wprowadzania jest prestiż, płynący z samego faktu posiadania certyfikowanego SZJ. Innymi słowy, jeśli organizacja sądzi, że samo posiadanie certyfikatu potwierdzającego istnienie SZJ zgodnego z normą ISO gwarantuje jej sukces na rynku, zapewniając znaczne zwiększenie sprzedaży swoich wyrobów. Podejście takie oznacza, że organizacja nie traktuje poważnie stworzonego SZJ. Składa jedynie “gołosłowne” deklaracje o nowym podejściu do zarządzania jakością.
Główne, potencjalne przyczyny niepowodzeń, na jakie organizacja może natrafić przy projektowaniu i wprowadzaniu SZJ, to:
- brak jasno sprecyzowanych celów;
- brak poparcia kierownictwa;
- brak systemowego podejścia;
- zbyt optymistyczna ocena czasu i kosztów;
- niedocenianie barier psychologicznych pojawiających się przy wprowadzaniu zmian;
- niedocenianie roli kierownika przedsięwzięcia;
- nieprecyzyjne delegowanie zakresu obowiązków i odpowiedzialności oraz uprawnień i możliwości ich egzekwowania; brak motywowania zespołu;
- brak analizy różnych scenariuszy zdarzeń na etapie planowania;
- nieefektywny system informacyjny, w tym brak bieżącej kontroli samorealizacji;
- brak identyfikacji przyczyn odstępstw od planu (usuwanie jedynie skutków, a nie przyczyn).
Kierownictwo organizacji, jak wskazuje praktyka, nie zawsze zdają sobie sprawę ze znaczenia wymienionych czynników. Powoduje to często, że harmonogram realizacji całego przedsięwzięcia jest tworzony zbyt optymistycznie.
Z uwagi na dużą liczbę prowadzonych zadań i angażowanych zasobów, wzajemne uwarunkowania, a także ograniczenia terminów i kosztów realizacji, problemy planowania, harmonogramowania i kontroli złożonych przedsięwzięć są trudne do rozwiązania tradycyjnymi metodami. Dlatego, wprowadzanie SZJ w organizacji powinno być – w miarę możliwości i potrzeb – wspomagane komputerowymi systemami zarządzania przedsięwzięciami (ang. Projekt Managment). Dają one duże możliwości w zakresie opracowania elastycznych, wielowariantowych programów realizacji, uwzględniających różne wersje organizacji przedsięwzięcia i wielkości zasobów rzeczowych, kadrowych, czasowych i finansowych pozostających do dyspozycji. Pozwalają ponadto nie tylko na opracowanie optymalnego programu przedsięwzięcia, lecz także na monitorowanie procesu jego realizacji, w tym na bieżące, adaptacyjne reagowanie na wszelkie zakłócenia.
2. Zagrożenia i problemy występujące w procesie opracowania i wdrożenia systemu zarządzania [5]
Zagrożenia i problemy występujące w trakcie procesu wdrażania systemu, mają zazwyczaj swoje źródło w uwarunkowaniach istniejących w przedsiębiorstwie. Reasumując i uzupełniając, do podstawowych uwarunkowań, mogących utrudnić wdrożenie, należy zaliczyć:
1) motywacje, które spowodowały podjęcie decyzji o wdrożeniu – w przedsiębiorstwie, w którym podjęto decyzję dlatego, że “nie ma innego wyjścia lub taka jest moda” jest duże prawdopodobieństwo, iż system będzie opornie wdrażany lub nie zostanie wdrożony wcale;
2) brak funkcjonowania podstawowych zasad kultury organizacyjnej i systemu zarządzania – jest duże prawdopodobieństwo, że system będzie traktowany jako coś narzucanego i niepotrzebnego;
3) bardzo niska świadomość i kwalifikacje pracowników – mogą również wystąpić wyżej sygnalizowane problemy.
Również nieprawidłowo zorganizowany proces wdrażania może być przyczyną problemów i przedłużającego się jego trwania. Dlatego też istotne jest ustalenie podstawowych zasad i konsekwentne ich przestrzeganie. Jest to niezmiernie ważne w sytuacji gdy wdrożenie odbywa się “własnymi siłami pracowników” i bez współpracy doradców zewnętrznych. Do takich zasad można zaliczyć:
- Ustanowienie pełnomocnikiem ds. systemu jakości osobę cieszącą się autorytetem wśród pracowników, wyposażenie jej w niezbędne kompetencje i udzielenie znacznej pomocy, w takim zorganizowaniu pozostałych obowiązków, aby mogła poświęcić konieczną ilość czasu na zajęcie się systemem.
- Pełne zaangażowanie najwyższego kierownictwa, wyrażane poprzez rozmowy z pracownikami, aktywne uczestnictwo w spotkaniach poświęconych systemowi, ale w żadnym wypadku nie wyręczanie pracowników w wykonywaniu przydzielonych im w ramach wdrażania systemu zadań.
- Rzetelne opracowanie harmonogramu prac z wyznaczeniem osób odpowiedzialnych i określeniem terminów, konsekwentne rozliczanie postępu prac.
- Cykliczne prowadzenie szkoleń – warsztatów, pogłębiających wiedzę pracowników w zakresie norm oraz umożliwiających wymianę doświadczeń, wyjaśnienie wątpliwości i dających szansę na autentyczne włączenie pracowników w proces wdrażania.
3. Definicje i historia jakości, kompleksowe zarządzanie jakością.
Ostatnie lata odznaczają się gwałtownymi zmianami w przedsiębiorstwach spowodowanymi wprowadzaniem nowych rozwiązań technicznych, technologii informacyjnych i komunikacyjnych, a także globalizowaniem się rynków oraz ciągle zmieniającymi się preferencjami klientów. Jednym z kluczowych celów działalności przedsiębiorstwa jest zwiększenie jego konkurencyjności w ciągle zmieniającym się otoczeniu. Wymaga to jak najlepszej wydajności i efektywności pracy, podnoszenia stale poziomu jakości. Więc jak widać z jakością mamy do czynienia na co dzień, często nie zdając sobie z tego sprawy. Termin „Jakość” nabrał w ciągu ostatnich kilkudziesięciu lat nowego znaczenia i stał się kluczem do osiągnięcia przewagi konkurencyjnej czyli sukcesu. W ostatnim dziesięcioleciu jakość stała się przedmiotem współzawodnictwa w świecie przemysłu. Każda firma posiada obecnie określony program jakości. Stopniowo uświadomiono sobie, że myślenie jakościowe może służyć do głębszego i obszerniejszego wykorzystania zasobów i możliwości przedsiębiorstwa. Dlatego też jakość stanowi obecnie jedno z najważniejszych zagadnień w zarządzaniu. Właśnie tym zagadnieniem chciałabym się zająć w dalszej części mojej pracy.
Przez lata próbowano zdefiniować jakość, jednak nie było to łatwe. Rozwój przemysłu spowodował przewyższenie podaży przez popyt. Doprowadziło to producentów do poszukiwania nowych metod zdobywania klientów. Rzuciło to automatycznie nowe światło na jakość, która stała się swoistym narzędziem do osiągnięcia sukcesu ekonomicznego i rynkowego. Rozważania na temat jakości podejmowali już w swoich dziełach filozofowie i myśliciele ze starożytności. Jako jeden z pierwszych jakością zajął się chiński uczony Lao Tsu, który utrzymywał, że jakość jest to pojęcie względne. Jednocześnie uważał, że jakość to coś co można ciągle doskonalić. Następnie Arystoteles, który zaliczył jakość do pojęć metafizycznych, sądził że jest to pojęcie określające, dlaczego rzecz jest tą rzeczą, którą jest. Podejście to przetrwało do dziś, jest szczególnie widoczne w kulturze myślenie firm i ekspertów Zachodniej Europy, gdzie jakość jest definiowana jako całokształt właściwości i cech wyboru (lub usługi), który powoduje zdolność do zaspokojenia określonej potrzebny. Według Platona, twórcy idealizmu obiektywnego, świat rzeczywisty jest niedoskonałym odbiciem realnie istniejących doskonałych idei. W swoich rozważaniach prezentował subiektywne podejście do jakości. Uważał, że jakość może być rozumiana wyłącznie przez doświadczenie. Kolejny starożytny filozof Arystoteles uważał, że jakość należy do zbioru dziesięciu kategorii filozoficznych opisujących rzeczy i zjawiska. Arystoteles interpretował ją jako zespół swoistych cech odróżniających dany przedmiot od innych przedmiotów tego samego rodzaju. Współczesne miano pojęcia jakości przypisuje się Cyceronowi, który pierwszy użył łacińskiego wyrazu qualitas. Qualitas bowiem oznacza cechę, właściwość, przymiot i niemalże w dosłownym zapisie zostało przyjęte przez niektóre języki germańskie i romańskie. W XVII wieku filozofowie Kartezjusz i John Locke spojrzeli na jakość jeszcze szerzej, niż ich poprzednicy. Przyjęli koncepcję dualistycznego ujęcia jakości, w której rozróżnia się jakości pierwotne tkwiące obiektywnie w przedmiocie (np. ciężar, kształt) i jakości wtórne płynące ze zmysłów (np. kolor, zapach, smak). Rozwinięciem tych rozważań zajmował się również Immanuel Kant. Wprowadził on twierdzenie o subiektywnym charakterze poznania jakości jednocześnie uznając obiektywny charakter poznawanej rzeczywistości. E. Deming jakość wyboru utożsamia z użytecznością dla klienta. Przedmiotem zróżnicowania są klienci, a wysiłki firmy zmierzają w kierunku dostosowania charakterystyk technicznych produktów do specyfiki różnych grup klientów. Jakość jest więc wg niego argumentem strategicznym, podstawą konkurencji. Myślę, że kształtowanie się wszystkich filozofii na przełomie wieków miało niezwykle istotny wpływ na rozwijanie się definicji i terminu jakość, jednakże osobiście stoję za stwierdzeniem, że najistotniejszym punktem zwrotnym rozwoju jakości było umiędzynarodowienie gospodarki, a dokładnie ekspansja przedsiębiorstw japońskich. Stało się to po II wojnie światowej. Japonia, wyniszczona pod względem ekonomicznym po wojnie, musiała stanąć na nogi. Mieli jej w tym pomóc Amerykanie, którzy wybrali się tam jako doradcy, gdyż zobowiązali się pomóc Japończykom w zbudowaniu nowoczesnych zakładów przemysłowych i pokierowaniu ich działalnością. Wówczas to W.E. Deming oraz J. Juran po raz pierwszy, wraz z inżynierami japońskimi, wdrożyli system, który później nazwano zarządzaniem przez jakość (TQM - Total Quality Management). W kolejnych latach, w efekcie rosnącego znaczenia jakości, niektóre kraje (Kanada, USA oraz Wielka Brytania) rozpoczęły opracowywanie pierwszych norm zapewnienia jakości, które stały się podstawą dla stworzenia międzynarodowego standardu, znanego jako ISO seria 9000. Jak widać więc źródłem osiągnięć przedsiębiorstw japońskich jest „umiejętność właściwego kojarzenia nowoczesności konstrukcji z wysoką jakością, niezawodnością i konkurencyjnie niską ceną. Osiągnięcie tych celów, uznawanych do niedawna za sprzeczne, stało się możliwe dzięki przyjęciu nowej koncepcji zarządzania”. Od tej pory przemysł japoński, a dokładniej jego nowa teoria uznaje jakość produktów i usług za element, dzięki któremu przedsiębiorstwo może osiągnąć znaczną konkurencyjność na rynku. Już w 1951 roku, nastąpił rozwój pojęcia jakość. Rozpowszechniona została przez japońską sieć Feigenbaum, która wprowadziła na rynek Kurs zarządzania jakością TQC ( Total Quality Control). Dziesięć lat później utworzono koła jakości w Japonii- Ishikawa H. Następnie rok 1970 to dla Japonii wprowadzenie polityki kompleksowego zarządzania jakością ( TQC). W latach 1971- 1975 pojawiły się normy jakościowe brytyjskie, kanadyjskie oraz australijskie. W 1979 roku ustanowiono w Wielkiej Brytanii fundamentalną normę jakościową BS5750, która była bazą opracowania przez ISO międzynarodowych norm jakościowych 9000. W 1985 roku wydano normy ISO serii 9000. W Polsce w dobie rozwoju gospodarki, do końca lat osiemdziesiątych podejście do spraw jakości było zwężone. Jakość rozumiano, jako spełnienie przez wyrób norm technicznych w ostatnim etapie produkcji. Przejście do gospodarki rynkowej zmusiło producentów do zmiany spojrzenia na jakość oraz dostosowanie do norm jakościowych powszechnie przyjętych w Europie. Poczynając od upowszechnienia kontroli jakości technicznej w przedsiębiorstwach produkcyjnych, w XX wieku nastąpił intensywny rozwój form organizacyjnych, metod i zakresu zarządzania jakością. Szczególnie ostatnie dziesiątki lat obfitowały w coraz to nowsze koncepcje w tym zakresie. Trudno jest datować poszczególne fazy rozwoju zarządzania jakością, gdyż przebiegały one różnie w poszczególnych państwach, regionach, gałęziach gospodarki, przedsiębiorstwach oraz w teorii i praktyce.
W następnej części mojej pracy zajmę się definicją i współczesnym podejściem do jakości. Analizując występującą w obszernej literaturze definicji jakości pozwala na dokonanie bardzo szczegółowej klasyfikacji sposobów charakteryzowania pojęcia jakości. Definicja ogólna mówi, że jest to doskonałość produktu zwana wysoką jakością jako przeciwieństwo niskiej jakości. Jakość jest z jednej strony osiągnięciem przez produkt wyższych standardów, z drugiej zaś jest to istota zadowolenia klienta. Z przedstawionej definicji wynika, że jakość jest synonimem „wrodzonej” doskonałości produktu. Definicja wskazuje, że jakość nie może być precyzyjnie określona, ponieważ jest cechą nie poddającą się analizie, którą klienci nauczyli się rozpoznawać jedynie przez doświadczenie. Druga definicja, produktowa- jakość odnosi się do sumy ocenionych atrybutów produktu. Definicja ta określa jakość jako mierzalną i dokładną zmienną. Różnice w jakości produktu wynikają z różnic w liczbie składników lub ich cechach zawartych w produkcie. To podejście pozwala na określenie hierarchii wymagań jakościowych danego produktu. Definicja produktowa jako pierwsza pojawiła w literaturze ekonomicznej. Następną definicją opisującą jakość jest tak zwana definicja użytkowa, określająca jakość jako zdolność użytkową. Jest ona oparta na przekonaniu, że potrzeby indywidualnego nabywcy mogą być zaspokojone przez produkty, które w sposób najbardziej kompleksowy odpowiadają preferencjom klienta. W prezentowanym podejściu można zauważyć i zwrócić uwagę na dwa zasadnicze problemy. Po pierwsze, jak rozróżnić atrybuty produktu i ich wagi, które nie są jakościowe, od tych, które maksymalizują zadowolenie klienta. Po drugie, jak na poziomie rynku rozpoznawać różne indywidualne preferencje klientów, które wpływają na definiowanie przez nich jakości. Podstawowym problemem jest więc równość między jakością produktu a satysfakcją klienta. Kolejnym pojęciem próbującym określić znaczenie słowa jakość jest definicja produkcyjna, której przedstawiciele twierdzą, że jakoś jest dostosowaniem się do wymagań. Definicja ta wskazuje na to, że jakość produktu jest podstawą preferencji klientów oraz wyznacznikiem ich oczekiwań. Definicja wartościowa, mówi, że jakość jest to stopień doskonałości produktu jako akceptowana cena i kontrola zmienności akceptowanego kosztu. Jakość jest więc tym, co powoduje zmiany w wymaganiach klienta, przy akceptowanym poziomie ceny lub koszcie nabycia czy użytkowania produktu. Oznacza to, że produkt, bez względu na to jak dobrze jest wykonany, nie posiada jakości dopóki nie znajdzie swoich nabywców, skłonnych zapłacić lub ponieść koszt użytkowania produktu. Następna definicja normatywna- jakość jest to ogół cech i właściwości wyrobu lub usługi decydujący o zdolności wyrobu lub usługi do zaspokojenia stwierdzonych lub przewidywanych potrzeb. Definicja ta ma charakter uniwersalny, łączy bowiem w sobie różne sposoby rozpatrywania pojęcia jakości jako parametr wyboru i wyboru produktu przez klienta. Mówiąc o definicjach jakości nie sposób nie wspomnieć o pojęciu jakości totalnej(w znaczeniu kompleksowej). A więc jakość kompleksowa oznacza pełne i ciągłe zaspokajanie potrzeb odbiorcy na komercyjnym rynku przez uzyskiwanie najlepszej pozycji u klienta, który za określoną cenę otrzymuje dla siebie z zakupionego towaru najwyższą wartość. Uzyskane to jest najniższym kosztem dzięki najlepszemu wyzwoleniu potencjalnych możliwości producenta. W roku 2000-cznym Międzynarodowa Organizacja Normalizacyjna (ISO) zmieniła i ujednoliciła termin jakości. W wersji rozszerzonej brzmi ona następująco: Jakość to stopień, w jakim zestaw naturalnych właściwości (fizycznych, czasowych, ergonomicznych, funkcjonalnych i innych) produktu spełnia potrzeby lub oczekiwania, które zostały ustalone, przyjęte zwyczajowo lub są obowiązkowe. Tak więc podsumowując termin jakość, możemy śmiało stwierdzić, że jest to ogół cech produktu lub usługi, które są decydujące dla zaspokojenia potrzeb potencjalnego klienta. Bardzo ważne jest aby określając jakość produktu, wziąć pod uwagę takie czynniki jak: cechy funkcjonalne danego produktu, cechy uzupełniające cechy podstawowe, stopień niezawodności (czyli prawdopodobieństwo bezusterkowego funkcjonowania przez jakiś czas), a także jego trwałość, estetykę (tzn. wygląd, smak, zapach), jak również jakość postrzeganą przez klienta. Omówiona przeze mnie klasyfikacja maiła na celu przybliżenie grup różnych klasyfikacji pojęcia jakości, a w związku z tym różne rozumienie tego pojęcia.
Kompleksowe Zarządzanie Jakością (Total Quality Management) jest kluczowym pojęciem w organizacji oznaczającym proces, którego celem rynkowym jest (w ujęciu strategicznym) jest wzrost konkurencyjności i rentowności firmy. Kompleksowe Zarządzanie Jakością rozpatrywać więc można jako koncepcję zarządzania firmą, która dzięki zaangażowaniu wszystkich pracowników w proces poprawy jakości wyrobu (usługi) oraz swojej działalności, a także dzięki właściwemu ustaleniu celów organizacji dąży do zaspokojenia potrzeb i oczekiwań klienta. Jest to jeden z modeli zarządzania jakością, który zakłada, że jakość produktu zależy od wszystkich procesów występujących w przedsiębiorstwie. TQM obejmuje wszystkie obszary przedsiębiorstwa, wszystkie działania oraz uwzględnia wszystkie powiązania między nimi. W wymiarze handlowym zasadniczym efektem Kompleksowego Zarządzania Jakością jest umocnienie i rozwój pozycji rynkowej firmy, czyli wysoki image firmy. Podstawą TQM jest skoncentrowanie się na potrzebach klienta i traktowaniu ich jak najważniejszego elementu Kompleksowego Zarządzania Jakością, wprowadzeniu kultury organizacyjnej opartej na wartościach i wizji zaproponowanych przez kierownictwo przedsiębiorstwa, a także na szkoleniu pracowników jako narzędzi, które umożliwią identyfikację problemów jakości i ich rozwiązywania. Wg J. S. Oaklanda koncepcja TQM jest oparta na kilku prostych założeniach, otóż każdy w przedsiębiorstwie ma swoich klientów ( zewnętrznych lub wewnętrznych), których powinien zarazem znać, a przedsiębiorstwo powinno określać formę organizacyjną i wszystko to, co pozwoli spełniać oczekiwania wszystkich klientów. Jak widać, metoda ta polega na podnoszeniu poziomu jakości produktów, dzięki szkoleniom pracowników i motywowaniu ich do tego, aby realizowali swe zadania „od razu dobrze”. Total Quality Management powstało pod koniec lat siedemdziesiątych w Japonii i zostało rozwinięte w USA w połowie lat osiemdziesiątych. Jest to filozofia wprowadzona na szeroką skalę w Japonii, USA jak i w Europie Zachodniej. Ideę TQM wyrażają zasady zaproponowane przez Williama E. Deminga, który był autorytetem w dziedzinie zarządzania jakością. Stanowią one zbiór prostych dyrektyw: doskonal nieustannie wyroby, aby możliwie najlepiej zaspokoić potrzeby klientów; umacniaj przekonanie o potrzebie stosowania zintegrowanego systemu zarządzania jakością: w przedsiębiorstwie nie mogą być akceptowane ani materiały o nieodpowiedniej jakości, ani wadliwe produkty, ani niedbałe świadczenia usług; ograniczaj inspekcyjną kontrolę jakości: celem kontroli nie jest tylko wykrywanie braków, lecz także doskonalenie procesów produkcyjnych i zmniejszanie kosztów; opieraj się na zaufaniu do jednego dostawcy, a nie kieruj się w ich wyborze jedynie korzystną ceną; stale usprawniaj każdy proces wpływający na jakość; rozpocznij kształcenie w TQM; wprowadź w życie nowoczesne metody nadzoru; dąż do całkowitej eliminacji uczucia strachu, ale staraj się przy tym sprawić, by pracownicy mieli odwagę przyznać się do popełnienia błędu; dąż do zniesienia podziałów pomiędzy poszczególnymi jednostkami organizacyjnymi; nie używaj sloganów i nie inicjuj tzw. prac społecznych; eliminuj system dniówkowy; zwalczaj przyczyny, które powodują u pracowników zmniejszenie poczucia godności i dumy zawodowej, a także zrezygnuj z rocznych przeglądów kadrowych; energicznie zmieniaj dotychczasowy system zarządzania jakością, zaufaj TQM; od razu przystąp do działania (przygotowywania koncepcji, zaprojektowania i wdrożenia TQM). W koncepcji TQM oprócz zasad Deminga przywołuje się także inne reguły określające stosunek przedsiębiorstwa i jego pracowników do problemów jakości. Używa się m.in. zasadę ciągłego doskonalenia procesów (kaizen), a także zasadę „zero błędów”. Pierwsza, zasada ciągłego doskonalenia procesów, polega na tym, że każdy proces wykazuje dwojakiego rodzaju odchylenia od wymaganego stanu. Naturalne, nieodłączne związane z procesem i trudne do wyeliminowania bez wprowadzenia w nim zasadniczych zmian, oraz specjalne, pojawiające się okresowo lub sporadycznie, łatwo zauważalne i możliwe do usunięcia za pomocą rutynowych działań. Aby ograniczyć odchylenia, a następnie je usunąć , należy najpierw usunąć odchylenia specjalne, a po ich wyeliminowaniu lub przynajmniej opracowaniu skutecznej metody ich ograniczenia uzyskuje się kontrolę nad procesem. Dopiero później należy przystąpić do ograniczenia odchyleń naturalnych, a w konsekwencji do trwałej poprawy jakości. Natomiast druga zasada oznacza produkcję bezusterkową. Dla osiągnięcia tego celu konieczne jest: dokonanie pomiaru i przedstawienie wyników w postaci pozwalającej na obiektywną ocenę i podejmowanie działań korekcyjnych, zachęcanie pracowników do pracy w małych grupach i do wyznaczania w ich ramach indywidualnych lub grupowych celów zawiązanych z poprawą jakości, stworzenie systemu komunikacji pozwalającego pracownikom na łatwe porozumiewanie się między sobą i z przełożonymi. Jednocześnie warto zwrócić uwagę na fakt, że osiągnięcie wymiaru jakości kompleksowej w przedsiębiorstwie wymaga zastosowania różnych narzędzi, metod, technik menadżerskich czy statystycznych. W ujęciu normatywnym narzędzia i techniki doskonalenia jakości zostały podzielone na zasadnicze dwie grupy: dla danych nie liczbowych i dla danych liczbowych. Do najbardziej rozpowszechnionych narzędzi i technik dla danych nie liczbowych zaliczamy: 1) „burzę mózgów” stymulującą twórcze myślenie i zaangażowanie wszystkich uczestników i wyjaśnianiu problemów, 2) wielokrotne głosowanie (tzw. multivolting)- technikę redukcji z listy propozycji (problemów) kwestii najmniej istotnych, aby wyłonić problemy (zagadnienia), które należy poddać analizie, 3) wykres przyczynowo- skutkowy (Ishikawy)- technika określania problemu i definiowania jego głównych przyczyn oraz segmentów: Metod, Materiałów, Uczestników, Maszyn. 4)wykres drzewa- służący pokazaniu zależności pomiędzy kwestią, a jej elementami składowymi. Natomiast najczęściej stosowanymi technikami i metodami dla innych danych liczbowych są: 1) karta i wykres Pareto – rodzaj analizy opartej na zasadzie „20/80”. służącej zestawieniu danych liczbowych w celu wskazania kolejności sprawczych, 2) karty kontrolne- służące do diagnozy stabilności procesów oraz kontroli przebiegu procesów, 3) histogramy- służące ilustracji zmienności danych, 4) wykres rozrzutu- wykorzystywany do wykrywania związków pomiędzy badanymi cechami. W praktyce jednak najczęściej wykorzystywana jest kombinacja wymienionych narzędzi, dostosowana do specyfiki badanego obszaru czy problemu. Bez wątpienia wzmocnieniem współczesnych narzędzi poprawy jakości stanowią koncepcje : „reengineering” (przeprojektowanie) oraz „benchmarking” (dobre wzorce), których znaczenie w kierowaniu wzrostu rentowności firm nabiera coraz większej rangi. Generalnym założeniem koncepcji przeprojektowania organizacyjnego jest konieczność organizowania pracy wokół procesów i ich wyników. Uwarunkowanie to jest potrzebą elastycznego dostosywania się organizacji do zmiennych warunków otoczenia, w tym wymagań klienta. Zorientowana jest więc na poprawę w specyficznych obszarach, gdzie wprowadzenie zasadniczych zmian jest konieczne, by uzyskać zadowolenie klienta wewnętrznego i zewnętrznego, a przez to przyczynić się do rozwoju, usprawnienia procesów i poprawy ich efektywności. Koncepcja „benchmarking’u” polega na wyborze rynkowego alter ego, czyli porównywania własnej organizacji z wybranym wzorcem, np. liderem w branży. Jest to innymi słowy proces uczenia się od innych i dostosywania poznanego podejścia do warunków pracy. Myślę, że metoda porównywania się z najlepszymi stanowi jedno z bardziej wartościowych narzędzi Kompleksowego Zarządzania Jakością.
TQM to wdrożenie kultury powszechnej jakości, to również proces zarządzania prowadzony przez naczelne kierownictwo przy zaangażowaniu całej załogi i realizowany we wszystkich funkcjach przedsiębiorstwa oraz fazach i procesach tworzenia wyrobu lub usługi. TQM jest więc specyficznym ujęciem kultury organizacyjnej przedsiębiorstwa, stawiającym na podmiotowość zatrudnionych tam ludzi i mającym na celu ustanowienie jakości jako centralnego elementu w hierarchii ważności każdego pracownika. Dlatego też wymaga podporządkowania istniejącej kultury organizacyjnej kulturze współdziałania i wymusza uelastycznienie struktury oraz zbudowanie powiązań biegnących na wskroś, w poprzek działów, ponad podziałami.
Śmiało mogę stwierdzić, że możemy oczekiwać, iż pojęcie jakości w XXI wieku zostanie rozszerzone i uogólnione. Dla jej zdefiniowania coraz większe znaczenie będą miały preferencje i oczekiwania niewyrażone, co zaakcentuje rolę procesów komunikacji między wykonawcą a jego klientem. W przedsiębiorstwie jakość kojarzona będzie raczej z jej funkcją aniżeli z konkretną operacją, co oznaczałoby globalizację podejścia do jakości. Podsumowując przedstawione przez mnie rozważania posłużę się wypowiedzią P.B. Crosby’ego, który stwierdził: „Problemem jakości nie jest to, czego o niej nie wiemy. Problemem jest to, co myślimy o tym, czym ona jest””.
4. Wybrane techniki zarządzania przez jakość
Spis Treści
1. Wprowadzenie.
2. Historia jakości.
3. Standard zarządzania jakością ISO 9000.
3.1. Historia powstania.
3.2. Struktura standardu ISO serii 9000.
4. Wybrane techniki zarządzania przez jakość.
4.1. Just In Time (JIT).
4.1.1. System KANBAN.
4.1.2. Wprowadzanie programu JIT.
5. Benchmarking.
6. Metoda Taguchi.
7. Zakończenie.
8. Bibliografia.
1. Wprowadzenie.
Zarządzanie jakością jest jednym z ważniejszych zagadnień, którym zajmują się obecnie teoretycy i praktycy zarządzania. Gdy mówimy zarządzanie, to mamy na myśli planowanie, organizowanie, motywowanie i kontrola. Zarządzanie jakością jest zatem planowaniem, organizowaniem, motywowaniem i kontrolą wszystkich działań dotyczących jakości.
Jakość produktów i usług, jako ważny element międzynarodowej konkurencji coraz częściej decyduje o sukcesie firmy. W reklamie jakość własnego produktu przedstawiana jest obok jego funkcjonalności i ceny jako zasadnicze kryterium. Klienci dziś są gotowi zapłacić wyższą kwotę za wyrób jeżeli jego jakość jest wyższa. Wraz z jakością w parze idzie lepsza obsługa klientów, większy zakres usług gwarancyjnych oraz lepszy serwis naprawczy. To są cechy jakie powinno mieć przedsiębiorstwo XXI wieku chcące być najlepszą jednostką na rynku.
Zarządzanie przez jakość, stanowi pewien rodzaj kultury organizacji – wysuwając na pierwszy plan kwestię jakości i dążenie do osiągania perspektywicznego sukcesu przez maxymalne satysfakcjonowanie klienta, stanowi filozofię firmy a nie technikę działania . Celem niniejszej pracy jest prezentacja wybranych technik i metod zarządzania przez jakość będącego jednym z kluczowych elementów przewagi konkurencyjnej na dzisiejszym rynku. Do głównych technik stosowanych w zarządzaniu jakością są : Just In Time (JIT), benchmarking, statystyczna kontrola procesu, Failure Mode and Effects Analysis (FMEA), metodę Taguchi, Quality Function Deployment (QFD), systemy zapewnienia jakości.
2. Historia jakości.
Termin „Jakość” nabrał w ciągu ostatnich kilkudziesięciu lat nowego znaczenia i stał się kluczem do osiągnięcia przewagi konkurencyjnej czyli sukcesu. W swoim czasie słowo zgodności definiowało się jako „zgodność z warunkami technicznymi” dopóki nie zauważono, że warunki techniczne nie zawsze dokładnie i wyraźnie oddają potrzeby poszczególnego klienta oraz, że nawet mimo zgodności pewnych wyrobów lub usług z warunkami technicznymi, nie udaję się im osiągnąć zadowolenia klientów. W związku z tym roboczą nazwę jakości, w świetle tych możliwych nieporozumień, zamieniono na „sprostanie oczekiwaniom klienta”.
3. Standard zarządzania jakością ISO 9000.
ISO 9000 jest uniwersalną serią standardów stosowanych powszechnie w planowaniu, produkcji, sprzedaży i serwisu produktu lub usługi. Unikatowość ISO 9000 polega na możliwości zastosowania standardu w prawie wszy¬stkich typach organizacji bez konieczności dokonywania zmian lub modyfi¬kacji. Właściwe jego wprowadzenie wymaga postrzegania ISO 9000 przez zespół odpowiedzialny za jego funkcjonowanie jako całościowego standar¬du odnoszącego się do projektowania, produkcji, sprzedaży i serwisowania. Rozwinięty system musi konsekwentnie koncentrować się na celu, którym powinno być prawidłowe funkcjonowanie organizacji. Tak więc ISO 9000 jest niczym innym jak zespołem kontrolnych wyznaczników, zapewniających prowadzenie biznesu na światowym poziomie. Pomimo swej powszechności ISO 9000 jest często źle pojmowany i mylnie traktowany jako system kontro¬li jakości. Spotyka się także zupełnie bezpodstawne utożsamianie ISO 9000 i TQM. Stąd warto bliżej przedstawić standardy ISO 9000 oraz określić rela¬cje pomiędzy TQM a ISO 9000 .
3.1. Historia powstania.
Spośród wielu definicji jakości wg. mnie najbardziej trafna jest : „jakość to dostarczanie towarów które nie wracają, do klientów, którzy wracają”. Każda organizacja ma system jakości, gdyż w każdej istnieje struktura organizacyjna, są zasoby, realizuje się procesy i stosuje procedury. Nie każdy jednak system będzie spełniał zadania przed nim postawione. Przedsiębiorstwo dąży do zmniejszenia kosztów oraz do zwiększenia udziału w rynku aby stymulować w ten sposób swój zysk. Koszty produkcji można ograniczać w różny sposób ale jednym z niezwykle istotnych elementów są koszty związane z wadliwie wytworzonymi wyrobami. Za dobry system uważa się taki, który zapobiega powstawaniu tego typu wyrobów i automatycznie związanych z nimi kosztów. Zwiększenie udziału w rynku jest możliwe jedynie wtedy gdy określone są i spełnione bardzo precyzyjnie wymagania swoich odbiorców, gdy się stworzy odpowiedni stopień zaufania co do tego, że wyrób lub usługa spełnią określone wymagania jakościowe (ISO 8402).
Nie każdy więc system jakości zasługuje w pełni na tę nazwę. Przyjmuje się dzisiaj powszechnie, że zasługuje na nią wtedy, gdy spełnia wymagania określone w serii norm znanych pod nazwą norm ISO z serii 9000.
Normy te nie są pierwszym systemowym podejściem do jakości. Podejście takie wprowadził Departament Obrony USA w 1959 roku w postaci normy MIL-Q-9858 - Wymagania Programu Jakości. Były to wymagania programu ja¬kości, znowelizowane w 1963 roku jako norma NATO -AQAP, obligujące dostaw¬ców armii, lotnictwa i marynarki do spełnienia określonych wymagań jako¬ściowych we wszystkich fazach powstawania wyrobu. Tablica 1 przedstawia liste kilku najważniejszych norm, które dały podstawy do ustalenia normy ISO 9000.
Tablica 1. Najważniejsze normy powstałe w latach 1963 – 1985.
ROK Norma Źródło pochodzenia
1963 MIL-Q-9858A Departament Obrony USA
1969 AQAP NATO
1971 ASME Boiler Code Amerykański Związek Przemysłu Maszynowego
1971 ANSI-N45-2 Energetyka Jądrowa
1973 Destan 05 Wielka Brytania
1973 API 14A Amerykański Instytut Ropy Naftowej
1975 CSA Z299 Kanada – norma państwowa
1975 AS 1821 / 22 / 23 Australia – norma państwowa
1978 A code of Practice 50-C-QA Międzynarodowa Agencja Energii Atomowej
1979 BS 5750 Wielka Brytania – norma państwowa
1985 API Q1 Amerykański Instytut Ropy Naftowej
Źródło: R.Kraszewski, „ Total Quality Managment „ Toruń 1999r, s.160
Do rządowych agend zapewnienia jakości należała ocena, czy program został wdrożony, czy jest efektywny i czy realizowane są wszystkie ustalone cele. Wkrótce do wdrażania ta¬kich programów zobowiązano również poddostawców przemysłu wojskowego, między innymi przedstawicieli przemysłu metalurgicznego, elektrotechnicznego. W ten sposób stopniowo dołączały inne firmy, nie związane bezpośrednio z wojskiem. Na przykład w energetyce jądrowej zgodnie z normą wydaną przez Międzynarodową Agencję Energii Atomowej (A Code of Practice 50-C-QA) obowiązywało ścisłe przestrzeganie 13 kryteriów jakości i bezpieczeństwa sto¬sowanych urządzeń w celu zachowania bezpieczeństwa elektrowni atomowych.
Brak wspólnych standardów na globalizujących się rynkach powodował wiele problemów i zakłóceń w funkcjonowa¬niu organizacji. W wyniku zachodzących zmian, pod koniec lat siedemdzie¬siątych, ujawniła się potrzeba stworzenia spójnego systemu norm jakości w skali międzynarodowej. W 1979 roku powołany został Komitet Techniczny ISO/TC 176. Wynikiem prac powstałej organizacji było ustanowienie w 1986 roku normy ISO 8402, a następnie, w roku 1987, serii norm ISO 9000 doty¬czących systemów zapewnienia jakości. Od tego czasu ISO 9000 stało się naj¬bardziej znaną i powszechnie akceptowaną serią standardów na świecie. Wiele państw przeniosło wytyczne ISO 9000 na własne standardy, wynikiem czego było powstanie narodowych odpowiedników serii norm. Tablica 2 przedsta¬wia wybrane narodowe odpowiedniki norm serii ISO 9000.
Tablica 2. Wybrane narodowe odpowiedniki norm ISO 9007, ISO 9002, ISO 9003.
Państwo ISO 9001 - projektowanie, produkcja, testowanie ISO 9002 - produkcja, testowanie ISO 9003 - testowanie
Wielka Brytania BS 5750: Part 1 BS 5750: Part 2 BS 5750: Part 3
Australia AS 3901 AS 3902 AS 3903
Kanada CSAZ 299. 1-85 CSAZ 299.2-85 CSAZ 299.4-85
Indie IS 10201: Part 4 IS 10201: Part 5 IS 10201: Part 6
Irlandia IS 300: Part 1 IS 300: Part 2 IS 300: Part 3
Singapur IS 308: Part 1 IS 308: Part 2 l S 308: Part 3
EC EN 29001 EN 29002 EN 29003
USA ANSI/ASGC Q91 ANSI/ASOC Q92 ANSI/ASOC Q93
Źródło: R.Kraszewski, „ Total Quality Managment „ Toruń 1999r, s.161
3.2. Struktura standardu ISO serii 9000.
W obecnym kształcie zawartość podstawowych norm należących do serii ISO 9000 przedstawia się następująco:
ISO 8402 - Zarządzanie jakością i zapewnienie jakości. Terminologia.
ISO 9000-1 - Norma dotycząca zarządzania jakościąi zapewnienia jakości. Wytyczne wyboru i stosowania.
ISO 9000-2 - Norma dotycząca zarządzania jakościąi zapewnienia jakości. Ogólne wytyczne stosowania norm ISO 9001, 9002 i 9003.
ISO 9000-3 - Norma dotycząca zarządzania jakością i zapewnienia ja¬kości. Wytyczne do stosowania normy podczas opracowywa¬nia, dostarczania i obsługiwania oprogramowania.
ISO 9001 - Systemy jakości. Model zapewnienia jakości w projektowaniu, pracach rozwojowych, produkcji, instalowaniu i serwisie.
ISO 9002 - Systemy jakości. Model zapewnienia jakości w produkcji, instalowaniu i serwisie.
ISO 9003 - Systemy jakości. Model zapewnienia jakości w kontrolach i badaniach końcowych.
ISO 9004-1 - Zarządzanie jakością i elementy systemu jakości. Wytyczne.
ISO 9004-2 - Zarządzanie jakością i elementy systemu jakości. Wytyczne dotyczące usług.
ISO 9004-3 - Zarządzanie jakością i elementy systemu jakości. Wytyczne dotyczące materiałów wytwarzanych w procesach ciągłych.
ISO 9004-4 - Zarządzanie jakością i elementy systemu jakości. Wytyczne dotyczące doskonalenia jakości.
Norma ISO 8402 wyjaśnia wiele pojęć między innymi : jakość, system jakości, klasę jakości, politykę jakości, zarządzanie jakością, zapewnienie jakości, sterowanie jakością, przegląd systemu, kontrolę jakości, odpowiedzialność za wyrób, niezgodność, wadę. Terminy zdefiniowane w tej normie są stosowane w kolejnych normach tej serii, dotyczących systemów jakości.
Normy z grupy ISO 9000 objaśniają różnice i wzajemne zależności pomię¬dzy podstawowymi pojęciami dotyczącymi zapewnienia jakości, jak również podają wytyczne doboru i korzystania z zespołu norm międzynarodowych do¬tyczących systemów jakości, które można stosować do celów wewnętrznego (ISO 9004) i zewnętrznego zapewnienia jakości (ISO 9001, ISO 9002 i ISO 9003).
Norma ISO 9001 opisuje model zapewnienia jakości stosowany w przypad¬ku, gdy zachodzi konieczność udokumentowania zdolności zapewnienia jakości przez jednostkę gospodarczą w zakresie projektowania (konstruowania), produ¬kcji, instalowania i serwisu, zgodnie z umową między zamawiającym a dostawcą. Celem tego modelu jest zapobieganie występowania wad na wszystkich etapach „życia wyrobu", tj. od fazy projektowania aż do jego likwidacji. Jest to model od¬powiedni dla organizacji opracowujących konstrukcję wyrobów produkowanych przez siebie i samodzielnie zapewniających serwis.
Norma ISO 9002 opisuje model zapewnienia jakości stosowany w przypad¬ku, gdy zachodzi konieczność udokumentowania zdolności zapewnienia jakości przez jednostkę gospodarczą w zakresie produkcji, instalowania i serwisu, zgodnie z wymaganiami jakościowymi dotyczącymi wyrobu, ustalonymi w dokumentacji technicznej z zamawiającym. Jest to więc model odpowiedni dla organizacji pro¬dukujących wyroby albo usługi nie w oparciu o własną dokumentację, lecz licen¬cyjną lub dostarczoną przez odbiorcę.
Norma ISO 9003 opisuje model zapewnienia jakości stosowany w przypadku, gdy zachodzi konieczność udokumentowania zdolności zapewnienia jakości przez jednostkę gospodarczą w zakresie kontroli i badań ostatecznych. Jest to więc model właściwy dla firm pośredniczących, na przykład hurtowni, gdzie kontrola ostateczna jest realizowana tak, że ma się gwarancję spełnienia ustalonych wymagań.
Normy z grupy ISO 9004 określają każdy z elementów, dzięki którym moż¬na zaprojektować i wprowadzić do realizacji system jakości. Wybór tych elemen¬tów oraz zakres, w jakim zostaną przez jednostkę gospodarczą przyjęte i zastoso¬wane w praktyce, zależy w szczególności od stopnia zaopatrzenia rynku, rodzaju wyrobu i usługi oraz wymagań użytkowników.
Normy ISO 9000 są dokumentami do użytku wewnętrznego danej organizacji i obejmują elementy zalecane do obję¬cia systemami jakości.
Jak widać z podanego opisu, system jakości zgodny z normą ISO 9001 jest systemem najszerszym. Wymagania normy odnoszą się do 20 elementów, bu¬dujących system. Tabela nr l wyszczególnia te elementy, numerując je zgodnie z normą, co ułatwia porównanie tekstu z tekstem normy. Jednocześnie tabela poda¬je, które elementy nie wchodzą w skład systemów opisanych normami ISO 9002 i ISO 9003 lub wchodzą w ograniczonym stopniu .
4. Wybrane techniki zarządzania przez jakość.
Zarządzanie przez jakość stanowi pewien rodzaj kultury organizacji uświadamiając jej członkom proces ciągłego doskonalenia i dążenia do ideału co jak wiemy jest procesem dążącym do nieskończoności. Proces ten wymaga nie tylko bezwzględnego zaangażowania się pracowników ale również wykorzystywania odpowiednich narzędzi i technik pozwalających na wprowadzenie tej polityki w życie. Istniej liczne grono tychże technik do którego należą m.in.:
― Just In Time,
― Benchmarking,
― Statystyczna kontrola procesu,
― Failure Mode and Effects Analysis,
― Metoda Taguchi,
― Quality Function Deployment,
― Systemy zapewnienia jakości.
Każda z tych technik ma na celu poprawę funkcjonowania firmy na rynku poprzez zarządzanie jakością czyli totalnym uszczegółowieniem wszelkich działań oraz ich kontrolą.
Na potrzeby tejże pracy zostały opracowane trzy techniki Just In Time, Benchmarking oraz Metoda Taguchi, jednak z punktu widzenia działalności operacyjnej przedsiębiorstwa uznane przeze mnie za najważniejsze.
4.1. Just In Time (JIT).
Celem stosowania metody Just In Time jest jak sama nazwa wskazuje, która wywodzi się z języka angielskiego i oznacza w wolnym tłumaczeniu „ściśle na czas” pozwala na terminową realizację dostaw w taki sposób aby nie zdestabilizować procesów wytwórczych toczących się w przedsiębiorstwie. Zakres stosowania tej metody oraz dobór narzędzi wynika ze specyfiki struktury organizacyjnej, systemu i zakresu produkcji, rodzaju świadczonych usług itd.
Do głównych zadań tej metody należy poprawa efektywności produkcji oraz oddziaływanie na kształtowanie się kosztów. Istotą Just In Time jest realizacja dostaw dokładnie w momencie kiedy istnieje na nie zapotrzebowanie co przyczynia się do niewątpliwej redukcji kosztów działalności związanych z magazynowaniem towarów. Skuteczność wdrażania tejże metody zależy w głównej mierze od znalezienia równowagi pomiędzy elastycznością dostawców a stałością użytkowników, przy właściwym zaangażowaniu kierownictwa, pracowników oraz wykorzystaniu zalet pracy zespołowej.
Wyróżnia się następujące zasady JIT :
— każdy proces jest dostawcą innego procesu; każdy proces jest klien¬tem innego procesu;
— kierownictwo nie powinno wywierać nacisku na produkcję; pro¬wadzone działania powinny być nastawione na wspieranie rozwo¬ju oraz stymulowanie procesu wytwórczego;
— indywidualne potrzeby klientów powinny być zaspokajane w dro¬dze produkcji masowej;
— proces produkcji musi być wolny od defektów;
— wymiana produktów, usług i informacji wewnątrz przedsiębiorstwa
oraz z kooperantami zewnętrznymi powinna być realizowana w
możliwie najkrótszym czasie;
— informacje dotyczące decyzji kierownictwa, rozmiarów i wyników
produkcji, stanu magazynowego itd. powinny być wyraźnie i jasno
przedstawiane;
— do przedsiębiorstwa należy dostarczać tylko to, co jest potrzebne,
wtedy, kiedy jest potrzebne i dokładnie tam gdzie jest potrzebne;
— transport powinien być przystosowany do dostaw i rozładunku
bezpośrednio na linię produkcyjną;
— dla zapewnienia uniwersalności działania komórek roboczych tworzący je pracownicy powinni być przeszkoleni w wielu dziedzinach;
— przedsiębiorstwa powinno dążyć do ciągłej redukcji kosztów pro¬dukcji;
— dostawcy muszą być włączeni do projektowania produktu i procesu;
— wskazane jest podejmowanie długoterminowych wspólnych inwe¬stycji z dostawcami.
— zalecane jest ciągłe rozszerzanie ściśle określonych oczekiwań ja¬kościowych na dostawców;
— zalecane jest ciągłe przenoszenie nowych technologii do dostawców;
— ekspedycja zamawianych przez odbiorców towarów powinna do¬konywać się z ominięciem wcześniejszego magazynowania;
— każdy robotnik może zatrzymać linię produkcyjną powodując, że
powstały problem zostanie usunięty bezzwłocznie i na miejscu;
— przeprowadzane przez kierownictwo inspekcje nowych stanowisk
pracy powinny być wykonywane ze szczególną dokładnością; kon¬trole powinny mieć na celu wspieranie działań ulepszających miej¬sce i zakres wykonywanych prac;
— działania eliminujące przesunięcia pracowników, błędy, przemę¬czenie oraz stres powinny być podejmowane w sposób kreatywny;
— zakupów należy dokonywać uwzględniając jakość, nie cenę, ogra¬niczać liczbę dostawców do minimum, zawierać z dostawcami dłu¬goterminowe kontrakty;
— powszechnie powinny być stosowane karty kanban.
Wprowadzanie programu JIT wymaga budowania długoterminowych związków producent-dostawca zmierzających do ograniczania liczby tych ostat¬nich. Korzystanie z jednego pełnego źródła dostaw określonego komponentu gwarantuje możliwość realizacji małych zamówień w krótkich odstępach cza¬su. Warunkiem istnienia spójnego systemu dostaw opartego na ograniczo¬nej i ściśle wyselekcjonowanej liczbie kooperantów jest sprawnie funkcjonu¬jąca komunikacja oraz ustalone kryteria jakościowe. Program JIT wymaga pełnego zaangażowania wszystkich zatrudnionych w ciągłe usprawnianie. Należy jednak pamiętać, że główną zasadą JIT jest dokonywanie zmian do¬piero z chwilą uzyskania całkowitej pewności co do gotowości organizacji. Powszechnie uznaje się, iż omawianą metodę należy wprowadzać sukcesyw¬nie, nie oczekując szybkich rezultatów. Zakłada się przy tym, że pełne wpro¬wadzenie metody JIT wymaga od 5 do 7 lat. Okres funkcjonowania JIT, podob¬nie jak i zarządzania przez jakość, uważa się za nieograniczony, ponieważ jedynie niekończące się usprawniania oraz redukcja strat gwarantują uzy¬skanie długookresowej przewagi konkurencyjnej.
4.1.1. System KANBAN.
Za prekursora systemu Kanban uważa się inżyniera mechanika Ohno Taiichi, jednego z twórców sukcesu Toyoty. Po odbyciu kilkuletniego stażu w fabrykach Forda Ohno został zatrudniony w 1932 roku jako inżynier pro¬dukcyjny w przędzalniach i tkalniach Toyoty, a następnie w nowo powstałych zakładach samochodowych, gdzie podjął pracę nad udoskonalaniem syste¬mu montażowego. Tam też odniósł pierwszy sukces - doprowadził do istot¬nej redukcji czasu montażu urządzeń i produkcji małych serii. Zachęcony nim Ohno rozpoczął poszukiwania sposobu koordynacji przepływu produk¬tu w systemie produkcyjnym prowadzącego do minimalizacji zapasów. W tym czasie Toyota produkowała około 25% głównych podzespołów samodzielnie (resztę dostarczali niezależni wytwórcy). Początkowym celem Ohno było stwo¬rzenie systemu, w którym wszystkie produkowane przez Toyotę podzespoły i komponenty byłyby dostarczane na linię produkcyjną tylko w przypadku zaistnienia takiej potrzeby, a nie wcześniej (ten cel później został rozszerzo¬ny o dostawców niezależnych).
W 1953 roku Ohno rozpoczął eksperyment z nowym projektem pod nazwą „system Kanban" („widoczny protokół").
Za pomocą karty kanban można sterować przepływem materiałów w toku wytwarzania. Nie wszystkie urzą¬dzenia w przebiegu produkcji charakteryzują się taką samą mocą produkcyjną; aby móc je optymalnie wykorzystać, należy stworzyć buforowe zapasy części. Bufory – kanban są umieszczane w ustalonych uprzednio miejscach i mają określony stan minimalny i maksymalny.W kolejnej fazie produkcji części są możliwie najszybciej pobierane z jednego bufota-kanban, przepuszczane przez własne urządzenie (system puli) i odkładane do następnego. Można produko¬wać tak długo, dopóki nie zostanie osiągnięta górna granica kanban (sygnał), tzn. dopóki za pomocą następnego procesu można będzie nadal obrabiać części. Jeżeli tak nie jest i bufor-kanban jest pełen, urządzenie dostarczające zostaje wyłączone. Trwa to aż do momentu zlikwidowania „wąskiego gardła", dopiero wtedy urządzenie może podjąć dalszą pracę. Wyłączenie maszyny tylko z powodu pełnego kanban kosztuje dużo nerwów i każdy, kto zastosował to rozwiązanie w praktyce, szybko dochodzi do wniosku, że w ten sposób wymusza się ciągłość przepływu procesu i zarówno zapasy, jak i cykle mogą zostać zredukowane o połowę. Poza tym ułatwia to sterowanie procesem i zwiększa jego przejrzystość. Wystarczy krótki obchód kanban, aby się natychmiast zorientować, czy i gdzie wystąpiły problemy.
Należy jednak podkreślić, że system Kanban funkcjonuje sprawnie jedynie jako element Just In Time. Kanban jako system samodzielny jest nieefektywny.
4.1.2. Wprowadzanie programu JIT.
Wprowadzenie programu JIT obliguje przedsiębiorstwa do dokonania wielu analiz wstępnych. Po pierwsze organizacja powinna podejmować działania w celu osiągnięcia racjonalnej samowystarczalności, koncetrować się na produktach i usługach, które mają mocną i stabilną pozycję oraz na stabilnych możliwych do przewidzenia rynkach a także przywiązywać szczególną uwagę do odpowiedniego przygotowania personelu bezpośrednio zaangażowanego w proces wprowadzania JIT.
Proces wdrażania tegoż systemu dokonywany jest w dwóch etapach :
1. Tworzenie podstaw,
2. Wprowadzanie technik rdzeniowych.
Faza 1 ma na celu redukcję kosztów zwiększenie elastyczności przedsiębiorstwa, koncentracje na problematyce jakościowej oraz minimalizację czasu wprowadzania nowych wyrobów. Narzędzia wspomagające tę fazę to :
— Redukcja czasu ustawiania parku maszynowego,
— Redukcja produkcji w toku oraz zapasów,
— Elastyczność pracowników,
— Redukcja wielkości dostarczanych partii towarów oraz koncentrację na procesie projektowania wyrobów i procesów.
Poziom wykorzystania tychże narzędzi jest uzależniony od specyfiki działalności gospodarczej.
Faza 2 dotycząca wprowadzania technik rdzeniowych pozwala na osiągnięcie największych usprawnień oraz oszczędności, jednak jest znacznie trudniejsza w adaptacji od fazy 1. Odpowiednia realizacj fazy 1 pozwala w fazie 2 na całkowite usunięcie nadwyżek magazynowych, wprowadzenie systemu zakupów zgodnego z JIT, utworzenie uniwersalnych zespołów roboczych, wprowadzenie harmonogramów działań oraz właściwe funkcjonowanie idei ciągłego ulepszania. Aby wdrożyć system JIT organizacja musi dokonać planowania i koordynacji działań wszystkich komórek przedsiębiorstwa. W celu zagwarantowania odpowiedniego wykonania procesu wdrożenia programu JIT należy ustanowić : zarząd projektu, kierownika projektu oraz zespół realizujący projekt. Zarząd projektu powinien skła¬dać się z przedstawicieli większości komórek przedsiębiorstwa - mogą to być pracownicy działów marketingu, zaopatrzenia, projektowania, produkcji, jakości oraz reprezentanci pracowników na stanowiskach robotniczych. Do zadań zarządu projektu należy ustalanie, na regularnie odbywających się zebraniach, zakresu prac z podziałem na osoby i komórki zobowiązane do ich wykonania, kierowanie oraz monitorowanie wykonania projektu. Na sta¬nowisko kierownika projektu powołuje się osobę posiadającą właściwe wy¬kształcenie oraz doświadczenie w realizacji złożonych programów z zakresu usprawniania jakości. Do obowiązku kierownika projektu należy koordyno¬wanie prac zespołu wprowadzającego JIT, przewodniczenie spotkaniom za¬rządu projektu, prowadzenie ocen stopnia i zakresu realizacji projektu, we¬wnętrzne publikowanie osiągniętych rezultatów oraz przeprowadzanie wy¬maganych szkoleń. Komórką odpowiedzialną za wprowadzanie poszczegól¬nych technik JIT jest zespół realizujący projekt. Zespół powinien składać się z osób posiadających właściwe przygotowanie teoretyczne i praktyczne, bę¬dących specjalistami z różnych dziedzin.
Nieodłącznym elementem programu JIT jest zaangażowanie w reali¬zację projektu wszystkich pracowników; w szczególności dotyczy to osób bez¬pośrednio związanych z procesem zmian. Właściwa - projakościowa kultura organizacyjna w znacznym stopniu wspiera działania zespołów realizujących projekt oraz pozwala na szybką identyfikację problemów pozwalając na efektywniejsze i szybsze wprowadzenie w życie całego programu.
5. Benchmarking.
W dzisiejszym rynku przedsiębiorstwo nie może funkcjonować w izolacji z otoczeniem w końcu to od tego jak je rozpozna zależy jego sukces. Musi zwracać uwagę nie tylko na swoich klientów ale także na swoich konkurentów podpatrywać ich i gdy powstanie potrzeba naśladować. Stare dobre przysłowie głosi iż „lepiej dobrze skopiować niż kiepsko wymyślić”.
Jedną z metod służących do analizy otoczenia jest benchmarking czyli zaadoptowana przez TQM metoda mająca na celu wspieranie procesu ciągłych usprawnień uwzględniających sytuację w otoczeniu.
Benchmarking po raz pierwszy zastosowany został przez amerykańską korporację Rank Xerox pod koniec lat siedemdziesiątych w rezultacie wyniszczającej walki konkurencyjnej z japońskimi rywalami, której celem było zdominowanie rynku urządzeń do wykonywania fotoko¬pii. Rank Xerox wykorzystał system benchmarkingu do identyfikacji przed¬siębiorstw realizujących określone procesy w swojej dziedzinie przemysłu. W ten sposób rozkład i przygotowanie produkcji zostały przejęte z Cummins Engins, system fakturowania z American Express, sterowanie dystrybucją z L L Bezan. Należy dodać, że benchmarking nie jest związany jedynie z tradycyjnie pojmowaną działalnością produkcyjną lub usługową. System ten ma zastosowanie również w przypadku uzyskiwania wewnętrznych stan¬dardów usług. Przykładowo - znane organizacje gospodarcze jak IBM, Mo¬torola, AT&T oraz wspominany już Rank Xerox budowały własne programy szkoleniowe korzystając z osiągnięć przedsiębiorstw uzyskujących najlepsze rezultaty w zakresie działań edukacyjnych.
Stosowanie benchmarkingu ma na celu uzyskanie odpowiedzi na dwa pytania :
— jak można ocenić podejmowane przez przedsiębiorstwo działa¬
nia w porównaniu z przedsięwzięciami konkurencji?
— czy istnieją przedsiębiorstwa lub gałęzie przemysłu, które wyko¬
nują określone działania i na ile - korzystając z ich doświadczeń -
można zaadoptować stosowany przez nie sposób działania?
Odpowiedzi na powyższe pytania możemy uzyskać na podstawie :
— rzetelnej oceny porównawczej produktów i usług własnych oraz
produktów konkurencji (opiera się ona zazwyczaj na wskazaniach
klientów),
— technicznej oceny produktów lub usług konkurencji przez okre¬ślone służby przedsiębiorstwa.
Podejmowane w ramach benchmarkingu działania mające na celu pomiar wykonania powinny być wsparte przez pełne zaangażowanie kierownictwa przedsiębiorstwa w zakresie warunków badań oraz czasu pracy i sposobu wykorzystania zdobytych doświadczeń .
Benchmarking wykorzystywany jako narzędzie strategiczne jest najskuteczniejszy wtedy, gdy stosuje się go do tych procesów, których usprawnienie powinno wywrzeć największy wpływ na całokształt konkurencyjnej pozycji firmy. Decyzji dotyczącej określenia proce¬sów, których ma dotyczyć studium porównawcze, na tym poziomie powinno towarzyszyć zbadanie firmy pod kątem trzech kryteriów. Nawet jeśli przedmiotem optymalizacji mają być zasoby i przychody, to proces lub procesy wybrane do studium porównawczego powin¬ny ściśle wpływać na jedno lub wszystkie podane niżej kryteria.
1. Podstawowe kompetencje: rozumie się przez nie tutaj strategiczne zdolności firmy,
które prowadzą do przewagi na rynku (takie, jak szybka ścieżka uruchamiania produkcji
nowych wyrobów, zapewniająca krótki czas między podjęciem projektowania a rozwinię¬ciem pełnej zdolności produkcyjnej).
2. Kluczowe procesy firmy: są to te procesy, które wpływają na postrzeganie firmy l
z zewnątrz przez odbiorcę. Przykładem może być jakość dopracowania wyrobu, efektyw¬ność dystrybucji i obsługa użytkownika.
3. Krytyczne czynniki sukcesu: ilościowe miary efektywności, gospodarności lub skuteczności prowadzonej działalności gospodarczej. Jako przykłady można wymienić okres
pomiędzy uszkodzeniami (MTBF), współczynnik obrotu zapasami, długość cyklu produk¬cji itp.
Po zbadaniu tych kryteriów należy zwrócić uwagę na szczebel lub kategorię dobieranych procesów. Jeśli wizualizujemy procesy, pomocne jest wyobrażenie sobie ich na podobieństwo cebuli. Podobnie bowiem jak cebula, proces składa się z wielu warstw, z których każda staje się widoczna i dostępna do analizy dopiero wtedy, gdy „obrano" poprzednią. Procesy wewnątrz większości organizacji można podzielić na trzy ogólne kategorie.
Pierwsza, nazywana często strategiczną lub pierwszego szczebla, obejmuje centralne procesy firmy. Odzwierciedla ona zwykle wartości, misję i cele firmy jako całości i wpływami jej kierunki. W tej kategorii znajdą się na przykład: bezpieczeństwo i zdrowotność, ochrona środowiska, planowanie korporacyjne, mechanizmy finansowe, innowacje. Druga kategoria obejmuje podstawowe procesy operacyjne wewnątrz firmy. Są one najczęściej pochodną takich czynników, jak rodzaj i branża firmy, jej wielkość i położenie. Mogą również odzwierciedlać kulturę i styl organizacji i mają zasadnicze znaczenie ( przetrwania. Do nich należą na przykład zarządzanie zasobami ludzkimi lub logistyka. Każdy z tych procesów może być samodzielnie „obierany", odsłaniając składające się nań sukcesy (w logistyce: zarządzanie dostawami, zarządzanie zapasami, dystrybucja, itp.) z kolei będą miały własne subprocesy, takie jak system dostaw ściśle-na-czas (just-in-time lub Kanban).
Na koniec, każda organizacja ma masę procesów pomocniczych, tworzących trzecią kategorię. Należy do nich na przykład utrzymanie terenu, sprzątanie, organizacja posiłków, pralnie oraz procesy dokumentowania, adaptacji zawodowej pracowników itp.
Wprowadzenie organizacji do studiów porównawczych często stawia przed kierow¬nictwem ważny problem. Im większy jest bowiem nacisk konkurencji, tym silniejsza staje się pokusa objęcia badaniami porównawczymi procesów strategicznych lub centralnych. Wielu praktyków może jednak potwierdzić, że ze względu na ponoszone koszty — nie jest to najlepszy obszar do stosowania eksperymentalnych zabiegów chirurgicznych. Jak w każdej nowej metodzie czy umiejętności, również tu zachodzi konieczność doskonalenia najpierw podstawowych zasad, by ułatwić interpretację, umożliwiającą jej szybkie stosowanie w zróżnicowanych sytuacjach. Najłatwiej to osiągnąć rozpoczynając od stosunkowo ni¬skiego szczebla, gdzie priorytet można nadać raczej szkoleniu i nabraniu doświadczeń niż dostarczeniu ważnych pod względem kosztów usprawnień. Dlatego też wiele najbardziej efektywnych programów studiów porównawczych rozpoczyna się od działań podstawo¬wych ( np. obróbki zamówień) i stopniowo przesuwa się do bardziej strategicznych obsza¬rów.
Po wyborze procesu, który będzie stanowił przedmiot studium porównawczego, nale¬ży zwrócić uwagę na usytuowanie standardu odniesienia, określanego jako benchmark — względem którego badany proces zostanie zmierzony i oceniony. Skoro celem jest udosko¬nalenie badanego procesu, to benchmark powinien być oczywiście „lepszy". Mimo że sama koncepcja jest prosta, to w praktyce dla kierownictwa zadanie to może okazać się już trud¬niejsze. W istocie oznacza ono bowiem zdefiniowanie, co w kontekście organizacji znaczy „lepszy" Na przykład „lepszy" (lub benchmark) proces rekrutacji może oznaczać taki proces, przy którym koszty wyrażone w postaci narzutów są najniższe lub który za¬pewnia najwyższy poziom przyjętych absolwentów renomowanych uczelni. Mimo że istnieje silna potrzeba szybkiego oceniania i przejścia do procesu porównań, to każda „poszukująca" organizacja musi najpierw określić własne kryteria i definicje w kontekście badanego procesu oraz — w szerszym kontekście — swego środowiska działania. Za kryterium uznania należy ostatecznie przyjąć to, by wybrany proces-wzorzec był najlepszy do pomiaru lub demonstracji. Nie musi być najlepszy na świecie, lecz oczywiście powinien być najlepszy z tych, które udało się znaleźć w ramach zakreślonych parametrów i współzawodnictwo z którym (lub jego adaptacja) przyniesie organizacji znaczące usprawnienie .
6. Metoda Taguchi.
Za najbardziej istotne wyzwanie, stojące przed przedsiębiorstwami chcą¬cymi sprostać wymogom globalnej konkurencji uważa się potrzebę wykorzy¬stywania technologii produkcji efektywnych pod względem uzyskiwanej ja¬kości, umożliwiających eliminację odchyleń funkcji produktu oraz odchy¬leń w procesach wytwarzania i montażu od wartości pożądanych. Pomocna w podejmowanych przez przedsiębiorstwa działaniach traktowanych jako odpowiedź na to wyzwanie jest metoda opracowana przez dr. Gemichi Tagu¬chi, zwana w literaturze przedmiotu jako Metoda Taguchi. Szczególnie efek¬tywnie metoda ta może być wykorzystana na etapie projektowania parame¬trów cech produktów i procesów ukierunkowanych na uzyskiwanie maksy¬malnej „odporności" na działanie różnego rodzaju zakłóceń (czynniki at¬mosferyczne, dostępność surowców itd.), zarówno w trakcie wytwarzania pro¬duktów, jak i ich użytkowania.
Taguchi przedstawił opracowaną przez siebie metodę jako24:
— sposób tworzenia i rozwoju nowych produktów,
— metodę rozwoju zdolności produkcyjnych,
— sposób optymalizacji projektowania,
— sposób optymalizacji niezawodności produktu oparty na wartości
wyznaczników jakości,
— sposób optymalizacji planowania produkcji na podstawie infor¬macji charakteryzujących możliwość wystąpienia zakłóceń oraz na¬
pływających z otoczenia, w którym określony wyrób będzie wyko¬rzystywany,
— sposób uodpornienia projektowania na zakłócenia napływające
ze środowisk zewnętrznych użytkowników produktu,
— metodę budowania bazy danych zawierającej informacje dotyczą¬ce uzyskanych zadowalających projektów, pozwalającej na tworze¬
nie nowych produktów przy wykorzystaniu wcześniej szych doświad¬czeń i rozwiązań,
— sposób na uzyskanie elastycznej produkcji o charakterze masowym,
zapewniającej realizację indywidualnych oczekiwań klientów oraz
optymalizację projektowania i produkcji.
Metoda Taguchi może być z powodzeniem stosowana zarówno do opty¬malizacji nowego produktu lub procesu, jak i do doskonalenia już istnieją¬cych. Użycie metody we wczesnych fazach rozwoju wyrobu zapewnia większą efektywność jej oddziaływania.
Metoda Taguchi sprowadza się zasadniczo do rozwiązywania trzech problemów z zakresu problematyki jakościowej, zawartych w następujących pytaniach25:
— jak szacować jakość?,
— jak podnosić jakość przy efektywnych kosztach?,
— jak kontrolować i utrzymywać koszty na efektywnym poziomie?
Dla szacowania jakości przyjmuje się dwa wyznaczniki26:
— funkcję strat jakości,
— stosunek sygnału do zakłócenia (signal-to-noise ratio).
Jako narzędzie podnoszenia jakości przy efektywnych kosztach stoso¬wane jest sterowanie jakością Off-Line, obejmujące27:
— sterowanie przez sprzężenie zwrotne,
— sterowanie przez sprzężenie wprzód,
— kontrolę.
Chcąc uzyskać odpowiedź na pytanie: jak kontrolować i utrzymywać koszty na efektywnym poziomie - Taguchi założył, że każdy produkt prze¬kazywany do użytkownika generuje określoną stratę. Rozmiar wielkości strat jest odwrotnie proporcjonalny do jakości wyrobu. Wzrost strat konsumen¬ta wskazuje na spadek jakości dostarczonego wyrobu. Powszechnie straty te rozumiane są jako zanieczyszczenie środowiska naturalnego, związane z tym choroby cywilizacyjne itp. Jednak Taguchi zaliczał do strat również niezadowolenie konsumenta, straty producenta spowodowane niekorzyst¬nym image'em wywołujące w dłuższym okresie utratę rynków zbytu. Po¬mysł minimalizowania strat jest w praktyce często postrzegany jako abstrak¬cyjny i trudny do połączenia z bieżącymi celami przedsiębiorstwa. Jednak przyjmując rozumowanie Taguchi, że straty w dłuższym horyzoncie czasu są i tak stratami producenta, powinny być one oceniane i ograniczane. W praktyce przedsiębiorstwa koncentrują się na szacowaniu jedynie strat związanych z kosztami braków, nakładami na realizację zobowiązań z tytułu gwarancji i rękojmi, kosztami operacji eliminujących braki i niedoróbki itp. Straty te stanowią jednak tylko niewielką część całości. Największy udział w stratach globalnych jakości mają straty ujawniające się dłuższym okresie, związane z niezadowoleniem konsumentów, utratą rynku, wzrostem zapa¬sów, spadkiem wydajności itp. W celu ich oszacowania stosowana jest funk¬cja strat jakości. Sposób, w jaki jest określana funkcja strat, zależy od typu charakterystyki jakości.
Na charakterystyki funkcjonalne produktu oddziałują dwa rodzaje czynników:
— sterowalne, które mogą być w łatwy sposób skontrolowane i utrzy¬mywane;
— zakłócające, których kontrola jest trudna, a często wręcz niemoż¬liwa; działania te w każdym przypadku są bardzo kosztowne.
Wyodrębnić można trzy podstawowe typy zakłóceń28:
— zakłócenia zewnętrzne (outer noise), np. wynikające z oddziały¬wania warunków atmosferycznych i środowiska,
— zakłócenia wewnętrzne (inter noise), np. proces starzenia się
maszyn i tolerancje wskaźników procesu powodujące pogarszanie się jakości,
zakłócenia pomiędzy produktami (between products noise), które
są generalnie spowodowane niedoskonałościami w procesach wytwarzania i powodują odchylenia pomiędzy poszczególnymi egzemplarzami produktu.
Czynniki zakłócające są generalnie odpowiedzialne za powstawanie odchyleń charakterystyk funkcjonalnych od wartości pożądanych. Ponieważ, jak już powiedziano, kontrola tych czynników jest kosztowna, często wręcz niemożliwa, w metodzie Taguchi nie dąży się do ich identyfikacji, a następ¬nie kontroli, lecz wybiera się takie wartości dla czynników sterowalnych, aby produkt lub proces były najmniej czule na zmiany czynników zakłócających. Zamiast poszukiwać i eliminować przyczyny, dąży się do oddalania lub redu¬kowania oddziaływania tych przyczyn. Tego typu postępowanie pozwala na stworzenie produktu odpornego na zakłócenia.
Projektowanie parametrów jest kluczowym etapem w metodzie Tagu¬chi, w którym można najskuteczniej spełnić warunek podniesienia jakości bez relatywnego wzrostu kosztów. Etap ten jest częścią procesu projektowa¬nia objętego sterowaniem jakością Off-Line. Fazy sterowania jakością Off-Line zaprezentowano na rysunku 1.
Do czynności związanych z projektowaniem systemu zaliczamy: wybór materiałów i części, wybór próbnych wartości parametrów produktu oraz wybór wyposażenia produkcyjnego, a także próbnych wartości wskaźników procesu. Projektowanie parametrów obejmuje testowanie ustalonych uprze¬dnio próbnych nominalnych wartości i na podstawie testowania określenie najlepszych kombinacji poziomów parametrów produktów oraz operatyw¬nych poziomów wskaźników procesu, tak, aby były one najbardziej odporne na zmiany zachodzące w otoczeniu zewnętrznym i na inne czynniki zakłóca¬jące. Projektowanie tolerancji stosowane jest w przypadkach, gdy eliminacja odchyleń osiągnięta w trakcie projektowania parametrów jest niezadowala¬jąca. Projektowanie to polega na ustaleniu ścisłych tolerancji dla tych para¬metrów produktu lub wskaźników procesu, których odchylenia od wartości pożądanych (nominalnych) wywierają duży wpływ na odchylenie końcowe. Te działania wiążą się z nakładami finansowymi na zakup lepszych gatunko¬wo materiałów, komponentów lub urządzeń.
Celem projektowania parametrów jest poszukiwanie takich nominal¬nych wartości dla czynników sterowalnych, które spełniają warunki maksy¬malnej zgodności produktu przy najniższych kosztach i najmniejszej wraż¬liwości na działanie zakłóceń. Przyjmuje się tu następujący sposób postę¬powania: w pierwszym rzędzie rozpoznanie czynników sterowalnych i za¬kłócających oraz rozpatrywanie ich oddzielnie, następnie prowadzenie analizy danych przy zastosowaniu stosunku sygnału (czynnik sterowal¬ny) do zakłócenia jako miary osiągnięcia (zgodności). Stosunek syg¬nału S/N jest odwrotnie proporcjonalny do funkcji strat, tak więc maksy¬malizacja tego stosunku oznacza minimalizację strat przy jednoczesnej poprawie jakości.
Pomimo że Metoda Taguchi dzięki swoim licznym zaletom propago¬wana jest na całym świecie, to w praktyce jedynie jeden procent inżynierów, którzy zostali przeszkoleni w jej stosowaniu w pełni ją wykorzystuje. Przewa¬żająca większość amerykańskich i zachodnioeuropejskich konstruktorów zaj¬mujących się projektowaniem produktów i procesów wytwórczych stosuje jedynie wybrane, zazwyczaj ilościowe, elementy metody.
Rysunek 1. Fazy sterowania jakością Off – Line.
Źródło : R.Karaszewski, „Total Quality Managment”, Toruń, s.145
Innym powodem wybiórczego traktowania metody jest, widoczna szczególnie w przedsiębior¬stwach amerykańskich, tendencja do koncentrowania wysiłków konstruk¬torów i projektantów na tworzeniu i wdrażaniu nowych technologii. Spro¬wadza się w ten sposób najważniejsze dla organizacji zagadnienie - projek¬towanie produktu na - drugi plan.
7. Zakończenie.
Dokonując analizy rozwoju przedsiębiorstw w dzisiejszej gospodarce nie sposób zwrócić uwagi na TQM. We współczesnym rynku aby osiągnąć przewagę konkurencyjną należy dokonywać wielu analiz zachowań rynku na którym się znajdujemy patrząc na klientów ale także i konkurentów branży. Jakość stała się parametrem najbardziej pożądanym wśród klientów bowiem właściwości większości oferowanych dzisiaj produktów są bardzo zbliżone do siebie ale poziom oferowanych usług wciąż odbiega od wielu standardów wysoko rozwiniętej gospodarki. Wobec porównywalnych parametrów użytkowych oferowanych wyrobów coraz częściej klienci zwracają uwagę na poziom usług oferowanych przez przedsiębiorstwo, serwis, usługi posprzedażne oraz atmosferę panującą podczas dokonywania zakupów.
Bogata literatura przedmiotu, liczne światowe kongresy i konferencje naukowe poświęcone TQM, nieograniczony przpływ informacji o doświadczeniach przedsiębiorstw wprowadzającyh TQM, oznaczją, że świat otworzył drzwi dla wszystkich przedsiębiorstw, które zechcą wejść na drogę zarządzania przez jakość. Przed wielką szansą stoją firmy, które podążą tą ścieżką, prowadzi ona bowiem do uzyskania przewagi konkurencyjnej na rynku. Jest to szansa dla wszystkich firm zarówno z krajów rozwiniętych jak i słabo rozwiniętych jak np. Polska. Pomimo, że firmy z krajowych rynków coraz częściej wypadają na tle konkurencji z zachodnimi koncernami jak źdźbło trawy w porównaniu do pnia dęba to nie przeraża to wielu z nich a powoduje wręcz powoduje mobilizację sił i rozpoczęcie procesu dążenia do doskonałości poprzez TQM.
Liczba przedsiębiorstw w Polsce uzyskujących certyfikaty zarządzania jakością potwierdza zainteresowanie tym problemem oraz przyczynia się do zwiększania poziomu jakości oferowanych produktów co korzystnie przekłada się na społeczeństwo. Należy więc postulować upowszechnianie wiedzy o TQM. Powinna stać się ona częścią programów nauczania dotyczących wszelkich dyscyplin związanych z gospodarką, na różnych poziomach edukacji.