Kanban itd, PW, PW-semestr III, ORGTE


Kanban - opracowana w latach pięćdziesiątych w Japonii metoda sterowania produkcją. Słowo Kanban w wolnym tłumaczeniu można oddać jako "widoczny spis". Metoda ta opiera się na poszczególnych kartach wyrobów ich cyrkulacji i analizie. Kanban rozwijał się i dziś oznacza także system informacyjny, system planowania, rozdziału oraz kontroli czynności i zadań produkcyjnych. Polega na takim organizowaniu procesu wytwórczego, aby każda komórka organizacyjna produkowała dokładnie tyle, ile w danej chwili jest potrzebne. W metodzie tej, za czynnik krytyczny zarządzania materiałami uznano sterowanie zapasami.

Najkrócej ideę KANBAN oddaje hasło "7 x żadnych":

Charakterystyczną cechą tej metody jest praktyczna likwidacja magazynów przedprodukcyjnych, międzyoperacyjnych i wyrobów gotowych. Materiały i półfabrykaty dostarczane są od dostawców z godzinową dokładnością, dzięki rezerwom zdolności produkcyjnych i elastyczności procesu produkcji możliwe jest wyprodukowanie niemal dowolnego elementu w każdej chwili, a zlecenia produkcyjne są ściśle zsynchronizowane z zamówieniami otrzymywanymi od klientów.

Podstawą technik KANBAN są formularze, które wypełnia się w następującej kolejności:

Wady i ograniczenia:

Ryzyko wprowadzenia KANBAN jest duże, ale jak dowodzi to przykład Toyoty, może być ono bardzo opłacalne. Po trzech latach od wprowadzenia metody KANBAN, osiągnięto tam następujące wyniki:

Wykres Ganita

Diagram Gantta to graf stosowany głównie w zarządzaniu projektami. Uwzględnia się w nim podział projektu na poszczególne zadania, oraz rozplanowanie ich w czasie.

Charakterystyka

Opracowany przez siebie wykres H. L. Gantt po raz pierwszy zastosował do przedstawienia planu produkcji formę graficzną w roku 1917. Na typowym wykresie Gantta wiersze zawierają stanowiska pracy, natomiast kolumny oznaczają jednostki czasu. Układ zdarzeń na wykresie przedstawiany jest najczęściej w wersji planowanej przed rozpoczęciem działania oraz rzeczywistej nanoszonej na wykres wraz z upływem czasu.

Za pomocą wykresu Gantta można nie tylko planować i kontrolować wykonanie planu, ale także poprzez zastosowanie odpowiedniego systemu oznaczeń uwzględniać zmienność przebiegu wykonania zadania.

W przypadku wykresu wydajności pracy analizę przeprowadza się na podstawie zapisów rzeczywistych uzupełnionych o oznaczenia zakłóceń (np. brak pracownika, brak materiałów, brak instrukcji, remont maszyny, brak energii, brak narzędzi, brak doświadczenia wykonawcy, święta, narady, strajki, braki w kwalifikacjach wykonawcy, brak zlecenia).

Wykres Gantta jest graficznym sposobem planowania i kontroli. Planowanie i koordynowanie przebiegu różnych czynności w przekroju czasowym odgrywa istotną rolę w tworzeniu i funkcjonowaniu organizacji. Wykresy Gantta służą do planowania działań wielopodmiotowych zarówno zespołowych, jak i grupowych. Przedstawiają następstwo kolejnych zdarzeń, uwzględniając również zadania wykonywane równolegle. Dzięki tej technice można także kontrolować realizację zaplanowanego przedsięwzięcia.

Inne metody to: Wykres Hijmansa, Wykres Bernatene-Grüna

Etapy

Technika ta obejmuje następujące etapy:

Zastosowanie

Wykresy Gantta znajdują zastosowanie uniwersalne we wszystkich dziedzinach działalności ludzi. Jak każda metoda również i ta posiada swoje wady i zalety. Główną zaletą wykresów Gantta jest możliwość bieżącej kontroli realizowanego przedsięwzięcia i dokonywania odpowiednich korekt. Do wad należy zaliczyć m.in.:

Wykres Gantta umożliwia kierownikowi podjęcie zobowiązań opartych na planowanych terminach zakończenia, pozyskanie dodatkowych zasobów dla skrócenia niektórych terminów.

Pobierz darmowe oprogramowanie: Ganttproject - program do tworzenia wykresów Gantta i sieciowych, posiada wersję polską, działa na wszystkich systemach operacyjnych. Jest darmowy.

Przykład

Rodzaje powiązań między zadaniami

W wykresie Gantta możliwe są różne zależności pomiędzy zadaniami:

Outsourcing - wykorzystywanie zasobów zewnętrznych, zlecanie wyspecjalizowanym podmiotom zewnętrznym procesów niezbędnych dla funkcjonowania własnego przedsiębiorstwa, które zostaną tam zrealizowane efektywniej niż byłoby to możliwe we własnym zakresie.

Zwykle dotyczy to zadań pomocniczych, nie związanych bezpośrednio z uzyskiwaniem dochodu. Współcześnie bardzo często outsource'owane są usługi ochroniarskie, prawnicze, informatyczne, księgowe, rekrutacyjne, wynajem pracowników (outosourcing personalny), utrzymywanie czystości itd. Niektóre firmy idą znacznie dalej, outsource'ując np. support lub część produkcji. Wśród dużych zachodnich koncernów rozpowszechniła się praktyka outsource'owania znacznej części produkcji do krajów o tańszej sile roboczej, zwłaszcza do krajów azjatyckich - szczególną popularnością cieszą się usługi firm hinduskich.

Najczęstszą przyczyną wprowadzania praktyk outsourcingowych jest chęć obniżenia kosztów i uniknięcia sytuacji korupcjogennych.

W przypadku gdy outsourcing okazał się błędną decyzją biznesową firmy realizują projekty insourcingowe.

Do zalet powierzenia części zadań firmie zewnętrznej można zaliczyć:

Proces wdrożenia outsourcingu można ująć w pięciu krokach:

Blaski i cienie outsourcingu [edytuj]

Pracowdawcy dzięki outsourcingowi płacą niższe składki i nie muszą prowadzić pełnej dokumentacji kadrowo-finansowej zatrudnionych przez firmę zewnętrzną pracowników.

Obniżenie kosztów odbywa się często kosztem pracownika zatrudnionego przez firmę świadczącą usługi outsourcingowe który po prostu zarabia mniej niż byłby zatrudniony w firmie macierzystej, choć sytuacja taka nie zawsze musi być regułą. Dotyczy to często ludzi o niskich kwalifikacjach zawodowych lub o niewielkim stażu pracy. Z drugiej strony outsourcing daje możliwość zdobycia doświadczenia zawodowego osobom o niewielkim stażu pracy i dla wielu stanowi start w karierze zawodowej.

Outsourcing to nie tylko zatrudnianie osób o niskich kwalifikacjach zawodowych, wykonujących proste prace manualne czy pracę fizyczną - ale w równie dużej mierze specjalistów w swoich dziedzinach. Jako przykład można tu wymienić branżę informatyczną. W obecnych czasach każda większa firma aby być konkurencyjną i istnieć na rynku musi posiadać swoją własną strukturę informatyczną. Lepiej jest danej firmie skupić się na działalności i rozwijaniu w swojej branży a informatykę powierzyć firmie posiadającej doświadczenie i specjalistów w branży IT - tak jest taniej i lepiej. Organizacja ma wiekszą elastyczność finansową wynikającą z ograniczenia kosztów stałych oraz posiada możliwość lepszego zarządzania działalnością poboczną. Choć outsourcing może osłabić siłę zespołu przez zmianę funkcji wspierających, wymagać zaangażowania w koordynację przepływu informacji, osłabic zdolność organizacji uszczuplając jej bazę umiejętności oraz wzmocnić poczucie braku bezpieczeństwa wśród pracowników, wynikające z obawy, czy personel nadal będzie zatrudniany przez Organizację, czy zostanie przejęty przez firmę zewnętrzną wykonującą zlecenie.

Jeśli jest coś, czego nie potrafimy zrobić wydajniej, taniej i lepiej niż konkurenci, nie ma sensu, żebyśmy to robili i powinniśmy zatrudnić do wykonania tej pracy kogoś, kto zrobi to lepiej niż my -- Henry Ford, 1923

Niebezpieczeństwa wynikające ze stosowania outsourcingu: - wystąpienie możliwości uzależnienia się od firmy, której zlecono subprocesy - niemozność zachowania wysokiej jakości przy dużym udziale obcych komponentów - zatarcie obrazu firmy wśród klientów - możliwość poniesienia strat wynikających z niesolidności kooperantów - ujemne stosunki społeczne związane w redukcją personelu - ryzyko wzrostu kosztów

Benchmarking (badania porównawcze lub analiza porównawcza) - jest praktyczną realizacją przysłowia: "trzeba się uczyć na błędach, ale lepiej uczyć się na cudzych błędach, niż na swoich".

Benchmarking polega na porównywaniu procesów i praktyk stosowanych przez własne przedsiębiorstwo, ze stosowanymi w przedsiębiorstwach uważanych za najlepsze w analizowanej dziedzinie. Wynik takiej analizy służy jako podstawa doskonalenia.

Benchmarking nie jest zwykłym naśladownictwem, nie polega na podpatrzeniu sposobu pracy innych, aby tak samo postępować u siebie. To wykrywanie czynników, które sprawiają, że analizowany proces jest wykonywany efektywnie a następnie wskazanie podobnych możliwości we własnym przedsiębiorstwie. To uczenie się i twórcze adaptowanie najlepszych praktyk (the best practices).

Benchmarking stosuje się także w sferze polityki publicznej.

0x01 graphic

Za najważniejsze dla skuteczności benchmarkingu uznaje się:

Typowe fazy procesu benchmarkingu to:

Typowe fazy procesu wg Brilmana

Trzy rodzaje benchmarkingu: 1.wewnętrzny - szukanie najlepszego w naszej firmie i wzorowanie się na nim (wydziały, filie) 2.zewnętrzny - zwany konkurencyjnym (porównywanie z konkurentami we własnej branży, plasowanie się na ich tle) - wadą jest to, że źródła są trudno dostępne 3.funkcjonalny - szukanie wzorca w innych firmach realizujących tę samą funkcję np. wydział logistyki, księgowości, itp., konieczność dostosowania do własnych potrzeb - zaleta: dużo usprawnień, wada:- potrzeba dużo przeróbek by mógł być stosowany u nas. 4.ogólny (tylko Amerykanie)

Charakterystyka

Metoda benchmarking-u polega na porównaniu cech organizacji z konkurentami lub firmami wiodącymi w danej branży, oraz kopiowanie sprawdzonych wzorów. Porównywanie takie stosowane jest od dawna, stąd niektórzy autorzy wskazują, iż benchmarking nie jest metodą zasługującą na szczególną uwagę.

Stosując benchmarking próbuje się wyeliminować podstawowy problem porównań - niemożność bycia lepszym niż ten, od kogo zapożyczamy rozwiązania.

Benchmarking to proces systematycznego porównywania własnej firmy z innymi, albo porównywania ze sobą różnych działów przedsiębiorstwa, aby ustalić jaki jest jego stan obecny i czy potrzebna jest jakaś zmiana.

Zwykle poszukiwane są przykłady wykazujące najwyższą efektywność działania w danym obszarze, co pozwala na naśladowanie najlepszych. Benchmarking jest traktowany jako proces stosowany systematycznie. Poprawianie obszarów firmy nie powinno mieć charakteru jednorazowego. Konieczne jest stałe gromadzenie informacji i poszukiwanie lepszych rozwiązań.

Geneza

Początków benchmarkingu w przedstawionej formie należy szukać w przedsiębiorstwie Rank Xerox, które w latach 70. przechodziło poważne problemy finansowe i organizacyjne związane między innymi z silną konkurencją na rynku kserokopiarek. Koszty produkcji głównego konkurenta - Canona - były wielokrotnie niższe niż ceny Rank Xeroksa. Kierownictwo opracowało trzyczęściowy program Leadership Through Quality, którego II część nosiła nazwę Benchmarking.

Rodzaje

Wyróżnia się cztery rodzaje benchmarkingu:

Etapy stosowania benchmarkingu

Etapy benchmarkingu oraz kroki szczegółowe prezentuje tab. 1. Może je poprzedzić etap dodatkowy - autoanaliza.

Autoanaliza służyć może dokonaniu analizy i doskonaleniu własnych procesów jeszcze przed rozpoczęciem właściwego benchmarkingu. Pozwala to na zastosowanie własnych pomysłów optymalizacji procesów i start do porównań z wyższego poziomu doskonałości.

Jednak takie podejście ma również istotne wady, gdyż wymaga wielokrotnego przeprowadzania zmian w krótkim okresie czasu (kolejna zmiana będzie wynikiem benchmarkingu). Częste przeprowadzanie zmian destabilizuje organizację i zmniejsza wydajność. Dlatego warto rozważyć czy stosować autoanalizę przed benchmarkingiem.

Tab. 1. Etapy benchmarkingu

Etap

Kroki

Planowanie

  • Identyfikacja przedmiotu badań

  • Identyfikacja przedsiębiorstw do porównań

  • Wybór metody zbierania danych

Analiza

  • Przeprowadzenie badania

  • Ustalenie odchyleń w zakresie efektywności

  • Określenie poziomów przyszłych wyników

Integracja

  • Komunikowanie wyników benchmarkingu

  • Ustalenie celów funkcjonalnych

Wdrożenie

  • Opracowanie planu wdrożenia

  • Uruchomienie działań wdrożeniowych

  • Kontrola wdrożenia

  • Określenie nowych benchmarków

Źródło: opracowanie własne na podst. Z. Martyniak, op. cit., s. 310

Planowanie bencharkingu

Planowanie. W ramach etapu planowania pierwszym krokiem jest identyfikacja przedmiotu badań. Należy tu określić co jest produktem procesu lub funkcji podlegającej badaniu. Przez produkt należy rozumieć każdy efekt funkcjonowania procesu: materialny i niematerialny, zamierzony i niezamierzony, wewnętrzny i zewnętrzny.

Dalej konieczne jest wskazanie mierników, którymi można określić dobry produkt. Mierniki pozwalają na wskazanie parametrów ilościowych, które będą badane również w porównywanych przedsiębiorstwach. Konieczne jest także zmierzenie czynników określających dobry produkt, a zatem również zastosowanie parametrów jakościowych, opisowych. One również będą istotne w kolejnym etapie.

Cechy dobrego benchmarku

Identyfikacja przedsiębiorstw, które mogą stanowić dobre benchmarki jest trudna. Nigdy bowiem nie ma pewności czy firmy, które zgodziły się na badanie są najlepsze w badanym obszarze. Pamiętać także należy, iż nie ma idealnych organizacji. Jest wysoce prawdopodobne, że w porównywanej firmie można odnaleźć obszary gorzej zorganizowane niż u nas.

Wśród istotnych atrybutów dobrego benchmarku, warto wziąć pod uwagę:

Patrzenie w przyszłość gwarantuje dążenie organizacji do doskonalenia i rozwoju. Stosowanie podejścia systemowego pozwala przypuszczać, że firma stara się równomiernie rozwijać wszystkie obszary, a także powiązania między nimi, w tym komunikację.

Orientacja na jakość jest jednym z głównych współczesnych kierunków zauważalnych w przedsiębiorstwach. Partycypacja interesariuszy (zainteresowanych stron, grup) oraz orientacja na ich potrzeby wskazuje na otwartość organizacji na otoczenie i interakcję z nim. Komunikowanie kierunków i celów jest dowodem, że są one znane i wdrażane, zatem będzie można zaobserwować ich osiąganie.

Stosowanie benchmarkingu zapewnia zrozumienie metody, wspólne pojęcia i zbieżne cele badania. Z kolei posiadanie zdolności do rozwoju pozwala przypuszczać, że organizacja będzie zainteresowana wdrażaniem ustaleń z benchmarkingu. Dwa ostatnie atrybuty są dodatkowymi zaletami.

Uczestnictwo w sieci benchmarkingowej i startowanie w konkursach jakości sprawia, że porównywana firma ma przygotowanych szereg wskaźników i opisów procesów, które nas interesują. W takim przypadku warto przed wizytą wykonać samoocenę według kryteriów tego samego konkursu, w którym startuje benchmark (np. Polskiej Nagrody Jakości), co ułatwi porównania.

Ostatnim krokiem etapu planowania jest wybór metod zbierania danych o benchmarkach. Metody można podzielić na bezpośrednie oraz pośrednie. Ich przykłady prezentuje tab. 2. Wybór odpowiedniej metody zbierania danych jest uzależniony od charakteru współpracy, którą chcemy nawiązać z porównywanymi przedsiębiorstwami. Zastosowanie metod bezpośrednich może spowodować przedwczesne ujawnienie informacji o zbieraniu danych na temat innych firm. Może to w niektórych przypadkach być niekorzystne i wywołać niepotrzebne reakcje przedsiębiorstw. Jednocześnie metody bezpośrednie dostarczają często więcej niż pośrednie, polegające głównie na badaniu dokumentów i czasopism.

Tab. 2. Metody zbierania danych do benchmarkingu

Metody bezpośrednie

Metody pośrednie

  • własne bazy danych,

  • raporty i publikacje wewnętrzne,

  • prace badawczo-rozwojowe,

  • ogłoszenia prasowe,

  • prospekty reklamowe,

  • salony wystawowe,

  • sondaże telefoniczne,

  • kontakty osobiste z partnerami,

  • biografie wybitnych menedżerów,

  • dystrybutorzy sprzętu (dostawcy)

  • stowarzyszenia zawodowe

  • sektorowe banki danych

  • czasopisma profesjonalne

  • wyższe uczelnie

  • instytuty naukowo-badawcze

  • biura konsultingowe

  • badanie opinii klientów

  • seminaria szkoleniowe

  • materiały z konferencji naukowych

  • izby przemysłowo-handlowe

  • biuletyny informacyjne

Źródło: Z Martyniak, op. cit., s. 313.

Analiza danych

Analiza. W drugim etapie następuje przeprowadzenie badania, ustalenie odchyleń w zakresie efektywności oraz określenie poziomów przyszłych wyników. Przeprowadzenie badania odbywa się według opracowanego planu, który może wyglądać następująco:

  1. Przygotowanie do wizyty: wybór szczegółowych obszarów badania, opracowanie listy tematów i pytań, określenie zakresu informacji podlegających wymianie.

  2. Nawiązanie kontaktu: doprowadzenie do uzgodnienia warunków wymiany z wybranymi przedsiębiorstwami.

  3. Ustalenie uczestników oraz planu wizyty: opracowanie szczegółowego planu rozpisanego na godziny.

  4. Wizyta: przeprowadzenie spotkania, rozmowy zbieranie i wymiana danych.

  5. Zakończenie: dokonanie podsumowania, sprawdzenie kompletności pozyskanych informacji.

  6. Postępowanie po zakończeniu: przygotowanie raportu, przesłanie raportu celem naniesienia poprawek, prezentacja raportu przez kierownictwem firmy.

Zebrane informacje powinny pozwolić na dokonanie identyfikacji i analizy odchyleń ilościowych oraz jakościowych pomiędzy benchmarkiem na naszym przedsiębiorstwem. Odchylenia ilościowe mogą dotyczyć np.: wydajności na pracownika, kosztów produkcji na jednostkę produktu, stopnia realizacji celów, czasu realizacji zadań, poziomu błędów, stosunku wyników do nakładów.

Dostarczają one wiedzy o efektach działania procesów, jednak nie pozwalają bezpośrednio na zaproponowanie zmian. Dlatego konieczne jest ustalenie także odchyleń jakościowych opisujących różnice w sposobach realizacji produktów czy celów. Odchylenia jakościowe mogą wystąpić w: sposobie dostarczania danych wejściowych, podziale zadań, kwalifikacjach pracowników, stosowaniu narzędzi i metod, uprawnieniach i zakresie odpowiedzialności pracowników, itp.

Wiedza o odchyleniach służy określeniu oczekiwanych poziomów wyników, które powinna osiągnąć nasza firma w wyniku wdrożenia ustaleń z benchmarkingu. W ramach tego kroku należy zaproponować dwa rodzaje działań: doraźne oraz strategiczne. Działania doraźne mają charakter tymczasowy, jednak pozwalają na szybkie wejście na ścieżkę podnoszenia wydajności. Ich cechami są: łatwość w zastosowaniu, taniość wdrożenia, powodowanie wzrostu efektywności, niekolidowanie z działaniami strategicznymi. Celem stosowania działań doraźnych jest rozpoczęcie zmian w określonym kierunku, zanim cały program działań strategicznych będzie gotowy do wdrożenia. Działania strategiczne mają charakter długoterminowy i docelowy, mogą się wiązać z inwestycjami i poważnymi zmianami organizacyjnymi.

Integracja

Integracja. Etap integracji obejmuje komunikowanie wyników benchmarkingu oraz ustalanie celów funkcjonalnych. Wyniki benchmarkingu powinny być przedstawione szerokiemu gronu pracowników, a co najmniej tym, którzy będą uczestniczyć we wdrożeniu. Ma to na celu spowodowanie zrozumienia i akceptacji propozycji zmian. Jednak może przynieść także dodatkową korzyść - wskazanie przez pracowników kolejnych zmian, które pozwolą na lepsze dostosowanie propozycji do specyfiki przedsiębiorstwa. Komunikowanie powinno wytworzyć w pracownikach potrzebę, oczekiwanie i akceptację zmian, co gwarantuje przyspieszenie wdrożenia.

Cele funkcjonalne są związane z wybranymi obszarami wprowadzania zmian. Konieczne jest bowiem wskazanie osób odpowiedzialnych za przeprowadzenie zmian w tych obszarach. Należy zapewnić możliwość mierzenia stopnia wdrożenia poprzez przyjęcie celów i mierników dotyczących funkcjonowania modyfikowanych procesów. Cele dotyczące poziomu operacyjnego powinny być opracowane zgodnie z zasadą SMART.

Wdrożenie

Wdrożenie. Ostatnim etapem procesu benchmarkingu jest wdrożenie zmian. Składa się on z opracowania planu wdrożenia, uruchomienia działań wdrożeniowych, kontroli wdrożenia oraz wskazania nowych benchmarków. Plan wdrożenia powinien zostać przygotowany zgodnie z zasadami zarządzania projektami i zawierać co najmniej: kartę projektu, budżet, strukturę zadaniową, plan projektu z macierzą odpowiedzialności, harmonogram graficzny. Wdrożenie może zostać przeprowadzone jednym z czterech sposobów:

Benchmarking jest procesem ciągłym. Nigdy nie ma gwarancji, że przedsiębiorstwo, które posłużyło do porównań rozwiązało w najlepszy sposób organizację danego obszaru. Trzeba także pamiętać, że benchmarking nie musi oznaczać w każdym przypadku porównywania z lepszymi. Może to być także porównywanie z innymi, celem czerpania nowych pomysłów z innych branż czy gałęzi gospodarki.

KJD- Co realizuje ?
Kontrolę jakości dostaw

Opis:
System wspomaga proces kontroli jakości dostaw uwzględniając obowiązujące w przedsiębiorstwach systemy kontroli w tym polskie normy np. POLSKA NORMA PN-ISO 2859-1+AC1. Może działać jako niezależny moduł lub w połączeniu ze Zintegrowanym Systemem Zarządzania PRO/MIS. System jest uniwersalny ze względu na możliwość zastosowania w różnych branżach. Może być również wykorzystany do kontroli własnych wyrobów. Zarządza dokumentami procedur kontroli.

Podstawowe funkcje systemu:
1. Tworzenie bazy danych o dostawcach i dostarczanym asortymencie
2. Określanie planów badań asortymentów i wspomaganie ich realizacji
3. Tworzenie bazy danych wyników badań wraz z wartościami parametrów jakościowych
4. Analiza wielokryterialna dostawców i asortymentów wraz z wizualizacją wyników
5. Wspomaganie wyboru dostawców na podstawie historii dostaw

Sześć Sigma (ang. Six Sigma) jest to metoda zarządzania jakością, której zadaniem jest osiągniecie jakości "sześć sigma". Wprowadzona w Motoroli w połowie lat 80., przez Boba Galvina (syn założyciela firmy) oraz Billa Smitha. Za to osiągnięcie, w 1988 Motorola otrzymała Amerykańską Nagrodę Jakości im. M. Baldridge'a. Obecnie metoda używana jest w wielu światowych koncernach takich jak GE, Honeywell, Rockwell Automation, Alstom, Raytheon czy Microsoft. W 2000 roku Fort Wayne w Indianie został pierwszym miastem używającym sześć sigma do zarządzania miastem. Istnieją opinie, iż Six Sigma powinno zostać wprowadzone w większej liczbie dziedzin życia, a jego efekty (istotna poprawa wyników finansowych poprzez obniżenie kosztów złej jakości) trudno przeceniać.

W statystyce sigma oznacza odchylenie standardowe zmiennej. Sześć sigm oznacza sześciokrotną odległość standardową. Celem programu jest zmniejszenie liczby defektów do 3,4 defektów na milion okazji. W przeszłości uważano, iż jest to niemożliwe i już procesy o wartości 3 sigmy były akceptowane (67000 DPMO - czyli liczba wad na milion możliwości). Obecnie liderzy osiągają w wielu procesach wartość 6 sigm.

Dlaczego sześć odchyleń od średniej ? [edytuj]

Wykres rozkładu normalnego, na którego podstawach jest oparty model Six Sigma. Grecka litera σ pokazuje odległość na osi x pomiędzy średnią arytmetyczną µ, a punktem przegięcia. Im więkza odległość tym większy jest rozrzut wyników. Dla czerwonej krzywej na wykresie wartość średnia wynosi 0 (µ = 0) i σ = 1. Inne kolory pokazują inne wartości µ i σ.

Zgodnie z wykresem rozkładu normalnego, który jest symetryczny, tylko 2 miliardowe wykresu wychodzą poza zakres (średnia - 6 sigma, średnia + 6 sigma), co oznacza, że na miliard przypadków dwa są poza tym zakresem. W praktyce mówi się o dwóch błędach na miliard przypadków (np. 2 wadliwe tranzystory na miliard upakowanych na procesorze, 2 butelki nie dokręcone na miliard zakręcanych). Jak widać mamy tu 12 sigma, a nie sześć - należy o tym pamiętać zagłębiając się w zagadnienia kontroli procesu (SPC). Podejście Six Sigma dopuszcza obecnie w przemyśle kilka wadliwych produktów na milion wyprodukowanych dostarczonych do klienta. Większość firm uznaje, że straty wynikające z takiej ilości braków są dopuszczalne. Dlaczego więc "Sześć sigma" skoro "Sześć sigma" to 2 na miliard? Ta wartość wynika z doświadczenia: jeśli na starcie produkcji zmierzymy kilkadziesiąt sztuk i mamy prawdopodobieństwo dwóch produktów wadliwych na miliard wyprodukowanych, to z czasem okaże się, że jest to tak naprawdę kilka sztuk na milion. Jak to się dzieje? Jeśli produkowane sztuki będziemy mierzyć systematycznie i uzbieramy powiedzmy kilka tysięcy wyników, obliczymy sigmę dla tych wyników (np. w Excelu funkcja "Odch.Stand(wyniki)" lub "stdev(values)" w angielskiej wersji, liczy nam sigmę) to w sześciu sigmach zmierzonych na starcie zmieści się tylko 4,5 sigma uwzględniające czynnik czasu i liczone dla większej liczby produktów. Zgodnie z wykresem rozkładu normalnego, który jest symetryczny, tylko 3,4 milionowe wykresu wychodzą poza zakres (średnia - 4,5 sigma, średnia + 4,5 sigma), co oznacza, że na milion przypadków trzy są poza tym zakresem. Jeśli więc nasze sigma na starcie wynosi 10 to z czasem urośnie 6/4,5 raza i wyniesie 13,33:

6*sigma odpowiada 4,5*sigma(t), gdzie t - długi czas

0x01 graphic

0x01 graphic


Te wartości promował
Mikey Harry około roku 1980, wyprowadził je z obserwacji i praktyki, a nie z teoretycznych danych. Używa się ich jako modelu zmian, gdyż defekty produkcyjne często nie podlegają rozkładowi normalnemu. Wtedy do obliczeń ilości potencjalnych wad nie używa się odchylenia standardowego. Nie zmienia to jednak nazewnictwa, gdyż dalej używa się określenia "zgodne lub nie zgodne z 6 sigma".

Donald J. Wheeler uważa iż przesunięcie 1,5 jest nie właściwe, argumentuje iż takie praktyki transformują proces 4,5 sigma (3,4 DPMO) w 6 sigma. Jednak takie argumenty są właściwe jedynie dla danych krótko okresowych, gdyż tylko wtedy 1,5 jest odejmowany od wyniku. Gdy wynik 3,4 DPMO wskazuje na proces o wartości 3 sigma, a nie 6 sigma. W przypadku danych długo okresowych przesunięcie procesu zostało wliczone, i nic więcej się nie odejmuje.

Sześć Sigma to nie tylko statystyka [edytuj]

Wbrew nazwie celem programu zarządzania jakością Six Sigma jest przede wszystkim redukcja kosztów wytwarzania i opieki nad produktem. Można powiedzieć, że jakość Sześć Sigma to "produkt uboczny" w tym programie. Dlaczego? Zaobserwowano, że olbrzymia część kosztów prowadzenia działalności związana jest z wykrywaniem i usuwaniem usterek wynikających z procesu wytwarzania produktu. Im mniejsza ilość braków powstaje i im szybciej są wykrywane tym mniejszy jest całkowity koszt ich usunięcia. Dlatego metodą na obniżanie kosztów jest takie prowadzenie procesów biznesowych, aby przede wszystkim eliminować bądź ograniczać przyczyny występowania usterek, a jeśli już wystąpią, to jak najszybciej je wykrywać. Doskonalenie Procesów Biznesowych odbywa się w trybie projektów doskonalących mających na celu nie tylko poprawę jakości, ale przede wszystkim uzyskanie wymiernej korzyści finansowej wynikającej z tej poprawy. Nadzór nad realizacją tych projektów sprawują wewnętrzni konsultanci nazywani (w zależności od zakresu projektów jakie prowadzą) Green Belt, Black Belt i Master Black Belt. Dalszymi zdefiniowanymi rolami w Six Sigma są Zarząd - odpowiedzialny za wizję Six Sigma i Championi - odpowiedzialni za integrację różnych projektów Six Sigma.

Podstawą wdrożeń Six Sigma jest tak zwany DMAIC - Define / Definiuj, Measure / Mierz, Analyze / Analizuj, Improve / Implementuj poprawę i Control / Controluj (żartobliwa polska nazwa, gdyż w polskim odpowiedniku nie występuje litera c). Pod tymi pojeciami kryją się: zdefiniowanie celów poprawy, pomiar aktualnych parametrów, analiza czynników mających wpływ na proces, zaproponowanie i wdrożenie zmian oraz sprawdzanie czy uzyskane efekty są zgodne z założeniami.

Doskonalenie w Six Sima rozpoczyna się od obszarów o najniższej jakości, gdzie projekty doskonalące najniższym kosztem przyniosą największe efekty. Następnie podnosi się jakość w kolejnych obszarach. Uważa się, że uzyskanie poprawy jakości powyżej 5 Sigma wymaga narzędzi do SPC - Statystycznej Kontroli Procesów. Najpopularniejszym pakietem statystycznym w Six Sigma jest MINITAB Statistical Software (pełna nazwa popularnego Minitaba), pewną popularność uzyskały również JMP, Statistica oraz różne nakładki na Microsoft Excel. Narzędzia te są wspierane oprogramowaniem do zarządzania projektami (przykładem może być Quality Companion by Minitab) i zasobami oraz narzędziami do mapowania, symulacji i analizy procesów biznesowych np. iGrafx Process For Six Sigma lub nakładkami na Microsoft Visio.

Six Sigma w Polsce [edytuj]

Największy rozkwit w Polsce Six Sigma przeżywa w firmach przemysłu motoryzacyjnego, a także w sektorze lotniczym. Jest praktycznie standardem u ważniejszych poddostawców w tej branży. Również niektóre światowe koncerny takie jak GE, Philips czy ABB mogą się pochwalić polskimi sukcesami na tym polu.

Przyszłość [edytuj]

Coraz częściej obserwuje się połączenie zalet programu Six Sigma i Lean Manufacturing - wytwarzania odchudzonego. Program zarządzania jakością korzystający z połączenia tych dwu programów nazywany jest Lean Six Sigma lub prościej - Lean Sigma. Jakkolwiek program nie zmienia nazwy, to są obszary, gdzie sześć sigma nie jest wartością satysfakcjonującą i firmy uzyskały już poziom 7 i więcej. Dotyczy to np. bankowych transakcji elektronicznych czy przemysłu kosmicznego.

Kaizen (jap. 改善 - "kai" - zmiana, "zen" - dobry, czyli ciągłe doskonalenie) - filozofia wywodząca się z japońskiej kultury i praktyki zarządzania. Jej zastosowanie nie sprowadza się tylko do tego, by produkt, czy usługa odpowiadały określonym wymaganiom jakości. W myśl tej filozofii jakość sprowadza się do stylu życia - niekończącego się procesu ulepszania. Podstawową regułą tej filozofii jest ciągłe zaangażowanie oraz chęć ciągłego podnoszenia jakości firmy i produktu.

Spis treści

[ukryj]

0x01 graphic
Cele kaizen [edytuj]

Kaizen poprzez stopniowe doskonalenie wszelkich aspektów działalności firmy dąży do osiągnięcia następujących celów :

Zasady kaizen [edytuj]

Filozofia kaizen opiera się na dwóch zasadniczych elementach:

  1. ulepszanie i zmiany na lepsze,

  2. toczący się ciągły proces.

10 Zasad kaizen [edytuj]

  1. Problemy stwarzają możliwości

  2. Pytaj 5 razy „Dlaczego?” (Metoda 5 why)

  3. Bierz pomysły od wszystkich

  4. Myśl nad rozwiązaniami możliwymi do wdrożenia

  5. Odrzucaj ustalony stan rzeczy

  6. Wymówki, że czegoś się nie da zrobić są zbędne

  7. Wybieraj proste rozwiązania - nie czekając na te idealne

  8. Użyj sprytu zamiast pieniędzy

  9. Pomyłki koryguj na bieżąco

  10. Ulepszenie nie ma końca

Metoda 5 why (inaczej: 5 Why, 5W) jest jedną z najlepszych i skutecznych metod pozwalających na wykrywanie przyczyn problemów (lub defektów). Jest to zasada, którą stosujemy w celu ustalenia podstawowej przyczyny problemu. Zadawanie kilku pytań „Dlaczego?” pozwala dojść do źródła zakłóceń, gruntownie zbadać ich przyczynę i skupić się na ich skutecznym rozwiązywaniu. Dzięki zadawaniu pytań „ Dlaczego?” problem staje się bardziej zrozumiały przez co podstawowa przyczyna jego powstania jest łatwiejsza do zidentyfikowania i wyeliminowania. Analiza 5 Why pozwala odpowiedzieć na pytania: Dlaczego powstał problem?, Dlaczego go nie zauważyliśmy? oraz Jak go rozwiązać?.

Spis treści

[ukryj]

0x01 graphic
Historia [edytuj]

Twórcą metody 5 Why jest Sakichi Toyoda. W trakcie rozwoju metodologii przemysłowej metoda 5W została szybko udoskonalona i wdrożona wewnątrz korporacji motoryzacyjnej Toyota. Jest to jeden z podstawowych składników decydujący o umiejętności radzenia sobie w trudnych sytuacjach. Taiichi Ohno, twórca Toyota Production System, opisuje 5W jako metodę naukowego podejścia Toyoty polegającą na kilkakrotnym zadawaniu pytania „Dlaczego?” dzięki czemu natura problemu, jak również jego rozwiązanie, staje się bardziej oczywiste[1]. Metoda 5W zyskała na popularności na całym świecie i jest wykorzystywana do dziś jako element Kaizen.

Przykład [edytuj]

W opisanym przykładzie przyczyną problemu jest więc zły stan urządzeń oraz brak przeglądów prewencyjnych uwzględniających kontrolę stanu zaworów.

Zalety [edytuj]

Wady [edytuj]

Karty Shewharta - Karty Kontrolne

[edytuj]

Z Wikipedii

Brak wersji przejrzanej

Skocz do: nawigacji, szukaj

Spis treści

[ukryj]

0x01 graphic
Karty kontrolne- charakterystyka [edytuj]

Karty kontrolne są jednym z podstawowych narzędzi Statycznej Kontroli Jakości(SKJ) nazywanej również ,jako Statystyczna Kontrola Procesu SKP (z ang.Stastistical Process Control-SPC).

Twórcą kart kontrolnych jest Walter A. Shewhart.

Karty kontrolne stosowane są w procesach, w których konieczne jest ciągłe monitorowanie- produkcja seryjna. Związane jest to również z potrzebą pobierania próbek potrzebnych do analizy podczas procesu produkcji.

Karty kontrolne są graficzną metodą ukazywania nieprawidłowości zachodzących w procesie produkcji. Wykres jest wyznacznikiem zmienności parametrów statycznych (m. in. wartość średnia próby, zakres zmienności- rozstęp, odchylenie standardowe) względem czasu.

Podczas tworzenia wykresu ustala się graniczne linie będące wyznacznikiem statyczności procesu:

  1. Górna linia kontrolna- GLK

  2. Linia centralna

  3. Dolna linia kontrolna- DLK

Cel kart kontrolnych [edytuj]

Karty kontrole służą do kontrolowania procesów, mają na celu zwiększenie wydajności produkcji oraz jakości wyrobów. Dzięki analizie kart kontrolnych można stwierdzić, czy zmiany zakłócające dany proces są zdarzeniem naturalnym (związanym z procesem) lub też przyczyną specjalną, która występuje systematycznie lub sporadycznie i jest sygnałem do znalezienia i eliminacji zakłóceń w badanym procesie.

Czynniki powodujące niezgodności w badanym procesie na karcie kontrolnej przedstawione są w postaci:

  1. nad lub pod linią wartości średnich

  2. rosnących lub malejących.

Podział kart kontrolnych [edytuj]

Karty kontrolne Shewharta

Ocena liczbowa

Ocena alternatywna

Karta wartości średniej(X)i rozstępu(R)

lub odchylenia standardowego(S)

  • karta x-R

  • karta x-s

Karta frakcji jednostek niezgodnych(p)

lub liczby jednostek niezgodnych(np)

  • karta p

  • karta np

Karta pojedynczych obserwacji(xi)

i ruchomego rozstępu(R)

  • karta xi-R

Karta liczby niezgodności(c) lub

liczby niezgodności na jednostkę(u)

  • karta c

  • karta u

Karta mediany(M)i rozstępu (R)

  • karta M-R

Karta sum skumulowanych



Wyszukiwarka