QFD
Celem QFD jest przełożenie potrzeb i oczekiwań odbiorców na charakterystyki wyrobu lub usługi. Produkcja na skalę przemysłową uniemożliwia bezpośredni kontakt z docelowym odbiorcą. Stosuje się więc szereg metod kontaktu pośredniego, w tym wywiady, badania opinii, testy. Dla projektantów produktów istotnym problemem staje się brak fachowej wiedzy odbiorców, którzy zwykle nie są w stanie określić parametrów technicznych wyrobów
Głównym elementem analitycznym jest macierz zwana domem jakości
Składa się na nią dziewięć elementów:
Wymagania konsumenta.
Stopień ważności każdego z wymagań wraz z oceną porównawczą firm konkurencyjnych.
Cechy techniczne (projektowe, technologiczne, towaroznawcze) wyrobu.
Powiązanie pomiędzy potrzebami odbiorcy i cechami technicznymi.
Ocena względna każdej z cech technicznych.
Stopień korelacji między cechami technicznymi.
Wartości pożądane dla każdej cechy technicznej.
Techniczna ocena porównawcza.
Specjalne wymagania związane z bezpieczeństwem, regulacjami rządowymi, serwisem
FMEA
FMEA, czyli analiza przyczyn i skutków wad, oraz jej odmiana FMECA, stały się narzędziami projektantów pragnących zminimalizować straty spowodowane niską jakością produktów
Celem planowania jakości produktu na poziomie strategicznym jest między innymi minimalizacja kosztów niskiej jakości. Największe możliwości zapobieżenia wystąpieniu błędów posiada projektant tworzący nowy wyrób. Gdy produkt trafi do produkcji seryjnej lub nawet do klienta, możliwości likwidacji błędów są ograniczone i jednocześnie bardzo kosztowne
Pierwszym krokiem analizy jest zidentyfikowanie wszystkich elementów badanego wyrobu lub, w przypadku badania procesu - funkcji, i ułożenie ich w kolejności technologicznej. Następnie dla każdego elementu określa się rodzaje wad, jakie mogą w razie wystąpienia ograniczyć zdolność wyrobu do spełnienia przewidzianej funkcji. Dla każdej wady określa się skutek oraz przyczynę
Do opisu każdej wady wykorzystuje się trzy liczby priorytetowe mieszczące się w skali 1-10:
liczba priorytetowa występowania P, która ukazuje prawdopodobieństwo wystąpienia wady (1 - niskie, 10 - wysokie),
liczby priorytetowej wykrywalności D, pokazującej trudność wykrycia wady przed opuszczeniem przez wyrób fabryki (1 - łatwo, 10 - trudno),
liczby priorytetowej skutków wady S, która określa dotkliwość wady dla klienta (1 - znikoma, 10 - znaczna).
Dla celów analitycznych wykorzystuje się iloczyn tych liczb oznaczany literą C. Im wyższa liczba C, tym istotniejsza wada
3. Taguchi:
Genichi Taguchi, 田口 玄一 (ur. 1 stycznia 1924 w Takamachi w Japonii), japoński inżynier i statystyk, który wprowadził metody statystyczne do przemysłu w celu poprawy jakości produktów. Odwrotnie do innych teoretyków jakości - Taguchi mówi raczej o stracie jakości, niż o samej jakości. Metoda ta pozwala projektantom zaprojektować krok po kroku taki wyrób, który zaspokajałby potrzeby klienta i minimalizował koszty firmy. Jest ona o tyle wygodna, że nie wymaga dużej znajomości statystyki czy statystycznej kontroli jakości - jest zaprojektowana dla inżynierów
4. Kazein:
filozofia wywodząca się z japońskiej kultury i praktyki zarządzania. Jej zastosowanie nie sprowadza się tylko do tego, by produkt, czy usługa odpowiadały określonym wymaganiom jakości. W myśl tej filozofii jakość sprowadza się do stylu życia - niekończącego się procesu ulepszania. Podstawową regułą tej filozofii jest ciągłe zaangażowanie oraz chęć ciągłego podnoszenia jakości firmy i produktu.
Cele:
skrócenie czasu realizacji procesu pracy oraz poprawy jakości;
dostosowywanie techniczne elementów systemu;
tworzenie kryteriów oceny i nagradzania;
redukcję kosztów.
Zasady:
Ulepszanie i zmiany na lepsze
toczący się ciągły proces
Dziesięć zasad Kazein:
Problemy stwarzają możliwości
Pytaj 5 razy „Dlaczego?”
Bierz pomysły od wszystkich
Myśl nad rozwiązaniami możliwymi do wdrożenia
Odrzucaj ustalony stan rzeczy
Wymówki, że czegoś się nie da zrobić są zbędne
Wybieraj proste rozwiązania - nie czekając na te idealne
Użyj sprytu zamiast pieniędzy
Pomyłki koryguj na bieżąco
Ulepszenie nie ma końca
5. Burza mózgów:
składa się z dwóch etapów:
W pierwszym etapie osoby uczestniczące zachęcane są do swobodnego zgłaszania pomysłów i wymiany poglądów z zastrzeżeniem braku jakiegokolwiek krytycyzmu. Wszystkie pomysły są zapisywane, bądź sesja rejestrowana jest na taśmie.
W drugim etapie ekspert lub grupa ekspertów nieuczestniczących w pierwszym etapie przegląda jego wyniki i stara się odsiać idee mające sens.
W praktyce badania pokazały, że jakkolwiek burza mózgów może być bardzo skuteczna, to jej skuteczność może też być łatwo utracona. W szczególności czynnikami niszczącymi jej efektywność są np. obecność bardzo silnej dominującej osobowości w pierwszym etapie, zbyt duża ambicja niektórych uczestników, nie pozwalających dojść innym do głosu, niewielka otwartość na nowe idee ekspertów oceniających pomysły, skłonność uczestnika do zmiany tematu na niezwiązany z zadaniem
6. Diagram Ryby:
Diagram Ishikawy (znany także jako diagram ryby lub jako diagram rybiej ości), używany jest do ilustrowania związków przyczynowo-skutkowych, pomaga w ten sposób oddzielić przyczyny od skutków danej sytuacji i dostrzec złożoność problemu
Ishikawa opracował diagram przyczynowo-skutkowy, w którym analiza rozpoczynana jest od stwierdzenia wystąpienia skutku (np. braku, awarii lub innego niepożądanego stanu) i prowadzona w kierunku identyfikacji wszystkich możliwych przyczyn, które go spowodowały. Wśród przyczyn wymienił on 4 główne składowe - określane jako tzw. 4M: Manpower (Ludzie), Methods (Metody), Machinery (Maszyny), Materials (Materiały). Każda z tych składowych rozbija się na poszczególne przyczyny, które powinny być rozpatrywane indywidualnie jako problemy do rozwiązania.
Należy wybrać i zidentyfikować małą liczbę (2 do 4) przyczyn, które prawdopodobnie mają największy wpływ na skutek oraz przeanalizować, czy zidentyfikowana istotna przyczyna rzeczywiście stwierdza badany problem oraz określić sposób wyeliminowania najbardziej prawdopodobnego procesu powstawania badanej niezgodności. Wyniki przeprowadzonej analizy należy sformułować w postaci wniosków.
Za pomocą wykresu Ishikawy możemy wskazać wszelkie istotne związki zachodzące pomiędzy różnymi przyczynami oraz odkryć źródło niepowodzenia lub nieprawidłowego przebiegu procesu. Celem tej metody jest również analiza wyników danego kierunku postępowania, czyli wykrycie potencjalnych niepowodzeń przedsięwzięcia, uszeregowanie przyczyn problemów
Graficzna analiza problemu jest uporządkowanym przekazem informacji, kładzie nacisk na hierarchię danych, zlokalizowanie i wyeliminowanie przyczyn problemu, ułatwia systematyzację możliwych przyczyn wystąpienia niepowodzenia, umożliwia swobodne wprowadzenie nowych propozycji oraz ich systematyzację na bieżąco. Jest również podstawą do dalszych działań i zbierania danych
Częstym problemem występującym podczas konstruowania diagramu Ishikawy jest trudność klasyfikacji poszczególnych przyczyn do właściwych grup lub podgrup. Wadą tej metody jest również nieprzejrzystość przy analizie złożonych problemów
7. Analiza Pareto-Lorenza:
Analiza Pareto-Lorenza jest narzędziem służącym do nadawania ważności czynnikom (przyczynom) wywołującym określony problem. Istota metody opiera się na pracy włoskiego ekonomisty Vilfredo Pareto, który sformułował zasadę znaną obecnie jako 80/20. :
Głosi ona że 80% wyników wypływa tylko
z 20% przyczyn, inaczej mówiac
skromniejszymi srodkami i mniejszym
wysiłkiem mo,na osiagnac wieksze efekty
Można stwierdzić na podstawie tej zasady, że niewielka liczba osób, przyczyn sytuacji odpowiada za większość występujących zjawisk. Czynności w analizie Pareto powinno ukształtować w następującej kolejności:
określenie problemu poddawanego analizie
sporządzenie listy przyczyn
zdefiniowanie kategorii
pogrupowanie przyczyn w odpowiednie kategorie oraz uporządkowanie ich zgodnie z częstotliwością występowania lub kosztów jakich przysparzają
sporządzenie wykresu kolumnowego opartego na uporządkowanych danych
dokonanie analizy
Analiza Pareto doskonale nadaje się do uporządkowania przeanalizowania wcześniej zebranych danych. Stosuje się ją kiedy naszym celem jest przeciwdziałanie:
negatywnym zjawiskom o największej częstotliwości występowania
zjawiskom przysparzającym największych kosztów