Instrumenty TQM
Do realizowania zadań i osiągania celów zapisanych np. w księdze jakości lub wynikających z realizacji strategii TQM, konieczne jest dysponowanie zasobem środków pozwalających kształtować jakość wyrobu na wszystkich etapach w cyklu jego istnienia. W literaturze mówi się o technikach, metodach narzędziach, sposobach, zasadach i innych instrumentach oddziaływania na jakość. Stosowanie tak różnych określeń wprowadza pewne zamieszanie i często prowadzi do nieporozumień, podczas gdy w rzeczywistości wiele z tych instrumentów, mimo różnych nazw, jest bardzo podobnych w swej istocie. Ponadto stosowanie niektórych z nich jest próbą bezpośredniego przeniesienia z innych dziedzin (szczególnie z inżynierii zarządzania i z ekonomii), bez przeprowadzenia oceny celowości ich adaptowania dla potrzeb Systemu Zarządzania Jakością (SZJ). Podejmowane są próby uporządkowania terminologii w tym zakresie. W polskiej literaturze z zakresu inżynierii zarządzania jest, stosowany podział na techniki i metody organizatorskie, przy czym zauważa się, że granica pomiędzy nimi nie jest ostra. Można przyjąć podział instrumentów zarządzania jakością na: zasady, metody i narzędzia, przy czym:
1. Zasady zarządzania jakością - określają stosunek przedsiębiorstwa i jego pracowników do ogólnie rozumianych problemów jakości, oddziaływanie na jakość jest długotrwałe, określa strategię rozwoju przedsiębiorstwa. Przykładem zasad są:
a. zasady Deminga,
b. zasady „ciągłego doskonalenia procesów” (Kaizen),
c. zasada „zera defektów”,
d. zasada pracy zespołowej.
2. Metody zarządzania jakością - charakteryzują się planowym, powtarzalnym i opartym na naukowych podstawach sposobem postępowania przy realizacji zadań związanych z zarządzaniem jakością, oddziaływanie na jakość jest średnioterminowe, pozwala kształtować jakość projektową i jakość wykonania. Przykładem metod są:
QFD (ang. Quality Function Deployment) rozwinięcie funkcji jakości,
Analiza wartości,
FMEA analiza przyczyn i skutków wad – wyrobu / konstrukcji,
FMEA analiza przyczyn i skutków wad – procesu.
3. Narzędzia zarządzania jakością - służą do zbierania i przetwarzania danych związanych z różnymi aspektami zarządzania jakością, oddziaływanie na jakość jest krótkoterminowe. Przykładem narzędzi są:
· narzędzia tradycyjne – schemat blokowy, diagram Ishikawy, diagram Pareto, histogram, arkusze kontrolne, wykresy korelacji, karta kontrolna,
· narzędzia przejęte z zarządzania (grupa tzw. Nowych narzędzi).
Często rozróżnienie pomiędzy zasadą i metodą, a w szczególności pomiędzy metodą i narzędziem - jest słabo określone. Przyjęty podział odpowiada jednak w znacznym stopniu utrwalonej tradycji (np. pojęciu „siedem narzędzi jakości\"), a jednocześnie pozwala na usystematyzowanie stosowanych instrumentów i w rezultacie na ich efektywniejsze wykorzystanie. Pozwala na przykład powiązać zasadę „zero defektów\" z metodą FMEA, a tę z kolei z takimi narzędziami, jak diagram Ishikawy oraz diagram Pareto.
Zasady Zarządzania Jakością oraz Narzędzia Zarządzania Jakością (NZJ) są wykorzystywane na wszystkich etapach w cyklu istnienia wyrobu, Podczas gdy Metody Zarządzania Jakością (MZJ) są ściśle ukierunkowane na konkretne etapy tego cyklu. W MZJ możliwe jest wyodrębnienie dwóch grup:
· Metod wykorzystywanych w projektowaniu wyrobu i procesów, które można nazwać metodami projektowania dla jakości.
· Metod znajdujących zastosowanie przede wszystkim podczas produkcji (przetwarzania i montażu), nazywanych metodami sterowania jakością, wśród których zasadnicze znaczenie mają metody kontroli (jakości).
Specjalną grupę metod stanowią metody pracy zespołowej, będące w pewnym sensie wsparciem dla NZJ oraz dla metod projektowania i kontroli.
Wskazane grupy metod nie są od siebie izolowane - występują pomiędzy nimi sprzężenia, pozwalające wykorzystywać dane zbierane na etapie produkcji oraz eksploatacji wyrobu do ciągłego doskonalenia jego jakości. Dane muszą być wstępnie przetwarzane za pomocą odpowiednich NZJ, aby z ich analizy uzyskać wartościowe informacje dla MZJ. Aby z kolei informacje były wykorzystywane w metodach w optymalny sposób, muszą być przestrzegane przyjęte w Zasadach Zarządzania Jakością (ZZJ). W ten sposób wszystkie trzy zdefiniowane grupy instrumentów tworzą system, który może być najlepiej wykorzystany, jeśli przedsiębiorstwo realizuje zarządzenie jakością według wprowadzonego i zaawansowanego SZJ
Istota jakości
Amerykańskie Towarzystwo Kontroli Jakości definiuje jakość jako ogół cech produktu i usługi decydujących o ich zdolności do zaspokojenia stwierdzonych lub potencjalnych potrzeb. Jakość określa kilka różnych cech decydujących o jakości konkretnego produktu lub usługi, mianowicie:
· wyniki główne cechy funkcjonalne produktu. Przykładem może być przyspieszenie w samochodzie czy wyrazistość obrazu w odbiorniku telewizyjnym,
· cechy uzupełniają podstawowe cechy funkcjonalne produktu, takie jak elektryczny mechanizm podnoszenia szyb w samochodzie,
· niezawodność prawdopodobieństwo bezusterkowego funkcjonowania przez określony czas,
· zgodność stopień, w jakim projekt wyrobu i cechy użytkowe spełniają określone normy,
· trwałość miara długości życia produktu,
· łatwość obsługi szybkość i łatwość naprawy,
· estetyka wygląd produktu, smak, zapach, odbiór w dotyku,
· postrzegana jakość w opinii klienta.
Na przykład, produkt cechujący się trwałością i niezawodnością ma wyższą jakość niż produkt mniej trwały i mniej niezawodny.
Jakość jest również pojęciem względnym. Na przykład, Lincoln Continental jest samochodem wyższej klasy niż Ford Taurus, który jest z kolei wozem wyższej klasy niż Ford Escort. Różnica w jakości wynika z różnic w projekcie i innych cechach. Mimo to Escort jest uważany za samochód wysokiej jakości, jak na jego parametry techniczne. i cenę. Podobnie, zarówno Taurus, jak i Continental mogą być samochodami wysokiej jakości, zważywszy ich standard i cenę. Tak więc jakość jest pojęciem zarówno absolutnym, jak i względnym.
Jakość odnosi się zarówno do produktów, jak i do usług. Chociaż być może jej znaczenie dla takich produktów jak samochody czy komputery dostrzeżono najpierw, również firmy usługowe -od linii lotniczych do restauracji- przekonały się, że jakość jest ważnym determinantem ich sukcesu lub porażki. Jakość usług stała się poważnym problemem konkurencyjności dzisiejszego przemysłu amerykańskiego.
Koszty jakości w TQM
We współczesnym przedsiębiorstwie poziom i struktura kosztów produkcji często decyduje o miejscu jakie zajmuje ono na rynku. Utrzymanie ich na właściwym poziomie wpływa na rentowność i zdolność konkurencyjną firmy. Obecnie redukcja kosztów jest możliwa poprzez zwrócenie większej uwagi na zagadnienia jakości.
Powszechnie obowiązująca definicja jakości została przyjęta przez Międzynarodową Organizację Standaryzacji (ISO) i zawarta w normie ISO 8402. \"Jakość to ogół właściwości wyrobu lub usługi decydujących o zdolności wyrobu lub usługi do zaspakajania stwierdzonych lub przewidywanych potrzeb\".
Sposób w jaki przedsiębiorstwo potrafi zaspokoić potrzeby swoich klientów decyduje o jego sukcesie na rynku. Jakość wymaga także by zaspokojenie potrzeb odbywało się we właściwym momencie i po optymalnym koszcie.
Jakość została zdefiniowana w normie ISO 8402 jako ogól właściwości obiektu, wiążących się z jego zdolnością do zaspakajania potrzeb stwierdzonych i oczekiwanych. To właśnie sposób w jaki przedsiębiorstwo potrafi zaspokoić potrzeby swoich klientów decyduje o jego sukcesie na rynku. Jakość wymaga także by zaspokojenie to odbywało się we właściwym momencie i po optymalnym koszcie. Ważnym elementem ogółu kosztów wytwarzania są koszty jakości będące sumą wszystkich kosztów operacyjnych związanych z osiągnięciem jakości.
Koszty jakie przedsiębiorstwo może ponieść w wyniku braku dostatecznego poziomu jakości mogą sięgać nawet 30% jego obrotów, co stanowi poważne obciążenie w jego funkcjonowaniu, szczególnie w dłuższym okresie.
Poprawa jakości produktów ma podwójny wpływ na sytuację firmy: decyduje o poprawie konkurencyjności wyrobów i pozwala na zmniejszenie kosztów ponoszonych przez firmę. Poprawa struktury kosztów prowadzi do polepszenia rentowności i zdolności konkurencyjnej firmy.
Należy także pamiętać, że poprawa jakości jest jednym z podstawowych warunków zaistnienia na rynku Unii Europejskiej. Prawo Unii szczegółowo reguluje zagadnienia jakości i bezpieczeństwa wyrobów zarówno produkowanych w krajach członkowskich jak i importowanych na rynek europejski. Wyroby mogące stanowić niebezpieczeństwo dla życia lub bezpieczeństwa ludzi lub środowiska podlegają obligatoryjnej certyfikacji. Wymogi wobec towarów określają tzw. dyrektywy nowego podejścia, mające na celu doprowadzenie do osiągnięcia harmonizacji technicznej. Dyrektywy te są w całości przenoszone do prawa krajów członkowskich Unii tak więc przed przystąpieniem Polski do struktur europejskich będziemy musieli także dopasować nasze ustawodawstwo w dziedzinie podwyższonych wymagań jakościowych. Wszystkie produkty przemysłowe w krajach Unii mogą być dopuszczone do sprzedaży po certyfikacji na zgodność z dyrektywą nowego podejścia i otrzymaniu znaku CE - Conformability European (Zgodność Europejska).
Wiele firm polskich uzyskało już certyfikat zgodności systemu jakości z normami ISO 9000, co ułatwiło im eksport między innymi do krajów Unii Europejskiej. Dla jednych firm był to dodatkowy atut zwiększający ich konkurencyjność, dla innych warunek utrzymania się na rynkach europejskich. Jednak niewiele przedsiębiorstw zdecydowało się na pomiar kosztów jakie poniosły i nadal ponoszą w celu poprawy jakości. Międzynarodowe normy z serii ISO 9000 zwracają uwagę na istotność pomiaru kosztów jakości oraz podają ich klasyfikację.
W literaturze brak jest jednolitego podziału kosztów jakości, co wiąże się z różnorodnością działań związanych z jakością i ich powiązań z procesem produkcji. Według normy ISO 9004 koszty jakości dzielą się na te związane z operacjami wewnętrznymi oraz działalnością zewnętrzną.
Koszty zewnętrzne mające zapewnić oczekiwany poziom jakości, to \"koszty związane z reprezentacją i dowodami wymaganymi jako obiektywne wykazanie jakości\". Zaliczyć tu możemy:
· koszty oceny zgodności systemu jakości przez instytucje certyfikacyjne,
· koszty badań i oceny właściwości produktu przez niezależne ośrodki badawcze.
W systemie TQM możemy wyróżnić trzy grupy operacyjnych kosztów jakości:
· koszty zgodności - czyli koszty zapobiegania błędom i wytwarzaniu produktów o zaniżonej jakości, powstających przed wystąpieniem błędów oraz oceny zgodności,
· koszty braku zgodności - koszty korekty błędów i likwidacji skutków niskiej jakości produktów, powstających po wystąpieniu błędów,
· koszty utraconych możliwości - koszty zabezpieczenia się na przyszłość powstające z zaabsorbowania kierownictwa problemami przeszłości oraz nie zwrócenia uwagi na związek bieżącej jakości z przyszłymi zyskami.
Do kosztów zgodności zalicza się w TQM koszty prewencji, kontroli, inspekcji. Koszty braku zgodności dotyczą wyrobów wybrakowanych, naprawy braków wewnętrznych i zewnętrznych, produkcji nietrafionej oraz spraw sądowych. Koszty utraconych możliwości to nieosiągnięte przez firmę zyski spowodowane niższą sprzedażą wyrobów o niższej jakości i niewykorzystaniem posiadanego majątku produkcyjnego.
Wdrożenie systemu TQM wymaga określania wielkości strat – kosztów niskiej jakości pracy. W tym celu w firmie określa się w poszczególnych kategoriach strat charakter kosztów oraz typ oszczędności, który wskazuje, co należy zrobić aby obniżyć konkretne koszty niskiej jakości pracy.
Metody zarządzania jakością
Nazwę QFD można rozumieć jako uwzględnianie na wszystkich etapach projektowania możliwie największej liczby czynników mogących wpływać na jakość wyrobu bądź procesów jego produkcji. W języku polskim jest najczęściej tłumaczona jako „rozwinięcie funkcji jakości\". Metoda QFD jest sposobem „tłumaczenia\" informacji pochodzących z rynku i wyrażanych w języku konsumentów na język techniczny, używany w przedsiębiorstwie przez projektantów, konstruktorów i technologów. Pozwala ona na ustalenie ogólnych, technicznych parametrów wyrobu i jego części, a następnie parametrów procesów, w których poszczególne części są wytwarzane. Innymi słowy, QFD służy do przekładania wymagań rynku na warunki, jakie musi spełnić przedsiębiorstwo na kolejnych etapach powstawania wyrobu, począwszy od projektowania poprzez produkcję aż po sprzedaż i serwis.
Zakres możliwości wykorzystania metody QFD jest bardzo szeroki i znalazła już liczne udokumentowane zastosowania:
· w przygotowaniu, konstruowaniu i uruchomianiu produkcji nowych wyrobów w takich branżach jak: przemysł okrętowy, budownictwo, budowa maszyn,
· w przygotowaniu nowych usług w: bankach i służbie zdrowia,
· w opracowaniu nowych systemów komputerowych w zakresie sprzętu i oprogramowania.
Podstawowym narzędziem metody QFD jest diagram nazywany często (ze względu na swój kształt) „domem jakości”. Diagram QFD zawiera specjalnie zdefiniowane pola. Ich liczba zależy od charakteru i złożoności zadania oraz do celu, jaki ma zostać osiągnięty za pomocą domu jakości.
Metoda FMEA (analiza przyczyn i skutków wad) pozwala urzeczywistnić ideę zawartą w zasadzie „zera defektów\". Celem FMEA jest:
· konsekwentne i trwałe eliminowanie wad („słabych\" miejsc) wyrobu (konstrukcji wyrobu) lub procesu produkcji (np. procesów obróbki) poprzez rozpoznawanie rzeczywistych przyczyn ich powstawania i stosowanie odpowiednich - o udowodnionej skuteczności - środków zapobiegawczych,
· unikanie wystąpienia rozpoznanych, a także jeszcze nieznanych wad w nowych wyrobach i procesach poprzez wykorzystywanie wiedzy i doświadczeń z już przeprowadzonych analiz.
Cele FMEA są również zgodne z zasadą „ciągłego doskonalenia\". Metoda FMEA pozwala poddawać wyrób lub proces kolejnym analizom, a następnie na podstawie uzyskanych wyników, wprowadzać poprawki i nowe rozwiązania, skutecznie eliminujące źródła wad. Analizy mogą przy okazji dostarczyć nowych pomysłów ulepszających właściwości wyrobu. W ten sposób stosowanie FMEA wplata się w cykl działań opisanych „kołem Deminga\".
Metodę FMEA zaczęto stosować w latach sześćdziesiątych w USA przy konstruowaniu oraz przygotowywaniu procesów wytwarzania złożonych i odpowiedzialnych wyrobów w astronautyce, technice jądrowej i w przemyśle lotniczym. Z czasem jej stosowanie stopniowo zaczęło obejmować inne gałęzie przemysłu, od których wymaga się wyrobów szczególnie wysokiej niezawodności ze względu na bezpieczeństwo użytkowników (np. przemysł samochodowy).
Wyróżnia się FMEA wyrobu/konstrukcji oraz FMEA procesu.
FMEA - wyrobu/konstrukcji przeprowadzana jest już podczas wstępnych prac projektowych w celu uzyskania informacji o silnych i słabych punktach wyrobu, tak aby jeszcze przed podjęciem właściwych prac konstrukcyjnych, istniała możliwość wprowadzenia zmian koncepcyjnych. Do wskazania słabych punktów wyrobu, mogących być w czasie jego eksploatacji przyczyną powstawania wad, są przydatne ustalenia uzyskiwane na etapie projektowania, dzięki wiedzy i doświadczeniu zespołu zaangażowanego w przeprowadzenie FMEA, a także z pomocą informacji uzyskiwanych podczas eksploatacji podobnych wyrobów własnych lub innych producentów. Wady wyrobu lub konstrukcji mogą dotyczyć:
· funkcji, które wyrób ma realizować· ,
· niezawodności wyrobu w czasie eksploatacji,
· łatwości obsługi przez użytkownika,
· łatwości naprawy w przypadku uszkodzenia,
· technologii konstrukcji.
Przeprowadzanie FMEA wyrobu/konstrukcji jest zalecane w sytuacjach:
· wprowadzania nowego wyrobu,
· wprowadzania nowych lub w dużym stopniu zmienionych części lub podzespołów,
· wprowadzania nowych materiałów,
· zastosowania nowych technologii,
· otwarcia się nowych możliwości zastosowania wyrobu,
· dużego zagrożenia dla człowieka lub otoczenia w przypadku wystąpienia awarii wyrobu (nie jest dopuszczalne wystąpienie jakichkolwiek wad),
· eksploatacji wyrobu w szczególnie trudnych warunkach,
· znacznych inwestycji.
FMEA procesu jest przeprowadzana w celu rozpoznania czynników, które mogą utrudniać spełnianie wymagań zawartych w specyfikacji konstrukcji lub dezorganizować przebieg procesu wytwarzania. Czynniki te mogą być związane z:
· metodami obróbki,
· parametrami obróbki,
· środkami pomiarowo-kontrolnymi,
· maszynami i urządzeniami.
FMEA procesu jest stosowana:
· w początkowej fazie projektowania procesów technologicznych,
· przed uruchomieniem produkcji seryjnej,
· w produkcji seryjnej w celu doskonalenia procesów, które są niestabilne lub nie zapewniają uzyskania wymaganej wydajności.
Realizowane są one w trzech zasadniczych etapach: przygotowania, przeprowadzenia właściwej analizy oraz wprowadzenia i nadzorowania działań prewencyjnych
Stosowane w przedsiębiorstwach instrumenty TQM których oddziaływanie na jakość jest długotrwałe, średnioterminowe i krótkoterminowe mają swoje określone zadania. Wskazane instrumenty współdziałają ze sobą służąc do efektywnego podnoszenia jakości.
Narzędzia jakości
Narzędzia zarządzania jakością służą do zbierania i przetwarzania danych związanych z różnymi aspektami jakości. Są instrumentami nadzorowania (monitorowania) i diagnozowania procesów projektowania, wytwarzania, kontroli, montażu oraz wszelkich innych działań występujących w cyklu istnienia wyrobu. Ich znaczenie wynika z faktu, że bez dysponowania rzetelnymi i pełnymi informacjami, trudno mówić o podejmowaniu skutecznych działań w zakresie systematycznego doskonalenia jakości.
Do tradycyjnych NZJ zaliczane są schemat blokowy, diagram przyczyn i skutków - diagram Ishikawy, diagram Pareto-Lorenza, arkusze kontrolne, histogram, wykres korelacji zmiennych i karty kontrolne Shewharta. Narzędzia te mogą być stosowane samodzielnie, ale zazwyczaj stanowią składnik MZJ
Schemat blokowy przedstawia w sposób graficzny ciąg działań realizowanych w danym procesie, przepływy informacji, przepływy materiałów itp. Nazywany jest często schematem przepływu lub algorytmem. Przedstawienie ciągu działań w postaci schematu blokowego pozwala lepiej zrozumieć istotę procesu.
Wykres przyczynowo-skutkowy Ishikawy, zwany także wykresem rybiej ości stanowi graficzne przedstawienie powiązań między czynnikami działającymi na proces i skutkami, które one powodują. Jest pomocny przy rozwiązywaniu problemów, jakie mogą wystąpić w procesie. Ishikawa opracował go specjalnie dla Kół Jakości działających w przedsiębiorstwach japońskich. Przygotowanie diagramu Iskikawy powinno być realizowane w grupie. Opracowanie diagramu może być realizowane w kilku fazach:
1. Określenie przyczyn głównych (ogólnych).
2. Określenie czynników drugorzędnych (szczegółowych).
3. Wybór czynnika krytycznego.
Diagram Pareto-Lorenza opiera się na stwierdzonej empirycznie prawidłowości, że w przyrodzie, technice, działalności człowieka itp. zazwyczaj 20-30% przyczyn (czynników) decyduje o około 70-80% skutków. Zidentyfikowanie tych przyczyn w przypadku SZJ pozwala na wyznaczenie kierunków działań, które szczególnie efektywnie mogą przyczynić się do doskonalenia procesów i podnoszenia poziomu jakości wyrobów Budowę diagramu wykonuje się w następujących fazach:
· kompletowanie informacji o badanym procesie, mających związek z określonym problemem,
· określenie wielkości, za pomocą której można mierzyć wynik procesu w aspekcie rozpatrywanego problemu,
· uszeregowanie, na podstawie zebranych informacji oraz wiedzy o procesie przyczyn ze względu na siłę ich oddziaływania na wynik procesu,
· wyznaczenie skumulowanych wartości procentowych każdej przyczyny,
· połączenie linią punktów odpowiadających wartościom skumulowanym,
· przeprowadzenie analizy wykresu w celu wyznaczenia grupy przyczyn, które powinny być zbadane (usunięte, ograniczone itp.) w pierwszym rzędzie.
rys. 4. Diagram Pareto-Lorenza
Arkusze kontrolne pomagają w zbieraniu i porządkowaniu informacji dotyczących konkretnego wyrobu lub procesu. Na arkusze nanosi się dane o zdarzeniach związanych z rozpatrywanym wyrobem lub procesem, w szczególności o częstości i miejscu ich występowania. Układ arkusza powinien eksponować cel, dla którego został stworzony. Należy wyraźnie podkreślić, że mimo swej prostoty, arkusze kontrolne są bardzo skutecznym narzędziem zbierania i porządkowania danych z pomiarów i obserwacji, Możliwym do stosowania w różnorodnych warunkach.
Histogram to narzędzie do pokazywania wykresów zmienności, wizualnego przedstawiania informacji o przebiegu procesu oraz podejmowania decyzji odnośnie tego, na czym należy się skupić w działaniach. Przed wykreśleniem histogramu należy:
· określić przedział zmienności analizowanej wielkości,
· wyznaczyć liczbę przedziałów szeregu rozdzielczego.
rys. 5. Histogram - wykres słupkowy przedstawiający rozkład częstości
Wykresy korelacji są graficzną ilustracją związku zachodzącego pomiędzy dwiema zmiennymi. Są one stosowane w przypadkach, gdy konieczne jest zbadanie zależności między dwoma czynnikami, np. potwierdzenie zależności przyczynowo-skutkowych wykorzystywanych w sterowaniu jakością.
Karty kontrolne Shewharta są podstawowym narzędziem w statystycznym nadzorowaniu i sterowaniu procesów, zwłaszcza w produkcji seryjnej. Prowadzenie karty kontrolnej jest związane z pobieraniem z procesu, w ustalonych, regularnych odstępach czasu, próbek (próbka oznacza np. kilka egzemplarzy wyrobu) o określonej liczebności. Dla każdej próbki obliczane są miary statystyczne, np. średnia arytmetyczna, mediana, rozstęp lub odchylenie standardowe wybranej cechy. Częstotliwość pobierania próbek oraz ich liczebność powinny być tak ustalone, aby wykres obliczonych wartości wykazywał wszelkie istotne zmiany zachodzące w kontrolowanym procesie.
rys. 6. Przykład karty kontrolnej Shewharta. „Karta dla wartości średniej w próbce - karta typu ”
W ostatnich latach do zestawu NZJ dołącza się grupę tzw. „nowych narzędzi zarządzania jakością\". Określenie „nowe\" jest związane z tym, że stanowią one uzupełnienie narzędzi tradycyjnych i są w pewnym stopniu na nowo „odkrywane\" dla praktyki zarządzania jakością. Nowe narzędzia stanowią ważną pomoc w rozwiązywaniu problemów.
Diagram relacji - określany także jako wykres współzależności przyczyn. Został zaprojektowany dla wskazania przyczyn występowania problemu oraz określenia ich wzajemnych powiązań. Jest podobny do diagramu Ishikawy, definiuje jednak nie tylko powiązania na linii „przyczyna - skutek\", ale określa także powiązania „przyczyna - przyczyna\". Elementy diagramu, do lub od których jest skierowana największa liczba powiązań stanowią punkt wyjścia do dalszych analiz. Wykorzystywane są w nich diagramy ukierunkowane lub scentralizowane. Diagram relacji służy jako punkt wyjścia do planowania działań korygujących.
Diagram pokrewieństwa -jest wykorzystywany do porządkowania rozproszonych danych i informacji zebranych przykładowo w wyniku „burzy mózgów\". Porządkowanie polega na tworzeniu nie więcej niż dziesięciu kategorii pojęć. Sortowanie pomysłów ma charakter intuicyjny. Problem określony w wyodrębnionej grupie jako wiodący wyznacza nazwę grupy. Diagram pokrewieństwa stanowi materiał wyjściowy do dalszej pracy z innymi narzędziami, takimi jak diagram Ishikawy lub diagram relacji.
Diagram systematyki - nazywany także diagramem drzewa, wykresem typu drzewo lub drzewem decyzyjnym. Wykorzystywany jest w procesach planowania. Stanowi graficzne uporządkowanie czynników powodujących występowanie problemu lub czynności niezbędnych w ramach danego procesu. W pierwszym przypadku przypomina wykres Ishikawy, w drugim - popularny schemat blokowy. Diagram logicznie i chronologicznie porządkuje przyczyny lub zadania ze względu na zdefiniowany cel, zgodnie z zasadą „od ogółu do szczegółu\". Jego weryfikacja polega na sprawdzeniu, czy zdefiniowane czynności szczegółowe umożliwiają realizację celu głównego i odwrotnie, czy analizując cel główny znajduje się np. wskazówkę, jak go zrealizować? Diagram systematyki stanowi dalsze uporządkowanie informacji zawartych w wykresach pokrewieństwa i współzależności.
Diagram macierzowy- nazywany także diagramem tablicowym. Przedstawi powiązania elementów (zadań, czynności, procesów, proponowanych rozwiązań) oraz rodzaj i „siłę\" związku. Dobór elementów diagramu może stanowić efekt prac, wykorzystujących inne narzędzia, np. burze mózgów lub analizę oddziaływań. W zależności od liczby grup czynników oraz rodzaju powiązań między nimi są stosowane różne typy diagramów. Metoda ta powstała w celu rozpoznania zależności pomiędzy wymaganiami klienta a parametrami wyrobu i umożliwiającego ustalenie jego cech Diagram macierzowy może także stanowić uszczegółowienie wykresu typu drzewo zdarzeń.
Macierzowa analiza danych - określana także jako wykres analizy danych lub tablicowa analiza danych. Celem jej stosowania jest analiza danych zawartych w diagramach macierzowych. Ukazuje zależności między dwoma zbiorami danych nie powiązanych ze sobą funkcjonalnie. Narzędzie to stanowi sposób prezentacji danych wyjściowych, których otrzymanie muszą poprzedzić wielowariantowe analizy danych zawartych w diagramach macierzowych. Taki sposób prezentacji danych jest wykorzystywany przede wszystkim w marketingu, np. w trakcie szukania nisz rynkowych.
Wykres programowy procesu decyzji - lub karta planowania procesu decyzji, diagram planowania procesu decyzyjnego. Umożliwia wybór optymalnej drogi osiągnięcia zamierzonego celu. Jest zbliżony do diagramu systematyki, jednak obok chronologii procedur ukazuje również możliwe, alternatywne rozwiązania. Bazuje na rozwiązaniach zawartych w diagramie systematyki. Budowa diagramu polega na tworzeniu pierwotnego schematu. Wykres może zostać rozszerzony o informacje, dotyczące osób odpowiedzialnych oraz terminy realizacji działań, prowadzących do ustalonego celu. Wykres „symuluje\" możliwy rozwój wydarzeń. Obok wskazywania możliwych zagrożeń, na wykresie umieszcza się także zestawienia proponowanych środków i czynności zaradczych. Wykres programowy procesu decyzji wykorzystywany jest do rozwiązywania problemów o dużym stopniu niepewności (np. w ocenie niezawodności produktu).
Diagram strzałkowy- lub wykres sieciowy. Wykorzystywany jest do planowania działań oraz ustalania ich kolejności (np. realizacji projektów).
Podstawowe koncepcje TQM
Deming, Juran i inni mają własne szczegółowe poglądy na kompleksowe zarządzanie jakością. Można jednak wyodrębnić pięć koncepcji, wspólnych dla tych poglądów i mających zastosowanie do wszystkich metod TQM. Są to:
· podejście systemowe,
· skupianie uwagi na klientach,
· rola kierownictwa,
· uczestnictwo pracowników
· narzędzia TQM.
Podejście systemowe
Warunkiem kompleksowego zarządzania jakością jest systemowe traktowanie organizacji. Dobyns i Crawford-Mason określają trzy systemy, za które menedżerowie ponoszą odpowiedzialność: system społeczny, czyli kulturowy, system zarządzania i system techniczny.
System to „ciąg funkcji lub działań (...) w obrębie organizacji, współpracujących, aby osiągnąć jej cele\". Części systemu muszą się wzajemnie wspomagać. Ludzie muszą współpracować dla dobra całego systemu albo nastąpi ,,suboptymalizacja\'. Kiedy poszczególne części organizacji nie wspomagają innych jej części, to organizacja nie może się skupić na kompleksowym zarządzaniu jakością. Zadanie kierownictwa polega na doprowadzeniu do tego, aby wszyscy koncentrowali się na celach systemu.
System techniczny „składa się z takich czynników, jak stosowane technologie i infrastruktura (w tym rozwiązania ergonomiczne, oprogramowanie i sprzęt komputerowy oraz inwestycje kapitałowe potrzebne do wypełnienia misji firmy)\".
System zarządzania „wyznacza efektywność procesów, za pośrednictwem których organizacja zarządza swoimi zasobami ludzkimi i materialnymi\". Ciągłe doskonalenie jakości i upełnomocnienie pracowników prowadzi do zmniejszania, a nie do zwiększania działów kontroli jakości. Wszyscy, od robotników w zakładzie produkcyjnym do członków naczelnego kierownictwa, ponoszą odpowiedzialność za doskonalenie jakości. Działy kontroli jakości zazwyczaj mierzą jakość, sprawdzając ją na końcu procesu wytwarzania. TQM oznacza, że robotnicy zwracają uwagę na jakość w każdej fazie procesu produkcyjnego, a kierownicy wyszukują przyczyny odchyleń. Entuzjaści automobilizmu uważają samochody BMW za jedne z najlepiej zaprojektowanych i najlepiej wykonanych samochodów na świecie. Liczba pracowników działu jakości BMW zmniejszyła się w latach 1976-1991 z 1200 do 65; jednocześnie jakość samochodów wzrosła.
System społeczny, zwany też systemem kulturowym, to zbiór przekonań i wynikających z nich zachowań wspólnych dla całej organizacji. Niektóre firmy rozpoczynają wdrażanie swoich inicjatyw jakościowych od dążenia do zmian systemu kulturowego.
Skupienie uwagi na klientach
Wiele dawniejszych prób poprawy jakości kończyło się niepowodzeniem właśnie dlatego, że menedżerowie fascynowali się narzędziami doskonalenia jakości. Poświęcali wiele czasu na tworzenie wykresów, statystyczną kontrolę procesów i benchmarking. Jeżeli jednak punktem wyjścia nie są potrzeby klientów, to stosowanie narzędzi doskonalenia jakości może prowadzić do wytwarzania wyrobów, których nikt nie chce kupować. Joseph Juran zdefiniował jakość jako „nadawanie się do użytku\" nadawanie się wyrobu do zaspokojenia rzeczywistych potrzeb klientów. Juran uważa, że dzięki skupianiu się na rzeczywistych potrzebach klientów menedżerowie i robotnicy mogą poświęcać swoje wysiłki na to, co jest naprawdę ważne.
Ford Motor Co. zainstalował ogólnokrajowy bezpłatny telefoniczny system obsługi klientów, żeby na bieżąco znać stopień ich zadowolenia. Zrezygnowano przy tym z linii telefonicznych regionalnych ośrodków obsługi klientów, które irytowały klientów powolnym czasem reakcji i częstym występowaniem sygnałów zajętości. Zadowolenie klientów opłaca się. Kierownictwo Ford Motor Co. szacuje, że zdobycie nowego klienta kosztuje firmę pięć razy więcej niż utrzymanie dawnego.
Budzące podziw wyniki przyniosło skupianie uwagi koncernu Toyota na zadowoleniu klientów. Chociaż sprzedaż amerykańskich samochodów w USA malała, udział Toyoty w rynku wzrastał. Zwiększanie zadowolenia klientów zaczęło się od poważnego zaangażowania naczelnego kierownictwa Toyoty. Wprowadzono plan strategiczny, nazwany „sposobem działania Toyoty\", przewidujący „zaangażowanie się w doskonałość, dbałość o najwyższą jakość oraz troskę o ludzi opartą na komunikowaniu się i współpracy\". Koncern stworzył też służbę obsługi klientów na szczeblu centrali korporacji, podlegającą bezpośrednio naczelnemu kierownictwu. Powołano ośrodek pomocy dla klientów, którego podstawowym zadaniem jest mierzenie stopnia zadowolenia klientów. Czterdziestu pracowników tego ośrodka przeprowadza rocznie ponad 300 tys. rozmów telefonicznych. Ponadto firma powołała „aktywnych dealerów\" (action dealers), mających obowiązek załatwiania reklamacji klientów. Dealer taki ma dwa dni na skontaktowanie się z klientem i 15 dni na rozwiązanie problemu. Toyota wywiera nacisk na mało skutecznych dealerów, włączając ich do „programu 20 najsłabszych\". Dealerzy z tej grupy muszą przedkładać centrali swoje plany działania na rzecz poprawy jakości obsługi klientów.
Rola kierownictwa
Wielu menedżerów zakłada na wstępie, że jeżeli występuje problem z jakością, to winę ponosi jakaś określona osoba (kierownik lub robotnik). Jedną z cech filozofii kompleksowego zarządzania jakością jest kwestionowanie tego założenia. Przyjmuje się w niej, że źródeł problemów jakości należy szukać w sali konferencyjnej rady nadzorczej i w gabinetach członków naczelnego kierownictwa oraz innych osób, nie traktujących sprawy jakości z należytą powagą. Na przykład Deming uważa, że do czasu rozpoznania systemu, będącego przyczyną określonego błędu w jakości, kierownictwo nie jest w stanie wykonać swoich zadań. Zadaniem każdego menedżera jest wyszukiwanie i usuwanie przyczyn błędów, a nie jedynie wykrywanie błędów po ich wystąpieniu i obarczanie za nie kogoś winą. Zapewne najsłynniejszym powiedzeniem Deminga jest to, że 85% problemów każdej organizacji ma swoje źródła w systemach, a jedynie 15% u robotników.
Na pytanie co było przyczyną, iż Ford osiągnął tak duże postępy w jakości, Deming odpowiedział, że członkowie zarządu koncernu uznali jakość za swoje najważniejsze zadanie i odpowiednio do tego podjęli działania. W firmie Motorola, ówczesny dyrektor naczelny, Robert Galvin, ustalił, że pierwszym punktem porządku dziennego wszystkich posiedzeń zarządu firmy będą sprawy jakości. Wychodził wkrótce po ich omówieniu, przed informacjami na temat finansowej efektywności firmy. Galvin twierdzi, że połowę swojego czasu poświęcał sprawom jakości. Dawny dyrektor naczelny Xerox, David Kearns, mimo protestów pionu sprzedaży, wstrzymywał wprowadzenie na rynek nowych wyrobów, jeżeli występowały w nich najdrobniejsze usterki jakościowe. Roger Milliken, dyrektor naczelny Milliken & Co., zapewniał wszechstronne przeszkolenie członków naczelnego kierownictwa, w tym samego siebie, w sprawach jakości, zanim przystępowano do szkolenia pracowników niższych szczebli.
Uczestnictwo pracowników
Zaangażowanie i uwaga naczelnego kierownictwa jest koniecznym warunkiem skuteczności TQM w dowolnej organizacji, ale nie przyniesie wiele bez upełnomocnienia pracowników. Upełnomocnienie jest nazwą istotnej zmiany wprowadzanej w firmach. Oznacza ono, że pracownicy mogą podejmować decyzje na wszystkich szczeblach organizacji bez konieczności pytania kierowników o zgodę. Pomysł jest całkiem prosty: ludzie, którzy wykonują dane zadanie, czy to polegające na obsłudze skomplikowanej maszyny, czy też na świadczeniu prostych usług, mogą najskuteczniej ustalić, jak je najlepiej wykonywać. Jeżeli zatem istnieje możliwość usprawnienia danej pracy lub systemu, którego ta praca jest częścią, ludzie powinni ją wprowadzać bez konieczności proszenia o zezwolenie.
Nowe zakłady Generał Motors „Saturn\" w Tennessee są przykładem wszechstronnego działania koncernu na rzecz wygrywania z japońskimi konkurentami dzięki wprowadzeniu amerykańskiego systemu kompleksowego zarządzania jakością. Decyzje są podejmowane przez zespoły tych ludzi, których bezpośrednio dotyczą. Każda decyzja musi uzyskać poparcie co najmniej 70% członków zespołu; jeżeli tego się nie osiągnie, zainteresowani muszą przygotować dalsze informacje na kolejną naradę. Jeżeli zakład nie zrealizuje swoich celów jakościowych, wszyscy jego członkowie, łącznie z menedżerami, mogą stracić do 20% płacy. Za wyniki lepsze od ustalonych celów pracownicy mogą otrzymać dodatkowe nagrody.
Wymogi jakości
Panuje powszechne przekonanie, że kultura japońska oparta na dyscyplinie i poszanowaniu środowiska pracy sprzyja procesowi doskonalenia jakości. Z tym poglądem dyskutuje J. Juran w jednym ze swych artykułów. Stwierdza, że nie ma potrzeby dokonywania przekształceń w amerykańskiej kulturze, istnieje tylko potrzeba intensyfikacji działań w zakresie upowszechniania kultury jakości, na wzór przedsiębiorstw, które osiągnęły znaczące sukcesy w tej dziedzinie.
Najważniejszym problemem jest intensyfikacja globalnej konkurencji w zakresie jakości. Ten rodzaj współzawodnictwa zmienia perspektywy światowej gospodarki, gdyż, jak pisze J. Juran, jeśli wiek XX był wiekiem wydajności, to XXI będzie niewątpliwie wiekiem jakości\".
Wymagania dotyczące zachowań kierownictwa
Podstawowym błędem w zakresie organizacji działań związanych z jakością jest swego rodzaju ignorancja kierownictw przedsiębiorstw i delegowanie tych uprawnień do departamentów jakości, czyli najczęściej średniego szczebla zarządzania, podczas gdy w japońskich przedsiębiorstwach problematyka jakości znajduje się w obszarze kompetencji i działań nadrzędnego kierownictwa.
Zdaniem J. Jurana, nowy impuls w zakresie myślenia o jakości zależy od tego, jak szybko nadrzędne kierownictwo zaakceptuje swoją wiodącą rolę w dziedzinie tych „nie podlegających delegowaniu uprawnień\".
W celu dokonania zasadniczych zmian w zarządzaniu jakością każdy menedżer powinien:
· zorganizować radę ds. jakości wzorowaną na zespole ds. finansów i zaangażować się osobiście w jej działalność,
· ustalić cele organizacji ds. jakości, cele doskonalenia jakości i uczynić je częścią biznes planu,
· stworzyć możliwości uczestniczenia w treningach dotyczących zarządzania jakością dla całego szerokiego kierownictwa przedsiębiorstwa,
· ustalić miary i ich znaczenia dla oceny rezultatów w zakresie jakości i stopnia osiągania ustalonych celów,
· dokonywać regularnych przeglądów wyników w stosunku do ustalonych celów,
· wyrażać uznanie dla najlepszych wyników w zakresie jakości,
· dokonywać przeglądu systemu nagród dla przedsiębiorstw z punktu widzenia wymogów dla światowej klasy jakości.
Wymogi te adresowane do nadrzędnego kierownictwa firm dotyczą aktywnego udziału kierownictwa i pełnego zaangażowania w realizację funkcji poprawy jakości. Konieczne jest „pozyskanie\" kierownictwa dla pełnienia tej roli, która to funkcja nie może być delegowana do średniego szczebla zarządzania. Tego rodzaju wymogi stawiane kierownictwu powinny być jednak wynikiem ewolucyjnych zmian w kulturze organizacji, istotnych przewartościowań w podejściu do zarządzania przedsiębiorstwem przez menedżerów najwyższego szczebla.
Ocena stanu kultury organizacji z punktu widzenia realizacji wymogów koncepcji TOM
Założenia koncepcji TQM dotyczące pozytywnych i długookresowych zmian w kulturze organizacji wiążą się z oczekiwaniem ciągłości i efektywności tych zmian. Badacze zgadzają się, że zmiany w kulturze organizacji i indywidualnych zachowaniach wymagają czasu, jednakże istnieje rozbieżność w ocenie długości trwania okresu „dochodzenia\" do pozytywnych i głębokich zmian. Jako najbardziej prawdopodobny przyjmuje się okres 4-5 lat, ale może to być także 20 lat i więcej.
Menedżerowie na ogół oczekują rezultatów zmian w krótkim okresie, mimo że zdają sobie sprawę z tego, iż koncepcja TQM związana jest z długookresową perspektywą powodującą znaczące zmiany w zachowaniu i kulturze organizacji. Sprzeczność ta jest określana mianem „paradoksu TQM\". Tego rodzaju konflikt jest stosunkowo trudny do rozstrzygnięcia i stanowi istotną barierę wprowadzania założeń TQM w przedsiębiorstwie. W niektórych wypadkach stroną tego konfliktu są również akcjonariusze, którzy protestują przeciwko wprowadzaniu TQM ze względu na długi okres oczekiwania na efekty, a także wysokie koszty początkowe związane z przemianami w filozofii zarządzania i kulturze organizacji.
Interesujące spojrzenie na bieżący stan działań przedsiębiorstw w zakresie zmian w kulturze jakości prezentuje T.G. Gunn, który oparł swe wnioski na poglądach i ocenach kierownictwa badanych przedsiębiorstw. Badane przedsiębiorstwa określały własną pozycję w zakresie tworzenia kultury jakości.
Wydaje się jednak, że przedsiębiorstwa konsekwentnie dążące do osiągnięcia światowej jakości w swych działaniach mogą osiągnąć sukcesy.
Oprócz pozytywnych efektów doskonalenia jakości, takich jak:
· zwiększenie konkurencyjności produktów przedsiębiorstwa,
· zwiększenie efektywności,
· trwałe pozytywne zmiany kultury organizacji,
należy wspomnieć również o czynnikach utrudniających wprowadzanie założeń koncepcji TOM. Czynniki te znajdują się na ogół po stronie wspomnianego wcześniej naiwnego podejścia do zagadnień doskonalenia jakości działań.
Najczęściej popełnianym błędem jest oczekiwanie pełnego zrozumienia, kreatywności działań wszystkich pracowników i pełnego utożsamiania indywidualnych interesów pracowników z sukcesami firmy. Takie podejście krytykuje również Deming, stwierdzając, że deklaracje słowne pobudzają wyobraźnię, ale podejmowane działania dają często efekt przeciwny do deklaracji i obietnic. Wskazuje również, że większość organizacji kształtuje swoich pracowników poprzez różnego rodzaju treningi i szkolenia do wykonywania standardowych czynności, a nie pobudza ich naturalnej zdolności uczenia się i kreatywności. Oczekiwanie zatem od pracowników działań niestandardowych czy też twórczych należy umieścić po stronie wspomnianych słownych deklaracji.
Obserwacja działalności przedsiębiorstw wskazuje, że założenia koncepcji TOM traktowane są często jako działania doraźne, a nie jako proces. Na takie rozumienie filozofii TOM wskazują wyniki badań prowadzonych wśród przedsiębiorstw deklarujących stosowanie założenia doskonalenia jakości. Doskonalenie rozumiane jest najczęściej jako program działań o charakterze doraźnym, pozwalających wyeliminować niekorzystne zjawiska lub osiągnąć poprawę sytuacji w krótkim okresie.
Należy podkreślić, że istotnym czynnikiem wpływającym na traktowanie koncepcji TOM jako programu działań doraźnych, a nie jako procesu (czyli w efekcie ograniczającym możliwość wykorzystania tej koncepcji zarządzania), są cechy osobowości, kwalifikacje i pozycja zawodowa kadry kierowniczej przedsiębiorstw.
Zmienność otoczenia i konieczność podejmowania decyzji w warunkach permanentnej niepewności działania wyzwala często zachowania określane mianem działań chaotycznych opisywanych przez teorię chaosu. Hipoteza ta jest dość interesująca i być może w jakimś stopniu ma odbicie w praktycznym działaniu przedsiębiorstw, ale uznanie jej słuszności nie pozwala na optymistyczną ocenę szans i możliwości wykorzystania koncepcji TQM w zarządzaniu przedsiębiorstwem.
Podjęcie przez przedsiębiorstwo decyzji o wprowadzaniu koncepcji TQM oznacza rozpoczęcie i konsekwentne wprowadzanie procesu zmian o charakterze organizacyjnym, kulturowym, marketingowym. Jest to łańcuch długotrwałych, konsekwentnych i świadomych działań. Aby były one skuteczne przedsiębiorstwo powinno być skoncentrowane na jakości i jej ciągłym polepszaniu. Istotną role w tym procesie odgrywają wszyscy pracownicy przedsiębiorstwa. Bardzo ważnym elementem jest znajomość potrzeb i zadowolenie klienta.
Założenia i cechy TQM
W polskiej edycji normy PN-ISO 8402 funkcjonuje pojęcie „zarządzanie przez jakość (TQM)\", definiowane jako „sposób zarządzania organizacją, skoncentrowany na jakości, oparty na udziale wszystkich członków organizacji i nakierowany na osiągnięcie długotrwałego sukcesu dzięki zadowoleniu klienta i korzyściom dla wszystkich członków organizacji i społeczeństwa\".
Definicja ta oddaje być może treść pojęcia „zarządzanie przez jakość\", ale nie może być utożsamiana z pojęciem Total Quality Management. Odpowiednikiem TQM jest określenie: zintegrowane systemy sterowania jakością w przedsiębiorstwie. Zintegrowany system to taki, który obejmuje wszystkie obszary, działania gospodarcze oraz uwzględnia powiązania między poszczególnymi obszarami. Koncepcja TQM spełnia ten wymóg, gdyż jej zasadniczą cechą jest kompleksowość, obejmowanie całościowych problemów zarządzania przedsiębiorstwem, ale także zintegrowanie, połączenie wszystkich jego części, elementów, procesów wokół nadrzędnej idei ciągłego doskonalenia. Zasadnicza idea ciągłego doskonalenia wymaga jednak rozwinięcia, dostosowania do warunków konkretnego przedsiębiorstwa.
Ze względu na wymienioną nadrzędną zasadę w niektórych opracowaniach przyjmuje się jako synonim TQM określenie CQT (Continual Quality Improvement), eksponując w ten sposób zasadniczą rolę procesu zmian w tej koncepcji.
Zgodnie jednak z definicją M. Sashkina i K. J.Kisera, zawartą w książce „Putting Total Quality Management to Work”, podstawą koncepcji są trzy zasadnicze elementy:
· skoncentrowanie się na narzędziach i technikach szkolenia w celu wykorzystania ich do identyfikacji i rozwiązywania problemów jakościowych,
· skoncentrowanie się na potrzebach konsumenta; ujmowanie i traktowanie tego elementu jako zasadniczej idei CQI,
· kultura organizacyjna bazująca na wartościach i wizji nadrzędnego kierownictwa.
Definicja ta, uściślając i rozszerzając obszar rozważań w koncepcji TQM, w niedostateczny sposób wyróżnia to, co najistotniejsze w tej koncepcji, i stanowi jej element „spinający\" znaczenie procesów doskonalenia.
W gospodarce światowej w okresie globalnej konkurencji następuje stymulowanie procesów doskonalenia na poziomie przedsiębiorstwa. Rozszerzenie i uściślenie podstawowych elementów tej koncepcji można znaleźć w wymogach skierowanych do przedsiębiorstw ubiegających się o zdobycie nagrody o światowym znaczeniu - Malcolm Bałdrige National Quality Award.
Spośród wielu szczegółowych wymogów można wyróżnić osiem elementów charakteryzujących te przedsiębiorstwa, które rozszerzają działania na rzecz poprawy jakości i wprowadzania koncepcji TQM. Możemy do nich zaliczyć:
· planowanie procesu ciągłego doskonalenia wszystkich procesów,
· istnienie wewnętrznych systemów oceny stopnia zgodności doskonalenia operacji z założeniami,
· planowanie strategii opartej na porównywaniu przedsiębiorstwa w stosunku do konkurentów z danej branży i konkurencji światowej,
· ścisłą współpracę i partnerstwo z dostawcami i klientami, którego konsekwencją jest ciągłe doskonalenie działań,
· pełną znajomość potrzeb klientów i przekształcanie tych oczekiwań w konkretne produkty,
· trwałe i długookresowe badanie relacji z klientami i dostawcami produktu wraz z pełną obsługą, tj. sprzedaż, serwis i ułatwienia w użytkowaniu,
· nastawienie na zapobieganie błędom, a nie na ich usuwanie,
· zobowiązanie do doskonalenia jakości, które przebiega poprzez naczelne kierownictwo organizacji w dół do stanowisk pracy.
O znaczeniu tej prestiżowej nagrody dla przedsiębiorstw świadczy fakt, że każdego roku ubiega się o jej otrzymanie ok. 200 tyś. przedsiębiorstw.
Przedstawione bardziej szczegółowe warunki i założenia, które wynikają z zasad filozofii TQM, można bez trudu odnaleźć w założeniach innych znanych koncepcji zarządzania przedsiębiorstwem. Najwięcej „bliskich\" związków można odnaleźć między TQM a marketingiem, gdyż istotnymi elementami łączącymi obie koncepcje są konsument, znajomość jego potrzeb, umiejętność ich zaspokajania, a także kreowanie potrzeb lub dostarczenie konsumentowi pożądanej wartości. Innym wspólnym elementem jest założenie doskonalenia zrozumienia i zaspokajania potrzeb konsumenta.
Wydaje się zatem, że zasadnicze założenia i cechy koncepcji TQM wskazują na otwartość i elastyczność tej koncepcji zarządzania oraz możliwość czerpania doświadczeń z innych metod zarządzania. Istotna jest również możliwość wzajemnego przenikania się elementów tych koncepcji zarządzania, które mają charakter ewolucyjny. TQM jako koncepcja zarządzania także podlegało ewolucji od klasycznej kontroli jakości wyrobu w trakcie procesu produkcyjnego lub po jego zakończeniu, poprzez późniejsze zastosowanie metod statystycznej kontroli oraz innych metod pozwalających wyeliminować błędy w procesie produkcji, po obecną filozofię ciągłego doskonalenia. Zmusza to menedżerów do zmiany myślenia i podejmowania działań nastawionych na osiągnięcie wysokiej jakości w długim okresie.
Po drugiej wojnie światowej japońska droga zmiany sposobu myślenia o zarządzaniu przedsiębiorstwem, przy wykorzystaniu dorobku amerykańskiej szkoły zarządzania, została oparta na trzech zasadniczych założeniach. Należą do nich:
· wysoka jakość produktu,
· stosunkowo niskie koszty wytwarzania,
· przyjęcie jako priorytetu zaspokojenia szeroko pojętych potrzeb konsumenta.
Zmieniło to w sposób zasadniczy także dotychczasowe nastawienie do zarządzania przedsiębiorstwem w USA i w Europie. Chodzi przede wszystkim o odchodzenie od powszechnej dotąd koncepcji zapewnienia wewnętrznej sprawności zarządzania w przedsiębiorstwie.
Przedsiębiorstwa poddawane są ciągłej ocenie zewnętrznej, a nasilenie się konkurencji na rynkach światowych i globalizacja rynków stały się dodatkowymi czynnikami zmuszającymi organizacje do wprowadzania istotnych przewartościowań zarówno w zarządzaniu, jak i w kulturze organizacji i etyce postępowania.
Zasady jakości
Zasady określają stosunek przedsiębiorstwa i jego pracowników do zarządzania jakością. Są pomocne we wdrażaniu SZJ, przy motywowaniu pracowników do działań w kierunku jego rozwijania i doskonalenia. Ustalają w prostej, zwartej formie główne cele i zadania polityki jakości, prowadzonej przez kierownictwo firmy. Zasady nie dostarczają wprost narzędzi i metod działania. Sprawiają jednak, że każde pojedyncze działanie jest właściwie umotywowane i ukierunkowane. W efekcie, pozwalają na wykorzystanie w SZJ efektu synergii.
Zasady mogą mieć charakter zbioru wskazówek dotyczących kształtowania stosunków w całym przedsiębiorstwie, jak też mogą definiować konkretne zadania i być skierowane w szczególności do pracowników, zatrudnionych w określonych działach przedsiębiorstwa. Za źródło zasad zarządzania jakością w prezentowanym tutaj rozumieniu można uznać prace Deminga oraz jego czternaście postulatów -Większość z tych postulatów już w momencie ich formułowania nie była w zasadzie ani nowa, ani odkrywcza. Jednak dzięki efektowi synergii stworzyły one podstawy nowego podejścia do jakości. Mówi się nawet o stworzeniu przez Deminga nowej filozofii jakości. A oto 14 zasad Deminga:
1. Uporczywie i nieustannie dąż do ulepszenia produktów i usług tak, aby były konkurencyjne, utrzymywały przedsiębiorstwo i dawały zatrudnienie. Celem jest ciągłe kroczenie naprzód i dążenie do zachwycenia klienta, w czym pomocne jest planowanie długofalowe (strategiczne).
2. Przyjmij nową filozofię odpowiadającą nowej erze gospodarczej. Nie można dalej tolerować dotychczasowych rozmiarów opóźnień, pomyłek i braków.
3. Przestań polegać na pełnej kontroli końcowej, eliminuj ją poprzez stanowienie kontroli międzyoperacyjnej jakości wykonania na pierwszym miejscu.
4. Zrezygnuj z praktyki oceniania transakcji na podstawie ceny zakupu, żądaj natomiast wraz z ceną konkretnych pomiarów. Eliminuj z dostawców tego samego produktu tych, którzy nie stosują metod statystycznych.
5. Ulepszaj ciągle i na stałe system produkcyjny i usługowy w celu poprawienia jakości, wydajności i ciągłego zmniejszania kosztów.
6. Organizuj szkolenia w pracy.
7. Dobierz kierownictwo i przyjmij system kierowania, który będzie pomagał ludziom (niejasne instrukcje), maszynom i urządzeniom (konieczność konserwacji), aby wykonywały lepszą pracę oraz wprowadzały cechy nowoczesnego nadzoru:
a. biegłość
b. w wykorzystaniu kontroli statystycznej, - orientacja na pomoc podwładnym,
c. ukierunkowanie i upoważnienie mistrzów do informowania wyższego kierownictwa o sprawach wymagających korekty z punktu widzenia strategii jakości, - usuwanie barier uniemożliwiających robotnikom wykonywanie pracy z poczuciem dumy, zadowolenia (samorealizację).
8. Stwórz warunki do pracy bez obaw i strachu, aby każdy mógł pracować efektywnie dla firmy.
9. Zburz bariery między poszczególnymi działami.
10. Eliminuj slogany i nawoływania robotników do zlikwidowania braków oraz do wyższego poziomu wydajności.
11. Eliminuj ilościowe normatywy wykonania na oddziale produkcyjnym, zastąp je właściwie zorganizowanym kierownictwem oraz zrezygnuj z okresowej oceny pracowników.
12. Usuń bariery, które pozbawiają pracowników godzinowych ich prawa do dumy z wykonywanej pracy.
13. Ustal żywy i skuteczny program dokształcający związany z pracą i służący także rozwojowi osobistemu.
14. Realizacja powyższych wskazówek wymaga zapewnienia warunków, w których cała załoga dostrzegać będzie potrzeby działania.
Zasady Deminga stały się również jednym z ważniejszych elementów TQM.
W literaturze i praktyce często mówi się o zasadach „ciągłego doskonalenia\" oraz „zera defektów”.
Zasada „ciągłego doskonalenia”, w Japonii znana pod nazwą „Kaizen\", jest rozwinięciem 5 punktu Deminga, który mówi, że „ciągle należy szukać przyczyn powstających problemów, tak aby wszystkie elementy systemu produkcyjnego oraz związane z nimi działania stawały się coraz lepsze\". Ogólnie, każdy proces wykazuje dwojakiego rodzaju odchylenia od wymaganego stanu: naturalne, nierozłącznie związane z procesem i trudne do wyeliminowania bez wprowadzenia w nim zasadniczych zmian oraz specjalne, pojawiające się okresowo lub sporadycznie, łatwo zauważalne i możliwe do wyeliminowania za pomocą rutynowych działań. W celu ograniczenia odchyleń, a następnie ich wyeliminowania, należy w pierwszej kolejności przystąpić do usuwania odchyleń specjalnych, jako łatwiejszych do identyfikacji. Po ich usunięciu lub przynajmniej opracowaniu skutecznejmetody ich ograniczenia uzyskuje się nad procesem kontrolę- możliwe jest przewidywanie stanu jego wyjść. Dopiero później należy przystąpić do ograniczania odchyleń naturalnych, a w efekcie - do trwałej poprawy jakości.
Z zasadą „ciągłego doskonalenia\" związane jest tzw. koło Deminga określane również jako cykl PDCA - skrót od ang. określenia „Plan - Do - Check - Act\" Zgodnie z nim, podstawą realizacji zasady „ciągłego doskonalenia\" jest opracowanie planu działania. Należy określić w nim cele oraz przewidzieć ewentualne przeszkody w ich osiągnięciu. Wszelkie dane i informacje uzyskane w fazie „działania\" należy gromadzić i przechowywać. Po wprowadzeniu w procesie (w wyrobie) udoskonaleń, należy mierzyć uzyskaną poprawę jakości, a informacje o tym wykorzystywać przy planowaniu działań w następnym cyklu.
Zasada „zera defektów\" została podana i rozwinięta przez Crosby\'ego i oznacza produkcję bezusterkową, bez braków i konieczności poprawiania. Crosby podaje szereg działań, pozwalających na osiągnięcie tego celu, z których najważniejsze to
· pomiar jakości i przedstawianie wyników w postaci pozwalającej na obiektywną ocenę i podejmowanie działań korekcyjnych,
· zachęcanie pracowników do pracy w małych grupach i do formułowania w ich ramach własnych lub grupowych celów poprawy jakości i podkreślanie, że program doskonalenia praktycznie nie ma końca,
· stworzenie systemu komunikacji pozwalającego pracownikom na łatwe komunikowanie się między sobą i z przełożonymi.
Zasada „zera defektów\" wiąże się z zasadą „zapobiegania powstawaniu niezgodności na jak najwcześniejszych etapach istnienia wyrobu\". Ważne jest rozbudzenie świadomości, że mogą mieć one swoje przyczyny na wszystkich poziomach i we wszystkich obszarach funkcjonowania przedsiębiorstwa.
Praktyczna realizacja zasady „zera defektów\" jest możliwa, jeśli są eliminowane przyczyny niezgodności, a nie tylko ich skutki. W wielu przypadkach, zapewnienie Jakości w przedsiębiorstwach sprowadza się do usuwania skutków niezgodności (występujących zazwyczaj w postaci braków) po zakończeniu określonego etapu procesu technologicznego - czasami jest przeprowadzane dopiero po zakończeniu całego procesu Produkcyjnego. „Produkowanie\" braków jest przy tym podejściu stałym i nieodłącznym elementem procesu produkcyjnego, co wszyscy jego uczestnicy traktują jako rzeczywistą i nie wymagającą zmiany. Zapewnianie jakości jest postrzegane wyłącznie przez pryzmat tradycyjnie rozumianej kontroli jakości.
Znaczenie jakości
Dla silniejszego zaakcentowania znaczenia jakości rząd amerykański ustanowił nagrodę Malcolma Baldrige\'a, nazwaną imieniem byłego ministra handlu, który był bojownikiem o jakość w amerykańskim przemyśle. Nagroda, będąca w gestii agencji Departamentu Handlu, jest corocznie przyznawana firmom, które osiągają istotną poprawę jakości wyrobów lub usług.
W Japonii istnieje nagroda jakości Deminga. Większość krajów europejskich przyznaje własne nagrody w tej dziedzinie. Również w Polsce od trzech lat przyznaje się najlepszym przedsiębiorstwom wyróżnienie w postaci Nagrody Jakości. Została ona zaprojektowana na wzór Europejskiej Nagrody Jakości. Mogą ją uzyskać polskie przedsiębiorstwa działające co najmniej od trzech lat, których kapitał w przynajmniej 50% leży w polskich rękach.
W Polsce przyznaje się trzy rodzaje nagród:
· zespołową (dla przedsiębiorstw),
· indywidualną (dla osób zasłużonych w działalności na polu jakości),
· wyróżnienie.
Nagrodę zespołową przyznaje się według określonych w regulaminie warunków. Przedsiębiorstwo samo musi zgłosić swoją kandydaturę i dostarczyć wypełniony formularz samooceny opartej o dziewięć kryteriów. Podzielone one zostały na dwie grupy: - pierwsza określa potencjał, a druga efekty firmy. Do pierwszej z nich należy zaliczyć przywództwo, czyli zaangażowanie naczelnego kierownictwa (w tym także prezesa lub dyrektora) we wdrażaniu Total Quality Management (TQM). Wizję organizacji przedstawia polityka i strategia. Kryterium to odnosi się do podstawowych wartości, którymi kieruje się przedsiębiorstwo, kierunków jego strategii oraz sposobu ich realizacji. Bardzo ważną rolę pełni zarządzanie ludźmi, gdyż przedstawia sposoby wykorzystania potencjału ludzkiego. Kolejne dwa kryteria dotyczą zasobów i procesów zachodzących w przedsiębiorstwie. Do drugiej grupy należy zaliczyć przede wszystkim satysfakcję klientów, ale także satysfakcję pracowników. Bardzo ważnym elementem jest także wpływ na otoczenie, oszczędność zasobów naturalnych oraz ochrona środowiska - szczególnie ważne w świetle serii norm ISO 14000. Ocenie podlega również efekt końcowy przedsiębiorstwa. Pierwszym laureatem Polskiej Nagrody Jakości był rzeszowski Zelmer. W roku 1996 wygrał Famak (rok wcześniej otrzymał wyróżnienie). Z roku na rok zwiększa się prestiż Nagrody. Coraz więcej firm ubiega się o nią. Jakość staje się coraz częściej narzędziem marketingu, dzięki czemu klienci mogą uzyskiwać coraz lepsze wyroby.
Poza tymi ogólnymi względami, jakość jest również ważnym przedmiotem troski indywidualnych menedżerów i organizacji z trzech bardzo szczególnych powodów: konkurencji, wydajności i kosztów).
Jakość stała się jednym z najważniejszych czynników konkurencyjności współczesnego przedsiębiorstwa. Na przykład Ford, Chrysler i General Motors Corp. zgodnie przekonują np., że ich samochody są lepsze od innych. Również IBM, Apple Computer Inc. czy Digital Equipment Corp. podkreślają jakość swoich produktów. Rzeczywiście wydaje się, że niemal wszystkie przedsiębiorstwa wykorzystują jakość jako ważny atut w walce konkurencyjnej. Przedsiębiorstwo, które nie dotrzymuje kroku w tej dziedzinie, może stwierdzić, że przegrywa nie tylko w walce z konkurentami zagranicznymi, ale również z innymi firmami krajowymi.
Menedżerowie dostrzegają dziś powiązanie jakości i wydajności. W przeszłości wielu menedżerów sądziło, że można zwiększać produkcję (wydajność) tylko kosztem obniżenia jakości. Współcześni menedżerowie przekonali się na własnej skórze, że takie założenie niemal zawsze jest fałszywe. Jeżeli firma powoła sensowny system poprawy jakości, skutki takiego działania mogą być trojakie.
Po pierwsze, najprawdopodobniej spadnie liczba usterek, co zmniejszy liczbę zwrotów od klientów.
Po drugie, z powodu obniżenia liczby usterek spadnie wielkość zasobów ludzkich i materiałowych przeznaczonych na ich usuwanie.
Po trzecie, ponieważ powierzenie pracownikom odpowiedzialności za jakość zmniejsza zapotrzebowanie na kontrolerów jakości, przedsiębiorstwo może wytworzyć więcej jednostek produktu przy użyciu mniejszej ilości zasobów.
Wyższa jakość pociąga za sobą obniżkę kosztów. Skutkiem niskiej jakości są większe zwroty od klientów, wysokie koszty napraw gwarancyjnych, a także skargi sądowe klientów, dotkniętych wadliwymi produktami. Następuje spadek przyszłej sprzedaży związany z niezadowoleniem klientów. Firmy mające problemy z jakością często musi zwiększyć wydatki na kontrolę jakości, by wychwycić wadliwe wyroby.