Six Sigma dobra na wszystko

Jadwiga Gnybek

Nie od dziś wiadomo, że wszystko co nas otacza powinno być coraz lepsze, coraz szybsze i coraz bardziej zoptymalizowane. Dotyczy to w równym stopniu strojenia motoru bazy danych, optymalizacji kodu, jak też organizacji pracy informatyki, i nie tylko. A skoro mowa o organizacji pracy, to oczywiście: procesy i SOA. Procesy, które najpierw trzeba zdefiniować, a później optymalizować. Oczywiście, dotyczy to procesów wszelkiego typu: i tych podstawowych, stanowiących core business naszej firmy, jak i tych organizujących pracę informatyki – takich jak opisywany wcześniej na łamach naszej gazety ITIL.

Przeglądając ogłoszenia firm usługowych lub rubryki „praca”, coraz częściej natknąć się możemy na temat optymalizacji procesów metodą Six Sigma i na poszukiwanie specjalistów posiadających certyfikaty BlackBelt i GeenBelt. Przyjrzyjmy się nieco bliżej, o co w tym wszystkim chodzi – zwłaszcza że dużo będzie o ulubionych przez nas cyfrach, obliczeniach, tabelkach i pomiarach.

Optymalizowanie procesów

Nietrudno sobie wyobrazić przyczynę opracowania różnorodnych metod optymalizacji procesów. Procesy – zwłaszcza te produkcyjne, muszą pogodzić w sobie ogień z wodą, czyli jakość z niskim kosztem wytwarzania. W praktyce oznacza to mozolne poszukiwanie złotego środka pomiędzy nakładami ponoszonymi na podnoszenie jakości, a wzrostem rynkowej wartości produktu, jaki uzyskujemy w wyniku tych działań. Jednym ze sposobów poszukiwania tego złotego środka jest powstała przed trzydziestu laty koncepcja zarządzania zwana Six Sigma Initiative, której główne założenia opisać można jednym zdaniem: „zero defektów, czyli dobrze za pierwszym razem”. Czy to w ogóle możliwe? Może nie za pierwszym razem – ale próbować warto.

A próby te rozpoczęły motoryzacyjne firmy amerykańskie, starające się dogonić perfekcyjne koncerny japońskie (o ironio – te same, które w latach 50. amerykańscy naukowcy nauczyli szybkiej i solidnej pracy). Zjednoczone siły General Motors, Forda i Chryslera postawiły na Statystyczną Kontrolę Procesu (SPC – Statistical Process Control), czyli ciągłe monitorowanie procesu produkcyjnego w punktach wskazanych jako newralgiczne dla jakości produktu i kosztów jego wytworzenia. Drugim ośrodkiem prac nad poprawą jakości i efektywności produkcji była bezlitośnie wypierana z rynku elektronicznego Motorola. To tam właśnie grupa fachowców od produkcji, jakości i statystyki opracowała spójny system ciągłej poprawy jakości zwany „Six Sigma Initiative”. Podstawowym celem tego systemu było ciągłe obniżanie kosztów własnych, poprzez redukcję kosztów złej jakości (COPQ – Cost of Poor Quality). Innymi słowy: może jeszcze nie podnosimy jakości naszych produktów, ale za to znacząco zmniejszamy liczbę braków. Znacząco, bo w przypadku Motoroli, po kilku latach koszty złej jakości produkcji spadły z 40% do około 1% wartości sprzedanej. Co więcej, stosowanie tej metody obaliło jeden z podstawowych mitów, że zwiększanie jakości produkcji kosztuje. Zwiększanie jakości produkcji, to bowiem także zmniejszanie liczby braków – czyli czysty zysk, niekoniecznie okupiony bardzo kosztownym zwiększeniem liczby punktów pomiaru i kontroli. Zastosowanie metody Six Sigma zadało kłam również innej obiegowej prawdzie. Przekonaniu, że istnieje granica opłacalności inwestowania w poprawę jakości produktu, która jest rekompensowana przez zmniejszenie wewnętrznych i zewnętrznych kosztów braków. Istnienie tej granicy udowadniane było przez teorię optymalnego kosztu jakości wykazującego, że istnieje punkt przecięcia pomiędzy krzywą wzrostu kosztów działań prewencyjnych i krzywą kosztu produkcji wyrobów nie spełniających norm jakości.

Doświadczenia Motoroli wykazały, że nie jest sztuką mnożyć metody kontroli jakości – rzecz w takim optymalizowaniu procesu produkcyjnego, aby efektem produkcji były wyroby doskonałej jakości, czyli zarazem perfekcyjnie i tanio. Któż nie chciałby dołączyć do grona firm produkujących tanio i solidnie? Nic więc dziwnego, że w ślad za Motorolą ruszyły inne amerykańskie koncerny – takie, jak: Texas Instruments, Kodak, Xerox, ABB, czy General Electric.

Na czym polega filozofia Six Sigma?

W zasadzie podstawowe zasady tej metody – jak w każdym genialnym pomyśle – są banalnie proste. Założyciel Akademii Six Sigma przy Uniwersytecie Motorola dr Mikel J. Harry, jak mantrę powtarzał: „Jeżeli nie mierzymy, to nic nie wiemy. Jeżeli nie wiemy, to nie możemy działać. Jeżeli nie działamy, to narażamy się na straty”.

Czyli po pierwsze mierzyć! Mierzyć i zbierać wyniki. Ale, aby nie mierzyć byle czego, warto najpierw ustalić punkty newralgiczne dla jakości działania procesu. Punkty newralgiczne zarówno dla jakości jak i kosztów produkcji. W zasadzie zadanie to brzmi prosto i rozsądnie, ale w praktyce wymaga wiele pracy koncepcyjnej. Nie trudno przecież „zamierzyć się na śmierć”, nie uzyskując żadnych użytecznych danych. Danych, które stanowić będą podstawę kolejnego kroku w poszukiwaniu taniej i wysokiej jakości analizy jakości procesu oraz formułowania rekomendacji działań korygujących. W dużym uproszczeniu można by powiedzieć: i to by było na tyle. Do skutku powtarzamy proces pomiar – analiza – zmiany. Przepis prosty i zalecany już nieco wcześniej przez niejakiego Deminga, który zdefiniował Continuous Improvement Cycle czyli stały cykl udoskonalania, oparty na powtarzaniu w kółko tych samych czterech czynności (Plan-Do-Check-Act). Co w nieco bardziej literackiej formie opisać można jako: planowanie celów które proces nasz ma osiągnąć – realizacja zaplanowanych w procesie czynności i mierzenie parametrów ich wykonania – kontrola wyników wykonania zadań w konfrontacji z założonym planem, i na koniec – uruchomienie działań korygujących, jeśli proces nie spełnia naszych oczekiwań.

Niezbędne cyferki

Ale, co to w zasadzie znaczy „spełnia lub nie spełnia naszych oczekiwań”? Proces całkowicie powtarzalny, to utopia. Pomiar punktów newralgicznych pozwala nam ocenić, jak dalece od tej utopii jesteśmy, a miarą tej odległości jest podstawowy miernik Six Sigma – wskaźnik poziomu jakości procesu DPMO (Defect per Million Oportunities). Milion, to spora liczba – ale generalnie nie o nią chodzi, a o zaprzęgnięcie statystyki do wyznaczenia jakości procesu – bez względu na to, czego dotyczy mierzony proces.

I tu dochodzimy do naszych ulubionych cyferek, obliczeń i statystyki. W Six Sigma zmienność każdego procesu określana jest bowiem liczbowo poprzez oszacowanie wartości średniego odchylenia kwadratowego dla określonej wielkości próbki losowej pobranej z procesu. W tym przypadku próbka losowa, to pomiar newralgicznego parametru decydującego o jakości i kosztach procesu. Łatwo zgadnąć, że wskaźnik taki można wyliczyć dla wielu punktów opomiarowanych w procesie. Mając naliczone odchylenia standardowe, jakie osiąga nasz proces w poszczególnych jego etapach, możemy porównywać je z wartościami oczekiwanymi, a więc pożądanymi. W ten sposób nie tylko mamy konkretne wartości cyfrowe, ale wiemy też z czym je porównać.

Oczywiście, im węższy margines tolerancji przyjmiemy dla poszczególnych wartości odchylenia standardowego, tym wyższa będzie statystycznie jakość końcowa efektu pracy procesu. Statystyka i pragmatyka idą tu łeb w łeb. Zakładając że poszczególne kluczowe czynności w procesie występują jedna po drugiej, to znając prawdopodobieństwo wykonania poszczególnych etapów procesu, z zadawalającą jakością możemy policzyć jaka będzie jakość produkcji całego procesu.

Jeśli np. proces ma trzy etapy i odpowiednio prawdopodobieństwo pozytywnego efektu działań w danym etapie wynosi: 0.9, 0.95 i 0.99, to prawdopodobieństwo pozytywnego efektu działań całego procesu, z matematycznego punktu widzenia wynosi 0.85. Czyli, statystycznie na 100 wyprodukowanych sztuk 15 pójdzie do kosza. No, w sumie wynik nieszczególny, ale jak na dłoni widać, który z elementów procesu ma największy wpływ na jakość produktu końcowego. Wiadomo zatem, do poprawy którego z elementów należy przyłożyć się z największym impetem, a w którym miejscu jest już przyzwoicie dobrze.

Cóż zatem warto zapamiętać?

Six Sigma to optymalizacja każdego istotnego elementu procesu, nie zaś sprawdzanie jakości gotowego produktu. To działanie ciągłe, mające na celu powolne optymalizowanie poszczególnych czynności – tak, aby uzyskać oczekiwane prawdopodobieństwo wyprodukowania wyrobu spełniającego normy jakościowe. Six Sigma nie jest metodą na doraźne gaszenie pożarów – to sposób na długotrwałą systematyczną pracę, przynoszącą wymierne efekty. Szacuje się, że firmy które wdrożyły i praktykują ten sposób optymalizacji produkcji zyskują średnio 20% wartości sprzedanych wyrobów. Dodatkowym bonusem jest fakt, że lepsza jakość produktów (nie wszystkie braki udaje się bowiem wyłapać na etapie końcowej kontroli jakości) podnosi notowania firmy w oczach klientów posiadających już inne jej produkty. Nie od dziś przecież wiadomo, że znacznie korzystniej i taniej jest zatrzymać klienta już zdobytego i zadowolonego z produktów naszej firmy, niż koncentrować się na polityce spalonej ziemi.

Tak doskonałe wyniki ekonomiczne Six Sigma zawdzięcza bez wątpienia kompleksowej (równoległej) pracy na wielu frontach, która w efekcie przynosi rezultaty w wielu płaszczyznach. Po pierwsze – redukuje koszty związane z produkcją wyrobów nie spełniających norm jakości, poprzez zmniejszanie kosztów związanych z: (1) pracą w nadgodzinach, (2) koniecznością powtarzania niepoprawnie wykonanych czynności, czy (3) przestojami wynikającymi z opóźnień dostaw; dodatkowo zapewnia redukcję wszelkiego rodzaju kar umownych i kosztów obsługi reklamacji. Ocenia się, że koszty te mogą stanowić około 8% wartości sprzedaży. Po drugie – Six Sigma umożliwia skracanie długości cyklu procesu poprzez lepsze planowanie realizacji poszczególnych czynności i zmniejszanie czasu oczekiwania na kolejne etapy produkcji. Wreszcie po trzecie – buduje markę firmy poprzez stałe podnoszenie jakości i niezawodności produktów.

Jednym słowem: same zalety, żadnych wad! Tylko, czy ten cud da się zastosować na naszym informatycznym poletku? Cóż, nie jest to całkiem wykluczone…

C.D.N.