Wiele metod wspomagających zarządzanie produkcją bazuje na matematycznych podstawach. Nie jest to zaskakujące, jeżeli weźmie się pod uwagę liczbowe interpretacje procesów produkcyjnych. Czasy cykli, liczbę wyprodukowanych elementów i braków, wydajność, czy koszty można optymalizować oraz przeliczać na różnego rodzaju wskaźniki porównawcze. Jednak mając na uwadze zmienność każdego procesu statystyka i rachunek prawdopodobieństwa dają idealne narzędzia do weryfikowania procesów produkcyjnych. Stąd też duża popularność systemu zarządzania jakością Six Sigma. Jednak pamiętać należy, że nauka daje dużo więcej możliwości niż to co zostało zaadaptowane do różnego rodzaju metod, opisanych wszelakimi akronimami i nazwami.
Dobra jakość danych
Nie ma nic ważniejszego w zarządzaniu procesem produkcyjnym niż rzetelne informacje. Podstawą do wszelkich prób poprawy procesu czy jego kontrolowania powinny być liczby. Dlatego też przed jakąkolwiek analizą należy upewnić się, że jakość danych jest odpowiednia. Aby to zrobić należy wziąć pod uwagę następujące aspekty:
- Znacznik czasowy, informacja kiedy pomiar został zebrany. Jest to konieczność, z uwagi na fakt, że większość korelacji występuje w dziedzinie czasu. Analizę procesu najlepiej zacząć od przebiegów czasowych, na których widać trend procesu, a nałożenie na siebie wielu zmiennych, może pokazać wstępne powiązania między nimi.
- Pomiar musi być powtarzalny, i w miarę możliwości bezpośredni. Należy unikać nadmiernego przetwarzania sygnału na wartości pośrednie. Każdy przetwornik wprowadza swoje dodatkowe zakłócenia, a te kumulują się w mniej realny wynik końcowy.
- System pomiarowy powinien mieć tolerancje pomiaru co najmniej o rząd mniejszą od mierzonego sygnału. Dzięki temu błąd systemu nie wpłynie na błędną interpretacje wyniku.
- W przypadku danych zbieranych przez człowieka, a nie oprogramowanie czy elektronikę, należy zapewnić takie warunki aby pomiar był powtarzalny niezależnie od tego kto go wykonuje. Może to wymagać podniesienia kwalifikacji pracowników, tak aby mieć pewność, że narzędzia pomiarowe są poprawnie wykorzystywane.
- Stałe warunki otoczenia. Otoczenie zawsze jest źródłem zakłóceń, więc warto odizolować się jak najbardziej od otaczającej zmienności. Zapewnienie stałej temperatury czy wilgotności to podstawa. Stabilne natężenie światła niezależnie od pory dnia, pozwoli na efektywniejsze wykorzystanie pomiarów wzrokowych oraz umożliwi wykorzystanie systemów wizyjnych.
- Sprawdzanie systemu pomiarowego, jest koniecznym elementem weryfikacji, czy system działa prawidłowo. Zależnie od specyfiki pomiaru i wartości mierzonej, należy wyznaczyć czas co który powinno się weryfikować narzędzia, wykorzystując np. różnego rodzaju sprawdziany.
- Początek pomiarów traktować jak okres testowy. Aby dane były dobrej jakości, nie powinny być brane pod uwagę pierwsze pomiary. Należy wybierać tylko te dane które są zapisane po stabilizacji narzędzia/metody. Czasami może to wymagać kilkumiesięcznego okresu zbierania informacji. Nie należy się śpieszyć, ponieważ przy niewłaściwym pomiarze, można wyciągnąć błędne wnioski. W okresie testowym warto również częściej sprawdzać system pomiarowy.
Zacząć od stosowania popularnych metod
Aby rozpocząć analizę danych procesowych, nie trzeba zatrudniać sztabu ludzi, naukowców czy statystyków. Idealnym przykładem może być wspomniana wcześniej Six Sigma, która jako metoda daje bardzo ciekawe i proste wskaźniki do analizy danych. Jest to dobry start jeżeli chodzi o monitorowanie procesu. W połączeniu z jej „miękką” częścią, staje się również łatwiej przyswajalna dla ludzi nie pracującymi z danymi liczbowymi. Taką podstawową analizą można wykryć wiele defektów i odfiltrować miejsca w których nie ma konieczności zastosowania „cięższej matematycznej artylerii”.
Korelacja
Analizując statystycznie dane procesowe, wiele razy można zaobserwować wpływ jednych zmiennych na drugie. Aby zweryfikować takie hipotezy warto stosować współczynniki korelacji. Oczywiście wybór takiego współczynnika powinien być podyktowany charakterem procesu, w związku z czym nie powinno się ograniczać do wybierania tylko współczynnika r Pearsona. Warto zatem najpierw zweryfikować z jakiego rodzaju rozkładem prawdopodobieństwa ma się do czynienia, a następnie dobrać współczynnik odpowiedni do procesu.
Identyfikacja
Aby stworzyć model matematyczny procesu, należy sięgnąć po metody identyfikacji i modelowania. Rzetelny model matematyczny procesu, pozwoli badać w czasie rzeczywistym wszelkie odchylenia od procesu idealnego. Nie powinno się jednak poprzestać na metodach regresji liniowej, wiele zależności ma charakter nieliniowy a nawet i dynamiczny. Dlatego też, jeżeli proces jest trudniejszy a jego analiza kluczowa dla biznesu można sięgnąć po metody nieparametryczne. Wymagają one zdecydowanie większej wiedzy, ale mogą pokazać związki o charakterze silnie nieliniowym. Stosując jakąkolwiek identyfikacje wykorzystując do tego celu oprogramowanie, warto zainteresować się jakie algorytmy stoją za wynikami. Dzięki temu łatwiej będzie przeanalizować wynik i go zrozumieć. Prosta informacja odnośnie regresji liniowej, że wykorzystuje np. metodę najmniejszych kwadratów daje bardzo wiele informacji o tym na jakiej podstawie prosta która jest modelem procesu została skonstruowana.
Magia danych
Wszystkie opisane powyżej sugestie w połączeniu w magazynowaniem danych i wyników oraz z dostępnością programów do obróbki danych dają ogromne możliwości zrozumienia własnego procesu produkcyjnego i zobaczenia go z innej perspektywy. Rzetelne dane nie kłamią, mogą być punktem startowym do usprawnienia procesu oraz dowodami w dyskusjach natury biznesowej. Dane numeryczne zdecydowanie wykraczają poza percepcję zmysłów człowieka i pozwalają przeanalizować proces bardziej obiektywnie. Historyczne dane za to pokazują idealnie jak proces się rozwijał i dają informację czy konkurencyjność naszych produktów rośnie (niezależnie czy jako kryterium i funkcję celu wybierzemy jakość, zysk czy cokolwiek innego). Warto inwestować w statystykę i nie zamykać się na gotowe metody, skrojone pod przemysł. Każdy proces jest inny i warto szukać optymalnych dla nas metod analizy danych.
Źródło: Redakcja Portal Przemysłowy.pl