Edge Computing w nowoczesnym przemyśle

780

Wraz z rosnącą popularnością inteligentnych urządzeń podłączonych do sieci i rozwojem Internetu rzeczy (IoT) wiele branż m.in. produkcja, handel czy transport generuje ogromne ilości danych, których docelowym miejscem przechowywania są serwery w chmurze. W jaki sposób radzi sobie z tym Edge Computing – jeden z najważniejszych trendów technologicznych, które według Instytutu Gartnera w tym roku zdominują rynek IoT?

Zgodnie z przewidywaniami globalnej firmy badawczej Markets&Markets wartość rynku Edge Computing, przy rocznej stopie wzrostu wynoszącej ponad 35%, zwiększy się z 1,47 mld w 2017 do 6,72 mld w 2022 roku. Z kolei według raportu IDC FutureScape: Worldwide IoT 2017 Predictions, do 2019 r. co najmniej 40% danych IoT będzie przechowywanych, przetwarzanych i analizowanych na granicy sieci. Co więcej liczba inteligentnych urządzeń z roku na rok będzie wzrastać, a wykorzystanie sztucznej inteligencji i uczenia maszynowego pozwoli na ich ciągły rozwój. Czym jest Edge Computing – jeden z 10 strategicznych trendów technologicznych tego roku?

Koncepcja Edge Analytics

 Koncepcja Edge Analytics (analityki krawędziowej) opiera się na gromadzeniu, przetwarzaniu i analizie danych na peryferiach sieci, w pobliżu czujnika, przełącznika sieciowego lub innego podłączonego urządzenia, czyli blisko źródła ich wytwarzania. Samo określenie “edge” ma podkreślić, że ​​część prac odbywa się na samym końcu sieci, gdzie w systemach IoT świat fizycznych obiektów komunikuje się z internetem. Jednak Edge Computing to znacznie więcej niż obliczanie i przetwarzanie danych. Jego podstawową funkcją jest płynna integracja urządzeń brzegowych i chmury obliczeniowej oraz dwukierunkowa wymiana informacji.

Rozwiązanie to daje możliwość analizowania danych kluczowych z punktu widzenia firmy w czasie rzeczywistym, “na miejscu” bez konieczności przesyłania ich do serwera centralnego. W chmurach obliczeniowych magazynowane są natomiast dane mniej wrażliwe lub o niższym priorytecie, często zagregowane do postaci wskaźników statystycznych. Na “krawędzi sieci” odbywa się też ich segregacja, polegająca na podejmowaniu decyzji, które dane warto magazynować, a które są na tyle mało istotne, że nie będzie potrzeby analizowania i wykorzystywania ich w przyszłości.

Według przewidywań Instytutu Gartnera 90% pozyskiwanych danych będzie bezużyteczna, ponieważ przedsiębiorstwa nie wiedzą, w jaki sposób  odpowiednio je analizować. Może to mieć poważne konsekwencje dla branż, w których otrzymywanie danych i reagowanie na nie w czasie rzeczywistym jest kluczowe dla poprawnego funkcjonowania. Do tej grupy należą m.in. zakłady przemysłowe, dla których każda godzina przestoju może się wiązać ze stratami od kilkuset do nawet kilka milionów euro, dlatego tak ważne jest, by analitycy byli w stanie wykorzystać potencjał danych, otrzymywanych dzięki zastosowaniu urządzeń z zakresu IoT.

Główne korzyści

Główne zaletami tego rozwiązania, wymienianymi przez ekspertów jest zachowanie prywatności, ograniczenie opóźnień oraz minimalizowanie problemów z łącznością. W przypadku pierwszej korzyści poufne informacje są wstępnie przetwarzane na miejscu, a jedynie dane, zgodne z polityką prywatności są przesyłane dalej do chmury, w celu ich dalszej analizy.

Druga zaleta, czyli ograniczanie opóźnień to najczęściej wskazywana korzyść, wynikająca ze stosowania rozwiązań Edge Computing. Obecnie ze względu na ogromną liczbę danych przesyłanych do chmury, tam przetwarzanych i przekazywanych z powrotem do urządzeń brzegowych, mogą nastąpić opóźnienia w otrzymaniu wniosków z analizy, co może mieć poważne konsekwencje dla funkcjonowania przedsiębiorstwa. W przypadku analityki krawędziowej część obliczeń wykonywanych jest na urządzeniach brzegowych, w ten sposób nie tylko zmniejszając ryzyko opóźnień ale dając też “potencjalną” gwarancję, że praca nie zostanie zakłócona w przypadku ograniczonej lub przerywanej łączności z siecią. Jest to szczególnie istotne w przypadku, gdy rozwiązania są wdrażane w trudno dostępnych lokalizacjach, w których jest ograniczony zasięg.

Zastosowanie w przemyśle

Koncepcja Edge Computing odgrywa niebagatelną rolę m.in. w nowoczesnym przemyśle.

Implementacja na urządzeniach brzegowych algorytmów diagnostycznych pozwala na stały monitoring i detekcję odstępstw od „normalnej” pracy maszyny w oparciu o automatycznie wyuczony profil pracy. Przykładowo jeśli dane z czujników, podłączonych do systemu będą wskazywać na ryzyko potencjalnej awarii, dzięki ich szybkiej interpretacji przez algorytm analityczny, informacja ta trafi do osób odpowiedzialnych za utrzymanie ruchu w zakładzie w postaci komunikatu  o konieczności wymiany określonej części.

– Dzięki wykorzystaniu danych uzyskiwanych z czujników jesteśmy w stanie monitorować pracę maszyn w czasie rzeczywistym. Urządzenia brzegowe na bieżąco analizują przebiegi czasowe wybranych parametrów i alarmują o nieprawidłowościach, więc jesteśmy stanie reagować zanim nastąpi usterka czy zatrzymanie całej linii produkcyjnej, a przez to generować ogromne oszczędności dla przedsiębiorstw przemysłowych –  tłumaczy Wojciech Czuba, szef działu R&D w firmie Elmodis, wykorzystującej rozwiązania z zakresu Edge Computing.

Ważną zaletą tego rozwiązania, istotną dla przedsiębiorstw, jest też skalowalność. Przesunięcie algorytmów analitycznych do inteligentnych czujników i urządzeń sieciowych zmniejsza obciążenie sieci przetwarzanymi danymi. Dzięki temu, nawet gdy zwiększa się liczba podłączonych urządzeń wdrażanych przez organizację oraz ilość generowanych danych, obciążenie jest mniejsze niż w przypadku ograniczenia się do gromadzenia danych tylko w chmurze obliczeniowej.

Mimo że Edge Computing ma ogromny potencjał to nie powinno być postrzegane jako alternatywa dla centralnej analizy danych. Jest to podejście, które powinno uzupełniać lub rozszerzać możliwości analityczne w określonych sytuacjach, szczególnie, gdy szybka reakcja na nieprawidłowości może mieć ogromne znaczenie dla funkcjonowania i oszczędności w budżecie przedsiębiorstwa. – Choć nie jest idealnym rozwiązaniem, bo gromadząc mniejszą ilość danych możemy pominąć pewne informacje to z drugiej strony analiza brzegowa pozwala poradzić sobie z zalewem ogromnej ilości danych, odpowiednio je przeanalizować i w szybkim czasie wyciągnąć z nich jak najwięcej przydatnych z biznesowego punktu widzenia wniosków – dodaje Wojciech Czuba.

Źródło: Elmondis