Inteligencja 4.0

491

Inteligencja definiowana jest jako zdolność do poznawania i pojmowania oraz rozwiązywania problemów w oparciu o własne doświadczenie. Jak pisze Platforma Przemysłu Przyszłość do niedawna była ona przypisana wyłącznie człowiekowi i zwierzętom, a więc istotom, które posługują się inteligencją naturalną.

Rozwój technologii cyfrowych, mocy obliczeniowych i algorytmów, umożliwił od połowy XX wieku prace nad komputerami, których przetwarzanie danych i informacji przypominałoby inteligencję człowieka. W 1950 roku Alan Mathison Turing, brytyjski matematyk i kryptolog, przedstawił koncepcję eksperymentu, pozwalającego określać zdolność maszyny cyfrowej do posługiwania się językiem naturalnym, a pośrednio dowodzić umiejętności myślenia w sposób podobny do ludzkiego. Pojęcia sztuczna inteligencja, SI (ang. artificial intelligence, AI) po raz pierwszy użył w 1956 roku, na konferencji w Dartmouth, John McCarthy, amerykański informatyk i laureat Nagrody Turinga z 1971 r. za wkład w rozwój sztucznej inteligencji oraz Nagrody Kioto w dziedzinie zaawansowanych technologii z 1988 r.

Pojęcie to odnosiło się jednak do tzw. ogólnej sztucznej inteligencji (ang. general artificial intelligence), która definiowana jest przez naukowców jako zdolność systemu do osiągania zakładanych celów poprzez prawidłowe interpretowanie danych pochodzących z zewnętrznych źródeł, opartej na nich nauki oraz wykorzystywania tej wiedzy do wykonywania określonych zadań i elastycznego dostosowywania swojego działania. W podobnym rozumieniu sztuczna inteligencja jeszcze nie powstała, chociaż w wielu ośrodkach naukowych, firmach technologicznych oraz laboratoriach prowadzone są zaawansowane prace w takim kierunku.

Inteligentna maszyna cyfrowa

Aktualnie pojęcia sztuczna inteligencja używa się w odniesieniu do zaawansowanej informatyki oraz tworzenia modeli algorytmów i programów symulujących zachowania inteligentne.

Tak rozumiana SI wspiera przetwarzanie i analizy ogromnych zbiorów danych pobieranych z innych systemów, a także urządzeń peryferyjnych – czujników, kamer, czytników itp. Wykorzystując uczenie maszynowe (ang. machine learning) systemy SI analizują skutki i wyniki podejmowanych działań, co pozwala im na iteracyjną optymalizację własnych algorytmów oraz dostosowywanie zachowania do zmian cyfrowego otoczenia.

Autonomiczne (przynajmniej w pewnym sensie) działanie SI umożliwia zastosowanie jej praktycznie w każdej dziedzinie nauki, techniki, biznesu, a także jako aplikacji, z których korzystamy w codziennym życiu. SI stała się tym samym jednym z głównych elementów cyfrowej transformacji oraz fundamentem czwartej rewolucji przemysłowej, czyli przemysłu 4.0.

SI jako fundament przemysłu 4.0

Koncepcja przemysłu 4.0 (niem. industrie 4.0), która powstała w 2011 roku w Niemczech, polega na zintegrowaniu inteligentnych technologii cyfrowych, opartych na sieci internetowej oraz chmurze cyfrowej (ang. cloud computing), z technikami fizycznego wytwarzania.

Cyfrowe wsparcie procesów decyzyjnych i produkcyjnych znacząco poprawia wydajność oraz zapewnia większą elastyczność i efektywność zarządzania firmą, głównie w obszarach logistyki, produkcji i dystrybucji, zgodnie ze zmieniającymi się warunkami i zapotrzebowaniem rynku. Firmy wykorzystujące SI, funkcjonując w sieciach kooperacji i połączone w łańcuchu wartości dodanej, mogą podnosić swoją wydajność i przenosić model biznesowy na poziom just-in-time. Zyskują tym samym stałą przewagę konkurencyjną, co w warunkach turbulentnego otoczenia rynkowego jest kluczową kompetencją strategiczną współczesnego biznesu zorientowanego na klienta.