Na szczęście nie trzeba tutaj za wiele spekulować - wystarczy przeczytać, co działo się na dwóch konferencjach: Boards and Solutions 2020 oraz Electronic Design Process Symposium (EDPS), aby wyrobić sobie opinię.
Dekada urządzeń inteligentnych
Mijające dziesięciolecie z pewnością zapisze się w rozwoju elektroniki jako czas urządzeń inteligentnych (smart). Zaczęło się od telefonu, potem cała elektronika konsumencka stała się "smart", a dalej oświetlenie, budynki, a nawet miasta. Ważnym elementem zapewniania tej inteligencji w ostatnich latach stały się aplikacje IoT, które są instalowane w wielu miejscach i pełnią najczęściej funkcję dostawcy danych do dalszej obróbki.
Ogólnie prognozy sprzed lat w zakresie rozwoju rynku IoT imponowały rozmachem, bo wszystko w nich liczyło się w miliardach. Te wszystkie szeroko rozumiane czujniki miały być dołączane bezprzewodowo do chmury, a dalej miały powstawać z tego magicznie użyteczne informacje. Niemniej nikt wówczas nie zastanawiał się nad sensem i możliwością fizycznej obróbki tych danych.
Jak opanować wielkie ilości danych?
Miliardy czujników tworzą ogromne strumienie danych, a ich obróbka i analiza wymaga potężnych zasobów obliczeniowych. Specjaliści oceniają, że na świecie doszliśmy do momentu, w którym co sekundę instalowane jest 8000 urządzeń klasyfikowanych jako IoT. Część z nich, jak np. kamery systemów wizyjnych i monitoringu CCTV, dostarcza ogromne ilości danych. Kamera o rozdzielczości 1080 pikseli przy 34 klatkach na sekundę tworzy ok. 50 GB dziennie i 17 TB rocznie. W Londynie pracuje ich 0,5 mln i ocenia się, że jeden operator jest w stanie obserwować efektywnie do 16 kamer jednocześnie przez 30 minut. Potem musi odpocząć, a więc do ciągłej obsługi potrzeba dwukrotnie więcej personelu.
Przykład ten pokazuje, że dane z kamer i wielu innych czujników muszą być wstępnie przetwarzane i obrabiane, zanim dotrą do operatora, aby mógł on analizować jedynie istotne fragmenty. Do tego wykorzystuje się uczenie maszynowe, sieci neuronowe, sztuczną inteligencję, które działają "na krawędzi", czyli od razu na wejściu, zanim dane zaczną być przetwarzane. W przypadku innych aplikacji, tych niezwiązanych z analizą obrazu, problem z ilością danych nie jest może aż tak jaskrawo zarysowany, ale nadal blokujący możliwość rozwoju rynku przez skalowanie.
Autonomia przyszłością analiz informacji
Można wysnuć wniosek, że hasłem wyznaczającym kierunek rozwoju na następną dekadę będzie autonomia. To ma być ten wspólny mianownik dla wszystkich nowych technologii, jak ML, NN, AI i kolejny krok w rozwoju elektroniki i automatyki przemysłowej. Najpierw będzie miała wymiar niewykraczający poza urządzenie, potem ma objąć całe systemy składające się z wielu jednostek realizujących działania wspólnie i wymieniających się informacjami jako "rój" (swarm autonomy), w tym także ma przedefiniować całą koncepcję smart manufacturing.
Autonomia rozwiązuje wiele innych problemów, jak opóźnienia, przeładowanie sieci komunikacyjnych oraz koszt wykorzystania infrastruktury chmurowej. Ponadto jest w stanie poprawić stopień zapewnienia prywatności i dać większe bezpieczeństwo, bo sprzęt działający autonomicznie wysyła znacznie mniej danych i nie musi być cały czas połączony z hostem. Responsywność, postrzegana jako małe opóźnienie w działaniu, też przestaje być w systemie autonomicznym trudnym do przezwyciężenia kłopotem.
Warto zauważyć, że autonomia działania nie jest technologią odległą. Taki sprzęt już jest zarówno w wymiarze konsumenckim, np. odkurzacze, ale też są samochody, roboty, sprzęt medyczny oraz wojskowy. Być może na razie stopień ich autonomii jest niewielki i w zasadzie lepsze byłoby określenie, że są to urządzenia działające automatycznie, ale to przecież dopiero początek.
Robert Magdziak