Producent twierdzi, że akcelerator ten zapewnia 600 razy większą wydajność zadań uczenia maszynowego w porównaniu do jednostek bez akceleratora. Tym samym technologie sztucznej inteligencji i uczenia maszynowego, niegdyś będące wyłączną domeną dużych centrów danych i wydajnych kontrolerów graficznych lub procesorów, stopniowo stają się dostępne w układach o ograniczonych zasobach obliczeniowych, takich właśnie jak mikrokontrolery i mogą być realizowane na krawędzi sieci.
To ostatnie mówi, że można mieć funkcjonalność AI bez konieczności posiłkowania się serwerami chmury i komunikacją. Razem oznacza to też znacznie większą efektywność energetyczną i lepszą funkcjonalność, bo akcelerator odciąża jednostkę główną od zadań AI/ML. Tym samym algorytmy przetwarzania dźwięku, rozpoznawania mowy, widzenia maszynowego, rozpoznawania twarzy i obiektów obrazach i dziesiątki innych będą się mogły pojawić w sprzęcie elektronicznym, którego nie dało się podłączyć do Internetu i chmury: od czujników w aplikacjach IoT, po wojskowe drony z praktycznie natychmiastową reakcją systemu.
Sprzętowy akcelerator sieci neuronowej NNlite pojawił się też w układach PSoC Infineona oraz firmy Texas Instruments, która nazywa swoje mikrokontrolery C2000 z funkcjami AI „mikrokontrolerami czasu rzeczywistego” i kieruje je do zadań konserwacji predykcyjnej maszyn. Jest to znak, że pojawienie się kolejnych jednostek z AI u innych producentów jest zapewne kwestią najbliższych miesięcy.
AI jest wyraźnie kolejnym wielkim osiągnięciem w ewolucji mikrokontrolerów, ale przed branżą jeszcze długa droga do przebycia. Konieczne są wstępnie wytrenowane modele, narzędzia do tworzenia aplikacji i testowania, zaś same układy muszą funkcje AI zrealizować przy zachowaniu niskiego poboru mocy, gdyż inaczej nie będzie można ich wykorzystać w elektronice mobilnej.
Obojętnie, czy te akceleratory sprzętowe w mikrokontrolerach tworzą już sztuczną inteligencję, czy jest to jeszcze tylko zaawansowane uczenie maszynowe wspomagane marketingiem, nie ma szans na krok wstecz. Takie układy będą szybko doskonalone i dalej rozwijane, gdyż inaczej nie da się zapanować nad kilkoma ważnymi problemami. Pierwszy to bardzo szybko rosnąca ilość danych ze wszystkiego rodzaju czujników, której nie da się przesyłać do serwerów w chmurze. Takie dane muszą być obrabiane na miejscu (na krawędzi), po to, aby całość się nie zatkała i aby mieć z tych zgromadzonych informacji jakiś zysk.
Drugi kłopot to ograniczona wydajność łączy komunikacyjnych, zwłaszcza tych, gdzie występuje transmisja bezprzewodowa na dużym dystansie. W takich sytuacjach im mniej danych do wysłania, tym lepiej, bo opóźnienia, zakłócenia, a więc pośrednio także wydatek energetyczny związany z zestawieniem łącza radiowego może popsuć każdy pomysł na aplikację.
Poza specjalizowanymi akceleratorami, rozwój mikrokontrolerów musi objąć też tradycyjne „wartości”, a więc dużą wydajność obliczeniową przy małych potrzebach energetycznych. Do zadań AI potrzeba dużo pamięci, niezbędne są szybkie interfejsy wewnętrzne i zewnętrzne do tego, aby dodatkowo można ją było rozbudować poza chipem. Ilość dostępnej pamięci determinuje wielkość modeli językowych, które mogą zostać wykorzystane, stąd potrzeby rynku w zakresie dostępnych zasobów mogą być ogromne.
Dlatego ważne pytanie związane z mikrokontrolerami i AI brzmi, w jaki sposób producenci chipów zamierzają zwiększyć wydajność swoich produktów nowej generacji, aby sprostać wymaganiom przyszłej technologii sztucznej inteligencji, nie zwiększając jednocześnie zużycia energii i kosztów?
Robert Magdziak