Obecnie symbolem sztucznej inteligencji stały się duże modele językowe (LLM). To złożone algorytmy obliczeniowe, które potrafią generować tekst i realizować różnorodne zadania przetwarzania języka naturalnego, ucząc się zależności statystycznych między fragmentami tekstów podczas intensywnego procesu treningowego. Najbardziej rozpoznawalnym przykładem jest ChatGPT opracowany przez OpenAI.
Chociaż możemy z nim porozmawiać, to bardzo daleko mu do jakiejkolwiek inteligencji. To złożony algorytm, który jest w stanie dobierać najbardziej prawdopodobne odpowiedzi do naszych pytań. ChatGPT nie rozumie języka, kontekstu i nie myśli samodzielnie. Na podstawie statystyki potrafi to po prostu bardzo dobrze udawać. Z punktu widzenia przetwarzania danych i IoT nie to jest jednak istotne. Modele językowe potrafią przetwarzać olbrzymie próbki danych językowych, aby osiągać interesujące rezultaty. Same algorytmy generatywnej sztucznej inteligencji nie muszą ograniczać się do języka.
W kontekście Internetu Rzeczy prawdziwy przełom następuje gdzie indziej. Ogromne ilości danych zbieranych przez zautomatyzowane systemy czujnikowe mogą trafiać do algorytmów uczenia maszynowego, które po odpowiednim treningu mogą działać w urządzeniach IoT, pomagając im podejmować coraz trafniejsze i bardziej inteligentne decyzje. Dzięki takiemu procesowi, wraz z napływem nowych informacji, maszyny stopniowo zwiększają swoje możliwości i uczą się w sposób ciągły. IoT można postrzegać jako globalną sieć, zdolną gromadzić praktycznie nieograniczoną liczbę danych. Te informacje mogą być przesyłane do chmury, gdzie zasilają algorytmy uczenia maszynowego, podnosząc poziom inteligencji miliardów połączonych urządzeń. Im większy zbiór danych, tym modele sztucznej inteligencji uczą się sprawniej i szybciej.
Brzmi to nieco futurystycznie, ale potencjalne korzyści są raczej prozaiczne i bardzo jasne do zrozumienia. Doskonałym przykładem będzie lodówka – urządzenie obecne w każdym domu i zużywające istotną ilość energii. Wyposażona w kilka czujników IoT mogłaby przesyłać dane do większego modelu sztucznej inteligencji. Na podstawie informacji takich jak ilość przechowywanego jedzenia, godziny i czas otwierania drzwi czy temperatury otoczenia lodówka mogłaby zoptymalizować pobór energii. Jedna lodówka to niewiele, ale w skali miasta czy państwa to olbrzymia oszczędność. Modele sztucznej inteligencji połączone z urządzeniami IoT sprawiają, że to rzeczywisty scenariusz, a nie utopijna fantastyka. AI potrafi optymalizować rzeczy, na które ludzcy projektanci nie zwracaliby nawet uwagi, zarówno przez brak danych, jak i potencjalnie bardzo niewielki zysk w stosunku do sporego nakładu pracy.

Problem z energią – TinyML
Wzbogacenie Internetu Rzeczy o sztuczną inteligencję i uczenie maszynowe niesie ze sobą wiele korzyści, jednak wdrożenie tych technologii na szeroką skalę nie jest proste. Współczesne zaawansowane modele ML często potrzebują dużych zasobów obliczeniowych i sporej ilości energii, aby móc działać w trybie wnioskowania, czyli przetwarzać dane wejściowe i podejmować na ich podstawie decyzje. Jedno standardowo złożone zapytanie obsługiwane przez ChatGPT wymaga około 0,3 Wh energii. Łatwo przeliczyć to na większą skalę – bardzo szybko wchodzimy w zakresy energii zużywanej przez średniej wielkości państwa.
Odpowiedzią na te ograniczenia może być chociażby Tiny Machine Learning (TinyML). TinyML to gałąź uczenia maszynowego opracowana tak, by działała efektywnie w urządzeniach wbudowanych opartych na mikrokontrolerach, często zasilanych bateryjnie. Dzięki temu niewielkie czujniki IoT mogą wykonywać zadania ML z minimalnymi opóźnieniami, reagując niemal w czasie rzeczywistym. Dzięki optymalizacji sprzętu i rozwojowi TinyML dzisiejsze układy SoC mogą obsługiwać ML bez dużej mocy obliczeniowej czy dedykowanych akceleratorów, a nadchodząca generacja sprzętu pozwoli na uruchamianie znacznie bardziej złożonych algorytmów.
Wyraźnie warto podkreślić, że nie jest to jedynie teoria. Firmy z sektora elektroniki i oprogramowania inwestują już wielomilionowe kwoty w podobne rozwiązania. Przykładem tego typu rozwiązań są chociażby dwurdzeniowy układ Nordic nRF5340 czy SoC – nRF54H20. Ten ostatni łączy w sobie kilka procesorów Arm Cortex-M33 oraz RISC-V, z których każdy został zoptymalizowany do określonego rodzaju zadań. Układ dysponuje wbudowaną pamięcią RAM oraz nieulotną pamięcią o dużej pojemności, co pozwala mu obsługiwać nawet zaawansowane algorytmy TinyML.

Co jeszcze mocniej napawa optymizmem, to fakt, że mimo dużych wyzwań technicznych na rynku pojawiają się już komercyjne produkty IoT wyposażone w rozwiązania ML. Jednym z nich jest system Sensorita, opracowany przez norweską firmę w oparciu o moduł komórkowy IoT nRF9160 SiP firmy Nordic. Urządzenie wykorzystuje technologię radarową do oceny poziomu zapełnienia oraz rodzaju zawartości dużych pojemników na odpady. Urządzenie wykonuje obrazy radarowe wnętrza kontenera kilka razy na godzinę, a następnie przesyła je do chmury Sensorita, gdzie są analizowane. Dzięki algorytmom ML, wytrenowanym na milionach takich obrazów, system potrafi ocenić stopień napełnienia pojemnika oraz określić dominujący rodzaj materiału w jego wnętrzu. A co za tym idzie, optymalizować wywózkę i trasy śmieciarek.
Wyraźnie podkreśla to trend – IoT oparty na nauczaniu maszynowym nie będzie czymś imponującym. Zadania takie, jak optymalizacja chłodzenia lodówki czy analiza zawartości kosza na śmieci nie trafią na czołówki gazet. Same w sobie również nie są raczej atrakcyjne dla pojedynczego użytkownika. Siła rozwiązań typu TinyML tkwi w skali. Drobna optymalizacja wykonywana dziesiątki tysięcy razy staje się nagle gigantyczną oszczędnością. Ale żeby dojrzeć, gdzie i co optymalizować, potrzebne są olbrzymie zbiory danych i doskonałe algorytmy, które je przetworzą. IoT wspierany przez nauczanie maszynowe będzie rewolucją, ale bardzo drobną, cichą i postępującą powoli. Jednym z większych wyzwań może być więc zainteresowanie szerszego grona odbiorców. Tego typu rozwiązania nie mają praktycznie żadnej szansy przekonać do siebie indywidualnego użytkownika. Niemniej, jasne i policzalne oszczędności to już coś ciekawego dla firm czy instytucji rządowych.