Podzespoły elektroniczne

Producenci i dostawcy transformatorów i podzespołów indukcyjnych mają w kraju dość dużą liczbę odbiorców, na przykład ze strony producentów układów automatyki, rynku AGD, oświetlenia ledowego oraz szybko zyskującej na znaczeniu elektromobilności. Zauważalna część produkcji kierowana jest też na eksport, bo krajowa oferta zapewnia wciąż konkurencyjne ceny, wysoką jakość wykonania, przy ważnej z punktu widzenia prowadzonego biznesu obecności tych firm na wspólnym europejskim obszarze celnym. Sektor grupujący tytułowe podzespoły jest ważną częścią krajowej elektroniki i w ostatnich dwóch dekadach zmienił się ogromnie pod względem technologii, skali działania, a także wiedzy i kompetencji technicznych firm.

Posłuchaj
00:00

Komponenty indukcyjne

W obszarze elementów indukcyjnych pojawia się dużo nowości produktowych i innowacji technologicznych w materiałach, a rekordy sprawności czy gęstości mocy z jednostki objętości nie byłyby możliwe bez ich wykorzystania. Rozwój elektromobilności, aplikacji zielonej energii nie byłby tak spektakularny, gdyby nie małe i wydajne elementy indukcyjne, które są potrzebne praktycznie w każdym projekcie.

Co słychać na rynku?

Aktualnie sytuacja w biznesie nie jest najlepsza, bo po pandemii na całym świecie popyt na elektronikę użytkową zmalał, w krajowej gospodarce mamy spowolnienie, a sytuacja u naszych sąsiadów wcale nie jest do pozazdroszczenia. Do tej pory nawet jak w kraju był dołek, firmy mogły się ratować eksportem, a teraz niestety sposób ten nie działa i mamy kumulację czynników negatywnych.

Zjawisk negatywnie oddziałujących na krajowe firmy produkcyjne tego typu jest sporo, m.in. zwiększone koszty działalności, koszty zatrudnienia i materiałów. Przy braku popytu i spadku konsumpcji warunki do działania nie są idealne. Firmy sygnalizują, klienci zamawiają mniejsze ilości, zamówień jest mniej, często też terminy dostaw przesuwane są na przyszły rok.

Elementy indukcyjne – ocena sytuacji w zakresie czasów dostaw
 
W przypadku komponentów indukcyjnych czasy dostaw w zdecydowanej większości przypadków wróciły do normy i są takie, jak przy stabilnie działających łańcuchach dostaw. Jedna trzecia odpowiedzi wskazała na to, że trudności zakupowe jeszcze nie minęły, co zapewne oznacza tyle, że wszystko zależy od rodzaju produktu – na przykład drut o przekroju prostokątnym do nawijania krawędziowego jest dalej trudno dostępny, stąd na bazujące na nim dławiki trzeba długo czekać. Podobnie jest z materiałami magnetycznymi – jest ich na tyle dużo w sensie asortymentu, kształtów, wielkości, typu, że niemożliwe jest szybkie przywrócenie pełnej dostępności.

Istniejący dołek na rynku widać też w malejących cenach frachtu towarów z Chin, zarówno drogą morską, jak i kolejową oraz skróceniu czasu tego transportu o mniej więcej jedną trzecią w stosunku do tego, co było rok wcześniej. Towarów transportowanych jest wyraźnie mniej i dane statystyczne to doskonale pokazują.

Nagromadzone zapasy z pewnością w niedalekiej perspektywie zostaną zużyte, co otworzy drogę do kolejnych zamówień, ale w przyszłym roku koszty działalności mogą znowu wzrosnąć. W zakresie przyszłości niewiadomych jest więcej, bo niełatwo ocenić perspektywy na rynkach zagranicznych lub warunki w Chinach, gdzie kupujemy wiele materiałów i komponentów.

Miniaturyzacja zawsze się liczy

Wszystkie współczesne urządzenia elektroniczne są z generacji na generację coraz mniejsze, a znaczenie elektroniki mobilnej na rynku stale się pogłębia. Trend miniaturyzacji dotyczy też systemów zasilania, elektromobilności i przemysłowych urządzeń energoelektronicznych, których gęstość mocy sukcesywnie z każdą kolejną generacją rośnie. Nowoczesne półprzewodniki i elementy indukcyjne są niezbędne do takich zmian, bo za postępem technicznym kryją się bardzo często znaczące innowacje w zakresie impulsowej konwersji mocy. Osiągnięcie wysokiej sprawności jest możliwe m.in. dzięki dostępności miniaturowych dławików i transformatorów bazujących na niskostratnych materiałach magnetycznych o zwartej konstrukcji mechanicznej, zapewniającej małe reaktancje pasożytnicze, emisję zaburzeń i takich, które mają gabaryty pozwalające na łatwą integrację w urządzeniu. Mały i płaski transformator z uzwojeniami nawiniętymi licą lub płaskownikiem miedzianym (drutem krawędziowym) z rdzeniem otaczającym praktycznie całe uzwojenie jest rozwiązaniem, do którego się dąży we współczesnych rozwiązaniach systemów zasilania. Poza układami konwersji energii cała reszta elementów indukcyjnych też jest coraz mniejsza. Dotyczy to filtrów, cewek w.cz., dławików lub też transformatorów sygnałowych, które nie mogą górować gabarytami nad resztą elektroniki.

Ważne i poszukiwane wersje komponentów
 
W zakresie elementów indukcyjnych za najbardziej poszukiwane wersje wykonania uznano elementy "małe, ale wydajne", a więc przeznaczone do montażu powierzchniowego, bazujące na nowoczesnych materiałach magnetycznych, które mają dużą indukcję nasycenia i mogą pracować z dużymi prądami roboczymi. Takiego typu dławiki i transformatory przeznaczone są do elektroniki dużej mocy, konwerterów, ładowarek, napędów i podobnych urządzeń, gdzie liczy się duża gęstość mocy. Na drugiej pozycji uplasowały się wersje zalewane i impregnowane, a więc odporne na czynniki środowiskowe, czyli zapewniające poszukiwaną na rynku trwałość.

Katalogowy czy na zamówienie?

Cechą rynku elementów indukcyjnych jest bardzo szeroki asortyment produktów katalogowych. Z jednej strony jest to zjawisko pozytywne, bo pozwala dobrać do aplikacji najlepiej pasujący element przy minimalnym kompromisie w parametrach. Z drugiej strony na te mniej popularne typy cewek i dławików trzeba często długo czekać, bo możliwości ich magazynowania u dystrybutorów są niestety ograniczone. Widać to doskonale w obecnych czasach, gdy rynek powoli dochodzi do równowagi po wielkim rozchwianiu łańcuchów dostaw po pandemii. Na skutek ogromnego asortymentu wybór produktu jest wielki tylko teoretycznie, bo ogranicza się do tego, co jest w magazynach, a nie w katalogu.

Im bardziej wymagająca aplikacja, im większa gęstość mocy, wyższe poziomy napięć i prądów, tym większe znaczenie dla zapewnienia dużej funkcjonalności mają elementy indukcyjne produkowane według indywidualnej specyfikacji (kastomizowane). Zapewniają one najlepsze parametry użytkowe, dobre dopasowanie do montażu w obudowie lub też do wymagań elektrycznych oraz są w najmniejszym stopniu kompromisem. Z takich przyczyn udział produkcji na zamówienie w krajowej branży podzespołów indukcyjnych jest i zawsze był bardzo duży. Dla większości krajowych firm produkcyjnych jest to wręcz podstawa aktywności biznesowej. To się nie zmienia od lat.

Najważniejsze dla klientów cechy ofert brane pod uwagę przy kupowaniu elementów indukcyjnych
 
Zestawienie najważniejszych cech ofert handlowych w zakresie podzespołów indukcyjnych na pierwszej pozycji zawiera cenę, co z pewnością nie jest zaskoczeniem, gdyż podobnie jest dla większości produktów w naszym kraju. Drugą pozycję na wykresie zajął termin dostawy, a trzecią – jakość komponentów. Dopiero kolejne pola przynoszą zmianę schematu – dostępność wersji na zamówienie jest cechą szczególną rynku elementów indukcyjnych i podstawą biznesu dla producentów krajowych, długotrwała współpraca z dostawcą, jego kompetencje techniczne i zapewniane wsparcie techniczne to znak, że wersje na zamówienie (głównie transformatory i dławiki mocy) mają ogromne znaczenie w tym sektorze rynku. Niezmiennie od lat poza trzema pierwszymi pozycjami reszta kryteriów ma podobne, ale wyraźnie mniejsze znaczenie.

Produkowanie elementów indukcyjnych na zamówienie klientów, a więc wg indywidualnie przygotowanej specyfikacji, ułatwia też utrzymanie niezbędnych inwestycji w park maszynowy. Standardowe elementy takie jak dławiki do montażu na płytkach drukowanych są produkowane na wydajnych i zaawansowanych automatach, które pracują całkowicie autonomicznie. Takie urządzenia są drogie i z punktu widzenia krajowych przedsiębiorstw za bardzo wydajne, a na skutek dużej konkurencji marże przy sprzedaży są małe. Produkcja na zamówienie opiera się na znacznie mniejszych seriach, wyrobach niestandardowych, czyli wymaga maszyn o mniejszym stopniu autonomiczności, takich, które wspierają działanie ludzi. Od strony inwestycyjnej jest to rozwiązanie tańsze, a więc znajduje się w zasięgu inwestycyjnym także mniejszych firm, bo jak wiadomo, ceny wszystkich urządzeń produkcyjnych są bardzo wysokie i liczy się je w milionach euro.

Najważniejsze dla branży są aplikacje zasilające

Szacuje się, że elementy indukcyjne i magnetyczne mogą stanowić około połowy całkowitej masy współczesnego układu konwersji energii pracującego na wysokiej częstotliwości. Zasada działania tego typu komponentów wymaga zapewnienia bardzo wysokiego poziomu precyzji podczas całego procesu produkcyjnego, ponieważ ich właściwości ściśle zależą od posiadanych wymiarów geometrycznych. Nawet niewielkie niedokładności w procesie formowania rdzenia lub uzwojenia mogą prowadzić do znaczących różnic w rozkładzie strumienia pola magnetycznego podczas pracy układu. Na przestrzeni lat poczyniono ogromne postępy w projektowaniu i konstrukcji elementów aktywnych i półprzewodnikowych, jednocześnie zaś sposób wytwarzania elementów pasywnych takich jak cewki pozostał niemal niezmieniony. Parametry tego typu elementów są często czynnikiem ograniczającym rozwój oraz poprawę efektywności układów konwersji mocy. Wskutek intensywnie prowadzonych prac i projektów badawczych na rynku pojawiło się na przestrzeni ostatnich lat wiele nowych typów materiałów magnetycznych, wykorzystywanych do konstrukcji komponentów indukcyjnych. Materiały te pozwalają na poprawę właściwości elementów indukcyjnych, pozwalając na uzyskanie mniejszej masy układu, wyższej częstotliwości pracy czy też niższego poziomu strat.

TytułNajważniejsze zjawiska pozytywne dla rozwoju rynku
 
Za najważniejszy czynnik prorozwojowy dla rynku elementów indukcyjnych uznano rosnące wymagania klientów, którzy oczekują coraz lepszych parametrów i funkcjonalności, a w drugiej kolejności szybki rozwój rynku elektroniki i związaną z nim większą komplikację, gęstość upakowania, parametry (wydajność). Impulsowa konwersja energii elektrycznej jest standardem i podwaliną wielu nowoczesnych aplikacji, a rozwój tego obszaru techniki jest wprost pochodną dostępności zaawansowanych indukcyjności.
Z wykresu wynika, że dla omawianego rynku w zasadzie wszystko się liczy, bo pola na wykresie mają podobne wskazania procentowe, zaś pierwsze jest na tyle uniwersalne, że da się przypisać do wielu różnych produktów. Wspólnym mianownikiem dla nich jest szybko zwiększające się nasycenie elektroniką każdej dziedziny techniki, która zapewnia szybkie tempo wzrostu rynku. 

Wsparcie techniczne oraz wysoka jakość to kamienie milowe definiujące współpracę.

Mimo że co do zasady działania elementy indukcyjne są proste, liczba szczegółów technicznych, zjawisk fizycznych, które trzeba brać pod uwagę przy ich aplikowaniu i projektowaniu, jest ogromna. Widać to najbardziej w transformatorach, gdzie dla zapewnienia optymalnych parametrów konieczne jest posiadanie wiedzy z fizyki (zjawiska w magnetykach), elektryki (izolacja, bezpieczeństwo funkcjonalne), kompetencji układowych w zakresie elektroniki (metody impulsowej konwersji mocy), przynajmniej podstawowej wiedzy z obszaru EMC, a w końcu szczegółów technologicznych związanych z produkcją takich elementów i testowaniem ich właściwości.

Na koniec warto dostrzec, że przy ogromnej ofercie rynku w zakresie materiałów magnetycznych, licznych wersji wykonania, różnych obudów i kształtów rdzeni, nawet pobieżna orientacja w tym, co jest nowe, a co już wychodzi z użycia, czym warto się zainteresować i będzie się najlepiej nadawać do projektu, a co jest kompletnie nietrafionym pomysłem, nastręcza sporo trudności. Zatem nawet jeśli wiele osób rozumie, co do zasady, o co chodzi w nawijaniu, tylko ułamek z nich zna się dobrze na takich niuansach. Prawdopodobnie dlatego producenci elementów indukcyjnych tak dużą wagę przykładają do wsparcia technicznego, pomocy projektowej dla klientów i wkładają wiele wysiłku w to, aby pomysły klientów przekuć na działające elementy. Klienci oczekują dzisiaj od transformatorów sieciowych i elementów indukcyjnych do układów impulsowych niezawodnego działania, wysokiej odporności na narażenia środowiskowe, przeciążenia, podwyższoną temperaturę i stany nieustalone.

Najważniejsze czynniki negatywne dla rynku
 
Listę najważniejszych czynników negatywnych dla rozwoju rynku otwierają tanie produkty dalekowschodnie, czyli głównie standardowe dławiki i cewki do układów mocy oraz wersje sygnałowe do filtrów. Są one kłopotem dla firm dystrybucyjnych, natomiast producenci komponentów indukcyjnych zmagają się z rosnącymi kosztami pracy, cenami materiałów oraz zapewne koniecznością stałego inwestowania w maszyny do produkcji. Dla wszystkich problemem jest silna konkurencja, bo sektor rynku jest przyszłościowy i przyciąga coraz to nowych graczy. Długie czasy dostaw nadal są wskazywane jako czynnik negatywnie oddziałujący na rynek.

W ostatnich latach znacznie wzrosła ponadto świadomość klientów na temat wykonania elementów indukcyjnych zgodnie z wymaganiami norm bezpieczeństwa, certyfikacji niepalności UL i takich samych wymagań w stosunku do używanych materiałów konstrukcyjnych. W ramach poprawiającej się dbałości firm o warunki pracy personelu rośnie zapotrzebowanie na transformatory separacyjne, automatykę przeciążeniową i podobne elementy ochronne. Wzrost zainteresowania jakością produkowanych transformatorów i elementów indukcyjnych jest zdaniem niektórych producentów tak wyraźnie widoczny, że cena tych elementów nierzadko schodzi na drugi plan. Innymi słowy, rynek szybko dojrzewa, jeśli chodzi o relacje.

Mocny potencjał krajowych producentów

Produkcja transformatorów oraz dławików bazuje na stosunkowo prostej technologii, dostępnych powszechnie materiałach, jak druty, lice, karkasy, rdzenie, i maszynach do nawijania. W efekcie w kraju funkcjonuje kilkunastu producentów. W ogromnej większości są to firmy z dużym doświadczeniem i kadrą inżynierską, zajmujące się tą działalnością od lat. Na przestrzeli dwóch dekad polscy producenci stali się dobrymi partnerami do interesów z firmami skandynawskimi lub niemieckimi, gdyż zaoferowali konkurencyjnie niższe ceny, wysoką jakość wykonania, przy ważnej z punktu widzenia prowadzonego biznesu bliskości geograficznej. Co więcej, wiele projektów urządzeń specjalistycznych, jakie są cechą szczególną naszego rynku, wymaga takich elementów wykonanych na zamówienie, zwłaszcza transformatorów impulsowych. Wprawdzie wszyscy wytwórcy dostarczają takie indywidualnie dopasowane komponenty, niemniej krajowi wytwórcy mają tu przewagę w postaci szybkości, możliwości zamówienia niewielkich partii i świadczą wysokiej jakości wsparcie techniczne (projekt), co w przypadku tematyki zasilania impulsowego ma spore znaczenie. Stabilna cena i dostępność są podstawą dla tej branży tak samo jak pewność, że zamawiane produkty spełniają wymogi norm obowiązujących w Europie oraz na świecie.

Główne trendy techniczne
 
Główne trendy techniczne w elementach indukcyjnych to postępujące zaawansowanie techniczne oraz miniaturyzacja. Podobnie nowoczesne materiały magnetyczne także jej sprzyjają, gdyż umożliwiają osiągnięcie większych gęstości mocy oraz działają przy wyższych częstotliwościach. Z kolei dostępność wielu gotowych rozwiązań jest cenna w tym obszarze, bo upraszcza konstrukcję wielu aplikacji i zmniejsza ryzyko projektowe przez dostępność scharakteryzowanych i przetestowanych elementów. Komponenty do systemów impulsowych dostępne z półki są tańsze i można je kupić bez konieczności długiego czekania na realizację zamówienia. Dają też lepsze możliwości wyboru i zmiany dostawcy. Widać to przede wszystkim w dławikach, gdzie liczba typów szybko się zwiększa i dobranie do danej aplikacji czegoś gotowego jest coraz prostsze.

Urządzenia i moduły do komunikacji bezprzewodowej

Jeszcze kilka lat temu dużą wartością aplikacyjną było to, że istniała możliwość radiowej wymiany danych, dzisiaj projektanci traktują ją jako oczywistość i wartość dawno zdobytą. Obecnie więcej uwagi kierowane jest na jakość komunikacji, czyli pewność tego, że kanał komunikacji zapewni deklarowaną przepustowość, że nie będzie opóźnień, zacięć, rozłączeń, konieczności resetowania ustawień protokołu i podobnych problemów. Najlepsze rozwiązanie modułu i urządzenia do komunikacji bezprzewodowej jest takie, że działa od momentu załączenia zasilania, a całą obsługę techniczną, w tym modyfikację ustawień, aktualizację oprogramowania, podglądanie stanu z raportowaniem, realizuje się zdalnie (drogą radiową).

Rynek telefonii komórkowej jest w trakcie wielkiej zmiany, jaką niesie ze sobą sieć piątej generacji. Operatorzy komórkowi zapewniają już klientom takie możliwości, ale na razie usługi są niejako pilotażowe, bo są realizowane w oparciu o posiadane już przez operatorów częstotliwości, jak 2,1 GHz dla Play i T-Mobile oraz 2,6 GHz dla Polkomtela. Aby możliwa była pełna ocena zalet sieci 5G, operatorzy muszą dostać dostęp do pasm 3,4‒3,8 GHz, 26 GHz (na pikokomórki) i 700 MHz (na usługi o dużym zasięgu). Aukcje tych częstotliwości miały już dawno się zakończyć, ale z uwagi na politykę, jeszcze trwają.

Najważniejsze dla klientów cechy ofert brane pod uwagę przy kupowaniu modułów do komunikacji bezprzewodowej
 
Cena jest najważniejszym kryterium selekcji produktu w obszarze komunikacji bezprzewodowej, bo musi być konkurencyjna w stosunku do rozwiązań przewodowych, na tyle niska, aby klient chciał zapłacić za taką funkcjonalność i wybrał proponowane rozwiązanie, a nie inne. Zapewne z uwagi na ważność niskiej ceny na rynku przez długie lata funkcjonują starsze technologie komunikacji i nadal są wybierane przez klientów. Na kolejnych dwóch miejscach uplasowały się jakość i niezawodność oraz parametry techniczne, czyli te czynniki, które decydują o przewadze technologicznej. Dalej mamy wsparcie techniczne, czyli pomoc techniczną ze strony dostawcy, która jest istotna przede wszystkim w produktach nowych i złożonych oraz termin dostawy, z czym aktualnie jest problem.

Razem ze zbliżającą się rewolucją w telekomunikacji następuje też przebudowa infrastruktury komunikacyjnej przez operatorów, którzy stopniowo zamykają BTS-y 2G. Na rynku jest coraz mniej telefonów komórkowych starszej generacji, a utrzymanie infrastruktury kosztuje. W obszarze konsumenckim migracja do sieci 4G jest niejako wymuszona przez kolejne umowy, nowe smartfony, dla modułów tempo migracji jest mniejsze, bo często urządzenia takie pracują długie lata. Niemniej powoli nie oznacza wcale i zmiany technologii z 2G do LTE Cat. 1 lub CAT-M względnie NB-IoT są widoczne.

Na rynku są już też dostępne rozwiązania modułów komunikacyjnych dla sieci 5G i w większości ich możliwości determinowane są przez oprogramowanie firmware. Zatem jeśli nawet obecnie nie obsługują one jakiejś funkcjonalności, z pewnością z czasem będzie można ją dodać z kolejną aktualizacją.

Ważne i poszukiwane wersje modułów do komunikacji bezprzewodowej
 
Lista ważnych i poszukiwanych wersji modułów do komunikacji bezprzewodowej obejmuje wszystkie główne standardy, jak Wi-Fi, Bluetooth, wersje do sieci komórkowych w standardzie 4G (LTE). Bardzo wysoką notę można przypisać także rozwiązaniom dla sieci LPWAN, które nareszcie się spopularyzowały i wypracowały własne miejsce na rynku. Z wykresu widać ponadto, że moduły do sieci komórkowych działające w starszych technologiach (2G i 3G) wcale nie tworzą marginesu.

Jak prosto skorzystać ze skomplikowanej technologii

Rosnący stopień skomplikowania i zależności technologii oraz wspomniana szybka ewolucja niestety nie sprzyjają dobrej orientacji klientów i utrudniają optymalne wybory. Klienci bardzo często nie mają świadomości technicznej i ograniczeń związanych z modułami, słabo orientują się w dostępnych nowościach i stąd wymagają wsparcia ze strony sprzedawcy. Wielu traktuje komunikację radiową tak, jak gdyby to odpowiednik kabla, inni zatrzymali się z wiedzą i przykładają stare schematy do nowych wersji. Przy takim podejściu łatwo o rozczarowanie.

Ponieważ moduł komunikacyjny, nawet najlepiej wybrany, nie tworzy aplikacji ani usługi, którą można sprzedać, nierzadko wsparcie dostawców dotyczy też sfery oprogramowania. Ubocznym efektem jest to, że początkowe etapy zarówno sprzedaży, jak i części projektowych wydłużają się zatem i muszą być prowadzone ze szczególną starannością, aby zapewnić klientowi satysfakcję z usługi.

Istotne nowości/trendy w obszarze komunikacji bezprzewodowej
 
Zestawienie najbardziej istotnych trendów, produktów i technologii w zakresie komunikacji bezprzewodowej otwiera miniaturyzacja i niski pobór mocy, który jest wspólnym mianownikiem wielu nowych rozwiązań kierowanych do świata IoT, AMR i urządzeń mobilnych. Podobne wskazanie uzyskały nowe moduły do sieci 5G oraz takie, które pozwolą dodać obsługę 5G z czasem przez wymianę oprogramowania. Kolejne trzy pozycje o mniej więcej tym samym udziale procentowym to nowe wersje Bluetooth, moduły LTE niskich kategorii i produkty combo (dwa w jednym).

O aplikacji z komunikacją bezprzewodową trzeba dzisiaj w czasie projektowania analizując zagadnienie w sposób kompleksowy, tj. rozpatrując je jako całą sieć powiązanych i zależnych od siebie działań. Gdzieś w takim projekcie jest oczywiście moduł komunikacyjny, ale jest on tylko niewielką częścią całości, zarówno ekonomicznie, jak i technicznie.

Bogata funkcjonalność oprogramowania, usług związanych z akwizycją danych, komunikacją, sprawia, że czołowi producenci rozwiązań komunikacyjnych mogą się w ten sposób wybić ponad przeciętną. Inni, jak duże firmy znane ze świata IT, także poszerzają możliwości swoich rozwiązań o obsługę takich platform. Czasem oznacza to dla nich otwarcie biznesu na nową działalność, ale IoT niczym magnes przyciąga wielu graczy.

Główne trendy techniczne
 
Najważniejsze cechy techniczne modułów do komunikacji bezprzewodowej można podsumować stwierdzeniem, że klienci oczekują obecnie od takich produktów wygody aplikacyjnej, łatwości implementacji oraz prostoty obsługi posprzedażnej. Skoro wiele takich rozwiązań trafia do sprzętu instalowanego w terenie, możliwość zdalnego zarządzania i obsługi technicznej trafia na pierwszy plan. Trend małego poboru mocy, dostęp do zaszytej w chipie karty SIM też wpisują się w takie oczekiwania.

Patrząc z perspektywy, można powiedzieć, że zmiany idą w takim kierunku, aby najważniejszym problemem do rozwiązania był pomysł na rozwiązanie problemu lub zyskania korzyści wynikającej z technologii, a nie budowa układu elektronicznego lub pisanie kodu. To zadanie ma się sprowadzać do wyboru rozwiązania spośród wielu dostępnych, niekoniecznie tworzenia własnego, a także kupna usługi (konta) w powiązanej z taką platformą chmurze obliczeniowej zamiast tworzenia i konfigurowania własnej.

Sieci LPWAN

Sieci LPWAN (Low-Power Wide-Area Network) to rozwiązania działające w pasmach ISM, gdzie przy małej przepustowości zapewniony został znacznie większy w porównaniu do innych standardów zasięg komunikacji. W warunkach krajowych oznacza to sieci LoRaWAN oraz LTE Cat. M /NB-IoT (Narrow-Band IoT), które służą głównie do zbierania danych z rozległych aplikacji telemetrycznych. Typowe aplikacje, jak liczniki wody, gazu czy ciepła, systemy alarmowe, czujniki zadymienia, śledzenie ludzi i zwierząt, produkty AGD, kontrola dostępu do budynku, sterowanie oświetleniem, różnego rodzaju czujniki, np. stacje meteorologiczne itp., nie potrzebują większych wydajności, stąd LTE niskiej kategorii może być dobrym pomysłem.

NB-IoT oraz LTE kategorii M to rozwiązania wykorzystujące infrastrukturę sieci komórkowych przeznaczone do aplikacji transmitujących niewiele danych (głównie klasy IoT), niewymagających dużej szybkości, za to efektywnych energetycznie. Działają one w małym paśmie, mają ograniczoną konieczność zgłaszania obecności w sieci i pobierają wielokrotnie mniej energii od zwykłych modułów LTE. Moduły NB-IoT w zamyśle producentów nie mają konkurować z rozwiązaniami 2G/3G/4G, ponieważ nie nadają się do aplikacji z regularnym, dużym/średnim transferem danych. Otwierają jednak nowe możliwości wykorzystania infrastruktury sieci 4G w aplikacjach zasilanych z baterii przy niskiej cenie i dobrym zasięgu wewnątrz budynków. Uwalniają też od ryzyka związanego z perspektywą pogorszenia się zasięgu sieci 2G, a przecież wiele urządzeń ma takie moduły cały czas działające, bo są one bardzo tanie.

Moduły do sieci komórkowych

Moduły przeznaczone do pracy w sieciach komórkowych cały czas stanowią główny nurt sprzedaży, a dodatkowym czynnikiem poprawiającym tempo rozwoju rynku jest ciągły spadek ich cen lub wzrost funkcjonalności i zasobów, które się dostaje za daną sumę. Upraszcza to implementację i obniża koszty docelowej aplikacji, gdyż na przykład zewnętrzny mikrokontroler lub dodatkowe układy stają się zbędne. Często więc sam moduł wystarcza do realizacji aplikacji, bo ma dostępne nie tylko zasoby obliczeniowe i pamięć, ale też układy peryferyjne. Umożliwia to znaczne skrócenie czasu potrzebnego na wdrożenie aplikacji, uproszczenie płytki PCB oraz zmniejszenie rozmiarów finalnego urządzenia, co ma szczególne znaczenie w dobie IoT.

Jeszcze do niedawna zdecydowana większość sprzedawanych modułów to były głównie jednostki GSM/ GPRS, przeznaczone do aplikacji niewymagających przesyłania dużej ilości danych. Obecnie widać wyraźny wzrost sprzedaży modułów o większej szybkości zdolnych do pracy w sieciach LTE. Moduły do sieci komórkowych zwykle pozwalają na migrację od rozwiązań najprostszych do najbardziej wydajnych bez konieczności przeprojektowania płytki lub też na stworzenie jednej mozaiki do produktu na różne rynki i standardy (Europa, USA). Dostępne są też wielosystemowe "kombajny" oraz wersje z wbudowanym odbiornikiem lokalizacyjnym GPS+Glonass+Beidou lub Bluetooth albo Wi-Fi.

W zależności od obsługiwanej kategorii sieć w standardzie LTE zapewnia transmisję danych z prędkością do 150 Mbps (dla kat. 4) dzięki możliwości pracy wieloantenowej (MIMO), pozwalającej na jednoczesny odbiór i nadawanie danych w wielu kanałach jednocześnie. Niemniej takie rozwiązania o dużej wydajności są oczywiście kosztowne, stąd dla aplikacji IoT i podobnych rozwiązań producenci przygotowali produkty bazujące na LTE niższych kategorii, 0, 1 (o przepustowości do 10 Mbps) lub M1. Działają one w sieci LTE, a więc nie niosą ze sobą ryzyka projektowego, że z czasem stracą zasięg, ale też nie są przewymiarowane w stosunku do potrzeb aplikacji. Typowe aplikacje, jak liczniki wody, gazu czy ciepła, systemy alarmowe, czujniki zadymienia, śledzenie ludzi i zwierząt, produkty AGD, kontrola dostępu do budynku, sterowanie oświetleniem, różnego rodzaju czujniki, np. stacje meteorologiczne itp., nie potrzebują większych wydajności stąd LTE niskiej kategorii może być dobrym pomysłem.

Bluetooth low energy

Najnowszy Bluetooth Low Energy (BLE) w wersji 5 to kolejna usprawniona wersja doskonale znanego standardu komunikacyjnego, która dobrze wpasowuje się w potrzeby aplikacji IoT, elektroniki noszonej i innych urządzeń zasilanych z baterii. BLE jest efektywny energetycznie (stąd nazwa) i zapewnia większą efektywność komunikacji, lepszą elastyczność pracy i konfiguracji dołączonych urządzeń, w tym możliwość jednoczesnej pracy w trybie nadawania i odbioru danych. Niższe są też koszty implementacji. Rosnąca popularność BLE w urządzeniach mobilnych powodują, że Bluetooth Low Energy jest najpopularniejszą metodą komunikacji urządzeń typu wearables.

Bluetooth jest przydatny wszędzie tam, gdzie konieczne jest nie tyle stworzenie całej sieci, co jedynie przesłanie, od czasu do czasu, niewielkiej ilości danych na niedużą odległość. Wersje BLE pozwalają tworzyć energooszczędne urządzenia pracujące na zasilaniu bateryjnym przez wiele lat i np. przesyłające od czasu do czasu zgromadzone dane.

Wi-Fi

W dziedzinie komunikacji bezprzewodowej Wi-Fi jest jednym z najbardziej powszechnych sposobów łączności zapewniającej bezpieczne, niezawodne i szybkie połączenia bezprzewodowe IP. Takie moduły wybierane są zwykle, gdy pobór energii jest drugoplanowy, a liczy się łatwość rozszerzenia urządzenia o komunikację opartą na protokole IP bez wprowadzania większych modyfikacji w działających urządzeniach lub rozszerzenie dowolnych urządzeń wyposażonych w interfejsy UART, SPI, RMII, USB lub LAN o bezprzewodowość. Moduły Wi-Fi to rozwiązania niedrogie, często wykorzystywane jako mosty zapewniające "przezroczystą" transmisję sygnałów. Są one podstawą aplikacji przemysłowych, medycznych, a koncepcyjnie moduły te są zbliżone do całej reszty już omówionych rozwiązań. Komunikację Wi-Fi mają wbudowane licznie dostępne na rynku płytki rozwojowe i większość platform do IoT. Dużą popularność W-Fi (i Bluetooth) w zakresie IoT zapewniają mikrokontrolery z wbudowaną komunikacją, np. Espressif ESP8266.

RF – ciągle się rozwija, bo są niedrogie mcu z RF

Komunikacja bezprzewodowa to także rozwiązania, gdzie nie są potrzebne standardy, duży zasięg lub przepustowość. Aplikacje, gdzie dochodzi do podłączenia jednego urządzenia do sterownika, takie, gdzie nie ma wymagań co do interoperacyjności na poziomie protokołu i podobnych, a więc ogólnie klasa zagadnień o mniejszej złożoności, są z powodzeniem obsługiwane za pomocą modułów radiowych, wbudowanych do wnętrza MCU, dostępnych w formie specjalizowanego chipa. Są to też moduły hybrydowych transceiverów radiowych przeznaczone do wlutowania w PCB, które na wejściu i wyjściu dostarczają/przyjmują zwykły sygnał cyfrowy, realizując modulację/demodulację oraz obsługę toru w.cz.

Takie produkty zawsze będą, bo nikt rozsądny nie będzie robił bezprzewodowego dzwonka do bramy na czymś bardziej skomplikowanym. Taki moduł pozwala też zrobić rozwiązanie o charakterze własnościowym (np. w alarmie) z użyciem specyficznego kodowania lub szyfrowania, bo nie zawsze korzystanie z czegoś znanego jest rozsądne. Jak wiadomo w przypadku sieci bezprzewodowych zagadnienia bezpieczeństwa stają się coraz bardziej istotne, a w przypadku aplikacji IoT nawet są postrzeganie jako kluczowe czynniki dla rozwoju. Stąd tor radiowy z własną obsługą transmisji bywa interesującym pomysłem w pewnej klasie aplikacji, np. w systemie alarmowym.

Moduły wielosystemowe

Coraz więcej modułów do komunikacji bezprzewodowej to wersje wielostandardowe lub wielofunkcyjne. Najczęściej Wi-Fi łączy się w jednym komponencie z Bluetooth, a moduły komunikacyjne z nawigacją, np. LTE- +GNSS. Takie połączenie jest wygodne, tańsze, zajmujące mniej miejsca i tym samym lepiej dopasowane do wymagań aplikacyjnych. Przykładem może być lokalizator wysyłający pozycję obiektu za pomocą sieci komórkowej lub automat podłączony na stałe do sieci przez Wi-Fi, ale także umożliwiający podłączenie się przez Bluetooth użytkownikom/pracownikowi serwisu. Sytuacji, gdzie dodatkowy interfejs jest potrzebny lub przynajmniej mile widziany, jest coraz więcej i stąd produkty takie zyskują na popularności.

Takie komponenty wspierają projektanta w zakresie oprogramowania, czyli wymagają mniej zabiegów programistycznych nad przekodowaniem, przesłaniem i obróbką danych. Domyślne zadania, jak wysyłanie pozycji przez modem komórkowy, są już wstępnie przygotowane przez producenta. Moduły wielosystemowe są też mniejsze od każdego alternatywnego rozwiązania, a to w obszarze elektroniki mobilnej oraz aplikacji IoT jest bardzo istotne. To samo dotyczy mniejszego poboru mocy, liczby wymaganych elementów zewnętrznych.

Usługi

Im bardziej aplikacje komunikacji bezprzewodowej są powszechnie wykorzystywane, rozproszone po obiektach, w przestrzeni jako elementy systemów pomiarowych, sieci sensorycznych, tym bardziej rośnie znaczenie dostępności usług związanych z obsługą zdalną takich aplikacji. Aby możliwe było zainstalowanie czujnika w niedostępnym miejscu, konieczne jest zapewnienie bezobsługowości, czyli możliwości aktualizacji oprogramowania drogą radiową, monitorowania stanu, diagnozowania działania i podobnych. Dla wielu takich zastosowań jedną z najważniejszych funkcjonalności jest też możliwość wysyłania danych do chmury, po to, aby dane były gromadzone w sposób automatyczny i dalej przetwarzane.

Z czasem znaczenie tej sfery działania aplikacji staje się coraz bardziej istotne, a usługi towarzyszące takiej komunikacji, związane z obróbką danych, stają się coraz istotniejsze. Nietrudno dostrzec, że w obszarze IoT mamy do dyspozycji coraz bardziej uniwersalne, zaawansowane platformy sprzętowe. Coraz łatwiej kupić rozwiązania prawie gotowe, takie które wymagają jedynie konfiguracji, niewielkiej integracji (obudowa, zasilanie, podłączenie czujnika) i tym samym wysiłek projektanta kieruje się w stronę aplikacyjną, integracyjną oraz właśnie związaną z analityką danych. Jest to słuszny kierunek, bo przecież nie ma sensu, aby każdy inżynier zajmujący się IoT i komunikacją bezprzewodową rozwiązywał podstawowe problemy z tworzeniem hardware, firmware, bo część ta jest w sumie zawsze podobna, a poza tym coraz bardziej zaawansowana technologia półprzewodnikowa pozwala zamknąć ją do jednego chipa.

Mikrokontrolery i platformy IoT

O mikrokontrolerach w mediach było głośno dwa lata temu, kiedy w pandemii zaczęły się kłopoty z ich dostępnością, a czasy realizacji zamówień pobiły rekordy, często przekraczając znacznie cały rok. Wówczas okazało się, jak bardzo jesteśmy zależni od tych jednostek i jak mało poświęcaliśmy uwagi w projektach na minimalizację ryzyka związanego z jednym źródłem zaopatrzenia, typem układu, a nawet używaną obudową.

Problemy z kupnem układów dla większości firm okazały się dużym kłopotem: organizacyjnym, technicznym i finansowym. Zmusiły do zmiany wypracowanych mechanizmów działania, źródeł zaopatrzenia, a niejeden projekt musiał zostać przeprojektowany pod to, co akurat udało się kupić. Problemy z zaopatrzeniem doprowadziły ponadto do sytuacji, że producenci elektroniki zmuszeni byli akceptować każde warunki dostaw i ceny, zaczęli się interesować odpowiednikami funkcjonalnymi (klonami) poszukiwanych chipów, co wcześniej było prawie nie do pomyślenia. Problemy z zaopatrzeniem zwiększyły także świadomość klientów, którzy odchodzą dzisiaj od zamkniętych systemów i architektur własnościowych i stawiają coraz częściej na systemy elastyczne, otwarte, możliwe do rozbudowania o urządzenia pochodzące od różnych producentów. Wypracowywana w ostatnich latach koncepcja utrzymywania małych zapasów magazynowych i kupowania potrzebnych ilości na bieżąco z dnia na dzień też odeszła w przeszłość i nie wiadomo, czy kiedyś wróci.

Najważniejsze kierunki rozwoju funkcjonalności mikrokontrolerów
 
W zestawieniu oczekiwanych przez klientów funkcjonalności mikrokontrolerów na czołowych pozycjach uplasowały się zagadnienia związane z elastycznością projektową, a więc możliwością migracji między jednostkami słabszymi lub mocniejszymi, zgodność pinowa oraz programowa. To zapewne jest pokłosie kłopotów z zaopatrzeniem oraz tego, że wiele produktów jest rozwijanych przez firmy na przestrzeni lat w oparciu o wspólną architekturę. Dalej mamy funkcje związane z oszczędzaniem energii, wydajnością oraz zapewnianym przez producenta wsparciem po stronie oprogramowania. Oczywiście poza wymienionymi kryteriami liczy się więcej czynników, niemniej pozostałe miały poniżej 50% wskazań i tym samym można uznać je za drugorzędne. Ogólnie mówiąc, wybór mikrokontrolera do projektu nie jest łatwy, gdyż trzeba wziąć pod uwagę nie tylko liczne aspekty techniczne, ale także czynniki o charakterze biznesowym, tj. dostępność, cenę, szerokość oferty itp.

Wiele z opisanych wyżej problemów rynkowych zalicza się już do przeszłości, mimo że czasy dostaw jeszcze nie wróciły całkowicie do normy. Niestety, wojna ciągle wpływa na dostępność, czasy dostaw i ceny. Zresztą nie wiadomo, czy kiedykolwiek łańcuchy wrócą do tego, co było. Nie wiadomo też, czy to, co było dwa lata temu normą, dalej obowiązuje jako wyznacznik stabilności. Dostępność z pewnością się poprawia, bo linie produkcyjne cały czas pracują, a jednocześnie popyt rynku zmalał, dzięki czemu luki w magazynach łatwiej zapełnić. Producenci nagromadzili też zapasy, bojąc się niepewności i na razie ograniczają zakupy w oczekiwaniu na ożywienie rynku.

Niestety mikrokontrolery znacząco podrożały, tak mniej więcej dwukrotnie i realizacja projektów wrażliwych na cenę jest znacznie trudniejsza. Przykładem mogą być rozproszone sieci sensoryczne w IoT, składające się z wielu węzłów, z których każdy zawiera mikrokontroler. Przed nami zapewne są kolejne podwyżki wywołane inflacją oraz wzrostem cen u producentów półprzewodników. Największe na świecie fabryki chipów, w tym TSMC, Samsung i Intel, rozważają podwyżki cen z powodu inflacji oraz rosnących kosztów. W efekcie wzrostu cen materiałów, kosztów pracy i mediów konieczne staje się ciągłe przeliczanie opłacalności wielu inwestycji i realizowanych projektów.

Na dodatek sytuacja w ostatnich miesiącach w gospodarce nie jest najlepsza. Dużym problemem na rynku jest wstrzymanie finansowania z funduszy unijnych (środki z KPO), przez co wiele projektów rozwojowych, infrastrukturalnych jest zawieszonych. Gospodarka krajowa, a także europejska, przechodzi okres spowolnienia i ma to wpływ na rynek i sprzedaż. Mniej mówi się o cyfryzacji przemysłu i usług, mimo że trend ten cały czas jest postrzegany jako ważny i przyszłościowy, więcej o technologiach AI/ML, edge computing, które nie tylko są domeną mikroprocesorów, ale też "słabszych" jednostek. W największym stopniu dotyczy to oczywiście uczenia maszynowego, z uwagi na ograniczoną moc przetwarzania danych w MCU.

Oczekiwania klientów w stosunku do dostawcy
 
Listę oczekiwań klientów w stosunku do dostawcy otwiera krótki czas dostawy, co nie jest żadnym zaskoczeniem w obecnej sytuacji. Niska cena mikrokontrolerów też jest dzisiaj bardzo oczekiwana, niemniej jest z tym wielki kłopot, gdyż w czasie rynkowej niedostępności ceny znacznie wzrosły. Nie można podać ogólnej reguły, o ile procent w ostatnich dwóch latach wzrosły ceny, gdyż to zależy od konkretnej wersji, ale nie są to drobne jednocyfrowe wartości. Wzrost dwukrotny ceny też nie powinien zaskakiwać, przez co rozwój wielu aplikacji wrażliwych na cenę jest trudniejszy. Budowa rozproszonej sieci sensorowej zawierającej setki węzłów, w których zawsze jest mikrokontroler i poza nim prawie nic więcej, z pewnością jest dzisiaj z tego powodu niełatwa. Poza ceną i dostępnością klienci oczekują pomocy projektowej: narzędzi, próbek, zestawów ewaluacyjnych, po to, aby projekt zrealizować szybko, przy małym ryzyku. Koszt pracy inżynierskiej również się zwiększa, stąd w projekcie szybko i dobrze równa się tanio.

Poza nie najlepszym otoczeniem gospodarczym firmy sygnalizują, że czas funkcjonowania układów na rynku się skrócił (tzw. okres longevity). Gorzej sprzedające się układy, te mniej popularne, są wycofywane z ofert i na ich miejsce wprowadzane są inne. Powodem jest chęć optymalizacji mocy wytwórczych i sprostanie potrzebom zakupowym jak największej części klientów. To słuszne cele, niemniej sprawiają one problemy w przypadku elektroniki profesjonalnej, która jest długo produkowana i serwisowana.

To samo dotyczy obudów układów scalonych, których różnorodność jest dzisiaj znacznie mniejsza niż dawniej. Zmiana obudowy nie jest wprawdzie tak trudna jak przesiadka na inny procesor, ale też wymaga poświęcenia czasu na zmiany mozaiki PCB. Nowe obudowy to często wersje bezwyprowadzeniowe o małych rastrach. Ich montaż i serwis mogą wymagać lepszego sprzętu w sensie zaawansowania technologicznego.

Do negatywnych zjawisk można też zaliczyć rozbieżność oczekiwań programistów i architektów infrastruktury a możliwościami technicznymi urządzeń, takimi jak moc obliczeniowa, wielkość pamięci, duży pobór mocy, brak kompatybilności urządzeń w systemie. Można też zwrócić uwagę na jeszcze jeden aspekt – cyberbezpieczeństwo, które niedostatecznie poważnie traktowane może prowadzić do wycieku danych, produkcyjnych czy klientów. O tym się mówi coraz częściej, niemniej praktyka bywa niestety bardzo beztroska.

Zestawienie potrzeb klientów w zakresie mikrokontrolerów
 
Długoterminowa dostępność chipów znalazła się na szczycie zestawienia, w którym ponownie pytaliśmy o preferencje wyboru mikrokontrolerów przez klientów, tylko tym razem pod nieco innym kątem. Mniej popularne układy zawsze wypadały po pewnym czasie z oferty, ustępując miejsca nowym rozwiązaniom i jest to rzecz naturalna. Ale zjawisko to przybrało na sile w ostatnich latach, gdyż producenci, aby złagodzić problemy z niedostępnością, starali się jak najbardziej poprawić efektywność linii produkcyjnych. Dla firm OEM krótszy czas życia układu to kłopot, gdyż wiele aplikacji profesjonalnych produkowanych jest długo. Nic więc dziwnego, że parametr "longevity" opisujący liczbowo czas, przez jaki dany układ będzie dostępny, stał się bardzo istotny.
Na trzecim miejscu zestawienia mamy bogactwo układów peryferyjnych, a więc dodatków wbudowanych w strukturę mikrokontrolera. Peryferia są istotne, gdyż w wielu przypadkach zasoby MCU tworzą całość warstwy sprzętowej aplikacji, takiej jak IoT.

Mikrokontrolery mogą być postrzegane jako prawdopodobnie najpopularniejszy typ układów scalonych i funkcjonalnych na rynku elektroniki, najbardziej uniwersalny i wykorzystywany praktycznie w każdej aplikacji. Z tego powodu rozwój technologiczny w tym obszarze jest dynamiczny, a kolejne jednostki wchodzące na rynek charakteryzują się większą wydajnością, mniejszym poborem mocy, większą liczbą zaawansowanych układów peryferyjnych. Rozwój rynku wspierają też liczne narzędzia programistyczne, zintegrowane środowiska programistyczne i biblioteki pozwalające niewielkim wysiłkiem zyskać cenną funkcjonalność, taką jak na przykład uczenie maszynowe. Wiele innych typów układów scalonych projektuje się pod kątem współpracy z mikrokontrolerami, stąd to co dzieje się w omawianym obszarze, wpływa istotnie na biznes.

Wsparcie techniczne

Z uwagi na coraz większą złożoność, krótszy czas funkcjonowania chipów w branży, dla każdego klienta odpowiednie wsparcie techniczne świadczone przez dystrybutora z roku na rok staje się coraz bardziej istotne. Obecnie na rynku jest bardzo dużo podobnych funkcjonalnie produktów i wiele z nich jest do siebie podobnych. Wybór optymalnego rozwiązania staje się niełatwy i czasochłonny, a przecież codziennym kłopotem współczesnego projektanta jest chroniczny brak czasu. Stale zwiększa się liczba zagadnień technicznych i wymagań, o których trzeba pamiętać oraz je uwzględnić. W wyżyłowanych do granic projektach o powodzeniu decydują drobne szczegóły, a często wybiera się nie tyle komponent, co całe środowisko i architekturę, łącznie z oprogramowaniem narzędziowym, zestawami ewaluacyjnymi, a nawet próbkami.

Najważniejsze zjawiska pozytywnie wspierające rozwój rynku
 
Listę najważniejszych czynników pozytywnie wspierających rozwój rynku mikrokontrolerów otwiera dostępność zintegrowanych rozwiązań typu SoC, a więc małych systemów wszystko-w-jednym, za pomocą których można stworzyć kompletną warstwę sprzętową aplikacji. Kolejne pozycje na wykresie są minimalnie słabiej notowane, stąd można przyjąć, że są równie istotne, jak duża liczba dostępnych płytek ewaluacyjnych, coraz więcej pozycji darmowego oprogramowania i bibliotek itd. Współczesne mikrokontrolery są układami uniwersalnymi o dużych możliwościach aplikacyjnych. W wielu przypadkach stanowią najważniejszy komponent aplikacji, taki, który wybiera się na początku projektu i do którego dobiera się resztę. Wiele możliwości, jakie zapewniają te jednostki, przekłada się na kluczowe parametry urządzeń, dlatego w praktyce wszystkie kryteria, które można zakwalifikować jako czynniki rozwoju rynku, są ważne, a wykres to doskonale potwierdza.

Płytki startowe razem ze społecznością inżynierską na forach dyskusyjnych ograniczają zapotrzebowanie na wsparcie techniczne, dlatego producenci i dystrybutorzy wspierają takie działania i bardzo często prowadzą je dla społeczności, a ich specjaliści aktywnie odpowiadają na podające tam pytania. Wiele problemów aplikacyjnych jest wspólnych dla danego zastosowania, stąd duża szansa, że temat omówiony na forum okaże się przydatny dla kolejnego użytkownika i nie będzie wymagać kontaktu z inżynierami pomocy technicznej. Gotowa płytka eliminuje ponadto wiele trywialnych błędów projektowych niepowiązanych z tworzoną aplikacją lub też zwykłych pomyłek, które paradoksalnie potrafią być trudne do zauważenia.

Wsparcie techniczne dystrybutorów jest też przeciwwagą dla sprzedaży typu direct, a więc kupowania przez Internet bezpośrednio od producenta. Taki model producenci próbują upowszechniać od lat, z różnym skutkiem.

Oprogramowanie równie istotne jak hardware

Na szybkość projektowania ma też wpływ czas przygotowania oprogramowania i z reguły jest to zagadnienie bardziej istotne od warstwy sprzętowej. To dlatego, że wiele aplikacji składa się z mikrokontrolera razem z niewielkim otoczeniem układów pomocniczych i peryferyjnych i od strony układowej są one stosunkowo proste. To jest normalne działanie, bo konieczność minimalizacji kosztów prowadzi do tego, aby koszt materiałowy zdefiniowany przez listę BOM był jak najniższy. Z uwagi na to korzystniej jest implementować więcej funkcji użytkowych w oprogramowaniu, bo związane z nim wydatki nie dotyczą każdej wytworzonej sztuki.

Te procesy sprawiają, że rola oprogramowania firmware cały czas się zwiększa. Staje się ono bardziej rozbudowane i złożone, a czas jego przygotowania (napisania) jest coraz dłuższy.

Główne zjawiska hamujące rozwój rynku
 
Wykres zawierający główne czynniki negatywnie wpływające na rozwój rynku został zdominowany przez długoterminową dostępność układów na rynku. W warunkach krajowych, w których firmy OEM produkują specjalistyczne urządzenia i sprzęt inny niż elektronika konsumencka, ma to istotne znaczenie. Wypadający szybko z produkcji chip staje się poważnym problemem, gdyż zmusza do zmian w warstwie sprzętowej i programowej projektu, co zabiera czas i pieniądze.
Na drugim miejscu pod względem ważności oddziaływania regresywnego wskazano wysokie ceny. W czasie rynkowych niedoborów wzrost cen jest naturalną konsekwencją, niemniej w przypadku MCU wykracza on poza wszelkie wskaźniki inflacyjne i to zapewne było powodem tak wysokiej pozycji w ankietach.
W ankietach blisko 50% trafień padło też na "konserwatywne podejście klientów do nowości", a więc przywiązania klientów do wypróbowanych i znanych architektur MCU i istniejących w ich obrębie typów i niechęci do wyjścia poza znany schemat. Inercja z pewnością od wielu lat przeszkadza w dynamice rozwoju rynku, nie tylko mikrokontrolerów, ale także wielu innych grup produktów, ale z drugiej strony, są to skomplikowane produkty, do których wiedzę, narzędzia sprzętowe, oprogramowanie gromadzi się przez długi czas. Zgromadzenie tego zabiera mnóstwo czasu, więc naturalne jest, że firmy chcą jak najdłużej korzystać z dorobku. Poza tym inercję inżynierską można też traktować jako właśnie efekt krótkiej żywotności rynkowej układów.

Podobnie jak zestawy startowe, projekty aplikacyjne lub gotowe rozwiązania dostarczane przez działy wsparcia technicznego producenta i dystrybutora ułatwiają budowę części sprzętowej, takie same zjawiska można dostrzec w zakresie oprogramowania. Podstawą są zintegrowane środowiska typu IDE, ale największą pomoc zapewniają gotowe kawałki kodu, biblioteki procedur lub nawet gotowe rozwiązania z otwartą licencją, które wystarczy przerobić pod swoje potrzeby. Takie zasoby też się bardzo szybko zwiększają i mają duży wpływ na tempo rozwoju rynku i na akceptację nowych rozwiązań. Poza oprogramowaniem darmowym na rynku jest jeszcze wiele narzędzi płatnych związanych np. z grafiką, interfejsem użytkownika. Konieczność pracy od zera jest chyba bardzo rzadkim przypadkiem.

Coraz większe znaczenie w tworzeniu oprogramowania mają języki wysokiego poziomu, także wersje skryptowe, specjalizowane narzędzia zdolne do wygenerowania kodu na podstawie zapisanego graficznie algorytmu. Takie narzędzia najczęściej kierowane są do tworzenia aplikacji IoT i jeśli nie ma wymagań co do szybkości, a stopień komplikacji nie jest duży, to można z ich użyciem zaoszczędzić sobie sporo wysiłku.

Najpopularniejsze architektury mikrokontrolerów na rynku polskim wczoraj i dziś
 
W zestawieniu najpopularniejszych architektur mikrokontrolerów na rynku polskim od lat na czołowej pozycji są procesory z rodziny ARM Cortex. To jest oczywiście naturalne i absolutnie niezaskakujące. Pandemia, niedobory rynkowe nic też nie zmieniły w pozycji tych układów ani oszacowanego w ankietach udziału rynkowego, bo są one dostępne z wielu źródeł (produkuje je wiele firm). Podobnie jest z pozycją mocniejszych jednostek ARM (to już raczej są mikroprocesory) oraz cały czas popularnych w Polsce jednostek AVR (Microchip/ Atmel). Natomiast spore przetasowanie nastąpiło na pozycjach zajmowanych przez układy PIC (mikrokontrolery firmy Microchip) oraz STM. Tu obie pozycje zamieniły się miejscami (wykres niebieski po prawej stronie pochodzi z 2019 roku).

W powstanie takich narzędzi zaangażowały się duże koncerny, np. Renesas i Microsoft, który stworzył narzędzia pozwalające prosto stworzyć oprogramowanie dla projektu IoT z wykorzystaniem chmury. Wraz z kolejnymi układami SoC zawierającymi kompletne platformy sprzętowe do takich zastosowań tego typu narzędzia będą zyskiwać na znaczeniu i zapewne będą coraz doskonalsze. Hipotetyczny koniec tych procesów można upatrywać w tym, że w obszarze IoT najbardziej liczyć się będzie pomysł na aplikację, to, jaką korzyść (wartość) będzie można osiągnąć, a nie sprzęt i oprogramowanie.

Peryferia, bezprzewodowość

Wraz z każdą kolejną generacją i nową architekturą mikrokontrolery zawierają coraz więcej zaawansowanych obwodów peryferyjnych przeznaczonych do realizacji typowych zadań, jak współpraca z czujnikami (wzmacniacz operacyjny), do komunikacji bezprzewodowej, ze sterownikiem przycisków dotykowych, z wysokorozdzielczym przetwornikiem A/C, blokiem kryptograficznym, kontrolerem wyświetlacza i tak dalej. Ważne są interfejsy jak SPI, I²C, I²S, UART, PDM i PWM i przetworniki ADC o rozdzielczości min. 12 bitów. Wymagania rynku są takie, że z czasem bloków peryferyjnych będzie jeszcze więcej, bo zawsze rozwiązanie maksymalnie zintegrowane będzie w centrum uwagi, nie tylko z uwagi na cenę.

Silnie połączona z tematyką mikrokontrolerów jest komunikacja bezprzewodowa, co wynika z ekspansji aplikacji IoT oraz popularności połączeń tego typu w każdej dziedzinie techniki. Mikrokontrolery w postaci SoC z transceiverem RF, Bluetooth, Wi-Fi, ZigBee, LoRa, LTE przebijają się coraz częściej w aplikacjach, pozwalają łatwo zrealizować wiele typowych aplikacji. Przy wykorzystaniu projektów referencyjnych, narzędzi i oprogramowania dostarczanego przez producentów można to zrobić szybko i bez ryzyka niepowodzenia badań EMC, badania zgodności z przepisami itd. Na rynku komunikacji bezprzewodowej jest zbyt wiele standardów i ciągle pojawiają się nowe. Inwestycja w konkretne rozwiązanie standardowe oznacza niestety większą komplikację i koszty, a wiele z projektów i aplikacji nie musi mieć takiej zgodności, bo stanowi system zamknięty lub własnościowy. Moduły radiowe wbudowane w mikrokontrolery działają w bezpłatnych pasmach ISM i mają znakomite parametry. Pozwalają na pracę w różnych pasmach częstotliwości od 433 MHz do 2,4 GHz, mają możliwość pracy w systemie punkt-wielopunkt, umożliwiają ustawianie parametrów, oferują tryby oszczędzania energii. Wartość dodana do aplikacji związana z ich wykorzystaniem jest z pewnością istotna, zwłaszcza w komplecie z mikrokontrolerem. Przykładem takiego rozwiązania jest m.in. mikrokontroler ESP32 od firmy Espressif, który zdobył ogromną popularność i doczekał się nowych wersji.

Oświetlenie LED

Jeszcze kilka lat temu rynek oświetlenia LED był w fazie eliminacji żarówek wolframowych, które zostały szybko wyrzucone na margines m.in. za pomocą zakazów sprzedaży. Potem przyszła kolej na rugowanie z użycia lamp fluorescencyjnych (świetlówek kompaktowych), a obecnie trwa proces "dobijania" nielicznych opraw sufitowych ze świetlówkami 18-watowymi. Do niedawna na rynku oświetlenie LED było dostępne głównie w formie zamienników, czyli pasujących do starych opraw żarówek z diodami i zasilaniem, obecnie coraz więcej opraw ma konstrukcję zintegrowaną, a więc zawiera niewymienne źródło światła. Obecnie też mamy zamienniki, ale większego kalibru w postaci opraw oświetleniowych równoważnych funkcjonalnie. Mają one podobne wymiary, system mocowania, przyłącze elektryczne oraz parametry świetlne, ale wykonane są jako konstrukcja zintegrowana, niebazująca na wymiennym emiterze. Takie oprawy oświetleniowe mogą być używane równolegle z tradycyjnymi, nie wymagają kompletnych przeróbek instalacji i są produktem znanym specjalistom.

Coraz więcej produktów przynosi coś więcej niż tylko światło – pozwala na programowanie czasu włączenia i wyłączenia, aktywuje się w obecności osób, pozwala na regulację jasności, barwy, współpracuje ze smartfonem itd. Ostatni trend to coraz większy udział rozwiązań specjalistycznych, a więc przeznaczonych do wybranych miejsc i aplikacji. LED-y dają o wiele większe możliwości kompozycji źródeł z oprawą i resztą otoczenia i widać, że cieszą się zainteresowaniem. Są przeznaczone do oświetlenia budynków, stanowisk pracy, ulic, obiektów publicznych. Takie cenne obszary to również np. architektoniczne, sceniczne, medyczne, motoryzacyjne.

Najważniejsze cechy oświetlenia LED od strony technicznej
 
Czynniki techniczne związane z oświetleniem ledowym w największym stopniu sprzyjające rozwojowi rynku to długi czas pracy, czyli żywotność produktu, duża wydajność świetlna i dobre odwzorowanie barw. Kupujący oczekują, że produkty te przyniosą oszczędności w kosztach oświetlenia, zapewnią dużą wydajność (strumień świetlny w przeliczeniu na moc zasilania, wielkość oprawy i wagę) oraz że światło będzie dobrze odwzorowywało kolory. Ostatnim czynnikiem jest powtarzalność parametrów, czyli to, że właściwości świetlne nie będą przypadkowe. Z zapewnieniem tego ostatniego kryterium jest chyba najtrudniej na rynku zdominowanym przez azjatyckie źródła zaopatrzenia oraz silną konkurencję cenową. Na dodatek parametrów światła nie bada się tak łatwo i tanio jak np. wartości elektrycznych, a więc pomiar współczynnika oddawania barw jest wielokrotnie bardziej kosztowny do realizacji niż napięcia lub prądu.

Inteligentne oświetlenie, czyli smart

Inteligentne oświetlenie to termin o szerokim znaczeniu, często też określane terminem "smart" w przypadku, gdy chodzi o źródła światła do pomieszczeń wewnętrznych. Koncepcja opiera się na tym, że do źródła światła dodajemy różne czujniki, obwody sterujące (jasnością, kolorem, odcieniem), aktywację ruchem człowieka, programowanie czasu działania oraz komunikację. Jednym z najczęściej spotykanych funkcjonalności tego systemu jest możliwość dostosowywania temperatury barwowej oraz jasności świecenia ręcznie lub automatyczne w zależności od pory dnia oraz zdefiniowanego profilu.

Takie możliwości zapewniają profesjonalne oprawy przemysłowe, do budynków biurowych i stanowisk pracy, a nawet żarówki ledowe do zastosowań domowych. Rozwiązania te różnią się tylko liczbą takich funkcji i komunikacją. W systemach budynkowych sterowanie lampami realizuje się za pomocą DALI (Digital Addressable Lighting Interface) i Ethernetu lub ZigBee. W tych domowych częściej spotyka się Bluetooth i Wi-Fi umożliwiające komunikację ze smartfonem. Niestety jednym z kłopotów branży oświetleniowej pozostaje brak jednomyślności co do standardu wymiany danych, co wywołuje spore problemy z interoperacyjnością poszczególnych modułów LED. Od kilku lat trwają prace nad wprowadzeniem większej standaryzacji, ale idzie to opornie. W wielu przypadkach każda marka ma swoją aplikację i koncepcję sterowania. Kupuje się jego wizję, a nie interoperacyjność.

Główne czynniki sprzyjające rozwojowi rynku
 
Za czynniki biznesowe sprzyjające rozwojowi rynku i pozytywnie oddziałujące na wzrost uznano coraz niższe ceny w przeliczeniu na otrzymywaną wartość/jakość techniczną i funkcjonalność użytkową, duże możliwości związane z integracją, aplikacją, sterowaniem oświetleniem ledowym, a także to, że świadomość ekologiczna społeczeństwa się zwiększa. Klienci chcą oszczędzać energię i słusznie kojarzą, że oświetlenie diodowe pozwala prosto zyskać obniżkę w wydatkach. Za istotne kryterium uznano także to, że rynek związany z oświetleniem LED jest coraz większy, co wynika z większej liczby aplikacji specjalistycznych (przemysłowych, medycznych i podobnych).

Oświetlenie specjalistyczne i przemysłowe

Silna konkurencja na rynku konsumenckim powoduje, że stale rośnie znaczenie oświetlenia specjalistycznego i profesjonalnego, w którym wartość dodana dla klienta jest większa niż w obszarze konsumenckim oraz nie ma takiej konkurencji cenowej ze strony importerów produktów azjatyckich. Renomowane firmy stawiają na nowoczesne produkty, o dużej funkcjonalności, jakości, także w zakresie popularnych rozwiązań konsumenckich i nierzadko porzucają aktywność w zakresie wyrobów typowych, gdzie konkurencja ma charakter cenowy.

W tym obszarze ilościowo i asortymentowo dominują rozwiązania oświetleniowe do sklepów wielkopowierzchniowych, magazynów, hal produkcyjnych (głównie lampy highi low bay, oprawy liniowe), w dalszej kolejności są to lampy montowane w sufitach podwieszanych, systemy oświetlenia ulicznego, lampy obiektowe, wersje z certyfikatami (Atex, górniczymi, medycznymi), w obudowach odpornych na narażenia środowiskowe i podobne. Drugim obszarem specjalizacji jest atrakcyjne wzornictwo pozwalające nadać pomieszczeniom indywidualny charakter i zapewnić wysoką funkcjonalność.

Jeszcze inna droga specjalizacji to oświetlenie do zastosowań w rolnictwie, a więc wykorzystywane do uprawy roślin i hodowli zwierząt oraz UV do sterylizacji. Światło o odpowiednim widmie oraz dawce korzystnie wpływa na wzrost i poziom zawartości pożądanych substancji aktywnych w roślinach. UV pomaga z kolei w utrzymaniu dobrej kondycji plonów poprzez ograniczanie rozwoju pleśni oraz niektórych gatunków szkodników, stanowiąc alternatywę dla środków chemicznych. Do takich zastosowań pojawiły się już odpowiednie diody o specyficznej barwie światła.

LED-y z zakresów UV-B oraz UV-C wykorzystywane są również m.in. w celu dezynfekcji pożywienia, powietrza, wody oraz powierzchni. Ich zaletą jest nie tylko wysoka energooszczędność, ale również małe wymiary, pozwalające na miniaturyzację urządzeń, przez co wypierają lampy rtęciowe z wielu zastosowań. Także dzięki temu, że nie zawierają rtęci i wiążących się z nią problemów z recyklingiem. Drugą korzyścią jest duża żywotność. Lampy rtęciowe mają ją na poziomie ok. 8 tys. godzin, lampa LED UV może osiągnąć nawet 10-krotnie więcej, nie wymagają nagrzewania, co zwiększa wydajność procesu sterylizacji i umożliwia błyskawiczne uruchomienie systemów Przegląd ofert dostawców oświetlenia LED dezynfekujących.

Najważniejsze czynniki negatywne dla rynku oświetlenia LED
 
Czynniki negatywnie oddziałujące na rynek oświetlenia LED (komponenty i źródła światła) to zła jakość produktów. Drugi wymieniony w kolejności czynnik, trudność w porównywaniu parametrów produktów, a także trzeci – brak wiedzy klientów, można uznać za powiązane ze sobą i tworzące wspólny mianownik problemów. Parametry źródeł światła, jednostki opisujące wydajność źródeł wymagają wiedzy z zakresu fizyki, optyki, z którą wielu kupujących sobie nie radzi. Z kolei importerzy nie dysponują z reguły aparaturą do badań i nie kontrolują właściwości optycznych produktów. Powodem są ceny przyrządów, ale także brak wiedzy i chęci.

Jakość zasilania, diod, optyki i materiałów

Mówiąc o jakości oświetlenia ledowego, w największym stopniu skupiamy się na ocenie diod, a więc emiterów światła. Rozważamy zagadnienia związane z wpływem temperatury na trwałość, degradacją luminoforu itp. czynnikami. Niemniej z perspektywy lat można powiedzieć, że w wielu przypadkach diody nie są głównym sprawcą złej jakości produktów końcowych. Może kiedyś tak było, ale dzisiaj rozwój technologii pozwala zapewnić ich działanie w dziesiątkach tysięcy godzin.

Poza diodami problemy sprawia zasilanie, zwłaszcza to zintegrowane z lampą, gdyż wówczas zasilacz jest umieszczony blisko źródła światła i całość razem grzeje się znacząco. Prowadzi to do wysychania elektrolitu w kondensatorach elektrolitycznych i przedwczesnych awarii. Zasilacze są też wrażliwe na przepięcia w sieci. Dotyczy to głównie produktów konsumenckich, gdzie oszczędza się na komponentach oraz wersji profesjonalnych w przypadku, gdy warunki eksploatacji są trudne. Świadomość rynku w zakresie wpływu warunków panujących w miejscu instalacji na żywotność jest niewielka i zasilacz szczelnie zabudowany w drewnianym meblu nie jest wcale rzadkością. Ostatnim czynnikiem determinującym jakość i żywotność oświetlenia jest jakość produktów chemicznych, takich jak zalewy hermetyzujące i tworzywa elementów optycznych, które żółkną, kruszą się lub deformują. Warto więc pamiętać, że w zapewnieniu jakości liczy się połączenie wszystkich elementów w spójną całość.

Przekaźniki elektromagnetyczne

Niezmiennie od dziesiątków lat przekaźniki elektromagnetyczne łączą obwody w urządzeniach elektronicznych i elektrycznych, zapewniając wysokie parametry użytkowe za niewielką cenę. Ich trwałość i duża odporność na przeciążenia okazują się na tyle ważne dla inżynierów, że nie tylko nie zastępują ich w wielu obwodach przez wersje półprzewodnikowe, ale z powodzeniem aplikują je w nowych obszarach. Przekaźniki elektromagnetyczne są fenomenem techniki, bo mimo przeszło 150-letniej historii cały czas uznawane są za produkty perspektywiczne, zawsze obecne i istotne, a nowe pomysły w zakresie miniaturyzacji, wysokiej jakości wykonania, niskiego poboru mocy przez cewkę elektromagnesu w tych elementach ciągle budzą zainteresowanie.

Od wielu lat jednym z najważniejszych trendów rozwojowych rynku przekaźników elektromagnetycznych jest miniaturyzacja. Nowe wykonania wchodzące na rynek nie tylko mają mniejsze wymiary, ale także nierzadko jednocześnie zwiększoną obciążalność styków, przez co moc łączeniowa przypadająca na jednostkę objętości (gęstość mocy) tego elementu z każdą generacją się zwiększa.

Ocena stopnia specjalizacji dostawców w zakresie przekaźników
 
Dla prawie dwóch trzecich dostawców przekaźniki elektromagnetyczne są jedną z wielu grup produktów będących w ofercie. Dla jednej trzeciej mają one większe znaczenie, są istotne z punktu widzenia biznesowego i często tworzą wydzielony pion, determinując specjalizację rynkową. Tylko dla 5% dostawców są to podzespoły najważniejsze. Pole to zawiera wyłącznie producentów tych elementów, firmę Relpol oraz biura przedstawicielskie producentów zagranicznych (np. Finder, Zettler). Stopień specjalizacji na rynku można ocenić jako duży w odniesieniu do samego produktu, który jest masowy i o ogólnym przeznaczeniu.

Miniaturyzacja w przekaźnikach wiąże się ponadto z pogłębiającą się specjalizacją tych elementów. Im mniejszy komponent, tym parametry maksymalne są ściślej określone. Miejsce wersji zdolnych do przełączania zarówno napięć stałych, jak i przemiennych, niskich i wysokich wartości jednocześnie zajmują konstrukcje specjalizowane, ukierunkowane np. na małe napięcia, sterowanie obciążeniem indukcyjnym o dużej zdolności do chwilowego przeciążania i podobne. To samo dotyczy liczby styków, które coraz rzadziej występują w dwóch parach przełączających – nierzadko jest to tylko jeden styk zwierny. Wersje specjalizowane są przeznaczone do odpowiednich zastosowań: instalacji fotowoltaicznych, załączania silników, gdzie prąd rozruchowy ma dużą wartość, są wersje bistabilne, bezpieczeństwa i podobne.

Przemysław Szafrański

dyrektor sprzedaży krajowej Relpol SA

  • Czy rynek przekaźników elektromagnetycznych jest chłonny i perspektywiczny?

Od wielu lat słyszymy o schyłku technologii przekaźników elektromagnetycznych na rzecz przekaźników półprzewodnikowych SSR. Rynek jednak pokazuje, że teza ta nie jest prawdziwa. Oczywiście zauważamy bardzo dynamiczny rozwój sprzedaży przekaźników półprzewodnikowych, w szczególności tam, gdzie mamy do czynienia z częstym załączaniem obwodów np. grzałek. Jednak o przyszłość rynku przekaźników elektromagnetycznych jesteśmy spokojni. Zastosowanie tego typu przekaźników jest wręcz niezbędne w dynamicznym rozwoju nowych technologii inteligentnych budynków, projektach stacji ładowania samochodów elektrycznych i pomp ciepła. Oczywiście nadal niezmiennie duże zapotrzebowanie na przekaźniki generują systemy BMS, HVAC, rynek AGD, automatyka czy energetyka zawodowa.

  • Jakie są najważniejsze cechy przekaźników od strony technicznej?

Przekaźnik elektromagnetyczny zmienia swoją rolę w systemach automatyki i sterowania. Jeszcze niedawno elementy te stosowane były głównie jako układy pośredniczące, dziś coraz częściej stają się podzespołem wykonawczym, który załącza poszczególne obwody. Powoduje to, że coraz częściej dla projektantów liczy się nie tylko prąd obciążenia i napięcie cewki, ale również materiał, z jakiego wykonane są styki. Efektem tego jest coraz częściej wybierany przekaźnik z materiałem styków AgSnO 2 właśnie dla załączania obciążeń wymagających jak np. oświetlenie LED czy małe silniki. Obwody te generują również duży pik prądowy przy załączaniu, tak więc wymaga to od przekaźników odporności na wysoki prądu udarowy 80 A, a nawet 120 A przez 20 ms, odpowiedzią na tę potrzebę są przekaźniki inrush.

Wysokiej jakości materiały, duża dokładność wykonania odpowiadająca możliwościom mechaniki precyzyjnej niczym z zegarków i pełna automatyzacja produkcji eliminująca wiele błędów produkcyjnych pozwalają sprowadzić przekaźnik do wielkości, w której nie dominuje on w systemie nad innymi komponentami, a więc nie jest problemem integracyjnym. Nowe wykonania mechaniczne to także wersje w obudowach do montażu SMT, które są dostępne nawet wówczas, gdy moc komutowana jest duża. To także konstrukcje ciche, takie, które nie zwracają uwagi użytkownika głośnym stukaniem.

Współczesny przekaźnik elektromagnetyczny jest też konstrukcją znacznie bardziej odporną na wpływ środowiska i warunki występujące podczas produkcji (takie jak automatyczny montaż, mycie płytek i zalewanie obudowy), a także na narażenia mechaniczne. Przekaźniki dostępne w handlu występują obecnie praktycznie wyłącznie w wersji obudowanej, standardem staje się też dodatkowa hermetyzacja krawędzi obudów za pomocą żywicy. Poprawia to z pewnością trwałość i jakość tych elementów i eliminuje całkowicie dawne problemy, takie jak pokrywanie się styków tlenkami od znajdujących się w powietrzu atmosferycznym związków (siarka, kwasy).

Najważniejsze cechy przekaźników brane pod uwagę przy kupnie przez klientów
 
Trzy kryteria wyraźnie wybijają się ponad resztę w zestawieniu najważniejszych cech ofert handlowych w zakresie przekaźników elektromagnetycznych: jakość i niezawodność, cena oraz krótki termin dostawy. Oczywiście jakość i cena zawsze lokują się na górnych pozycjach tego typu analiz, stąd też w zestawieniu nie ma żadnego zaskoczenia. Zainteresowanie jakością to efekt zmian w całej technice w ostatnich latach i wysokie notowania są normalne dla większości komponentów. Z kolei krótki termin dostawy to znak obecnych czasów i kłopotów z zaopatrzeniem. Co więcej, różnice procentowe w trzech najwyższych słupkach na wykresie są pomijalne. Liczy się również marka i historia firmy. Jeśli dany producent istnieje na rynku od wielu lat, jest doświadczony, jego marka jest znana i ma pewną renomę na rynku, wówczas klienci chętniej kupują jego produkty.

Efektem ubocznym tych procesów jest to, że oferta rynku w zakresie typów i wykonań jest imponująca, a portfolio produktów czołowych producentów liczy mnóstwo pozycji, co nie tylko utrudnia inżynierom selekcję produktu, a działom marketingu promocję konkretnych pozycji, ale także negatywnie wpływa na czasy dostaw. Wersje mało popularne nie są magazynowane przez dystrybutorów, co powoduje, że czasy dostaw potrafią się znacznie wydłużać.

Mała moc cewki, czyli niewielkie nagrzewanie

Poza zmianami w konstrukcji mechanicznej producenci kładą dzisiaj nacisk na obniżenie poboru mocy przez elektromagnes. Dla typowych wersji o obciążalności styków na poziomie 8 A waha się ono w zależności od liczby styków od 200 do 400 mW. Jest to spora redukcja ważna nie tylko w elektronice, bo wiele układów sterujących nierzadko pobiera mniej mocy niż ten jeden element, ale także w aplikacjach przemysłowych. Tam, gdzie przekaźników pracuje dużo, wydzielające się z cewek ciepło negatywnie wpływa na trwałość a pozytywnie na możliwość pracy w szerszym zakresie temperatur. Nie jest to może tak bardzo istotne w przypadku przekaźników umieszczonych w dużych obudowach, a więc takich, które mają możliwość rozproszenia ciepła, niemniej wersje miniaturowe zyskują wiele na jakości właśnie dzięki obniżaniu mocy pobieranej przez cewkę. Dwie dekady temu przekaźnik z cewką zasilaną z sieci 230 V AC pobierał 1–1,5 wata, dzisiaj jest to ok. 0,5 W, czyli znacznie mniej. Wystarczy dotknąć ręką obu tych wersji podczas pracy, aby przekonać się, jak dużą różnicę w temperaturze obudowy zapewnia ta zmiana.

Najważniejsze czynniki negatywne dla rynku
 
Listę problemów dla omawianej branży otwierają przede wszystkim czynniki ekonomiczne: oszczędności i cięcia kosztów u klientów, rosnące koszty działalności (materiały, praca) oraz czynnik związany z dużą konkurencją na rynku wynikającą z wielu firm aktywnych w tej branży oraz dużą popularnością takich produktów. Na czwartej pozycji są długie czasy dostaw, co pokazuje, że problemy z zaopatrzeniem jeszcze się nie skończyły.

Wymagania jakościowe stale się zwiększają

Od przeszło dekady na rynku przekaźników widoczny jest zwrot zainteresowania klientów w stronę produktów wysokiej jakości i tych produkowanych przez renomowanych producentów. Proces ten dzieje się, mimo że cały czas są dostępne przekaźniki klasyfikowane jako tanie marki, a silna konkurencja zapewnia wiele rozwiązań o zbliżonych parametrach.

Przyczyn tego zjawiska jest wiele, w tym rosnące koszty działalności firm i tym samym drożejący serwis oraz obsługa techniczna urządzeń. To także coraz większy eksport krajowych przedsiębiorstw, coraz więcej urządzeń i aparatury w fabrykach oraz większe skomplikowanie techniczne nowych instalacji. W Polsce szybko rozwijają się rynki związane z produkcją maszyn, sektorem budowlanym i postępuje automatyzacja wielu dziedzin gospodarki. Rozwój produkcji jest też źródłem popytu na systemy kontroli i sterowania, co zawsze stymuluje zapotrzebowanie na przekaźniki. Wiele krajowych firm produkuje i eksportuje urządzenia dla przemysłu, takie jak sterowniki, regulatory, urządzenia pomiarowe, styczniki, systemy nadzoru. W ramach inwestycji kupowane są nowe maszyny i budowane do nich instalacje oraz systemy. Strumień sprzedaży dla przemysłu tworzy też elektronika profesjonalna, energoelektronika, elektromobilność i sektor energii odnawialnej.

Piotr Szukaj

product manager w firmie Masters

  • Jak najlepiej trafić z przekaźnikami w potrzeby klientów?

Aby sprostać potrzebom klientów, a więc dopasować się do wymagań ich działów inżynieryjnych oraz konstrukcyjnych, należy spełnić kilka czynników. Poza oczywiście parametrami technicznymi, bardzo istotną rolę odgrywają również gabaryty. Ograniczenia przestrzenne w aplikacjach narzucają wysokość przekaźnika mierzoną z dokładnością nawet do 0,1 mm. Kartą przetargową może być też certyfikat zgodności danego produktu wydawany np. przez niemiecki instytut VDE, który bywa decydującym kryterium decyzji użycia danego elementu oraz decyzji zakupowych do realizacji projektu, który może mieć czas życia nawet 10 lat. Liczy się czas wdrożenia zgodności produktu z systemem, który może trwać nawet kilka miesięcy w zależności od liczby przeprowadzanych testów, takich jak symulacje pożarowe w skrajnych warunkach temperaturowych.

  • Co dostawcy muszą zapewnić klientom poza samymi produktami?

Dostawcy, czy też bezpośrednio sami producenci, których rozwiązania dostarczamy, oprócz portfolio produktów, które oferują, określonych ściśle parametrów technicznych, muszą spełniać wiele wymagań nakładanych przez nas i przez samych klientów. Obciążalność, materiał styków (np. AgNi platerowany złotem) czy też liczba cykli przełączeniowych to wartości przypisane bezpośrednio do samego przekaźnika. Wymagamy od producentów spełniania określonych norm jakościowych produkcji, jak ISO, czy też certyfikatów gałęzi przemysłu, jak IATF. Wymienione certyfikacje są przyznawane na 2 lata i muszą być odnawiane dla zachowania ciągłości. Związane z tym są audyty przeprowadzane bezpośrednio w fabrykach, które muszą być udokumentowane pozytywnym wynikiem w formie oficjalnego certyfikatu.

  • Gdzie kieruje się rozwój tego biznesu?

Zauważalny kierunek rozwoju tworzy motoryzacja, a konkretnie sektor ładowarek samochodów elektrycznych (EVC), gdzie krytyczne są nie tylko wysoka obciążalność prądowa, kształt, przekaźnika, np. T-shape, ale również odstęp między stykami, który może wynosić np. 3 mm i być określony konkretną normą.

Najważniejsze trendy techniczne w przekaźnikach
 
Miniaturyzacja przekaźników została po raz kolejny uznana za najważniejsze zjawisko techniczne zmieniające rynek przekaźników. Podobnie było w przypadku naszych analiz dotyczących innych komponentów elektromechanicznych, co pozwala uznać to kryterium za wspólne. Wszystkie urządzenia elektroniczne z każdą kolejną generacją są coraz mniejsze i jednocześnie bardziej złożone. Jest ich też w naszym otoczeniu coraz więcej, przez co miejsca na płytkach drukowanych, w obudowach, szafach instalacyjnych jest coraz mniej. W takich warunkach rynek oczekuje produktów mniejszych po to, aby spiąć ze sobą wiele przeciwstawnych wymagań, np. te znajdujące się na drugim miejscu związane z dużą obciążalnością. Mały pobór mocy przez cewkę elektromagnesu to także stały od dekady dla branży trend. Przekaźnik ma pobierać mało mocy po to, aby się nie nagrzewać, nie wpływać negatywnie na zużycie energii i także aby w porównaniu do wersji półprzewodnikowych był możliwie najbardziej funkcjonalny.

Zainteresowanie jakością w branży bierze się też z tego, że krajowych przedsiębiorców obecnie stać na lepsze produkty, bo sytuacja w gospodarce ogólnie jest dobra. Inwestycje producentów w automatyzację produkcji spowodowały, że wytwarzanie przekaźników wymaga minimalnych nakładów pracy ręcznej, więc jakość jest lepsza przy jednocześnie mniejszych kosztach. Ceny przekaźników markowych nie są już dzisiaj w dużej dysproporcji w stosunku do tych tańszych i nierzadko różnica pomiędzy wersjami markowymi i resztą staje się niewarta starań. Co więcej, w ostatniej dekadzie w technologii przekaźników zaszło sporo korzystnych zmian poprawiających jakość i trwałość tych elementów, przez co działy utrzymania ruchu w przemyśle kupują obecnie relatywnie mniej tych elementów niż kiedyś. To też ogranicza zapędy do oszczędności. Paradoksalnie rynek dzisiaj ma znacznie większą świadomość w zakresie podejścia do jakości właśnie dzięki temu, że kiedyś była ona mniej istotna, a liczyła się cena. Nic tak nie edukuje klientów i nie zmienia kierunku myślenia firm, jak pojawiające się problemy z urządzeniami w okresie gwarancyjnym i ponoszone koszty serwisu z powodu elementu, na którym oszczędzono złotówkę.

Najważniejsze zjawiska pozytywne dla rynku
 
Listę najważniejszych czynników pozytywnie wspierających rynek otwierają rosnące wymagania klientów, na które wskazało 67% specjalistów. Kolejne miejsca to coraz większe znaczenie jakości, pojawiające się nowe sektory rynku, takie jak elektromobilność oraz szeroki asortyment dostępnych produktów, pozwalający dobrać element przełączający bez konieczności kompromisu. Wysokiej jakości produkty zapewniają trwałość projektów oraz ich bezusterkowość, a co za tym idzie, reklamacje oraz ewentualne zwroty lub koszty serwisu są sprowadzone do minimum, co pokazuje, że wiele kryteriów można sprowadzić do wspólnego mianownika o nazwie "małe koszty".
Branże o największym potencjale zakupowym w zakresie przekaźników
 
Tradycyjnie dla polskiego rynku, obszar przemysłowy został uznany za najbardziej wartościowy dla przekaźników – w ankiecie padło na niego aż 90% wskazań. Na kolejnych pozycjach mamy energetykę odnawialną, sektor elektroniki profesjonalnej i energoelektronikę, czyli dalej branże klasyfikowane jako profesjonalne. Branża AGD, telekomunikacja, motoryzacja i elektronika konsumencka to sektory, w których przekaźników elektromagnetycznych jest coraz mniej, gdyż komutacją sygnałów zajmują się przełączniki elektroniczne (SSR i IPS).

Elektronika wkracza do przekaźnika

Szybki rozwój automatyki budynkowej oraz aplikacji przemysłowych w zakresie tzw. małej automatyki tworzy zapotrzebowanie na przekaźniki z wbudowaną elektroniką, np. czasowe, programowalne. Są to ministerowniki do oświetlenia w garażu, sterowania wentylacją w hali, załączania oświetlenia przeszkodowego i podobnych zadań. Takie aplikacje wymagają czegoś więcej niż zwykły przekaźnik, ale jeszcze nie jest to sterownik PLC. Wbudowana elektronika realizuje sterowanie czasowe, współpracuje z czujnikami itp. Elementy takie są zazwyczaj umieszczane w obudowie do montażu na szynie DIN i pracują w skrzynkach elektroinstalacyjnych. Z roku na rok jest takich wersji więcej.

Przekaźniki – typy najbardziej dochodowe i konkurencyjne
 
Najbardziej dochodowe dla dostawców są przekaźniki przemysłowe, a największa konkurencja jest w przekaźnikach subminiaturowych do PCB. Od wersji przemysłowych wymaga się najwięcej, tam najbardziej liczy się jakość, funkcjonalność oraz niezawodność potwierdzona wieloma certyfikatami i uznaniami. Konkurencja w wersjach subminiaturowych do PCB wynika z tego, że są to standardowe rozwiązania w zakresie wielkości i obciążalności. Elementy te są produkowane na liniach automatycznych na Dalekim Wschodzie, a wielu innych producentów jedynie sygnuje je własnym logo. Takie przekaźniki konkurują głównie ceną, bo cała reszta jest identyczna.

Wersje pod aplikacje

Nietrudno zauważyć, że rośnie liczba przekaźników specjalizowanych, takich, których parametry i funkcjonalność zostały ściśle dopasowane do wymagań aplikacyjnych: do załączania obciążeń indukcyjnych i oświetlenia żarowego, aplikacji fotowoltaicznych, wersji bistabilnych, bezpieczeństwa itp. Do niedawna przekaźnik był postrzegany jako coś bardzo uniwersalnego, którego można było używać w zasadzie dowolnie, obecnie okazuje się, że czasem warto sięgnąć po rozwiązanie aplikacyjne. Tego typu przekaźniki coraz liczniej pojawiają się w ofertach dostawców i ich potencjał rynkowy się zwiększa razem z potencjałem sektorów, do których trafiają.

Przełączniki, przyciski i klawiatury

Podobnie jak dla wielu innych elementów elektronicznych, tematem dyżurnym w branży przełączników i klawiatur jest jakość rozumiana w największym stopniu przez pryzmat trwałości mechanicznej i elektrycznej. Zainteresowanie jakością to splot wielu czynników, jak zwiększająca się wymiana handlowa z zagranicą, usługi projektowe realizowane na zlecenie partnerów zagranicznych, duże znaczenie branży przemysłowej. Jakość to też sposób producentów klawiatur na konkurencję dalekowschodnią.

W przypadku omawianych produktów jakość jest szczególnie istotna, bo często wyrabia opinię klientowi końcowemu o marce i producencie. Przez wiele lat napływ niskiej jakości azjatyckiej produkcji spędzał dystrybutorom renomowanych produktów sen z powiek i wymuszał nacisk działań na edukację klientów. Póki na rynku były ciężkie czasy, nie było to łatwe zadanie, ale w ostatnich latach świadomość klientów wyraźnie się poprawiła. Być może powodem jest też wzrost zamożności i potencjału firm, które nie muszą oszczędzać na wszystkim. Ponadto pierwotny dystans między dużymi cenami produktów kwalifikowanych jako czołowe marki a tanimi wyrobami chińskimi znacząco się zmniejszył i nie tworzy przepaści niedostępności.

Najważniejsze cechy ofert brane pod uwagę przy kupowaniu komponentów elektromechanicznych
 
Trzy kryteria wyraźnie wybijają się ponad resztę w zestawieniu najważniejszych cech ofert handlowych w zakresie przełączników, przycisków i klawiatur: cena, krótki termin dostawy oraz jakość produktów. Cena zawsze lokuje się na szczycie tego typu zestawień, tak samo było w poprzednich edycjach naszego raportu, stąd nie ma żadnego zaskoczenia. Co więcej, różnice procentowe w trzech najwyższych słupkach na wykresie są pomijalne. Duże znaczenie terminu dostawy to pokłosie rozchwianych łańcuchów dostaw i problemów z logistyką oraz zaopatrzeniem w materiały. Z kolei zainteresowanie jakością to efekt zmian w całej technice w ostatnich latach i wysokie notowania są normalne dla większości komponentów.

Ogromny asortyment

Przełączników i przycisków na rynku jest mnóstwo, tak samo jak producentów i firm, które mają je w ofertach. Czołowi producenci mają licznych naśladowców, wiele innych firm korzysta z tego, że rynek jest chłonny i proponuje wielowariantowe rozwiązania, które w zamyśle mają pokryć większość potrzeb klientów. Brakuje standaryzacji, bo w praktyce dotyczy ona tylko tych najpopularniejszych produktów, które mają wielu producentów i tym samym standardem staje się to, co jest popularne.

W przełącznikach i przyciskach nie funkcjonuje system modułowy, który pozwala na ograniczenie liczby części składowych taki, jakie spotyka się w złączach. Przeciwnie, wiele produktów daje możliwość kompozycji spośród wielu typów. Za jedną pozycją kryją się dziesiątki wersji różniących się kształtem dźwigni, kapturkiem, stopniem ochrony, końcówkami łączeniowymi, kolorem podświetlenia. Utrudnia to dokonywanie wyborów, także zmianę produktu na inny, pochodzący od innego producenta, a także utrudnia promocję nowych rozwiązań.

Krystian Adamus

Horizon Technologies

  • Jak wybierać dostawcę elementów elektromechanicznych? Na co zwracać uwagę?

Poszukując dostawcy czy też producenta elementów elektromechanicznych, których nie możemy kupić z tak zwanej półki, należy wziąć pod uwagę nieco więcej aspektów niż tylko dostępność i cena danego komponentu. W pierwszym kroku warto przeanalizować ogólnodostępne informacje finansowe, które dany podmiot publikuje. Zyskamy wiedzę dotyczącą finansowej wiarygodności oraz stabilności naszego potencjalnego partnera. Następnie powinniśmy ocenić jego zdolność do szybkiej i profesjonalnej wymiany informacji w zakresie potencjalnego projektu. Sprawdzić należy również portfolio produktowe tego podmiotu. Jeżeli nasz potencjalny dostawca jest w stanie zaprojektować i wyprodukować na przykład klawiaturę membranową czy elewację foliową – to dobrze. Jeśli natomiast potrafi on również przeanalizować, zaprojektować, wdrożyć i dostarczyć inne elementy, jak obudowy z tworzyw sztucznych, dedykowane płytki PCB czy nawet dostarczyć kompleksowe i zmontowane urządzenie, to jeszcze lepiej. Będzie to wówczas potwierdzeniem, że ma on zdolność, by do projektu danego elementu elektronicznego podejść w sposób horyzontalny. Dzięki temu unikniemy potencjalnych problemów i kolizji technologicznych, które mogą wystąpić w przypadku projektowania i przygotowywania danego elementu, bez zrozumienia szerszego aspektu i środowiska, w którym ten element będzie wykorzystywany.

  • Jakie cechy oferty są ważne w biznesie w przypadku klawiatur?

W przypadku produkcji klawiatur i innych elementów elektromechanicznych jednymi z najważniejszych cech oferty są oczywiście cena oraz jakość. Należy jednak pamiętać, że produkt oferowany w najniższej cenie zazwyczaj nie będzie charakteryzował się wysoką jakością. Aby zatem uznać, że oferta na produkcję i dostawy klawiatur membranowych jest atrakcyjna, musi cechować się ona dodatkowymi parametrami. Przede wszystkim musi ona bazować na wysokiej jakości materiałach, precyzyjnym odwzorowaniu szaty graficznej, poprawnej pracy przetłoczonych przycisków, poprawnie wlutowanych i spozycjonowanych diod LED oraz utrzymywaniu wymiarów w granicach zaakceptowanej tolerancji. Najważniejszą jednak cechą, która wpisuje powyżej wskazane parametry we wspólny nawias, jest powtarzalność. Każda klawiatura, setna czy tysięczna, z partii wyprodukowanej w tym miesiącu czy dwa lata temu, musi być wierną kopią prototypu, który był wykonany na etapie wdrożenia projektu i został zaakceptowany przez inwestora. Można zatem uznać, że główną i najważniejszą cechą oferty w biznesie w przypadku klawiatur membranowych jest zachowanie ich powtarzalności. Ta cecha daje nam pewność, że jakość produktu pochodzącego z różnych partii produkcyjnych będzie zawsze na wysokim poziomie – tożsamym z jakością zatwierdzonego prototypu. A wspomniana wcześniej cena powinna być oczywiście niska.

Ważne i poszukiwane wersje komponentów elektromechanicznych
 
Listę ważnych i poszukiwanych wersji otwierają wersje standardowe przełączników, czyli typowe produkty, bez cech charakterystycznych dla producenta i wytwarzane przez wiele firm. Takie rozwiązania najczęściej zapewniają dobrze zbalansowany stosunek ceny do jakości oraz są łatwo dostępne. W dalszej kolejności uplasowały się przełączniki i przyciski przeznaczone do montażu na płytach czołowych oraz wersje w wykonaniach przemysłowych, a więc do maszyn, urządzeń, grzybki awaryjne, sterownicze i podobne. Niemniej różnice pomiędzy poszczególnymi kategoriami nie są duże i na wykresie nie ma jednej wyraźnie wybijającej się nad inne grupy.

Klawiatury

Klawiatury membranowe (foliowe) znajdują szerokie zastosowanie w sprzęcie kontrolno-pomiarowym, systemach przemysłowych, maszynach, w motoryzacji, sprzęcie medycznym i wielu innych obszarach spoza konsumenckiego. Ich duża popularność wynika z dobrej dostępności i niewielkiego skomplikowania technologii wytwarzania, co przekłada się na niskie koszty uruchomienia produkcji i jednostkowe oraz dobre własności użytkowe i jakości. Kolejny atut to taki, że jest to produkt elastyczny, taki, który można dopasować do wielu specyficznych wymagań aplikacyjnych. Klawiatury mogą być z klikiem klawiszy, podświetleniem, z frontem silikonowym lub foliowym, z polami przezroczystymi lub kolorowym filtrem pod wyświetlacz itd. Wraz z warstwami realizującymi ekranowanie elektromagnetyczne, konstrukcja jest zabezpieczana przed wpływem czynników środowiskowych lakierami i warstwami ochronnymi. Możliwości jest wiele, a rynek szeroki i chłonny. Klawiatury integruje się też z wyświetlaczami, sklejając je w całość tworzącą interfejs HMI.

Produkcja indywidualnie dopasowanych do aplikacji klawiatur, w pełni zintegrowanych z obudową także w małych seriach, tworzonych za pomocą druku cyfrowego, od wielu lat jest podstawą biznesu krajowych wytwórców. Firmy te inwestują w rozwój technologii, w nowe trwałe materiały, zapewniające odporność środowiskową i długotrwałe działanie, wykorzystują druk cyfrowy po to, aby dać możliwość pełnej indywidualizacji projektów, także tych określanych jako małe serie oraz łączą w ramach jednej oferty wiele rozwiązań przełączających, podświetleń i całego know-how, aby mieć ofertę dla każdego klienta.

Marcin Rzechonek

właściciel firmy Irga

  • Jak zmieniają się w ostatnich latach wymagania klientów w zakresie klawiatur?

Od początku działalności celowaliśmy w pracę z firmami, dla których istotna była trwałość i wytrzymałość ich produktów. Nie tworzyliśmy rozwiązań typowych i wytwarzanych masowo, raczej zawsze wybieraliśmy te bardziej specjalistyczne oraz potrzebne w mniejszych seriach.

W takim obszarze mamy klientów wytwarzających np. maszyny rolnicze, sprzęt górniczy i medyczny. Wspólną cechą tych urządzeń jest to, że są w użyciu przez długie lata, pracują w trudnych warunkach środowiskowych i w narażeniu na mało delikatne traktowanie. Klawiatury do takich aplikacji muszą być szczelne, wytrzymywać mycie agresywnymi detergentami, tolerować narażenia mechaniczne i gwarantować niezawodność działania.

  • Gdzie kryją się największe kompetencje firm wytwarzających klawiatury?

W produkcji klawiatur łączy się wiedzę z kilku dziedzin techniki, które stanowią osobne działy, a więc wymagane jest interdyscyplinarne podejście. Jest to poligrafia, która decyduje o wyglądzie i trwałości opisów i gdzie mamy do dyspozycji wiele technik o różnych własnościach, obszarach stosowalności, wadach i zaletach. Do tego dochodzi mechanika, związana z montażem klawiatur w całość, integracją z obudową. Dalej mamy elektronikę, bo z nią współpracuje klawiatura.

Producent musi łączyć kompetencje z tych dziedzin, aby zapewnić klientowi wsparcie we wszystkich tych obszarach, a dodatkowo pomóc we wzornictwie i estetyce rozwiązań, aby dla użytkownika projekt był atrakcyjny wizualnie. Żadna szkoła nie uczy takich kompetencji, a doświadczenie zdobywa się wraz z kolejnymi projektami. Oczywiście firmy elektroniczne mają największe kompetencje w zakresie elektroniki i związane z nią zagadnienia są w stanie najlepiej opanować, ale w pozostałych aspektach trzeba im pomagać.

Główne trendy techniczne
 
Za najważniejsze trendy techniczne uznano dużą trwałość mechaniczną i elektryczną elementów przełączających, a w dalszej kolejności odporność środowiskową, a więc mówiąc ogólnie, zagadnienia związane z jakością. Na trzecim miejscu wypadła miniaturyzacja, która jest zjawiskiem zmieniającym całą współczesną technikę. Cała reszta zagadnień łącznie z ergonomią i wzornictwem w hierarchii potrzeb klientów lokuje się znacznie niżej niż wymienione zagadnienia jakościowe. Jest to znakiem, że dominuje praktyczne, utylitarne wręcz podejście do wybierania oraz oceny potencjału technicznego tych rozwiązań.

Duży postęp we wzornictwie

Ciągłym trendem w branży jest poprawiający się wygląd elementów przełączających, czyli wzornictwo. Żywe kolory tworzyw sztucznych, ergonomiczne kształty, zintegrowane podświetlenia ledowe (również wielokolorowe) są z pewnością przykładem zachodzących zmian w omawianym sektorze. To samo można powiedzieć o ikonach, konstrukcji mechanicznej zapewniającej precyzję działania, responsywność, słyszalny "klik" wskazujący na zadziałanie. Wzornictwo to także odpowiednia faktura powierzchni tworzyw zapobiegająca poślizgowi i dająca pozytywne wrażenia podczas dotykania.

Jest to z pewnością wynik tego, że producenci mają dzisiaj do dyspozycji znacznie lepsze materiały i urządzenia produkcyjne o większej dokładności. Zaawansowane technologie produkcyjne są coraz bardziej przystępne. Druk cyfrowy o wysokiej rozdzielczości znakowarki i obrabiarki laserowe nie są już dzisiaj luksusem dostępnym dla największych firm i coraz częściej są wykorzystywane do personalizacji produktów, wykonywania produkcji małoseryjnej i innych operacji. Obrabiarki laserowe zapewniają wszystko, co jest dzisiaj potrzebne do zapewnienia jakości, a więc wysoką precyzję wykonywania oznaczeń, trwałość oraz szybkość. Mamy też w zasięgu obrabiarki CNC, drukarki 3D do prototypowania oraz zaawansowane oprogramowanie CAD do tego, aby stworzyć projekt. To wszystko przynosi efekty.

Paweł Leśniewski

regional sales manager, Eltronika

  • Jaka jest rola jakości w przyciskach i przełącznikach?

Jakość dla klientów jest oczywiście istotną kwestią, jednak nie zawsze jest ona pierwszoplanowa. Można nawet powiedzieć, że rola jakości jest fundamentalna, ale tylko tam, gdzie cały projektowany system ma być również wysokiej jakości i następnie ma być tak samo wysoko oceniany przez rynek. W praktyce bywa, że w profesjonalnie wyglądającym i drogim systemie montowane są często tanie i słabe przełączniki i trudno wskazać, jaki był powód takiej decyzji. Taka nieznacząca oszczędność z pewnością potrafi zniechęcić do kupna świadomego klienta.

  • Jakie nowości warte są zauważenia?

Widoczne jest zainteresowanie wielu klientów higieną, stąd dzisiaj przełączniki powinny być odporne na mycie (wodę, płyny i środki chemiczne) i po tym dalej muszą bezproblemowo działać. Widoczne są też zmiany we wzornictwie, które służą poprawie bezpieczeństwa użytkowników. Chodzi tu docelowo o efektywniejsze i skuteczniejsze manipulowanie całym panelem przez operatora. Zastosowane komponenty mają nie męczyć wzroku przy długotrwałej obsłudze, mają działać bezawaryjnie i dawać satysfakcję z obsługi. Powinny być ergonomiczne oraz przynosić właściwy i szybki efekt przy jakimkolwiek zagrożeniu dla zdrowia i życia człowieka. Wreszcie, komponenty powinny być dostępne do obsługi dla niemal każdego, stąd też częściej ikony uzupełniane są przez znaki brajla, aby pomagać w codzienności osobom niewidomym.

Najważniejsze zjawiska pozytywne dla rozwoju rynku komponentów elektromechanicznych
 
Listę najważniejszych czynników pozytywnie wspierających rynek otwierają rosnące wymagania klientów, na które wskazało 63% pytanych specjalistów. Kolejne miejsca to jakość oraz szeroki asortyment dostępnych produktów, pozwalający dobrać element przełączający bez konieczności kompromisu. Jakość jest pojęciem, o którym się obecnie wiele mówi i przykłada do niego dużą wagę, a po wielu latach zaczyna być ona kluczem do sukcesu w biznesie. W ciągu ostatnich kilkunastu lat wiele zmieniło się na korzyść, a dane na pokazanym wykresie jednoznacznie przekonują, że staje się ona poszukiwaną wartością.

Elektronizacja idzie wolno

Elektronizacja przycisków to proces polegający na tym, aby poprawić trwałość mechaniczną tego elementu poprzez integrację technologii dotykowych, np. piezoelektrycznych, pojemnościowych lub indukcyjnych. Tego typu elementy stanowią wydzielony, pojedynczy komponent stanowiący odrębną całość, której można użyć praktycznie tak samo, jak tradycyjnych. Takie technologie są najczęściej wykorzystywane w aplikacjach narażonych na wandalizm, np. windy, automaty sprzedaży. Elektronizacja przycisków umożliwia też uszczelnienie konstrukcji frontu. Wadą jest brak skoku klawisza, trudność obsługi w rękawiczkach, przez co są to produkty niszowe.

Haptyka, ToF, gesty

Nadchodzącą nowością technologiczną w zakresie przełączników i klawiatur są elementy haptyczne. Mogą one dostarczać informacji zwrotnych w aplikacjach medycznych i przemysłowych a także realizować system ostrzeżeń, aby poinformować o potencjalnie niebezpiecznych warunkach. Przydają się w otoczeniu, gdzie jest duży poziom hałasu, użytkownik nosi grube rękawice, pod wodą itd.

Obecnie funkcjonalności haptyczne, takie jak drgania oraz wibracje, znajdują szerokie zastosowanie w smartfonach (wibracja informuje np. o nadchodzącym połączeniu lub wiadomości), kontrolerach gier, urządzeniach medycznych, lotnictwie, robotyce, zabawkach, symulatorach i urządzeniach treningowych, ale można oczekiwać, że miniaturowe siłowniki wibracyjne (bazujące na silniku i wirującym ciężarku lub aktuatorze piezoelektrycznym) będą coraz częściej wspierać działanie przełączników i ekranów dotykowych.

Robert Burzyński

prezes Qwerty

  • Czego oczekują klienci od producentów klawiatur?

Klienci poszukujący klawiatur foliowych zazwyczaj oczekują od producentów wysokiej jakości, trwałych, ekonomicznych i niezawodnych produktów, zaprojektowanych zgodnie z indywidualnymi wymogami i spełniających ich specyficzne potrzeby. Niektóre z kluczowych oczekiwań w stosunku do klawiatur foliowych to trwałość, personalizacja, dobry stosunek cena/jakość i zrównoważona produkcja.

  • Co zmienia się w technologii klawiatur?

Klawiatury foliowe funkcjonują na rynku już od dłuższego czasu i są dobrze znanym rozwiązaniem technicznym. Jednak nadal istnieją pewne innowacyjne funkcje, które można znaleźć w nowoczesnych wyrobach jak na przykład podświetlenie, zamontowany (zalaminowany) wyświetlacz, wysoka odporność w standardzie IP oraz zintegrowane czujniki (np. siły nacisku, natężenia światła itp.).

  • Na jakie parametry należy zwrócić uwagę przy wyborze klawiatury?

Wybierając klawiaturę foliową, należy wziąć pod uwagę trwałość, dobry wyczuwalny "klik", sprawne funkcjonowanie w szczególnych warunkach oraz cenę. Biorąc pod uwagę te parametry, klient powinien wybrać klawiaturę foliową, która najlepiej odpowiada jego potrzebom i preferencjom.

Najważniejsze czynniki negatywne dla rynku
 
Listę problemów dla omawianej branży otwiera czynnik związany z dużą konkurencją na rynku wynikającą z wielu firm aktywnych w tej branży oraz dużej popularności takich produktów. Druga pozycja to długie czasy dostaw, co pokazuje, że problemy z zaopatrzeniem jeszcze się nie skończyły. Na trzecim miejscu znalazły się tanie produkty azjatyckie, które odbierają rynek na komponenty standardowe czołowym graczom i prowadzą do wojen cenowych.

Z kolei czujniki ToF (Time of Flight) pozwalają ocenić odległość palca od ekranu dotykowego. Z ich użyciem można ekran podświetlić, zanim zostanie dotknięty, wybudzić aplikację z uśpienia i poprawić możliwość obsługi w rękawicy. W wersji z laserem czujniki ToF mogą dokonywać wielu pomiarów odległości jednocześnie, tworząc mapę trójwymiarową zbliżającego się obiektu i w ten sposób zapewniając niewrażliwość na zakłócenia.

Na koniec warto wspomnieć, że pozwalają one na rozpoznawanie gestów, tworząc trójwymiarowy model obiektu, dostarczą danych dla komputera, który na podstawie serii pomiarów wykryje gest, czyli w praktyce ruchy dłoni. Takie nowe pomysły przede wszystkim niwelują wady rozwiązań dotykowych (rękawica, opóźnienia, niepewność zadziałania w skrajnych warunkach środowiskowych).

Wyświetlacze i elektroniczny papier

Na rynku mamy coraz większy asortyment jednostek wyświetlaczy, są one coraz tańsze, a więc dostępniejsze, mają coraz lepsze parametry w zakresie wizualizacji danych oraz odporności mechanicznej i środowiskowej. Rośnie liczba dostępnych przekątnych ekranu i rozdzielczości, proporcji boków i interfejsów. Pojawiają się zaawansowane kontrolery, opcje związane z szerokim zakresem temperatur pracy, dużym kątem obserwacji, czytelnością w warunkach silnego oświetlenia słonecznego. Dostawcy wyświetlaczy tworzą też grupy produktów, wokół których możliwa jest łatwa migracja, czyli zmiana wyświetlacza nie wiąże się z kłopotliwymi zmianami układu elektronicznego i dużymi modyfikacjami oprogramowania.

Wśród pozytywnych zmian na rynku w ostatnich dwóch latach zauważalne jest dążenie klientów do zapewniania jak najlepszych parametrów optycznych wyświetlaczy stosowanych w ich produktach. Dlatego widać wyraźny trend zastępowania starych typów jednostek graficznych, znakowych oraz TFT-TN wykonaniami w nowszych technologiach jak TFT IPS, OLED oraz e-papier. Poprawia się dostępność wyświetlaczy i nie ma już dzisiaj większych problemów z dostawami, z wyjątkiem mniej typowych rozwiązań lub wyświetlaczy inteligentnych z wbudowanymi kontrolerami wysokiego poziomu, na które nadal przy większych zamówieniach są trudności z dostępnością.

Najważniejsze cechy wyświetlaczy brane pod uwagę przy kupnie
 
Co do tego, że cena jest bardzo ważnym kryterium selekcji produktu i dostawcy, byli przekonani wszyscy ankietowani, ale parametry techniczne też były wskazywane bardzo często. Kryteria takie jak kompetencje techniczne, jakość wykonania, długotrwała współpraca, zawsze są w tego typu rankingach wysoko notowane, niemniej poza dwoma ostatnimi różnice procentowe są na tyle niewielkie, że można powiedzieć, iż liczy się wszystko. W stosunku do poprzednich naszych zestawień wysoką pozycję zyskała długoterminowa dostępność produktu na rynku (longevity). Aplikacje profesjonalne, specjalistyczne urządzenia inne niż elektronika konsumencka są produkowane przez wiele lat i w ich przypadku wycofanie wyświetlacza z produkcji jest zawsze dużym kłopotem. Klienci zwracają na to dzisiaj większą uwagę, bo w ostatnich dwóch latach longevity dla wielu produktów wyraźnie zmalało.

Do pozytywnych zjawisk zapisać można też ciągłą popularyzację graficznych interfejsów użytkownika.

Obecnie sektor wizualizacji informacji dynamicznie się rozwija ze względu na wszechobecną cyfryzację i konieczność prezentacji coraz większej ilości danych. Coraz częściej korzysta się z urządzeń poprzez bezpośrednie interakcje użytkownika z wyświetlaczem. Dlatego funkcja sterowania dotykowego jest już praktycznie koniecznością w nowych projektach. Jest teraz standardem i panele dotykowe aplikowane są nawet w przypadkach, gdzie spokojnie bez nich można by się obyć. Niemniej decydujące są przyzwyczajenia klientów, którzy oswoili się ze sprzętem mobilnym na tyle, że oczekują zawsze podobnej funkcjonalności. Działanie wyświetlaczy wspomagają też czujniki obecności i kamery do rozpoznawania gestów.

Radosław Pyter

Head of Sales Poland, Unisystem

  • Jakie trendy na rynku wyświetlaczy są warte zauważenia?

W każdym roku obserwujemy zwiększone zainteresowanie rozwiązaniami przeznaczonymi do wykorzystania w przestrzeni publicznej. Mam tu na myśli przede wszystkim cyfrowe nośniki informacji, z których korzysta się m.in. w ramach systemów informacji pasażerskiej. Jednymi z najpopularniejszych tego typu rozwiązań są aktualizowane na bieżąco rozkłady jazdy. Co więcej, wyświetlacz nie służy już tylko do odczytywania informacji. Upowszechnianie się urządzeń z funkcją dotyku sprawia, że za pośrednictwem ekranu możemy np. dokonać zakupu biletu. Dzięki rozwojowi technologii na rynek wprowadzane są jeszcze doskonalsze rozwiązania. Dziś problemem nie jest już obsługa ekranu w czasie opadów deszczu czy śniegu – dzięki odpowiedniej kalibracji panelu dotykowego możliwe jest jego "dostrojenie" tak, aby sprawdzał się w najtrudniejszych warunkach atmosferycznych.

  • Czego oczekują klienci zaopatrujący się w wyświetlacze?

Tutaj wszystko zależy od tego, jakim zapleczem dysponuje klient. Wiemy, że nasi partnerzy doceniają kompleksowe wsparcie, które zapewniamy im na każdym etapie projektu – od wyboru optymalnego modelu, poprzez montaż modułu, do implementacji jednostki w urządzeniu końcowym. Bardzo często są to rozwiązania "szyte na miarę", które są w całości realizowane przez naszych inżynierów zgodnie z potrzebami klienta.

  • Jakie tendencje zauważyć można w wyborach klientów w zakresie technologii, zakresu usług?

Klienci sięgają po dodatkowe rozwiązania, które poprawiają jakość treści prezentowanych na ekranach. Jednym z nich jest bonding optyczny – technologia łączenia wyświetlaczy z sensorami dotykowymi i szkłem ochronnym polegająca na "spajaniu" poszczególnych "warstw" za pomocą przezroczystych klejów lub folii, które zwykle utwardza się światłem UV. W efekcie usuwane jest występujące pomiędzy nimi powietrze. W ten sposób można m.in. zniwelować ryzyko występowania zjawiska refrakcji światła, zwiększyć wytrzymałość mechaniczną modułu, a także wyeliminować możliwość wnikania pyłów lub wody w jego szczeliny.

Wśród negatywnych zjawisk należy odnotować poszukiwania przez klientów najtańszej opcji, a w efekcie zamawianie wyświetlaczy mało znanych chińskich producentów, których jakość i trwałość często znacząco odbiegają od rozwiązań znanych producentów, o ugruntowanej pozycji na rynku europejskim, kładących duży nacisk na wysoką jakość produktu, co niestety skorelowane jest z trochę wyższą ceną.

Ważne i poszukiwane funkcje techniczne
 
Czytelność treści w oświetleniu słonecznym, szeroki zakres temperatur otoczenia wskazują, że wiele wyświetlaczy pracuje w urządzeniach instalowanych na zewnątrz pomieszczeń i takie rozwiązania tworzą ważny segment rynku. Dostępność jednostki ze zintegrowanym panelem dotykowym, poszerzone kąty obserwacji też można zaliczyć do istotnych cech takich produktów. Z kolei niski pobór mocy to domena sprzętu mobilnego, aplikacji IoT oraz wielu specjalistycznych rozwiązań, jak etykiety cenowe, mierniki zużycia mediów i podobne. To może być drugi istotny segment aplikacyjny.

Coraz większe znaczenie ma specjalistyczna funkcjonalność wyświetlaczy, taka jak szerokie kąty widzenia obserwacja w warunkach silnego oświetlenia, praca w szerokim zakresie temperatur. Znaczenie produktu kompleksowego stale się zwiększa. Wyświetlacz z panelem dotykowym oraz kontrolerem do obsługi całości jest często obiektem zainteresowania inżynierów, ponieważ zapewnia wygodę i oszczędność czasu oraz daje małe ryzyko projektowe. Taki moduł jest zwykle zbalansowany pod względem ceny i wydajności, nierzadko wspierany przez biblioteki oprogramowania i zestawy startowe, dzięki czemu można o wiele szybciej przygotować aplikację niż w wariancie, kiedy każdy aspekt interfejsu użytkownika opracowuje się oddzielnie.

Elektroniczny papier to nie tylko e-booki

Elektroniczny papier to cały czas nowa i rozwijająca się technologia pozwalająca na tworzenie innowacyjnych produktów. Energooszczędne lekkie ekrany niewymagające podświetlania treści są przyjazne dla oczu, dobrze sprawdzają się w warunkach silnego nasłonecznienia oraz świetnie nadają się do urządzeń zasilanych bateryjnie. Wraz z kolejnymi generacjami mamy lepszą jakość wyświetlanego obrazu (kontrast, rozdzielczość) oraz odwzorowanie barw. Gorzej wygląda reprodukcja treści kolorowych, stąd na rynku wciąż dominują modele jedno- oraz dwukolorowe. Jakość oferowanych kolorów wciąż pozostawia jednak sporo do życzenia.

Poza jednym z najpopularniejszych i najbardziej znanych zastosowań wyświetlaczy e-papierowych w czytnikach e-booków, takie ekrany pojawiają się w supermarketach, gdzie zastępują tradycyjne papierowe etykiety produktów, co pozwala m.in. na bieżąco i zdalnie aktualizować informacje o cenach. Do ciekawych zastosowań należą też tablice informacyjne, rozkłady jazdy, stacje pogody czy znaki drogowe. Z e-papierowymi wyświetlaczami dość często spotkać się można również w zastosowaniach przemysłowych oraz logistycznych.

Najważniejsze zjawiska pozytywne dla rynku
 
Za najbardziej istotny czynnik sprzyjający rozwojowi rynku wyświetlaczy uznano dostępność zintegrowanych jednostek zawierających panel dotykowy, wyświetlacz oraz kontroler zarządzający całością. Taki moduł łatwo można połączyć z aplikacją, a dodatkowo jest to rozwiązanie gotowe, które uwalnia od trudnych operacji łączenia wrażliwych elementów. Kolejne zjawiska pozytywnie wspierające rynek to duża popularność nowoczesnych interfejsów użytkownika, a także coraz większa penetracja nowych technologii wyświetlaczy na rynku (tj. OLED i e-paper).

Kastomizacja i integracja

Elektronika mobilna, noszona, aplikacje IoT, sprzęt medyczny to przykłady urządzeń, w których konstrukcja wyświetlacza jest zintegrowana z obudową, często w nierozdzielną całość, tj. przyklejona do szyby lub przezroczystej części obudowy, tak aby połączenie było odporne na wpływ środowiska, narażenia mechaniczne wynikające z użytkowania oraz aby było estetyczne. Częściowe lub pełne dopasowanie do projektu klienta wyświetlaczy TFT, OLED, oraz paneli dotykowych polega na dostosowaniu kształtu, rozmiaru, koloru oraz innych parametrów technicznych. Takie wersje dostarczają specjalizowani dostawcy wyświetlaczy w połączeniu z możliwościami, jakie zapewniają im producenci. Koszty takich modyfikacji z roku na rok maleją, dostępność i oferta stale się poszerzają i tym samym takie usługi stają się bardziej przystępne.

Pobór mocy

Mały pobór mocy jest jednym z najbardziej istotnych trendów zmieniających całą współczesną elektronikę, a w aplikacjach mobilnych można go postrzegać jako zagadnienie kluczowe dla funkcjonalności i powodzenia rynkowego produktu. Dla rynku wyświetlaczy ograniczanie poboru mocy także jest zagadnieniem bardzo ważnym, bo w znakomitej większości urządzeń wyświetlacz jest obowiązkowy i bardzo obciążający dla bilansu energetycznego. Ponieważ z wyświetlacza nie da się zrezygnować, nie ma wyjścia – wyświetlacz też musi pobierać małą moc i wiele zmian technologicznych, które można obserwować w ostatnich latach, jest temu podporządkowanych.

Najważniejsze czynniki negatywne dla rynku
 
Lista głównych czynników negatywnie oddziałujących na rynek jest na tyle ogólna, że można by ją przypisać do wielu innych produktów i komponentów. Oszczędności i cięcia wydatków wywołane słabszym popytem rynku, silna konkurencja od wielu dostawców i kiepskie produkty azjatyckie zawsze stanowią trzon problemów, z którymi zmaga się rynek dystrybucji. Na pewno istotne jest to, że czynnik związany z cięciem wydatków wskazało dwóch na trzech pytanych specjalistów. Jest to potwierdzenie (kolejne), że aktualna koniunktura nie jest najlepsza i hamuje dynamikę rozwoju. Gorzej, że podobnie jest w krajach sąsiednich, w tym w Niemczech, które zawsze łagodziły nasze problemy, zapewniając zlecenia eksportowe.

Chęć zapewnienia niskiego poboru mocy kieruje uwagę konstruktorów na OLED-y i e-papier, gdzie nie ma konieczności podświetlania treści, a więc tego najbardziej energochłonnego czynnika. W przypadku e-papieru bilans energetyczny jest jeszcze bardziej korzystny, bo statyczny obraz nie wymaga zasilania, odświeżania ani nawet nadzoru ze strony mikrokontrolera. Na rynku są też rozwiązania wyświetlaczy bistabilnych, które można postrzegać jako produkt o funkcjonalności podobnej do e-papierowych. Przykładem może być ECB RLCD (Electrochromic Bistable Reflective Cholesteric Liquid Crystal Display), bistabilna technologia o małym poborze mocy i dobrej reprodukcji kolorów. Podobnie jak w e-papierze, tutaj też energia jest zużywana tylko przy zmianie treści. Wersje bistabilne uzupełniają elektroniczny papier tam, gdzie ma on jeszcze jakieś niedoskonałości.

Trzeba też dostrzec, że chęć zapewnienia dobrego bilansu energetycznego cały czas utrzymuje spore zapotrzebowanie na znakowe wyświetlacze panelowe LCD. Są to płytki szklane z ciekłym kryształem, bez kontrolera i wyświetlające z góry ustalone znaki, takie jak cyfry lub symbole. Panelowe wyświetlacze segmentowe LCD pobierają znikomą moc, zapewniają dobry kontrast i czytelność w oświetleniu słonecznym, przez co mogą być aplikowane w pewnej części urządzeń, gdzie trzeba przekazać mało informacji, np. w licznikach mediów, aparaturze pomiarowej, komponentach automatyki budynkowej itp.

Najbardziej perspektywiczne obszary aplikacyjne
 
Zestawienie najbardziej perspektywicznych obszarów aplikacyjnych (branż) dla rynku wyświetlaczy zawiera cztery wyraźnie wybijające się nad resztę pola: przemysł, medycyna, czyli branże profesjonalne oraz IoT i aplikacje mobilne a także rozwiązania dla inteligentnego domu. Takie ujęcie łączy w całość nowe technologie i wartościowe rynki z klientami zainteresowanymi jakością, parametrami, funkcjonalnością i w mniejszym stopniu ceną.

Wzrost zainteresowania e-paperem i OLED

OLED-y i e-papery szybko się popularyzują na bazie trendów związanych z energooszczędnością, rosnącą liczbą aplikacji mobilnych, rozwojem obszaru IoT i elektroniki noszonej. Technologie takie jak OLED, e-paper szybko zyskują popularność na skutek potrzeby minimalizacji poboru mocy, a dzięki większemu popytowi ich ceny się obniżają. Podstawowe wersje takich wyświetlaczy na tyle potaniały, że wybór OLED-a przestał mieć znamiona jakiegokolwiek luksusu. Skoro opłacalne jest produkowanie elektronicznych metek wyświetlających ceny w supermarketach, bazujących na wyświetlaczach e-papierowych, to znaczy, że bariera cenowa przestała istnieć.

Na pytanie, jaka jest różnica w cenie między graficznymi TFT-LCD a OLED, trudno jest odpowiedzieć, mimo że przeszukanie ofert handlowych dostawców katalogowych nie stanowi problemu. Trudno znaleźć bezpośrednie odpowiedniki pod względem przekątnej, rozdzielczości, kontrolera, montażu itp. Ceny sporo się różnią w zależności od kategorii produktu, np. te z typową i popularną przekątną oraz proporcją boków są wyraźnie tańsze od reszty jednostek TFT, a OLED-y często są produkowane w innych wymiarach i proporcjach. Nawet jeśli się uda znaleźć jakąś parę, to będzie ona niereprezentatywna dla takiego porównania i podanie jakichkolwiek liczb przyniosłoby więcej zamieszania niż pożytku.

Maciej Kurek

Gamma

  • Czego oczekują klienci zaopatrujący się w wyświetlacze?

Klienci zaopatrujący się w wyświetlacze w obecnych czasach oczekują przede wszystkim 3 rzeczy. Pierwsza to dobra dostępność produktu oraz bezpieczny długoterminowy bufor dostępny bezpośrednio z magazynu dystrybutora. Druga to atrakcyjna i konkurencyjna cena, a trzecia to wysoki poziom jakości produktu w celu zminimalizowania ryzyka wystąpienia reklamacji produktu końcowego, w którym zamontowany został wyświetlacz.

Bezsprzecznie na rynku można kupić wiele niedrogich monochromatycznych OLED-ów o małych przekątnych i niedużej rozdzielczości. Za taką samą sumę można nabyć znacznie większy wyświetlacz LCD-TFT i jedyne, z czym trzeba się zmierzyć dzisiaj, to nie, czy z sumą zaplanowaną w budżecie uda się coś nabyć, ale z tym, co wybrać. W przypadku urządzeń profesjonalnych i przemysłowych, takich o dużej wartości dodanej, aktualny poziom cen wydaje się do przyjęcia. Nawet dwukrotna różnica w cenie jest akceptowana, a dodatkowo, jeśli producent elektroniki rozpoczyna obecnie projekt, to wyświetlacz OLED-owy w ilościach wolumenowych będzie kupował do produkcji za minimum rok, a nierzadko nawet za dwa lata. Zatem różnica w cenie będzie jeszcze mniejsza, niż jest dzisiaj.

Ocena potencjału rynkowego poszczególnych typów wyświetlaczy
 
Największy potencjał rynkowy mają wyświetlacze OLED, które po latach wyczekiwania rynku na ich spadki cen, poprawę trwałości i parametrów, mają wreszcie wszystko, czego oczekują od nich klienci. Drugie miejsce przypadło wyświetlaczom TFT z kontrolerem i panelem dotykowym. Wprawdzie na dole wykresu uplasowały się wyświetlacze e-paper, ale ich procentowy wskaźnik jest mimo to znaczący.

Wsparcie techniczne jest bardzo istotne

Na rynku jest dostępnych wiele wyświetlaczy, w tym technologii wyświetlania, typów i funkcjonalności. Po dodaniu do tego kontrolera, panelu dotykowego, interfejsu, narzędzi projektowych, zasobów oprogramowania, liczba kryteriów wyboru dodatkowo się zwiększa i decyzja, co wybrać, staje się jeszcze bardziej złożona. W takich okolicznościach znaczenie bliskiej współpracy z dostawcą wyświetlaczy staje się bardzo ważne. Nie chodzi nawet o jakąś ogólną orientację, ale o dokładne rozeznanie w szczegółach, w tym takich niedostępnych w kartach katalogowych. Znaczenie kompetentnego wsparcia technicznego jest pośrednio efektem szerokiej oferty rynku i krótkiego czasu życia wielu technologii. Najwięcej do powiedzenia w zakresie wsparcia mają specjalizowani dostawcy wyświetlaczy i bezsprzecznie firmy te mają znaczną przewagę nad handlowymi po stronie kompetencji.

Dawniej nowe jednostki wyświetlające nie pojawiały się co chwila, były prostsze, dzięki czemu możliwość opanowania szczegółów wyświetlacza i kontrolera była łatwiejsza. Dzisiaj inżynier, który godzinami ślęczy nad projektem, zazwyczaj nie jest dogłębnie zorientowany w szczegółach i ryzyko, jakie kryje się za decyzją, jest duże. O udanej implementacji decyduje nie tylko ekran, ale także sterowanie, komunikacja, połączenie z panelem dotykowym, zarządzanie poborem mocy itd. oraz oprogramowanie. Wsparcie techniczne związane z wyświetlaczami przesuwa się też w stronę aplikacyjną, czyli doboru optymalnej jednostki z punktu widzenia aplikacji, integracji wyświetlacza z obudową lub połączenia w całość elementów, takich jak złącze, interfejs, wyświetlacz, kontroler oraz panel.

Wsparcie aplikacyjne obejmuje też coraz bardziej popularne gotowe do użycia płytki zawierające projekty referencyjne. Stanowią one przykłady do naśladowania, są demonstracją dobrych praktyk projektowych i dają szansę tego, aby na początku pracy nie popełnić drobnej, ale trudnej do znalezienia pomyłki. Liczne zestawy startowe, będące nierzadko kompletną platformą sprzętową dla aplikacji, plus dostępne oprogramowanie i biblioteki procedur w wielu przypadkach sprawiają, że nakład pracy wymaganej do obsługi wybranych popularnych modeli wyświetlaczy graficznych z panelem dotykowym jest porównywalny z tym, który kiedyś trzeba było poświęcić na obsługę prostych modułów znakowych z wbudowanym kontrolerem.

Zasilacze dużej mocy i ładowarki akumulatorów

Zasilacze impulsowe to jedne z najpopularniejszych na rynku komponentów standardowych przeznaczonych do realizacji systemów elektronicznych. Każdy sprzęt wymaga zapewnienia zasilania, najczęściej z sieci energetycznej, stąd dzisiaj zasilacze są wykorzystywane praktycznie we wszystkich gałęziach współczesnej techniki, bez względu na branżę, typ urządzenia i aplikację. W obszarze techniki dla jednostek dużej mocy wyścig technologiczny koncentruje się na sprawności, małych wymiarach przy dużej mocy wyjściowej oraz niezawodności.

Najważniejszym zagadnieniem technicznym w zasilaczach dużej mocy jest miniaturyzacja, gdyż umożliwia ona wytwarzanie urządzeń wydajnych, ale niewielkich. Mniejsze zasilacze mogą też być tańsze w produkcji, bo nie potrzeba do nich dużych radiatorów. Kluczem do miniaturyzacji jest duża sprawność zapewniająca oszczędność energii zasilającej, a więc dająca mniejsze rachunki oraz dłuższy czas pracy z akumulatora. Wysoko sprawny zasilacz niewiele się grzeje, a więc może też pracować w szerszym zakresie temperatur, a cała konstrukcja może być bardziej zminiaturyzowana, bo nie ma potrzeby rozpraszania tak dużej mocy cieplnej, użycia wentylowanej obudowy itd.

Główne zjawiska techniczne w zasilaczach
 
Od wielu lat duża sprawność i miniaturyzacja są najważniejszymi trendami technologicznymi wyznaczającymi kierunek rozwoju branży zasilania. Duża sprawność determinuje w kolejności wiele ważnych parametrów użytkowych i technicznych zasilaczy: niższe opłaty za energię, mniejsze nagrzewanie itd. Małe wymiary to lepsza możliwość integracji jednostek, co zawsze jest w centrum zainteresowania klientów i pośrednio determinuje rozwój produktów. Duże znaczenie certyfikatów i świadectw potwierdzających spełnianie wymagań jest efektem tego, że na rynku jest wiele produktów o kiepskiej jakości, awaryjnych, niedostatecznie zabezpieczonych. Takie zasilacze konkurują cenowo z jednostkami jakościowymi, a potem stają się problemem. Stąd kupujący interesują się tym, czy zasilacz ma potwierdzoną jakość i parametry.

Wysoka sprawność oznacza często też małą awaryjność zasilaczy, a więc pośrednio dobrą jakość. Takie zasilacze się nie grzeją, więc ich podzespoły nie są tak obciążone cieplnie. Także ograniczenia na moc wyjściową przy dużych temperaturach otoczenia stają się łagodniejsze. Wysoka sprawność zasilaczy lub konieczność korekcji współczynnika mocy przy dużej mocy wyjściowej jest ponadto dla coraz większej grupy produktów wymogiem prawnym. Dotyczy to najbardziej wersji konsumenckich, ale większe jednostki też wpisują się w ten trend.

W efekcie każda kolejna generacja zasilaczy wchodzących na rynek ma coraz większą sprawność, a w najlepszych produktach sięga ona 95– 96%, czyli o około 10% więcej, niż było dekadę temu. Upowszechnienie się podzespołów mocy z azotku galu powinno jeszcze bardziej pozwolić na większe zminiaturyzowanie zasilaczy.

Najważniejsze cechy brane pod uwagę przy kupnie zasilaczy
 
W zestawieniu najważniejszych kryteriów branych pod uwagę przez klientów przy selekcji zasilacza i dostawcy na szczycie uplasowały się termin dostawy i cena. Stanowi to doskonałe tło do tego, czym dzisiaj żyje rynek, bo nigdy termin dostawy nie był wyżej niż na czwartej, piątej pozycji. Dostępność wersji na zamówienie nie odgrywa już wielkiej roli w omawianym biznesie, bo wyrobów katalogowych jest na tyle dużo, że zawsze da się coś dopasować z typowych produktów.

Jakość zasilaczy to temat zawsze aktualny

Jakościowo dobry zasilacz to taki, który się nie grzeje, jest zabezpieczony skutecznie przed przepięciami i ma dobrze działające filtry zakłóceń, dobre kondensatory i adekwatne do prądu wyjściowego przekroje przewodów nawojowych oraz kabli wyjściowych. Dobry zasilacz ma zabezpieczenia wyjścia przed odwrotną polaryzacją, blokadę możliwości niekontrolowanego wzrostu napięcia w czasie uszkodzenia, dodatkowe kondensatory blokujące wyjście, które obniżają poziom szumów i zakłóceń. Dobry zasilacz ma też zabezpieczenie termiczne, które chroni jego działanie przed uszkodzeniem bądź przez czasowe wyłączenie lub przez derating, czyli obniżenie prądu wyjściowego do poziomu bezpiecznego w wyższej temperaturze.

Użyteczna funkcjonalność, jaka pojawia się dzisiaj często w zaawansowanych jednostkach zasilających, obejmuje ponadto takie dodatki, jak np. możliwość regulacji wyjściowego napięcia w niewielkim zakresie trymerem, po to, aby skompensować spadek napięcia na przewodach wyjściowych. Do tego samego celu służą zwielokrotnione zaciski wyjściowe lub też możliwość podłączenia dwóch dodatkowych przewodów pomiarowych bezpośrednio do zacisków obciążenia (tzw. czteroprzewodowe połączenie kelwinowskie). Od strony układowej dobre zasilacze wyposaża się dzisiaj we wszechstronne układy zabezpieczające, rozbudowane filtry wejściowe, sterowniki zapewniające sygnalizację stanu zasilacza i podobne obwody ochronne na tyle skuteczne, że awaria na skutek przeciążenia, stanu nieustalonego lub zwykłego błędu podczas montażu instalacji staje się praktycznie niemożliwa.

Najważniejsze czynniki o charakterze negatywnym dla rynku zasilania
 
Główne problemy rynku zasilania to tanie i kiepskie zasilacze dalekowschodnie, które konkurują cenowo z lepszymi produktami markowymi, a ponadto długie czasy dostaw. Psują one rynek, bo zabierają przestrzeń zasilaczom markowym, utrwalają stereotypy i negatywne opinie o zasilaniu impulsowym i sprowadzają relacje z klientami do poziomu ceny. Sytuację komplikuje to, że w Chinach produkowane są zasilacze kiepskie, dobre i czołowe markowe jednostki o znakomitej funkcjonalności. Co więcej, tamtejsi producenci mają w ofercie zarówno lepsze zasilacze dla klientów wymagających, jak i słabe dla tych, którzy są zainteresowani niską ceną. Utrudnia to proste kategoryzowanie dobry–zły.

Najbardziej zaawansowane jednostki, wyposażone w interfejsy cyfrowe, pozwalają nie tylko na wszechstronne monitorowanie aktualnego stanu czy sterowanie włączaniem/wyłączaniem, ale również ustawienie i odczyt wielu parametrów pracy, takich jak napięcie, prąd wyjściowy czy progi zadziałania zabezpieczeń. Niektóre umożliwiają rejestrację stanów awaryjnych i rzeczywistego czasu pracy, a nawet predykcję pozostałego czasu życia. Na koniec warto wyróżnić cechy wymuszane nowymi aplikacjami i nowymi wymaganiami obowiązujących norm. Należą do nich coraz bardziej wyrafinowane układy korekcji współczynnika mocy, dzięki któremu nie trzeba płacić ekstra rachunku za moc bierną. Inne to zdolność do krótkotrwałego dostarczenia dużego prądu potrzebnego do rozruchu coraz powszechniejszych obciążeń indukcyjnych, takich jak silniki, czy do absorbcji prądu wspomagającej ich hamowanie, łącznie ze zwrotem odbieranej energii do sieci. Są to również rozwiązania coraz większych zasilaczy z cichym i bezawaryjnym chłodzeniem pasywnym oraz małe zakłócenia, prądy upływu i wzmocniona izolacja galwaniczna, wymagane przez aplikacje medyczne.

Coraz więcej zasilaczy to jednostki specjalizowane

Zasilacz co do zasady jest wyrobem uniwersalnym, ale na rynku pojawia się coraz więcej wersji o funkcjach lub parametrach ukierunkowanych na specyficzne zastosowania. Są to cechy elektryczne, takie jak wytrzymałość izolacji i prąd upływu, instalacyjne, jak złącza, mechaniczne (obudowa, montaż) oraz funkcjonalne (komunikacja, sygnalizacja i monitoring stanu). Przykładem może być zasilacz buforowy wyposażony w akumulator, który pełni funkcję awaryjnego źródła energii dla systemu alarmowego, radiokomunikacyjnej łączności kryzysowej itp. Ogólnie patrząc, zasilanie specjalizowane to domena aplikacji przemysłowych, systemów automatyki i systemów zasilania gwarantowanego w systemach przeciwpożarowych.

Najważniejsze zjawiska pozytywne dla rynku zasilaczy
 
Za czołowy trend rozwojowy dla rynku zasilania ankietowani specjaliści uznali presję na jakość i zaawansowanie techniczne, która razem ze zwiększającymi się wymaganiami formalno-prawnymi sprzyja rozwojowi. Drugim ważnym aspektem jest szeroki asortyment produktów katalogowych dostępnych na rynku, w tym także jednostek specjalizowanych, co umożliwia optymalne dobranie zasilacza do aplikacji bez kompromisów. Jakość jest istotna dla klientów, gdyż kiepskiej jakości zasilacz jest w stanie przekreślić wszystkie pozostałe korzyści techniczne i cenowe z instalacji nowego urządzenia lub systemu, a także wymusić kosztowne akcje serwisowe. Poza tym uszkodzenie zasilacza powoduje awarię fatalną, taką, której nie da się nawet tymczasowo opanować.

Doskonałym przykładem zasilacza specjalizowanego jest jednostka medyczna lub do oświetlenia LED-owego.

Ten ostatni zawiera układ stabilizacji prądu diody, ale także dodatkowe układy sterujące (np. jasnością, komunikację DALI) i zabezpieczenia. W przypadku zasilaczy do LED stosowane są też często inne obudowy i złącza, które są dopasowane do specyfiki montażu w oprawie oświetleniowej lub puszkach elektroinstalacyjnych. Obudowy takie są najczęściej hermetyczne. Inny przykład zasilacza specjalizowanego to wersja do montażu na szynie DIN. Zasilacze specjalizowane to też jednostki laboratoryjne wykorzystywane przy pomiarach do zasilania sprzętu i zadawania sygnałów wymuszeń. Są wykorzystywane także w sferze produkcji, podczas testowania jakości i badań automatycznych, gdzie pełnią funkcję podobną do generatorów arbitralnych dużej mocy, generatorów zaburzeń w sieci zasilania oraz części testerów odpowiedzialnej za badania wytwarzanych urządzeń pod kątem współpracy ze źródłem zasilania. Zasilacze takie pozwalają na swobodne programowanie parametrów wyjściowego przebiegu "w locie" i tym samym są wygodnym elementem systemów pomiarowych i testerów ATE. Jednostki te różnią się głównie tym, że pozwalają na regulację napięć i prądów wyjściowych w szerokim zakresie (np. czterech ćwiartkach), mają bardzo dobre parametry stabilizacji i czystości napięcia wyjściowego, zawierają często kilka niezależnych kanałów wyjściowych i mogą być sterowane z komputera, pełniąc funkcję elementu systemu pomiarowego.

Na które z produktów jest największy zbyt na rynku polskim?
 
Z naszego badania ankietowego wynika, że największą popularnością na rynku cieszą się zasilacze w obudowie na szynę DIN, a także falowniki, ładowarki do akumulatorów oraz zasilacze modułowe w obudowie. Obudowa przeznaczona do montażu na szynie DIN to obecnie jedno z najpopularniejszych rozwiązań technicznych wykorzystywanych w instalacjach przemysłowych. W wersji "na szynę" dostępnych jest wiele typów aparatury i urządzeń, w tym także zasilacze o mocy nawet do 150 watów.

Korekcja współczynnika mocy pojawia się coraz częściej

Korektor współczynnika mocy jest już dzisiaj częścią większości zasilaczy do oświetlenia LED (powyżej 20 W), zasilaczy teleinformatycznych oraz wybranych jednostek napięciowych średniej i dużej mocy. W pierwszych dwóch przypadkach decydują wymagania prawne, w ostatnim potrzeba zapewnienia niskiego poziomu zaburzeń wprowadzanych do sieci energetycznej. Wymagania prawne to limity na poziom harmonicznych wprowadzanych do sieci. Aby spełnić te wymagania, w zasilaczach napięciowych o mocy powyżej 100 watów w zasadzie musi być korektor współczynnika mocy.

Nowe materiały półprzewodnikowe w zasilaczach

Wiele nowych rozwiązań z obszaru konwersji mocy elektrycznej wiąże się z wykorzystaniem podzespołów na bazie nowych materiałów półprzewodnikowych, takich jak azotek galu (GaN) lub węglik krzemu (SiC). Elementy takie używane są w modułach inwerterów, przetwornicach oraz ładowarkach w aplikacjach energoelektronicznych, e-mobilności i podobnych. Sprawność i wydajność takich jednostek mają kluczowy wpływ na istotne parametry pojazdu, czas ładowania oraz koszty eksploatacji. Dlatego w takich zastosowaniach, gdzie czas eksploatacji liczy się w wielu latach, elementy te dają duże oszczędności.

Mimo to, większość jednostek zasilających dostępnych na rynku oraz falowników budowanych jest z użyciem tranzystorów krzemowych MOSFET oraz IGBT. W wielu aplikacjach pracują one blisko maksymalnych dopuszczalnych parametrów pracy i w jednostkach dużej mocy muszą być łączone równolegle dla zwiększenia obciążalności. Istnieje zatem bardzo duże prawdopodobieństwo, że technologia ta nie będzie w stanie sprostać wymaganiom stawianym następnym generacjom pojazdów i maszyn, gdyż obsługa coraz większych mocy stanie się problematyczna.

Stąd upowszechnienie się półprzewodników takich jak GaN w zasilaczach jest tylko kwestią czasu, ale do momentu, kiedy zasilacz tego typu stanie się produktem masowym, jeszcze daleko.

W których typach jest największa konkurencja na rynku?
 
Najbardziej konkurencyjny sektor rynku zasilania obejmuje zasilacze w obudowie na szynę DIN, a także falowniki, ładowarki do akumulatorów oraz zasilacze modułowe w obudowie. Są to dokładnie te same typy, które uznano za najbardziej popularne jednostki w innym zestawieniu.

Tranzystory GaN mają o połowę niższą wartość rezystancji włączenia R DS(ON), niż jest to w strukturach krzemowych, to zaś oznacza dwukrotnie mniejsze straty przewodzenia. W związku z tym zmniejsza się również ilość generowanej podczas pracy układu energii cieplnej oraz możliwe jest uproszczenie konstrukcji systemu chłodzenia. Niemniej, w porównaniu z tranzystorami krzemowymi, przełączniki GaN są trudniejsze w sterowaniu. Używając GaN- ów, trzeba też pokonać problemy pojawiające się przy dużej szybkości przełączania tych elementów, związane z obecnością reaktancji pasożytniczych, będących źródłem oscylacji, co wymaga poświęcenia na projekt dodatkowego czasu i poniesienia kosztów. Strome zbocza (duże wartości dV/dt) wywołują oscylacje o wysokiej częstotliwości, powodujące zakłócenia elektromagnetyczne (EMI), które należy odfiltrować oraz tłumić, aby zapobiec uszkodzeniom od przepięć. Ponadto szybkie przełączanie GaN- ów utrudnia ich ochronę przed przeciążeniem, ponieważ mogą one ulec uszkodzeniu szybciej, niż są w stanie zareagować obwody zabezpieczające. Są też droższe od wersji krzemowych, co przy silnie konkurencyjnym rynku zasilania ogranicza tempo ich ekspansji w zasilaczach. Paradoksalnie łatwiej można kupić dzisiaj zasilacz małej mocy z przełącznikiem mocy GaN, np. ładowarkę do telefonu, niż zasilacz dużej mocy, gdyż do takich aplikacji opracowano specjalne scalone sterowniki z takimi elementami. Oczywiście przed technologią GaN jest świetlana przyszłość, ale jeszcze minie sporo czasu, zanim rozwiązania te staną się powszechne.

Więcej bezpieczeństwa we wszystkich typach zasilaczy

Zasilacze impulsowe dostarczają energii dla coraz bardziej wrażliwych układów i systemów, np. urządzeń medycznych, pomiarowych, do rozproszonych instalacji zasilanych z różnych sieci. Dlatego zagadnienia związane z zapewnieniem ochrony przed niebezpiecznym napięciem sieci są bardzo istotne.

Zasilacze produkowane są w dwóch klasach ochronności izolacji: podstawowej I i wzmocnionej II. Od strony użytkowej przekłada się to na to, że wersje o bardziej wytrzymałej na przebicie izolacji były domeną konsumenckich zasilaczy adapterowych, te z izolacją podstawową obejmowały całą resztę w tym wszystkie jednostki większej mocy. Izolacja wzmocniona, dla której wymagania mówią o odporności na napięcie testowe 3000 V AC, pozwala podłączyć zasilacz do sieci bez uziemienia, a więc dwoma przewodami. Gdy izolacja jest klasy I (napięcie testowe 1500 VAC), zasilacz podłączany jest trzema przewodami (L, N, PE).

W miarę upływu lat ta reguła coraz częściej przestaje obowiązywać. Wiele zasilaczy dużej mocy jest produkowanych w klasie izolacji II bez względu na to, że są przewidziane do podłączenia trzema przewodami. Taki trend można też postrzegać jako wzrost jakości zasilaczy po stronie bezpieczeństwa elektrycznego.

Ponadto mnóstwo zasilaczy ma izolację, która wytrzymuje jeszcze większe napięcie testowe i charakteryzuje się małym prądem upływu, dużo poniżej granicznych progów wyznaczanych w normie EN62368. To także znak, że bezpieczeństwo liczy się coraz bardziej.

Nietrudno zauważyć, że standardem jest też to, że ogromna większość zasilaczy małej i średniej mocy działa w szerokim zakresie napięć wejściowych, od 100 do 240 VAC, a często także 90–265 VAC. To także można odczytywać jako lepsze bezpieczeństwo użytkowania.

Złącza silnoprądowe

Złącza elektryczne są niezwykle istotnym elementem niemal każdego projektu systemu elektronicznego, a wersje o dużej obciążalności, przeznaczone do pracy w aplikacjach przemysłowych i energetycznych, tworzą awangardę zaawansowania technicznego. Bez względu na aplikację, złącza podążają za ogólnymi zmianami w samej elektronice, tj. coraz większą miniaturyzacją urządzeń, także tych dużej mocy. Coraz więcej aplikacji ma konstrukcję modułową, gdzie bloki funkcjonalne łączone są w jednej obudowie za pomocą dobranych komponentów połączeniowych. Łatwiejszy montaż i demontaż zapewniany jest przez logiczny podział aplikacji na części, liczne systemy szybkich połączeń niewymagających stosowania narzędzi. Do tego potrzebne są niezawodne elementy połączeniowe.

Złącza silnoprądowe to najczęściej wersje kabel-kabel lub kabel-panel, w której jedna część jest mocowana do obudowy. Obudowa może być okrągła lub prostokątna, z metalu albo tworzywa, zawierać różną liczbę pinów oraz raster i mieć różną obciążalność, a także sposób montażu przewodu. Elementy te są dostępne w wersji prostej i kątowej, Można powiedzieć, że na rynku da się kupić praktycznie każdą kombinację wielkości i rodzaju tych komponentów.

Najważniejsze dla klientów cechy ofert brane pod uwagę przy kupowaniu złączy
 
Zestawienie najważniejszych cech złączy silnoprądowych branych pod uwagę przez klientów podczas selekcji produktu i dostawcy jest typowe i w niczym nie zaskakuje. Cena, jakość, termin dostawy oraz parametry techniczne tworzą rdzeń procesu selekcji w taki sposób, że klienci optymalizują wartość, jaką otrzymują za daną sumę pieniędzy. Poza tą czwórką reszta ma już znaczenie znacznie mniejsze, niemniej kompetencje techniczne sprzedawcy też były często wskazywane w naszych ankietach.

Drugą i mniejszą pod względem potencjału część asortymentu tworzą złącza o dużej obciążalności przeznaczone do montażu na płytce drukowanej, jako element przewlekany oraz także SMT. W tym drugim przypadku wlutowane w płytkę złącze jest jeszcze zwykle mocowane do obudowy urządzenia lub stabilizowane za pomocą obejmy, co zapewnia stabilność mechaniczną połączenia.

Ważną część rynku złączy silnoprądowych, zwłaszcza w aplikacjach z elektroniki i oświetlenia, tworzą ponadto terminal bloki. Są to modułowe złącza kablowe z zaciskiem śrubowym lub sprężynowym do montażu na PCB. Występują jako wersje kątowe, rozłączalne, do montażu SMT i THT, a także jako rozwiązania pozwalające zamontować więcej niż jeden przewód w styku. Znaleźć je można w ofertach wielu producentów, zarówno tanich chińskich dostawców, jak i wiodących światowych producentów. Terminal bloki to produkty o dużej uniwersalności i szerokim spektrum zastosowań. Ich obciążalność prądowa sięga kilkudziesięciu amperów na pin, co pokazuje, że mogą być stosowane w wielu różnych aplikacjach.

Jeszcze inną grupę produktową stanowią elementy połączeniowe przeznaczone do montażu na szynie DIN. Są one bazą do tworzenia systemów i instalacji w przemyśle, automatyce, energetyce i można je znaleźć w wielu obudowach, szafach technicznych, rozdzielniach itp. Zainteresowanie nimi to pochodna i konsekwencja ogólnego zainteresowania urządzeniami tego typu, do których zaliczają się przekaźniki, sterowniki, wyłączniki, transformatory i inne podobne komponenty, które dzięki wąskiej standardowej obudowie, którą się łatwo zatrzaskuje na metalowym wsporniku, zyskały uznanie rynku. Złącza na szynę pozwalają na wygodne okablowanie takich instalacji i mają postać wąskich płaskich elementów, które można składać w większe zespoły, podobnie, jak spaja się terminal bloki. Mają też możliwość wewnętrznego połączenia biegunów, co ułatwia tworzenie dystrybucji zasilania poprzez stworzenie tzw. szyny.

Branże o największym potencjale zakupowym
 
Dla złączy silnoprądowych branżą o największym potencjale zakupowym jest szeroko rozumiany przemysł, prawdopodobnie z uwagi na jego dużą wielkość i znaczenie branżowe w Polsce. Służą one do podłączania zasilania, elementów wykonawczych, silników maszyn i wszystkich innych odbiorników pobierających znaczną moc. Poza tymi naturalnymi obszarami omawiane złącza trafiają do aplikacji transportu kołowego i szynowego, w którym także jest coraz więcej elektroniki.

Rola wsparcia technicznego

W warunkach, gdy asortyment złączy jest bardzo duży, mamy dziesiątki (jak nie setki) producentów, marek, serii, kluczową sprawą w doborze produktu jest kompetentne wsparcie techniczne. Zamiast przekopywać się przez dziesiątki stron internetowych, platform sprzedażowych, często łatwiej i szybciej jest zapytać przez telefon specjalistę, co poleciłby do danego zastosowania. Przekazanie problemu doboru złącza specjalistom pracującym w sieci dystrybucji lub przedstawicielom producenta, poza aspektami technicznymi, jest zasadne z punktu widzenia dostępności elementu, tego, czy może być wybierany do nowych projektów i będzie produkowany przez dłuższy czas, czy jest popularny i zamawiany przez wielu klientów i z innych podobnych względów. Popularne złącze zamawiane przez wiele firm jest zwykle dostępne z buforowego magazynu lokalnego i tym samym zapewnia małe ryzyko.

Dobór złącza do aplikacji wymaga też wsparcia po stronie mechanizmów informatycznych w platformach sprzedaży. Wyszukiwarki parametryczne są stale rozbudowywane i pozwalają wybierać produkty po coraz większej liczbie kryteriów, takich jak marka, typ, raster, liczba pinów, obciążalność lub montaż. Liczba pól, które można zaznaczyć, aby ograniczyć liczbę wyników u czołowych dostawców, z roku na rok się zwiększa i bardzo dobrze, że tak się dzieje. Skoro oferty liczą się w tysiącach pozycji, nie ma innej metody, aby szukanie elementu nie zamieniło się w wyczerpujący czasowo koszmar.

Najważniejsze czynniki negatywne dla rynku
 
Główne czynniki negatywne dla rynku złączy silnoprądowych to ciągle długie czasy dostaw, a w dalszej kolejności także silna konkurencja oraz dostępność wielu zamienników i podróbek o niepewnym pochodzeniu i jakości. Co ciekawe, wysokie ceny nie są postrzegane jako czynnik negatywny, mimo że złącza są kosztowne, a w ostatnich miesiącach wyraźnie podrożały. Wysoką pozycję na wykresie zamienników i podróbek można tłumaczyć dużymi cenami produktów markowych, ale gdyby taka teza była prawdopodobna, to wysokie ceny uplasowałyby się wyżej. Stąd negatywne oddziaływanie na rynek podróbek i zamienników jest efektem nie tyle drożyzny, co kiepskiej dostępności.

Ale w praktyce parametrów do wyboru jest zawsze za mało, a podzespołów w sprzedaży jest coraz więcej. Dlatego jako jeden z ważnych czynników wspierających sprzedaż powinna być rozbudowa możliwości selekcji, nie tylko o kolejne parametry, ale także ułatwienia takie jak zestawy wymagań, zakresy od–do, elementy równoważne innych marek itd. Konieczne jest uruchomienie mechanizmów, które proponują zgodne akcesoria i elementy do pary, jak piny, część męską do żeńskiej, dostępne pasujące obudowy itd. Wyszukiwanie parametryczne powinno ponadto obejmować dostępność, popularność, klasę cenową, gdyż jak wiadomo, wybór produktu zawsze jest powiązany jakoś z kosztami.

Nie jest to łatwe zadanie, zapewne kosztowne i pracochłonne, stąd zmiany dokonują się tak ewolucyjnie. Być może sztuczna inteligencja przyniesie przełom i niedługo będziemy mogli dobierać złącza, korzystając z możliwości AI.

Zamienniki - problem się zwiększa

Podróbki, tanie zamienniki dla rozwiązań markowych były na rynku komponentów elektronicznych od zawsze, ale faktem jest, że ich potencjał ciągle się zmienia. Dawniej, gdy złącza markowe były znacznie droższe od zamienników, pozycja zamienników, mierzona przez ich wpływ na relacje rynkowe, była stosunkowo duża. Potem, z upływem czasu i dojrzewaniem rynku, zamienniki stopniowo traciły na znaczeniu, gdyż różnice w cenach między produktami markowymi i resztą przestały być ogromne, a jednocześnie wymagania klientów związane z jakością, wsparciem technicznym, certyfikacją i podobnymi zagadnieniami zaczęły przechylać szalę wyboru na stronę produktów znanych producentów.

Aktualnie obserwujemy kolejną falę wzrostu zainteresowania rynku zamiennikami, która tym razem nie ma wymiaru cenowego, tylko jest związana z mniejszą dostępnością. Niestety na wiele typów złączy trzeba dość długo czekać, co wielu klientom realizującym projekty sprawia problemy. Gdy potrzebnego komponentu nie ma, to albo stają oni przed koniecznością przeprojektowania konstrukcji pod coś innego, takiego, co udało się kupić albo szukania złącza poza autoryzowanymi kanałami sprzedaży, np. u brokerów, dostawców chińskich, na platformach aukcyjnych. W takim momencie klienci przyglądają się też ofercie całego rynku, wychodząc poza utarte szlaki i ścieżki zaopatrzenia, a produkty podobne wydają się jakimś rozwiązaniem kłopotów. Proces ten dla rynku przynosi wiele zmian, na lepsze i na gorsze. Zacznijmy od korzyści.

Najważniejsze zjawiska pozytywne dla rynku
 
Zestawienie czynników pozytywnie oddziałujących na rozwój rynku ma na szczycie trzy czynniki: presję na jakość, dostępny szeroki asortyment produktów oraz rosnące wymagania klientów. Wysoka jakość usług i produktów to cecha rynków specjalistycznych, takich, gdzie liczy się wartość dodana zapewniana przez urządzenie. Od wielu lat nasz rynek zmienia się w tym kierunku, a niewielkie serie złożonego sprzętu, projekty tworzone na indywidualne zamówienia stanowią ważną część aktywności. Złącza silnoprądowe z racji warunków pracy i pełnionej funkcji mają dużą rolę do odegrania w zapewnieniu jakości, stąd przedstawiona na wykresie ocena jest tak wyraźnie skierowana w tę stronę.

Z pewnością, gdy warunki rynkowe są stabilne i nie ma większych kłopotów z zaopatrzeniem, kupujący złącza raczej wybierają rozwiązania wypróbowane oraz dostawców, z którymi współpracowali wcześniej i produkty, które nie sprawiły im kłopotów. Taka sytuacja tworzy warunki trudne do zmiany, w których wprowadzenie nowości, nawiązanie współpracy z innym dostawcą następuje rzadko. Konserwatywny rynek ma wiele zalet, ale nie zalicza się do nich dynamicznego rozwoju. Brak dostępności elementów zmusza odbiorców do poszukiwań zamienników, a tym samym wzrasta zainteresowanie nietypowymi rozwiązaniami i niszowymi dostawcami. W takiej sytuacji łatwiej jest się im przebić, zyskać nowy kontakt oraz zaproponować coś nowego, innego, z czym dawniej nie mieliby wielkich szans.

Nie zawsze zamiennik jest wyrobem o kontekście negatywnym, gdyż nie wszystkie aplikacje działają na krawędzi możliwości zastosowanych podzespołów i dla wielu z nich wystarczą produkty z tzw. średniej półki. Stąd wyjście poza schemat może okazać się korzystne. Z drugiej strony jest w tym działaniu ryzyko. Zawsze może się okazać, że jakość alternatywnych elementów nie będzie satysfakcjonująca. Dotyczy to na przykład odporności użytych tworzyw sztucznych, elastyczności metali, pokryć styków, dokładności wykonania oraz tolerancji pasowania elementów. Decyzja na pewno nie jest łatwa.

Główne zjawiska techniczne
 
Za najważniejsze zjawisko techniczne zmieniające rynek złączy uznano miniaturyzację. W dalszej kolejności wymieniono dostępność wersji specjalistycznych i modułowych oraz rozwiązania ze stykiem sprężynowym. Wersje specjalistyczne to kategoria kryjąca rozwiązania dopasowane do wymagań aplikacyjnych i branżowych, w której kryją się elementy zapewniające wysoki stopień ochrony środowiskowej, spełniające normy wojskowe lub z certyfikatem Atex.

Rośnie znaczenie specjalizacji

Rynek złączy zmienia się w kierunku rosnących wymagań klienta i coraz większej specjalizacji tych komponentów, zwiększającego się udziału wersji wykonywanych na bazie indywidualnej specyfikacji (kastomizowane). To efekty tego, że urządzenia elektroniczne stają się coraz mniejsze, obsługują coraz większe moce i są w większym stopniu integrowane z systemami niż dawniej. W takich okolicznościach użycie złącza o specyficznych dla aplikacji właściwościach może pomóc osiągnąć wyrafinowane parametry techniczne, przynieść oszczędność miejsca, zapewnić mniejsze koszty oraz wygodę montażową.

Dostosowanie parametrów nie dotyczy jedynie parametrów elektrycznych. To także rodzaj specyficznego wykończenia mechanicznego, jak np. układ i typ pinów, pokryć styków, uszczelnienia, ochrony elektromagnetycznej, montażu przewodu, a nawet koloru. Za pomocą barwy koduje się informacje takie jak wejście/wyjście (czerwony/zielony), paruje wtyczki z gniazdami itd. Kastomizacja złączy to także kodowanie, czyli takie wykonanie mechaniczne wtyczki i gniazda, aby nie była możliwa pomyłka i instalacja w złym miejscu. Aby produkcja złączy o specyficznych własnościach była możliwa, producenci rozwijają systemy modułowe, składające się z zestawu części, takich jak pola kontaktowe, elementy obudowy, a także akcesoria, jak uszczelnienia, mocowanie kabla, ekrany, zapięcia zapobiegające rozłączeniu.

Miniaturyzacja

Z pewnością jednym z ważniejszych trendów jest miniaturyzacja. Stwarza ona producentom wiele problemów na skutek konieczności zapewnienia dużej obciążalności złączy przy niewielkich rozmiarach styków i konieczności uzyskania stabilności mechanicznej i elektrycznej połączenia w długim czasie. Dużą obciążalność przy małych wymiarach zapewnia odpowiednia konstrukcja styków, dająca równomierny i silny docisk na niewielkiej powierzchni oraz odporne na ścieranie pokrycia minimalizujące rezystancję połączenia i tym samym wydzielanie ciepła. Dobre parametry zapewniają także trwałe mechanicznie tworzywa sztuczne, charakteryzujące się wysoką stabilnością mechaniczną konstrukcji i wysoką dokładnością wykonania, pozwalającą na dokładne spasowanie elementów konstrukcyjnych. Efekt miniaturyzacji to także rosnąca obciążalność styków przy tych samych wymiarach. Na rynku dostępne są elementy, w których dopuszczalne prądy przenoszone przez styki wynoszą setki amperów, także w wersji do montażu na PCB.

Jakość jest niezmiennie kluczem do rynku

Podobnie jak dla wielu innych elementów elektronicznych, tematem dyżurnym w branży złączy jest jakość, a najbardziej to, jak ją uzyskać po możliwie najmniejszych kosztach. Dotyczy to w zasadzie wszystkich aspektów związanych z projektowaniem i produkcją urządzeń, niemniej akurat w złączach silnoprądowych trend ten jest szczególnie istotny z uwagi na bezpieczeństwo i trwałość. Zainteresowanie jakością widać od około dekady i jest to splot wielu czynników: coraz większej wymiany handlowej z zagranicą, dużego potencjału usług EMS realizowanych na zlecenie partnerów zagranicznych, dużego znaczenia branży przemysłowej. Jakość to też sposób krajowych przedsiębiorców na wspólną egzystencję z rynkowymi gigantami oraz w pewnym sensie wartość dodana do specjalistycznej produkcji. W przypadku omawianych złączy jest to szczególnie istotne, bo często są to elementy, które pełnią krytyczną funkcję konstrukcyjną i ich awaria oznacza nie tylko całkowity brak działania, ale też zagrożenie (pożarem, porażeniem, oparzeniem).

Napływ niskiej jakości azjatyckiej produkcji od lat spędzał dystrybutorom renomowanych produktów sen z powiek i sprowadzał działania marketingowe do mozolnej edukacji klientów. Póki na rynku były ciężkie czasy, nie było to łatwe zadanie, ale w ostatnich latach świadomość klientów zauważalnie się poprawiła i stąd też bierze się wzrost zainteresowania jakością. Ponadto jest to też wynik tego, że pierwotny duży dystans między wysokimi cenami czołowych marek a tanimi wyrobami chińskimi zmniejszył się już znacząco i nie tworzy przepaści.

Bartosz Głodek

inżynier produktu – złącza w firmie TME

  • Jakie wymagania techniczne stawiane są dzisiaj przed złączami?

Główny nacisk przy projektowaniu złączy kładziony jest dziś na kompaktowość oraz wszechstronność aplikacyjną tych elementów. Złącza powinny być uniwersalne i umożliwiać wykorzystanie różnych sygnałów w jednym komponencie przy zachowaniu odporności na nieprzyjazne warunki środowiskowe. Tworzenie coraz mniejszych rozwiązań technologicznych niejako wymusza na producentach miniaturyzację rozwiązań przy zachowaniu właściwości elektrycznych. Na rynku pojawia się wiele rozwiązań z powodzeniem zastępujących znane i często przestarzałe standardy. Klienci oczekują, że złącza będą trwałe, odporne na zużycie oraz zapewnią niezawodne połączenie. Wysoka jakość produktów jest szczególnie ważna w branżach takich jak motoryzacja, przemysł lotniczy, medyczny czy wojskowy, gdzie niezawodność jest kluczowa.

  • Jakie oczekiwania w stosunku do dostawców złączy mają dzisiaj klienci?

Dystrybutorzy powinni być w stanie realizować zamówienia w krótkim czasie i oferować atrakcyjne ceny, zwłaszcza przy większych zamówieniach. Ponadto klienci oczekują, że dostawcy będą w stanie zapewnić wsparcie techniczne oraz doradztwo w wyborze odpowiedniego złącza. Ważna jest również szeroka oferta produktów i rozwiązań, aby móc dobrać optymalne złącze do swoich potrzeb.

Nowe obszary aplikacyjne i ewolucyjny rozwój

Złącza silnoprądowe są kluczowym komponentem dla wielu aplikacji, stąd na rynku pojawiają się co chwilę nowe wykonania ukierunkowane na aplikacje zyskujące na popularności, takie jak fotowoltaika, e-mobilność, stacje ładowania akumulatorów.

Rynek elementów silnoprądowych powoli otwiera się na elementy z szybkim mocowaniem przewodu, tj. szybkozłącza. Sprawdziły się one doskonale w obwodach o mniejszej mocy, zapewniając jakość i dobre połączenie bez konieczności dokręcania z całej siły śruby. Dlatego stopniowo, wraz z kolejnymi generacjami produktowymi, szybki montaż upowszechnia się w tych bardziej wymagających rozwiązaniach. Wpływ na to ma szybkość operowania, a jednocześnie bezpieczeństwo użytkowania pozwalające na zwiększenie efektywności pracy. To dlatego, że złącza z zaciskiem sprężynowym i inne podobne rozwiązania charakteryzujące się dużą szybkością montażu, często też brakiem konieczności używania narzędzi są coraz bardziej innowacyjne i pozwalają na większą obciążalność. Zauważalny także jest trend do stosowania terminal bloków w obwodach, gdzie płyną prądy o bardzo dużym natężeniu – zwłaszcza w urządzeniach energoelektroniki, zasilaczach do oświetlenia LED i podobnych. Pozytywny wpływ na rynek złączy ma rosnąca świadomość użytkowników i coraz większa potrzeba wykorzystywania komponentów, których jakość, trwałość i przystosowanie do pracy w określonych warunkach potwierdzona jest licznymi certyfikatami. Bezkompromisowa jakość jest szczególnie ważna dla produkcji przemysłowej, gdzie złącza przeznaczone są do długotrwałej pracy w ekstremalnych warunkach.

Takie procesy rozwojowe mają charakter ewolucyjny, gdyż w branży złączy procesy upowszechniania się nowości technologicznych trwają dość długo. Być może jest to wynik tego, że w omawianych elementach przełomy zdarzają się mniej więcej raz na wiele lat, poza nimi trwa mozolna ewolucja polegająca na doskonaleniu poszczególnych produktów, modernizacjach istniejących wersji.

 

Zobacz więcej w kategorii: Rynek - archiwum
Produkcja elektroniki
Produkcja urządzeń elektronicznych
Komponenty
Podzespoły elektroniczne
Projektowanie i badania
Badania i rozwój
Komponenty
Komponenty automatyki przemysłowej
Komponenty
Komponenty automatyki przemysłowej
Projektowanie i badania
Badania i rozwój
Zobacz więcej z tagiem: Komponenty
Technika
Temperatura jako kluczowy czynnik w nowoczesnej motoryzacji: rola materiałów termoprzewodzących
Gospodarka
Amkor Technology wzmacnia pozycję w łańcuchu dostaw półprzewodników dla AI
Gospodarka
Farnell rozszerza ofertę automatyki przemysłowej o produkty Lovato Electric

Jak kompensować moc bierną w małej firmie, by płacić mniej za energię bierną?

Z reguły małej firmy nie stać na zakup automatycznego kompensatora mocy biernej. Niemniej, sytuacja nie jest bez wyjścia i w tym artykule na prostym przykładzie pokazane zostało podejście do rozwiązania problemu mocy biernej.