Podzespoły elektroniczne

Podzespoły elektroniczne są głównym źródłem innowacji w technice i bazą konstrukcyjną dla nowych produktów, przez co branża dystrybucji tworzy najważniejszą część łańcucha zaopatrzenia dla branży. Jest to konkurencyjny obszar biznesu, niełatwy, ale cały czas atrakcyjny i perspektywiczny. Oczekiwania klientów w stosunku do dystrybutorów stale się zwiększają. Dobór najlepszego produktu i konkurencyjna oferta to jedno, ale w praktyce trzeba dawać z siebie jeszcze więcej, np. próbki, narzędzia i płytki startowe. Elektronika wdziera się na coraz to nowe obszary rynku techniki i przed koniecznością elektronizacji stają także producenci, dla których projektowanie i elektronika nie są rdzeniem biznesu. Takie osoby zwykle potrzebują więcej pomocy, stąd coraz większe oczekiwania w stosunku do kompetencji sieci dystrybucji są normalną konsekwencją tych procesów.

Posłuchaj
00:00

Dystrybucja podzespołów elektronicznych

Na rynku dystrybucji cały czas panują trudne warunki, będące splotem wielu czynników jak niestabilna sytuacja w zakresie czasów dostaw, wojna na Ukrainie oraz nienajlepsza sytuacja w gospodarce. Efektem jest widoczna niepewność, ograniczanie ryzyka działalności przez klientów, kupowanie małych partii pod bieżące zamówienia, przesuwanie projektów w czasie i wydłużanie terminu odbioru zakontraktowanego towaru. Taka jest dzisiaj branża dystrybucji. Do plusów zaliczyć można zwiększającą się innowacyjność krajowych przedsiębiorstw i rosnącą świadomość klientów co do technologii i oferty produktowej oraz dostępnych usług.

Ceny wzrosły i to znacząco

Pandemia i późniejszy okres niedoborów wywołał w konsekwencji wzrost cen elementów elektronicznych i to znaczący, w którym podwyżka ceny o 100% w ciągu dwóch lat wcale nie jest niczym rzadkim. Producenci komponentów podnieśli ceny, bo przez długi czas tego nie robili z uwagi na silną konkurencję. Ceny komponentów przez długi okres były też relatywnie niewielkie, co nie pozwalało na wiele inwestycji i szybki rozwój technologii. Alokacja stała się okazją do wyrwania się z dyktatu niskiej ceny, dlatego okres niedoborów okazał się okazją do poprawy rentowności, ale razem z większymi kosztami działalności, podwyżki są duże. Trudno też nie mieć wrażenia, że wszystkie firmy znajdujące się w łańcuchu dostaw zwiększyły swoje marże, bo mogły to zrobić i wykorzystały chwilę. W efekcie ceny zwiększyły się więcej niż wynikałoby to ze wskaźników makroekonomicznych.

Najważniejsze czynniki o charakterze negatywnym dla rynku dystrybucji

Listę najbardziej istotnych czynników negatywnie oddziałujących na rynek dystrybucji otwiera konkurencja ze strony źródeł azjatyckich. W ostatnich trzech latach znaczenie tamtejszych sprzedawców i azjatyckich platform internetowych wyraźnie wzrosło, wraz z rosnącymi cenami na rynku europejskim, kłopotami z dostępnością komponentów oraz coraz lepszymi mechanizmami logistyki towarów z Azji. Długie terminy dostaw cały czas są wymieniane jako problem i faktem jest, że te kłopoty trwają bardzo długo w porównaniu do poprzednich lat. Przeszkadza też kiepska sytuacja w gospodarce krajowej oraz zaostrzająca się konkurencja.

Źródła dalekowschodnie

Skutkiem znaczącego wzrostu cen komponentów elektronicznych w ostatnim okresie jest wzrost znaczenia źródeł dalekowschodnich. Wielu specjalistów postrzega to wręcz na naszym rynku jako inwazję, gdyż część tamtejszych firm dystrybucyjnych ma już przyczółki w postaci biur handlowych i mocno penetruje nasz rynek. Warto przez chwilę zastanowić się skąd to wynika.

Po pierwsze, wiele podzespołów trudno jest obecnie kupić u krajowych dystrybutorów. Za grupę problemów odpowiadają długie czasy dostaw i niedobory z ostatnich dwóch lat. One jeszcze nie przeminęły całkowicie i cały czas oddziałują negatywnie na rynek, zmuszając klientów do szukania alternatywnych źródeł zaopatrzenia.

Na skutek problemów w niedostępnością wiele pozycji produktowych zostało wycofane z ofert dystrybutorów lub nawet przestało być produkowanych. Dotyczy to bardzo wielu elementów mniej chodliwych lub starszej generacji.

Najważniejsze zjawiska pozytywne dla rynku

Bez względu na obecne trudności w gospodarce, które dla branży elektroniki są oczywiście przejściowe, rynek dystrybucji ma przed sobą cały czas dobre perspektywy rozwojowe wynikające z szybkiego rozwoju elektroniki, dużego znaczenia innowacji oraz szybkiej ewolucji technicznej rynku w stronę coraz większej jakości i zaawansowania. Szansę rozwoju dają też rynki zagraniczne, bo pozwalają ominąć wiele ograniczeń charakterystycznych dla lokalnych uwarunkowań, takich jak duża konkurencja lub mała chłonność niszowych sektorów. Start-upy, w których nie tak dawno pokładano tak wielkie nadzieje i oczekiwania, nie wydają się tworzyć dla omawianego sektora rynku znaczącej wartości.

Dystrybutorzy ustalają wysokie ceny na wiele pozycji ofertowych mniej popularnych, rekompensując sobie koszty ich magazynowania, niemniej często wzrost ten jest niewspółmiernie duży w odniesieniu do funkcjonalności tych komponentów. Skutkiem jest to, że taki postawiony pod ścianą klient kupi potrzebną część w Chinach, bo stworzona u nas bariera cenowa okaże się nie do przejścia.

Podobnie jest z elementami mniej popularnymi, starszymi i niedawno wycofanymi z produkcji. One cały czas są w użyciu i są potrzebne. W kraju ich nie ma lub mają zaporowe ceny, które nie mają nic wspólnego z rozsądkiem. Takie sytuacje też powodują, że klienci kierują swoją uwagę na Daleki Wschód, bo jakoś tak się dzieje, że tamte elementy nie tylko są dostępne, ale często są tańsze. Najbardziej jest to widoczne na komponentach mniej typowych i starszych.

Kolejnym powodem rosnącej popularności dalekowschodnich źródeł zaopatrzenia jest coraz lepsza (szybsza i tańsza) logistyka towarów, większa kontrola rzetelności działających tam sprzedawców, możliwość zwrotu ograniczająca ryzyko transakcji. W wielu przypadkach usługi logistyczne platform chińskich są podobne jak mamy u nas, a różnica dotyczy wyłącznie czasu dostawy.

========

Komponenty indukcyjne

Podzespoły indukcyjne determinują osiągi urządzeń z zakresu konwersji mocy, a więc dążenie do minimalizacji strat energii, ułatwiają miniaturyzację urządzeń, a także zapewniają zgodność z wymaganiami norm w zakresie EMC. Stąd rozwój elektromobilności, systemów energii odnawialnej, elektroniki użytkowej sprzyja znacząco temu segmentowi rynku. Zapotrzebowanie na komponenty o wysokiej jakości i stabilności płynie ponadto z aplikacji IT, telekomunikacji, energoelektroniki i oczywiście sektorów specjalnych: wojska, lotnictwa.

Najważniejsze czynniki negatywne

Listę najważniejszych czynników negatywnych dla rozwoju rynku otwierają tanie produkty dalekowschodnie, czyli głównie standardowe dławiki i cewki do układów mocy i filtrów, których niska cena ogranicza możliwość rozwoju rozwiązań zaawansowanych. Tanie wersje standardowe są kłopotem dla firm dystrybucyjnych, natomiast producenci komponentów indukcyjnych zmagają się z rosnącymi kosztami pracy, cenami materiałów oraz zapewne koniecznością stałego inwestowania w maszyny do produkcji. Dla wszystkich problemem jest silna konkurencja, bo omawiany sektor rynku przyciąga coraz to nowych graczy. Długie czasy dostaw nadal są wskazywane jako czynnik negatywnie oddziałujący na rynek, a asortyment omawianych produktów jest na tyle ogromny, że wyklucza możliwość m

Wymagania jakościowe stale się zwiększają

Wymagania w elementach indukcyjnych są bardzo istotne z kilku powodów. Po pierwsze, narażenia mechaniczne, a więc wibracje i udary, wywołują naprężenia w uzwojeniach i rdzeniu, i prowadzą do pękania, rozklejania rdzeni oraz rozszczelnienia zalew i uszkodzeń izolacji. Elementy te mają nierzadko dużą masę, przez co przeciążenia mechaniczne wynikające z drgań są problemem dla jakości w aspekcie długoterminowym. Podobnie negatywnie na konstrukcję oddziałują zmiany temperatury i wilgotności, które dodatkowo są w stanie pogorszyć z czasem jakość izolacji. Zjawisk fizycznych, które w perspektywie są w stanie negatywnie wpłynąć na jakość, jest wiele, na przykład obciążenie dużą mocą uzwojeń, bo płynące duże prądy powodują nagrzewanie, wysokie napięcia niszczą izolację na skutek mikrowyładowań oraz wyładowań niezupełnych (koronowych), a wysokie wartości indukcji magnetycznej na skutek efektu magnetostrykcji mogą wywołać piski. Takie problemy są codziennością dla producentów podzespołów indukcyjnych, ale szczęśliwie coraz większa świadomość projektantów elektroniki pomaga w rozwoju rynku w kierunku tak rozumianej długoterminowej jakości.

Oczywiście im większa moc, większe upakowanie elementów, im ciaśniejszy montaż oraz dłuższy projektowany czas eksploatacji, tym zagadnienia jakościowe są bardziej istotne. Niestety nie da się wielu aspektów skontrolować podczas kupowania, bo danych na temat żywotności długoterminowej nie ma w dokumentacji lub są to zagadnienia niezweryfikowane. Efekty starzeniowe dotyczą wszystkich materiałów, niemniej niejednakowo i w różnym nasileniu, stąd estymacja matematyczna jest bardzo kłopotliwa. Zamiast niej stosuje się testy starzeniowe, a więc eksploatuje sprzęt przez pewien czas w warunkach stresu (wysoka temperatura, maksymalna moc, wilgotność, promieniowanie), a potem przelicza godziny pracy w stresie lub czas do pierwszej awarii na "zwykłe" warunki pracy.

Trendy techniczne w podzespołach indukcyjnych

Główne trendy techniczne w elementach indukcyjnych to miniaturyzacja i wynikające z niej coraz większe zaawansowanie techniczne. Widać to najbardziej w dławikach mocy w obudowach SMD, w których nie ma karkasu ani też widocznego podziału na rdzeń i uzwojenie. Taki element jest zaprasowaną jednolitą konstrukcją o dobrym ekranowaniu, rozpraszaniu ciepła przy najmniejszych możliwych gabarytach. Podobnie nowoczesne materiały magnetyczne także sprzyjają miniaturyzacji, gdyż umożliwiają osiągnięcie większych gęstości mocy oraz działają przy wyższych częstotliwościach. Z kolei dostępność wielu gotowych rozwiązań katalogowych upraszcza konstrukcję wielu aplikacji i zmniejsza ryzyko projektowe przez dostępność scharakteryzowanych i przetestowanych elementów. Komponenty dostępne "z półki" są tańsze i można je kupić bez konieczności długiego czekania na realizację zamówienia. Dają też lepsze możliwości wyboru i zmiany dostawcy.

Takie podejście pozwala ocenić kompleksowo jakość projektu elektroniki, wskazać najsłabsze punkty konstrukcyjne, w tym także dokonać oceny jakości materiałów i komponentów. Niemniej jest to spory wysiłek, któremu może podołać producent podzespołów lub urządzenia. Badania starzeniowe urządzeń stają się w elektronice coraz bardziej powszechne i popularne, a wiele firm inwestuje w komory klimatyczne, potwierdzając zainteresowanie jakością.

Warto zauważyć, że jeśli mówimy o wpływie temperatury na działanie urządzenia, to zwykle mamy na myśli jej wysoką wartość. Pełne badania klimatyczne i ocena jakości komponentów i urządzeń wymaga jednak obserwacji działania także przy temperaturach ujemnych. Już –20ºC dla wielu kiepskich materiałów chemicznych i tworzyw jest problemem, bo wywołuje utratę plastyczności i sztywność połączeń, pękanie izolacji. W dalszej kolejności badania jakości obejmują narażenia na UV, kurz, aerozole, narażenia mechaniczne itd. Jak widzimy, kompleksowa ocena jakości to wielki wysiłek badawczy.

Elementy na zamówienie

Im bardziej wymagająca aplikacja, większa moc, poziomy napięć i prądów, tym większe znaczenie dla zapewnienia dużej funkcjonalności mają elementy indukcyjne produkowane według indywidualnej specyfikacji. Zapewniają one najlepsze parametry użytkowe poprzez dopasowanie do warunków montażu w obudowie i do wymagań elektrycznych. Elementy na zamówienie są także najmniejszym kompromisem projektowym. Głównie chodzi o transformatory impulsowe, w mniejszym stopniu, ale dalej w istotnej części o dławiki mocy. Dla większości krajowych firm produkcyjnych jest to oś aktywności biznesowej.

Standardowe elementy indukcyjne są produkowane w dużej części automatycznie, za pomocą specjalistycznych urządzeń, drogich i złożonych, ale bardzo wydajnych. Na skutek dużej konkurencji marże przy sprzedaży elementów typowych są niskie, co wymusza działanie na dużych seriach i sprzedaż w skali globalnej. Z kolei produkcja na zamówienie opiera się na małych i średnich seriach, na wyrobach niestandardowych, a więc wymaga parku maszynowego o mniejszym stopniu automatyzacji. Od strony inwestycyjnej jest to rozwiązanie tańsze, czyli znajduje się w zasięgu inwestycyjnym także mniejszych firm, bo jak wiadomo, ceny wszystkich urządzeń produkcyjnych są bardzo wysokie. W przypadku tych całkowicie automatycznych ceny liczone są w milionach i to nie złotych.

Zjawiska pozytywne dla rozwoju rynku

Za najważniejszy czynnik prorozwojowy dla rynku elementów indukcyjnych uznano presję na jakość i zaawansowanie techniczne w branży, co sprzyja popytowi na elementy kastomizowane i projektowane pod aplikację, wykorzystujące nowoczesne materiały magnetyczne i techniki nawijania. Takie wersje stanowią awangardę produktową rynku, są cenniejsze od typowych produktów katalogowych. Znajdująca się na drugim miejscu impulsowa konwersja energii elektrycznej jest standardem i podwaliną wielu nowoczesnych aplikacji, a rozwój tego obszaru techniki jest wprost pochodną dostępności zaawansowanych indukcyjności, stąd jej wysoka pozycja jest naturalna w takim zestawieniu. W dalszej kolejności na wykresie uplasował się szybki rozwój rynku elektroniki i związana z nim większa komplikacja, gęstość upakowania, parametry (wydajność) podzespołów indukcyjnych.

Przez lata taki pomysł na biznes dobrze się sprawdzał i zapewniał szybki rozwój, zwłaszcza że producenci krajowi równoważyli mniejszy potencjał produkcyjny większymi kompetencjami inżynierskimi. Dopiero w ostatnich dwóch latach na skutek rosnących kosztów pracy, ograniczonej dostępności kadry i dużej konkurencji na rynku ta koncepcja działalności daje nieco gorsze wyniki. Nie bez znaczenia jest to, że asortyment wersji katalogowych bardzo się rozrósł i w większej liczbie przypadków daje się użyć czegoś z półki.

W naszym kraju nawijanie transformatorów i dławików na zamówienie dostępne jest również w przypadku zamawiania małych ilości, również pojedynczych sztuk przeznaczonych do układów prototypowych, co też jest jakimś elementem przewagi, bo wiele urządzeń kierowanych na rynek przemysłowy jest z definicji małoseryjna.

Wsparcie techniczne jest bardzo istotne

W przypadku systemów konwersji energii elektrycznej bardzo istotne jest kompetentne wsparcie techniczne, faktycznie pełniące funkcję konsultacji i weryfikacji inżynierskich pomysłów. Nie da się ukryć, że osiągnięcie wysokich parametrów w przypadku systemu zasilania, przy niskim koszcie, łatwości produkcji od strony technologicznej, a także w takim aspekcie, aby projekt bazował na dostępnych bez kłopotu materiałach, nie jest łatwe. O pomyłkę, przeszacowanie lub niedopatrzenie projektowe jest bardzo łatwo, bo niezawodne przełączanie dużych mocy wymaga uwzględnienia wielu zjawisk, w tym zapanowania nad stanami nieustalonymi wynikającymi z niesymetrii, reaktancji pasożytniczych oraz pracy na krawędzi możliwości materiałów magnetycznych.

Wsparcie techniczne zawsze było i jest czynnikiem wspierającym sprzedaż w każdym sektorze, niemniej w tym obszarze jego znaczenie jest szczególne, bo tematy związane z impulsowymi systemami zasilania, materiałami magnetycznymi i zjawiskami zachodzącymi w elementach indukcyjnych są bezsprzecznie trudne.

Ważne i poszukiwane wersje

W zakresie elementów indukcyjnych za najbardziej poszukiwane wersje wykonania uznano elementy "małe, ale wydajne", a więc przeznaczone do montażu powierzchniowego, bazujące na nowoczesnych materiałach magnetycznych, które mają dużą indukcję nasycenia i mogą pracować z dużymi prądami roboczymi. Takiego typu dławiki i transformatory przeznaczone są do elektroniki dużej mocy, konwerterów, ładowarek, napędów i podobnych urządzeń, gdzie liczy się duża gęstość mocy. Na drugiej pozycji uplasowały się wersje zalewane i impregnowane, a więc odporne na czynniki środowiskowe, czyli zapewniające poszukiwaną na rynku trwałość. Zalewanie i impregnowanie poprawiają ponadto odprowadzanie ciepła i znakomicie ograniczają emisję akustyczną wywołaną efektem magnetostrykcyjnym oraz drganiem uzwojenia, co jest bardzo istotne w układach oświetleniowych. Trzeci czynnik, płaskie i upakowane, to podzbiór kryterium pierwszego, jeszcze bardziej uwypuklający znaczenie miniaturyzacji.

Miniaturyzacja

Współczesne urządzenia elektroniczne są z generacji na generację coraz mniejsze, a znaczenie elektroniki mobilnej na rynku stale się pogłębia. Trend miniaturyzacji dotyczy też systemów zasilania, elektromobilności i przemysłowych urządzeń energoelektronicznych, których gęstość mocy sukcesywnie rośnie. Nowoczesne elementy indukcyjne są bardzo istotnym elementem takich zmian, gdyż osiągnięcie wysokiej sprawności jest możliwe m.in. dzięki dostępności miniaturowych dławików i transformatorów bazujących na niskostratnych materiałach magnetycznych o zwartej konstrukcji mechanicznej, zapewniającej małe reaktancje pasożytnicze, emisję zaburzeń i takich, które mają gabaryty pozwalające na łatwą integrację w urządzeniu.

Poza układami konwersji energii cała reszta elementów indukcyjnych też jest coraz mniejsza. Dotyczy to filtrów, cewek w.cz., dławików lub transformatorów sygnałowych, które nie mogą górować gabarytami nad resztą elektroniki. Dążenie do miniaturyzacji widać w tym, jak wiele mamy dzisiaj na rynku kształtek ferrytowych o płaskiej i zwartej konstrukcji oraz karkasów z końcówkami do montażu SMT.

Miniaturyzacja zaciera też typowy podział konstrukcyjny na rdzeń, karkas i uzwojenie. Karkas i wyprowadzenia integruje się z rdzeniem, a uzwojenie umieszcza w środku zamkniętej konstrukcji magnetycznej po to, aby poprawić stopień ekranowania oraz odporność środowiskową. Tym samym wiele nowoczesnych podzespołów indukcyjnych wizualnie wygląda tak, jakby składały się wyłącznie z rdzenia. Jest to ważne z punktu zapewnienia kompatybilności elektromagnetycznej, gdyż niewielkie, ale wydajne aplikacje dużej mocy działają przy dużych częstotliwościach. Pozwala to użyć mniejszych elementów indukcyjnych, ale jednocześnie wymusza zapewnienie lepszej ochrony przed emisją zaburzeń.

Kompatybilność elektromagnetyczna

Poza miniaturyzacją na rynek pozytywnie oddziałują zagadnienia związane z kompatybilnością elektromagnetyczną. W układach impulsowych panowanie nad emisją jest ważną i niełatwą częścią pracy inżynierskiej, dlatego każde rozwiązanie układowe lub komponent, które wyraźnie w tym pomaga, jest w tych działaniach cenną pomocą. Widać to między innymi po tym, że konstrukcja elementów indukcyjnych staje się zwarta i zabudowana materiałem magnetycznym, a uzwojenia są ukrywane we wnętrzu, bo ogranicza to zaburzenia. Konstrukcje otwarte, takie jak dławiki szpulkowe, są wypierane przez rozwiązania na rdzeniach toroidalnych, można też powiedzieć, że mamy renesans rdzeni o kształtach podobnych do kubkowych – patrz też ramka.

Cechy ofert brane pod uwagę przy kupowaniu elementów indukcyjnych

Zestawienie najważniejszych czynników ofert branych pod uwagę przez klientów poszukujących elementów indukcyjnych otwiera oczywiście cena, co jest standardem we wszystkich takich rankingach dotyczących podzespołów elektronicznych. Drugą pozycję na wykresie zajęła jakość wykonania, a trzecią termin dostawy komponentów. Kolejne pola o wskazaniu już poniżej 50% uwypuklają znaczenie wersji na zamówienie, co jest cechą szczególną rynku elementów indukcyjnych i podstawą biznesu dla producentów krajowych, znaczenie długotrwałej współpracy z dostawcą, jego kompetencje techniczne i zapewniane wsparcie techniczne. Za praktycznie nieistotne uznano kryteria takie jak długoletnia współpraca z dostawcą lub możliwość kompleksowego zaopatrzenia w jednym miejscu, co przekonuje, że nie ma dzisiaj miejsca na sentymenty. Może to być też sygnał, że dostawcy wykorzystują stałe relacje i warunki handlowe w ten sposób, że dla nowych klientów są często lepsze.

Wysoka sprawność

Postęp w miniaturyzacji urządzeń elektronicznych, w tym także systemów zasilających (zasilaczy, ładowarek, przetwornic, falowników, napędów silników), powoduje, że rośnie zainteresowanie technologiami i rozwiązaniami zapewniającymi wysoką sprawność konwersji energii elektrycznej. Im jest ona lepsza, tym mniej wydziela się ciepła i całość może być mniejsza i bardziej upakowana. Ponadto przy dużej sprawności łatwiej jest zapewnić działanie w szerokim zakresie temperatur, bez wymuszonej konwekcji itd. Duża sprawność jest też kluczem do długiego czasu działania urządzeń zasilanych z baterii oraz na drugim biegunie do ograniczenia kosztów eksploatacji systemów dużej mocy.

Sprawność to także klucz do efektywnej miniaturyzacji, gdyż im mniej wydziela się ciepła w elementach, tym ciaśniej można je umieszczać. Kluczem do uzyskania małych strat są nowoczesne półprzewodniki oraz elementy indukcyjne wykonane na małostratnych materiałach magnetycznych pracujących na wysokich częstotliwościach.

Co z transformatorami sieciowymi?

Transformatory sieciowe były i będą potrzebne we współczesnej technice, bez względu na moc wyjściową, ale bez żadnych wątpliwości ich znaczenie maleje. Ze sprzętu konsumenckiego zniknęły całkowicie, bo nie są w stanie spełnić wymagań w zakresie minimalnej sprawności i mocy standby wymaganej przez regulację prawną dotyczącą Ekoproduktu. Obecnie zapotrzebowanie rynku pochodzi z aplikacji wymagających wysokiej jakości i niezawodności oraz długoterminowej dostępności źródeł zasilania, czego przykładem mogą być systemy alarmowe, zasilacze buforowe do akumulatorów, systemy kontroli dostępu do obiektów. W takich aplikacjach transformatory zapewniają dużą odporność na zaburzenia pojawiające się w sieci zasilającej (zwłaszcza na przepięcia podczas burz) i potrafią pracować bezawaryjnie przez długie lata. Druga grupa urządzeń, która w dużej części bazuje na tradycyjnych zasilaczach z transformatorami, to wszelkiego rodzaju precyzyjna aparatura pomiarowa lub sprzęt medyczny, gdzie elementy te wybiera się z uwagi na to, że nie generują zaburzeń elektromagnetycznych i pozwalają na znaczące ograniczenie prądu upływu i potencjału dotykowego. Elementy te sprawdzają się też tam, gdzie trzeba zapewnić dobrej jakości separację galwaniczną obwodów od sieci lub zapewnić kilka separowanych od siebie obwodów zasilających. Są też używane w urządzeniach audio.

Oczywiście nie są one aplikowane we wszystkich wymienionych obszarach, tylko raczej tam jeszcze mają szansę na użycie, bo formalnie jest to już produkt niszowy.

======

Przełączniki, przyciski i klawiatury

Przełączniki, przyciski i klawiatury są ważnymi elementami interfejsu użytkownika w urządzeniach elektronicznych. Mimo coraz większego potencjału technologii dotykowych oraz poprawiającej się dostępności elementów haptycznych z przełączników w elektronice nie rezygnuje się bez powodu, zwłaszcza w aplikacjach profesjonalnych, gdyż z każdą kolejną generacją poprawia się ich trwałość oraz odporność środowiskowa. Lepsze jest wzornictwo, rośnie liczba dostępnych wersji, gama kolorów, podświetleń, opcji montażowych oraz akcesoriów.

Aktualnie pozytywne zjawiska związane z rynkiem elementów elektromechanicznych to stabilny popyt ze strony różnych branż oraz długi czas życia aplikacji, do których trafiają te elementy. Zmniejsza to ryzyko działalności u dostawców, pozwala mieć większe stany magazynowe w kontekście liczby przechowywanych indeksów wyrobów. Kolejne pozytywne aspekty to wzrost rynku przemysłowego w Polsce, który charakteryzuje się małą wrażliwością na czynniki makroekonomiczne. Pozytywną wiadomością dla rynku jest ponadto to, że wiele problemów z dostępnością i czasem dostaw komponentów i materiałów już nie ma, a rynek cieszy się postępującą stabilizacją.

Po stronie czynników negatywnych należy wymienić przede wszystkim dużą konkurencję cenową ze strony producentów chińskich oraz rosnące koszty produkcji/działalności. Kłopotem jest też przymus certyfikacji dla wielu grup sprzętu elektronicznego, który przedłuża czas realizacji projektów i zmusza do gromadzenia wielu dokumentów.

Najważniejsze dla klientów cechy ofert

Po latach nieustannej dominacji na szczycie wykresu trójki kryteriów "cena, jakość i krótki termin dostawy" nastąpiło małe przetasowanie i cena spadła na pozycję trzecią z wyraźnie mniejszym udziałem procentowym do dwóch pozostałych. Znaczenie długotrwałej współpracy z dostawcą, czyli innymi słowy, dobre relacje klientów z dostawcami, też zostały wysoko ocenione, tj. ze wskazaniem powyżej 50%. Zwykle to kryterium nie jest pozycjonowane tak wysoko. Biznes jest co do zasady wolny od sentymentów i zamówienie dostaje ten, kto w danym momencie zaproponuje lepsze warunki. Jak widać, w przełącznikach i klawiaturach jest inaczej. Niższe znaczenie ceny a wyższe jakości może być też pokłosiem problemów z chińską tandetą, którą zalewają nasz rynek tamtejsze platformy internetowe.

Źródła azjatyckie

Przełączniki to dla wielu aplikacji z obszaru automatyki i przemysłu wersje standardowe, popularne i o podobnej konstrukcji oraz funkcjonalności. Identycznie sytuacja wygląda w przypadku elementów montowanych na płytkach drukowanych, co powoduje, że rynkowa pozycja producentów z Azji jest w Polsce silna. Kiedyś tamtejsze produkty miały wiele problemów jakościowych, ale dzisiaj ich wykonanie i materiały konstrukcyjne są bez zastrzeżeń. Elementy te są dostępne w lokalnej sieci dystrybucji, a także kupowane za pośrednictwem wielu platform internetowych, które sprzedają każdemu dowolne ilości w modelu B2B i B2C. Te źródła niestety postrzegane są jako problem, bo często sprzedają kiepskie i tanie rozwiązania oraz omijają sieć dystrybucji. Przełączniki dostępne od krajowych dystrybutorów, nawet jeśli pochodzą z Chin, zwykle reprezentują dobry poziom techniczny i stosunek jakości do ceny. Inaczej sprzedaż nie miałaby sensu, bo dystrybutor brałby na siebie odium kłopotów klientów. Za tym idą wsparcie techniczne, próbki, obsługa posprzedażna i wszystkie inne usługi. Dostawy bezpośrednie z Chin omijają ten mechanizm, proponują tylko produkt i są przez to tańsze.

Konkurencję źródeł tego typu zaostrza to, że elementy pochodzące stamtąd mają preferencje transportowe, gdyż wysyłka jest dotowana, a ewentualne problemy jakościowe obciążają kupującego. Efektem jest zalewanie naszego rynku towarem z Azji, co blokuje rozwój.

Najważniejsze czynniki negatywne dla rynku

Na pierwszym miejscu w zestawieniu czynników negatywnych dla rozwoju rynku znalazły się tanie produkty azjatyckie, które odbierają rynek na komponenty standardowe czołowym graczom i prowadzą do wojen cenowych. Listę problemów uzupełnia czynnik związany z dużą konkurencją na rynku wynikającą z wielu firm aktywnych w tej branży oraz dużej popularności takich produktów. Trzecia istotna pozycja to długie czasy dostaw, co pokazuje, że problemy z zaopatrzeniem jeszcze się nie skończyły.

Z klawiatur nie rezygnujemy

Klawiatury foliowe znajdują szerokie zastosowanie w sprzęcie kontrolno- pomiarowym, systemach przemysłowych, maszynach, w motoryzacji, sprzęcie medycznym i wielu innych produktach, gdzie interfejs użytkownika nie jest wyrafinowany, ale za to musi działać pewnie w każdych warunkach. Ich duża popularność wynika z dobrej dostępności i niewielkiego skomplikowania technologii wytwarzania, co przekłada się na niskie koszty uruchomienia produkcji i jednostkowe oraz dobre własności użytkowe i jakość.

Kamil Kozłowski

COO & VP w Unisystemie

Jakie alternatywy dla tradycyjnych przełączników, przycisków i klawiatur są dziś dostępne na rynku?

Przede wszystkim technologie dotykowe. Coraz więcej urządzeń wyposażanych jest w ekrany, a naturalnym krokiem po ich wprowadzeniu staje się zastosowanie paneli dotykowych. Najczęściej korzysta się z technologii pojemnościowej, choć w niektórych aplikacjach nadal wykorzystywane są rozwiązania rezystancyjne lub oparte na podczerwieni.

Co jest ważne dla klientów korzystających z technologii dotykowych?

Z naszego doświadczenia wynika, że kluczowe są trwałość i funkcjonalność. Użytkownicy oczekują, że nasze rozwiązania będą działać bezawaryjnie nawet w najbardziej wymagających warunkach. Projektujemy urządzenia pracujące przy intensywnej eksploatacji, narażone na zakłócenia elektromagnetyczne oraz te wynikające z wibracji, drgań czy wstrząsów, ekstremalnych temperatur, a także ich gwałtownych zmian. Szczególnie istotna jest właściwa kalibracja kontrolera umożliwiająca dostosowanie działania panelu dotykowego do specyfiki konkretnej aplikacji. Dzięki temu możemy zapewnić właściwą czułość także wtedy, gdy na powierzchni ekranu pojawia się np. ciecz w postaci kropel deszczu, co skutecznie ogranicza ryzyko przypadkowych aktywacji.

I to wszystko można zrobić w Unisystemie?

Tak, i to wciąż nie wszystko, co możemy zaproponować. W ostatnim czasie rozwijamy również własne rozwiązania – jednym z nich jest pojemnościowy przycisk dotykowy, zaprojektowany z myślą o niezawodnej pracy w wymagających warunkach przemysłowych, w których kluczowe są precyzja, trwałość i odporność na trudne warunki. Zapewnia dokładną detekcję dotyku przez szkło o grubości do sześciu milimetrów nawet przy obecności wody na powierzchni, a możliwość kalibracji pozwala dopasować jego działanie do specyfiki danej aplikacji.

Przycisk można obsługiwać w rękawiczkach, co ma szczególne znaczenie w obszarach produkcyjnych, medycznych i laboratoryjnych, gdzie standardem jest praca w ochronnym wyposażeniu. Zintegrowana sygnalizacja świetlna i dźwiękowa tworzy intuicyjny, wielozmysłowy interfejs, który poprawia czytelność komunikatów i ułatwia obsługę urządzeń.

Co ważne, przycisk ten sprawdzi się nie tylko w nowych konstrukcjach – może pełnić również funkcję nowoczesnego, trwałego i bardziej higienicznego zamiennika dla tradycyjnych rozwiązań mechanicznych.

Są one produkowane na indywidualne zamówienia klientów, czyli jest to produkt elastyczny, taki, który można dopasować do wielu specyficznych wymagań aplikacyjnych. Klawiatury mogą być z klikiem klawiszy, podświetleniem, z frontem silikonowym lub foliowym, z polami przezroczystymi lub kolorowym filtrem pod wyświetlacz itd. Wraz z warstwami realizującymi ekranowanie elektromagnetyczne, konstrukcja jest zabezpieczana przed wpływem czynników środowiskowych lakierami i warstwami ochronnymi. Możliwości jest wiele, a rynek szeroki i chłonny. Klawiatury integruje się też z wyświetlaczami, sklejając je w całość tworzącą interfejs użytkownika. Produkcja indywidualnie dopasowanych do aplikacji klawiatur, w pełni zintegrowanych z obudową także w małych seriach tworzonych za pomocą druku cyfrowego, od wielu lat jest podstawą biznesu krajowych wytwórców. Firmy te inwestują w rozwój technologii, w nowe trwałe materiały, zapewniające odporność środowiskową i długotrwałe działanie, wykorzystują druk cyfrowy po to, aby dać możliwość pełnej indywidualizacji projektów, także tych określanych jako małe serie oraz łączą w ramach jednej oferty wiele rozwiązań przełączających, podświetleń i całego know-how, aby mieć ofertę dla każdego klienta.

Alternatywą dla klawiatur są oczywiście wyświetlacze z panelem dotykowym. Bezsprzecznie są coraz popularniejsze, doskonalsze techniczne, w tym także pozwalają na obsługę w rękawiczkach. Wyświetlacze z panelem dotykowym odbierają oczywiście rynek klawiaturom mechanicznym, z tym że kilka obszarów aplikacyjnych wydaje się niezagrożonych. Przykłady to środowiska, gdzie zachodzi kondensacja wilgoci, jest duży poziom zakłóceń elektromagnetycznych, gdzie panują niskie temperatury lub konieczne jest zapewnienie obsługi ręką w naprawdę grubej rękawicy. Reakcja na dotyk klawiatur i przycisków jest przewidywalna z sygnalizacją potwierdzającą naciśnięcie, co ma znaczenie w interfejsie użytkownika. Warto też zauważyć możliwość pracy przy bezpośrednim oświetleniu słonecznym.

Ważne i poszukiwane wersje

Listę ważnych i poszukiwanych wersji otwierają wersje przemysłowe przełączników, a więc do maszyn, urządzeń, grzybki awaryjne, sterownicze i podobne. W drugiej kolejności są to wersje miniaturowe do urządzeń elektronicznych, tj. głównie montowane na płytkach drukowanych. Niemniej różnice pomiędzy poszczególnymi kategoriami nie są duże i na wykresie nie ma jednej wyraźnie wybijające się nad inne grupy. Popyt jest wyrównany a ilościowo dominują przełączniki i przyciski, co jest zrozumiałe, bo na nie rynek jest wielokrotnie większy niż na klawiatury.

Jakość i wzornictwo stale się poprawiają

Kiepskiej jakości przełącznik lub klawiatura są w stanie skutecznie popsuć opinię o producencie urządzenia wśród klientów, a firmę wpędzić w kosztowne akcje serwisowe. W miarę upływu lat coraz więcej osób jest świadomych tego ryzyka i co jest również ważne, ma obecnie pieniądze na to, aby je minimalizować. Stąd niezmiennym trendem w branży jest coraz lepsza jakość komponentów elektromechanicznych w tym także ich wzornictwo (kształt, kolorystyka, ikonografika). Żywe kolory tworzyw sztucznych, funkcjonalny kształt, wielokolorowe podświetlenie ledowe, są z pewnością wyrazistym przykładem zachodzących zmian, tak samo jak ergonomia (efektywność i wygoda manipulowania klawiszem, brak zmęczenia operatora, wsparcie dla osób niepełnosprawnych). Producenci mają dzisiaj do dyspozycji lepsze materiały i sprzęt produkcyjny zapewniający większą precyzję wykonania. Druk cyfrowy o wysokiej rozdzielczości, znakowarki i obrabiarki laserowe nie są już dzisiaj luksusem dostępnym wyłącznie dla największych firm i są przez większość wytwórców wykorzystywane w produkcji i personalizacji produktów. Obrabiarki laserowe zapewniają wszystko, co jest dzisiaj potrzebne do zapewnienia jakości, a więc wysoką precyzję wykonywania oznaczeń, dowolność kształtu obróbki mechanicznej, trwałość oraz szybkość. Patrząc na całkowite koszty posiadania, obrabiarki cyfrowe CNC, wykrawarki laserowe, drukarki 3D są kosztowo efektywne, gdyż nawet jak inwestycja wymaga większych nakładów na początku, to potem jest to równoważone małymi kosztami ich użytkowania. Takie urządzenia pozwalają zapewnić możliwość wytwarzania produktów o wysokiej jakości technicznej i wizualnej w małej skali, bez konieczności sięgania po kompromisy. W warunkach krajowych jest to bardzo cenne, gdyż dobrze wpisuje się w potrzeby rynku, a więc różnorodne krótkie i średnie serie produktowe.

Na skutek tych procesów w ostatnich latach trwałość tradycyjnych przełączników i przycisków znacznie się też poprawiła. Dotyczy to zarówno trwałości mechanicznej, jak i elektrycznej.

Najważniejsze zjawiska pozytywne

Listę najważniejszych czynników pozytywnie wspierających rynek otwiera presja na jakość oraz zaawansowanie techniczne. Jakość jest pojęciem, o którym się obecnie dużo mówi i przykłada do niego dużą wagę. Kolejne miejsce z minimalnie mniejszym udziałem to szeroki asortyment dostępnych produktów, pozwalający dobrać element przełączający bez konieczności kompromisu oraz dobra koniunktura na rynku profesjonalnym (wojsko, lotnictwo, motoryzacja). To trzecie kryterium jest już zdecydowanie słabiej zarysowane w porównaniu do wymienionych poprzednich dwóch.

Ogromny asortyment elementów elektromechanicznych

Przełączników i przycisków na rynku jest mnóstwo, tak samo jak producentów i firm, które mają je w ofertach. Co więcej, wiodący producenci mają licznych naśladowców (w tym także kopistów), wiele innych firm korzysta z tego, że rynek jest chłonny i proponuje wielowariantowe rozwiązania, które w zamyśle mają pokryć większość potrzeb klientów. Brakuje standaryzacji, bo w praktyce dotyczy ona tylko tych najpopularniejszych produktów, które mają wielu producentów i tym samym standardem staje się to, co jest popularne. Doskonałym przykładem są przyciski membranowe do PCB.

W przełącznikach i przyciskach nie funkcjonuje system modułowy, który pozwala na ograniczenie liczby części składowych, taki, jaki funkcjonuje w złączach. Przeciwnie, w przypadku wielu produktów za jedną pozycją katalogową kryją się dziesiątki wersji różniących się kształtem dźwigni, kapturkiem, kolorem, stopniem ochrony, końcówkami łączeniowymi, kolorem podświetlenia. Utrudnia to dokonywanie wyborów, także zmianę produktu na inny, pochodzący od innego producenta, a także utrudnia promocję nowych rozwiązań.

Duża szerokość asortymentu jest też kłopotliwa od strony czasowej, bo stworzenie zamówienia długo trwa. Wyklikanie wszystkich elementów przełącznika zabiera dużo czasu, wymaga orientacji w tym, co pasuje do czego, które elementy tworzą daną serię produktów itd. W efekcie włożenie do koszyka jednego przełącznika z dodatkami za kilka złotych może zająć ponad pół godziny. Nie każdy ma tyle czasu, co ogranicza w jakimś kontekście promocję nowych rozwiązań.

Główne trendy techniczne

Za najważniejsze trendy techniczne ankietowani uznali dużą trwałość mechaniczną i elektryczną elementów przełączających, a w dalszej kolejności odporność środowiskową, a więc mówiąc ogólnie, zagadnienia związane z jakością. Na trzecim miejscu wypadła miniaturyzacja, która jest zjawiskiem zmieniającym całą współczesną technikę. Duża odporność środowiskowa także wiąże się z jakością i wskazuje, że rynek szybko dojrzewa, a wybory klientów są coraz bardziej świadome. Na koniec warto odnotować, że modułowość w przełącznikach, a więc możliwość komponowanie produktu przez wybór części składowych takich jak klawisz, kolor, podświetlenie, stale zyskuje na znaczeniu. Jest to już czwarta pozycja na wykresie.

Wandaloodporne przełączniki i klawiatury

Wandaloodporne przełączniki oraz klawiatury to specyficzny typ urządzeń, zaprojektowany z myślą o zastosowaniu w urządzeniach wystawionych na trudne warunki eksploatacji, obejmujące zarówno czynniki środowiskowe – kurz, wilgoć, wahania temperatur, jak i akty wandalizmu ze strony użytkowników – próby kradzieży oraz uszkodzenia. Zapotrzebowanie na tego typu komponenty pojawiło się kilka dekad temu wraz z upowszechnieniem się bankomatów oraz innego typu urządzeń elektronicznych przeznaczonych do użytku publicznego oraz wyposażonych w klawiatury. Ta sama technologia znajduje zastosowanie również w przypadku konstrukcji pojedynczych przycisków i przełączników, używanych np. w windach.

Istnieje wiele różnych sposobów konstrukcji wandaloodpornych komponentów, znakomita większość z nich ma jednak pewne cechy wspólne. Do najpowszechniejszych zaliczyć można: wytrzymałą obudowę ze stali nierdzewnej, aluminium lub wzmocnionego tworzywa sztucznego. Konstrukcja obudowy zabezpiecza elementy wewnętrzne (w tym układy elektroniczne) przed nieautoryzowanym dostępem, znacząco utrudnia też wszelkie próby uszkodzenia urządzenia. Poza tym większość wandaloodpornych układów charakteryzuje się również hermetycznością, zapewniającą odporność na czynniki środowiskowe, takie jak wilgoć oraz zapylenie. Ponadto przyciski wandaloodporne z reguły charakteryzują się małą wysokością. Jedynie nieznacznie (lub wcale) wystają ponad powierzchnię obudowy, co utrudnia wszelkiego typu manipulacje i modyfikacje ich konstrukcji. Często mają dodatkowe podświetlenie, które pozwala na korzystanie w warunkach ograniczonego oświetlenia zewnętrznego, jak również wyświetlające opis klawiszy w sposób uniemożliwiający zatarcie, zamazanie lub modyfikację poszczególnych znaków. Cechy te sprawiają, że elementy te są chętnie instalowane w aplikacjach przemysłowych i zakres ich użycia stale się poszerza. Oferta rynku też ewoluuje, mamy więcej takich elementów do wyboru, a ceny są już znacznie przystępniejsze niż dawniej.

=====

Moduły do komunikacji bezprzewodowej

Moduły komunikacyjne odgrywają kluczową rolę w zapewnieniu łączności między urządzeniami i maszynami oraz węzłami IoT. Realizują wymianę danych, umożliwiając urządzeniom skuteczną komunikację i interakcję. Obsługują różne technologie komunikacji bezprzewodowej, takie jak Wi-Fi, Bluetooth, LoRaWAN, ZigBee i oczywiście te do sieci komórkowych. Ich wszechstronność pozwala im obsługiwać całe spektrum aplikacji, od inteligentnych domów i automatyki przemysłowej, po opiekę zdrowotną i rolnictwo.

Cechą rynku modułów komunikacji bezprzewodowej jest ogromna różnorodność urządzeń, standardów, protokołów, wersji i wykonań. Co chwila pojawiają się nowe standardy i wersje, które rozwiązują problemy, które jeszcze chwilę wcześniej były dużym kłopotem (np. pobór mocy), dają lepsze parametry lub są lepiej powiązane z resztą infrastruktury w cały system. Rosnący stopień skomplikowania i zależności technologii oraz wspomniana szybka ewolucja niestety nie sprzyja dobrej orientacji klientów i utrudnia dokonywanie optymalnych wyborów. Mamy Wi-Fi, Bluetooth, moduły do sieci komórkowych, wersje RF na pasma ISM w dziesiątkach odmian i moduły do sieci LPWAN. Konstruktor ma do wyboru nie tylko kilka generacji sieci Wi-Fi i komórkowych oraz Bluetooth różniących się nie tylko przepustowością, ale i poborem mocy, z których nie wszystkie są ze sobą kompatybilne. Do dyspozycji są też inne rozwiązania otwarte i protokoły własnościowe. Wiele modułów komórkowych to wielosystemowe platformy z procesorem aplikacyjnym, pamięcią oraz wersje z wbudowanym odbiornikiem lokalizacyjnym lub Bluetooth albo Wi-Fi. Razem tworzy to ogromne możliwości i wybrać optymalne rozwiązanie do projektu staje się coraz bardziej skomplikowane.

Technologia 5G stała się faktem

Dostępność sieci komórkowej w technologii 5G w Polsce stała się faktem w ostatnich dwóch latach, gdyż po wielu problemach natury politycznej zakończyły się wielokrotnie zapowiadane i przekładane aukcje częstotliwości dla operatorów. Zmiana ta widoczna jest już w dostępnych usługach świadczonych przez operatorów, a abonamenty z opcją "5G" są codziennością. Faktem jest, że 5G w naszym kraju pojawia się stosunkowo późno, odnosząc to do innych krajów Unii Europejskiej, co ma wpływ na potencjał i tempo rozwoju rynku modułów komunikacyjnych w tym standardzie, gdyż aby rynek się rozwijała sprzedaż była możliwa, operatorzy muszą mieć gotową infrastrukturę. W tym kontekście należy pamiętać, że "5G" jest terminem bardzo pojemnym, jeśli chodzi o zakres dostępnych usług jak też o wykorzystywane pasma częstotliwości. Nie zawsze dostępność "5G" oznacza pełny zakres możliwości. Raczej, na etapie początkowym, jest to "fragment". Podobnie jest z zasięgiem, który na początku pojawia się w centrach dużych miast, potem dopiero jest rozszerzany na ich peryferia. Operatorzy podają, że docierają z usługami 5G "do połowy mieszkańców Polski" i że czekają ich dwa lata intensywnych inwestycji.

Operatorzy komórkowi w Polsce oferują usługi w sieci 5G od 2022 roku. Państwo nie udostępniło im jeszcze wtedy częstotliwości, które w Europie do tego celu wskazano (700 MHz, 3,6 GHz oraz 26 GHz), zatem w większości radzili sobie, dzieląc już posiadane zasoby od usług starszego typu np. Internetu LTE. Wyjątkiem był Polkomtel, który na 5G przeznaczył konkretne pasmo (2,6 GHz). Pasmo 3,6 GHz to tzw. pasmo pojemnościowe, co oznacza, że więcej urządzeń czy aplikacji może korzystać z nadajnika w tym samym czasie. Dopiero niedawno rozdysponowano pasmo 700 MHz między operatorów sieci komórkowych, operatora systemu łączności dla służb (PPDR, Public Protection and Disaster Relief) oraz organizatorów specjalnych wydarzeń masowych (PMSE). Pasmo 700 MHz ma inne właściwości: zapewnia zasięg sygnału na większym obszarze i potencjalnie do większej liczby domów i firm, stąd określane jest mianem "pokryciowego". Z punktu widzenia sprzedaży modułów 5G dostępność 700 MHz jest istotna, bo poszerza możliwości użycia. Sytuacja będzie jeszcze lepsza, gdy UKE rozdysponuje pasmo 800 MHz.

Istotne nowości w obszarze komunikacji bezprzewodowej

Zestawienie najbardziej istotnych trendów, produktów i technologii w zakresie komunikacji bezprzewodowej otwiera miniaturyzacja i niski pobór mocy, który jest wspólnym mianownikiem wielu nowych rozwiązań kierowanych do świata IoT, AMR i urządzeń mobilnych. Podobne wskazanie uzyskały nowe moduły do sieci 5G. Kolejne trzy pozycje o mniej więcej tym samym udziale procentowym to moduły dwa w jednym, moduły LTE niskich kategorii (a więc zapewniające mały pobór mocy kosztem wydajności) oraz nowe wersje Bluetooth.

2G/3G – decyzje operatorów są jednoznaczne

Świat telekomunikacji szybko się zmienia, stąd wielu operatorów sieci całkowicie wycofuje wsparcie dla technologii 2G. Nie jest ono używane przez zdecydowaną większość mobilnych urządzeń wykorzystywanych obecnie, a zapotrzebowanie klientów praktycznie nie istnieje poza obszarami wiejskimi. 3G szybko odchodzi do lamusa z bardzo podobnych powodów. Nowoczesne urządzenia wymagają wyższej przepustowości, niż może zapewnić 3G, a wspieranie tej technologii ma mało sensu dla nowoczesnego operatora. Chociaż wsparcie dla 3G na świecie jest znacznie większe niż dla 2G, dni tego standardu też są policzone.

Można przyjąć, że minimalny poziom możliwości komórkowych zapewniają sieci LTE, a w kolejnych latach będzie to sieć 5G. 5G zapewnia nie tylko większą wydajność, ale także pozwala na niezawodną komunikację dla wielu jednocześnie działających urządzeń, niskie opóźnienia, sieci prywatne i sieci typu NTN (z komunikacją satelitarną nie korzystające z nadajników naziemnych). 5G idzie więc wyżej, szerzej, a także zapewnia rozszerzone wsparcie dla urządzeń o ultramałym zużyciu energii i uproszczone implementacje protokołu (takie jak w LTE "niskie kategorie", NB, M).

Wiele z funkcji 5G będzie prawdopodobnie bezużytecznych do zastosowań M2M/ IoT/Embedded. Ogromna przepustowość może stanowić wyzwanie dla mikroprocesora, a pasma mikrofalowe niekoniecznie muszą zapewnić efektywność energetyczną. Prawdopodobnie minie jeszcze kilka lat, zanim na rynku pojawi się masowo produkowany, tani modem 5G o praktycznym zastosowaniu dla większości urządzeń IoT/M2M. Na razie ceny jednostek "5G" są dość wysokie.

Certyfikacja

Moduły komunikacyjne znacząco upraszczają konstrukcję urządzeń elektronicznych, gdyż dzięki nim konstruktor skupia się na zagadnieniach aplikacyjnych i użytkowych zamiast na realizacji toru radiowego, budowie protokołu, modulacjach itp. Poza wymienionymi aspektami dużą wartością dodaną jest certyfikacja, a więc zgodność modułów z wymaganiami dyrektywy RED i innych podobnych regulacji obowiązujących w pozostałych regionach świata jak FCC. Moduły muszą być też certyfikowane na zgodność ze standardem protokołu, wymaganiami sieci komórkowych, po to aby potrafiły działać z innym zgodnym sprzętem tworzącym infrastrukturę dostępową.

Z certyfikacją wiążą się opłaty, gdyż nierzadko rozwiązania związane z komunikacją są chronione patentami, których właścicielami są organizacje i firmy odpowiedzialne za rozwój standardu. Niewiele firm ma świadomość, że wprowadzając produkt na rynek, bierze odpowiedzialność za regulowanie opłat patentowych. Ze względu na tysiące zarejestrowanych patentów jest to szczególnie ważne w przypadku łączności komórkowej. Producenci modułów najczęściej lakonicznie odpowiadają na pytanie, czy prawa patentowe są przez nich opłacane (nie muszą ich opłacać, ale wtedy negocjacje z właścicielami patentów musiałby prowadzić klient końcowy, bo to on jest odpowiedzialny), najczęściej są opłacane, ale tylko ich niewielka część, o czym klient końcowy nie ma świadomości, a można zawsze ogólnie powiedzieć "tak, opłacamy".

Stan uregulowanych opłat patentowych jest zatem niełatwy do ustalenia i powinien być przedmiotem pytań do sprzedawcy oraz zawarty w treści zamówień, po to aby, w razie problemów, można było ustalić odpowiedzialność.

RedCap

Pierwsza publikacja standardu 5G skupiała się głównie na rozwiązaniu eMBB, dedykowanym przede wszystkim do urządzeń mobilnych, takich jak smartfony oraz tablety, gdzie istotne jest przede wszystkim zapewnienie wysokiej przepustowości sieci i dużej szybkości transmisji danych. Istnieje jednak duża grupa urządzeń, szczególnie istotna w rozwiązaniach przemysłowych, gdzie szybkość transmisji danych nie jest tak ważna, znacznie większe znaczenie odgrywa zaś koszt urządzenia oraz zużycie energii. Z myślą o tego typu produktach opracowany został standard Reduced Capability (RedCap). Standard ten, będący elementem technologii 5G, pozwala na osiągnięcie szybkości transmisji do 150 Mbit/s (downlink) oraz 50 Mbit/s (uplink). Stanowi swego rodzaju uzupełnienie dla trzech głównych przypadków użycia technologii 5G. Powstał z myślą o urządzeniach, które nie potrzebują tak dużej szybkości transmisji jak eMBB, ani tak niskich wartości opóźnień komunikacji jak URLLC. RedCap koncentruje się na zapewnieniu wysokiej energooszczędności oraz skalowalności sieci, jednak w sposób mniej restrykcyjny niż w przypadku mMTC. Jednym słowem, jest to swego rodzaju kompromis pomiędzy trzema skrajnymi przypadkami użycia technologii 5G.

Główna różnica pomiędzy charakterystyką standardów eMBB oraz RedCap to maksymalna szybkość transmisji danych, która jest ściśle powiązana z szerokością pasma transmisyjnego, w efekcie zaś wpływa na złożoność oraz koszt modułu komunikacyjnego. W przypadku eMBB szerokość pasma to 100 MHz (dla FR1, czyli zakresu częstotliwości poniżej 6 GHz), zaś dla RedCap jest to nie więcej niż 20 MHz. Dodatkowo, urządzenia eMBB mogą zwiększać szybkość transmisji poprzez złożone techniki modulacji (CA, Carrier Aggregation), które nie są wspierane w standardzie RedCap.

Dzięki ograniczeniu szerokości pasma komunikacyjnego oraz uproszczeniu sposobu kodowania i modulacji sygnału radiowego możliwe było znaczne ograniczenie kosztów modułów komunikacyjnych przeznaczonych dla układów RedCap w porównaniu do analogicznych komponentów w standardzie eMBB. Uproszczeniu uległ cały tor radiowy – od układu antenowego, poprzez ścieżki sygnałowe aż do układu odbiornika. Z tego powodu standard RedCap pozwala na upowszechnienie technologii 5G w urządzeniach IoT, które korzystały uprzednio ze starszych rozwiązań komunikacyjnych, jak np. technologii 4G.

Należy mieć jednak świadomość, że nie w każdym przypadku korzystanie ze standardów RedCap przyniesie wymierne korzyści. Przykładowo, jeśli urządzenie typu RedCap zostanie wykorzystane w aplikacji wymagającej cyklicznej transmisji dużej ilości danych, może to doprowadzić do znacznego wzrostu obciążenia sieci radiowej. Poprawna praca systemu może w takim przypadku wymagać rozbudowy pojemności sieci, co przełoży się na wzrost kosztów całego rozwiązania, nawet pomimo obniżenia kosztów pojedynczego urządzenia. Z tego powodu istotne jest zrozumienie możliwości i ograniczeń poszczególnych profili urządzeń opisanych w technologii 5G – w praktycznych zastosowaniach moduły standardu RedCap, szczególnie te niskobudżetowe, powinny być wykorzystywane przede wszystkim w urządzeniach przeznaczonych do wymiany ograniczonej ilości danych.

Główne trendy techniczne

Za najważniejsze trendy techniczne zmieniające rynek komunikacji bezprzewodowej uznano możliwość zdalnego zarządzania urządzeniami oraz dokonywania aktualizacji oprogramowania drogą radiową (FOTA) dzięki którym projektowanie rozproszonych sieci czujnikowych, IoT i podobnych rozwiązań staje się łatwiejsze a eksploatacja tańsza. Na drugim miejscu znalazł się niski pobór mocy, co jest uniwersalną wartością zmieniającą cały rynek elektroniki, a zwłaszcza technologie mobilne. Za znaczącą nowość uznano moduły SoM pozwalające na stworzenie aplikacji bez konieczności dodawania zewnętrznego hardware (MCU, pamięć), jak również coraz doskonalsze oprogramowanie projektowe przyspieszające i ułatwiające tworzenie aplikacji.

Do typowych obszarów zastosowań standardu RedCap zaliczyć można m.in. system typu smart home, urządzenia noszone (zegarki, opaski) oraz systemy pomiarowe.

Przyszłym kierunkiem ewolucji standardu RedCap będzie prawdopodobnie rozszerzenie wsparcia dla urządzeń o jeszcze niższych wymaganiach w zakresie pasma transmisyjnego, kosztu oraz zapotrzebowania energetycznego. Kolejnym kamieniem milowym w rozwoju tej technologii ma być standard eRedCap (enhanced RedCap), pozwalający na ograniczenie pasma radiowego wykorzystywanego przez pojedyncze urządzenie do 5 MHz. Standard ten zapewniać ma szybkość transmisji porównywalną do LTE Cat-1.

W ogólności RedCap ma na celu zapewnienie tańszej alternatywy dla modułów oferujących pełne wsparcie technologii 5G, jego zadaniem jest również zapewnienie łatwej i taniej ścieżki migracji z LTE do 5G dla wielu grup urządzeń korzystających uprzednio ze standardów LTE Cat-1 do LTE Cat-4. Istnieje jednak pewna grupa urządzeń, dla których wymagania energetyczne standardu RedCap są zbyt wysokie. Z myślą o tego typu produktach opracowywany jest nowy standard komunikacyjny w ramach technologii 5G – Ambient IoT (A-IoT).

Sieci LPWAN się rozwijają

Sieci LPWAN (Low-Power Wide-Area Network), to rozwiązania, gdzie przy małej przepustowości zapewniony został znacznie większy w porównaniu do innych standardów zasięg komunikacji. W warunkach krajowych oznacza to sieci LoRaWAN oraz LTE Cat. M / NB-IoT (Narrow-Band IoT) oraz opisane wyżej wersje 5G RedCap i LTE cat 1 Bis, które służą głównie do zbierania danych z rozległych aplikacji telemetrycznych. Typowe aplikacje, jak liczniki wody, gazu czy ciepła, systemy alarmowe, czujniki zadymienia, śledzenie ludzi i zwierząt, produkty AGD, kontrola dostępu do budynku, sterowanie oświetleniem, różnego rodzaju czujniki, np. stacje meteorologiczne itp., nie potrzebują większych wydajności, stąd LTE niskiej kategorii może być dobrym pomysłem.

======

Przekaźniki elektromagnetyczne

Zastosowanie przekaźników elektromagnetycznych jest koniecznością w rozwiązaniach inteligentnych budynków, projektach stacji ładowania samochodów elektrycznych i pomp ciepła. Niezmiennie duże zapotrzebowanie na przekaźniki generują systemy BMS, HVAC, rynek AGD, automatyka czy energetyka. Rozwój rynku przekaźników determinują głównie zastosowania przemysłowe, co wynika po prostu z tego, że niezmiennie od lat ta branża jest czołowym odbiorcą tych komponentów, wykorzystując je w instalacjach, urządzeniach i maszynach oraz systemach automatyki przemysłowej.

Wiele krajowych firm produkuje i eksportuje urządzenia dla przemysłu, takie jak sterowniki, regulatory, urządzenia pomiarowe, styczniki, systemy bezpieczeństwa i nadzoru. Rośnie nieustannie skomplikowanie procesów wytwarzania, które wykorzystują coraz więcej urządzeń i sprzętu technicznego. W ramach inwestycji i modernizacji starszych zakładów i linii produkcyjnych kupowane są nowe maszyny i budowane do nich instalacje i systemy. Takie aktywności leżą u podstaw popytu na omawiane elementy.

Najważniejsze zjawiska pozytywne dla rynku

Listę najważniejszych czynników pozytywnie wspierających rynek otwiera szeroki asortyment dostępnych produktów, pozwalający dobrać element przełączający bez konieczności kompromisu. Kolejne miejsce to coraz większe znaczenie jakości, zwiększające się wymagania (potrzeby) klientów. Czwarta pozycja to szeroki i chłonny rynek. Wysokiej jakości produkty zapewniają trwałość projektów oraz ich bezusterkowość, a co za tym idzie, reklamacje oraz ewentualne zwroty lub koszty serwisu są sprowadzone do minimum, co pokazuje, że wiele kryteriów można sprowadzić do małych kosztów posiadania.

Przepięcia, prądy udarowe, komutacja obwodów dużej mocy w sieciach trójfazowych załączanie elementów indukcyjnych, jak silniki oraz elektromagnesy, to przykłady aplikacji, które są sterowane przede wszystkim za pomocą przekaźników elektromagnetycznych. Elementy te są odporne na stany nieustalone, wyładowania, zapewniają doskonałą izolację w stanie otwartym, mają małe pojemności własne, minimalną rezystancję przejścia, a więc z punktu widzenia inżyniera i projektanta zapewniają niezawodną komutację. Co więcej, klasyczne przekaźniki zapewniają tolerancję na przeciążenia, bo przekroczenie napięć lub prądów, nawet znaczne, nie powoduje od razu uszkodzenia, ale przenosi się jedynie negatywnie na trwałość. Podczas obsługi technicznej taki naruszony element można wymienić i zapewnić nieprzerwane prawidłowe działanie przez lata.

Janusz Komecki

dyrektor zarządzający w firmie Dold

Jaka jest obecnie sytuacja w przekaźnikach, patrząc z Waszej perspektywy na rynek?

Przekaźniki produkowane przez naszą firmę to w większości przekaźniki z wymuszeniem prowadzenia styków, tzw. safety, do wymagających aplikacji, a więc tam, gdzie liczy się przede wszystkim niezawodność. Przekaźniki marki Dold trafiają do aplikacji w branży kolejowej, sterowania ruchem, budowy pojazdów specjalnych, techniki okrętowej, sterowania windami i robotyki. Jednym z najważniejszych sektorów są układy bezpieczeństwa maszyn, gdzie stosowanie przekaźników safety jest obligatoryjne.

Wraz z popularyzacją przekaźników półprzewodnikowych niektórzy prognozowali zmierzch tradycyjnych przekaźników elektromechanicznych. Okazuje się jednak, że obie technologie mają w pewnych aspektach swoje zalety i mogą koegzystować na rynku. Co więcej, dostępne są rozwiązania hybrydowe łączące zalety obu technologii, jak np. IK3070/200 produkcji firmy Dold.

Produkcja przekaźników pod względem kosztowym jest bardzo powiązana z cenami metali szlachetnych. Znaczny w ostatnich latach wzrost ceny złota oraz miedzi ma istotny wpływ na ceny produktów ze względu na duży udział tych surowców w wyrobie gotowym. Na szczęście skończyły się problemy ogólne z pozyskiwaniem surowców, z którymi mierzyliśmy się w okresie pandemii. Wiążemy duże nadzieje na wzrost rynku wysokiej jakości przekaźników w związku z realizowanymi dużymi projektami infrastrukturalnymi w kolejnictwie oraz energetyce, a także w rozwiązaniach elektromobilnych.

Rozwój rynku

Rozwój rynku przekaźników determinują głównie zastosowania przemysłowe, co wynika po prostu z tego, że niezmiennie od lat branża ta jest wiodącym odbiorcą tych komponentów, wykorzystując je w instalacjach, urządzeniach i maszynach oraz komponentach automatyki przemysłowej. Wiele krajowych firm produkuje i eksportuje urządzenia dla przemysłu, takie jak sterowniki, regulatory, urządzenia pomiarowe, systemy bezpieczeństwa i nadzoru. Rośnie nieustannie skomplikowanie procesów wytwarzania, które wykorzystują coraz więcej urządzeń i sprzętu technicznego. W ramach inwestycji i modernizacji starszych zakładów i linii produkcyjnych kupowane są nowe maszyny i budowane do nich instalacje i systemy. W wielu z nich gdzieś jest zwykle jakiś przekaźnik.

Poza przemysłem strumień sprzedaży tworzą też elektronika profesjonalna, energoelektronika, motoryzacja, systemy alarmowe. Nie są to filary rynku odpowiedzialne za zbyt, ale z pewnością mające znaczenie. Niemniej rynek AGD wyraźnie stracił na znaczeniu, co jest skutkiem ekspansji przełączników elektronicznych i popularyzacji sterowania silnikami z wykorzystaniem falowników. Motoryzacja też nie jest już tak dużym odbiorcą jak dawniej, niemniej nadal w każdym samochodzie jest ich kilkanaście. Do tego dochodzą elementy w produktach powiązanych, np. w ładowarkach.

Najważniejsze czynniki negatywne dla rynku

Listę problemów dla branży otwiera pozycja związana z silną konkurencją na rynku przekaźników w kraju wynikającą z wielu firm aktywnych w tej branży oraz dużej popularności takich elementów, a dalej oszczędności i cięcia kosztów u klientów. Negatywnym czynnikiem są też kiepskie produkty dalekowschodnie, niestabilna sytuacja geopolityczna oraz ogólny wzrost kosztów działalności gospodarczej i cen. Wspólnym mianownikiem dla prezentowanego wykresu są czynniki ekonomiczne.

Wiele parametrów do rozważenia

Podstawowe cechy przekaźników od strony technicznej to: napięcie znamionowe cewki, liczba i konfiguracja styków i ich obciążalność prądowo- -napięciowa. Ważną rzeczą jest wybór materiału, z którego wykonane są styki, gdyż wpływa to na żywotność przekaźnika i jego cenę. W dalszej kolejności przy doborze odpowiedniego komponentu liczą się takie cechy jak trwałość przełączeniowa, odporność na udary, parametry cewki (pobór mocy), minimalna moc przełączana i napięcie. Bardzo ważna jest wysoka niezawodność potwierdzona wieloma certyfikatami i uznaniami międzynarodowymi: UL, CSA, cURUs, EAC i normami branżowymi, jakimi są np. dla przemysłu stoczniowego DNV, GL.

Bartłomiej Szydłowski

dyrektor handlu i marketingu w firmie Relpol

Jakie zjawiska na rynku przekaźników warto wymienić?

W ostatnich latach rynek przekaźników rozwija się bardzo dynamicznie, a głównym trendem jest miniaturyzacja przy zachowaniu wysokich parametrów elektrycznych i mechanicznych. W branżach rozwijających się najszybciej, takich jak elektromobilność i OZE, trwa wyścig o stworzenie przekaźników łączących małe wymiary z dużymi mocami łączeniowymi, odpornością na temperaturę i długą trwałością. Równocześnie rozwijane są cewki niskomocowe i materiały stykowe o wysokiej trwałości. Coraz większe znaczenie mają certyfikaty międzynarodowe, w tym zwłaszcza UL, które potwierdzają parametry w autoryzowanych laboratoriach. Zgodność z normami środowiskowymi i bezpieczeństwa, takimi jak RoHS, REACH, staje się standardem eliminującym wyroby bez odpowiednich atestów.

Wzrosło także zapotrzebowanie na opakowania przekaźników dostosowanych do automatycznych podajników, co pozwala ograniczyć koszty i przestoje w procesach montażu. Jednocześnie rynek odczuwa coraz silniejszą presję cenową wynikającą z rosnącej liczby producentów z Dalekiego Wschodu oferujących konkurencyjne cenowo wyroby. Obecnie sukces na rynku przekaźników zależy nie tylko od samego produktu, lecz także od pakietu obejmującego innowacyjną konstrukcję, certyfikaty, dostępność, jakość oraz cenę.

Od strony aplikacyjnej ważne są wymiary przekaźnika i sposób jego montażu, obudowa, zakres temperatur pracy, a także odporność środowiskowa i zabezpieczenia konstrukcyjne przekaźnika, co można tłumaczyć jako zdolność do pracy w trudnych warunkach otoczenia, np. przy obecności wibracji.

Specjalną kategorię do rozważenia tworzą przekaźniki przeznaczone do łączenia obwodów napięcia stałego o dużej wartości, z uwagi na trudne warunki do gaszenia łuku elektrycznego w takim przypadku. Elementy takie mają styki wykonane z AgCdO i systemy wydmuchu magnetycznego łuku z grzebieniowym gasikiem, które dają gwarancję długiej i niezawodnej pracy. Kryteriów selekcji jest mnóstwo.

Najważniejsze cechy przekaźników brane pod uwagę przy kupnie

Trzy kryteria wyraźnie wybijają się ponad resztę w zestawieniu najważniejszych cech ofert handlowych w zakresie przekaźników elektromagnetycznych: cena oraz jakość i niezawodność. Nieco mniejsze wskazanie, ale nadal bardzo duże mają marka producenta oraz krótki termin dostawy. Cena i jakość zawsze plasują się na górnych pozycjach tego typu zestawień, stąd też wykres nie zaskakuje. Zainteresowanie jakością to efekt zmian w całej technice w ostatnich dwóch dekadach, podobnie jak marka oraz kompetencje dostawcy. Jeśli dany producent istnieje na rynku od wielu lat, ma kompetentnych dystrybutorów, jego marka jest znana i ma pewną renomę na rynku, wówczas klienci przychylniej oceniają takie produkty.

Podział produktowy i terminologia branżowa

Poszukiwanie przekaźnika oraz sprawne poruszanie się po katalogach producentów wymaga ponadto zwrócenia nieco uwagi na terminologię. Powszechnie stosowany termin "przekaźnik miniaturowy" oznacza zwykle element o średniej wielkości i obciążalności, przeznaczony do montażu na płytce drukowanej. Takie wersje przeznaczone są do załączania obciążeń od 5 do 10 A przy napięciu sieci 230 V AC i zawierają jedną lub maksymalnie dwie pary styków. Z punktu widzenia elektroników to raczej nie jest "miniaturowy" element. Te małe to "przekaźniki subminiaturowe". Są to elementy przeznaczone do montażu na płytkach drukowanych w wersjach THT i SMD. Ich prąd przewodzenia styków zawiera się typowo w zakresie do 2 A, napięcia pracy sięgają 120 V, a więc nie są to elementy przeznaczone do pracy z napięciem sieci energetycznej. To takie typowe przekaźniki do aplikacji w elektronice, do pracy z małymi sygnałami o wielkości kondensatora elektrolitycznego lub złącza.

Druga uwaga dotyczy styków. To, co elektronicy nazywają stykami, formalnie producenci nazywają zestykami. Formalnie styk to element z materiału kontaktowego, który realizuje połączenie obwodu elektrycznego. Razem z dźwignią i mechanizmem ruchu ten kontakt tworzy zestyk. W świecie elektroniki "zestyk" nie istnieje, stąd w zapytaniach ofertowych warto pamiętać o tej różnicy pojęciowej, aby uniknąć nieporozumień.

Przekaźniki o największym potencjale rynkowym

Mimo dużego znaczenia branży przemysłowej za najbardziej dochodowe typy przekaźników uznano wersje miniaturowe, które wyprzedziły rozwiązania przemysłowe i aplikacyjne. To w dużej mierze wynik specyficznej terminologii branżowej, gdyż wersje miniaturowe nie są tymi małymi przekaźnikami, które elektronicy montują na płytkach drukowanych. Takie to wersje "subminiaturowe", zaś terminem "miniaturowe" określa się większe rozwiązania, które wielu elektroników nazwałoby bez namysłu "przemysłowymi". Mówiąc o przekaźnikach (wielkości, stykach), trzeba uważać, do kogo kierujemy swój przekaz, aby zostać dobrze zrozumianym.

Jak wspomniano, bardzo ważna grupa produktowa to przekaźniki przemysłowe. Mają one jeszcze większe wymiary niż miniaturowe, zwykle są one przeznaczone do montażu w podstawce lub mają końcówki do lutowania lub pod konektory. Zawierają kilka par styków o dużej obciążalności, mogą włączać obciążenia indukcyjne, pracują przy napięciu do 400 V AC. Wyróżniają się odpornością, trwałością, użytecznymi dodatkami, takimi jak przycisk testowy lub kontrolka oraz wzmocnioną izolacją między cewką a stykami. Warto zauważyć, że przekaźniki przemysłowe zamykane są zwykle w przezroczystych obudowach po to, aby można było łatwo ocenić ich stan techniczny. W innym wykonaniu są one w wersji na szynę DIN.

Oddzielną kategorię przekaźników tworzą styczniki. Jest to specjalizowany przekaźnik dużej mocy przeznaczony do pracy w aplikacjach przemysłowych i energoelektronicznych. Styczniki są komponentami przeznaczonymi do montażu w obudowie lub na szynie DIN i mają obudowę, która pozwala na zamocowanie w chassis. Są przeznaczone do łączenia dużych obciążeń, o mocy nawet wielu kilowatów, a więc silników, grzejników, systemów oświetlenia przemysłowego i obiektowego. Styczniki są łączone przewodami o dużym przekroju i mają wyprowadzenia przystosowane do montażu grubych kabli. Ich cewka z reguły jest zasilana napięciem 24 V DC lub napięciem przemiennym 230 V AC . Zawierają kilka styków, typowo trzy duże pary styków dla trzech obwodów fazowych.

Główne problemy rynku

Największym problemem dla rynku przekaźników jest nienajlepsza sytuacja w gospodarce europejskiej i krajowej, a w dalszej kolejności rosnące koszty działalności, tj. materiałów, pracy i energii. Wpływ wojny na Ukrainie, warunków na rynku motoryzacyjnym oraz sytuacja w Chinach nie zostały w tym obszarze biznesu wskazane jako bardzo ważne. Warto zwrócić uwagę, że kiepska sytuacja w gospodarce europejskiej została oceniona jako czynnik dużo ważniejszy od rynku krajowego. Od wielu lat sprzedaż usług i produktów na eksport, praca na rzecz firm z Europy Zachodniej były dla wielu polskich firm ważną częścią biznesu i łagodziły wahania koniunktury w kraju. Ten czynnik dzisiaj nie oddziałuje tak znacząco na rynek, bo za granicą sytuacja wcale nie jest lepsza.

Rosnący asortyment wersji specjalistycznych

Do niedawna przekaźnik był postrzegany jako coś bardzo uniwersalnego, czego można było używać w zasadzie dowolnie, obecnie okazuje się, że czasem warto sięgnąć po rozwiązanie aplikacyjne. Przykładem mogą być wersje solarne, zdolne do komutacji obwodów mocy prądu stałego, rozwiązania odporne na uderzenia prądu udarowego, o podwyższonej odporności izolacji, bistabilne i podobne.

Najważniejsze trendy w przekaźnikach

Miniaturyzacja przekaźników została uznana za najważniejsze zjawisko techniczne zmieniające rynek przekaźników. Wszystkie urządzenia elektroniczne z każdą kolejną generacją są coraz mniejsze i jednocześnie bardziej złożone. Jest ich też w naszym otoczeniu coraz więcej, przez co miejsca na płytkach drukowanych, w obudowach, szafach instalacyjnych jest coraz mniej. Mamy coraz więcej sprzętu przenośnego, stąd rynek cały czas oczekuje produktów mniejszych, bez względu na obciążalność, moc wyjściową lub napięcie robocze. Mały pobór mocy przez cewkę elektromagnesu także wpisuje się w to zjawisko wraz ze zwiększającym się udziałem elektroniki mobilnej i sprzętu zasilanego z baterii. Przekaźnik ma pobierać mało mocy po to, aby się nie nagrzewać, nie wpływać negatywnie na zużycie energii i także aby w porównaniu do wersji półprzewodnikowych był możliwe najbardziej funkcjonalny.

Producenci eksperymentują też z wersjami hybrydowymi przekaźników, takimi, gdzie łączy się przekaźnik elektromechaniczny z półprzewodnikowym. Celem jest poprawa trwałości, ograniczenie nagrzewania lub zapewnienie tolerancji prądu rozruchowego o dużej wartości.

Warto też dostrzec, że rośnie liczba przekaźników z wbudowaną elektroniką do montażu na szynie DIN. W przypadku konieczności realizacji niezbyt skomplikowanych funkcji sterowania atrakcyjnym rozwiązaniem są przekaźniki programowalne, czyli znacznie tańsze i mniejsze odpowiedniki sterowników PLC i mikro PLC.

Branże o największym potencjale zakupowym

Pierwsza i wyraźnie dominująca nad całą resztą pozycja przemysłu razem z energetyką na liście branż o największym potencjale zakupowym dla przekaźników nie jest zaskoczeniem, gdyż dla tych komponentów klienci z tej grupy są najważniejsi. Kolejne trzy pozycje, tj. elektronika konsumencka, motoryzacja oraz elektronika profesjonalna (np. wojskowa), mają wyraźnie mniejsze znaczenie i zostały ocenione podobnie. Z uwagi na uniwersalność przekaźników i powszechność ich użycia w wielu aplikacjach wykres można traktować jako potencjał zakupowy poszczególnych branż w realiach Polski bez precyzowania, czego on dotyczy.

Do ich głównych zastosowań zaliczyć można systemy automatyki budynkowej (m.in. sterowanie oświetleniem, ogrzewaniem oraz klimatyzacją), kontroli dostępu oraz niewielkie instalacje przemysłowe.

To także wersje czasowe, nadzorcze, wykrywające brak fazy, włączające oświetlenie na noc itp. Są to takie rozwiązania klasy "małej automatyki". Świetnie sprawdzają się wszędzie tam, gdzie potrzebna jest realizacja prostych funkcji automatyki – przede wszystkim w systemach z ograniczoną liczbą wejść/wyjść oraz brakiem konieczności działania w sieci. Takie przekaźniki zawierają często zasoby, takie jak timery, liczniki, zegar czasu rzeczywistego, komparatory oraz potencjometr. Ograniczona funkcjonalność przełączników programowalnych z jednej strony jest ich zaletą – pozwala zredukować koszt tych urządzeń, z drugiej zaś stanowi pewną wadę – systemy oparte o tego typu urządzenia nie są zbyt otwarte na możliwości dalszej potencjalnej rozbudowy.

Mniejszy pobór mocy przez cewkę to już standard

Miarą postępu technicznego w przekaźnikach jest też coraz mniejszy pobór mocy przez cewkę elektromagnesu. Jest to stały trend, dotykający coraz szerszej grupy produktów, który wiąże się nie tylko z efektywnością energetyczną urządzeń, ale także jakością i trwałością i kluczowymi parametrami, takimi jak zakres temperatur pracy. Niski pobór mocy przez elektromagnes to wynik użycia zaawansowanych materiałów konstrukcyjnych oraz dopracowania konstrukcji mechanicznej. Mniejsza siła elektromagnesu będzie wystarczająca, gdy tor magnetyczny będzie miał jak najmniejszą szczelinę na dźwigni, a styki nie będą wymagać silnego docisku. Przykładem może być zastąpienie docisku sprężynowych styków za pomocą dźwigni (kotwicy) mechanizmem suwakowym, minimalizacja zakresu ruchu kotwicy, większa precyzja wykonania (mniejsze tolerancje wymiarowe) i podobne.

==========

Zamienniki komponentów elektronicznych

Dostępność pojedynczego elementu elektronicznego może zadecydować o sukcesie lub porażce projektu. Jeżeli jest on niezbędny, ale jest zbyt drogi w stosunku do założonego budżetu, długi czas oczekiwania na jego dostawę jest nie do zaakceptowania albo wycofano go ze sprzedaży, bo nie opłaca się go produkować lub nie ma już takiej technicznej możliwości, trzeba znaleźć zamiennik.

Łańcuchy dostaw w branży elektronicznej cechuje ciągła zmienność. Zapasy podzespołów stale się wahają, na co wpływa wiele czynników. Zaczyna ich brakować, na przykład jeżeli ich status ulega zmianie na "przestarzały" (obsolete). Oznacza to, że nie są już produkowane. Gdy komponent staje się przestarzały, stanowi to wyzwanie dla producentów urządzeń, których jest częścią, szczególnie jeżeli ma on krytyczne znaczenie dla ich funkcjonalności.

Przestarzałość elementu prowadzi do opóźnień i kosztów spowodowanych szukaniem zamienników i, jeżeli jest to konieczne, przeprojektowaniem urządzenia w celu dostosowania go do dostępnych części. Według firmy Flip Electronics, która zajmuje się dystrybucją podzespołów elektronicznych, koszt przeprojektowania urządzenia z powodu przestarzałości jego elementów może się wahać od kilkudziesięciu tysięcy do nawet kilku milionów dolarów.

Rezerwy na przestarzałość

Zwykle zmiany, których wprowadzenia wymaga zastąpienie wycofanych z rynku komponentów pasywnych, takich jak diody, są tańsze, ale wymiana mikroprocesora albo mikrokontrolera może znacząco zwiększyć koszty przeprojektowania. W związku z tym dobrą praktyką jest rezerwowanie jakiejś części budżetu projektu na zarządzanie ryzykiem przestarzałości. Przykładowo w przypadku producentów części lotniczych jest to średnio aż 10%, jak szacuje CALCE (Center for Advanced Life Cycle Engineering) na Uniwersytecie Maryland.

Kosztowne jest jednak również desperackie trzymanie się przestarzałych komponentów. Okazuje się bowiem, że ceny podzespołów elektronicznych, których produkcji już zaprzestano, ale można je jeszcze kupić, gdyż zostały "zachomikowane" przez dystrybutorów lub firmy, które specjalizują się w skupywaniu zawczasu takich zagrożonych wycofaniem elementów, są nawet kilkanaście razy wyższe. Przykładowo układy scalone, które można było kupić za 3 dol. za sztukę wtedy, kiedy były łatwo dostępne, po wycofaniu z produkcji kosztować mogą nawet 40 dol. za sztukę.

Powody wycofania z rynku

Status podzespołów może zostać zmieniony na przestarzały z kilku powodów. Producenci decydują się na wycofanie ich z rynku z powodu niskiego popytu i/albo rosnących kosztów materiałów i/lub technologii. W obu przypadkach ich produkcja przestaje być opłacalna.

Według raportu Obsolescence Trends in 2024 opracowanego przez Z2Data przeszło trzy czwarte wszystkich zmian statusu komponentów na przestarzały było skutkiem niskiego popytu na nie. To znaczny odsetek, który świadczy o tym, że to producenci OEM i inni klienci, a nie sami producenci podzespołów elektronicznych tak naprawdę napędzają ich starzenie się.

Jest ono też skutkiem postępu. Wraz z rozwojem technologii opracowywane są nowe komponenty, lepsze pod względem parametrów i/lub funkcjonalności niż te starsze.

O zawrotnej szybkości postępu przypomina prawo Moore’a, zgodnie z którym liczba tranzystorów w układach scalonych podwaja się co dwa lata. Chociaż kwestionuje się, czy ta zależność wciąż obowiązuje, nie ulega wątpliwości, że technologia produkcji półprzewodników nie zwalnia tempa, o czym świadczy sukcesywnie malejący wymiar charakterystyczny, z 7 nm w 2018 roku do 2 nm w 2024.

Poza tym produkcja komponentu elektronicznego ma sens tylko wówczas, gdy produkty, w których jest używany, również są nadal w sprzedaży. Tymczasem, w reakcji na nasilającą się konkurencją i rosnące oczekiwania klientów, producenci urządzeń docelowych wprowadzają na rynek ich kolejne generacje z rosnącą częstością. Dotyczy to głównie elektroniki użytkowej, smartfonów, laptopów i konsol do gier wideo, jak również samochodów i urządzeń gospodarstwa domowego. Przykładowo Apple ogłasza nową generację iPhone’a każdego roku, a producenci samochodów wprowadzają na rynek gruntowne przeróbki modeli aut średnio co pięć lat, a nawet w jeszcze krótszych odstępach czasu. W miarę jak nowe urządzenia zastępują swoich poprzedników, wiele ich części również staje się przestarzałych.

Konkurencja i przepisy

Oprócz tego, jeżeli komponent, który jest bardzo popularny jest w sprzedaży wystarczająco długo, często konkurencyjni producenci wprowadzają na rynek jego zamiennik, sprzedając go w niższej cenie. Pozwala im na to na przykład przeniesienie zakładu produkcyjnego do tańszej lokalizacji. Dzięki temu uzyskują udział w rynku elementu osiągającego dobre wyniki sprzedaży. Skutkiem ubocznym tego jest spadek popytu na część będącą pierwowzorem, co ostatecznie prowadzi do jej wycofania z rynku.

Kolejnym czynnikiem są zmiany w przepisach. Można to było zaobserwować już wielokrotnie. Znaczący wzrost liczby komponentów wycofanych z rynku odnotowano na przykład, kiedy w 2006 roku weszła w życie dyrektywa Unii Europejskiej w sprawie ograniczenia stosowania substancji niebezpiecznych (RoHS), która ograniczyła stosowanie w elementach elektronicznych materiałów takich jak ołów, rtęć oraz kadm. Podobny skutek miało wprowadzenie unijnego rozporządzenia w sprawie rejestracji, oceny, udzielania zezwoleń i ograniczeń w zakresie chemikaliów (REACH) w 2010 roku. Można się spodziewać utrzymania tego trendu, w miarę jak przepisy będą zaostrzane.

Częstym powodem są zakłócenia w łańcuchu dostaw spowodowane klęskami żywiołowymi, takimi jak trzęsienie ziemi w Noto w Japonii w 2024 roku i sytuacją geopolityczną, która skutkuje na przykład ograniczeniami w handlu technologiami między USA a Chinami.

Według raportu Obsolescence Trends in 2024 firmy Z2Data w 2022 roku status na przestarzały zmieniono dla prawie 750 tys. części elektronicznych. W 2023 roku było ich mniej, bo ponad 328 tys., ale w zeszłym roku znów odnotowano wzrost liczby komponentów wycofanych ze sprzedaży, do ponad 470 tys. części. Generalnie zatem średnio rocznie za przestarzałe uznaje się setki tysięcy elementów, dla których trzeba znaleźć zamienniki, jeśli w projektach są wciąż niezbędne.

Rodzaje zamienników

W założeniu jest to proste – wystarczy wyszukać komponent w zastępstwie. W praktyce jednak nie zawsze jest to łatwe. Przede wszystkim należy na wstępie zdecydować, jakiego rodzaju zamiennika szukamy. Generalnie wyróżnia się trzy ich typy: komponenty równoważne, elementy alternatywne oraz zamienniki typu drop-in. Te ostatnie są wariantami wycofanego elementu, o takich samych parametrach elektrycznych, obudowie, wyprowadzeniach, co pierwowzór.

Za równoważny uznawany jest komponent o identycznych albo prawie takich samych parametrach elektrycznych, jak poszukiwany element. Może to być wariant oryginalnego podzespołu od tego samego producenta, ale o innej nazwie katalogowej, może mieć inną obudowę lub dodatkowe albo zmienione (ulepszone) funkcje.

Komponent alternatywny nie ma takich samych parametrów elektrycznych, wymiarów ani funkcji jak poszukiwany element, ale może zostać skonfigurowany tak, żeby realizował wymagane zadania w projekcie w jego zastępstwie. Jest to zatem część zamienna o innych parametrach i/albo funkcjach, która jednak pozwala zrealizować zakładaną funkcjonalność.

Zwykle, jeżeli chodzi o elementy pasywne, można znaleźć zamiennik drop-in od innego producenta lub komponent równoważny w innej obudowie. Jeśli się to jednak nie uda, zazwyczaj łączy się wiele podzespołów szeregowo lub równolegle, by uzyskać wymaganą wartość docelową. Tranzystory to z kolei przeważnie komponenty na tyle powszechne, że łatwo można znaleźć elementy równoważne w innej obudowie albo komponenty alternatywne, o lepszych parametrach elektrycznych w takiej samej obudowie. Elementy półprzewodnikowe, jak diody, również są dość popularne i występują w standardowych obudowach w ofercie wielu producentów.

Układy scalone o małej liczbie pinów, jak stabilizatory, wzmacniacze, układy logiczne, są zazwyczaj dostępne w standardowych obudowach, a ich zamienniki dostarcza wielu producentów. Elementy równoważne trudno jest natomiast znaleźć dla układów scalonych o specyficznej funkcjonalności, choć często sam ich producent zapewnia dla nich zamiennik drop-in. Unikalne elementy zazwyczaj nie mają zamienników ani odpowiedników, ich wycofanie z rynku wiąże się zatem z koniecznością przeprojektowania urządzenia.

Jak znaleźć alternatywę?

Szukając zamienników, można skorzystać z różnych narzędzi. Takim są wyszukiwarki podzespołów elektronicznych zintegrowane z oprogramowaniem do projektowania płytek drukowanych. Warto również sprawdzić stronę internetową producenta oryginalnego komponentu w celu uzyskania listy polecanych przez niego alternatywnych przestarzałego podzespołu.

Poza tym można skorzystać z narzędzi wyszukiwania parametrycznego na stronach internetowych dystrybutorów komponentów elektronicznych, aby filtrować podzespoły na podstawie określonych parametrów, jak zakres napięć, prądu i typ obudowy. Pomaga to znaleźć komponenty elektroniczne o podobnych specyfikacjach. Często też wprost dla danego elementu wyświetlane są proponowane alternatywy. Taką funkcjonalność oferują też wyszukiwarki komponentów elektronicznych, których przykładem jest witryna FindChips dostępna pod adresem https://www.findchips.com.

========

Wyświetlacze i elektroniczny papier

Wyświetlacze są od lat komponentem bardzo atrakcyjnym dla rynku dystrybucji, gdyż sektor wizualizacji informacji dynamicznie rozwija się ze względu na wszechobecną cyfryzację i konieczność prezentacji coraz większej ilości danych. Wysokorozdzielczy, jasny i kontrastowy wyświetlacz z ekranem dotykowym jest dzisiaj centralnym elementem wielu urządzeń elektroniki profesjonalnej i razem z mikrokontrolerem jest pierwszym komponentem, który wybiera się do nowych projektów.

Do pozytywnych zjawisk rynkowych zapisać można ciągłą popularyzację graficznych interfejsów użytkownika.

Najważniejsze cechy wyświetlaczy brane pod uwagę przy selekcji ofert

Zestawienie najważniejszych cech ofert handlowych branych pod uwagę przy kupnie wyświetlaczy niczym nie zaskakuje. Trzy górne pozycje, a więc cena, parametry i jakość wykonania, stanowią uniwersalny zestaw, który można przypisać wielu produktom, stąd jest to raczej cecha rynku, a nie tego produktu. Czwarta pozycja – krótki termin dostawy – zawsze na takich wykresach lokowała się gdzieś na dole, ale od kilku lat zyskała wyraźnie na znaczeniu na skutek kłopotów z dostępnością towaru, które jeszcze całkiem nie ustąpiły. Długa dostępność produktu na rynku (longevity) to po części efekt tego, że wiele urządzeń wytwarzanych w kraju ma charakter specjalistyczny z czasem życia znacznie dłuższym niż dla sprzętu konsumenckiego. Klienci zwracają na to dzisiaj większą uwagę, bo w ostatnich dwóch latach "longevity" dla wielu produktów wyraźnie zmalało.

Coraz częściej korzysta się z urządzeń poprzez bezpośrednie interakcje użytkownika z wyświetlaczem. Funkcja sterowania dotykowego jest już praktycznie koniecznością w nowych projektach, gdyż decydujące są przyzwyczajenia klientów, którzy oswoili się ze sprzętem mobilnym na tyle, że oczekują zawsze podobnej funkcjonalności w każdym przypadku. Wspomagają działanie wyświetlaczy też czujniki obecności i kamery do rozpoznawania gestów. Oczywiście graficzny interfejs użytkownika jest dzisiaj standardem. Razem z panelem dotykowym otwiera drzwi do wielu branż, np. inteligentnego budynku, systemów bezpieczeństwa i ochrony mienia, branży reklamy, no i oczywiście do przemysłu, czyli sektora najbardziej wartościowego w naszym kraju.

Dla klientów, głównym kryterium wyboru wyświetlacza coraz częściej przestaje być cena, natomiast kwestią najważniejszą stają się jego parametry, między innymi przekątna ekranu, rozdzielczość, jasność czy kąt widzenia. W przypadku wyświetlaczy stosowanych w urządzeniach przenośnych, olbrzymie znaczenie odgrywa pobór mocy. Bardzo ważnym czynnikiem przy doborze wyświetlacza jest także jego żywotność. Jest to bardzo ważna cecha w aplikacjach przemysłowych i medycznych. Po stronie biznesowej należy pamiętać, że klient zawsze oczekuje jak najlepszego stosunku jakości do ceny, ale także jak najkrótszych terminów dostaw i profesjonalnych warunków współpracy z dystrybutorem. To są zawsze aktualne i niezmienne od lat kamienie milowe rynku.

Maciej Kure

field sales engineer w firmie Gamma

Czego oczekują klienci zaopatrujący się w wyświetlacze? Jakie nowości i trendy są warte zauważenia?

Coraz częstszym zjawiskiem jest chęć posiadania w swoim produkcie wyświetlacza o bardzo dobrych parametrach optycznych. W firmach projektowoprodukcyjnych przy wyborze wyświetlacza do nowo opracowywanej aplikacji udział biorą już nie tylko działy R& D, które oceniają wyświetlacz od strony technicznej, ale coraz częściej decydujące zdanie o wyborze danego modelu mają działy marketingu. Najważniejszymi parametrami, jeżeli chodzi o parametry optyczne, pozostają dobry kontrast oraz wysoka jasność zapewniająca świetną widoczność w każdych warunkach oświetleniowych. Wśród nowych trendów w wyświetlaczach TFT wyróżnia się technologia TFT IPS z podświetleniem Mini LED. Podświetlenie wyświetlacza w tej technologii podzielone jest na kilkaset pól, których jasnością, każdego z osobna, można sterować. Takie podejście do tematu zapewnia kontrast na wysokim poziomie 10 000:1. Jednocześnie pomimo doskonałych parametrów optycznych, wyświetlacz zachowuje bardzo niskie zapotrzebowanie na prąd. Technologia mini LED, podobnie jak technologia LEDowa pozwala na uniknięcie zjawiska wypalania się pojedynczych pikseli, które to zjawisko typowe jest dla wyświetlaczy w technologii OLED.

Na co zwracają uwagę klienci przy zakupie wyświetlaczy; jakie elementy ofert mają największe znaczenie w handlu tymi produktami?

W zależności od rodzaju aplikacji klienci zwracają uwagę albo na możliwie najniższą cenę, albo na wysoką jakość produktu, idącą w parze ze znakomitymi parametrami optycznymi, takimi jak np. wysoki poziom luminancji oraz doskonały kontrast. Bardzo istotna jest też możliwość kastomizacji zamawianego produktu poprzez dopasowanie wymiarów i grubości cover glass w przypadku wyświetlaczy TFT, jak również możliwość zaprojektowania wyświetlacza o dowolnych wymiarach w przypadku wyświetlaczy pasywnych. Dla wielu aplikacji, zwłaszcza projektów medycznych, bardzo istotną kwestią jest kompatybilność elektromagnetyczna, którą łatwiej jest zapewnić, stosując dodatkowe ekranowanie wyświetlacza w procesie produkcyjnym poprzez dodanie miedzianej folii, obudowanie w metalową ramkę zewnętrzną lub użycia ferrytów.

Bardzo szeroka oferta

Charakterystyczną cechą rynku wyświetlaczy jest to, że czas życia poszczególnych technologii jest stosunkowo długi i nawet po okresie maksymalnej popularności poszczególne typy nie wypadają całkowicie na margines, dalej funkcjonując w niszach. Nowe jednostki o coraz lepszych parametrach pojawiają się co chwila, a duża liczba producentów i dystrybutorów tworzy niezwykle konkurencyjny i zróżnicowany rynek. Dostęp do nowych technologii staje się coraz łatwiejszy, a ceny omawianych produktów stale się zmniejszają. Nawet w obrębie jednej grupy produktowej wyświetlacze nie są takie same, bo te przeznaczone do aplikacji konsumenckich mają inne parametry od wersji przemysłowych. Te pierwsze są zoptymalizowane kosztowo, te drugie mają lepsze parametry środowiskowe itd. Skutkiem jest to, że asortyment w obiegu jest bardzo szeroki.

Ważne i poszukiwane funkcje techniczne

Poszukiwane funkcje techniczne wyświetlaczy, takie jak czytelność przy oświetleniu słonecznym, szeroki zakres temperatur pracy czy też kompletne rozwiązanie wyświetlacza z panelem dotykowym to cechy poszukiwane przez producentów urządzeń przemysłowych, specjalistycznych rozwiązań budynkowych, medycznych i podobnych. Kryteria te wskazują, że wiele wyświetlaczy pracuje w urządzeniach instalowanych na zewnątrz pomieszczeń i takie rozwiązania tworzą ważny segment rynku. Dostępność jednostki ze zintegrowanym panelem dotykowym, poszerzone kąty obserwacji też można zaliczyć do istotnych cech takich produktów. Z kolei niski pobór mocy to domena sprzętu mobilnego, aplikacji IoT oraz wielu specjalistycznych rozwiązań jak etykiety cenowe, mierniki zużycia mediów i podobne. To może być drugi istotny segment aplikacyjny.

Dostawcy specjalizowani górą

W dystrybucji wyświetlaczy znaczenie kompetentnego wsparcia technicznego jest szczególnie wyraźnie zarysowane, bo liczba zagadnień, jakie pojawiają się przy aplikacji najnowszych rozwiązań, jest spora. Stąd kompetentni inżynierowie po stronie dystrybutora, a czasem także dodatkowa pomoc ze strony producenta, mogą i przesądzają o kupnie, aplikacji tego lub innego produktu oraz o rozwoju długofalowej współpracy z klientem. Dział wsparcia technicznego znający się na wyświetlaczach jest też jednym z bardziej widocznych różnic pomiędzy zwykłymi firmami handlowymi a specjalizowanymi dostawcami.

Dystrybucja wyświetlaczy jest też w pewnym sensie specyficzna, bo w przeciwieństwie do innych komponentów, oprócz parametrów, takie jednostki muszą być także zaakceptowane wizualnie. Dlatego liczy się możliwość zaprezentowania danego produktu na żywo z wykorzystaniem płytek demonstracyjnych. Wpływ na podjęcie decyzji przez klienta może mieć także lokalna dostępność elementów. Z jednej strony portfolio wyświetlaczy jest bardzo szerokie i klient ma z czego wybierać. Z drugiej strony takie rozdrobnienie może wpływa negatywnie na dostępność i czasy dostaw. Stąd po stronie dystrybutora stoi ważne zadanie badania trendów na rynku oraz wyselekcjonowania optymalnych wyświetlaczy także pod kątem biznesowym.

Najważniejsze zjawiska pozytywne dla rynku wyświetlaczy

Za najbardziej istotny czynnik sprzyjający rozwojowi rynku wyświetlaczy uznano dostępność kompletnych zintegrowanych jednostek zawierających panel dotykowy, wyświetlacz oraz kontroler zarządzający całością. Taki moduł łatwo można połączyć z aplikacją, a dodatkowo jest to rozwiązanie gotowe, które uwalnia od trudnych operacji łączenia wrażliwych elementów. Jest to też rozwiązanie wymagające niewielkiego nakładu pracy ze strony projektanta. Kolejne zjawiska pozytywnie wspierające rynek to duża popularność nowoczesnych interfejsów użytkownika, a także coraz większa penetracja nowych technologii wyświetlaczy na rynku (tj. OLED i e-paper).

Oczywiście specjalizowani dostawcy zapewniają kompleksową obsługę klienta, a więc solidne inżynieryjne wsparcie na etapie projektowania urządzenia, dostępność produktów w magazynie i konkurencyjne ceny. Uzupełnieniem handlu jest ponadto możliwość zaoferowania klientom rozwiązań dopasowanych do specyficznych potrzeb, jak również integracja z podzespołami takimi jak panele dotykowe, układy sterowania (kontrolery) i zasilania.

Patrząc na rynek z perspektywy ostatniej dekady, widać ponadto, że pozycja rynkowa dostawców specjalizowanych rośnie wraz z rozwojem technologii. To dlatego, że oferta rynku szybko się zmienia, co chwila pojawiają się nowe rozwiązania, kontrolery, lepsze matryce o większych rozdzielczościach. Inżynier, który godzinami ślęczy nad projektem, zazwyczaj nie jest dogłębnie zorientowany w szczegółach, a więc w tym, co jest dostępne na rynku, które rozwiązania mają przyszłość, a nie są kolejnym przystankiem w rozwoju technologii i wynikiem eksperymentów producentów.

Kamil Kozłowski

wiceprezes Unisystemu

Jakie obecnie zjawiska i trendy można zaobserwować na rynku wyświetlaczy?

Ostatnie lata przynoszą dynamiczne zmiany – świat gospodarczy wyraźnie przyspieszył, a sytuacja na rynkach pozostaje zmienna. Z naszej, europejskiej perspektywy, można powiedzieć, że koniunktura nadal jest zadowalająca. Wciąż pojawiają się nowe projekty, w których wyświetlacze pełnią kluczową funkcję. Jednocześnie obserwujemy rosnącą aktywność chińskich dostawców, którzy coraz częściej próbują bezpośrednio wejść na rynek europejski, omijając lokalnych partnerów. To zjawisko nie dotyczy wyłącznie branży optoelektronicznej, ale szerzej – całej elektroniki.

Wiemy jednak, że tu mamy pewną przewagę, bo wciąż to, co doceniają nasi klienci, to partnerskie podejście, elastyczność i realne wsparcie inżynierskie, którego nie da się łatwo zastąpić ceną. Dysponujemy doświadczeniem i rozwiązaniami, które pozwalają nam utrzymać przewagę kompetencyjną i jakościową.

Jaka jest rola wsparcia technicznego i komponentów uzupełniających w projektach wyświetlaczy?

Dziś większość realizowanych przez nas projektów wykracza daleko poza sam wyświetlacz. Klienci oczekują kompletnych rozwiązań – obejmujących integrację wyświetlacza z komponentami elektronicznymi i mechanicznymi, przeprowadzanie testów, w tym np. wytrzymałościowych, a także wsparcie w optymalizacji oprogramowania.

Ekran staje się centrum interakcji użytkownika z urządzeniem – służy nie tylko do prezentacji informacji, ale także do jego obsługi. Dlatego nasi specjaliści z działu Solution, zajmujący się tworzeniem rozwiązań dopasowanych do indywidualnych potrzeb, koncentrują się na dostarczaniu gotowych, dopracowanych modułów, które można bezpośrednio wdrożyć do urządzeń końcowych. To realna wartość – szczególnie w projektach, gdzie kluczowe znaczenie mają czytelność, trwałość i niezawodność w wymagających warunkach pracy.

A co z technologiami dotykowymi – czy rzeczywiście stały się już standardem?

Zdecydowanie tak. Obecnie coraz częściej dostarczane przez nas wyświetlacze są zintegrowane z panelami dotykowymi. Co więcej, w Unisystemie rozwijamy autorskie rozwiązania w tym obszarze. Przykładem jest nasz pojemnościowy przycisk dotykowy, zaprojektowany do pracy w wymagających warunkach – działa niezawodnie przy obecności cieczy, można go obsługiwać w rękawiczkach, a jego powierzchnia jest zabezpieczona szkłem ochronnym. Dodatkowo reaguje światłem i dźwiękiem, zapewniając użytkownikowi intuicyjne potwierdzenie wykonanej akcji – zgodnie z zasadami nowoczesnego UX. To rozwiązanie gotowe do wdrożenia w nowych projektach i jako zamiennik dla klasycznych przycisków mechanicznych.

Niski pobór mocy

Niski pobór mocy jest jednym z najbardziej istotnych trendów zmieniających współczesną elektronikę, a w aplikacjach mobilnych można go postrzegać jako czynnik kluczowy dla potencjału rynkowego produktu. Dla rynku wyświetlaczy ograniczanie poboru mocy jest zagadnieniem bardzo istotnym, bo dzisiaj wyświetlacz jest komponentem obowiązkowym. Musi on pobierać małą moc i wiele zmian technologicznych, które można obserwować w ostatnich latach, jest temu podporządkowanych. Technologie takie jak OLED oraz EPD stale zyskują na popularności, a wraz z rosnącymi wolumenami produkcyjnymi ich ceny maleją. Podstawowe wersje takich wyświetlaczy na tyle potaniały, że wybór OLED-a przestał mieć znamiona jakiegokolwiek luksusu. Skoro opłacalne jest produkowanie elektronicznych metek wyświetlających ceny w supermarketach bazujących na wyświetlaczach EPD, to znaczy, że bariera cenowa przestała istnieć.

Wprawdzie poza wymienionymi dwoma typami producenci proponują jeszcze wersje bistabilne, które uzupełniają elektroniczny papier tam, gdzie ma on jeszcze jakieś niedoskonałości, niemniej w przyszłości OLED-y i EPD zdominują rynek.

Najważniejsze czynniki negatywne dla rynku

Oszczędności i cięcia wydatków wywołane słabszym popytem rynku, silna konkurencja wśród wielu dostawców, w tym również firm chińskich i kiepskie produkty azjatyckie zawsze stanowią trzon problemów, z którymi zmaga się rynek dystrybucji. Niestabilna sytuacja geopolityczna wskazana została jako potencjalny problem dla rynku przez co trzecią ankietowaną firmę, a kryją się za nią problemy z logistyką oraz wahania popytu. Każda niestabilność jest problemem dla rynku, gdyż przenosi się ona na decyzje inwestycyjne klientów.

MicroLEDy

Kolejną technologią, która może ustawić na nowo kamienie milowe w zakresie wydajności świetlnej i poboru mocy, są wyświetlacze micro-LED. Bazują one na mikroskopijnych diodach elektroluminescencyjnych, a rozmiar pojedynczego piksela (mikrodiody) typowo jest mniejszy niż 50 μm. Takie wyświetlacze zawierają ich miliony rozmieszczonych w formie matrycy na podłożach szafirowych 100 mm i 150 mm. Mogą świecić w jednym kolorze lub jako zestaw trzech tzw. subpikseli w kolorach podstawowych, czyli RGB. Wśród produktów docelowych w tej technologii można wyróżnić trzy kategorie: mikrowyświetlacze oraz wyświetlacze średniej i dużej wielkości.

Wyświetlacze μLED średniej oraz dużej wielkości sprawdzą się w zegarkach, smartfonach, tabletach, reflektorach samochodowych oraz telewizorach. Najbardziej perspektywicznym zastosowaniem mikrowyświetlaczy są z kolei okulary rzeczywistości rozszerzonej. W tym przypadku za wykonywaniem ich w technologii μLED przemawia głównie to, że może ona zapewnić wymaganą większą jasność, nawet stukrotnie, w porównaniu z innymi typami wyświetlaczy. Przykładowo wyświetlacze OLED zwykle zapewniają luminancję rzędu 1000 nitów, podczas gdy technologia rzeczywistości rozszerzonej wymaga przynajmniej 100 tys. nitów. Najważniejszym powodem zainteresowania technologią microLED producentów telewizorów jest natomiast lepsza jakość obrazów w porównaniu do ekranów LCD, jak i OLED. Gdy się upowszechnią, będą odbierać rynek OLED-om, niemniej droga do tego jest jeszcze daleka.

Robert Burzyński

prezes zarządu w firmie Qwerty

Jakie obecnie zjawiska i trendy można zaobserwować na rynku wyświetlaczy?

Na rynku wyświetlaczy wyraźnie widać rosnące wymagania dotyczące jakości obrazu i odporności urządzeń. Klienci coraz częściej poszukują rozwiązań, które będą niezawodne w ekstremalnych warunkach – od sterylnych sal operacyjnych po zapylone hale produkcyjne. Kluczowym trendem jest eliminacja przestrzeni powietrznych między warstwami wyświetlacza a np. szybą poprzez bonding optyczny – technologię, którą jako jedyni w Polsce profesjonalnie stosujemy w Qwerty. Dzięki temu nasze panele dotykowe charakteryzują się wyższym kontrastem, zredukowanymi odbiciami światła oraz wzmocnioną konstrukcją odporną na uszkodzenia mechaniczne. Obserwujemy również rosnące zapotrzebowanie na rozwiązania szyte na miarę. Standardowa, seryjna produkcja nie odpowiada na potrzeby współczesnych projektów, gdzie każda aplikacja ma unikalne wymagania.

Jakie tendencje można zauważyć w wyborach klientów w zakresie technologii, zakresu usług?

Klienci coraz bardziej cenią sobie kompleksowość i elastyczność dostawcy. Zamiast kupować gotowe, standardowe komponenty, poszukują partnerów technologicznych zdolnych do realizacji nawet najbardziej nietypowych projektów. W Qwerty odpowiadamy na tę potrzebę, oferując pełne dostosowanie produktu – od wyboru materiału np. szyba (hartowana, chemicznie utwardzana), folia, pleksiglas, przez rodzaj obróbki krawędzi (szlif C, 45°, 90°), aż po zastosowanie odpowiedniej technologii bondingu (OCA, LOCA, Vacuum Bonding). Co istotne, realizujemy zamówienia już od 1 sztuki – nie ma minimów produkcyjnych. Klienci szczególnie doceniają dostęp do zaawansowanych procesów, jak obróbka CNC, która pozwala uzyskać nadruk do samej krawędzi czy lustrzane wykończenie. Jako jedyni w Polsce dysponujący pełnym spektrum technologii bondingu optycznego, które rozwijamy z sukcesami od ponad 20 lat, jesteśmy w stanie zaoferować rozwiązania niedostępne nigdzie indziej w kraju.

Wsparcie techniczne poprzez płytki

Częścią wsparcia technicznego są zestawy ewaluacyjne, czyli gotowe do użycia płytki zawierające projekty referencyjne. Stanowią one przykłady do naśladowania, są demonstracją dobrych praktyk projektowych i dają szansę tego, aby na początku pracy nie popełnić drobnej, ale trudnej do znalezienia pomyłki. Zestawy startowe z kontrolerami, interfejsami, są nierzadko kompletną platformą sprzętową dla aplikacji, a razem z bibliotekami oprogramowania sprawiają, że nakład pracy wymaganej do obsługi wybranych popularnych modeli wyświetlaczy graficznych z panelem dotykowym jest porównywalny z tym, jaki kiedyś trzeba było poświęcić na obsługę prostych modułów znakowych z wbudowanym kontrolerem.

Najbardziej perspektywiczne obszary aplikacyjne

W warunkach krajowych rozwiązania przemysłowe i profesjonalne zawsze postrzegane były jako najcenniejsze i tym samym także najbardziej atrakcyjne dla dystrybutorów. To się nie zmieniło i w naszym najnowszym zestawieniu także wybijają się ponad całą resztę. Mają one szerszy zakres temperatur pracy, większą jasność ekranu i trwałość, co pozwala używać ich przez wiele lat. W przypadku takich rozwiązań istotna jest też gwarantowana długoterminowa dostępność produktu, czyli że produkt będzie dostępny w sprzedaży przez długi czas. Dla wersji konsumenckich okres ten jest krótszy, a często w ogóle niezdefiniowany w specyfikacjach. Za przyszłościowe uznane także zostały rozwiązania dla inteligentnego domu oraz cały świat IoT i sprzęt zasilany z baterii.

Wersje dopasowane do aplikacji i integracja z obudową

Producenci elektroniki mają dzisiaj znacznie większe możliwości dopasowania wyświetlacza do projektowanego urządzenia, tak aby pasował idealnie pod względem elektrycznym, mechanicznym i funkcjonalnym. Kiedyś kastomizacja była dostępna dla dużych firm, które były w stanie wyłożyć spore sumy pieniędzy na bezzwrotne koszty przygotowania zamówienia o indywidualnych cechach i oczywiście kupić też dużą partię. Dzisiaj próg wejścia jest znacznie niższy, a ponadto część pracy i kosztów biorą na siebie dystrybutorzy. Takie modyfikacje z roku na rok stają się coraz bardziej przystępne. Polegają one na zamontowaniu wyświetlacza w obudowie w przygotowanym oknie, sklejenie ekranu z panelem za pomocą przezroczystego kleju w warunkach wykluczających pozostawienie brudu, przyklejeniu ekranu do płyty frontowej i podobne. Częściowe lub pełne dopasowanie do projektu klienta wyświetlaczy TFT, OLED, oraz paneli dotykowych polega dostosowaniu kształtu, rozmiaru, koloru oraz innych parametrów technicznych.

Sławomir Szweda

CEO, Unisystem

Jeśli potrzebny jest wyświetlacz działający w trudnych warunkach środowiskowych (niskie temperatury, wysokie temperatury, wilgotność, nasłonecznienie itd.), to jak zmienia się oferta i kryteria doboru?

Zastosowanie wyświetlacza w wymagającym środowisku znacząco wpływa na proces jego doboru. W przypadku technologii OLED sytuacja jest ułatwiona – ponieważ obraz generują tu miniaturowe diody organiczne, nie jest potrzebne osobne podświetlenie. Efekt? Doskonała czytelność prezentowanych treści bez względu na warunki oświetleniowe – zarówno w słońcu, jak i w cieniu czy we wnętrzach.

W ofercie Unisystemu znajdują się przede wszystkim monochromatyczne wyświetlacze OLED – z tekstem w kolorze np. białym, żółtym lub niebieskim, prezentowanym na czarnym tle. Dzięki temu obraz jest kontrastowy i przejrzysty, co ma kluczowe znaczenie w przypadku prezentowania krótkich komunikatów, np. parametrów pomiarowych. Wiele modeli wyświetlaczy OLED przystosowanych jest do pracy w szerokim zakresie temperatur – nawet od -40 do +80°C – a więc zarówno w niskich, jak i wysokich temperaturach, a także przy ich gwałtownych zmianach. Kompaktowa konstrukcja, przy odpowiednim zabezpieczeniu, zapewnia odporność na pyły, wilgoć, wstrząsy i wibracje. Dzięki temu OLED-y doskonale sprawdzają się w urządzeniach mobilnych i stacjonarnych, również tych pracujących w wymagających środowiskach.

Przez wiele lat ceny wyświetlaczy OLED były znacznie wyższe niż LCD-TFT. Jak to wygląda dzisiaj, jeśli porównamy ze sobą dwa typowe i podobne rozwiązania o przekątnej rzędu 5 cali?

Ceny OLED-ów nadal są wyższe niż w przypadku rozwiązań opartych na technologii LCD, jednak różnice te są dziś zdecydowanie mniejsze niż jeszcze kilka lat temu. Biorąc pod uwagę, że w ofercie Unisystemu dostępność monochromatycznych wyświetlaczy OLED kończy się na przekątnych około 5,5 cala, bardziej adekwatne wydaje się porównanie ich z monochromatycznymi wyświetlaczami LCD – często zbliżonymi rozmiarem i stosowanymi w podobnych aplikacjach.

W przypadku projektów, w których kluczowe są wysoki kontrast, szerokie kąty widzenia czy niski pobór energii, wyższa cena OLED-u okazuje się uzasadniona. W wielu zastosowaniach jest to rozwiązanie optymalne – zarówno pod względem funkcjonalnym, jak i w kontekście relacji jakości do ceny.

Jaki zakres wsparcia technicznego udzielanego klientom uznaje się dzisiaj za standard?

Dostarczenie komponentu to dziś dopiero początek. Coraz częściej standardem jest wsparcie techniczne na każdym etapie projektu – od doradztwa przy wyborze, przez integrację sprzętową i programową, aż po wsparcie posprzedażowe. W Unisystemie oferujemy takie kompleksowe podejście. Nasz dział Solution projektuje z klientami kompletne moduły – łącząc wyświetlacz, panel dotykowy, komputer przemysłowy oraz komponenty dodatkowe np. skanery. Dzięki temu dostarczamy gotowe rozwiązania, zoptymalizowane pod kątem konkretnej aplikacji i środowiska pracy.

Zaawansowane kontrolery i biblioteki oprogramowania

Nowoczesny interfejs użytkownika opiera się dzisiaj na kolorowej grafice, coraz częściej zawierającej nie tylko elementy statyczne, ale animacje, a także treść dopasowującą się do kontekstu realizowanego zadania (tzw. responsywność). Stworzenie estetycznego interfejsu użytkownika w systemie embedded wymaga nie tylko wiedzy z zakresu UI/ UX, lecz również zrozumienia ograniczeń oraz możliwości dostępnej platformy sprzętowej. Projektowanie oraz implementacja wszystkich funkcjonalności związanych z przetwarzaniem informacji graficznych, w dodatku w możliwie zoptymalizowany oraz efektywny sposób, byłyby zadaniem dość czasochłonnym oraz złożonym. Na szczęście znaleźć można gotowe biblioteki graficzne, opracowane z myślą o tego typu systemach, np. Qt for Embedded Systems, Embedded Wizard, Micrium GUI, LittlevGL, TouchGFX oraz NuttX NX Graphics. One znacznie ułatwiają tworzenie grafiki. Część z nich jest licencjonowana, część open source, niemniej ta szeroka oferta ma duży pozytywny wpływ na rynek wyświetlaczy i jego rozwój.

Ocena potencjału rynkowego poszczególnych typów wyświetlaczy

Największy potencjał rynkowy mają wyświetlacze OLED, które po latach wyczekiwania rynku na ich spadki cen, poprawę trwałości i parametrów, mają wreszcie wszystko, czego oczekują od nich klienci. Drugie miejsce przypadło wyświetlaczom EPD (e-paper), które aktualnie najszybciej zyskują popularność. Oba rozwiązania zapewniają niski pobór mocy, a EPD zapewnia doskonałą widoczność treści przy bezpośrednim oświetleniu słonecznym.

Oprogramowanie do obsługi wyświetlaczy dostarczają też producenci mikrokontrolerów, którzy w ramach wsparcia technicznego tworzą zestawy projektowe lub rozwiązania w miarę standardowe z przykładowymi jednostkami wyświetlającymi, a biblioteki oprogramowania stanowią u nich część składową środowiska IDE.

Na rynku są też wyświetlacze z wbudowanym zaawansowanym kontrolerem i wbudowaną pamięcią i oprogramowaniem firmware pozwalającymi na obsługę grafiki za pomocą poleceń wysokiego poziomu. Takie rozwiązania można błyskawicznie zintegrować z własną aplikacją/systemem lub można dodać taki wyświetlacz graficzny z panelem dotykowym do istniejących urządzeń, poprawiając ich funkcjonalność.

===========

Złącza przemysłowe i energoelektroniczne

Złącza energoelektroniczne i przemysłowe to jedna z najważniejszych grup asortymentowych wśród komponentów elektromechanicznych. Elementy te zajmują także wysoką pozycję w całej ofercie szeroko pojętej techniki łączenia, z uwagi na dużą przenoszoną moc i zastosowania profesjonalne. Rynek złączy zmienia się w kierunku rosnących wymagań klienta i coraz większej specjalizacji tych komponentów, zwiększającego się udziału wersji wykonywanych na bazie indywidualnej specyfikacji, które są w stanie pomóc osiągnąć wyrafinowane parametry techniczne, przynieść oszczędność miejsca, zapewnić mniejsze koszty oraz wygodę montażową.

Najważniejsze dla klientów cechy ofert brane pod uwagę przy kupowaniu złączy

Ranking najważniejszych kryteriów handlowych decydujących o wyborze produktu i dostawcy oczywiście zawiera na szczycie cenę, co przy silnie konkurencyjnym rynku i relatywnie drogich produktach wydaje się naturalne. Termin dostawy oraz parametry techniczne razem z ceną tworzą rdzeń procesu selekcji w taki sposób, że klienci optymalizują wartość, jaką otrzymują za daną sumę pieniędzy. Wymieniona trójka zawsze okupuje czołowe miejsca takich zestawień i rzadko wygląda inaczej. Poza ten schemat wychodzi znaczenie marki producenta złączy, która w tym obszarze jest synonimem jakości i wysokich walorów technicznych, a także certyfikaty, które w zakresie produktów przeznaczonych do aplikacji dużej mocy są bardzo ważne. W obszarze złączy rola, jaką odgrywają dostawcy i ich kompetencje techniczne, zawsze była istotna, ale w ostatnich latach słupki opisujące te kryteria są pozycjonowane znacznie niżej. Innymi słowy, klienci dzisiaj w mniejszym stopniu dbają o relacje z dostawcami i zmieniają ich znacznie częściej niż dawniej w pogoni za lepszą ofertą.

Do niedawna tematem numer jeden na rynku komponentów elektronicznych, w tym także złączy, były długie czasy dostaw i ogólne problemy z dostępnością. W ogromnej większości przypadków to już jest przeszłość, dostępność się poprawiła i dzisiaj problemem dyżurnym raczej jest słaba koniunktura na rynku przemysłowym. Czasy dostaw dalej są długie, niemniej z uwagi na spowolnienie rynku przemysłowego nie są tak dokuczliwe jak dwa lata temu. Plusem aktualnej sytuacji jest to, że obecnie producenci są bardziej elastyczni i chętni do kastomizacji produktów, bardziej otwarci na pomysły klientów i propozycje nowych rozwiązań połączeniowych. Do niedawna realizacja czegokolwiek ponad standard była bardzo trudna, a nawet bardzo zdeterminowanych klientów producenci zniechęcali koniecznością zamawiania dużych ilości.

Zastosowania profesjonalne

Największym i najważniejszym obszarem zbytu dla omawianych produktów jest oczywiście przemysł. Złącza silnoprądowe potrzebne są do realizowanych projektów automatyki przemysłowej, modernizacji starych maszyn i linii, remontów urządzeń oraz utrzymania ich w ruchu. Nasycenie elektroniką produkcji przemysłowej w Polsce cały czas rośnie, przez co złączy potrzeba coraz więcej. W tym procesie mają znaczny udział nowoczesne półprzewodniki szerokoprzerwowe, które są zdolne do pracy z napięciami mierzonymi w kilowoltach i prądach w setkach amperów. Nowoczesne napędy silników, zgrzewarki, siłowniki, spawarki i inne podobne aplikacje mają stopnie mocy wykonane na takich tranzystorach, a do działania wymagają doskonałej jakości wiązek kablowych oraz złączy.

W obszarze przemysłu rozwojowi rynku sprzyjają rosnące wymagania klienta i coraz większa specjalizacja tych elementów. Dzięki nim rynek jest otwarty na nowe rozwiązania poprawiające efektywność w procesach produkcyjnych. Łatwiejszy montaż i demontaż zapewniany przez logiczny podział aplikacji na części, liczne systemy szybkich połączeń niewymagających stosowania narzędzi to obecnie nie fanaberia, ale konkretne oszczędności w serwisie, utrzymaniu ruchu, instalacji, modernizacji.

Najważniejsze czynniki negatywne dla rynku złączy

Główne czynniki negatywne dla rynku złączy silnoprądowych to silna konkurencja oraz dostępność wielu zamienników i podróbek o niepewnym pochodzeniu i jakości. Co ciekawe, wysokie ceny nie są postrzegane jako czynnik negatywny, mimo że złącza są kosztowne. Wysoką pozycję na wykresie zamienników i podróbek można tłumaczyć wysokimi cenami produktów markowych oraz zapewne także gorszą dostępnością produktów renomowanych. Kolejny czynnik to gorsza sytuacja na rynku, która zmusza wielu kupujących do oszczędności. Patrząc na powyższy wykres z dalszej perspektywy, widzimy, że aktualnie czynniki negatywne dla rynku mają charakter ekonomiczny, te o charakterze bardziej technicznym wylądowały poza wykresem.

Drugim pod względem znaczenia rynkiem dla złączy silnoprądowych jest energetyka, która w ostatniej dekadzie rozwija się w szybkim tempie. Modernizacje i inwestycje dotyczących infrastruktury technicznej, w skład której wchodzi wiele urządzeń, nie tylko tych związanych z transmisją energii i najwyższych mocy, są związane z coraz większą różnorodnością wynikającą z instalacji energii odnawialnej. Pozytywne oddziaływanie na rozwój rynku ma ponadto rynek kolejowy, który jest ważnym odbiorcą rozwiązań napędowych, zasilających i komunikacyjnych. Zarówno energetyka, jak i kolej przez wiele lat były niedoinwestowane i zaniedbane. To się zmienia dzięki pieniądzom z funduszy Unii Europejskiej, która postrzega transport kolejowy jako priorytetowy, a energetykę jako dziedzinę związaną z bezpieczeństwem i wspiera tutaj silnie modernizacje i rozwój. Wiele lat opóźnienia i szybko rosnące wymagania jakościowe dla infrastruktury transportowej i energetycznej sprawiają, że w tych obszarach tkwi ogromny potencjał. W tych segmentach jakość złączy jest stawiana na pierwszym miejscu, a cena ze względu na niewielkie ilości staje się drugorzędna.

Problemy typowe dla branży

W przypadku złączy tematem dyżurnym od kilku dekad jest negatywny wpływ na rynek tanich złączy produkowanych w Azji. Zjawisko to należy rozpatrywać trójtorowo. W pierwszym aspekcie konkurencja azjatycka dotyczy podróbek złączy markowych, a więc produktów naśladujących konstrukcje oryginalne, ale wykonane z gorszych materiałów, z mniejszą dokładnością oraz bez realnej gwarancji. Drugi aspekt to tzw. zamienniki popularnych konstrukcji markowych, które bazują na takich samych mechanizmach i konstrukcji styków, mają identyczne wymiary, deklarowane parametry. Wtyki zamienników pasują do oryginalnych gniazd itd. Zamienniki mogą być dobre lub kiepskie, a największym problemem jest to, że nigdy nie wiadomo, na co się trafi. Jakość takich produktów jest w jakiejś mierze pochodną ich ceny, a ta musi być niska, aby klienci je wybierali. Trzeci aspekt dotyczy złączy typowych, standardowych, produkowanych przez wiele firm, takich jak podstawowe typy złączy okrągłych, D-Sub, fotowoltaicznych, terminal bloki i łączówki na szynę DIN. Obszar ten łączy konstrukcje o mniejszym stopniu zaawansowania technologicznego, które walczą o klienta przede wszystkim ceną.

Takie elementy produkuje i sprzedaje wiele firm chińskich, a popularne platformy internetowe takie jak Aliexpress lub Alibaba tworzą ważny kanał ich sprzedaży. Więksi klienci również kupują bezpośrednio złącza z Azji od producentów dużo bardziej elastycznych niż znane globalne marki. Rynek dystrybucji w tamtym rejonie jest duży, bardzo rozwinięty i mocno konkurencyjny, coraz łatwiej znaleźć też dostawców bezpośrednich w Azji, gdyż jest wiele portali i platform, na których firmy takie się reklamują.

Produkty chińskie

Producenci chińscy bardzo swobodnie podchodzą do zmian w produktach i potrafią zmienić technologię, materiały lub zmodyfikować konstrukcję, która może mieć wpływ na jakość produktów, bez jakiejkolwiek komunikacji z klientami oraz bez modyfikacji dokumentacji technicznej. To samo dotyczy traktowania sieci sprzedaży bez żadnych sentymentów. Tradycyjny model dystrybucji opierający się na autoryzowanych przedstawicielach obsługujących rynek krajowy i segment produktowy raczej słabo się sprawdza. Nawet jak taki dystrybutor w danym kraju jest, to i tak każdy klient, który ominie tego dystrybutora i wyśle zamówienie bezpośrednio do Chin, zostanie obsłużony, jawnie lub skrycie. Takie podejście zaostrza konkurencję i psuje relacje na rynku.

Faktem jest, że tamtejsze firmy szybko się rozwijają i dużo inwestują w rozwój, park maszynowy, certyfikację i materiały. To, co dawniej było pogardzaną tanią chińszczyzną, dzisiaj bywa dla wielu dobrą ofertą pod kątem stosunku ceny do jakości.

Z ocenami dotyczącymi rynku chińskiego trzeba być bardzo ostrożnym, bo to, co jeszcze kilka lat temu było obowiązujące, dzisiaj może być już nieaktualne. Zwłaszcza po pandemii i dwuletnich kłopotach z dostawami oraz późniejszym wzrostem cen podzespołów. Elementy kupowane w Azji uratowały niejeden projekt, a wielu producentom elektroniki takie wymuszone potrzebą chwili kontakty zostały na dłużej. Oznacza to, że złącza z Azji w dużym stopniu kształtują relacje w branży, a ich konkurencyjne ceny od lat spędzają dystrybutorom renomowanych produktów sen z powiek.

Opisane procesy dla klientów (producentów elektroniki) przyniosły też zmniejszenie pierwotnego dużego dystansu między wysokimi cenami czołowych marek a tanimi wyrobami chińskimi. Kiedyś była to przepaść, dzisiaj ceny produktów markowych są trochę wyższe od równoważnych produktów z Azji.

Modułowość

Wzrost złożoności urządzeń technicznych, wielowariantowość funkcjonalna, krótkie serie konstruowane w ramach projektów pod zamówienie klienta powodują, że coraz więcej sprzętu ma konstrukcję modułową i zawiera jednostki, które są łączone w jednej obudowie za pomocą wiązek i dobranych komponentów połączeniowych. Łatwiejszy montaż i demontaż zapewniane są przez logiczny podział aplikacji na części (zasilanie, komunikacja, interfejs użytkownika) oraz przez systemy szybkich połączeń niewymagających stosowania narzędzi lub wymagających dużego nakładu pracy. Przynosi to oszczędności w serwisie, utrzymaniu ruchu, instalacji, modernizacji. W ten sposób świat techniki zmienia się od lat.

Podobne procesy są widoczne po stronie złączy, w których aspekt modułowości jest coraz bardziej widoczny. Polega ona na podziale konstrukcji na części i zapewnieniu możliwości komponowania finalnego wyrobu z zestawu elementów składowych. W minimalnym zakresie jest to obudowa oraz wkładka z pinami, w szerszym dochodzą jeszcze możliwości wyboru wkładek z różną liczbą pinów i ich typem. Elementem systemu modułowego są też dławice wyprowadzające kabel, ekrany i uszczelnienia, odgiętki itd.

Do grupy złączy modułowych zaliczają się także wersje hybrydowe, czyli takie, które oprócz sygnałów wysokoprądowych zawierają również sygnały sterujące, w tym okablowanie sieciowe (miedziane lub optyczne). Jest to rezultat wzrostu złożoności sprzętu, gdyż liczba sygnałów, które trzeba przesyłać w jedną lub w drugą stronę, ciągle się zwiększa. Poza liniami zasilania we współczesnym systemie zawsze jest jakiś czujnik, lampka kontrolna, interfejs komunikacyjny. Z tego powodu specjalizowane złącza silnoprądowe są uzupełniane przez kontakty sygnałowe niezbędne do podłączenia tych dodatkowych komponentów towarzyszących blokom dużej mocy.

Złącze hybrydowe pozwalające na podłączenie wszystkich potrzebnych linii razem bywa więc interesującą alternatywą. Przez odpowiednie ustawienie pinów można też łatwiej spełnić wymagania związane z bezpieczeństwem, gdy jeden przewód łączy obwody wysokonapięciowe i sygnałowe. Wówczas niewykorzystane kontakty można usunąć i tym samym powiększyć odstęp izolacyjny między obwodami o wysokim i niskim potencjale. Takie złącze ogranicza też możliwość pomyłek przy serwisie i instalacji, uwalnia od problemu kolejności dołączania odbiorników lub podłączenia tylko części wykonawczej bez sterującej itp. Wiele instalacji realizowanych jest w niekorzystnych warunkach: na zewnątrz budynków, przy słabym oświetleniu, niewygodnej pozycji, na wysokości, przez co ryzyko błędu instalacyjnego jest wymierne. Jeden komponent z kodowaniem pozycji, czyli z zabezpieczeniem mechanicznym uniemożliwiającym włożenie złej wtyczki w gniazdo, jest optymalną opcją minimalizującą ryzyko.

Złącza modułowe to dobre rozwiązanie zarówno dla odbiorców, jak i wytwórców, gdyż przynajmniej w części pozwalają one ominąć problemy wynikające z bardzo małej standaryzacji tych produktów. Dzięki nim w ofertach może być mniej indeksów, przy lepszej dostępności i niższych cenach wynikających ze zredukowanych kosztów magazynowych.

Najważniejsze zjawiska pozytywne dla rynku złączy silnoprądowych

Zestawienie czynników pozytywnie oddziałujących na rozwój rynku otwiera szeroki asortyment produktów, w tym wersji specjalistycznych ukierunkowanych na aplikacje. Możliwość dobrania złącza dokładnie pasującego do zadania spośród wielu innych sprzyja powstawaniu nowych produktów, a więc rozwija rynek. Innowacje w złączach są poszukiwane przez klientów, bo za nimi idzie wiele cennej wartości dodanej, takiej jak możliwość obniżki kosztów produkcji, mniejsza zajętość miejsca, większa obciążalność itd. Jak zawsze wysoko notowane jest zainteresowanie jakością i zaawansowaniem technicznym oraz zwiększające się wymagania klientów. Wysoka jakość usług i produktów to cecha rynków specjalistycznych, takich, gdzie liczy się wartość dodana zapewniana przez urządzenie. Od wielu lat rynek krajowy zmienia się w tym kierunku, a niewielkie serie złożonego sprzętu, projekty tworzone na indywidualne zamówienia stanowią ważną część aktywności. Złącza silnoprądowe z racji warunków pracy i pełnionej funkcji mają dużą rolę do odegrania w zapewnieniu jakości.

Miniaturyzacja postępuje

Miniaturyzacja złączy to proces ciągły dotyczący całego asortymentu. Kolejne generacje urządzeń elektronicznych są coraz mniejsze i jednocześnie bardziej złożone. Podzespoły elektroniczne też stają się coraz mniejsze i takie oczekiwania są także w stosunku do złączy, w których trend ten pozwala również na obniżkę kosztów produkcji i transportu. Elementy elektromechaniczne, czyli przekaźniki, potencjometry i złącza, zawsze były duże w porównaniu do całej reszty, stąd ich miniaturyzacja pozwala utrzymać proporcje i zapewnić, aby nie były komponentami, które determinują wymiary aplikacji.

W przypadku złączy silnoprądowych zmniejszanie wymiarów jest utrudnione z uwagi na przenoszone duże moce, wysokie napięcia czy wzrost temperatury. Ograniczenia wynikają z wytrzymałości napięciowej, stabilności mechanicznej, powierzchni kontaktu, przekroju pinów i podobnych właściwości. Ale mimo to kolejne generacje są mniejsze dzięki lepszym tworzywom sztucznym, które są wzmacniane mechanicznie za pomocą włókien szklanych i kompozytów, bo zapewniają wysoką stabilność mechaniczną obudowy w szerokim zakresie temperatur. Dzięki temu nawet zwiększone nagrzewanie styków nie powoduje deformacji zagrażającej jakości połączenia.

Są też systemy docisku styków zapewniających małą rezystancję kontaktu oraz dzięki lepszym stopom i pokryciom części metalowych. Celem jest zapewnienie niskiej rezystancji przy dużej odporności na ścieranie, utlenianie i wypalanie materiału na skutek iskrzenia. Stosowane techniki są tutaj bardzo wyrafinowane i obejmują m.in. dyfuzję domieszek, obróbkę cieplno- -chemiczną, utwardzanie radiacyjne albo napawanie plazmowe.

Jakość oczkiem w głowie

Jednym z ważniejszych zjawisk na rynku elektroniki od lat jest wzrost presji na jakość produktów i usług. Dotyczy to w zasadzie wszystkich aspektów związanych z projektowaniem i produkcją urządzeń, niemniej akurat w złączach trend ten jest szczególnie istotny. To dlatego, że zawsze elementy te były relatywnie droższe w porównaniu do innych elementów elektromechanicznych i pasywnych, a nawet półprzewodników, a technologia produkcji jest o wiele bardziej dostępna. Z tego powodu chętnych do produkcji złączy nie brakowało i nie brakuje, dużo firm walczy o udziały w rynku ceną, przez co na rynku cały czas jest wiele tandety i mamy dziesiątki wersji dla standardowych rozwiązań połączeniowych. Przykładem mogą być złącza kołkowe, okrągłe lub fotowoltaiczne. Są dostępne od wielu dostawców, którzy silnie konkurują ze sobą i niestety te zmagania dzieją się kosztem jakości definiowanej jako nietrwałość, niestabilność konstrukcji, przez parametry wykraczające poza specyfikację, podatność na wpływ środowiska, słabe materiały, niedokładne wykonanie i podobne ułomności.

Z upływem lat, z rosnącą świadomością klientów, coraz większą zamożnością, większym otwarciem Polski na rynki zagraniczne, zainteresowanie jakością się zwiększa, a produkty markowe są lepiej postrzeganie. Jest to też rezultat tego, że pierwotny duży dystans między wysokimi cenami produktów czołowych marek a tanimi wyrobami chińskimi zmniejszył się znacząco i dzisiaj różnice są dużo mniejsze niż dawnej. Tym samym na jakość stać więcej odbiorców.

Czołowi producenci złączy uciekają też do przodu przed konkurencją, wprowadzając liczne nowe produkty, wersje dopasowane do aplikacji i inwestują w systemy modułowe i hybrydowe pozwalające im na stworzenie unikalnej przestrzeni dla swoich wyrobów. Widać to w tym, że z ich ofert znikają produkty typowe, masowe i takie o standardowej funkcjonalności. Renomowani producenci i dystrybutorzy skupiają się też na zapewnieniu dostępności elementów i wsparcia technicznego, bo są to obszary, gdzie wysiłek przynosi długofalowe korzyści biznesowe, a także przezwyciężenie konserwatywnych działań klientów, tj. podążania w zaopatrzeniu utartymi szlakami.

Aleksander Czech

WAGO

WAGO ma złącza sprężynowe 1-razowe i wielorazowe z dźwigienką. Czym się one różnią, poza tym szczegółem?

Zacznijmy od tego, że dysponujemy wieloma rodzajami złączek instalacyjnych wraz z akcesoriami, nie wspominając nawet o szerokiej gamie złączek na szynę. Wiele osób, które na co dzień korzysta np. z serii złączek 2273 do przewodów sztywnych, gdzie przewody wtyka się do złączki, uważa, że ponieważ połączenie jest bardzo silne to przewód zostaje w złączce raz na zawsze. Nic bardziej mylnego. Wystarczy pokręcić przewodem, aby opuścił złączkę, która nadaje się do ponownego użytku. Tak więc nie ma złączek jednorazowych. W skrócie złączki z dźwignią wyróżnia przede wszystkim komfort użytkowania, a także uniwersalność. Dzięki zastosowaniu dźwigni możemy łączyć ze sobą przewody typu linka z drutem.

Po czym poznać podróbki złączy w chwili kupowania?

Wiele osób przychodzi do sklepu i prosi o "WAGO", myśląc, że to synonim szybkozłączki. Tak, jak nie każdy adidas jest marki Adidas, tak nie każda szybko-złączka musi być od WAGO, czyli firmy, która opatentowała i rozpowszechniła technologię sprężynowych połączeń. Oryginały mają tyle wspólnego z podróbkami co krzesło z krzesłem elektrycznym. Zarówno jakość wykonania oryginalnych produktów, badania, które przechodzą przed trafieniem na rynek, czy powtarzalność każdego produktu są na najwyższym poziomie. Chcąc mieć pewność, że korzystamy z oryginałów zwróćmy uwagę na wyraźny logotyp umieszczony na złączce i kupujmy od renomowanych dostawców.

Mała standaryzacja, większa specjalizacja

Charakterystyczną cechą rynku złączy jest bardzo mała standaryzacja tych produktów, co jest skutkiem istnienia dużej liczby producentów, ogromnego portfolio produktów i szybkiej ewolucji rynku. W większości przypadków "standard" w złączach oznacza nie typ przyjęty przez stowarzyszenie branżowe lub społeczność, ale po prostu popularne złącze mające wiele odpowiedników i łatwo dostępne z wielu źródeł.

Z roku na rok na rynku funkcjonuje coraz więcej typów elementów o specjalizowanej konstrukcji pod kątem zastosowań i standardów branżowych. Rynek kieruje się ku specjalizacji, a ona wymusza tworzenie konstrukcji dopasowanych do wymagań aplikacyjnych. Takie działania powodują, że liczba typów, wariantów, marek jest ogromna i sprawia klientom problemy z zaopatrzeniem. Gdy produktów jest mniej i daje się wskazać popularne i często używane typy, a czasy ich dostaw są krótkie, bo dystrybutorzy mają często je w lokalnych magazynach buforowych. Duży asortyment powoduje, że dokładna orientacja w ofercie ze znajomością szczegółów i niuansów staje się rzadkością. Prowadzi to do wielu nietrafnych wyborów, koncentracji uwagi na tym, co się zna i wcześniej kupowało. To znany od lat problem rynku złączy.

Terminal bloki

Ważną część rynku złączy silnoprądowych, zwłaszcza w elektronice, tworzą terminal bloki, czyli modułowe złącza płytka-przewód z zaciskiem śrubowym lub sprężynowym. Podobnie jak dla innych typów, tutaj też asortyment jest bardzo duży i obejmuje wersje proste i kątowe, rozłączalne, do montażu SMT i THT, pozwalające zamontować więcej niż jeden przewód w styku, oczywiście w kilku rozmiarach rastra.

Terminal bloki znaleźć można w ofertach wielu producentów, u tanich chińskich dostawców i wiodących światowych producentów, gdyż są to złącza o dużej uniwersalności trafiające do branży oświetleniowej, producentów zasilaczy, sterowników, regulatorów (tzw. mała automatyka i automatyka budynkowa), producentów systemów alarmowych, domofonowych i systemów rejestracji, urządzeń kontrolnych, AGD i wielu innych.

Szeroki obszar aplikacyjny jest tu źródłem ich popularności od wielu lat, ale widać, że z czasem znaczenie wersji zapewniających szybki montaż przewodów, a także wersji rozłączalnych, takich, w których można rozpiąć złącze jednym ruchem, bez mozolnego rozpinania pojedynczych kabli, jest coraz większe. Najbardziej takie elementy potrzebne są w branży oświetleniowej, gdyż tam często sprzęt jest instalowany w trudnych warunkach i wygoda się bardzo liczy. Obciążalność prądowa takich złączy sięga nawet kilkadziesiąt amperów na pin, co przekonuje, że mogą być stosowane w wielu różnych aplikacjach energoelektroniki.

Złącza na szynę DIN

Drugą specjalistyczną grupę złączy silnoprądowych stanowią elementy przeznaczone do montażu na szynie DIN. Są one bazą do tworzenia systemów i instalacji w przemyśle, automatyce, energetyce i można je znaleźć w wielu obudowach, szafach technicznych, rozdzielniach itp. Zainteresowanie nimi to pochodna rosnącej popularności montażu na szynie DIN urządzeń i coraz większej oferty takich produktów, do których zaliczają się przekaźniki, sterowniki, wyłączniki, zasilacze i podobne.

Produkty na szynę są na rynku cenione, bo pozwalają szybko i bez konieczności korzystania ze specjalistycznych narzędzi stworzyć system, instalację lub nawet całą aplikację. Zapewniają niezbędną indywidualność, bo każdy projekt może być inny, możliwość modernizacji i zmian w dowolnym momencie. Szyna DIN jako element spajający całość mechanicznie jest tutaj niczym podstawa do budowania z logicznych klocków docelowego systemu.

Złącza na szynę pozwalają na wygodne okablowanie takich instalacji i mają postać wąskich płaskich elementów, które można składać w większe zespoły, podobnie jak spaja się terminal bloki. Mają też możliwość wewnętrznego połączenia biegunów, co ułatwia tworzenie dystrybucji zasilania. Złącza na szynę DIN i zacisk sprężynowy obsługują jedną z największych potrzeb instalatorów – szybki i wygodny montaż.

Branże o największym potencjale zakupowym w zakresie złączy silnoprądowych

Przemysł oraz energetyka to dwa najważniejsze sektory pod kątem potencjału zakupowego w zakresie złączy silnoprądowych, co z pewnością trudno uznać za zaskakujące, bowiem obszary te stanowią naturalny obszar aplikacyjny dla tych elementów, służących do podłączania zasilania, elementów wykonawczych, silników maszyn i wszystkich innych odbiorników pobierających znaczną moc. Poza tymi obszarami omawiane złącza trafiają do aplikacji transportu kołowego i szynowego, w którym także jest coraz więcej elektroniki i systemów zasilania energią odnawialną. Ta ostatnia grupa w ostatnich latach znacznie zyskała na znaczeniu.

Złącza śrubowe

Złącza śrubowe są najstarszym rozwiązaniem połączeniowym i zarazem najbardziej zależnym od zdolności manualnych i siły montera, gdyż wymagają wkręcenia śruby. Są wykorzystywane m.in. do podłączania przewodów do płytki drukowanej. W tej wersji są przykładowo zbudowane z metalowej ramki i śruby. Złącze takie jest mocowane do płytki drukowanej za pomocą nóżek montażowych, które są zatrzaskiwane w otworach na PCB i lutowane do niej. Odizolowany przewód jest owijany pod łbem wcześniej odkręconej śruby, która następnie zostaje wkręcona przez montera przy użyciu śrubokręta. Zapewnia to trwałe połączenie elektryczne i mechaniczne między przewodem a metalową ramą.

Przewody zakończone na przykład zaciskami widełkowymi albo pierścieniowymi są wciskane pod łby śrub. Te ostatnie są często kolorowe. To ułatwia identyfikację poszczególnych kabli i pomaga w rozwiązywaniu problemów z ciągłością połączeń. Czasem złącza wyposażane są w dodatkowe blokady, które zapobiegają luzowaniu się śruby.

Oprócz pojedynczych złączy śrubowych dostępne są też bloki zaciskowe do podłączenia obok siebie kilku kabli. W tym przypadku również, po umieszczeniu przewodu w odpowiedniej przegrodzie, od góry, od dołu albo z boku bloku w zależności od typu jego konstrukcji, prostopadle do śruby, trzeba tę ostatnią wkręcić. O ile nie zostanie przekroczony dopuszczalny zakres przekroju poprzecznego, złącza śrubowe mogą być używane do łączenia dwóch przewodów w jednym kanale.

Jan Szyszko

Semicon

Jaka jest sytuacja w łańcuchach dostaw, jeśli chodzi o złącza?

Obecnie sytuacja w łańcuchach dostaw jest stabilna. Duże zakłócenia można było zaobserwować w latach 2020–2022, kiedy to czasy dostaw złączy produkowanych na zamówienie sięgały kilkudziesięciu tygodni, a w niektórych przypadkach przekraczały nawet rok. Obecnie czas ten wynosi od kilku do kilkunastu tygodni, w zależności od tego, czy złącze jest wykonane z typowych komponentów, czy też jest wysoko wyspecjalizowane i dostosowane do indywidualnych potrzeb odbiorcy.

Jakie oczekiwania wobec dostawców złączy mają dzisiaj klienci?

Najważniejszym oczekiwaniem klientów, które często decyduje o wyborze danego rozwiązania, jest dostępność złączy. Ma to znaczenie na różnych etapach: od budowy prototypu, przez wdrożenie produktu finalnego, aż po produkcję seryjną. W przypadku produkcji pierwszych wersji produktu istotna jest otwartość producenta złączy na produkcję małoseryjną lub wytworzenie zaledwie kilku/kilkunastu sztuk na potrzeby testów. Po wdrożeniu produktu finalnego kluczowe jest utrzymywanie buforu magazynowego przez dostawcę, aby być przygotowanym na nagłe zwiększenie zapotrzebowania. Brak gotowości na takie zmiany może skłonić klienta do wyboru innego dostawcy lub nawet innego producenta, zwłaszcza że na rynku dostępna jest szeroka oferta zamienników.

Jakie są największe problemy i wyzwania w tym sektorze rynku?

Największym problemem na polskim rynku jest pogodzenie oczekiwań producentów złączy z wymaganiami ich klientów, czyli producentów urządzeń finalnych. Producenci złączy preferują produkcję dużych partii – tysiące sztuk. W Polsce znajdują oni dużych odbiorców, jednak wiele krajowych firm produkuje urządzenia w ilości kilkuset sztuk rocznie lub specjalistyczny sprzęt w liczbie kilkudziesięciu sztuk. W takich przypadkach klienci są praktycznie skazani na wybór rozwiązań "gotowych", które nie zawsze w pełni odpowiadają ich wymaganiom. Przestawienie linii produkcyjnej złączy oraz logistyka dostosowana do małych partii generują dodatkowe koszty, które są często nieakceptowalne dla klientów.

Zalety i wady złączy śrubowych

Złącza śrubowe to sprawdzone rozwiązanie łączeniowe o ugruntowanej pozycji na rynku. Zwykle są najtańsze. Po prawidłowym wkręceniu śruby zapewniają niezawodne połączenie elektryczne i mechaniczne. Dzięki silnemu dociskowi i stosunkowo niskiej rezystancji styku lepiej sprawdzą się w łączeniu grubszych przewodów, o większej obciążalności prądowej niż tych cieńszych.

Kolejną zaletą jest to, że złącza śrubowe są intuicyjne w montażu. Z drugiej strony jednak o jakości połączenia decyduje sposób wkręcenia śruby. Jeżeli monter użyje w tym celu zbyt dużej siły, istnieje ryzyko, że miedziany rdzeń przewodu zostanie uszkodzony. Oprócz tego gwint może ulec zerwaniu albo zdeformowaniu, podobnie jak łeb śruby. Zacisk z "wyrobioną" śrubą trudno odkręcić i ponownie go podłączyć, przez co staje się ona nieodwracalnie bezużyteczna.

Jeżeli natomiast śruba zostanie wkręcona zbyt słabo i docisk będzie niewystarczający, przewód się z czasem poluzuje. To może spowodować całkowite przerwanie połączenia. Słabszy docisk skutkuje jednak najpierw wzrostem rezystancji styku. Złącze będzie się wówczas nadmiernie nagrzewać, co zwiększa zagrożenie pożarem.

Siła wkręcania powinna być generalnie dopasowana do specyfiki śruby (jej rozmiaru, typu). Trzeba także użyć odpowiedniego śrubokręta. Sprawę komplikuje fakt, że śruby różnią się w zależności od producenta, przez co wymagają innych sił wkręcania i wkrętaków z różnymi rodzajami nacięć. Dlatego zadanie montażu złączy tego typu jest czasochłonne i pracochłonne. Oprócz tego ich śruby trzeba regularnie dokręcać, ponieważ docisk z czasem maleje z powodu płynięcia miedzi. Złącza narażone na wibracje pod kątem poluzowania powinny być sprawdzane częściej.

Złącza z zaciskiem sprężynowym

Niedoskonałości złączy śrubowych doprowadziły do opracowania elementów z montażem sprężynowym. Montaż jest prosty – do szczeliny roboczej złącza należy włożyć odpowiednio cienkie narzędzie, na przykład wąski płaski śrubokręt. To powoduje odgięcie sprężyny. W powstałe w ten sposób wolne miejsce należy wsunąć przewód. Narzędzie, które przez cały czas pozostawało w szczelnie, trzeba wówczas wyjąć. Jego usunięcie powoduje wygięcie się sprężyny do pozycji wyjściowej. To z kolei skutkuje dociśnięciem przewodu i uniemożliwia jego wysuwanie się. W taki sposób uzyskiwane jest trwałe elektryczne i mechaniczne połączenie, które jest oparte na mechanizmie samoblokującym nacisku, jaki sprężyna wywiera na przewód. Analogicznie można go wyjąć, wkładając śrubokręt w szczelinę roboczą, aby odgiąć metalowy element, który wówczas puści kabel.

Nawet pod wpływem wibracji złącza sprężynowe samoistnie się nie poluzowują, inaczej niż wkręty w złączach śrubowych. W przeciwieństwie do tych ostatnich złącza ze sprężyną nie wymagają też regularnej konserwacji. Nie ma ponadto ryzyka ich nieprawidłowego montażu z powodu za silnego albo niewystarczającego dokręcenia śruby. W tym przypadku siła docisku jest uwarunkowana tylko przez właściwości sprężyny. Generalnie jest to zaletą. Jeżeli jednak wymagane jest dostosowanie siły docisku do potrzeb zastosowania ogranicza to możliwości wykorzystania złączy sprężynowych.

Główne zjawiska techniczne

Za najważniejsze zjawisko techniczne zmieniające rynek złączy uznano wersje modułowe i miniaturyzację złączy. Wersje modułowe złączy zapewniają możliwość kompozycji liczby, typu styków i ich układu, a tym samym dopasowania złącza ściśle do wymagań aplikacyjnych. Z kolei miniaturyzacja w zakresie złączy silnoprądowych to jedno z najtrudniejszych wyzwań stojących przed producentami, ale także coraz silniej zarysowane oczekiwanie klientów. W dalszej kolejności wymieniono dostępność wersji ze stykiem sprężynowym i złączy specjalistycznych. Wersje specjalistyczne to kategoria kryjąca rozwiązania dopasowane do wymagań aplikacyjnych i branżowych, w której kryją się elementy zapewniające wysoki stopień ochrony środowiskowej.

Zalety i wady złączy sprężynowych

Z drugiej strony złącza z zaciskiem sprężynowym nie są aż tak wszechstronne, jeżeli chodzi o typ i przekrój poprzeczny przewodu, jak złącza śrubowe. Ich montaż jest jednak zasadniczo łatwiejszy i szybszy, choć nie aż tak intuicyjny, jak w przypadku wkręcenia śruby – monterzy złączy z zaciskiem sprężynowym mogą na przykład pomylić punkt zaciskowy, przeznaczony do włożenia przewodu z gniazdem narzędzia roboczego. Nie jest wymagane konkretne narzędzie – wystarczy jakiekolwiek długie, wąskie, najlepiej płaskie i pasujące do szczeliny roboczej, które nie uszkodzi sprężyny. Zarazem ważne jest, żeby całkowicie otwierało zacisk. Inaczej przewody o przekroju poprzecznym, które teoretycznie powinny się w nim zmieścić, mogą zostać uszkodzone albo połączenie będzie niestabilne.

Złącza sprężynowe są często bardziej kompaktowe niż śrubowe, dzięki czemu lepiej sprawdzą się w ograniczonej przestrzeni. Niestety, pozwalają na podłączenie naraz wyłącznie jednego przewodu – w razie konieczności podłączenia dwóch należy użyć tulei dwużyłowej. Są za to skonstruowane tak, by uniemożliwić dotknięcie części pod napięciem.

Złącza push-in

Sukces złączy z zaciskiem sprężynowym jako zamiennika złączy śrubowych sprawił, że tę pierwszą konstrukcję rozwijano dalej. Efektem było opracowanie złączy wtykowych typu push-in.

Są one w praktyce zaawansowaną wersją tych sprężynowych – styk elektryczny również jest w ich przypadku zapewniany przez sprężynę, która utrzymuje przewód na miejscu. Zasadnicza różnica polega na tym, że w złączu push-in sprężyna "sama" się odegnie, robiąc miejsce na przewód, jeżeli zostanie on wsunięty w zacisk. Warunkiem jest, aby jego końcówka została wcześniej odpowiednio przygotowana, na przykład przez zamontowanie na niej tulejki albo że jest to sztywny przewód.

W takim przypadku montaż nie wymaga użycia dużej siły ani żadnych narzędzi. Beznarzędziowa instalacja jest wyróżnikiem złączy wtykowych w porównaniu z tymi sprężynowymi i śrubowymi. Oznacza to, że nawet osoby o minimalnej wiedzy technicznej albo bez doświadczenia są w stanie prawidłowo zamontować w nich kable. Co ważne, przewód można włożyć, zarazem go podłączyć, używając tylko jednej ręki. To wszystko przekłada się też na szybkość montażu.

Zobacz więcej w kategorii: Rynek
Produkcja elektroniki
Produkcja urządzeń elektronicznych
Mikrokontrolery i IoT
Komponenty automatyki przemysłowej
Projektowanie i badania
Badania i rozwój
Zobacz więcej z tagiem: Produkcja elektroniki
Gospodarka
Unisystem x SoMLabs – współpraca, która wzmacnia europejski rynek elektroniki
Prezentacje firmowe
Loadpoint - zaawansowane rozwiązania precyzyjnego cięcia dla wymagających branż
Opinie
Analizy procesów i dokumentacja techniczna - tworzyć, czy nie?

Jak kompensować moc bierną w małej firmie, by płacić mniej za energię bierną?

Z reguły małej firmy nie stać na zakup automatycznego kompensatora mocy biernej. Niemniej, sytuacja nie jest bez wyjścia i w tym artykule na prostym przykładzie pokazane zostało podejście do rozwiązania problemu mocy biernej.