KOMPONENTY ELEKTRONICZNE – w nich się kryją innowacje

Z tematem zasilania dzisiaj musi się umieć zmierzyć każdy inżynier, co powoduje, że obojętnie jaką się ma specjalizację, trzeba mieć rozeznanie w tym, co jest dostępne na rynku, jakie parametry charakteryzują zasilacze oraz wiedzieć, jak spośród dziesiątek typów, setek wersji, marek, ofert producentów i importerów wybrać ten najlepszy i optymalny pod względem jakości i ceny. Wybór zasilacza jest niełatwy także dlatego, że na rynku jest dużo tandety, a wiele jednostek nie spełnia podstawowych parametrów, nie mówiąc już o zapewnieniu długoterminowej jakości.

Posłuchaj
00:00

Zasilacze impulsowe – niezawodne i bezpieczne

Zasilacz to pojemny termin, za którym kryją się tysiące rozwiązań różniących się parametrami, budową, przeznaczeniem i wykonaniem. Dwa takie same zasilacze w tym ujęciu mogą być inne, jeśli chodzi o konstrukcję wewnętrzną, jakość i funkcjonalność. Mało widoczną dla użytkownika cechą jest też nowoczesność konstrukcyjna tych jednostek.

Nowoczesny zasilacz to taki, którego budowa opiera się na najnowszych dostępnych na rynku technologiach konwersji mocy, materiałach i komponentach. Z tym bywa różnie – wystarczy otworzyć obudowę, aby przekonać się, że wiele jednostek dostępnych na rynku to konstrukcje, w których takich nowinek się nie znajdzie. Powodów tego jest wiele. Przede wszystkim chodzi o cenę, która jest ważnym kryterium wyboru produktu przez klienta. Nowe komponenty i materiały zwykle są droższe od tych popularnych, dlatego musi minąć sporo czasu, zanim nowości trafią do wnętrza zasilaczy dostępnych w handlu. Można nawet pokusić się o stwierdzenie, że im zasilacz popularniejszy, tańszy i bardziej standardowy, tym jego wewnętrzna konstrukcja opiera się na rozwiązaniach znanych od lat. Inercja w adaptacji nowych technologii daje się zauważyć na wielu rynkach, ale w przypadku zasilaczy ma ona bardzo realny wymiar ekonomiczny. Z tych przyczyn w zasilaczach małej mocy jest ona najsłabiej zarysowana i dotyczy najczęściej sterownika scalonego, a najrzadziej elementów magnetycznych i podzespołów pasywnych. W jednostkach dużej mocy, rozwiązaniach specjalizowanych i niszowych bywa znacznie większa, bo cena tych rozwiązań ma mniejsze znaczenie, a funkcjonalność i parametry techniczne są bardziej brane pod uwagę.

Co się liczy w zasilaczach u klientów?
 
Naturalnym podejściem jest chęć uzyskania jak najwięcej za jak najniższą cenę. Dlatego w pierwszym podejściu niemal wszystkie nowości i "udogodnienia" oferowane przez bardziej zaawansowane systemy zasilające są pożądane. Niemniej bardziej zaawansowane rozwiązania zwykle muszą kosztować więcej, co nie zawsze jest do zaakceptowania, i często na koniec okazuje się, że klienci są gotowi na daleko idące kompromisy, byleby tylko zapłacić mniej. Nie ma w tym nic złego, jeśli wybory takie są dokonywane świadomie i zastosowany system zasilania spełnia niezbędne wymagania techniczne i niezawodnościowe – czyli jest "z tej samej półki" co urządzenie, w którym został użyty.

SPRAWNOŚĆ JEST BARDZO ISTOTNA

Sprawność zasilaczy staje się ważna z kilku powodów. Po pierwsze, im jest ona większa, tym zasilacz może dostarczać więcej mocy przy tych samych wymiarach. Czyli wysoka sprawność jest przepustką do miniaturyzacji. Bezsprzecznie wysoko sprawny zasilacz kojarzy się również z produktem nowoczesnym i zaawansowanym technicznie.

Po drugie, wysoka sprawność oznacza niższe koszty eksploatacji urządzeń. Ponieważ energia elektryczna stale drożeje, w rozwiązaniach przemysłowych, teleinformatycznych oraz innych obszarach, gdzie urządzenia pracują non stop przez długie lata, koszt energii się liczy. W wielu przypadkach do kosztu pobieranej z sieci energii elektrycznej trzeba doliczyć koszt usunięcia ciepła z obiektu za pomocą systemu klimatyzacji (np. w serwerowniach, stacjach telekomunikacyjnych).

Po trzecie, wysoka sprawność oznacza też często małą awaryjność zasilaczy, a więc pośrednio dużą jakość. Bo wysoko sprawne jednostki mało się grzeją i ich podzespoły nie są tak obciążone cieplnie. Są mniejsze, a więc też mogą być tańsze w produkcji, bo nie potrzeba do nich dużych radiatorów. Dzięki wysokiej sprawności zasilacze mogą działać w szerszym zakresie temperatur, nie wymagają chłodzenia wymuszonego. Także ograniczenia na moc wyjściową przy dużych temperaturach otoczenia stają się łagodniejsze. To zagadnienie określa się terminem derating, co oznacza, że z uwagi na ograniczenia cieplne, przy wysokich temperaturach otoczenia, moc maksymalna dostarczana przez zasilacz maleje.

Główne zjawiska techniczne w zasilaczach
 
Na liście najważniejszych zjawisk technicznych w zasilaczach uznano wysoką sprawność konwersji energii, a na drugiej pozycji znalazła się miniaturyzacja, która jest z tą sprawnością mocno powiązana. Duża sprawność pozwala na to, że zasilacze nawet kilkusetwatowe mają niewielkie wymiary i nie wymagają chłodzenia wymuszonego, bo mało się grzeją. Te najbardziej zaawansowane jednostki mają ją na poziomie istotnie przekraczającym 90%. Kolejne istotne czynniki to monitoring stanu pracy i możliwość programowania przez interfejs cyfrowy oraz możliwość chwilowego przeciążania. Dalsze kryteria mają już podobne znaczenie, a wspólnym mianownikiem dla nich jest funkcjonalność charakterystyczna dla zastosowań przemysłowych, teleinformatycznych lub w medycynie.

Po czwarte, wysoka sprawność zasilaczy, mała moc standby lub konieczność korekcji współczynnika mocy jest coraz częściej wymogiem prawnym.

Sprawność najbardziej zaawansowanych jednostek dawno już przekroczyła 90%, a wartości rzędu 95% wcale nie są jakimś wyjątkiem. Z reguły im zasilacz mniejszej mocy, tym sprawność średnia jest mniejsza, ale mimo to bez problemu można kupić dzisiaj zasilacze wtyczkowe lub biurkowe do sprzętu konsumenckiego osiągające średnią sprawność 88‒90%.

Warto dodać, że w produktach konsumenckich wysoka sprawność idzie w parze z małym poborem mocy bez obciążenia. Ograniczenie wielkości energii pobieranej przez zasilacz na własne potrzeby to także wymogi narzucane przez regulacje unijne, gdyż nawet jeśli pobierana przez pojedynczy zasilacz moc standby nie wydaje się duża to jednak takich zasilaczy jest bardzo dużo i sumarycznie stanowią one już poważne obciążenie dla sieci. Bezsprzecznie w temacie mocy standby sporo się ostatnio dzieje, a producenci półprzewodników, czyli układów sterujących i zasilaczy, wkładają wiele wysiłku w to zagadnienie, co chwila bijąc rekordy oszczędności i ekologiczności. Zapewnienie niskiego poboru mocy bez obciążenia jest łatwiejsze w przypadku sterowania cyfrowego, bo implementacja technik sterowania z gubieniem impulsów, zmianą topologii konwersji w takim stanie w ten sposób jest łatwiejsza do osiągnięcia. Jednostki zgodne z Energy Efficiency Level VI lub CoC 5 pobierają z sieci w tym stanie poniżej 0,1 W.

Tadeusz Drozdek

 Inżynier sprzedaży w firmie Amtek

  • Jakie zjawiska techniczne w zasilaczach warto wymienić?

Choć zasilacze to dziedzina już mocno dojrzała, o ponad 50-letniej historii, to ich rozwój nie zwalnia. W sensie ilościowym zmiany dotyczą miniaturyzacji, poprawy sprawności i zmniejszenia poboru energii, minimalizacji emisji i zwiększenia odporności EMC, usprawnienia odprowadzania ciepła oraz poprawy niezawodności i czasu życia, zwiększenia odporności na warunki takie jak wahania napięcia sieciowego, wysoka czy niska temperatura, wilgotność, wstrząsy i wibracje.

Osiąga się to poprzez zastosowanie nowoczesnych podzespołów – choćby półprzewodników opartych na węgliku krzemu czy azotku galu albo nowych materiałów magnetycznych, przez rozwiązania układowe, takie jak cyfrowa topologia regulacji czy innowacyjne układy korekcji współczynnika mocy, a także przez różnego rodzaju zabiegi konstrukcyjne, jak np. optymalizacja projektu płytki zasilacza zorientowana na lepsze rozpraszanie ciepła. Zmiany jakościowe to przede wszystkim coraz bogatsze wyposażenie funkcjonalne zasilaczy, w tym kompleksowe układy zabezpieczeń, sygnalizacja stanów awaryjnych i sterowanie. Najbardziej zaawansowane jednostki, wyposażone w interfejsy cyfrowe, pozwalają nie tylko na wszechstronne monitorowanie aktualnego stanu czy sterowanie włączaniem/ wyłączaniem, ale również ustawienie i odczyt wielu parametrów pracy, takich jak napięcie, prąd wyjściowy czy progi zadziałania zabezpieczeń. Niektóre umożliwiają rejestrację stanów awaryjnych i rzeczywistego czasu pracy, a nawet predykcję pozostałego czasu życia.

Na koniec warto wyróżnić cechy wymuszane nowymi aplikacjami i nowymi wymaganiami obowiązujących norm. Należą do nich coraz bardziej wyrafinowane układy korekcji współczynnika mocy, zdolność do krótkotrwałego dostarczenia dużego prądu potrzebnego do rozruchu coraz powszechniejszych obciążeń indukcyjnych, takich jak silniki, czy do absorbcji prądu wspomagającej ich hamowanie, łącznie ze zwrotem odbieranej energii do sieci. Są to również rozwiązania coraz większych zasilaczy z cichym i bezawaryjnym chłodzeniem pasywnym oraz małe zakłócenia, prądy upływu i wzmocniona izolacja galwaniczna wymagane przez aplikacje medyczne.

  • Gdzie kieruje się rozwój tego biznesu (aplikacje, branże)?

Głównym czynnikiem rozwojowym jest coraz szersze zastosowanie zaawansowanej elektroniki oraz nowe trendy w dziedzinach takich jak transport, medycyna czy produkcja przemysłowa, gdzie coraz bardziej wyrafinowane systemy testowania i pomiarów, sterowania i napędu zastępują dotychczasowe rozwiązania elektromechaniczne czy pneumatyczne. Tu, obok podstawowego wymogu stabilnego i niezawodnego zasilania elektroniki, można wymienić coraz większe potrzeby odnośnie do testowania i ładowania akumulatorów czy napędu różnego rodzaju silników i siłowników, coraz ostrzejsze wymagania norm bezpieczeństwa i kompatybilności elektromagnetycznej, a także stałe dążenie do minimalizacji zużycia energii.

CYFRYZACJA ZASILACZY

Cyfryzacja zasilaczy jest bezdyskusyjnym faktem, niemniej jest to proces pod każdym względem ewolucyjny i niekoniecznie dotyczący dzisiaj obwodów konwersji mocy. Cyfrowa jednostka może mieć cyfrowy sterownik bazujący na procesorze DSP lub wydajnym mikrokontrolerze lub też być zrealizowana w wersji klasycznej z procesorem zarządzającym działaniem sterownika.

Najważniejsze czynniki o charakterze negatywnym dla rynku
 
Najwięcej problemów z rozwojem rynku zasilaczy stanowią tanie i kiepskie jednostki producentów azjatyckich, obojętnie czy chodzi o wersje specjalistyczne, czy też takie o bardziej ogólnym przeznaczeniu. Drugi czynnik pod względem ważności to brak wiedzy u klientów na temat znaczenia posiadania pewnego zasilania, orientacji w parametrach lub też umiejętności dostrzeżenia korzyści dla aplikacji. Silna konkurencja na rynku, która znalazła się na trzecim miejscu, dotyczy jak widać wszystkich sektorów rynku zasilania, także tych najbardziej wartościowych. Zaskakująco wyższe ceny nowoczesnych zasilaczy nie zostały zakwalifikowane jako czynniki negatywne dla rozwoju rynku.

Najczęściej cyfryzacja zasilaczy dotyczy tego drugiego przypadku. Procesor realizuje wówczas komunikację cyfrową, nadzoruje działanie sterownika, pozwala na ustawienie progów zabezpieczeń, poziomów napięć, zarządza równomiernym podziałem mocy przy połączeniu równoległym, dokonuje kompensacji spadku napięcia na przewodach zasilających itd. Pełna cyfryzacja zapewnia jeszcze możliwość programowania topologii konwersji mocy, a więc większą elastyczność działania. W zasilaczu całkowicie cyfrowym topologia konwersji energii może się zmieniać płynnie w zależności od obciążenia lub napięcia wejściowego, po to, aby zmaksymalizować sprawność przetwarzania lub ograniczyć straty mocy, gdy zasilacz jest nieobciążony. Rozwiązania cyfrowe pomagają też w realizacji złożonych systemów zasilających, na przykład tzw. dwukierunkowych, czyli takich, które mogą dostarczać energię do obciążenia lub ją pobierać, przesyłając z powrotem do sieci. W takich przypadkach zmiana topologii konwersji energii w locie jest niezbędna.

W obszarze przemysłu, elektroniki konsumenckiej cyfryzacja zasilaczy to cały czas przyszłość, niemniej patrząc na tempo zmian w przemyśle elektronicznym, nie wydaje się, aby była ona tak bardzo odległa.

Najważniejsze zjawiska pozytywne dla rynku zasilaczy
 
Za najważniejsze zjawisko sprzyjające rozwojowi rynku zasilaczy pytanie przez nas w ankietach specjaliści uznali wzrost znaczenia zagadnień związanych z jakością w ostatnich latach, a także stale rosnące zaawansowanie techniczne urządzeń elektronicznych. Te dwa zjawiska wymuszają stosowanie coraz bardziej zaawansowanych zasilaczy, takich, które dostarczają energię o lepszych parametrach lub są mniejsze (mają większą gęstość mocy w jednostce objętości). Na drugim miejscu znalazło się kryterium, że aktualnie na rynku jest coraz więcej zasilaczy nowoczesnych i kupujący mogą wybierać produkty spełniające wszystkie, także te wyszukane, potrzeby. Za ważne uznano ponadto coraz większe znaczenie wymagań prawnych determinujących minimalne parametry zasilaczy, a więc na przykład te związane ze sprawnością, mocą pobieraną z sieci bez obciążenia, koniecznością korekcji współczynnika mocy lub też kompatybilnością elektromagnetyczną. Ale nietrudno zauważyć, że różnice pomiędzy poszczególnymi słupkami na wykresie są niewielkie.

INTERFEJS KOMUNIKACYJNY

Coraz więcej jednostek zasilających ma możliwość komunikacji za pomocą interfejsu cyfrowego. Jest to także wymowny znak postępującej cyfryzacji, ale i obraz zmieniających się wymagań klientów.

Interfejs cyfrowy daje możliwość odczytu stanu zasilacza, a więc napięcia wyjściowego i prądu, temperatury, parametrów napięcia sieci energetycznej oraz informacji nt. liczby przepracowanych godzin lub wcześniejszych zdarzeń, takich jak zaniki napięcia lub przeciążenia. Takie informacje mogą być wykorzystane do zarządzania działaniem systemu, planowania obsługi technicznej lub prognozowania awarii.

W drugą stronę interfejs pozwala na ustawianie parametrów takich jak wartości napięć i prądów oraz progów zadziałania zabezpieczeń. Programować można też działanie korektora spadku napięcia na długich przewodach, który podbija lekko napięcie przy wzroście prądu obciążenia. Interfejs jest też niezbędnym elementem przy łączeniu wielu jednostek w systemy pracujące równolegle lub typu N+1, a więc z redundancją i hot swapem.

Zasilacz z interfejsem cyfrowym staje się obecnie komponentem komunikacyjnym i takim samym elementem jak np. switch sieciowy, bo łącze cyfrowe nierzadko obsługuje standardowy protokół sieciowy jak Modbus, a konstrukcja oprogramowania pozwala na zdalne zarządzanie. Nie tylko chodzi tu o wygodę, ale także o możliwość zapanowania nad złożonymi systemami zasilającymi, gdzie poza siecią energetyczną jest też akumulator lub agregat prądotwórczy, panel fotowoltaiczny itd. Systemy zasilania stają się coraz bardziej złożone i możliwość programowania zasilaczy to w pewnej mierze skutek tych procesów.

Warto zwrócić uwagę jeszcze na ekonomiczne aspekty możliwości programowania parametrów zasilania. Im w szerszym zakresie jest ono możliwe, tym mniej jednostek może mieć producent w ofercie. Mniej typów to niższe koszty magazynowania i większa skala produkcji dla danej jednostki. Nawet jeśli dodanie programowania odbywa się kosztem wzrostu komplikacji układowej, po uwzględnieniu wszystkich korzyści jest to opłacalne dla producentów i klientów. I dlatego rynek zasilania profesjonalnego zmierza w tym kierunku.

Zainteresowanie innowacjami w zasilaczach na rynku polski

 
Innowacyjne jednostki zasilające, a więc o rozbudowanych funkcjach użytkowych, dużej możliwości aplikacyjnej, wysokiej sprawności oraz doskonałych parametrach dostarczanej energii muszą być właściwie ocenione przez potencjalnych klientów pod kątem tego, jakie możliwości zapewniają. Wiele innowacji jest skomplikowanych od strony technicznej lub też użytecznych w specyficznych warunkach, bardziej skomplikowanych systemach. Dlatego popyt na takie jednostki w znacznej części jest determinowany przez wiedzę kupujących na tematy związane z zasilaniem. Takie wnioski płyną bezsprzecznie z naszego badania ankietowego, w którym pytaliśmy m.in. o to, jakie jest zainteresowanie innowacjami w zasilaczach na rynku polskim.

 
Z badania wynika również, że udział takich jednostek w rynku zasilania jest niewielki, a kupują je jedynie wymagający klienci do złożonych aplikacji, w których nie ma presji na niską cenę. W połowie przypadków wyższa cena takich zasilaczy tworzy też skuteczną barierę dla popytu, a zatem można stwierdzić, że są to produkty niszowe ze wszystkimi korzyściami i problemami, jakie się z tym wiążą.

ZASILANIE GWARANTOWANE W WERSJI "MNIEJSZEJ"

Pojęcie "zasilanie gwarantowane" odnosi się w uproszczeniu do systemów, w których zanik głównego napięcia sieci energetycznej nie prowadzi do wyłączenia systemu. Zwykle takie zasilanie jest realizowane za pomocą zasilacza UPS, który jest specjalizowaną przetwornicą z akumulatorem, zdolną do podtrzymania napięcia sieci. Drugi popularne rozwiązanie to zasilacz napięcia stałego, który ma na wyjściu dodany akumulator podtrzymujący stałe napięcie wyjściowe. Jest to zasilacz buforowy, który typowo dostarcza 12 V napięcia stałego i współpracuje z kwasowo-ołowiowym akumulatorem żelowym.

W ostatnim okresie na rynku pojawiają się zasilacze, których funkcjonalność znajduje się pomiędzy tymi UPS-ami i zasilaczami buforowymi. Pozwalają one dołączyć akumulator i stworzyć w razie potrzeby podtrzymanie napięcia wyjściowego. Inne rozwiązania zasilaczy tego typu zawierają superkondensatory zapewniające podtrzymanie zasilania, dzięki czemu mają dużą trwałość i pracują w szerszym zakresie temperatur. Takie specjalistyczne zasilanie gwarantowane zyskuje na popularności, bo z jednej strony rośnie liczba urządzeń wymagających podtrzymania zasilania (np. elementy infrastruktury teleinformatycznej, takie jak switche lub modemy), a z drugiej strony moc pobierana przez takie urządzenia jest coraz mniejsza. Nierzadko też wymagany czas podtrzymania zasilania nie musi być długi. Klasyczne UPS- y stają się tym samym dla nich "za duże". W takich sytuacjach akumulatory w zasilaczu buforowym zastępuje się dzisiaj superkondensatorami i to wystarcza. Czas podtrzymania jest zwykle znacznie mniejszy, ale tę niedogodność rekompensuje szeroki zakres temperatur pracy, niewielki ciężar, brak konieczności wymiany okresowej akumulatorów (a więc jest pełna bezobsługowość). Cena takich rozwiązań jest wyższa, ale w aspekcie długoterminowym inwestycja w takie rozwiązanie ma sens, tym bardziej, że akumulator zdolny do pracy w szerokim zakresie temperatur też wcale nie jest tani. Zasilacze z superkondensatorami to propozycja głównie do zastosowań w przemyśle i aplikacji instalowanych na zewnątrz budynków.

JEDNOSTKI O SPECJALNYM PRZEZNACZENIU

Zasilacz to produkt uniwersalny, ale na rynku coraz częściej producenci tworzą wersje specjalizowane – ukierunkowane na specyficzne zastosowania. Uwalniają one projektantów od konieczności dodawania dodatkowych układów pomocniczych, płytek realizujących specyfikę aplikacyjną, które zostają zaszyte wewnątrz obudowy. Takie specjalizowane wersje spełniają wymagania branżowe od strony elektrycznej i mechanicznej.

Są to wykonania aplikacyjne: do oświetlenia LED, do ładowania akumulatorów o stałym prądzie wyjściowym, wersje medyczne o wzmocnionej izolacji i małym prądzie upływu izolacji, wysokonapięciowe itd. W przypadku zasilaczy do LED stosowane są inne obudowy i złącza, takie, które są dopasowane do specyfiki montażu w oprawie oświetleniowej lub puszkach elektroinstalacyjnych. Obudowy takie są najczęściej hermetyczne.

Asortyment dostępnych na rynku zasilaczy poszerza się także o wersje wyposażone we wzmocnioną izolację o niskiej upływności. Do niedawna były one rzadkością i wykorzystywane tylko w aplikacjach medycznych, niemniej poszerzająca się oferta wskazuje, że takie jednostki trafiają także do aplikacji przemysłowych, precyzyjnej aparatury pomiarowej oraz rozbudowanych systemów, gdzie łączone są obwody na różnych potencjałach. W takich przypadkach zasilacz o wzmocnionej izolacji jest w stanie zapewnić stabilność i jakość działania układów pomiarowych. Problemy są coraz częstsze, bo nie zawsze zasilacz pracuje ze stabilnym obciążeniem, stabilną siecią energetyczną i uziemioną obudową. Duży prąd upływu może wywołać wzrost potencjału na wyjściu w stosunku do ziemi przy połączeniu do sieci dwoma przewodami i przy niewielkim obciążeniu, co może zakłócać działanie obwodów kondycjonujących, wejściowych przetworników itp.

Są też zasilacze dwukierunkowe, a więc takie, które są w stanie odwrócić kierunek konwersji energii i dostarczać zasilanie do wejścia z wyjścia. Inne rozwiązania to zasilacze czteroćwiartkowe, czyli takie, które mogą płynnie zmieniać funkcję z dostarczania energii do obciążenia na jej odbieranie (jak obciążenie elektroniczne). Takich rozwiązań pojawia się coraz więcej.

Adam Wolak

 Product manager w firmie Masters

  • Jakie nowości i trendy są warte zauważenia w zasilaczach?

Unia Europejska oraz Stany Zjednoczone wprowadziły niedawno nowe normy i dyrektywy energetyczne. W związku z tym producenci zasilaczy dążą do zmniejszenia strat energii, a co za tym idzie osiągnięcia jak najwyższej sprawności w trybie pracy i zapewnienia jak najmniejszego poboru prądu w trybie standby. Miniaturyzacja urządzeń ma również przełożenie na wymagania odnośnie do gabarytów zasilaczy. Klienci oczekują zapewnienia wysokich parametrów przy jednoczesnej jak najmniejszej obudowie.

  • Na jakie cechy zasilaczy zwracają uwagę najczęściej klienci branżowi? Jakim czynnikiem jest cena?

Kiedy wchodzi w grę wybór elementów zasilania, klienci zwracają uwagę na stosunek ceny do oferowanych parametrów technicznych oraz jakości. Konstruktorzy szczególną wagę przywiązują do wysokiej sprawności. Ważne są również gabaryty, które muszą pasować do projektowanego urządzenia, kompatybilność elektromagnetyczna oraz certyfikaty potwierdzające zgodność z normami, np. ze standardami kolejowymi czy medycznymi.

ELEKTROMOBILNOŚĆ

Bez względu na to, ile samochodów elektrycznych jest już w użyciu, ile ich będzie w najbliższych trzech latach i czy będą one produkowane w Polsce zgodnie z wolą polityków, elektromobilność jest ważnym trendem zmieniającym rynek zasilania już dzisiaj. To dlatego, że na samochodach elektrycznych świat się nie kończy i poza nimi jest wiele sprzętu o napędzie elektrycznym. Po stronie profesjonalnej wystarczy wymienić wózki magazynowe, w tym rozwiązania działające autonomiczne, roboty oraz rozwiązania transportowe mniejszego kalibru, takie jak skutery, hulajnogi, rowery. Te wszystkie urządzenia są zasilane z akumulatorów i muszą mieć ładowarki, czyli specjalne zasilacze.

Szczegóły realizacji procesu ładowania zależą od konkretnego rozwiązania, ale zawsze podstawowym komponentem ładowarki jest zasilacz. Ładowarka powinna być mała i szybka, bo wszystkim użytkownikom zależy na szybkim ładowaniu, a wiele aspektów aplikacyjnych i ekonomicznych jest wprost powiązane z tym, czy sprzęt będzie można szybko naładować.

Wysoko sprawny zasilacz pozwala zapewnić dużą moc wyjściową przy niewielkich wymiarach i dlatego trend elektromobilności będzie pozytywnie oddziaływał na rynek zasilania w kolejnych latach. Co więcej, wydaje się, że ładowarki takie będą budowane w oparciu o najnowsze rozwiązania technologiczne, a więc materiały magnetycznie i podzespoły indukcyjne oraz półprzewodniki z GaN. Wskazują na to konstrukcje, które się pojawiają na rynku. Ładowarki bazujące na tranzystorach z GaN zapewniają wyraźnie widoczną dla użytkownika większą gęstość mocy. Małe rozwiązania, wielkości pudełka zapałek do telefonów, osiągają 25 W, odrobinę większe do laptopów ok. 60‒80 W, zasilacze o mocy jednego kilowata są dzisiaj wielkości szkolnego piórnika.

ZASILACZE DO SYSTEMÓW POMIAROWYCH, BADAŃ I MIERNICTWA

Zasilacze to też jednostki laboratoryjne wykorzystywane przy pomiarach do zasilania sprzętu i zadawania sygnałów wymuszeń. Są wykorzystywane także w sferze produkcji, podczas testowania jakości i badań automatycznych, gdzie pełnią funkcję podobną do generatorów arbitralnych dużej mocy, generatorów zaburzeń w sieci zasilania oraz części testerów odpowiedzialnej za badania wytwarzanych urządzeń pod kątem współpracy ze źródłem zasilania. Zasilacze takie pozwalają na swobodne programowanie parametrów wyjściowego przebiegu "w locie" i tym samym są wygodnym elementem systemów pomiarowych i testerów ATE. Jednostki te różnią się głównie tym, że pozwalają na regulację napięć i prądów wyjściowych w szerokim zakresie (np. czterech ćwiartkach układu współrzędnych z płynnym przejściem przez zero w każdym kierunku), mają bardzo dobre parametry stabilizacji i czystości napięcia wyjściowego, zawierają często kilka niezależnych kanałów wyjściowych i mogą być sterowane z komputera, pełniąc funkcję elementu systemu pomiarowego.

LICZNE UŻYTECZNE DODATKI

Użyteczna funkcjonalność, jaka pojawia się dzisiaj często w zaawansowanych jednostkach zasilających, obejmuje takie dodatki, jak np. możliwość regulacji wyjściowego napięcia w niewielkim zakresie trymerem, po to, aby skompensować spadek napięcia na przewodach wyjściowych. Do tego samego celu służą zwielokrotnione zaciski wyjściowe lub też możliwość podłączenia dwóch dodatkowych przewodów pomiarowych bezpośrednio do zacisków obciążenia (tzw. połączenie kelwinowskie czteroprzewodowe). Taki sposób zapewnia znakomite parametry napięcia wyjściowego (statyczne i dynamiczne) w zasilaczach dużej mocy i o niskim napięciu wyjściowym, np. 5 V/100 A.

Kolejne przydatne funkcje to wyjście sygnalizacji zaniku zasilania, gotowości zasilacza, możliwość chwilowego przeciążania, która przydaje się przy zasilaniu odbiorników takich jak silniki indukcyjne lub promienniki halogenowe. Pozwala to uniknąć przewymiarowana konstrukcji i kupowania zasilacza ze sporym zapasem mocy. Wiele aplikacji potrzebuje jej przez krótki czas, a przykładem mogą być zawory, rygle oraz siłowniki i w takiej sytuacji niewielka jednostka zasilająca z możliwością przeciążania jest w rozrachunku znacznie tańsza. Przeciążanie najczęściej bazuje na wbudowanych superkondensatorach.

Od strony układowej zasilacze wyposaża się dzisiaj we wszechstronne układy zabezpieczające, rozbudowane filtry wejściowe, sterowniki zapewniające sygnalizację stanu zasilacza i podobne obwody ochronne na tyle skuteczne, że awaria na skutek przeciążenia, stanu nieustalonego lub zwykłego błędu podczas montażu instalacji staje się praktycznie niemożliwa.

SZEROKI ZAKRES NAPIĘCIA WEJŚCIOWEGO

Pięć lat temu nowością na rynku zasilania impulsowego były wersje pozwalające na zasilanie dowolną wartością napięcia sieciowego występującą na całym świecie, a więc od ok. 86 do 240 VAC, w tym także odpowiadającą jej wartością napięcia stałego. Nietrudno zauważyć, że szybko stało się to standardem i dzisiaj w zasadzie ogromna większość zasilaczy małej i średniej mocy nie wymaga przełączania zakresu zasilania. Wyjątkiem są wersje zdolne do pracy jeszcze w szerszym zakresie, a więc także z zasilaniem napięciem międzyfazowym (ok. 400 VAC), niemniej ich obszar aplikacyjny jest znacznie ograniczony.

 

Złącza silnoprądowe – awangarda techniki łączeniowej

Złącza silnoprądowe to jedna z najważniejszych grup asortymentowych wśród komponentów elektromechanicznych. Elementy te zajmują także wysoką pozycję w całej ofercie szeroko pojętej techniki łączenia, z uwagi na wysoką przenoszoną moc i wiążące się z nią problemy, z którymi mierzą się ich wytwórcy. W miarę jak skala produkcji przemysłowej w Polsce rośnie, sprzętu i urządzeń technicznych potrzeba coraz więcej, przez co rośnie też zapotrzebowanie na elementy połączeniowe.

Nie bez znaczenia jest też to, że elektronika odgrywa coraz większe znaczenie w postępie technicznym, a jej istotność w aplikacjach dużej mocy szybko się zwiększa. W konsekwencji rozwijającego się rynku krajowego poprawia się też oferta złączy pod kątem szerokości asortymentu, dostępności elementów wysokiej jakości od czołowych firm europejskich i złączy produkowanych w krajach azjatyckich. Wydaje się, że główna oś rywalizacji o klienta w tym obszarze jest między renomowanymi markowymi firmami zlokalizowanymi w Europie i producentami mniej znanymi spoza jej obszaru.

Coraz wyższe wymagania klientów spychają na margines kiepskie jakościowo elementy, rynek powoli oczyszcza się też z niskiej jakości zamienników, bo koszty napraw przekraczają uzyskane korzyści ich przy zakupie. W ten sposób jeden z najważniejszych problemów rynku, związany z tanimi złączami o kiepskiej jakości, staje się mniej dokuczliwy i oddziałujący na relacje z klientami, z czym jeszcze parę lat temu był widoczny problem. Dzisiaj renomowani producenci i dystrybutorzy skupiają się raczej na zapewnieniu dostępności elementów i wsparcia technicznego, bo są to obszary, gdzie wysiłek może przynieść długofalowe korzyści biznesowe.

ZJAWISKA TECHNICZNE W ZŁĄCZACH SILNOPRĄDOWYCH

Rozwój techniczny w złączach silnoprądowych przebiega w tym obszarze podobnymi ścieżkami, jak w przypadku innych elementów. Bezsprzecznie zmiany kierują się ku kompaktowości i miniaturyzacji, czego skutkiem są też wersje kabel-płytka dostępne do montażu powierzchniowego oraz THR (Through Hole Reflow), jak również elementy do montażu kabla o niewielkich wymiarach i gęstych rastrach pinów. Obciążalność złączy w przeliczeniu na objętość powiększa się głównie na skutek stosowania lepszych materiałów na styki i tworzyw konstrukcyjnych obudowy złącza. Coraz szerzej wykorzystywane są tworzywa kompozytowe, bo zapewniają wysoką stabilność mechaniczną obudowy w szerokim zakresie temperatur. Dzięki temu nawet zwiększone nagrzewanie styków nie powoduje deformacji.

Drugim obszarem pozwalającym na miniaturyzację jest konstrukcja styków. Producenci sporo eksperymentują tutaj z materiałami i pokryciami takimi, aby niewielki pin był jednocześnie wytrzymały mechanicznie oraz elastyczny. Zwiększane jest pole styku na wszystkie płaszczyzny i na całą długość pinu, stosowane są wielosprężynowe systemy docisku części męskiej i żeńskiej, po to, aby zapewnić pewny kontakt na dużej powierzchni.

Ostatnim ważnym zagadnieniem związanym z miniaturyzacją są pokrycia styków. Z reguły piny, a więc konstrukcyjne elementy styku złącza, wykonuje się z materiałów zapewniających wysoką odporność mechaniczną, natomiast za kontakt elektryczny odpowiada materiał pokrycia. Celem jest zapewnienie niskiej rezystancji przy dużej odporności na ścieranie, utlenianie i wypalanie materiału na skutek iskrzenia.

Liczba problemów, z jakimi mierzą się producenci złączy jest naprawdę duża, gdyż nie chodzi o to, aby uzyskać jednorazowo dobry wynik, ale o stabilne parametry połączenia w czasie i różnych warunkach środowiskowych. W tym obszarze kryją się też największe różnice między tanimi złączami słabej jakości a rozwiązaniami z górnej półki.

MODUŁOWOŚĆ W ZŁĄCZACH

Coraz więcej urządzeń technicznych ma konstrukcję modułową i zawiera bloki funkcjonalne, które są łączone w jednej obudowie za pomocą dobranych komponentów połączeniowych. Łatwiejszy montaż i demontaż zapewniane są przez logiczny podział aplikacji na części, systemy szybkich połączeń (niewymagających stosowania narzędzi). Przynosi to oszczędności w serwisie, utrzymaniu ruchu, instalacji, modernizacji.

Podobne procesy są widoczne po stronie złączy, w których asortymencie modułowość jest coraz bardziej widoczna. Polega ona na podziale konstrukcji na elementy składowe i zapewnieniu możliwości komponowania finalnego wyrobu z zestawu części składowych, do których zalicza się w minimalnym zakresie obudowa i wkładka z pinami. W szerszym zakresie dochodzą jeszcze możliwości kompozycji wkładki z pinami tak, że można dobierać liczbę i typy znajdujących się w niej styków, elementy wyprowadzenia kabla, ekrany i uszczelnienia, akcesoria itd.

Złącza modułowe to dobre rozwiązanie zarówno dla klientów, jak i producentów, bo pozwala ominąć problemy wynikające z bardzo małej standaryzacji tych produktów. Dla producentów oznacza to mniejszą liczbę pozycji w ofercie, dla klienta lepsze ceny i lepszą dostępność wynikające ze skali produkcji oraz kosztów logistyki. Nic dziwnego, że z roku na rok wersji modułowych na rynku przybywa.

Jakie znaczenie dla biznesu firmy mają złącza silnoprądowe?
 
Dla co drugiej firmy z tego zestawienia złącza silnoprądowe stanowią ważną pozycję w ofercie, dla co trzeciej jest to dodatek do większej całości, a dla co siódmej produkty te są bardzo ważną lub nawet najważniejszą częścią biznesu. Podział ten w porównaniu do innych grup podzespołów jest bardziej przechylony w stronę dystrybucji specjalistycznej, bowiem z reguły pole żółte jest znacznie szersze. Innymi słowy, złącza silnoprądowe to produkt sporo odbiegający od produktów powszechnego zastosowania, nie tylko pod kątem technicznym, ale także od strony siatki sprzedaży.

SZYBKI MONTAŻ

Wiele instalacji realizowanych jest w niekorzystnych warunkach: na zewnątrz budynków, przy słabym oświetleniu, w niewygodnej pozycji, przez co ryzyko błędu jest spore. Oczywiście wiele złączy z tego obszaru pozwala na zakodowanie połączenia, czyli na zamontowanie zabezpieczenia mechanicznego uniemożliwiającego włożenie złej wtyczki w gniazdo, niemniej kodowanie nie zapobiega możliwości uszkodzenia elementów złącza i nie zawsze jest możliwe.

Kolejny obszar ryzyka to konieczność montażu przewodu w złączu w trudnych warunkach, np. podczas pracy na wysokości. Brak konieczności korzystania z narzędzi, proste czynności sprowadzające się do wsunięcia końcówki przewodu w otwór szybko zyskują tutaj uznanie.

Zacisk sprężynowy będący podstawą takiego montażu nie jest na rynku nowością, bo bazujące na nim złącza są już dostępne mniej więcej od dekady, ale w zakresie rozwiązań silnoprądowych dopiero od niedawna, bo konieczne było dopracowanie szczegółów rozwiązań, aby gwarantowały one wysokiej jakości połączenie. W obwodach zasilanych z sieci było to łatwiejsze do zapewnienia, bo gdy styk się pogarszał, powstawał łuk, który czyścił połączenie, wypalając tlenki. W obwodach niskonapięciowych producenci złączy proponują inne rozwiązania szybkiego montażu, jak na przykład takie bazujące na dźwigni. Cały czas popularne są również złącza zaciskane. Ich potencjał jest najbardziej widoczny w aplikacjach niskonapięciowych, np. motoryzacji, gdzie połączenie zaciskane uważane jest za bardzo odporne na narażenia mechaniczne oraz środowiskowe i przy tym tanie.

Złącza silnoprądowe – definicja

Mimo że złącza silnoprądowe stanowią wyraźnie wydzieloną grupę produktową, nie ma ścisłej definicji pozwalającej na jednoznaczną ich kategoryzację i przyporządkowanie do takiego obszaru aplikacyjnego. Nie da się arbitralnie ustalić jakie prądy i napięcia są już silne, a jakie nie, bo za każdym razem odpowiedź trzeba rozbudować o dalsze właściwości: rozmiar, raster, liczbę pinów, odporność środowiskową i podobne kryteria. Dlatego w niniejszym opracowaniu przyjmowana jest elastyczne podejście, w ramach której do grupy tej kwalifikowane są elementy, w których parametry charakteryzujące obciążalność (maksymalny prąd przewodzenia, dopuszczalne napięcie znamionowe, moc) są ważne, wymieniane na początku oraz traktowane jako istotna część ich charakterystyki. To także takie elementy, które zdaniem producenta przeznaczone są do łączenia obwodów mocy. Nie zagłębiamy się w to, czy np. 5 A to już "silny" prąd, bo jak doskonale inżynierowie wiedzą, "to zależy".

ZŁĄCZA KABLOWE I DO PCB

Złącza silnoprądowe najczęściej występują w wersji kabel-kabel lub kabel-panel, gdzie jedna część jest mocowana do obudowy. Elementy te mogą być okrągłe lub prostokątne, zawierać różną liczbę pinów i mieć różną obciążalność oraz sposób montażu przewodu. Dostępne są w wersji prostej i kątowej, z metalu oraz tworzywa. Można śmiało powiedzieć, że na rynku da się kupić praktycznie każdą kombinację wielkości i rodzaju tych elementów. Drugą część asortymentu tworzą złącza do montażu na płytce drukowanej, a więc takie, gdzie jedna z części jest przylutowana (w procesie SMT/ THT/THR), a druga służy do montażu kabla. Wlutowane w płytkę złącze w takim przypadku jest jeszcze zwykle mocowane do obudowy urządzenia, co zapewnia stabilność mechaniczną połączenia istotną zwłaszcza przy elementach do montażu powierzchniowego.

Niemniej warto zauważyć, że w warunkach krajowych znaczenie złączy silnoprądowych montowanych automatycznie jest niewielkie, gdyż są one kierowane do aplikacji masowych. W produkcji prowadzonej w średniej skali lub jednostkowej, złącze z końcówkami do SMD lub THR nie ma uzasadnienia, bo nie przynosi obniżki kosztów, a wymaga spełnienia wielu wymagań podczas montażu.

Najważniejsze cechy brane pod uwagę przy kupnie złączy silnoprądowych
 
Ranking najważniejszych kryteriów handlowych decydujących o wyborze produktu i dostawcy oczywiście zawiera na szczycie cenę, co przy silnie konkurencyjnym rynku i relatywnie drogich produktach wydaje się naturalne. Drugie miejsce dla parametrów technicznych też jest typowe podobnie jak wysokie wskazania dla jakości. Wymieniona trójka zawsze okupuje czołowe miejsca takich zestawień i rzadko wygląda inaczej. Poza ten schemat wychodzi znaczenie marki producenta złączy, która jest synonimem jakości i wysokich walorów technicznych a także termin dostawy. Specjalistyczne produkty tworzone nierzadko na zamówienie w ramach projektów, integratorzy systemów oraz producenci elektroniki przemysłowej kupują do nich komponenty na bieżąco, bez tworzenia magazynów i planów. Przy szybko rozwijającym się rynku europejskim powoduje to, że na dostawę coraz częściej trzeba czekać, zwłaszcza gdy potrzeby dotyczą mniej popularnych typów.

TERMINAL BLOKI

Kolejną dużą grupą złączy, zwłaszcza w aplikacjach elektronicznych, są terminal bloki. Są to modułowe złącza kabel-PCB z zaciskiem śrubowym lub sprężynowym. Terminal bloki występują w wersjach kątowych i prostych, dwuczęściowych rozłączalnych, rozwiązaniach pozwalających zamontować więcej niż jeden przewód w styku. Są wersje do SMT, uszczelnione lub z ekranem elektromagnetycznym.

Terminal bloki znaleźć można w ofertach wielu producentów, zarówno u tanich chińskich dostawców, jak u wiodących światowych producentów, gdyż są to produkty o dużej uniwersalności. Można powiedzieć, że elementy te stanowią większą część funkcjonujących na rynku rozwiązań, gdzie do płytki drukowanej trzeba dołączyć przewody. Wykorzystuje je branża oświetleniowa, producenci zasilaczy, sterowników i regulatorów, automatyka budynkowa, producenci systemów alarmowych, domofonowych, urządzeń kontrolnych, AGD i wielu innych. Obszar aplikacyjny jest bardzo szeroki i widać, że z czasem znaczenie wersji zapewniających szybki montaż przewodów, a także wersji rozłączalnych, takich, w których można rozpiąć złącze jednym ruchem, bez mozolnego rozpinania pojedynczych kabli jest coraz większe. Innymi słowy, terminal bloki dzisiaj to już zaawansowane systemy połączeniowe i produkty dopracowane w szczegółach. Ich obciążalność prądowa sięga kilkudziesięciu amperów na końcówkę, co pokazuje, że mogą być stosowane w wielu różnych aplikacjach.

Główne zjawiska o charakterze technicznym
 
Na liście najbardziej istotnych zjawisk technicznych charakteryzujących rynek złączy silnoprądowych, wyraźnie wybiły się cztery pozycje. Wersje modułowe, które zapewniają możliwość kompozycji liczby, typu styków i ich układu, a tym samym dopasowania złącza ściśle do wymagań aplikacyjnych. Styk sprężynowy i inne technologie szybkiego montażu to rozwiązania, które cały czas zyskują na popularności i konsekwentnie przebijają się do świadomości projektantów. Z kolei miniaturyzacja w zakresie złączy silnoprądowych to jedno z najtrudniejszych wyzwań stojących przed producentami, ale także coraz silniej zarysowane oczekiwanie klientów. Wersje specjalistyczne to kategoria kryjąca rozwiązania dopasowane do wymagań aplikacyjnych i branżowych, w której kryją się elementy zapewniające wysoki stopień ochrony środowiskowej, spełniające normy wojskowe. Jednocześnie specyfika rynku polskiego, a więc krótkie serie i specjalistyczne produkty, ogranicza zapotrzebowanie na rozwiązania przeznaczone do montażu SMT lub THR na PCB. To dlatego, że montaż ręczny oraz wersje THT nie stanowią problemu kosztowego.

ZŁĄCZA NA SZYNĘ DIN I DO OBUDOWY

Poza wymienionymi typami w zakresie złączy silnoprądowych na rynku mamy jeszcze komponenty przeznaczone do montażu na szynie DIN, które wykorzystuje się do tworzenia instalacji przemysłowych, np. okablowania systemów montowanych w skrzynkach instalacyjnych, obudowach, szafach technicznych, rozdzielniach itp. W takich systemach konieczne jest połączenie ze sobą w działający system komponentów takich jak zasilacze, przekaźniki, sterowniki, zabezpieczenia, wyłączniki, sygnalizatory i podobne. Wiele sygnałów musi zostać rozgałęzionych, bo połączenia punkt-punkt stanowią jedynie ułamek całości instalacji. Złącza na szynę pozwalają na wygodne okablowanie i mają postać wąskich płaskich elementów, które można składać w większe zespoły, podobnie jak spaja się terminal bloki. Mają też możliwość wewnętrznego połączenia biegunów, co ułatwia tworzenie dystrybucji zasilania. Szyna DIN stanowi podstawę mechaniczną takiej całości.

Główne zjawiska pozytywne dla rynku
 
Za najważniejsze czynniki sprzyjające rozwojowi rynku złączy silnoprądowych ankietowani specjaliści uznali wzrost znaczenia wysokiej jakości w branży elektronicznej, dostępny szeroki asortyment produktów pozwalający na dobranie pasującego złącza do każdej aplikacji, a także w znacznie mniejszym już stopniu także dostępność wersji z szybkim montażem przewodu, a więc z zaciskiem sprężynowym lub dociskiem dźwigniowym. Wysoka jakość usług i produktów to cecha rynków specjalistycznych, takich, gdzie liczy się wartość dodana zapewniana przez urządzenie. Od wielu lat nasz rynek zmienia się w tym kierunku, a niewielkie serie złożonego sprzętu, projekty tworzone na indywidualne zamówienia stanowią ważną część aktywności. Złącza silnoprądowe z racji warunków pracy i pełnionej funkcji mają dużą rolę do odegrania w zapewnieniu jakości, stąd przedstawiona na wykresie ocena jest tak wyraźnie skierowana w tę stronę.

W aplikacjach przemysłowych produkty na szynę są na rynku cenione, bo pozwalają szybko i bez konieczności korzystania ze specjalistycznych narzędzi stworzyć system, instalację lub nawet całą aplikację. Zapewniają niezbędną indywidualność, bo każdy projekt może być inny, możliwość modernizacji i zmian w dowolnym momencie. Nie ma też konieczności tworzenia specjalnego chassis, montowania i przykręcania do niego elementów. Szyna pozwala ponadto na utrzymanie porządku i czytelności instalacji, co ma ogromne znaczenie dla utrzymania ruchu i serwisu.

Mimo unifikacji wymiarów i konstrukcji wymuszanej przez montaż na szynie złącza tego typu dostępne są w różnych wersjach pod względem obciążalności, obsługiwanych średnic przewodów, typu zacisku itp. Warto zauważyć, że w tym obszarze kładzie się spory nacisk nie tylko na łatwość tworzenia instalacji, ale także na prostotę i czytelność obsługi technicznej. Oznaczniki tekstowe i symboliczne, kolorowe obudowy, przyciski ułatwiające demontaż, punkty pomiarowe pozwalające na wsunięcie kabla pomiarowego, obudowy, mostki, kontrolki – razem tworzą bardzo często spójny system połączeń charakterystyczny dla danego producenta.

Najważniejsze czynniki negatywne dla rynku
 
Za czynniki o charakterze regresywnym dla rynku zdecydowanie na pierwszym miejscu uznane zostały tanie zamienniki i podróbki udające złącza markowe. Dalsze dwie pozycje takie jak długie czasy dostaw, które zawsze stają się problemem w okresie przyspieszenia w gospodarce oraz silna konkurencja miały dwukrotnie słabsze wskazania. Chłonny rynek i produkty z dużą marżą producencką są niczym magnes ściągający licznych tanich dostawców, którzy proponują podobne lub nawet takie same rozwiązania i konkurujące ceną. Producenci ci przekonują, że są w stanie zapewnić jakość za mniejsze pieniądze, ale praktyka pokazuje, że udaje się to nielicznym i w ograniczonym stopniu. Cała reszta oszczędza na R&D, mniej lub bardziej wiernie kopiując rozwiązania liderów, na materiałach i kosztach pracy lub też wykorzystuje słabiej zaawansowany technologicznie park maszynowy. Największy zysk takich firm prawdopodobnie wynika z podczepiania się pod myśl techniczną wiodących producentów. Niemniej nie można generalizować i postrzegać zamienników wyłącznie pejoratywnie – wszystko zależy od konkretnego przypadku i producenta.

DOSTAWCY ZŁĄCZY SILNOPRĄDOWYCH

Dostawców oferujących złącza silnoprądowe można podzielić na kilka wydzielonych grup, wśród których wyraźnie widać krajowe przedstawicielstwa i oddziały firm zagranicznych. W ogromnej większości są to firmy ukierunkowane na branżę przemysłową i zajmują się one nie tylko wytwarzaniem złączy, ale szerokiego spektrum urządzeń i komponentów. Większość z nich to przedsiębiorstwa działające w skali globalnej, o szerokich i przekrojowych ofertach, w których można znaleźć wszystkie typy omawianych złączy. Krajowe oddziały obsługują międzynarodowy biznes zlokalizowany w Polsce, np. producentów EMS, firmy motoryzacyjne, producentów wiązek kablowych oraz nadzorują i rozwijają rynek dystrybucji (hurtownie, firmy handlowe). W naszym zestawieniu są to HARTING, Phoenix Contact, Wago Elwag, Conec, igus, Stäubli, Weidmüller, a także Wieland Electric, LappKabel. Jak widać, jest to całkiem duże grono, które z pewnością ma potencjał do tego, aby dyktować warunki.

Drugą wyraźnie zarysowaną grupę tworzą dystrybutorzy o szerokim profilu, a więc firmy katalogowe, jak TME, Elfa Distrelec, Farnell, Conrad Electronic, RS Components, Mouser. To także duże firmy hurtowe jak Micros, Elhurt, Masters, Arrow Electronics, Firma Piekarz, Soyter Components, w ofertach których złącza stanowią istotną część ofert.

W dalszej kolejności na rynku wyróżnić można dystrybutorów specjalizowanych, których aktywność koncentruje się na wybranych tematach technicznych i liniach produktów z obszaru elektroniki, jak na przykład Eltronika, Microdis Electronics, Contrans TI, Payda Electronics, Neopta Electronics oraz Radiotechnika Marketing. W obszarze automatyki lub firm działających na styku branż elektroniki i automatyki dostawcami złączy są firmy takie jak Apar, OEM Automatic, Eltron.

Podzespoły dla energoelektroniki – SiC i GaN zmieniają status quo

Elektronika dużych mocy, czyli energoelektronika, to sektor, który w ostatnich latach bardzo szybko się rozwija. Powodów jest co najmniej kilka, a za najważniejszy można zapewne uznać dużą liczbę nowych aplikacji, które na niej bazują, jak elektryczna motoryzacja, transport szynowy, aplikacje energii odnawialnej lub indukcyjne systemy grzewcze. Elektronizacji podlega też wytwarzanie i dystrybucja energii elektrycznej, napędy silników dużej mocy w maszynach przemysłowych i wiele innych podobnych obszarów.

W takich zastosowaniach elektronika mocy jest w stanie zapewnić wysoką sprawność regulacji i konwersji energii, wysoką niezawodność działania i dużą odporność na przeciążenia. Nowoczesne rozwiązania zasilające i sterujące, bazujące na podzespołach półprzewodnikowych dużej mocy, jak na przykład falowniki, konwertery i przetwornice, mają też niewielkie rozmiary, dzięki czemu dają się łatwo integrować w maszynach i urządzeniach. W energoelektronice liczy się ponadto wysoka funkcjonalność, która na przykład w napędach silników jest równoważna zapewnieniu płynności działania, możliwości zdalnej kontroli i sterowania. Jest to po prostu nowoczesność.

W Polsce rynek podzespołów dużej mocy rozwija się w takt dużych inwestycji przemysłu energetycznego, transportu kolejowego, w rytm kolejnych modernizacji fabryk, czyli innymi słowy, wraz z dużymi projektami, realizowanymi nierzadko jako wieloletnie plany finansowane z funduszy strukturalnych. Dostawcą dla przemysłu, automatyki i energetyki jest lub chce być duża część krajowych firm handlowych. W kolejnych latach drożejąca energia elektryczna, wymagania jakościowe, jakie stawia się przed współczesnymi aplikacjami, zapewnią też niezłe perspektywy rozwojowe na przyszłość, bo zainteresowanie nowymi, energooszczędnymi technologami będzie się zwiększać.

Najważniejsze cechy ofert brane przez klientów pod uwagę podczas wyboru podzespołów dla energoelektroniki
 
Zestawienie najważniejszych cech ofert handlowych branych pod uwagę przez klientów z omawianego sektora ma na samej górze parametry techniczne komponentów, a na drugiej pozycji zawiera czas dostawy. Cena, która w większości przypadków dla takich zestawień jest zwykle na samej górze, tutaj spadła na trzecią pozycję, co jest bardzo wymowne. Podobnie jest z wieloma innymi kryteriami, jak marka producenta, dostępność certyfikatów, które zazwyczaj lokują się prawie na samym dole, tym razem mają większe znaczenie.

PÓŁPRZEWODNIKI, CZYLI GŁÓWNIE TRANZYSTORY

Kluczowymi podzespołami elektroniki dużej mocy są półprzewodniki, a więc głównie diody i tranzystory. Znaczenie tyrystorów wyraźnie maleje, bo postęp technologiczny w zakresie tranzystorów mocy jest tak imponująco szybki, że do nowych projektów tyrystorów się już praktycznie nie wykorzystuje. Mają one zbyt duże straty mocy i nie dają takiej swobody komutacji prądu jak tranzystor.

Jeszcze dekadę temu regulatory, softstarty i przełączniki dużej mocy, które uruchamiały na przykład proces zgrzewania, budowane były z reguły za pomocą tyrystorów i przez to z konieczności opierały się na fazowej regulacji mocy. Dzisiaj tam, gdzie się tylko da, wykorzystuje się tranzystory IGBT lub MOSFET, które dają większe możliwości scalania i tym samym zapewniają równoległe łączenie bloków mocy. W stosunku do tyrystorów ich sterowanie jest prostsze i wymaga mniejszej energii. Niemniej najważniejsze, że są to elementy znacznie szybsze, a więc pozwalające załączać napięcie do obciążenia z kilohercową szybkością. Oprócz wielu możliwości w zakresie sterowania pozwala to na redukcję wielkości filtrów przeciwzakłóceniowych i pozwala lepiej kontrolować stany nieustalone. Oczywiście parametry najsilniejszych tyrystorów nadal znacznie przekraczają to, co oferują IGBT, ale gdy się policzy cały koszt urządzenia, te różnice są już zwykle niewielkie.

MOSFET I IGBT

W wymienionych powodów we współczesnej elektronice mocy wykorzystuje się praktycznie tylko tranzystory MOSFET i IGBT. Tranzystory bipolarne przegrywają z nimi w zakresie wymaganej mocy sterującej, która jest za duża, bo ich wzmocnienie prądowe przy dużym obciążeniu jest niewielkie.

MOSFET-y mają bardzo małe straty związanie z przewodzeniem, a więc niską rezystancję kanału w stanie włączenia dla wersji o małym napięciu znamionowym (do ok. 50 V). W elementach na wyższe napięcia, do 800 V, rezystancja kanału w stanie przewodzenia jest już niestety znacząco większa. Stąd najczęściej MOSFET-y są stosowane w obwodach niskonapięciowych, a w aplikacjach zasilanych z wyprostowanego napięcia sieci używane są jedynie dla małej i średniej mocy wyjściowej.

Z kolei tranzystory IGBT są domeną aplikacji o wyższym napięciu zasilania, gdyż zawarty w ich strukturze tranzystor bipolarny jako element wyjściowy ma przy dużych prądach obciążenia i wysokich napięciach znamionowych lepsze parametry związane ze stratami na przewodzenie (niewielkie napięcie nasycenia).

W takim zakresie MOSFET-y mają już wyraźnie gorsze parametry, np. RDS(ON) rzędu pojedynczych omów. Dla układów dużej mocy bywa to dyskwalifikujące, natomiast bez problemu udaje się nabyć znakomite IGBT na napięcie 1‒1,5 kV. Innymi słowy w zakresie półprzewodników mocy istnieje coraz wyraźniejszy podział aplikacyjny rynku wyznaczany przez najlepsze zakresy parametrów elementów mocy.

Najważniejsze trendy techniczne
 
Główne trendy technologiczne rynku komponentów dla energoelektroniki to nowe materiały półprzewodnikowe, czyli węglik krzemu i w znacznie mniejszym zakresie azotek galu. Elementy tego typu pozwalają spełnić wiele z istotnych wymagań technicznych związanych ze sprawnością konwersji, miniaturyzacją, wysoką obciążalnością prądową i podobnymi parametrami. Ważnym trendem jest też integracja wielu tranzystorów w ramach pojedynczego modułu, co wynika z tego, że większość rozwiązań stopnia mocy opiera się na układach mostkowych, a więc zawierających zazwyczaj 4 lub 6 tranzystorów. Możliwość skorzystania z jednego modułu tworzącego cały stopień mocy zawsze była interesująca w tym obszarze.

KOMPONENTY SIC I GAN

Z pewnością półprzewodniki, węglika krzemu nie są już na rynku nowością, ale faktem jest, że w ostatnich pięciu latach ich popularność bardzo się zwiększyła. Przed 2010 rokiem tylko firma Cree dostarczała na rynek materiały podłożowe z SiC. Obecnie, głównie za sprawą znacznych inwestycji producentów półprzewodników, takich jak m.in. Cree, Infineona, Rohm, ON Semi, Littelfuse oraz ST Micro, dostępność się znacznie poprawiła. W efekcie od paru lat w wielu zastosowaniach SiC stanowią już rzeczywistą alternatywę dla elementów krzemowych i to mimo, że nadal są droższe. Można też liczyć, że ceny takich tranzystorów niedługo spadną, bo rynek materiałów podłożowych z węglika krzemu jest aktualnie w fazie transformacji z krążków 4-calowych na 6-calowe i jest na nim aktywnych coraz więcej producentów. Większa powierzchnia płytek poprawi też wydajność produkcji takich podzespołów, bo na razie przy użyciu krążków 4-calowych producenci mają za małe moce wytwórcze i nie nadążają z produkcją w stosunku do zapotrzebowania, np. ze strony rynku energii odnawialnej.

Dobre parametry elektryczne tranzystorów z SiC zapewnione są nawet w wysokich temperaturach, co ułatwia budowę konwerterów i ogranicza nakłady wymagane do zapewnienia chłodzenia. Wysoka temperatura dopuszczalna złącza jest tutaj o 25–30º większa niż dla półprzewodników krzemowych. Pozwala to na zmniejszenie powierzchni wymaganych radiatorów lub wydajności systemu chłodzenia. Nierzadko też przejście na elementy SiC umożliwia rezygnację z chłodzenia wymuszonego i zastąpienie go konwekcyjnym. Co więcej, tranzystory te są w stanie pracować przy 2‒5 razy wyższych częstotliwościach kluczowania, co pozwala na redukcję wymiarów elementów magnetycznych i pojemności. Niewielkie prądy zerowe nawet w wysokich temperaturach zapewniają stabilne działanie i dużą niezawodność, co widać właśnie najbardziej w tych ekstremalnie trudnych warunkach otoczenia i zasilania.

Typowy MOSFET SiC pozwala utrzymać w ryzach straty mocy przy częstotliwościach rzędu 300 kHz, prądach 100 A, a więc tam, gdzie krzem się już "nie wyrabia". SiC pozwala też na działanie z wysokim napięciem przewyższającym 1 kV przy niskiej RDS( ON) poniżej 100 mΩ dla 1,2 kV. Jeśli chodzi o tranzystory z azotku galu GaN to oferują one jeszcze lepsze parametry w zakresie przełączania z dużą częstotliwością, nawet 1 MHz przy dużym poziomie mocy.

Komponenty półprzewodnikowe o największym potencjale biznesowym
 
Podstawą aplikacji energoelektronicznych są krzemowe tranzystory IGBT i MOSFET, co jest zrozumiałe, biorąc pod uwagę, jak bardzo szeroki jest ich asortyment, dostępność i relatywnie niskie ceny. Ale na drugiej pozycji uplasowały się takie same elementy z półprzewodników o szerokiej przerwie energetycznej (głównie SiC), które często są rozważane do nowych projektów. Rozwiązania w postaci modułów integrujących kilka tranzystorów w jednej obudowie to domena najwyższych mocy i bez wzglądu na technologię półprzewodnikową zawsze będą one potrzebne i używane. Dół wykresu zajęły tyrystory i triaki, które dawniej były podstawą wielu urządzeń dużej mocy, dzisiaj mają już znacznie słabszy potencjał aplikacyjny.

NAPĘDY SILNIKÓW, CZYLI FALOWNIKI

Silny impuls rozwojowy dla półprzewodników mocy tworzą także napędy silników. Od kilku lat w maszynach przemysłowych, na kolei, w sprzęcie AGD, systemach klimatyzacji, w motoryzacji i podobnych obszarach wykorzystuje się elektroniczne sterowniki umożliwiające płynną regulację obrotów, zmianę kierunku wirowania i zapewniające miękki rozruch. Oprócz takich funkcji użytkowych falowniki umożliwiają osiągnięcie wysokiej sprawności energetycznej, która jest wymagana obecnie przez przepisy unijne. Urządzenia te współpracują z silnikami indukcyjnymi, a więc tymi, które są powszechnie stosowane w maszynach i urządzeniach przemysłowych, dla których do niedawna nie było dobrych pod względem sprawności pracy i skuteczności działania regulatorów obrotów. Duże jednostki musiały mieć w tym celu przełączane uzwojenia, co było niewygodne i ograniczało liczbę biegów silnika do co najwyżej kilku. Obie te metody obarczone są poważnymi wadami, dlatego rynek napędów, które elektronicznie kształtują moc i szybkość wirowania pola magnetycznego w silniku, rozwija się dzisiaj bardzo dynamicznie.

Najważniejsze trendy pozytywne sprzyjające rozwojowi komponentów dla energoelektroniki
 
Duże rynkowe znaczenie energoelektroniki, wiele nowych otwarć, związanych z m.in. energią odnawialną, elektrycznym transportem, konwersją mocy i napędami w przemyśle jest postrzegany jako najważniejsze czynniki sprzyjające rozwojowi. Co ciekawe, drożejąca energia elektryczna nie uplasowała się wysoko, być może dlatego, że problem ten i związane z rosnącymi cenami wydatki dopiero są przed nami.

ENERGIA ODNAWIALNA

Energia elektryczna jest coraz droższa, co sprzyja inwestycjom w technologie energooszczędne. Częścią tego procesu są technologie energii odnawialnej. Napięcie generowane przez źródła nie nadaje się w 99% przypadków do bezpośredniego wykorzystania praktycznego, bo waha się w dużym zakresie oraz nieliniowo zmienia się wraz z oświetleniem i siłą wiatru i obciążeniem. Z uwagi na powyższe większość takich inwestycji wykorzystuje złożone systemy konwersji mocy bazujące na złożonych sterownikach i wydajnych stopniach mocy zbudowanych właśnie z półprzewodników. W mniejszej skali, ale w podobny sposób, oddziaływają na rynek komponentów mocy instalacje fotowoltaiczne, które zawsze wykorzystują jakiś inwerter dostarczający energię elektryczną o stałych parametrach, co pozwala na dołączenie instalacji do sieci. Do tego są potrzebne elementy dużej mocy.

Poza tym w tym obszarze funkcjonują magazyny energii, takie jak akumulatory i superkondensatory, pozwalające przechwycić nadwyżkę mocy wytwarzanej nad zużywaną, wspomagające chwile szczytowych poborów mocy. Gdy instalacja nie jest połączona z siecią energetyczną, akumulator jest praktycznie niezbędny i od jego pojemności i niezawodności zależy w dużym stopniu dostępność energii zasilającej. Obsługa takich zadań wymaga dwukierunkowego (złożonego) falownika.

MINIATURYZACJA, SPRAWNOŚĆ I ODPROWADZANIE CIEPŁA

Wiele aplikacji elektroniki mocy pracuje dzisiaj z napięciami przekraczającymi 500 V i prądami wykraczającymi poza 100 A. Takie granice wyznaczają aplikacje w transporcie szynowym, motoryzacji elektrycznej oraz w sprzęcie przemysłowym. Energetyka podane wartości mnoży jeszcze nawet kilkukrotnie, a maksymalną obciążalność komponentów zwiększa, łącząc je szeregowo i równolegle w stosy. Niemniej bez względu na to, urządzenia muszą być możliwie niewielkie. Mimo że w wielu instalacjach miejsce nie jest problemem, miniaturyzacja jest ważnym trendem w energoelektronice, bo pozwala na większą integrację, lepszą swobodę aplikacyjną oraz otwiera nowe możliwości w zakresie zastosowań.

Wiadomo, że do miniaturyzacji konieczne jest zwiększenie sprawności konwersji energii elektrycznej, stąd w tym temacie nieustannie pojawiają się na rynku ważne innowacje. Lepsze parametry komutacyjne podzespołów dużej mocy zapewniają większą sprawność, pozwalając zmniejszyć liczbę elementów wykonawczych i tym samym ograniczyć zajmowane miejsce w obudowie urządzenia. Z kolei mniejsza liczba elementów to także oszczędność pieniędzy, prostsze sterowanie i serwisowanie. Wysoka sprawność to też mniejsze koszty chłodzenia, zasilania, ale także lepszy potencjał modernizacyjny. Wiadomo, że starsze rozwiązania falowników, zasilaczy, przełączników mogą nierzadko pracować przez długie lata i charakteryzują się dużą niezawodnością. W takiej sytuacji zmianę produktu na nowy mogą zapewnić tylko znacząco lepsze parametry, na przykład sprawności, które są w stanie przekonać firmy do opłacalności inwestycji. Dlatego w temacie sprawności wiele się dzieje.

Równolegle do pojawiających się na rynku nowych podzespołów półprzewodnikowych o coraz mniejszych stratach komutacyjnych, warto dostrzec trend związany z zarządzaniem ciepłem. Sprawnie działający mechanizm jego odprowadzania sprzyja miniaturyzacji, dlatego wiele innowacji nie kończy się na strukturach półprzewodnikowych i dotyczy także obudów komponentów. Najwięcej zmian w obszarze obudów jest w motoryzacji, ale jak to zwykle bywa, z czasem dobre pomysły przebijają się do innych branż i zastosowań.

Najważniejsze zjawiska hamujące rozwój rynku
 
Zestawienie najbardziej istotnych czynników o negatywnym oddziaływaniu na rozwój rynku otwiera problem związany z wysokimi cenami zaawansowanych komponentów mocy, co jest kłopotem dla producentów specjalistycznych rozwiązań wytwarzanych w niewielkich seriach. Ankietowani specjaliści wskazywali także, że problemem są długie terminy dostaw podzespołów oraz zachowawczy charakter rynku energoelektroniki, czyli to, że klienci bardzo ostrożnie podchodzą do nowości. Konkurencja na rynku, w tym standardowy dla innych sektorów problem z produktami importowanymi z Chin, w tym obszarze akurat nie jest istotny.

MODUŁY MOCY

Podzespoły półprzewodnikowe dużej mocy obejmują zarówno szereg elementów dyskretnych, jak również funkcjonalne moduły o różnym stopniu złożoności, jeśli chodzi o strukturę wewnętrzną. Są one przeznaczone do układów półmostkowych lub pełnomostkowych, w wersji jednofazowej i trójfazowej. Najczęściej moduły zawierają 6 tranzystorów mocy, ale często umieszcza się w nich też prostownik, diody usprawniające oraz zabezpieczające. Takie komponenty znajdują się w ofertach wielu producentów półprzewodników i stanowią bazę konstrukcyjną większości napędów, regulatorów i zasilaczy. Występują one w wielu wersjach o różnej topologii, pozwalając zrealizować w prosty sposób stopień mocy. Modułowe półprzewodniki mocy zdobyły rynek również tym, że stanową one zwartą konstrukcję o dobrych parametrach w zakresie odprowadzania ciepła, przy jednoczesnym zapewnieniu izolacji galwanicznej od radiatora.

Półprzewodniki mocy to ponadto elementy, które zawsze współpracują z radiatorem lub innym systemem odprowadzania ciepła oraz w ogromnej większości zasilane są wysokimi napięciami, przekraczającymi 350 V. Dlatego ułatwienia związane z izolacją galwaniczną poszczególnych elementów, zapewniające bezproblemowy montaż na metalowym radiatorze, są jednym z najważniejszych źródeł przewagi rynkowej modułów nad elementami dyskretnymi.

NIE TYLKO PÓŁPRZEWODNIKI

Poza półprzewodnikami energoelektronika łączy w całość wiele innych specjalizowanych produktów związanych z odprowadzaniem ciepła, jak radiatory, wentylatory, bloki chłodzące lub systemy chłodzenia wodnego. W grupie tej są także transformatory, filtry i inne części znajdujące się w torze dużej mocy. To również kable i złącza przeznaczone do prądów stałych o dużym natężeniu i pracy w trudnych warunkach środowiskowych, przekaźniki (styczniki) i urządzenia zabezpieczające umożliwiające podłączanie lub odłączanie gałęzi ogniw, liczniki energii/bezpieczniki.

Ważnym produktem są też specjalizowane sterowniki tranzystorów zapewniające izolację galwaniczną, poziomy napięć wymagane do sterowania bramką i dużą wydajność prądową umożliwiającą sprawną komutację. Są one pomostem między warstwą sygnałową aplikacji (np. mikrokontrolerem) oraz blokiem mocy.

KŁOPOTY Z DOSTĘPNOŚCIĄ PODZESPOŁÓW

Gwałtowny rozwój elektrycznej motoryzacji oraz aplikacji związanych z energią odnawialną powoduje, że popyt na nowoczesne półprzewodniki mocy jest bardzo duży. Przy ograniczonej podaży na rynku pojawiają się kolejki i czasy dostaw się zwiększają.

Zjawisko to ogranicza trochę tempo rozwoju rynku, bo projektanci muszą brać pod uwagę dostępność tranzystorów mocy. Zapewne kolejki są największym problemem dla tych, którzy tworzą aplikacje wytwarzane w średnich seriach, a więc za małych, aby negocjować dostawy na najwyższym szczeblu oraz za dużych, aby po prostu kupić potrzebną ilość u detalisty. Takie potrzeby ma właśnie wielu krajowych producentów.

 

Mikrokontrolery i rozwiązania dla IoT – definiują nowoczesną elektronikę

Jesteśmy już bardzo blisko takiego stanu w rozwoju technologii, że każde urządzenie elektroniczne wymagające zasilania będzie miało przynajmniej jeden mikrokontroler. Liczba tych chipów w układach elektronicznych nieustannie rośnie, bo są one w stanie zapewnić bardzo dużą funkcjonalność za niską cenę, a dla wielu aplikacji tworzą praktycznie całą platformę sprzętową. Duża liczba producentów, wersji, różne architektury, rdzenie, szerokości szyny danych, wyposażenie w układy peryferyjne, a także przeznaczenie aplikacyjne powodują, że dobór optymalnej jednostki do realizowanego projektu staje się trudny i czasochłonny. Poza aspektami technicznymi optymalny wybór MCU wymaga też rozeznania biznesowego w cenach, dostępności, wymaganej wielkości zakupu i podobnych. W takich okolicznościach uwaga kierowana jest na dystrybutorów mikrokontrolerów oraz narzędzi, którzy są w stanie pomóc przebrnąć przez wiele trudnych decyzji.

Postęp techniczny i technologiczny w obszarze mikrokontrolerów jest bardzo szybki, przez co trzeba bardzo uważać, głosząc twierdzenia na temat tego, co się da, czego się nie da, co można, a czego nie. Bo zawsze może się okazać, że pojawiło się rozwiązanie, które tworzy wyjątek. A jak się ten wyjątek przyjmie (czyli okaże się dobrym pomysłem), to trwale zmienia paradygmat w danym obszarze.

Stałym trendem od lat jest to, że funkcjonalność mikrokontrolerów cały czas rośnie. Nowe mają więcej układów peryferyjnych, większą pamięć, lepsze rdzenie zapewniające wydajność i energooszczędność.

Rozwój rynku mikrokontrolerów nie jest też jednokierunkowy. Z uwagi na liczne obszary aplikacyjne rodziny produktów rozwijają się w kierunku dużej wydajności, małej mocy, w obrębie wersji specjalizowanych, np. komunikacyjnych, do przetwarzania sygnałów i sterowania silnikami itd.

Wiele jednostek jest ukierunkowanych do pracy w określonych aplikacjach i zawiera zestaw obwodów peryferyjnych kompletny z punktu widzenia zastosowań aplikacyjnych. Przykładem mogą być układy z obwodami analogowymi przeznaczone do pracy w zasilaczach cyfrowych, jednostki z wbudowanym transceiverem do komunikacji bezprzewodowej lub też mikrokontrolery o bardzo małym poborze mocy i z wysokorozdzielczym przetwornikiem A/C, a także blokiem obliczeniowym do kalkulacji zużycia mediów.

Zestawienie najpopularniejszych architektur mikrokontrolerów na rynku polskim
 
W porównaniu z analogicznym zestawieniem sprzed trzech lat, AVR i PIC zamieniły się miejscami na wykresie (niemniej obie te pozycje stanowią ofertę firmy Microchip), znaczenie MSP430TI zauważalnie się zmniejszyło, a potencjał rozwiązań Renesasa, NXP/ Freescale lub klonów 51 stanowi pomijalny margines. Na wykresie dominują układy ARM Cortex, ale pozycja silniejszych jednostek ARM też jest wysoka. Można powiedzieć, że rynek się polaryzuje. Jeden biegun stanowią układy z rdzeniem ARM Cortex, drugi rozwiązania Microchipa i ST Micro.

OPTYMALNY WYBÓR UKŁADU TO SPORE WYZWANIE

Ponieważ nie ma jednego układu pasującego do każdego zastosowania, oferty producentów szybko się rozszerzają, tworząc rodziny zawierające dziesiątki zgodnych pinowo i programowo wersji. Niekiedy jest ich tak wiele, że wybór wariantu w zakresie interfejsów, pamięci, obudowy a także ważnych szczegółów, jak zakres temperatur pracy itd., wymaga posłużenia się arkuszem kalkulacyjnym lub specjalizowanym narzędziem online. Niemniej wiele wersji i wariantów obudów pozwala dobrze dobrać układ do wymagań aplikacyjnych.

Specjalizacja jeszcze bardziej zwiększa asortyment i przekłada się na setki chipów w każdej z rodzin. To dobrze i źle. Dobrze, bo jest z czego wybierać, nie trzeba iść na kompromisy lub przepłacać, kupując chip, którego możliwości wykorzystamy jedynie w części. Wiele komponentów w ramach oferty producenta i rodziny zapewnia też łatwość migracji. Czyli użycia innego, lepszego chipu, zamiast dotychczasowego, bez konieczności przerabiania mozaiki obwodu drukowanego lub zmiany oprogramowania. Do minusów zaliczyć można to, że wybór jednostki najlepszej do danej aplikacji przestaje być łatwy. Póki wybór układu dotyczy danej rodziny, zestawienie parametrów ma formę jednej strony w arkuszu i daje się jakoś objąć. Wybór się komplikuje, gdy trzeba dobrać układ w ramach jednego producenta, a więc zwykle spośród wielu rodzin. Jeszcze gorzej jest, gdy nawet wybór producenta jest sprawą otwartą. Wówczas jest to prawdziwa loteria.

W ramach jednego producenta selekcję mikrokontrolera zwykle ułatwiają narzędzia online, konfiguratory i selektory. W jeszcze większej perspektywie układy pomagają wybrać dystrybutorzy. Pracownicy działów wsparcia technicznego mają nie tylko wiedzę techniczną, ale także informacje na temat dostępności poszczególnych wersji, planowanego wycofania z oferty i podobnych aspektów biznesowych.

Marcin Lipka

 Sales Director Soyter Components

  • Jakie nowości na rynku są warte zauważenia?

Jednym z najciekawszych trendów na rynku są rozwiązania integrujące funkcje mikrokontrolera (bogate peryferia, zasoby obliczeniowe, wielowątkowość) z transmisją bezprzewodową. Zwłaszcza teraz, w dobie przenośnych, zasilanych bateryjnie i podłączonych do sieci urządzeń elektronicznych, wykorzystanie układów o dużej funkcjonalności i małym zużyciu energii pozwala na uzyskanie nieosiągalnych do tej pory wymiarów aplikacji i bardzo atrakcyjnej ceny.

Jeśli doda się do tego coraz częściej spotykaną kompatybilność z systemami operacyjnymi czasu rzeczywistego (m.in. FreeRTOS), uzyskujemy produkt o wyjątkowym współczynniku funkcjonalności do ceny, który dodatkowo znacznie skraca czas jego tradycyjnej implementacji (m.in. dzięki gotowym bibliotekom). Przykładem takiego rozwiązania jest m.in. mikrokontroler ESP32 firmy Espressif. Ma on dwa rdzenie obliczeniowe, dodatkowy rdzeń niskoenergetyczny, szeroki wachlarz interfejsów, a także obsługuje komunikację bezprzewodową Wi-Fi oraz Bluetooth.

  • Jakie najważniejsze cechy mikrokontrolerów brane są pod uwagę przez klientów?

Klienci przemysłowi w pierwszej kolejności zwracają uwagę na stabilną cenę i dostępność produktu na przestrzeni kolejnych lat. Dziś jest to dla nich absolutne minimum. W dalszym kroku istotna jest łatwość implementacji rozwiązania. Jakość dokumentacji, dostępność narzędzi i przykładów, a także pomoc techniczna dystrybutora oraz producenta w oczywisty sposób przekładają się na czas, a co za tym idzie, także i koszty wdrożenia produktu. Ciekawym trendem jest również budowanie społeczności wokół produktu. Dotyczy to w szczególności młodych konstruktorów, którzy cenią sobie możliwość szybkiego wyszukania pewnych informacji, potwierdzonych przez innych praktyków. Sieć daje im tę możliwość.

SZEROKA OFERTA SPRZYJA INERCJI

Negatywnym czynnikiem dla szybko rozwijającego się rynku jest to, że produkty mało popularne wypadają z produkcji. Koniec wytwarzania pojawia się też szybciej, gdy w ofercie pojawi się podobna, ale lepsza jednostka.

W rzeczywistości takich problemów jest znacznie więcej, stąd wiele firm wiąże się z danym producentem mikrokontrolerów i konkretną architekturą na długo.

Inżynierska inercja tym samym negatywnie wpływa na tempo rozwoju rynku, ale nie należy postrzegać tego zjawiska pejoratywnie. Wyszukiwanie nowych rozwiązań, testy, tworzenie środowiska pracy z nowymi rozwiązaniami, narzędzia, oprogramowanie i co chyba jest najważniejsze – wiedza i znajomość danego rozwiązania mają wartość materialną. Poszukiwanie nowych rozwiązań w zakresie mikrokontrolerów musi być podbudowane solidną argumentacją, np. tym, że to z czego firma korzysta aktualnie, nie jest wystarczające lub że korzyści z nowej platformy będą wymiernie duże.

Skutek jest taki, że firmy zazwyczaj w nowych projektach zostają ze znaną sobie rodziną mikrokontrolerów danego producenta – starają się modernizować produkty w znanej sobie architekturze i zestawie oprogramowania.

Najważniejsze kierunki rozwoju funkcjonalności mikrokontrolerów
 
Listę najważniejszych funkcjonalności mikrokontrolerów branych pod uwagę przy wyborze układu i oczekiwane w nowych wersjach otwierają te związane z zapewnieniem niskiego poboru mocy, a dalej łatwością komunikacji, możliwością skalowania projektów dzięki zgodności pinowej i programowej oraz dostępności oprogramowania i bibliotek. Duża wydajność jest istotna, ale nie jest najważniejsza i wyraźnie ustępuje wielu innym funkcjom. Cena też jest oczywiście ważna. Z perspektywy wydaje się, że w wyborze mikrokontrolera liczy się utylitarność, czyli najlepszy stosunek możliwości do ceny.

WSPARCIE TECHNICZNE ZAWSZE JEST POTRZEBNE

Producenci i dystrybutorzy rozumieją rozterki producentów elektroniki oraz ich ciągłe problemy z brakiem czasu i starają się wspierać każde działanie, za którym kryje się realna chęć rozwoju. Darmowe próbki chipów to standardowe minimum, ale miniaturowe obudowy chipów (zwłaszcza te bezwyprowadzeniowe) oraz konieczność posłużenia się procesem SMT w montażu nawet jednej sztuki powodują, że najlepszą platformą do testów nowych rozwiązań są płytki startowe. W ostatnich pięciu latach w tym obszarze zaszły ogromne zmiany, a liczba zestawów dostępnych na rynku jest liczona w tysiącach. W praktyce każdy nowy chip o charakterze systemowym (a więc bardziej złożony) oraz inne układy w małych obudowach, np. bezwyprowadzeniowych, są wprowadzane na rynek razem z zestawem projektowym. Płytki startowe są często traktowane tak samo jak próbki, a więc rozdawane na seminariach, przekazywane klientom w ramach wsparcia technicznego. Ogólnie ma to sens, bo w dzisiejszej sytuacji, gdy czas staje się największym dobrem w pracy inżynierskiej, każde działanie, które go oszczędza i sprawia, że nie trzeba zaczynać od zera, jest doceniane.

Interesujący, pomysłowy i bogato wyposażony zestaw, zawierający mikrokontroler, układ komunikacyjny, czujniki, wyświetlacz, jest niczym magnes przyciągający uwagę. Otrzymana za darmo płytka startowa nierzadko jest przyczyną zainteresowania daną architekturą studentów i pracowników biur projektowych, którzy później mogą podjąć decyzję o większym zaangażowaniu właśnie w tym, znanym już kierunku.

Warto zauważyć, że zestawy projektowe, nawet te darmowe lub oferowane za symboliczne sumy, mają całkiem spore możliwości. Producenci dotują takie konstrukcje, instalując tam kosztowne elementy, takie jak FPGA lub nowoczesne czujniki MEMS itp. Przy wykorzystaniu projektów referencyjnych, narzędzi i oprogramowania dostarczanego przez producentów ryzyko niepowodzenia jest minimalne.

Dostępność narzędzi projektowych oraz nowości ze świata mikrokontrolerów dostrzegli dystrybutorzy katalogowi. W ostatnich trzech latach wszystkie firmy tego typu znacznie rozbudowały swoje oferty, nawiązały współpracę z producentami narzędzi i zaczęły je intensywnie promować. To znak, że na mikrokontrolery patrzy się przez pryzmat narzędzi, a nie chipów.

Oczekiwania klientów w stosunku do dostawcy
 
Dystrybutor mikrokontrolerów ma dzisiaj coraz więcej obowiązków wykraczających daleko poza działalność handlową, z których najbardziej popularne i oczekiwane przez klientów są bezpłatne próbki chipów, płytki ewaluacyjne oraz oprogramowanie. Pozwalają one na szybkie rozpoczęcie pracy, na wygodne testy nowych rozwiązań i tym samym zapewniają szybszy rozwój produktów. Ważne jest też doświadczenie i kompetencje techniczne inżynierów wsparcia technicznego, którzy są w stanie doradzić przy wyborze produktu i rozwiązać wiele problemów pojawiających się podczas projektowania. Osoby te mają doświadczenie wynikające z pracy z wieloma klientami, znają typowe problemy, wiedzą, które rozwiązania zyskują na popularności i które powoli wychodzą z rynku i w tym kontekście są w stanie uchronić klientów przed nieoptymalnym wyborem.

OPROGRAMOWANIE RÓWNIE ISTOTNE JAK HARDWARE

Na szybkość projektowania ma też wpływ czas przygotowania oprogramowania i z reguły jest to zagadnienie bardziej istotne od warstwy sprzętowej. To dlatego, że wiele aplikacji składa się z mikrokontrolera razem z niewielkim otoczeniem układów pomocniczych i peryferyjnych i od strony układowej są one stosunkowo proste. To jest normalne działanie, bo konieczność minimalizacji kosztów prowadzi do tego, aby koszt materiałowy zdefiniowany przez listę BOM był jak najniższy. Z uwagi na to korzystniej jest implementować więcej funkcji użytkowych w oprogramowaniu, bo związane z nim wydatki nie dotyczą każdej wytworzonej sztuki.

Te procesy sprawiają, że rola oprogramowania firmware cały czas się zwiększa. Staje się ono bardziej rozbudowane i złożone, a czas jego przygotowania (napisania) jest coraz dłuższy.

Podobnie jak zestawy startowe, projekty aplikacyjne lub gotowe rozwiązania dostarczane przez działy wsparcia technicznego producenta i dystrybutora ułatwiają budowę części sprzętowej, takie same zjawiska można dostrzec w zakresie oprogramowania. Podstawą są zintegrowane środowiska typu IDE, ale największą pomoc zapewniają gotowe kawałki kodu, biblioteki procedur lub nawet gotowe rozwiązania z otwartą licencją, które wystarczy przerobić pod swoje potrzeby. Takie zasoby też się bardzo szybko zwiększają i mają duży wpływ na tempo rozwoju rynku i akceptację nowych rozwiązań. Poza oprogramowaniem darmowym na rynku jest jeszcze wiele narzędzi płatnych związanych np. z grafiką, interfejsem użytkownika. Konieczność pracy od zera jest chyba bardzo rzadkim przypadkiem.

Coraz większe znaczenie w tworzeniu oprogramowania mają języki wysokiego poziomu, także wersje skryptowe, specjalizowane narzędzia zdolne do wygenerowania kodu na podstawie zapisanego graficznie algorytmu. Takie narzędzia najczęściej kierowane są do tworzenia aplikacji IoT i jeśli nie ma wymagań co do szybkości, a stopień komplikacji nie jest duży to można sobie z ich użyciem zaoszczędzić sporo wysiłku.

W powstanie takich narzędzi zaangażowały się duże koncerny, a przykładem może być Microsoft, który stworzył narzędzia pozwalające prosto stworzyć oprogramowanie dla projektu IoT z wykorzystaniem chmury Azure Sphere. Wraz z kolejnymi układami SoC zawierającymi kompletne platformy sprzętowe do takich zastosowań takie narzędzia będą zyskiwać na znaczeniu i zapewne będą coraz doskonalsze. Hipotetyczny koniec takich procesów można upatrywać w tym, że w obszarze IoT najbardziej liczyć się będzie pomysł na aplikację, to jaką korzyść (wartość) będzie można osiągnąć, a nie sprzęt i oprogramowanie.

Potrzeby klientów i wymagania w stosunku do mikrokontrolerów
 
Najważniejsze potrzeby klientów w zakresie oczekiwanej funkcjonalności mikrokontrolerów koncentrują się wokół szerokich możliwości aplikacyjnych tych układów oraz zgodności programowo-pinowej umożliwiającej długoterminowy rozwój produktów i skalowanie wydajności bez konieczności ponoszenia dużych nakładów pracy. W warunkach krajowych, gdzie dominują aplikacje specjalistyczne i przemysłowe, dość wysoko uplasowało się kryterium związane z długoterminową dostępnością chipów w sprzedaży (longevity).

Duża moc obliczeniowa, koprocesory graficzne i jednostki DSP w hierarchii potrzeb krajowych klientów znalazły się na samym dole zestawienia. To zapewne dlatego, że aplikacje w których liczy się wydajność przetwarzania danych łatwiej stworzyć w oparciu na komputerach SOM/COM.

PHYTON ATAKUJE DOMINUJĄCĄ POZYCJĘ C++

Z opisanych wyżej powodów coraz częściej programiści sięgają w pracy po języki wysokiego poziomu takie jak Phyton. Powodem jest to, że z ich użyciem łatwo i szybko można napisać nawet skomplikowany program, taki którego implementacja w C++ wymagałaby znacznie więcej wysiłku. Dawniej, gdy zasoby pamięciowe mikrokontrolerów były niewielkie, tak samo wydajność przetwarzania, koniecznie było pisanie oprogramowania w językach niskiego poziomu, w asemblerze, potem przez długie lata w C/C++. Dzisiaj wydajność przetwarzania nie jest barierą, bez problemu można kupić chipy z pojemną pamięcią Flash, a wiele aplikacji nie musi działać w czasie rzeczywistym. Badania ankietowe, zarówno nasze własne wykonywane na potrzeby tego zestawienia, jak i zagraniczne stowarzyszenia branżowe wykazują niezbicie, że Phyton w systemach embedded jest wybierany równie często jak język C.

KOMUNIKACJA I NIEWIELKIE POTRZEBY ENERGETYCZNE

W ostatnich latach rynek elektroniki szybko się zmienia i znaczenia nabierają aplikacje przenośne, rozwiązania IoT oraz systemy rozproszone, np. telemetryczne sieci pomiarowe. Wiele takich rozwiązań zasilanych jest z akumulatorów i baterii jednorazowych, stąd potrzeby związane z zapewnieniem jak najmniejszego poboru mocy stają się bardzo istotne.

Drugim istotnym trendem jest komunikacja bezprzewodowa. Elektronika mobilna, urządzenia klasyfikowane jako IoT muszą mieć możliwość wymiany danych, dostępu do Internetu lub możliwość gromadzenia danych w chmurze obliczeniowej. Stąd komunikacja jest i będzie w przyszłości ważnym obszarem determinującym możliwości mikrokontrolerów. Na rynku są układy SoC, gdzie moduł komunikacyjny został zintegrowany w całość aplikacyjną z mikrokontrolerem tak, że całość realizuje wygodną platformę aplikacyjną, np. Espressif. Sukces tego rozwiązania wskazuje po raz kolejny wyraźnie rysujący się kierunek rozwoju, a więc uniwersalną platformę sprzętową o szerokich możliwościach konfiguracji.

Najważniejsze zjawiska hamujące rozwój rynku MCU
 
Czynniki negatywnie oddziałujące na tempo rozwoju rynku mikrokontrolerów to przede wszystkim inercyjne podejście klientów do nowych rozwiązań i technologii, a więc innymi słowy preferowanie tego, co się zna i z czego już się korzystało wcześniej. Drugi istotny czynnik na wykresie to wysokie ceny zaawansowanych układów, zwłaszcza tych z dużymi zasobami pamięciowymi. Na sprzedaż jednostek uniwersalnych negatywnie oddziałują także coraz popularniejsze rozwiązania aplikacyjne i gotowe systemy na krzemie (SoC), np. procesory komunikacyjne Espressif będące w pewnym uproszczeniu mariażem modułu radiowego z mikrokontrolerem.

WYDAJNOŚĆ CZY NISKI POBÓR MOCY

Mówiąc ogólnie, duża wydajność mikrokontrolerów jest w sprzeczności z niskim poborem mocy. Ale ostatnio na rynku pojawiły się mikrokontrolery, które mają dwa rdzenie – jeden wydajny a drugi energooszczędny, co pozwala programiście używać ich w zależności od tego, co jest potrzebne w danej chwili. To przykład wyłomu w tej ogólnej regule.

Nowe technologie pozwalają na usypianie działania procesora i szybkie wybudzanie, automatyczne dopasowanie wydajności do realizowanych zadań, skalowanie napięcia zasilania i inne podobne techniki. Są układy z autonomicznie działającymi układami peryferyjnymi, które mogą samodzielnie wymieniać dane bez udziału procesora. W zakresie niskiego poboru mocy producenci z pewnością nie powiedzieli jeszcze ostatniego słowa, wraz z kolejnymi rekordami można liczyć na wzrost popularności zasilania energią wolnodostępną (energy harvesting), przed którą widać wielki potencjał i która powinna być głównym źródłem zasilającym dla aplikacji elektroniki noszonej (wearables).

Na razie producenci mikrokontrolerów starają się łagodzić niedogodności związane z zawieraniem kompromisu między dużą wydajnością a małym poborem mocy poprzez rozbudowę chipów. Dwa mikrokontrolery w jednej strukturze są pomysłową koncepcją, która pojawiła się w rodzinie STM32, ale można ją dostrzec też w wielu układach SoC, gdzie z reguły jest kilka rdzeni: aplikacyjny, komunikacyjny itd.

Jerzy Kozieł

 

  • Jakie zjawiska w obszarze aplikacji IoT przyciągają uwagę w ostatnim czasie?

W zakresie IoT należy zwrócić szczególną uwagę na nowy dynamicznie rozwijający się obszar układów zintegrowanych zawierających zarówno transceiver radiowy, jak i w pełni programowalny mikrokontroler dla aplikacji IoT wspierającej urządzenie. Rozwój tego typu układów spowodowany jest przede wszystkim oczekiwaniami dalszego postępu w dziedzinie miniaturyzacji układów oraz redukcji kosztów, co zapewnia nowe możliwości adaptacyjne.

Układy zintegrowane oznaczają nowe możliwości miniaturyzacji układów IoT. Poprzez zwolnienie z powierzchni PCB miejsca zarezerwowanego dla kilku układów wraz z połączeniami pomiędzy nimi, obszar ten można przeznaczyć na nowe funkcje, np. dla sensorów. Wszędzie tam, gdzie zastosowanie transmisji danych w paśmie radiowym jest konieczne, a wymiary urządzenia muszą być niewielkie, użycie układów zintegrowanych może przesądzić o sukcesie. Obecnie powszechnie stosowanym mikrokontrolerem w tego typu układach zintegrowanych jest architektura Cortex-M4 i M0 umożliwiająca zaawansowane tworzenie aplikacji IoT. Układy zapewniają szeroki dostęp do urządzeń peryferyjnych, w tym 12-bitowe ADC, SPI, I²C, I²S, UART, PDM i PWM. Dzięki temu od strony realizacji nie ograniczają w żaden sposób rozwiązania. Należy dodać, że tego typu układy oferują dostęp do standardów Bluetooth 5.0, ZigBee, Thread, LoRa, a także LTE Cat. M1 / NB IoT w przypadku rozwiązań, które są opracowane w szczególności z myślą o energooszczędnych rozwiązaniach IoT.

OGROMNA FUNKCJONALNOŚĆ ZA GROSZE

Mikrokontrolery są coraz tańsze, co może niekoniecznie widać w cenach bezwzględnych, ale z pewnością daje się dostrzec pod względem stosunku ceny do możliwości (wydajność, pamięć, układy peryferyjne).

Projektanci przez cały czas szukają też oszczędności na najdroższych układach stosowanych w modułach elektronicznych, stąd wynika prawdopodobnie zapotrzebowanie na tanie mikrokontrolery, które nie muszą być uniwersalne. To zapewne też przyczyna, dla której jednostki 8-bitowe cały czas znajdują chętnych, bo takiego mikrokontrolera opłaca się użyć nawet do prostych funkcji logicznych. Kolejną odsłonę możliwości integracji i obniżki cen przynoszą układy SoC (system na krzemie) zawierające w jednym chipie praktycznie całą aplikację (procesor, pamięć, komunikację). Funkcjonalność, jaką dostaje się za symbolicznego dolara, jest bardzo duża i niemożliwa do osiągnięcia w jakimkolwiek innym rozwiązaniu bazującym na elementach dyskretnych. Dlatego perspektywy dla tego obszaru rynku są znakomite.

 

Przekaźniki elektromagnetyczne – zawsze są atrakcyjnym wyborem w układach automatyki

Współczesny przekaźnik elektromagnetyczny to miniaturowy element przełączający o dużej odporności elektrycznej i środowiskowej oraz o szerokim spektrum aplikacyjnym. Zapewnia wysoką funkcjonalność za niewielką cenę, przez co niezmiennie jest uznawany za produkt perspektywiczny, użyteczny, a nowe rozwiązania producentów w zakresie miniaturyzacji, wysokiej jakości wykonania, niskiego poboru mocy przez cewkę elektromagnesu sprawiają, że zawsze jest też dla projektantów atrakcyjnym wyborem. Z każdą kolejną wersją elementy te ulegają licznym zmianom, gdyż na rynku jest wielu producentów zabiegających o klientów i proponujących coraz lepsze wykonania.

Na rynku przekaźników widoczny jest zwrot zainteresowania klientów w stronę produktów o wysokiej jakości i tych produkowanych przez renomowanych producentów. Proces ten zachodzi, mimo że cały czas są dostępne przekaźniki klasyfikowane jako podróbki oraz tanie chińskie marki, a silna konkurencja zapewnia wiele rozwiązań o zbliżonych parametrach.

Przyczyn tego zjawiska jest wiele, na przykład rosnące koszty pracy i tym samym drożejący serwis i obsługa techniczna urządzeń. To także coraz większy eksport krajowych przedsiębiorstw, coraz więcej urządzeń i aparatury w fabrykach oraz większe skomplikowanie techniczne nowych instalacji. W Polsce szybko rozwijają się rynki związane z produkcją maszyn, sektorem budowlanym i postępuje automatyzacja wielu dziedzin. Rozwój produkcji inicjuje też popyt na systemy kontroli i sterowania, co zawsze stymuluje popyt na przekaźniki. Wiele krajowych firm produkuje i eksportuje urządzenia dla przemysłu, takie jak sterowniki, regulatory, urządzenia pomiarowe, styczniki, systemy bezpieczeństwa i nadzoru. W ramach inwestycji i modernizacji starszych zakładów i linii produkcyjnych kupowane są nowe maszyny i budowane do nich instalacje oraz systemy. Strumień sprzedaży dla przemysłu tworzą też elektronika profesjonalna, energoelektronika, motoryzacja, systemy alarmowe. Nie są to filary rynku odpowiedzialne za zbyt przekaźników, ale z pewnością mające znaczenie.

Zainteresowanie jakością w branży bierze się też z tego, że krajowych przedsiębiorców obecnie stać na lepsze produkty, bo sytuacja w gospodarce jest dobra, a rynek się rozwija, zapewniając im niezłe dochody. Innymi słowy, nie muszą oni oszczędzać na wszystkim i na te lepsze produkty ich stać. Liczne inwestycje producentów europejskich w automatyzację produkcji spowodowały, że wytwarzanie przekaźników wymaga mniej pracy ręcznej niż dawniej, więc jakość jest lepsza przy jednocześnie niższej cenie. Ceny przekaźników markowych nie są już dzisiaj w dużej dysproporcji w stosunku do tych tańszych i nierzadko różnica pomiędzy wersjami staje się niewarta starań. Co więcej, w ostatniej dekadzie w technologii przekaźników zaszło sporo korzystnych zmian poprawiających jakość i trwałość tych elementów, przez co działy utrzymania ruchu w przemyśle kupują obecnie relatywnie mniej tych elementów niż kiedyś. To też ogranicza zapędy do oszczędzania.

Paradoksalnie rynek jest też dzisiaj znacznie bardziej wyedukowany w zakresie podejścia do jakości właśnie dzięki temu, że kiedyś była ona drugorzędna w stosunku do niskiej ceny. Nic tak nie edukuje klientów i nie zmienia kierunku myślenia firm, jak pojawiające się problemy z urządzeniami w okresie gwarancyjnym i ponoszone koszty serwisu z powodu elementu, na którym oszczędzono ułamek złotówki.

Najważniejsze cechy przekaźników brane pod uwagę przy kupnie przez klientów
 
Listę najbardziej istotnych cech oferty handlowej branych pod uwagę przy selekcji produktu i dostawcy otwiera jakość i niezawodność, cena jest na drugiej pozycji i jak widać z wykresu, różnica wskazań procentowych jest wyraźna. Proces, w ramach którego na rynku krajowym pogłębia się zainteresowanie klientów produktami i usługami o wysokiej jakości, widoczny jest od kilku lat. Po długich latach oszczędzania i presji na niskie ceny obecnie coraz więcej klientów stać na to, aby płacić nieco drożej, ale za produkty niesprawiające kłopotów (i kosztów). Z kolei krótki termin dostawy to znak obecnych czasów i kłopotów z zaopatrzeniem, a bardzo małe znaczenie wersji specjalizowanych oraz nowości to wyraźny symptom konserwatywnego charakteru branży.

SZEROKI ASORTYMENT

Wiele zmian na rynku, jakie zaszły w ostatnich latach, też można uznać za czynniki sprzyjające dla przekaźników i także pośrednio dla jakości. Przykładem może być wzrost znaczenia specjalizacji, odchodzenie od wytwarzania długich serii na rzecz produkcji elastycznie dopasowującej się do chwilowych potrzeb rynku bądź wręcz realizowanej na zlecenie. Sprawne realizowanie projektów, zleceń integracji i usług produkcyjnych preferuje firmy lokalne, a więc zdolne do zapewnienia szybkich dostaw komponentów. Im szerszy asortyment, im więcej typów wykonań i możliwości w zakresie przekaźników mamy na rynku, tym pozycja rynkowa dużych lokalnych graczy jest lepsza, bo oni mają magazyny fabryczne blisko klienta.

ROSNĄCY ASORTYMENT WERSJI SPECJALISTYCZNYCH

W ofertach producentów przekaźników widocznych jest coraz więcej typów o funkcjonalności i parametrach dostosowanych do wymagań aplikacji. Do niedawna przekaźnik był postrzegany jako coś bardzo uniwersalnego, co można było używać w zasadzie dowolnie, obecnie okazuje się, że czasem warto sięgnąć po rozwiązanie aplikacyjne. Przykładem mogą być wersje solarne, zdolne do komutacji obwodów mocy prądu stałego, rozwiązania odporne na uderzenia prądu udarowego, o podwyższonej odporności izolacji, bistabilne i podobne. Czasy, gdy przekaźnik dobierało się na podstawie paru parametrów, już dawno się skończyły – poza obszarem aplikacyjnym, typem, trzeba też zająć się wymaganiami środowiskowymi, obudowie, opcjach dodatkowych jak np. wskaźnik zadziałania, wbudowanym elemencie gaszącym przepięcia, systemie gaszenia łuku elektrycznego, przycisku testującym itp. Do tego dochodzą opcje montażu, parametry cewki przekaźnika oraz jej moc (nominalna i obniżona). Kryteriów selekcji jest mnóstwo.

Warto dostrzec, że liczba wersji przekaźników z obniżonym poborem mocy przez cewkę także systematycznie się powiększa. Doszliśmy do momentu, że większość popularnych typów jest już dostępnych w wersji oszczędnej, a redukcja poboru mocy sięga 30‒50%. Poza redukcją energii elektrycznej niski pobór mocy przez cewkę przekłada się na mniejsze nagrzewanie i możliwość pracy w szerszym zakresie temperatur. To kolejny czynnik sprzyjający jakości.

Najważniejsze trendy techniczne w przekaźnikach
 
Miniaturyzacja przekaźników została uznana za najważniejsze zjawisko techniczne zmieniające rynek, nie tylko przekaźników, ale wszystkich komponentów elektromechanicznych. Kolejne generacje urządzeń są coraz mniejsze i jednocześnie bardziej złożone, miejsca na płytkach drukowanych i w obudowach jest coraz mniej, co tworzy oczekiwania na produkty "mniejsze, ale wydajniejsze". Niski pobór mocy przez cewkę elektromagnesu także wpisuje się w to zjawisko wraz ze zwiększającym się udziałem elektroniki mobilnej, aplikacji niskomocowych itp. Przekaźnik nie może obecnie dominować nad innymi elementami od strony gabarytów ani też stanowić głównego odbiornika energii.

STYK CZY ZESTYK?

Warto zauważyć, że poszczególne typy przekaźników opisywane są terminami, których znaczenie zmienia się w zależności od docelowej branży, a na dodatek funkcjonujące określenia nie są ścisłe. Poszukiwanie przekaźnika oraz sprawne poruszanie się po katalogach producentów wymaga przez to nieco uwagi. I tak termin przekaźnik miniaturowy oznacza zwykle element o średniej wielkości i obciążalności z punktu widzenia elektroników, przeznaczony do montażu na płytce drukowanej. Elementy takie przeznaczone są do załączania obciążeń od 5 do 10 A przy napięciu sieci 230 VAC i zawierają jedną lub maksymalnie dwie pary styków.

Druga grupa kierowana do elektroniki to przekaźniki subminiaturowe. Są to elementy o małych wymiarach i obciążalności przeznaczone do montażu na płytkach drukowanych w wersjach THT i SMD. Ich prąd przewodzenia styków zawiera się typowo w zakresie 0,5‒2 A, napięcia pracy sięgają 120 V, a więc nie są to elementy przeznaczone do pracy z napięciem sieci energetycznej. To takie typowe przekaźniki do aplikacji w elektronice, do pracy z małymi sygnałami o wielkości kondensatora elektrolitycznego.

Ciekawostką jest też to, że to, co elektronicy nazywają stykami, formalnie producenci nazywają zestykami. Racja jest po ich stronie, bo styk to element z materiału kontaktowego, który realizuje połączenie obwodu elektrycznego. Razem z dźwignią i mechanizmem ruchu ten kontakt tworzy zestyk, a więc coś więcej niż tylko główkę ze stopu metalu. Zestyk zatem to element przełączający zawierający styki. Wystarczy przejrzeć katalogi firm elektronicznych, aby zauważyć, że w świecie elektroniki "zestyk" nie istnieje i obojętnie o czym mówimy, jest to styk. Tworząc zapytania ofertowe warto pamiętać o tej ułomności, aby uniknąć nieporozumień. Podobnie zresztą jest z "przyłączem", które elektronicy nazywają złączem zasilającym, wtyczką, gniazdem itp.

Kolejna ważna grupa to przekaźniki przemysłowe. Są to elementy o jeszcze większych wymiarach niż miniaturowe, zwykle są one przeznaczone do montażu w podstawce lub z końcówkami do lutowania lub mają końcówki pod konektory. Zawierają kilka par styków o dużej obciążalności, z reguły trzy do każdej fazy po jednym, mogą one włączać obciążenia indukcyjne, pracują przy napięciu do 400 V itp. Wyróżniają się odpornością, trwałością, dodatkami takimi jak przycisk testowy lub kontrolka oraz wzmocniona izolacja. Przekaźniki przemysłowe montuje się w przezroczystych obudowach po to, aby można było łatwo ocenić ich stan techniczny.

Poza wymienionymi typami kolejne grupy produktowe w zakresie przekaźników są już dostępne w obudowach instalacyjnych. Są to wersje do montażu na szynie DIN lub przykręcane do płaskiej powierzchni w skrzynce instalacyjnej. To samo dotyczy wersji specjalizowanych, nadzorczych, czasowych. Są to konstrukcje, w których oprócz przekaźnika elektromagnetycznego jest coś jeszcze: logika sterująca lub układy interfejsu.

Branże o największym potencjale zakupowym
 
Tradycyjnie dla polskiego rynku obszar przemysłowy został uznany za najbardziej wartościowy w przekaźnikach i padło na niego ponad dwukrotnie więcej wskazań w ankietach niż na całą resztę, a więc elektronikę konsumencką, profesjonalną oraz energoelektronikę. Mimo tej dużej dysproporcji relatywnie wysoka pozycja na wykresie elektroniki konsumenckiej warta jest odnotowania, gdyż z aplikacji tego typu przekaźniki elektromagnetyczne są często eliminowane przez wersje półprzewodnikowe. Wydaje się, że zjawisko to nie jest aż takie silne, o wiele bardziej dzieje się to w obszarze motoryzacji lub AGD.

WERSJE Z WBUDOWANĄ ELEKTRONIKĄ

Inną rozwijającą się grupą przekaźników aplikacyjnych są wykonania z wbudowaną elektroniką, czyli wersje czasowe oraz nadzorcze. Terminy te kryją tak naprawdę sterowniki elektroniczne o niewielkiej funkcjonalności z możliwością ustawienia pokrętłami czasów, progów i histerezy reakcji na zdarzenia, takie jak przekroczenie ustalonego poziomu. W sumie już nie są to przekaźniki elektromagnetyczne, tylko ogólnie "przekaźniki". Takie wersje to użyteczne komponenty dla automatyki, pozwalające na modernizację i budowę instalacji oraz urządzeń. Zapewniają sterowanie oświetleniem w garażu, wentylacją w hali, załączanie oświetlenia przeszkodowego i podobne zadania, nie wymagają programowana, ale jednocześnie są więcej, niż samym przekaźnikiem.

Najbardziej dochodowa grupa przekaźników
 
Spojrzenie na poszczególne typy przekaźników pod kątem tego, które typy są najbardziej dochodowe, tym razem przyniosło nieco zaskakujący wynik w postaci wersji miniaturowych, które wyprzedziły rozwiązania przemysłowe. To w dużej mierze wynik specyficznej terminologii i nazewnictwa, gdyż wersje miniaturowe nie są z reguły tymi małymi przekaźnikami, które elektronicy montują na płytkach. Takie to wersje subminiaturowe, zaś terminem miniaturowe określa się większe rozwiązania, które trafiają już do większych aplikacji. Niemniej dalej są to w większości przekaźniki przeznaczone do montażu na PCB, przez co kategoryzacja taka jest jedynie przybliżona i posługiwanie się nią wymaga czujności.

W największej części elementy te pełnią zadania ochronne, a więc wyłączają zasilanie przy przekroczeniu temperatury, napięcia, prądu w obwodzie i przeznaczone są do pracy w instalacjach 1-fazowych prądu przemiennego, ale spotyka się też wersje dla sieci trójfazowej. Z kolei wersje czasowe to elementy, które załączają lub odłączają obwód po zadanym czasie, realizują opóźnienie załączenia lub wyłączenia. Liczba kombinacji i wersji oraz możliwości tych komponentów są imponujące, co zapewne jest podstawą ich użyteczności. Elektronizacja przekaźników daje też możliwości poprawy parametrów oraz jest sposobem na zwiększenie zainteresowania danym typem, np. bistabilnym.

Mimo wielu innowacyjnych produktów, które zaprezentowano w ostatnich latach, znaczenie rynkowe przekaźników z wbudowaną elektroniką, co pokazało nasze badanie ankietowe, jest ułamkiem tego, co zapewniają wersje elektromagnetyczne. Ale na pewno jest to dla producentów przekaźników istotny kierunek rozwoju, poszerzający rynek. To zapewne wynika ze specyfiki omawianej branży, gdzie ewolucja produktów przebiega dość wolno i na ich przyjęcie przez rynek trzeba zapewne sporo poczekać.

Najbardziej konkurencyjna grupa produktów
 
W zestawieniu typów przekaźników, w których na rynku panuje największa konkurencja, czołowe pozycje przypadły na wersje montowane na płytkach drukowanych, te o średniej wielkości i obciążalności (miniaturowe) oraz te najmniejsze, subminiaturowe, których obciążalność to typowo 1 A. Powodem jest dość duża standaryzacja takich rozwiązań, to, że są one produkowane na liniach automatycznych na Dalekim Wschodzie, a wielu innych producentów je jedynie sygnuje własnym logo. Takie przekaźniki nierzadko konkurują głównie cena, bo cała reszta jest identyczna. Podobnie jest z wersjami na szynę DIN, a więc tych w obudowie kierowanych na rynek elektroinstalacyjny.

STYCZNIK KONTRA PRZEKAŹNIK

Poza przekaźnikami na rynku funkcjonują tzw. styczniki. Nazwa ta określa specjalizowany przekaźnik dużej mocy przeznaczony do pracy w aplikacjach przemysłowych i energoelektronicznych. Styczniki są komponentami do montażu w obudowie lub na szynie DIN i mają obudowę, która pozwala na zamocowanie w chassis. Są przeznaczone do łączenia dużych obciążeń, o mocy nawet wielu kilowatów, trójfazowych silników, dużych grzejników oraz całych systemów oświetlenia przemysłowego i obiektowego. Styczniki są łączone przewodami o dużym przekroju i mają wyprowadzenia przystosowane do montażu grubych kabli. Ich cewka z reguły jest zasilana napięciem 24 VDC lub napięciem przemiennym 230 VAC. Zawierają kilka styków, typowo trzy duże pary styków dla trzech obwodów fazowych, ale czasem też i jedną małą parę do sygnalizacji.

Najważniejsze czynniki negatywne dla rynku
 
Zestawienie czynników negatywnie wpływających na rozwój rynku zawiera trzy mniej więcej jednakowo istotne kryteria: silną konkurencję w tym sektorze rynku, długie czasy dostaw oraz dużą liczbę funkcjonujących zamienników i rozwiązań klasyfikowanych jako podróbki. Jak wynika z innego wykresu ich oddziaływanie jest najsilniejsze w zakresie produktów standardowych, podstawowych typów i wersji produkowanych automatycznie, tj. subminiaturowych i miniaturowych. Silna konkurencja i zamienniki to problemy znane od lat, ale długie czasy dostaw to zjawisko ostatnich miesięcy i na szczęście przemijające.

SSR I IPS

W ofertach producentów przekaźników elektromagnetycznych pojawiają się też wersje półprzewodnikowe, niemniej nie znaczy to, że firmy te poszerzają w tym kierunku profil produkcji. Regułą jest to, że producent ma szeroką ofertę, ale produkuje samodzielnie tylko jej część, tę, w której ma największe kompetencje, maszyny i takie przekaźniki, które uznaje za strategiczne dla biznesu. Mniej strategiczne pozycje kupuje się jako elementy gotowe u innych wytwórców. To samo dotyczy elementów przekaźników, np. cewek, które też można kupić u specjalizowanych producentów. W tym wszystkim chodzi o koszty i specjalizację w biznesie. Najpopularniejsze przekaźniki miniaturowe wytwarzane są na liniach automatycznych, które są drogie, ale bardzo wydajne. Jednocześnie zapewniają one wysoką jakość, stąd bez sensu byłoby nie skorzystać z ich potencjału. Podobnie jest z popularnymi przekaźnikami SSR o niewielkiej obciążalności, które wyglądają identycznie, mają takie same parametry oraz różnią się jedynie oznaczeniem. To zjawisko jest pozytywne, gdyż pośrednio oznacza, że takie wspólne produkty są znakomitym komponentem o bezdyskusyjnej jakości, spełniającym wymagania wielu czołowych producentów. Z takich samych powodów kooperacja w produkcji ma znaczenie pozytywne dla branży, bo wzrost specjalizacji i automatyzacji prowadzi do lepszej jakości oraz jednocześnie zapewnia możliwie najniższe ceny wynikające z działania w dużej skali.

Przekaźniki półprzewodnikowe są produktem, który jest stosowany w aplikacjach automatyki budynkowej, osprzęcie instalacyjnym (termostaty, regulatory) i podobnych rozwiązaniach, gdzie elementy te załączają grzałki, oświetlenie. Rozwiązania o dużej mocy przeznaczone dla energoelektroniki to już inna klasa rozwiązań, co widać nawet na oko po obudowie, zaś w elektronice konsumenckiej, motoryzacji i innych urządzeniach o dużej skali złożoności raczej korzysta się z IPS-ów, a więc elektronicznych przełączników półprzewodnikowych zawierających poza samymi elementami mocy także logikę sterującą i zabezpieczenia.

Rafał Kluska

 Relpol

  • Jakie nowości i trendy są warte zauważenia?

W technologii przekaźnikowej, z racji na ponad 70-letnią obecność tego typu komponentów na rynku, wydawać by się mogło, że zbyt wiele nie może się już wydarzyć. Zmieniające się jednak obszary zastosowań, nowe aplikacje i technologie produkcji elektroniki wymuszają one na producentach przekaźników wprowadzanie rozwiązań dopasowanych do aktualnych potrzeb rynku. Najbliższe kilkanaście lat będzie okresem bardzo intensywnych przemian rynkowych, do których impulsem jest rozwój elektromobilności. Elektryfikacja samochodów pociąga za sobą konieczność ogromnych inwestycji w obszarze energetyki oraz znaczne zwiększenie udziału źródeł energii odnawialnej. W tych aplikacjach nowością są specjalistyczne przekaźniki do załączania wysokich prądów AC i DC stosowane w inwerterach solarnych lub np. pokładowych ładowarkach pojazdów elektrycznych.

  • Czy rynek przekaźników elektromagnetycznych jest chłonny i perspektywiczny?

Jak najbardziej tak. Wpływa na to wiele czynników, ale najistotniejszym jest wzrost automatyzacji w każdym obszarze otaczającej nas rzeczywistości. Modyfikacja procesów produkcyjnych w kierunku Industry 4.0 i IoT, nowoczesne budownictwo pełne rozwiązań z zakresu automatyki, wspomniana wcześniej rewolucja w motoryzacji i energetyce. Dla Relpolu oznacza to możliwość, ale zarazem konieczność rozbudowy linii produkcyjnych oraz wprowadzenia do oferty nowych wyrobów w celu zaspokojenia potrzeb rynku.

  • Jakie są najważniejsze cechy przekaźników od strony technicznej?

Trwałość elektryczna i bezpieczeństwo, przy czym trwałość w dużej mierze jest pochodną właściwego doboru przekaźnika i materiałów stykowych odpowiednich dla danego typu i poziomu obciążenia oraz dopuszczonych prawem UE do zastosowania w danej aplikacji. Bezpieczeństwo gwarantuje właściwa konstrukcja i dobór materiałów zapewniających odpowiedni poziom wytrzymałości izolacji przez cały okres użytkowania przekaźnika w aplikacji. Spełnienie tych kryteriów zapewnia niezawodną pracę wyrobu i bezpieczne zakończenie jego użyteczności w aplikacji, bez narażenia na niebezpieczne zniszczenie lub nawet pożar.

WIELE NOWOŚCI I DROBNYCH INNOWACJI

Cały czas na rynku pojawiają się nowe rozwiązania, niemniej rozwój ma ewolucyjny charakter bez przełomowych premier i kamieni milowych w rozwoju. Dominują systematyczne usprawnienia – pojawiają się mniejsze wersje albo o większej obciążalności. Coraz więcej istniejących typów przekaźników można kupić w wersji energooszczędnej z czułą cewką, pojawiają się też wykonania ciche. Konstruktor ma coraz większy wybór wersji specjalistycznych, np. nadających się do przełączania wysokich napięć stałych, ze stykami odpornymi na sklejanie się od wysokich prądów udarowych lub też rozwiązań skutecznie komutujące małe prądy.

Najważniejsze zjawiska pozytywne dla rynku
 
Zestawienie czynników pozytywnie wspierających rozwój rynku otwiera wzrost nacisku na jakość, który przejawia się w większym zainteresowaniu klientów produktami markowymi, zaawansowanymi technicznie i takimi, co do których nie ma wątpliwości, że będą długo i bezawaryjnie pracować. Na drugim miejscu uplasował się szeroki dostępny asortyment, co pozwala na wybór dobrze pasującego typu do aplikacji spośród wielu różnych wersji oraz propozycji różnych producentów. Innowacyjność przekaźników, wersje specjalizowane pod kątem nowych obszarów rynków nie mają tutaj takiego znaczenia.

Poza kwestiami technicznymi przekaźniki zyskują szczelne obudowy zapewniające odporność środowiskową, mające wzmocnioną izolację między cewką i stykami, a w ich kartach katalogowych pojawiają się kolejne certyfikaty jakości potwierdzające deklaracje producenta.

 

Przełączniki, przyciski i klawiatury – użyteczne i niezbędne

Kiepskiej jakości przełącznik lub klawiatura są w stanie skutecznie popsuć opinię o producencie urządzenia wśród wielu klientów, a firmę wpędzić w kosztowny serwis. W miarę upływu lat coraz więcej osób jest świadomych takiego ryzyka i co jest również, ważne, ma obecnie fundusze na to, aby go minimalizować. Temat jakości elementów elektromechanicznych zawsze w omawianym sektorze był istotny i dyskutowany.

Dystrybutorzy i producenci wkładają od lat wiele wysiłku w promocję elementów markowych wśród firm elektronicznych, cierpliwie pracując nad zmianą podejścia klientów do zakupów. Te ich działania przynoszą na szczęście efekty. W ostatnich latach jakość przełączników i przycisków znacznie się poprawiła, a udział tandety jest wyraźnie mniejszy. Wytwórcy udoskonalili technologię, poprawili precyzję działania tych elementów i sięgnęli po nowe, lepsze materiały, aby zdjąć z elementów elektromechanicznych piętno najsłabszego ogniwa.

Najważniejsze cechy przełączników, przycisków i klawiatur brane pod uwagę przy kupnie
 
Zestawienie najważniejszych elementów oferty handlowej branych pod uwagę przy wyborze dostawcy produktu jest bardzo typowe, bo na górnych pozycjach znalazły się cena, jakość i parametry techniczne. Ale nie tylko kryteria w obrębie czołowej trójki są standardowe, ale także ich kolejność, dzięki czemu zestawienie można uznać za modelowe dla krajowego rynku. Czwarta pozycja, a więc krótki termin dostawy, to znak obecnych czasów. Ona nigdy wcześniej nie była tak wysoko w podobnych zestawieniach. Z kolei kryteria powiązane relacjami z dostawcą (długotrwała współpraca, kompetencje techniczne) wypadły słabo. Usługi personalizacji w przypadku przycisków też są marginalne.

DOTYK KONTRA NACISK

Obszar określany terminem interfejs człowiek-maszyna (Human Machine Interface, HMI) to sfera zagadnień związanych z dwukierunkową komunikacją z urządzeniami. Są to nie tylko aspekty techniczne, gdyż wiele uwagi poświęca się zagadnieniom takim, jak percepcja przez człowieka komunikatów płynących od urządzeń, wygoda i intuicyjność sterowania nimi, a także temu, aby mechanizmy wymiany informacji były jednoznaczne i spójne.

Przełączniki i klawiatury są bardzo istotną częścią HMI, ale w kontekście rozwoju rynku przy ich omawianiu zawsze pojawia się temat technologii dotykowych, a więc rozwiązań pozbawionych elementów mechanicznych. Są one dostępne w postaci pojedynczych elementów, czasem nawet w wersjach identycznych jak rozwiązania mechaniczne (tzw. zamienniki) oraz wykonywane na bazie wyświetlaczy z ekranem dotykowym.

Ta nowa technologia zdobyła uznanie w wielu aplikacjach mobilnych oraz grupie specyficznych rozwiązań takich jak automaty sprzedaży, punkty informacyjne. Ale mimo sporego potencjału technicznego nie widać, aby po początkowej fazie szybkiej ekspansji technologii zdobywała dalej szybko rynek i pojawiała się w kolejnych grupach aplikacji.

Podejście klientów do jakości
 
Jakość jest pojęciem, o którym się obecnie wiele mówi i przykłada dużą wagę i które po wielu latach zaczyna być kluczem do sukcesu w biznesie. W ciągu ostatniej dekady wiele zmieniło się na korzyść, a dane na pokazanym wykresie jednoznacznie przekonują, że staje się ona poszukiwaną wartością. Niemniej w podobnym badaniu wykonywanym przez nas trzy lata temu proporcje były prawie identyczne, a dopiero 6 lat temu czerwone pole było większe i obejmowało 33% firm. Oznacza to, że dynamika tych procesów nie jest duża, nawet niewielkie zmiany zabierają lata, a na dodatek doszliśmy do stanu równowagi z proporcjami, jak na widocznym wyżej zestawieniu.

Powodów jest co najmniej kilka. Przełączniki mechaniczne i klawiatury zapewniają dzisiaj dużą trwałość mechaniczną i elektryczną oraz mają interesujące wzornictwo, a także dużą funkcjonalność. Ich zastąpienie przez elementy dotykowe, nawet gdy są to zamienniki 1:1, nie przynosi wielkiego skoku jakościowego.

Elementy dotykowe słabo działają, gdy ręka jest uzbrojona w rękawiczkę. Ich reakcja jest wówczas opóźniona i nieprzewidywalna. Brakuje mechanicznej sygnalizacji potwierdzającej naciśnięcie, a ta realizowana przez podświetlenie bywa słabo dostrzegalna w przypadku, gdy na przycisk bezpośrednio świeci słońce. W aplikacjach wandaloodpornych, które są dobrze dopasowane do funkcjonalności, którą zapewniają technologie dotykowe, jest na rynku wiele specjalizowanych rozwiązań mechanicznych, o dużej odporności na dewastację. Tutaj także korzyść z eliminacji części mechanicznych nie tworzy przełomu.

Kolejny problem z dotykiem to to, że takie przyciski zawsze wymagają zasilania, dodatkowej logiki lub wręcz integracji z mikrokontrolerem. Nie da się ponadto poznać stanu przycisku przed włączeniem zasilania. Takich drobnostek jest wiele, a do tego dochodzi inżynierska inercja i ogólna niechęć do eksperymentów z nowym, przez co na rynku mamy wypracowany kompromis i stan równowagi.

Krystian Adamus

 Horizon Technologies

  • Jak zmienia się podejście klientów do jakości?

Na przełomie ostatnich lat widzimy zdecydowanie większy nacisk kładziony na jakość projektowanych i produkowanych urządzeń, które później trafiają do sprzedaży. Jakość rozumianą szerzej niż tylko wykorzystanie najlepszych materiałów do wykonania określonego komponentu. To przede wszystkim dbałość o estetykę urządzenia, która pozwala wyróżnić produkt spośród rozwiązań innych producentów i jest jednym z elementów uzyskania przewagi konkurencyjnej na rynku. Jeszcze nie tak dawno temu, wdrażając nowe komponenty lub kompleksowe rozwiązania, pracowaliśmy z jedną osobą po stronie klienta. Zazwyczaj był to elektronik. Teraz, w większości przypadków, mamy do czynienia z zespołem osób o zróżnicowanych kompetencjach i innym spojrzeniu na powstający produkt. Coraz częściej zdarzają się też projekty, w ramach których prowadzimy z Klientem audyt wzorniczy, który ostatecznie prowadzi do powstania strategii wzorniczej.

Widzimy, że nasi klienci kładą coraz większy nacisk na jakość sprzedawanych produktów, kreując przy tym silną markę przedsiębiorstwa, dbając o jakość własnych zasobów, procesów i komunikacji. Budują silną pozycję rynkową, zarządzając szeroko pojętą jakością produktów i usług dostarczanych na rynek.

  • Na co zwracać uwagę przy selekcji firmy?

Przede wszystkim należy odpowiedzieć sobie na pytanie, czy potrzebujemy komponentów z tak zwanej półki, czy też szukamy indywidualnych rozwiązań. W tym drugim przypadku sprawa jest nieco bardziej skomplikowana. Trzeba wówczas zwrócić uwagę na wiarygodność i doświadczenie naszego potencjalnego partnera biznesowego. Sprawdzić, jak długo funkcjonuje na rynku, ile unikatowych projektów ma w swoim portfolio, czy i jakie ma zasoby potrzebne do wdrożenia nowego projektu lub też dostaw partii produkcyjnych. Bardzo ważne jest, aby dostawca był w stanie aktywnie uczestniczyć w procesie wdrażania nowego produktu, w fachowy i profesjonalny sposób doradzać zarówno pod kątem technologicznym, ale również wzorniczym czy funkcjonalnym. Jednym słowem nasz przyszły partner biznesowy powinien pełnić funkcję doradcy, który będzie w stanie naszkicować oczekiwany przez klienta pomysł i jednocześnie będzie potrafił zalecić modyfikacje projektu w oparciu o swoje doświadczenie, a także zoptymalizować go pod kątem dalszej produkcji. Wszystko po to, by nowe rozwiązanie było estetycznie wykonane, z wysokiej jakości materiałów, a przy tym optymalnie zaprojektowane pod kątem ekonomiki produkcji.

NOWOŚCI W HMI

W zakresie interfejsu HMI sporo się dzieje i istnieje spora szansa na to, że w kolejnych latach równowaga ta może zostać naruszona. Rozwiązania dotykowe stają się coraz lepsze i wiele z nowych kontrolerów pozwala na obsługę w rękawiczce, bez problemów z szybkością detekcji i pewnością wykrywania dotyku. Są też takie, gdzie istnieje możliwość wykrycia siły nacisku palca na przycisk (poprzez ocenę wielkości dotkniętego pola), co daje możliwość zapewnienia lepszej responsywności interfejsu.

Widoczny jest też rozwój technologii haptycznych, a więc takich, w których urządzenie komunikuje się z operatorem za pomocą dotyku. Na razie sprowadza się to do potwierdzenia stanu za pomocą wibracji, co już w przypadku przycisków dotykowych i klawiatur ekranowych jest wykorzystywane do zapewnienia wspomnianego potwierdzenia zadziałania, ale zapewne niedługo aktuatory haptyczne zostaną też wbudowane do przycisków.

Co się liczy od strony funkcjonalności?
 
W przełącznikach i klawiaturach liczy się głównie trwałość mechaniczna i elektryczna, a w drugiej kolejności odporność środowiskowa. Cała reszta zagadnień łącznie z ergonomią i wzornictwem w hierarchii potrzeb klientów lokuje się znacznie niżej niż wymienione zagadnienia jakościowe. Jest to znakiem, że dominuje praktyczne, utylitarne wręcz podejście do wybierania oraz oceny potencjału technicznego tych rozwiązań. Na samym dole zestawienia znalazła się miniaturyzacja, która w obszarze rozwiązań z obszaru GUI ma mniejsze znaczenie niż gdzie indziej, bo dłonie i oczy operatorów stawiają tutaj twarde ograniczenia na minimalną wielkość.

Kolejna innowacja, jaka czeka w kolejce, to optyczne czujniki zbliżeniowe, które wykorzystują do wykrywania obiektu (palca) impuls światła generowany przez laser lub LED i mierzą czas, po jakim wróci sygnał odbity od przedmiotu (jest to metoda o nazwie Time of Flight, ToF). Elementy dotykowe z czujnikiem ToF rozwiązują całkowicie problem rękawiczki, pozwalają na aktywację (wybudzenie urządzenia) przy zbliżeniu się osoby do czujnika. W wersji z laserem czujniki ToF mogą dokonywać wielu pomiarów odległości jednocześnie, tworząc mapę trójwymiarową zbliżającego się obiektu i w ten sposób zapewniają niewrażliwość na zakłócenia.

Rozwój technologii dotykowych a rynek podzespołów elektromechanicznych
 
Dotykowe rozwiązania interfejsu użytkownika są konkurencją techniczną dla tradycyjnych rozwiązań mechanicznych i z pewnością mają wiele zalet. Ale co do siły ich oddziaływania na rynek elementów elektromechanicznych zdania są już podzielone. Zdaniem pytanych specjalistów dotykowy interfejs użytkownika to domena niektórych wybranych rozwiązań i tym samym sektorów rynku elektroniki. Dotykowo nie przełącza się obwodów dużej mocy, gdzie wymagana jest pewność działania lub możliwość obsługi w rękawiczkach. To samo dotyczy aplikacji związanych z bezpieczeństwem, gdzie stan urządzenia musi być znany przed włączeniem zasilania i wielu innych. Tych wyjątków jest na tyle dużo, że naturalnie hamuje to proces przechodzenia "na dotyk".



Na koniec warto wspomnieć, że do interfejsu HMI dodawane będzie rozpoznawanie gestów. Umożliwią to właśnie wielopunktowe czujniki ToF, które tworząc trójwymiarowy model obiektu, dostarczą danych dla komputera, który na podstawie serii pomiarów wykryje gest, czyli w praktyce ruchy dłoni.

Paweł Leśniewski

 Eltronika

  • Czego oczekują klienci od producentów?

Z uwagi na wciąż rosnącą konkurencję oczekiwania względem producentów są również coraz większe. Obserwujemy, że klienci w niektórych przypadkach, oprócz samego produktu i jego specyfikacji technicznej, oczekują także od nas świadectwa lub pisemnego potwierdzenia jakości towaru i jego zgodności z uzyskaną specyfikacją, w ramach asekuracji. W dobie zasypywania rynku produktami złej jakości klienci częściej oczekują też dodatkowej gwarancji lub możliwości bezproblemowej wymiany.

  • Jakie najważniejsze cechy przełączników i klawiatur są brane pod uwagę przy kupnie?

To indywidualna potrzeba aplikacji. Komponent ma przez długi czas działać niezawodnie, a konstruktorzy sporo wcześniej, zawsze dość umiejętnie, radzą sobie ze znalezieniem kilku rozwiązań wstępnie im pasujących do projektu. Projektujący mają czasem jednak swoje obawy. Rolą producenta oraz dystrybutora jest wtedy właściwa pomoc. Często pytamy klientów o ich oczekiwania, o to, w jakich warunkach będzie pracował dany element, czy powinien być odpowiednio wzmocniony w budowie, jaki materiał wykonania byłby preferowany oraz szczelność, wreszcie sama estetyka i kolor, czyli wszystko, co wpływa na charakter gotowego wyrobu.

JAKOŚĆ I WZORNICTWO

Ciągłym trendem w branży jest poprawiająca się jakość rozwiązań elektromechanicznych i ich wygląd, czyli wzornictwo. Żywe kolory tworzyw sztucznych, kształty wykraczające daleko poza nudne prostopadłościany lub podświetlenia ledowe są z pewnością przykładem zachodzących zmian w omawianym sektorze. Jest to wynik tego, że producenci mają dzisiaj do dyspozycji lepsze materiały i urządzenia produkcyjne zapewniające większą dokładność, ale także z tego, że zaawansowane technologie produkcyjne są coraz bardziej przystępne. Druk cyfrowy o wysokiej rozdzielczości znakowarki i obrabiarki laserowe nie są już dzisiaj luksusem dostępnym dla największych firm i coraz częściej są wykorzystywane do personalizacji produktów, wykonywania produkcji małoseryjnej i innych operacji. Obrabiarki laserowe zapewniają wszystko co jest dzisiaj potrzebne do zapewnienia jakości, a więc wysoką precyzję wykonywania oznaczeń, trwałość oraz szybkość. Całkowite koszty posiadania stają się także efektywne kosztowo, gdyż nawet jak inwestycja wymaga większych nakładów na początku, to potem jest to równoważone małymi kosztami użytkowania.

Takie urządzenia pozwalają zapewnić możliwość wytwarzania produktów o wysokiej jakości technicznej i wizualnej w małej skali, bez konieczności sięgania po kompromisy. W warunkach krajowych jest to bardzo cenne.

Marcin Rzechonek

 Irga

  • Jakie najważniejsze zjawiska pozytywne i negatywne dla rynku warto wymienić?

Negatywnym zjawiskiem jest ciągły wzrost cen materiałów, takich jak laminaty miedziane, folie poliestrowe, pasty srebrowe i kleje przemysłowe. Wciąż też jest słaba dostępność zaawansowanych materiałów na polskim rynku, niechęć wiodących firm światowych do wprowadzania zaawansowanych produktów na nasz rynek (zwłaszcza z USA). Spotkaliśmy się z absurdalnymi sytuacjami, gdy klient chciał przenieść produkcję modułu do Polski, ale materiałów wyspecyfikowanych w dokumentacji "nie dało" się sprowadzić ani od przedstawicieli, ani bezpośrednio od producenta. Mimo wszystko przenoszenie produkcji z krajów "zachodnich" do Polski wciąż trwa, powoli stajemy się też konkurencją dla Chin, głównie z racji lepszej jakości, niższych kosztów logistyki oraz elastyczności w uzgodnieniach i doradztwie technicznym. To jest główna siła naszej branży i budzi nadzieje na przyszłość.

  • Rozwój technologii dotykowych – jak zmienia rynek?

Dotąd głównym trendem była integracja technologii ekranów dotykowych, przycisków membranowych i panelowych. Produkujemy kilka tego rodzaju paneli do rozwiązań HMI. Technologia dotykowa, zwłaszcza pojemnościowa, rozwija się niezwykle szybko i dzięki znacznej poprawie niezawodności detekcji toruje sobie drogę do zastosowań przemysłowych. Jest to więc z jednej strony zagrożenie dla branży, a z drugiej szansa na rozwój w kierunku coraz ciekawszego wzornictwa, w czym branża klawiatur membranowych zawsze przodowała.

  • Które branże i grupy odbiorców są najbardziej wartościowe dla tego sektora rynku?

Szeroko pojęty przemysł, firmy produkujące specjalizowane sterowniki, pulpity operatorskie czy urządzenia pracujące w ciężkich warunkach środowiskowych. To sektor, który stawia duże wymagania na jakość, ale jest gotowy za nią zapłacić. W sektorze urządzeń na rynek masowy liczy się wciąż jak najniższa cena.

OGROMNY ASORTYMENT

Przełączników i przycisków na rynku jest mnóstwo, tak samo jak producentów i firm, które mają je w ofertach. Czołowi producenci mają licznych naśladowców, wiele innych firm korzysta z tego, że rynek jest chłonny i proponuje wielowariantowe rozwiązania, które w zamyśle mają pokryć większość potrzeb klientów. Brakuje standaryzacji, bo w praktyce dotyczy ona tylko tych najpopularniejszych produktów, które ma wielu producentów i tym samym standardem staje się to, co jest popularne. Doskonałym przykładem są przyciski membranowe do PCB.

Główne zjawiska techniczne widoczne na rynku
 
Patrząc na rozwój rynku pod kątem zjawisk technicznych, widzimy że za najbardziej istotne czynniki wybrano dostępny szeroki asortyment wyrobów gotowych. Pozwala on wybrać do aplikacji dobrze pasujący produkt, bez konieczności godzenia się na kompromisy. Przekrojowa oferta, razem ze znajdującą się na drugim miejscu miniaturyzacją, zapewnia możliwość sprostania przez konstruktorów oczekiwaniom klientów i wpasowanie się w uniwersalne trendy zmieniające elektronikę. Taką hipotezę potwierdzają też dwie kolejne pozycje, a więc dostępność wersji specjalistycznych, bardziej zaawansowanych, funkcjonalnych i tym samym użytecznych.

W przełącznikach i przyciskach nie funkcjonuje system modułowy, który pozwala na ograniczenie liczby części składowych, taki, jakie spotyka się w złączach. Przeciwnie, wiele produktów daje możliwość kompozycji spośród wielu typów. Za jedną pozycją kryją się dziesiątki wersji różniących się kształtem dźwigni, kapturkiem, stopniem ochrony, końcówkami łączeniowymi, kolorem podświetlenia. Utrudnia to dokonywanie wyborów, także zmianę produktu na inne pochodzące od innego producenta, a także utrudnia promocję nowych rozwiązań.

Najważniejsze czynniki negatywne dla rynku
Z
 
Zestawienie czynników najbardziej przeszkadzających rozwojowi rynku przełączników i klawiatur otwiera silna konkurencja, na którą wskazało ponad połowa pytanych. Duże negatywne oddziaływanie zamienników i podróbek wyrobów markowych, które znalazło się na drugim miejscu i zostało wskazane przez odrobinę mniejszą liczbę pytanych specjalistów, też wiąże się z silną konkurencją, gdyż to właśnie takie produkty silnie wpływają na warunki biznesowe w tym obszarze rynku i od lat stanową branżowy problem. Trzecie miejsce, a więc długie czasy dostaw, to znak obecnych czasów, który pokazuje, że problemy z zaopatrzeniem nie dotyczą jedynie kondensatorów i podzespołów dyskretnych, ale w pewnym stopniu także innych grup produktowych. Na pewno alokacja prowadzi do zakłóceń w łańcuchu dostaw, bo wiele projektów (oraz zakupów z nimi związanych) jest przesuwanych na później, do czasu aż uda się kupić potrzebne kluczowe elementy.

KLAWIATURY

Klawiatury membranowe lub inaczej foliowe znajdują szerokie zastosowanie w urządzeniach powszechnego użytku, sprzęcie kontrolno-pomiarowym, rozwiązaniach przemysłowych, motoryzacji, urządzeniach medycznych oraz sprzęcie AGD. Ich duża popularność wynika z dobrej dostępności i niewielkiego skomplikowania technologii produkcji, co przekłada się na niskie ceny uruchomienia produkcji i jednostkowe, oraz dobrych własności użytkowych i jakości. Kolejny atut to taki, że jest to produkt elastyczny, który można dopasować do wielu specyficznych wymagań aplikacyjnych. Klawiatury mogą być z klikiem klawiszy, podświetleniem, z frontem silikonowym lub foliowym, z polami przezroczystymi lub kolorowym filtrem pod wyświetlacz itd. Wraz z warstwami realizującymi ekranowanie elektromagnetyczne konstrukcja jest zabezpieczana przed wpływem czynników środowiskowych lakierami i warstwami ochronnymi. Możliwości jest wiele, a rynek szeroki i chłonny.

Najważniejsze zjawiska pozytywne dla rynku
 
Za najbardziej istotny czynnik sprzyjający rozwojowi rynku komponentów elektromechanicznych uznano wzrost nacisku na jakość, który sprawia, że ciężar rynkowej konkurencji przenosi się na inne elementy oferty niż cena. Na drugiej pozycji znalazł się szeroki asortyment produktów, który pozwala na kompleksowe zaopatrzenie w jednym miejscu z możliwością wielowariantowego wyboru wykraczającego poza jedną markę. Pozostałe kryteria oceniono jako znacznie mniej istotne, na co wskazują nie tylko mniejsze wskaźniki procentowe, ale także to, że słupki są mniej więcej takiej samej wielkości.

O atrakcyjności klawiatur przekonuje to, że w miarę upływu lat liczba firm zajmujących się ich wytwarzaniem (we własnym zakresie lub w kooperacji) rośnie. Nie jest to dynamiczny przyrost, ale dostrzegalny, najbardziej u producentów obudów, którzy rozszerzają ofertę o klawiatury.

Producenci klawiatur cały czas inwestują w rozwój technologii, w nowe trwałe materiały, zapewniające odporność środowiskową i długotrwałe działanie, wykorzystują druk cyfrowy po to, aby dać możliwość pełnej indywidualizacji projektów, także tych określanych jako małe serie oraz łączą w ramach jednej oferty wiele rozwiązań przełączających, podświetleń i całego know-how, aby mieć ofertę dla każdego klienta.

 

Elementy indukcyjne i transformatory sieciowe – podstawa układów konwersji mocy

Nie trzeba robić wielkich badań, aby przekonać się, że współczesne urządzenia elektroniczne są z generacji na generację coraz mniejsze, a znaczenie elektroniki mobilnej stale się zwiększa. Nowoczesne półprzewodniki i elementy indukcyjne są niezbędne do takich zmian, bo za postępem technicznym kryją się bardzo często innowacje w zakresie impulsowej konwersji mocy. Osiągnięcie wysokiej sprawności jest możliwe m.in. dzięki dostępności miniaturowych dławików i transformatorów bazujących na niskostratnych materiałach magnetycznych o zwartej konstrukcji mechanicznej, zapewniającej małe reaktancje pasożytnicze, emisję zaburzeń i takich, które mają gabaryty pozwalające na łatwą integrację w urządzeniu.

Mały płaski transformator z uzwojeniami nawiniętymi licą lub płaskownikiem miedzianym z rdzeniem otaczającym praktycznie całe uzwojenie jest rozwiązaniem, do którego się dąży we współczesnych rozwiązaniach systemów zasilania. Poza układami konwersji energii cała reszta elementów indukcyjnych też musi być coraz mniejsza. Dotyczy to filtrów, cewek w.cz., dławików lub transformatorów sygnałowych, które nie mogą górować gabarytami nad resztą elektroniki. Miniaturyzacja ma nawet wpływ na transformatory sieciowe, tyle że niewielki i daleki od spektakularnych osiągnięć widocznych w rozwiązaniach do aplikacji impulsowych.

WYMAGANIA JAKOŚCIOWE STALE SIĘ ZWIĘKSZAJĄ

Szybki rozwój rynku elektroniki i to, że rozwiązania na niej bazujące pojawiają się w coraz to nowych obszarach techniki i branżach prowadzą do wzrostu wymagań jakościowych stawianych przed urządzeniami elektronicznymi, a w konsekwencji przed wszystkimi wchodzącymi w ich skład elementami. Zależność ta wynika też z tego, że sprzęt elektroniczny odgrywa w naszym życiu coraz bardziej odpowiedzialną rolę, np. jest instalowany w energetyce, telekomunikacji, medycynie, a straty, do jakich dochodzi w przypadku niedostępności usług lub awarii sprzętu w takich obszarach, są coraz wyższe. Dotyczy to także trudno dostępnych miejsc instalacji, w jakich elektronika się pojawia i gdzie nie zawsze ma dobre warunki środowiskowe podczas działania. Przykładem może być oświetlenie ledowe, gdzie wzrost temperatury wywołany kiepską wentylacją w miejscu instalacji jest w stanie zdegradować w krótkim czasie konstrukcję.

W elementach indukcyjnych zagadnienia te są bardzo istotne z kilku powodów. Po pierwsze narażenia mechaniczne, a więc wibracje i udary, wywołują naprężenia w uzwojeniach i rdzeniu i prowadzą do pękania, rozklejania rdzeni oraz rozszczelnienia zalew i uszkodzeń izolacji. Elementy te mają nierzadko dużą masę, przez co przeciążenia mechaniczne wynikające z drgań są problemem dla jakości w aspekcie długoterminowym. Podobnie negatywnie na konstrukcję oddziałują zmiany temperatury i wilgotności, które dodatkowo są w stanie pogorszyć z czasem jakość izolacji, niemniej zjawisk fizycznych, które w długiej perspektywie wpływają na jakość elementów, jest więcej. Ich wpływ na jakość zwiększa się też wraz z obciążeniem mocą, bo płynące duże prądy powodują nagrzewanie, wysokie napięcia niszczą izolację na skutek wyładowań niezupełnych (koronowych), a duże wartości indukcji magnetycznej na skutek efektu magnetostrykcji mogą wywołać przykre dla ucha piski. Takie problemy są codziennością dla producentów podzespołów indukcyjnych, ale coraz większa świadomość projektantów elektroniki pomaga w rozwoju rynku w kierunku długoterminowej jakości, bo wiadomo, co można wymagać i za co się płaci.

Główne trendy techniczne w elementach indukcyjnych
 
W zestawieniu najważniejszych czynników technicznych odpowiedzialnych za rozwój rynku elementów indukcyjnych na szczycie ulokowała się miniaturyzacja, niemniej pozostałe dwie kategorie, a więc wysokie zaawansowanie techniczne oraz wersje do montażu SMT, także są z nią silnie powiązane. Podobnie nowoczesne materiały magnetyczne również sprzyjają miniaturyzacji, gdyż umożliwiają osiągnięcie większych gęstości mocy oraz działają przy wyższych częstotliwościach. Z kolei dostępność wielu gotowych rozwiązań jest cenna w tym obszarze, bo upraszcza konstrukcję wielu aplikacji i zmniejsza ryzyko projektowe przez dostępność scharakteryzowanych i przetestowanych elementów. Komponenty do systemów impulsowych dostępne "z półki" są tańsze i można je kupić bez konieczności długiego czekania na realizację zamówienia. Dają one też lepsze możliwości wyboru i zmiany dostawcy. Widać to przede wszystkim w dławikach, gdzie liczba typów szybko się zwiększa i dobranie do danej aplikacji czegoś gotowego jest coraz łatwiejsze.

NA TRANSFORMATORY SIECIOWE CAŁY CZAS JEST POPYT

W przypadku transformatorów sieciowych zapotrzebowanie rynku kreują obecnie aplikacje wymagające wysokiej i niezawodności oraz długoterminowej jakości źródeł zasilania, czego przykładem mogą być systemy alarmowe, zasilacze buforowe do akumulatorów, systemy kontroli dostępu do obiektów oraz sprzęt audio i estradowy wysokiej jakości. Druga grupa urządzeń, która w dużej części bazuje na tradycyjnych zasilaczach z transformatorami, to wszelkiego rodzaju precyzyjna aparatura pomiarowa lub sprzęt medyczny, gdzie elementy te wybiera się z uwagi na to, że nie generują zaburzeń elektromagnetycznych. Elementy te sprawdzają się też tam, gdzie trzeba zapewnić dobrej jakości separację galwaniczną obwodów od sieci lub kilka separowanych od siebie obwodów zasilających bez pływającego potencjału między poszczególnymi wyjściami. Transformatory sieciowe są też wybierane do zasilania urządzeń, gdzie jakość napięcia w sieci jest niska, np. są przepięcia, przy jednoczesnych wymaganiach w zakresie niezawodności i braku konieczności obsługi (np. transport szynowy).

Takich niszowych aplikacji nadal jest sporo, a dodatkowo dokłada się do tego inżynierska inercja. Wiele osób w swojej pracy zawodowej stawia na rozwiązania znane i wypróbowane przez lata, takie, które rozumie i im ufa. Klasyczny transformator sieciowy bezsprzecznie kojarzy się z niezawodnością i latami działania liczonymi w dekadach. W wielu systemach i urządzeniach nie ma też problemu z dostępnością miejsca ani konieczności minimalizacji wagi, a aspekt cenowy nie zawsze jest głównym wyznacznikiem działań. Dlatego cały czas jest na nie popyt.

Ocena zmian popytu na transformatory sieciowe
 
Największym i najważniejszym czynnikiem wpływającym na rozwój rynku transformatorów sieciowych są systemy impulsowej konwersji energii elektrycznej. Proces ten trwa nieprzerwanie od wielu lat, z różnym natężeniem zależnym od grupy produktowej oraz sektora rynku. Powyższy wykres jest próbą oceny siły oddziaływania tego zjawiska. Pytanie jest ważne w warunkach Polski, gdyż mamy mniej więcej dziesięciu producentów transformatorów sieciowych, którzy od lat zajmują się ich wytwarzaniem. Jak widać, najwięcej odpowiedzi padło, że zapotrzebowanie na transformatory sieciowe stopniowo maleje. Kolejne dwie grupy o równych udziałach wskazują, że popyt się ustabilizował lub nawet, że rośnie. Prawdopodobnie konkretne opinie wynikają z tego, jaki asortyment tych elementów weźmie się pod uwagę, ale ogólna wymowa jest taka, że rynek zasilania jest dzisiaj tak duży i szybko rosnący, iż miejsca starcza dla wszystkich.

NOWOŚCI

W zakresie transformatorów sieciowych jak zwykle nowości nie ma wiele. Lepsze materiały magnetyczne pozwalają na niewielką miniaturyzację, która sprowadza się do kilkunastu procent większej mocy przy wymiarach starszych rozwiązań. Więcej jest też rozwiązań specjalistycznych: autotransformatorów, rozwiązań audio, wersji zalewanych i do montażu na szynie. Większość wytwórców zapewnia też klientom produkcję transformatorów sieciowych o zadanych parametrach bez względu na zamawianą ilość oraz usługi serwisowe, np. przezwajanie starych elementów.

Wiele więcej dzieje się w obszarze rozwiązań impulsowych bazujących na ferrytach, bo nowe materiały magnetyczne pracują przy częstotliwościach do ok. 0,5 MHz, mają małe straty, przez co transformatory mogą być mniejsze niż kiedyś. Są też dostępne rdzenie zdolne do pracy przy temperaturze powyżej 100ºC (także przewody nawojowe).

Nowości rynku elementów indukcyjnych to też kształty wykonania rdzeni i karkasów. Ogólne da się powiedzieć, że są one coraz bardziej płaskie i w coraz większym stopniu opasają materiałem magnetycznym uzwojenia tak, aby w jak największym stopniu zamknąć pole magnetyczne wewnątrz i ułatwić spełnienie wymagań w zakresie EMC. Karkasy z kolei mają wyprowadzenia do montażu SMT, a ich konstrukcja jest dzielona na sekcje. Warto też dostrzec, że na rynku jest dzisiaj więcej rdzeni małych. Nowością są też elementy bez karkasu, gdzie cewka ma konstrukcję samonośną nawijaną taśmą miedzianą (tzw. krawędziowe) lub drutem i całość jest stabilizowana mechanicznie żywicą.

Najważniejsze zjawiska pozytywne dla rynku elementów indukcyjnych
 
Listę najważniejszych czynników pozytywnie wspierających rozwój rynku podzespołów indukcyjnych w Polsce otwiera presja na jakość i zaawansowanie techniczne, widoczna w ostatnich latach w branży elektroniki, która stała się wspólnym mianownikiem wielu działań biznesowych firm oraz siłą sprawczą do rozwoju nowych produktów. Druga w kolejności kategoria na wykresie to szybki rozwój rynku elektroniki, co zapewnia chłonność oraz duży popyt na innowacyjne elementy. Trzeci pod względem ważności czynnik pozytywnie wpływający na rozwój rynku to szybka elektronizacja całej techniki, która zapewnia duże tempo wzrostu rynku. Dzięki niej znaczenie silnej konkurencji, dyktatu ceny w ofertach i podobnych zagadnień, które zwykle przeszkadzają w biznesie, staje się słabsze i nie przeszkadza tak, jak w innych sektorach.

DOSTAWCY ELEMENTÓW INDUKCYJNYCH – PRODUCENCI

Podzespoły indukcyjne to obszar biznesowy, w którym mamy kilku producentów krajowych, jak na przykład Feryster, AET, Neotech, Telzam, Elsit lub Polfer PI, wytwarzające cewki, dławiki, transformatory. Ich pozycja rynkowa i widoczny na przestrzeni ostatnich lat rozwój w sytuacji, gdy na rynku dystrybucji jest mnóstwo katalogowych wyrobów gotowych, z pewnością daje do myślenia. Podstawą ich biznesu jest szybka produkcja komponentów na zamówienie, wysoka jakość usług zapewniająca znakomite parametry użytkowe w wymienionych zastosowaniach po to, aby trafić z produkcją do wymagających aplikacji np. przemysłowych. W Polsce produkuje się głównie małe i średnie serie, różnorodne wyroby i wielowariantowe rozwiązania, dlatego krajowi producenci często wygrywają z dystrybucją szybkością realizacji zamówień liczoną w dniach, a nie w tygodniach.

Transformatory sieciowe wytwarzają m.in. Noratel, Sigma, Indel, Breve, Eurotrafo, Sizei, Telto, Trafber, Trafo Tech, Toroidy. Część z nich wytwarza też podzespoły indukcyjne na ferrytach.

W naszym kraju nawijanie transformatorów i dławików na zamówienie dostępne jest również w przypadku zamawiania małych ilości, nawet pojedynczych sztuk przeznaczonych do układów prototypowych, co też jest jakimś elementem przewagi, bo realia rynku krajowego są takie, że takich możliwości poszukują krajowe małe i średnie firmy. Niski koszt indywidualizacji i wyraźne korzyści z dobrego dopasowania podzespołu do projektu są wartością dodaną.

Na koniec warto zauważyć, że elementy indukcyjne produkowane na zamówienie skutecznie się bronią nie tylko przed konkurencją ze strony dystrybutorów, ale także zagranicznych producentów, np. z Azji. Duże znaczenie wsparcia technicznego i bliskiej współpracy przy przygotowywaniu produkcji, wysokie koszty transportu, krótsze terminy przy porównywalnych cenach są skuteczną tamą broniącą tę rynkową niszę przed atakami.

DYSTRYBUTORZY

Grupę dystrybutorów elementów indukcyjnych tworzy w Polsce nawet kilkadziesiąt firm, gdyż elementy te są częścią ofert wszystkich firm dystrybucyjnych o szerokiej ofercie, dostawców katalogowych i dużych hurtowni.

Takie firmy w swoich kompleksowych ofertach mają często pokaźne grupy gotowych podzespołów jak cewki, dławiki, transformatory sieciowe, rdzenie, karkasy, niemniej rzadko jest to dla nich produkt strategiczny, raczej część kompleksowego zaopatrzenia.

Sprzedaje je też duża część wąsko sprofilowanych dystrybutorów, czyli Piekarz, Semicon, Würth, JM elektronik lub Gamma. Elementy indukcyjne sprzedają także firmy znane na rynku z dostaw rdzeni i materiałów magnetycznych, karkasów, przewodów i akcesoriów do nich, czego przykładem mogą być Contrans TI, Magneto oraz AET. Transformatory sieciowe wytwarzają m.in. Noratel, Sigma, Indel, Breve, Eurotrafo, Sizei, Telto, Trafber, Trafo Tech, Toroidy. Po stronie dystrybucji transformatorów sieciowych plasują się przede wszystkim Seen i JM elektronik.

 

Wyświetlacze do urządzeń elektronicznych – najważniejszy element interfejsu człowiek-maszyna

Jasny i kontrastowy wyświetlacz z ekranem dotykowym razem z wydajnym mikrokontrolerem to dzisiaj dwa najważniejsze komponenty urządzeń elektronicznych, którym konstruktorzy poświęcają zawsze wiele uwagi, gdyż determinują one w dużej mierze funkcjonalność oraz atrakcyjność urządzeń. Graficzny interfejs użytkownika z ekranem dotykowym otwiera drzwi do wielu nowych branż, np. inteligentnego budynku, systemów bezpieczeństwa i ochrony mienia, branży reklamy, no i oczywiście do przemysłu, czyli sektora najbardziej wartościowego w naszym kraju.

Coraz więcej krajowych producentów docenia jakość wyświetlaczy i umie oszacować oszczędności w kosztach serwisu oraz zysk wynikający z lepszej marży spowodowanej pozycjonowaniem ich urządzenia jako zaawansowanego i trwałego. Firmy powracają do ugruntowanego łańcucha dostaw, najczęściej kierują się do lokalnego dużego przedstawiciela i kończą eksperymenty z kupowaniem bezpośrednio tych elementów w Azji. Obydwa te zjawiska powoli zbliżają nas do rynków zachodnich, które cechują się zarabianiem na unikalnych cechach produktu, a nie tylko na wytwarzaniu tego samego co inni, byle taniej.

OLED I E-PAPER

Wyświetlacze OLED są dzisiaj nowością na rynku wyświetlaczy, niemniej warto zauważyć, że produkt ten jest dostępny komercyjnie już od 15 lat. OLED-y zawsze kojarzyły się z wieloma walorami technicznymi, takimi jak niski pobór mocy, wysoki kontrast i duża jasność, jednak te zalety były okupione dość dużą ich ceną i niekoniecznie wielką trwałością. To oczywiście jest przeszłość, bo technologia produkcji została udoskonalona i obecnie nie ma problemu ani z jakością, ani trwałością tych jednostek. Ceny też spadły do poziomu akceptowalnego przez wielu klientów.

Aktualnie bez problemu można kupić wyświetlacze tego typu o małych przekątnych, a więc takie, które najczęściej są używane w elektronice, zarówno jako elementy graficzne, jak i zamienniki alfanumeryczne dla typowych rozwiązań modułowych LCD. W zasadzie można powiedzieć nawet, że asortyment OLED-ów jest na tyle duży, że można przebierać do woli.

Podobne zjawiska można zaobserwować w zakresie wyświetlaczy typu e-paper, a więc w jednostkach, które wykorzystywane są w książkach elektronicznych. One także stają się dostępne dla systemów elektroniki profesjonalnej i przestały być domeną e-booków Kindle. Wyświetlacze takie pojawiają się w ofertach coraz częściej i jest to wyraźny znak, że w krajowych OEM-ach są one rozważane i analizowane pod kątem aplikacyjnym. Ich ceny są też coraz bardziej przystępne.

Główne czynniki odpowiedzialne za sprzedaż
 
Zestawienie najważniejszych czynników odpowiedzialnych za sprzedaż otwiera oczywiście cena, która przebija parametry techniczne oraz jakość wykonania, a zapewne także to w jakiej technologii jest wykonana jednostka wyświetlacza. Innymi słowy, chcemy wyświetlaczy o dobrych parametrach i jakości, niemniej koszt zakupu musi się zmieścić w budżecie. Poza wymienionymi czynnikami dość wysoko znalazły się kryteria związane z krótkim czasem dostawy i długą dostępnością danych modeli na rynku. Wydaje się, że jest to konsekwencja specyfiki rynku polskiego bazującego na specjalistycznych urządzeniach i krótkich seriach. Wyświetlacze są też dość drogie, więc producenci wolą nie kupować ich na zapas.

ZAAWANSOWANE KONTROLERY I BIBLIOTEKI OPROGRAMOWANIA

Nowoczesny interfejs użytkownika opiera się dzisiaj na kolorowej grafice, coraz częściej zawierającej nie tylko elementy statyczne, ale animacje, a także treść dopasowującą się do kontekstu realizowanego zadania. Jednocześnie dla programistów systemów embedded obsługa wyświetlacza graficznego jest bardziej skomplikowana, gdyż w większości przypadków wymaga tworzenia treści jako map bitowych, a więc poprzez zapalanie i gaszenie pojedynczych pikseli.

Tworzenie grafiki, rysowanie elementów interfejsu takich jak przyciski, okienka, a także pisanie tekstu w trybie graficznym wymaga posiadania oprogramowania pozwalającego na rastrowanie takich elementów, wykreślanie figur i dokonywanie podstawowych operacji jak na przykład wypełnianie obszaru kolorem. Do tego wykorzystuje się biblioteki graficzne, czyli zestawy gotowych procedur realizujących takie operacje, zawierające niezbędne kroje czcionek i pozwalające na parametryzację działania pod dany model wyświetlacza. Tworzenie grafiki „na piechotę”, a więc bez oprogramowania narzędziowego nie jest ani łatwe, ani przyjemne, a poza tym nie ma na taką "zabawę" czasu. W obszarze wyświetlaczy rozwój technologii jest dzisiaj szybki a liczba nowych produktów, wersji kontrolerów i opcji wymagających uwagi ze strony projektantów jest dzisiaj bardzo duża. Standardowa biblioteka procedur pozwala opanować tę zmienność i przestać się skupiać na szczegółach. Oznacza to, że dostępność oprogramowania wspierającego tworzenie grafiki, nowoczesnego GUI i generalnie ułatwiającego komunikację z użytkownikiem staje się jednym z bardziej istotnych zagadnień i narzędziem wspierającym sprzedaż.

W tym obszarze rynku sporo się dzieje. Są wyświetlacze z wbudowanym zaawansowanym kontrolerem pozwalającym na obsługę grafiki za pomocą poleceń wysokiego poziomu, a w praktyce komend jak z języka Basic. Taki kontroler jest w praktyce małym komputerkiem z pamięcią, interfejsem komunikacyjnym i oprogramowaniem firmware, ale w praktyce pozwala on na banalną implementację większości niezbędnych grafik. Inne podejście bazuje na specjalizowanym oprogramowaniu, które obsługuje popularne jednostki wyświetlaczy i zawiera nie tylko gotowe procedury do ich obsługi, ale także szablony i zestawy przykładów pozwalające na ich modyfikację i przeróbki.

Damian Lewandowski

 współwłaściciel firmy Artronic

  • Na rynku zawsze byliście znani z wielu interesujących dodatków technicznych uzupełniających ofertę handlową. Na ile pomagają one w rozwoju biznesu związanego z wyświetlaczami?

Główną zasadą było, aby nie sprzedawać niczego, czego wcześniej sami nie sprawdziliśmy, uruchomiliśmy i nie oceniliśmy pod względem jakości. Zatem każdy wyświetlacz musiał być podłączony i sprawdzony, co wymagało nierzadko od nas sporo pracy, ale finalnie firma miała z tego korzyść w postaci wiedzy i doświadczenia oraz lepszej jakości produktów.

Te praktyczne umiejętności z czasem stały się coraz ważniejsze, bo wyświetlaczy na rynku jest bardzo wiele, do nich dochodzą kontrolery różnych producentów. One mają różne właściwości – jedne są lepsze, inne gorsze. Z danym wyświetlaczem ten sprawdza się lepiej, a inny miewa mało charakterystyczne problemy, które powodują, że konstruktor traci wiele dni na dociekanie przyczyn.

To testowanie wyświetlaczy staje się z roku na rok coraz bardziej złożone, bo trzeba przygotować platformę sprzętową i napisać procedury oprogramowania. Dawniej, jak połączenie wyświetlacza z układem elektronicznym było realizowane za pomocą złącza kołkowego goldpin, można było jeszcze w jakiejś części sobie tę pracę ułatwić, bo komponenty sprzętowe miały charakter uniwersalny, ale miniaturyzacja spowodowała, że dzisiaj złącza są miniaturowe, różne, więc za każdym razem konieczne jest przygotowanie osobnej płytki drukowanej.

Takie podejście przynosi znakomite efekty we współpracy z klientami, bo eliminuje kłopoty takie, że nabywcy nie potrafią wyświetlaczy uruchomić, a my nie wiemy, dlaczego i jak im pomóc. Wyświetlacze są coraz bardziej skomplikowane, kosztowne i ich wdrożenie do projektowanego urządzenia staje się często bardzo ważne dla firm elektronicznych. Jakikolwiek problem oznacza stratę wielu godzin pracy lub też konieczność reklamowania produktów.

ZBLIŻA SIĘ KRES MODUŁÓW ZNAKOWYCH

Znakowe moduły wyświetlaczy LCD z kontrolerem, zawierające od jednej do czterech linii po kilkanaście znaków, są znane chyba wszystkim. Z pewnością elementy te zapisały się pozytywnie w ostatnich kilkunastu latach w rozwoju branży elektronicznej, zapewniając prostotę obsługi i niezłe parametry. Niemniej trudno nie zauważyć, że słabo przystają już one do wymagań współczesnej elektroniki. Im bardziej specjalistyczny sprzęt, a ilość informacji, którą trzeba przekazać użytkownikowi jest mniejsza, im znaczenie jakości komunikacji staje się bardziej pomijalne, tym większa możliwość aplikacyjna dla tych jednostek. Warto zauważyć, że wyświetlacze tego typu są tanie, produkowane przez wiele firm, a więc łatwe do kupienia. Ich parametry też są często poprawiane, a ich wytwórcy nieustannie eksperymentują z kolorem podświetlenia, kontrastem i czytelnością treści po to, aby nie była to konstrukcja zamknięta. Nowe opracowania dają szansę na odmłodzenie starszych urządzeń, ale fakty są nieubłagane – rynek rozwija się w innym kierunku i elementy te są wypierane z rynku przez nowsze technologie.

POBÓR MOCY STAJE SIĘ WAŻNY

Chęć zapewnienia niskiego poboru mocy kieruje uwagę konstruktorów w stronę wyświetlaczy w innych technologiach, a więc na OLED-y i e-papery, gdzie nie ma podświetlenia, czyli tego najbardziej energochłonnego czynnika. W przypadku e-paperu bilans energetyczny jest jeszcze bardziej korzystny, bo statyczny obraz nie wymaga zasilania, odświeżania ani nawet nadzoru ze strony mikrokontrolera.

Ważne i poszukiwane funkcje techniczne
 
Skoro dominującą technologią realizacji interfejsu użytkownika we współczesnej elektronice jest kolorowy wyświetlacz graficzny z panelem dotykowym, to naturalne jest, że klienci poszukują kompletnej jednostki złożonej z tych dwóch elementów razem z kontrolerem. Znaczenie rynkowe wersji o rozszerzonym zakresie temperatur pracy oraz czytelnych przy bezpośrednim oświetleniu słonecznym też jest pochodną przemysłowego charakteru naszego rynku, bo wyświetlaczy do elektroniki konsumenckiej nie kupuje się z reguły u dystrybutorów. Zgodność ze starymi wersjami to innymi słowy dostępność zamienników zgodnych mechanicznie i elektrycznie, ale wykonanych w nowszych technologiach. W wielu przypadkach pozwalają one odmłodzić konstrukcję urządzenia małym nakładem pracy, stąd zapewne biorą się ich tak dobre notowania w tym zestawieniu.

Trzeba też dostrzec, że chęć zapewnienia dobrego bilansu energetycznego cały czas utrzymuje spore zapotrzebowanie na znakowe wyświetlacze panelowe LCD. Są to płytki szklane z ciekłym kryształem, bez kontrolera i wyświetlające z góry ustalone znaki, takie jak cyfry lub symbole. Panelowe wyświetlacze znakowe LCD pobierają znikomą moc, zapewniają dobry kontrast i czytelność w oświetleniu słonecznym, przez co mogą być aplikowane w sprzęcie profesjonalnym. Trochę gorzej jest z zakresem temperatur pracy, bo w ujemnych temperaturach stają się bardzo wolne, ale tę wadę daje się pokonać niewielkim kosztem. Wiele mikrokontrolerów zawiera kontroler takiego wyświetlacza segmentowego, przez co aplikacja jest nieskomplikowana. Producenci tych elementów chętnie podejmują się wykonania wersji o indywidualnym charakterze, co pozwala nie tylko uatrakcyjnić produkt, ale też w pewien sposób chronić go przed kopiowaniem.

Innymi słowy, trend energooszczędności powoduje wzrost zainteresowania klientów technologiami innymi niż TFT LCD, co należy uznać za zjawisko pozytywne. Jest to także czynnik sprawczy tego, że rozwiązania takie jak wyświetlacze próżniowe VFD wypadają na margines. One nie tylko pobierają dużą moc wymaganą do podgrzewania katody, ale także wymagają wyższych napięć zasilających, a więc z reguły niezbędne jest dodanie dodatkowej przetwornicy. VFD stają się tym, czym są dzisiaj cyfrowe wyświetlacze Nixie – ładnym symbolem technologii, które zmieniły elektronikę w pozytywnym sensie i mogą odejść na zasłużoną emeryturę.

Znaczenie rynkowe panelowych wyświetlaczy LCD
 
Wyświetlacze panelowe LCD, a więc płytki szklane bez kontrolera wyświetlające cyfry i symbole, znaleźć można w tysiącach urządzeń elektronicznych. Są tanie i pobierają znikomą moc, dlatego cały czas znajdują nabywców i są aplikowane w urządzeniach. Jak widać z danych pokazanych na wykresie ich pozycja rynkowa się nie zmienia, a nawet w pewnych obszarach rośnie. Jest to wynik tego, że są one tanie i niezawodne, bo technologia jest bardzo dojrzała. Wiele mikrokontrolerów zawiera wbudowane kontrolery takich jednostek LCD i sterowanie nimi nie jest problemem konstrukcyjnym od strony sprzętu i oprogramowania. Poza tym za ich pomocą niewielkim kosztem można stworzyć wersje indywidualne.

WERSJE PRZEMYSŁOWE

Przez wiele lat oferta rynku w zakresie wyświetlaczy przemysłowych była wyraźnie uboższa od tej dostępnej dla rynku konsumenckiego. Jednostek przemysłowych było w ofertach niewiele, zwłaszcza takich bardziej poszukiwanych: o większych rozdzielczościach, z matrycami IPS o szerokim zakresie temperatur pracy, o szerokim kącie obserwacji itd. Utrudniało to aplikację, degradowało tempo rozwoju rynku, a także tworzyło często patologie takie, że komponenty konsumenckie trafiały do urządzeń przemysłowych i aby działały poprawnie były "odbudowywane" dodatkowymi systemami, np. chłodzenia i podgrzewania.

Najważniejsze czynniki pozytywnie wspierające rozwój rynku wyświetlaczy
 
W zestawieniu najważniejszych czynników wspierających sprzedaż wyświetlaczy za najważniejsze uznano dostępność bibliotek graficznych i oprogramowania narzędziowego ułatwiającego tworzenie oprogramowania i graficznego interfejsu użytkownika, a także dostępność nowych rozwiązań technologicznych w ofercie. Można to tłumaczyć w taki sposób, że producenci elektroniki są zawsze zainteresowani możliwościami prezentacji, jakie kryją się w nowych jednostkach, ale szukają pomocy i ułatwień w ich aplikacji, gdyż z uwagi na presję czasu nie są w stanie dogłębnie analizować ich działania i obsługi. Użycie wyświetlacza w projekcie musi być nieskomplikowane, bo technologie dzisiaj zmieniają się zbyt szybko, aby konstruktor był w stanie panować nad wszystkim. Takie same wnioski płyną z trzeciej pozycji na wykresie – kompletny moduł wyświetlacza z panelem dotykowym i kontrolerem jest postrzegany jako najbardziej typowe rozwiązanie.

Producenci wyświetlaczy w mniejszym stopniu angażowali się w rozwój takich jednostek dlatego, że wymagania rynku przemysłowego związane z koniecznością zapewnienia wieloletniej dostępności i niezmienności takich komponentów nie pasowały do strategii rozwoju opierającej się na rynku konsumenckim. Wyświetlacze przemysłowe mają dłuższy czas pracy, tzn. wykonane są z materiałów o wyższej jakości i tym samym droższych. Są też produkowane przez wiele lat, więc muszą wykorzystywać starsze linie i technologie, ponadto często wytwarzane są w mniejszych partiach i utrzymywane w magazynach producentów i dystrybutorów, co również prowadzi do wyższej ceny jednostkowej. Te ograniczenia stają się obecnie coraz mniej istotne, a asortyment dostępnych rozwiązań się poszerzył w ostatnich latach.

KOMPETENCJE SĄ POSZUKIWANE

Przy sprzedaży wyświetlaczy widać wyraźnie znaczenie kompetentnego wsparcia technicznego, bo liczba problemów, jakie pojawiają się przy aplikacji najnowszych komponentów, jest spora. Stąd kompetentni inżynierowie po stronie dystrybutora i nierzadko także dodatkowa pomoc i próbki ze strony producenta przesądzają o kupnie tego lub innego produktu oraz o współpracy z klientem. Dział wsparcia technicznego znający się na wyświetlaczach jest też jednym z bardziej widocznych różnic pomiędzy zwykłymi firmami handlowymi a specjalizowanymi dostawcami.

Zobacz więcej w kategorii: Rynek - archiwum
Produkcja elektroniki
Produkcja urządzeń elektronicznych
Komponenty
Podzespoły elektroniczne
Projektowanie i badania
Badania i rozwój
Komponenty
Komponenty automatyki przemysłowej
Komponenty
Komponenty automatyki przemysłowej
Komponenty
Podzespoły elektroniczne
Zobacz więcej z tagiem: Komponenty
Gospodarka
Pełne portfolio płytek Click od MIKROE już dostępne w ofercie DigiKey
Prezentacje firmowe
Kompleksowa optymalizacja zaopatrzenia pośredniego
Technika
Temperatura jako kluczowy czynnik w nowoczesnej motoryzacji: rola materiałów termoprzewodzących

Jak kompensować moc bierną w małej firmie, by płacić mniej za energię bierną?

Z reguły małej firmy nie stać na zakup automatycznego kompensatora mocy biernej. Niemniej, sytuacja nie jest bez wyjścia i w tym artykule na prostym przykładzie pokazane zostało podejście do rozwiązania problemu mocy biernej.