Podzespoły elektroniczne

Wydzielanie ciepła w układach elektronicznych zawsze stanowi problem konstrukcyjny i mimo wielu zmian technologicznych w zakresie efektywności energetycznej konieczność odprowadzania nadmiaru tej energii jest codziennością. Z jednej strony bijemy rekordy małego poboru mocy, z drugiej strony sprzęt jest coraz bardziej złożony i zminiaturyzowany, co za każdym razem sprowadza się do konieczności zapewnienia chłodzenia. Związek pomiędzy niezawodnością elektroniki a temperaturą pracy komponentów jest doskonale znany, stąd do zapewnienia jakości też dochodzimy m.in. przez skuteczne chłodzenie.

Posłuchaj
00:00

Zarządzanie ciepłem w elektronice

Płytka drukowana staje się radiatorem

Przy małej mocy wydzielanej do rozproszenia ciepła często wystarcza folia miedziana na płytce drukowanej. Takie chłodzenie popularyzuje się na skutek coraz lepszej dostępności i niższych cen obwodów wielowarstwowych. W ramach płytki dwustronnej na radiator tego typu można było sobie pozwolić w mało skomplikowanych układach, gdzie mozaika ścieżek była prosta i zostawało wiele pustego miejsca. To rzadki przypadek. W obwodach wielowarstwowych można wszystkie połączenia ukryć na warstwach wewnętrznych, a na dużej części zewnętrznych warstw wydzielić obszary chłodzące. Dodatkowo płytkę można połączyć termicznie z obudową mostkiem z użyciem pianki termoprzewodzącej lub zalać całość układu zalewą o takich właściwościach. W przypadku, gdy ciepła jest więcej, można też próbować sięgnąć po laminaty z grubą warstwą miedzi lub z rdzeniem metalowym (MPCB), jak w modułach LED-owych. Takie podejście jest coraz popularniejsze.

Najważniejsze dla klientów cechy ofert brane pod uwagę przy wyborze dostawcy komponentów i materiałów do zarządzania ciepłem
 
Zestawienie najważniejszych kryteriów selekcji ofert handlowych w obszarze zarządzania ciepłem jest typowe i kompletnie niezaskakujące. Cena, jakość i parametry techniczne produktów zawsze są na szczycie takich zestawień. Czasem zmienia się tylko kolejność lub proporcje i tak jest również teraz. To, że tym razem na trzecie miejsce awansowało kryterium "termin dostawy", to jak wiadomo znak obecnych trudnych czasów i zapewne też jest to czynnik sezonowy, który z czasem straci na znaczeniu. Szeroka dostępna oferta produktów u jednego dostawcy to cecha oczekiwana w stosunku do dystrybutorów wielu wyrobów, podobnie jak kompetencje techniczne i wparcie.

Chłodzenie całości urządzenia

Przy rozważaniach układów chłodzenia zwykle myślimy o półprzewodnikach, którym konstruktor stara się ograniczyć przyrost temperatury. Niemniej wraz z ekspansją rozwiązań impulsowych coraz częściej problem chłodzenia przestaje mieć charakter punktowy, a więc skupiony na kilku elementach mocy.

Faktem jest, że rozwój technologii półprzewodnikowej jest dzisiaj bardzo dynamiczny, a nowe wersje komponentów zapewniają znacznie większą sprawność i nie grzeją się tak bardzo, aby stanowiły w urządzeniach jeden gorący, centralny punkt. Nowe tranzystory mocy z azotku galu lub węglika krzemu nie tylko zapewniają małe straty podczas komutacji i przewodzenia, ale także mogą pracować w wyższej temperaturze niż krzemowe odpowiedniki, więc nie trzeba ich tak efektywnie chłodzić. Co więcej, elementów grzejących się jest znacznie więcej niż dawniej. Miejsce jednego, dwóch tranzystorów zajęły dzisiaj obwody, w których stopień mocy zawiera nawet kilkanaście tranzystorów. Co więcej, elementy często łączy się równolegle dla zwiększenia obciążalności. Tak jest w falownikach, napędach silników, układach BMS akumulatorów i wielu innych miejscach.

Ważne i poszukiwane produkty
 
Ważne i poszukiwane produkty w obszarze zarządzania ciepłem to materiały termoprzewodzące, radiatory metalowe oraz wentylatory i dmuchawy, które wyraźnie wybijają się nad całą resztę, jeśli chodzi o znaczenie. Reszta produktów ma wyraźnie mniejsze wskazania, co jest oczywiście pochodną ich specjalistycznego profilu aplikacyjnego. Warto dostrzec pojawienie się w zestawieniu systemów chłodzenia akumulatorów, które zyskują na znaczeniu razem z popularyzacją transportu elektrycznego. Uzyskanie dużej wydajności pakietów akumulatorowych wiąże się z zapewnieniem ich chłodzenia, stąd rozwiązania takie stają się na rynku poszukiwane.

Efekt jest taki, że ciepło wydzielane jest bardziej równomiernie. Do tego grzeją się elementy indukcyjne, a więc transformatory i dławiki, kondensatory w filtrach wyjściowych, a także szybkie układy cyfrowe. Elementy są ciasno upakowane na płytkach drukowanych i każde miejsce na laminacie jest zagospodarowane. W ten sposób te cieplejsze komponenty podgrzewają całą resztę i tym samym chłodzenie przestaje być domeną podzespołów mocy – raczej nagrzewa się cała płytka. W takim przypadku trzeba zmienić podejście do chłodzenia, np. całą płytkę przykleić do radiatora lub ścianki obudowy za pomocą materiału termoprzewodzącego.

Wygoda i nieduże koszty powodują, że w ostatnich latach rynek materiałów termoprzewodzących szybko się rozwija. W tym obszarze pojawia się sporo nowości i rośnie też liczba dostawców, co sprzyja obniżkom cen oraz lepszej dostępności produktów. Poprawiają się też parametry związane z transmisją ciepła tych produktów, które są kluczowe w tym obszarze zastosowań, gdyż decydują o wydajności chłodzenia.

Najważniejszy potencjał rynkowy mają
 
Największy potencjał rynkowy kryje się w materiałach termoprzewodzących, systemach chłodzenia akumulatorów oraz rozwiązaniach do zarządzania ciepłem w oświetleniu ledowym. Mimo tak uformowanej czołówki, różnice między poszczególnymi kategoriami na wykresie nie są duże, co przekonuje, że rynek jest różnorodny i nie ma jednej dominującej technologii.

Materiały termoprzewodzące

Materiały termoprzewodzące to ogólnego przeznaczenia pasty o różnej rezystancji termicznej, a także wypełniacze szczelin, zalewy i żele, które różnią się pomiędzy sobą gęstością, sposobem aplikacji i także zastosowaniem. Są też materiały PCM z przemianą fazową, które mają lepsze właściwości cieplne w porównaniu do równoważnych rozwiązań tradycyjnych. Poza materiałami bezpostaciowymi są oczywiście jeszcze folie i gotowe podkładki tego typu, także grube, ale elastyczne i przypominające gąbkę wypełniacze szczelin (gap filler). Ważnym atutem taśm i folii termoprzewodzących jest to, że zapewniają potrzebną izolację galwaniczną, co pomaga w zapewnieniu bezpieczeństwa użytkowania.

Pojawiające się na rynku nowe opracowania taśm i folii termoprzewodzących, klejów, past i podkładek charakteryzują się coraz większym przewodnictwem ciepła. Jest to bardzo ważny proces, gdyż ułatwia integrację elektroniki mocy. Zmagający się z ciepłem konstruktorzy niechętnie sięgali po folie termoprzewodzące lub kleje, gdyż były one mało efektywne i nie sprawdzały się, gdy ciepła trzeba było odprowadzić dużo. To już przeszłość.

Chłodzenie cieczą

Chłodzenie wodne elektroniki w zakresie aplikacji dużych mocy jest znanym od lat sposobem chłodzenia i odprowadzania ciepła. Transformatory zanurzone w oleju, półprzewodniki mocy zamontowane na radiatorze z kanałami, przez które przepływa ciecz, to rozwiązanie wydajne, ciche i bardzo trwałe. Pozwala odprowadzić dużą ilość ciepła na dużą odległość i zapewnić stabilne warunki pracy urządzenia nawet w bardzo trudnych warunkach środowiskowych. Systemy chłodzenia wodnego są w stanie zapewnić także niezbędny kompromis po stronie kosztów rozwiązania i masy systemu chłodzącego w systemach, gdzie ilość wydzielanego ciepła jest duża. Część odbierająca ciepło wewnątrz obudowy jest niewielka, nie zajmuje więc cennego miejsca i nie ogranicza cyrkulacji powietrza.

Najważniejsze cechy systemów zarządzania ciepłem
 
Główne cechy dobrego systemu zarządzania ciepłem to niezawodne działanie, duża wydajność cieplna i cicha praca, a w dalszej kolejności odporność środowiskowa oraz mała waga. Dominuje zatem podejście utylitarne, w ramach którego chcemy osiągnąć kilka istotnych cech jednocześnie. Drugim spostrzeżeniem może być to, że wentylatory w takim rankingu wypadają za każdym razem kiepsko. Reklamowym hasłem ostatnich lat w komputerach przemysłowych było określenie bezwentylatorowy. Dzisiaj wentylator to rzadkość, a powoli zbliża się czas na sprzęt "bezradiatorowy".

Pomijając zastosowania dużej mocy, cała reszta związana z chłodzeniem cieczą to aplikacje niszowe i specjalistyczne, np. używane w sprzęcie medycznym, farmach serwerów i w sprzęcie telekomunikacyjnym. Gdy skala instalacji jest duża, takie rozwiązanie jest nierzadko korzystne od strony ekonomicznej, ponieważ pozwala na odbieranie ciepła od wielu elementów za pomocą jednej instalacji, która oplata wszystkie gorące punkty.

Wadą takiego chłodzenia jest skomplikowanie i duże wymiary całości, gdyż składa się ono z pompy, przewodów transportujących ciecz, chłodnicy i radiatora odbierającego ciepło. Kłopotliwe jest też napełnianie, a więc obsługa techniczna oraz serwis. Niemniej w sytuacji, gdy konieczne jest zapewnienie wydajnego chłodzenia w systemie zamkniętym, wewnątrz szczelnie zamkniętych szaf, takie rozwiązania pozwalają na zachowanie wysokiego stopnia ochrony środowiskowej tych ostatnich, są one najczęściej jedynym dostępnym wyborem.

Najważniejsze zjawiska pozytywne dla rozwoju rynku
 
Wśród najważniejszych czynników sprzyjających rozwojowi rynku znalazły się pojęcia takie jak energooszczędność rozwiązań oraz rosnące wymagania klientów, a także miniaturyzacja i wzrost presji na jakość oraz oddziaływanie ze strony aplikacji profesjonalnych. Sporo wskazań padło też na szybko poszerzającą się ofertę w zakresie materiałów termoprzewodzących. Wniosek jest taki, że możliwość wyboru rozwiązania spośród wielu typów, a także swoboda konstrukcyjna w kształtowaniu systemu zarządzania ciepłem w sposób dopasowany do wymagań aplikacyjnych zapewniający wysokie parametry bez degradowania jakości jest główną siłą napędową rynku. Systemy chłodzenia mają wiele ograniczeń, dlatego projektanci starają się znaleźć kompromis przez użycie różnych typów produktów.

Elektromobilność a chłodzenie cieczą

Bardzo możliwe, że nowym obszarem aplikacyjnym dla chłodzenia cieczą stanie się elektromobilność. Baterie akumulatorów montowane w pojazdach o napędzie elektrycznym wymagają dobrego chłodzenia. Ciasno upakowane ogniwa oraz duże prądy płynące w takich obwodach powodują wydzielanie ciepła, które trzeba odprowadzić. Ogniwa grzeją się podczas pracy i ładowania i to znacznie, a z punktu widzenia użytkowego bateria takich ogniw nie może być duża, gdyż nie dałoby się jej zintegrować w pojeździe.

Znalezienie kompromisu dla małej objętości, dużej wydajności prądowej zapewniającej nie tylko dynamikę samochodu, ale także możliwość szybkiego ładowania, a także dużej pojemności akumulatora, przekładającej się na zasięg, wymusza często chłodzenie cieczą. Nie bez znaczenia jest też konieczność zapewnienia bezpieczeństwa elektrycznego oraz w zakresie niekontrolowanego (lawinowego) wzrostu temperatury. Ogniwa litowe trzeba chłodzić, gdyż inaczej mogą się zapalić, z kolei w niskich temperaturach trzeba je podgrzewać, gdyż wówczas dostępna pojemność znacznie się zmniejsza.

W samochodach hybrydowych chłodzenie udaje się zrobić za pomocą strumienia powietrza i wentylatorów, gdyż bateria jest mniejsza, a gdyby się za bardzo nagrzała, to zawsze można ją odłączyć i używać wyłącznie silnika spalinowego. Chłodzenie w samochodach elektrycznych baterii ogniw coraz częściej polega na zalaniu całości układu płynem freonowym. Z jednej strony umożliwia on sprawne odprowadzanie ciepła, z drugiej zapewnia dobrą izolację elektryczną. Jest to chyba najnowsza odsłona systemów chłodzenia cieczą.

Chłodziarki termoelektryczne i przewody cieplne

Gdy konieczne jest schłodzenie małego elementu poniżej temperatury otoczenia takiego jak detektor półprzewodnikowy, a do tego ciepła nie wydziela się dużo, rozwiązaniem jest chłodziarka termoelektryczna. Nie zapewnia ona dużej wydajności transportu energii cieplnej i pobiera dużą moc zasilającą, ale nie ma ruchomych części mechanicznych i pozwala obniżyć temperaturę elementu poniżej temperatury otoczenia. To jej główna zaleta.

Kolejnym niszowym elementem do odprowadzania ciepła są przewody cieplne (heatpipe), czyli miedziane rurki wypełnione porowatym materiałem i zalane cieczą, i niskiej temperaturze wrzenia. Jest to doskonale znane rozwiązanie z laptopów, w których odbierają one ciepło od procesora i przenoszą do oddalonego wymiennika.

Najważniejsze czynniki negatywne dla rynku
 
Na liście najważniejszych zjawisk przeszkadzających w rozwoju rynku górne miejsce zajęły długie czasy dostaw, które od ponad roku są głównym problemem branży elektronicznej oraz zawirowania w biznesie wywołane wojną i pandemią. Poza czynnikami związanymi z warunkami w gospodarce, dalej już mamy typowe problemy: dużą konkurencję, tanie i kiepskie produkty oraz wysokie ceny. Metale takie jak aluminium i miedź znacząco podrożały, co wywołało duży skok cen radiatorów.

Wadą rurek jest ograniczona skuteczność do wąskiego zakresu temperaturowego narzucanego przez parametry cieczy znajdującej się wewnątrz miedzianej rurki oraz stosunkowo niską wydajność transmisji ciepła. Kolejna wada polega na tym, że sens ich użycia jest wówczas, gdy mamy w aplikacji jeden gorący element oddalony od ściany obudowy lub innego miejsca, które może zapewnić wymianę ciepła z otoczeniem.

Na plus należy zapisać, że oferta rynku i dostępność takich produktów poprawiła się, w ostatnich latach, a ponieważ w urządzeniach elektronicznych ciepła do odprowadzenia jest coraz mniej, nawet przy ograniczonych możliwościach jego transportu przez przewody cieplne, udaje się zapewnić skuteczność działania.

Wentylatory stosujemy z niechęcią

Wentylatory stają się produktem, od którego się stopniowo odchodzi z uwagi na ich ograniczoną trwałość, generowany hałas oraz trudność zapewnienia odporności środowiskowej. Często ciepło udaje się rozproszyć za pomocą konwekcji i przewodzenia i nie ma potrzeby sięgania po takie rozwiązania mechaniczne. Czasem wentylator jest, ale w normalnych warunkach pracy nie jest on aktywny i uruchamia się go dopiero przy dużym obciążeniu lub też przy wysokiej temperaturze otoczenia. Te procesy dotyczą urządzeń konsumenckich oraz małych aplikacji przemysłowych. Rozwiązania przemysłowe, energoelektronika, IT, medycyna nie mogą się bez nich obejść, ale stawiają tym produktom coraz większe wymagania. Stąd w ofertach dostawców tanie wentylatory zastąpiły wersje o dużej trwałości, odporne na kurz i mgłę olejową, których łopatki są wyważone, a działanie ciche. Na rynku są dostępne wersje z czasem życia powyżej 150 tys. h, zakresem temperatur pracy od –20 do +85°C. Regulacja obrotów za pomocą PWM, kontrola wirowania za pomocą czujnika obrotów też jest standardem, bo pozwala na sygnalizację awarii, czyli w praktyce zatarcia łożyska.

Zasadnicza część rynku wentylatorów to jednostki o wymiarach od 25×25 mm do 120×120 mm o kilku różnych grubościach, a więc też wydajności rozumianej jako przepływ powietrza. W ramach jednego wymiaru można jeszcze wybierać ułożyskowanie oraz napięcie zasilania. Są też wentylatory okrągłe i dmuchawy, co razem daje grubo minimum kilkadziesiąt dostępnych wersji. Mniejsze wentylatory, tj. do 20×20 mm, wykorzystywane są do chłodzenia elementów optycznych (kamer, czujników promieniowania podczerwonego), jednostki większe niż 120×120 mm, w tym rozwiązania zasilane napięciem sieci, to z kolei domena aplikacji przemysłowych. Są one montowane w szafach jako centralny element wymiany ciepła dla całego zainstalowanego systemu.

Radiatory są coraz mniejsze

Radiatory to produkt dojrzały technologicznie i doskonale znany. W przeważającej części są one wykonywane z aluminiowych profili, często czernionych galwanicznie dla wzmocnienia transportu ciepła przez emisję promieniowania. Wysokie ceny metali wyeliminowały miedź z tych produktów i obecnie radiatory są praktycznie wyłącznie wykonywane z aluminium. W ostatnich miesiącach były poważne problemy z dostępnością i jeszcze silniej rosnącymi cenami. Po ponad dwukrotnych podwyżkach cen tych sytuacja ustabilizowała się, zapewniając przewidywalność biznesu w okresie kilku tygodni, co nie zmienia tego, że produkty te stały się bardzo drogie.

Radiatory, podobnie jak wiele innych podzespołów elektronicznych, występują na rynku w bardzo wielu typach i rozmiarach, co sprawia szereg trudności w utrzymaniu przez dostawców stanów magazynowych dla całości oferty. W wielu przypadkach istotne są nawet drobne różnice w kształcie użebrowania, które pozwalają na modyfikację rezystancji termicznej w zależności od typu chłodzenia wymuszonego lub konwekcyjnego. Taka ograniczona dostępność, przekładająca się na długie czasy dostaw niektórych profilów oznacza najczęściej, że projektanci muszą z konieczności używać radiatorów, które są dostępne zamiast wybranych modeli.

Mimo że w przypadku radiatorów trudno mówić o dużej komplikacji technicznej produktu lub też o wysokim potencjale technologicznym, to jednak są to elementy przez cały czas rozwijane przez producentów i dopasowywane do potrzeb współczesnych aplikacji. Producenci sprzedają obecnie więcej małych radiatorów, które dominują w elektronice powszechnego użytku oraz duże profile przeznaczone do pracy w układach energetycznych dużej mocy.

Komponenty indukcyjne

Elementy indukcyjne są kluczowym komponentem w impulsowych układach konwersji energii elektrycznej, niezbędnym składnikiem filtrów i systemów ochrony przed zakłóceniami, a także tym, co zapewnia użytkownikom sprzętu elektronicznego bezpieczeństwo oraz ochronę przed porażeniem. Komponenty te decydują o sprawności zasilaczy, wielkości, wadze urządzeń, wydajności i ogólnie pojętej jakości. Są one kluczowym podzespołem dla rynku zasilania, elektroniki przenośnej, oświetlenia LED-owego.

Nowości w zakresie elementów indukcyjnych

Nowości w elementach indukcyjnych są bardzo liczne, ale niestety także mało widoczne. Ogólnie są to innowacje w zakresie materiałów magnetycznych, kształtów rdzeni, a więc pośrednio sposobu wykonania uzwojenia oraz używanych materiałów nawojowych i typów kontaktów elektrycznych. W dalszej kolejności są to zaawansowane materiały izolacyjne, skomplikowane procesy impregnacji oraz montażu takich komponentów.

Nowe materiały magnetyczne zapewniają pracę przy dość dużych częstotliwościach kluczowania, mają małe straty związane z przemagnesowaniem, wysoką indukcję nasycenia i podobne właściwości. Producenci proponują w tym obszarze ferryty z różnych mieszanek tlenków metali, spiekane drobiny czystego metalu o różnym ziarnie składzie i proporcjach. Eksperymenty prowadzone są w wielu kierunkach także w stronę rozwiązań hybrydowych, a więc bazujących na ferrytach łączonych ze sproszkowanym metalem, po to, aby zapewnić dużą indukcję nasycenia, małe straty na histerezie, a także aby uzyskać łagodną charakterystykę zapobiegającą gwałtownemu spadkowi indukcyjności przy zbliżeniu się z wartością prądu do nasycenia. Można też powiedzieć, że celem zmian w nowościach są maksymalizacja energii, jaką można zgromadzić w danej objętości materiału magnetycznego lub uzyskanie najkorzystniejszego stosunku ceny do parametrów.

Główne trendy techniczne
 
Główne trendy techniczne w elementach indukcyjnych to miniaturyzacja i wynikające z niej coraz większe zaawansowanie techniczne. Widać to najbardziej w dławikach mocy w obudowach SMD, w których nie ma karkasu ani też widocznego podziału na rdzeń i uzwojenie. Taki element jest zaprasowaną jednolitą konstrukcją o dobrym ekranowaniu, rozpraszaniu ciepła przy najmniejszych możliwych gabarytach. W elementach do układów o większej mocy widać znaczenie nowych materiałów na uzwojenia, izolację i materiałów magnetycznych oraz coraz większe skomplikowanie konstrukcyjne transformatorów po to, aby umożliwić wytwarzanie zasilaczy małych, lekkich i wydajnych, a na dodatek wysokosprawnych.

Kształt materiału magnetycznego, czyli kształtka, decyduje o możliwości nawinięcia uzwojenia o określonej objętości, możliwości integracji w obudowie a także o indukcyjności rozproszenia. W tym obszarze też sporo się dzieje, a liczba ofertowych wariacji na temat kształtów takich jak "R" lub "E" stale się zwiększa.

Druty nawojowe coraz częściej są wielokrotnie izolowane (nawet czterokrotnie), co ułatwia zapewnienie wysokiej jakości izolacji elektrycznej. Dzięki takim drutom większość zasilaczy powszechnego użytku jest dzisiaj wykonana w tzw. II klasie izolacji i nie wymaga uziemiania. Coraz częściej transformatory nawijane są licami oraz także taśmą miedzianą (drutem o przekroju prostokątnym), który pozwala lepiej wypełnić okno nawojowe. Jest to tzw. nawijanie krawędziowe.

Nowe materiały izolacyjne dają możliwość ciasnego upakowania uzwojenia i jednoczesnego zachowania bezpieczeństwa. Są one ważne, bo z roku na rok układy impulsowe pracują przy wyższych napięciach wejściowych.

Marcin Kącki


senior engineer, SMA Magnetics

  • Czy elementy indukcyjne nawijane taśmą miedzianą cieszą się popularnością? Jaki jest ich udział w sprzedaży?

Odpowiedź na to pytanie nie jest prosta i zależy od aplikacji. Elementy indukcyjne nawijane taśmą miedzianą są chętnie stosowane w aplikacjach wysokoprądowych. Jednak z uwagi na charakterystykę częstotliwościową elementy bazujące na uzwojeniach foliowych ograniczone są do niższych częstotliwości pracy, przy których zjawiska dynamiczne nie mają istotnego wpływu na pracę elementu. Kryteria te kształtują popyt tego typu elementy indukcyjne.

  • Jaki jest udział elementów indukcyjnych wykonywanych na zamówienie w wolumenie waszej produkcji?

SMA Magnetics specjalizuje się w produktach tworzonych pod specyficzne wymagania klienta, dlatego też cała produkcja opiera się na zindywidualizowanych rozwiązaniach. Produkty są wynikiem bliskiej współpracy z klientem adresującej optimum wymagań technicznych i jakościowych z dużym naciskiem na koszty wytwarzania.

EMC to kolejny istotny czynnik prorozwojowy dla rynku

Poza miniaturyzacją na rynek elementów indukcyjnych pozytywnie oddziałują zagadnienia związane z kompatybilnością elektromagnetyczną. Spośród wielu innych czynników na ten warto zwrócić uwagę, ponieważ wymagania w zakresie emisji zaburzeń są dzisiaj elementem zapewnienia jakości, a nie bezsensownym i niepotrzebnym wymaganiem, którego spełnienia się unika lub obchodzi. W układach impulsowych panowanie nad emisją jest ważną i niełatwą częścią pracy inżynierskiej i każde rozwiązanie układowe lub komponent, które wyraźnie w tym pomaga jest w tych działaniach cenną pomocą. Widać to między innymi po tym, że konstrukcja omawianych podzespołów staje się zwarta i zabudowana materiałem magnetycznym, a uzwojenia są ukrywane we wnętrzu, bo ogranicza to zaburzenia. Konstrukcje otwarte takie jak dławiki szpulkowe są wypierane przez rozwiązania na rdzeniach toroidalnych, można też powiedzieć, że mamy renesans rdzeni o kształtach podobnych do kubkowych.

Wymagania jakościowe staje się zwiększają

Szybki rozwój rynku elektroniki i to, że rozwiązania na niej bazujące pojawiają się w coraz to nowych obszarach techniki i branżach, prowadzą do wzrostu wymagań jakościowych stawianych przed urządzeniami elektronicznymi, a w konsekwencji przed wszystkimi wchodzącymi w ich skład elementami. Zależność ta wynika też z tego, że sprzęt elektroniczny pełni w naszym życiu coraz bardziej odpowiedzialną rolę, np. jest instalowany w energetyce, telekomunikacji, medycynie, a straty, do jakich dochodzi w przypadku niedostępności usług lub awarii sprzętu w takich obszarach, są coraz wyższe. Dotyczy to także trudnodostępnych miejsc instalacji, w jakich elektronika się pojawia i gdzie nie zawsze ma dobre warunki środowiskowe podczas działania. Przykładem może być oświetlenie ledowe, gdzie wzrost temperatury wywołany kiepską wentylacją w miejscu instalacji jest w stanie zdegradować w krótkim czasie konstrukcję.

W elementach indukcyjnych zagadnienia te są bardzo istotne z kilku powodów. Po pierwsze narażenia mechaniczne, a więc wibracje i udary wywołują naprężenia w uzwojeniach i rdzeniu i prowadzą do pękania, rozklejania rdzeni oraz rozszczelnienia zalew i uszkodzeń na izolacji. Elementy te mają nierzadko dużą masę przez co przeciążenia mechaniczne wynikające z drgań są problemem dla jakości w aspekcie długoterminowym. Podobnie negatywnie na konstrukcję oddziałują zmiany temperatury i wilgotności, które dodatkowo są w stanie pogorszyć z czasem jakość izolacji, niemniej zjawisk fizycznych, które w długiej perspektywie wpływają na jakość elementów, jest więcej. Ich wpływ na jakość zwiększa się też wraz z obciążeniem mocą, bo płynące duże prądy powodują na-grzewanie, wysokie napięcia niszczą izolację na skutek mikrowyładowań oraz wyładowań niezupełnych (koronowych), a wysokie wartości indukcji magnetycznej na skutek efektu magnetostrykcji mogą wywołać przykre dla ucha piski. Takie problemy są codziennością dla producentów podzespołów indukcyjnych, ale coraz większa świadomość projektantów elektroniki pomaga w rozwoju rynku w kierunku długoterminowej jakości, bo wiadomo, co można wymagać i za co się płaci.

Oświetlenie LED

Jeszcze kilka lat temu rynek oświetlenia LED był w fazie eliminacji żarówek wolframowych, które zostały szybko wyrzucone na margines m.in. za pomocą zakazów sprzedaży. Potem przyszła kolej na rugowanie z użycia lamp fluorescencyjnych (świetlówek kompaktowych), a obecnie trwa proces "dobijania" nielicznych opraw sufitowych ze świetlówkami 18-watowymi. Do niedawna na rynku oświetlenie LED było dostępne głównie w formie zamienników, czyli pasujących do starych opraw żarówek z diodami i zasilaniem, obecnie coraz więcej opraw ma konstrukcję zintegrowaną, a więc zawiera niewymienne źródło światła.

Coraz więcej produktów przynosi coś więcej niż tylko światło – pozwala na programowanie czasu włączenia i wyłączenia, aktywuje się w obecności osób, pozwala na regulację jasności, barwy, współpracuje ze smartfonem itd. Ostatni trend to coraz większy udział rozwiązań specjalistycznych, a więc przeznaczonych do wybranych miejsc i aplikacji. LED-y dają o wiele większe możliwości kompozycji źródeł z oprawą i resztą otoczenia i widać, że cieszą się zainteresowaniem. Są przeznaczone do oświetlenia budynków, stanowisk pracy, ulic, obiektów publicznych. Takie cenne obszary to również np. architektoniczne, sceniczne, medyczne, motoryzacyjne.

Najważniejsze cechy oświetlenia LED brane pod uwagę przy kupnie
 
Rynek oświetlenia ledowego z pewnością można uznać za dojrzały, gdyż podstawą decyzji klientów są cechy takie jak jakość i niezawodność oraz parametry techniczne, funkcjonalność i podobne. Niska cena jest dopiero na czwartej pozycji od góry, co przekonuje, że rynek dzisiaj wygląda zupełnie inaczej niż pięć lat temu. Wówczas znaczenie ceny było znacznie bardziej zarysowane. Krótki termin dostawy to oczywiście znak obecnych czasów. Proporcje pól na wykresie przekonują ponadto, że w praktyce liczy się dobry stosunek możliwości do ceny, a więc otrzymywana wartość produktu w odniesieniu do wydatku.

Lampy ledowe zapewniają obecnie znacznie lepszą jakość, trwałość i dobre parametry świetlne niż jeszcze dekadę temu. Wówczas wiele produktów miało problemy a ich deklarowane parametry nie pokrywały się z rzeczywistością. Zapewne dlatego dzisiaj klienci są ostrożniejsi, zwłaszcza w aplikacjach profesjonalnych, gdzie inwestycje nierzadko są realizowane w na tyle dużej skali, że dobór produktu nie może być dziełem przypadku, na przykład, gdy celem jest oszczędność energii.

Roman Janasik


właściciel PCB Technology

  • Wiele materiałów chemicznych stosowanych przy produkcji oświetlenia LED z czasem żółknie. Czy są takie, które pozostają przezroczyste?

Wszystkie powszechnie stosowane materiały zalewowe w wyniku procesu utleniania mają skłonność do żółknięcia pod wpływem działania tlenu, przy czym na poziom żółknięcia i degradację mają znaczący wpływ wysokość temperatury, czas narażenia oraz rodzaj żywicy. Pomimo że żółknięcie produktu nie ma ogólnego wpływu na właściwości izolujące, często stanowi decydujący czynnik przy wyborze odpowiedniej masy do hermetyzacji oświetlenia LED. Wybierając konkretny produkt, należy zdecydować jaki poziom żółknięcia jest dopuszczalny dla danej dziedziny zastosowania oraz ocenić na ile czynników środowiskowych urządzenie będzie narażone. Pozwala to już na wstępne dobranie materiału. Niemniej jednak, w dalszym kroku możliwe jest przeprowadzenie pomiarów, stwierdzających, czy dany produkt spełnia nasze wymogi odnośnie do właściwości optycznych. Jeśli chodzi o kolor, ludzkie oko stanowi potężny i czuły przyrząd pomiarowy, jednak jako że może zostać "oszukane", nie zapewni nam odtwarzalnych wyników. Badania kolorymetryczne dostarczają nam bardziej rzetelnych i obiektywnych wyników pomiarów. W wyniku efektu żółknięcia, "blokowane" są krótkofalowe promienie obudowanego źródła LED, a całkowite spektrum światła zmienia się na żółtawe. Oprócz tego, spada moc wyjściowa światła. Takie właściwości blokujące można zobrazować poprzez pomiary transmisji masy zalewowej.

Nowe etykiety energetyczne

Minął rok, od kiedy obowiązują nowe etykiety energetyczne dla oświetlenia LED określające ich wydajność świetlną, zużycie energii w ciągu 1000 godzin pracy oraz kategorię energetyczną (klasę). Produkty konsumenckie i wszystkie źródła światła wytwarzane przez markowe firmy takie etykiety mają, gorzej wygląda etykietowanie w zakresie importowanych z Azji produktów wykraczających poza termin "konsumencki". Tu nadal jeszcze bez problemu można znaleźć źródła, które etykiet nie mają lub mają starego typu. W wielu wypadkach wynika to z braku wiedzy sprzedawców, firm importowych lub hurtowych, którym brakuje jeszcze "świadomości" oraz często także zwykłej chęci.

Najważniejsze cechy oświetlenia LED od strony technicznej
 
Czynniki techniczne związane z oświetleniem ledowym w największym stopniu sprzyjające rozwojowi rynku to długi czas pracy, czyli żywotność produktu, duża wydajność świetlna i dobre odwzorowanie barw. Kupujący oczekują, że produkty te przyniosą oszczędności w kosztach oświetlenia, zapewnią dużą wydajność oraz że światło będzie dobrze odwzorowywało kolory. Ostatnim czynnikiem jest powtarzalność parametrów, czyli to, że właściwości świetlne nie będą przypadkowe. Z zapewnieniem tego ostatniego kryterium jest chyba najtrudniej na rynku zdominowanym przez azjatyckie źródła zaopatrzenia oraz silną konkurencję cenową. Na dodatek parametrów światła nie bada się tak łatwo i tanio jak np. wartości elektrycznych, a więc pomiar współczynnika oddawania barw jest wielokrotnie bardziej kosztowny do realizacji niż napięcia lub prądu.

Wprowadzający produkty oświetleniowe na rynek są zobowiązani rejestrować swoje produkty w bazie danych EPREL (European Product Registry for Energy Labelling – Europejski Rejestr Etykiet Energetycznych). Celem jest zgromadzenie w jednym miejscu wszystkich dokumentacji technicznych, dotyczących produktów elektrycznych, należących do różnych klas energetycznych. Tam ma się znaleźć szczegółowa dokumentacja techniczna danego produktu, a link prowadzący bezpośrednio do wpisu w bazie jest podawany na kodzie QR na etykiecie. Wymóg ten dla wielu firm nie jest prosty do spełnienia z przyczyn organizacyjnych oraz technicznych. Gdy oferta handlowa jest szeroka, czyli firma ma bardzo dużo źródeł światła, nakład pracy, jaki wiąże się z zarządzaniem wpisami, utrzymywaniem ich w stanie aktualnym, na pewno nie jest drobiazgiem w skali dnia pracy. Baza EPREL wymaga też wpisania parametrów technicznych oświetlenia, takich jak wydajność, kąt emisji światła, temperatura barwowa i podobnych. Firmy importowe nie zawsze dysponują szczegółowymi parametrami, a czasem nie chcą wpisywać tego, co podał im chiński kontrahent, gdyż czują, że nie pokrywa się to z rzeczywistością.

Główne czynniki sprzyjające rozwojowi rynku
 
Za czynniki biznesowe sprzyjające rozwojowi rynku i pozytywnie oddziałujące na wzrost uznano coraz niższe ceny w przeliczeniu na otrzymywaną wartość/jakość techniczną i funkcjonalność użytkową, duże możliwości związane z integracją, aplikacją, sterowaniem oświetleniem ledowym, a także to, że świadomość ekologiczna społeczeństwa się zwiększa. Klienci chcą oszczędzać energię i słusznie kojarzą, że oświetlenie diodowe pozwala prosto zyskać obniżkę w wydatkach. Za istotne kryterium uznano także to, że rynek związany z oświetleniem LED jest coraz większy, co wynika z większej liczby aplikacji specjalistycznych (przemysłowych, medycznych i podobnych).

Co trzeba mieć, aby badać jakość oświetlenia LED?

Aby móc weryfikować jakość światła dostarczanego przez oświetlenie ledowe, konieczna jest odpowiednia aparatura pomiarowa. Wiele wielkości fizycznych można zmierzyć z dużą dokładnością i małym kosztem. Przykładem może być napięcie, rezystancja, temperatura. Mierniki służące do tego celu są tanie, powszechnie dostępne, bardzo precyzyjne, a wynik pokapokazywany na wyświetlaczu nie sprawia nikomu problemów z interpretacją. Gorzej jest z wielkościami fizycznymi takimi jak wilgotność, stężenie gazów, ale tutaj także oferta rynku jest bogata i nawet dysponując niewielką sumą można skompletować całkiem sensowne instrumentarium.

Jeśli chodzi o pomiary światła, to niestety sytuacja jest trudniejsza. Przyrządy pomiarowe są znacznie bardziej kosztowne, co wynika z tego, że są to urządzenia skomplikowane, precyzyjne i często o unikatowych właściwościach. Rynek aparatury do pomiarów optycznych jest drobnym ułamkiem tego, co mamy w zakresie pomiarów elektrycznych, przez co producentów jest znacznie mniej. Firmy te nie mogą też rozłożyć kosztów inżynierskich na dziesiątki tysięcy mierników, co czyni inwestycję trudniejszą finansowo. Pomiary optyczne są też trudniejsze od strony merytorycznej, bo sam wynik trzeba umieć odnieść do wymagań aplikacyjnych, porównać z innymi produktami i wiedzieć, czy różnica ma jakiekolwiek znaczenie.

Naszymi klientami są najczęściej producenci z następujących branż
 
Komponenty do oświetlenia diodowego takie jak moduły, emitery, zasilanie, optyka, kupują głównie producenci oświetlenia, co oczywiście jest naturalne, niemniej drugą branżą równie istotną z punktu widzenia dostawców są odbiorcy z przemysłu. Kupują oni zarówno gotowe źródła światła (oprawy), jak też komponenty, za pomocą których realizowane są projekty.

Kolejny problem z pomiarami źródeł optycznych jest taki, że potrzebna jest interdyscyplinarna wiedza z zakresu elektroniki (np. zasilanie), optyki (kształtowanie wiązki światła), fizyki. Przydaje się też znajomość chemii, procesów związanych z badaniami starzeniowymi, estymacją żywotności i innymi zagadnieniami. Słowem – nie jest tak łatwo, jak z napięciem.

Podstawowym przyrządem jest spektrometr pozwalający na pomiar skorelowanej temperatury barwowej (CCT) i współczynnika reprodukcji barw (CRI). Do niego trzeba dokupić kulę całkującą wraz z osprzętem, aby badać wydajność świetlną. Ten zestaw minimum można dalej rozbudowywać o sprzęt do badań klimatycznych, starzeniowych, kamerę termowizyjną itp. Do utrzymywania aparatury w stanie jakości metrologicznej niezbędne są wzorce itd.

Migotanie jest coraz mniejszym problemem

Jeszcze kilka lat temu migotanie źródeł światła było częstą przypadłością tanich źródeł. Minimalna bezwładność diod powoduje, że tętnienia napięcia zasilającego wywołane kiepską filtracją lub złą korekcją współczynnika mocy przenoszą się na wahania strumienia świetlnego. Nie tylko chodzi o zmiany w takt częstotliwości sieci zasilającej 50/100 Hz, ale także te o wyższej częstotliwości, które jest wynikiem działania PWM.

Metodą zapewnienia małego poziomu migotania źródeł światła jest użycie zasilaczy dobrej jakości, a więc takich o stabilnym napięciu wyjściowym, które nie tylko nie mają tętnień związanych z konwersją energii i korekcją PFC, ale także charakteryzują się dobrą dynamiką tj. stabilnością napięcia wyjściowego przy dużych zmianach prądu obciążenia. Ponad rok temu weszła w życie kolejna rewizja dyrektywy Ekoprojektu, która wymusza kontrolowanie przez dostawców oświetlenia zjawiska migotania. Poprawiła się też jakość zasilaczy ledowych dostępnych na rynku oraz scalonych rozwiązań driverów wykorzystywanych w modułach i oprawach zintegrowanych. Szersza oferta i dobre parametry zasilaczy specjalizowanych powodują, że migotanie światła przestaje być problematyczne w produktach nowych.

Główne czynniki negatywne dla rynku oświetlenia LED
 
Czynniki negatywnie oddziałujące na rynek oświetlenia LED to zła jakość produktów, trudność w porównywaniu parametrów produktów, a także brak wiedzy klientów. Te trzy kryteria można uznać za powiązane ze sobą i tworzące wspólny mianownik problemu. Parametry źródeł światła, jednostki opisujące wydajność źródeł wymagają wiedzy z zakresu fizyki, optyki, z którą wielu kupujących sobie nie radzi. Z kolei importerzy nie dysponują z reguły aparaturą do badań i nie kontrolują właściwości optycznych produktów.

Inteligentne oświetlenie

Inteligentne oświetlenie to termin o szerokim znaczeniu, często też określane terminem "smart" w przypadku, gdy chodzi o źródła światła do pomieszczeń wewnętrznych. Koncepcja opiera się na tym, że do źródła światła dodajemy różne czujniki, obwody sterujące (jasnością, kolorem, odcieniem), aktywację ruchem człowieka, programowanie czasu działania oraz komunikację. Jednym z najczęściej spotykanych funkcjonalności tego systemu jest możliwość dostosowywania temperatury barwowej oraz jasności świecenia ręcznie lub automatycznie w zależności od pory dnia oraz zdefiniowanego profilu.

Takie możliwości zapewniają profesjonalne oprawy przemysłowe, do budynków biurowych i stanowisk pracy, a nawet żarówki ledowe do zastosowań domowych. Rozwiązania te różnią się tylko liczbą takich funkcji i komunikacją. W systemach budynkowych sterowanie lampami realizuje się za pomocą DALI (Digital Addressable Lighting Interface) i Ethernetu lub ZigBee. W tych domowych częściej spotyka się Bluetooth i Wi-Fi umożliwiające komunikację ze smartfonem. Niestety jednym z kłopotów branży oświetleniowej pozostaje brak jednomyślności co do standardu wymiany danych, co wywołuje spore problemy z interoperacyjnością poszczególnych modułów LED. Od kilku lat trwają prace nad wprowadzeniem większej standaryzacji, ale idzie to opornie.

Oświetlenie specjalistyczne i przemysłowe

Silna konkurencja na rynku konsumenckim powoduje, że stale rośnie znaczenie oświetlenia specjalistycznego i profesjonalnego, w którym wartość dodana dla klienta jest większa niż w obszarze konsumenckim oraz nie ma takiej konkurencji cenowej ze strony importerów produktów azjatyckich. Renomowane firmy stawiają na nowoczesne produkty, o dużej funkcjonalności, jakości także w zakresie popularnych rozwiązań konsumenckich i nierzadko porzucają aktywność w zakresie wyrobów typowych, gdzie konkurencja ma charakter cenowy.

W tym obszarze ilościowo i asortymentowo dominują rozwiązania oświetleniowe do sklepów wielkopowierzchniowych, magazynów, hal produkcyjnych (głównie lampy high i low bay, oprawy liniowe), w dalszej kolejności są to lampy montowane w sufitach podwieszanych, systemy oświetlenia ulicznego, lampy obiektowe, wersje z certyfikatami (Atex, górniczymi, medycznymi), w obudowach odpornych na narażenia środowiskowe i podobne. Drugim obszarem specjalizacji jest atrakcyjne wzornictwo pozwalające nadać pomieszczeniom indywidualny charakter i zapewnić wysoką funkcjonalność.

Jeszcze inna droga specjalizacji to oświetlenie do zastosowań w rolnictwie, a więc wykorzystywane do uprawy roślin i hodowli zwierząt oraz UV do sterylizacji. Światło o odpowiednim widmie oraz dawce korzystnie wpływa na wzrost i poziom zawartości pożądanych substancji aktywnych w roślinach. UV pomaga z kolei w utrzymaniu dobrej kondycji plonów poprzez ograniczanie rozwoju pleśni oraz niektórych gatunków szkodników, stanowiąc alternatywę dla środków chemicznych. Do takich zastosowań pojawiły się już odpowiednie diody o specyficznej barwie światła.

LED-y z zakresów UV-B oraz UV-C wykorzystywane są również m.in. w celu dezynfekcji pożywienia, powietrza, wody oraz powierzchni. Ich zaletą jest nie tylko wysoka energooszczędność, ale również małe wymiary, pozwalające na miniaturyzację urządzeń, przez co wypierają lampy rtęciowe z wielu zastosowań. Także dzięki temu, że nie zawierają rtęci i wiążących się z nią problemów z recyklingiem. Drugą korzyścią jest duża żywotność. Lampy rtęciowe mają ją na poziomie ok. 8 tys. godzin, lampa LED UV może osiągnąć nawet 10-krotnie dłużej, nie wymagają nagrzewania, co zwiększa wydajność procesu sterylizacji i umożliwia błyskawiczne uruchomienie systemów dezynfekujących.

Zasilanie dla oświetlenia LED

Zasilacze LED to produkt o specyficznych właściwościach dostosowanych do tego typu aplikacji. Takich specjalizowanych jednostek jest na rynku wiele i bez trudu można wybierać spośród ofert wielu producentów i typów. Rośnie też stopień zaawansowania technicznego zasilaczy ledowych, co ma korzystny wpływ na parametry oświetlenia i trwałość. Poza zasilaczami do sieci energetycznej są jeszcze wersje zasilane niskim napięciem stałym (DC-DC), są moduły open frame i układy scalone specjalizowanych konwerterów impulsowych. Zasilacze dla diod LED są produkowane głównie przez firmy azjatyckie, które celują w tworzeniu szerokiego asortymentu standardowych konstrukcji o dobrym poziomie jakości.

Jakość zasilania, diod, optyki i materiałów

Mówiąc o jakości oświetlenia ledowego, w największym stopniu skupiamy się na ocenie diod, a więc emiterów światła. Rozważamy zagadnienia związane z wpływem temperatury na trwałość, degradacją luminoforu itp. czynnikami. Niemniej z perspektywy lat można powiedzieć, że w wielu przypadkach diody nie są głównym sprawcą złej jakości produktów końcowych. Może kiedyś tak było, ale dzisiaj rozwój technologii pozwala zapewnić ich działanie w dziesiątkach tysięcy godzin.

Poza diodami problemy sprawia zasilanie, zwłaszcza to zintegrowane z lampą, gdyż wówczas zasilacz jest umieszczony blisko źródła światła i całość razem grzeje się znacząco. Prowadzi to do wysychania elektrolitu w kondensatorach elektrolitycznych i przedwczesnych awarii. Zasilacze są też wrażliwe na przepięcia w sieci. Dotyczy to głównie produktów konsumenckich, gdzie oszczędza się na komponentach oraz wersji profesjonalnych w przypadku, gdy warunki eksploatacji są trudne. Świadomość rynku w zakresie wpływu warunków panujących w miejscu instalacji na żywotność jest niewielka i zasilacz zabudowany szczelnie w drewnianym meblu nie jest wcale rzadkością. Ostatnim czynnikiem determinującym żywotność oświetlenia jest jakość produktów chemicznych, takich jak zalewy hermetyzujące i tworzywa elementów optycznych, które żółkną, kruszą się lub deformują. Warto więc pamiętać, że w zapewnieniu jakości liczy się połączenie wszystkich elementów w spójną całość.

Podzespoły półprzewodnikowe dużej mocy

W podzespołach mocy aktywność producentów kieruje się w stronę poprawy parametrów maksymalnych oraz zapewnienia większego stopnia integracji, a także mniejszych obudów zapewniających skuteczne odprowadzanie ciepła. Elementy mocy są wyposażane w dodatkowe obwody sterujące i zabezpieczające, dzięki czemu ich wykorzystanie staje się łatwiejsze i poprawia się niezawodność. W wielu zastosowaniach podzespoły mocy trzeba łączyć szeregowo lub równolegle, dlatego nowe wersje o większej obciążalności i dopuszczalnych parametrach dają szansę na to, że daną funkcję w układzie będzie można zrealizować mniejszą liczbą części. Producenci przykładają też dużą wagę do redukcji strat mocy, co ogranicza gabaryty radiatorów, wielkość obudów, zwiększa stopień integracji i także zmniejsza cenę.

"Duża moc" jest coraz większa

Wartości napięcia, prądu lub mocy, od której zaczyna się "duża moc", stale się przesuwają w kierunku większych wartości. W przypadku systemów zasilanych napięciem stałym o niskiej wartości, płynące prądy sięgają kilkadziesiąt amperów nawet w niewielkich systemach cyfrowych. Podobnie jest w mniejszych urządzeniach mobilnych zasilanych z akumulatorów, w dużym przemysłowym sprzęcie mobilnym, samochodach hybrydowych, gdzie kilowatowe silniki elektryczne są zasilane napięciem ok. 200 V. W instalacjach PV, gdzie napięcia stałe są jeszcze większe, "duża moc" zaczyna się od 500‒1000 W. W przypadku sprzętu zasilanego z sieci o dużej mocy mówi się zwykle tam, gdzie w grę wchodzi zasilanie z sieci trójfazowej, a więc powyżej 2 kW. Tak postawione granice cały czas są dość płynne i trzeba mieć świadomość, że inaczej na dużą moc patrzy energetyk, a inaczej inżynier zajmujący się sprzętem konsumenckim.

Najważniejsze cechy ofert brane pod uwagę przy kupowaniu komponentów dużej mocy
 
Mamy takie czasy, że termin dostawy jest często najważniejszym kryterium selekcji przy wyborze produktu. Cena, parametry techniczne, marka i inne liczą się zdecydowanie w mniejszym stopniu, a cenione dawniej przez klientów kompleksowe zaopatrzenie u jednego dostawcy ma dzisiaj znaczenie marginalne.

Tyrystory w układach mocy

Diody i tyrystory cały czas są domeną prostowników w systemach zasilania prądem stałym w transporcie szynowym, energetyce i przemyśle przetwórczym, w urządzeniach takich jak zgrzewarki, spawarki, w układach miękkiego rozruchu silników bardzo dużej mocy, urządzeniach zabezpieczających przez przepięciami. Elementy te pracują z prądami sięgającymi kiloamperów i napięciami ponad 1 kV (dla większych napięć są łączone w stosy szeregowe) i cały czas w takich zakresach nie mają realnej konkurencji.

Tranzystory krzemowe

Najbardziej istotną i wartościową częścią tej grupy produktowej są półprzewodniki: tranzystory IGBT i MOSFET oraz moduły o różnym stopniu układowej złożoności. Tranzystory mocy MOSFET dostępne są w wersjach niskonapięciowych (30‒60 V), średnionapięciowych (100‒400 V) i wysokonapięciowych (600‒800 V). Mimo znakomitych parametrów nowych opracowań tranzystorów MOSFET energetyka częściej korzysta z elementów IGBT. Mają one mniejsze straty mocy przy dużych napięciach znamionowych, co powoduje, że na rynku powoli zarysowuje się podział aplikacyjny, zgodnie z którym MOSFET- y częściej pojawiają się w zastosowaniach niskonapięciowych, do około 400V, a IGBT w przypadku napięć wyższych.

Główne trendy techniczne na rynku półprzewodników mocy
 
Trendy techniczne w podzespołach mocy to miniaturyzacja przy jednoczesnym wzroście obciążalności. Ważna jest też integracja w ramach modułów, dzięki czemu typowe rozwiązania mostkowe (2-, 4-, 6-tranzystorowe) są dostępne jako gotowe jednostki. Z punktu widzenia rozwoju ważne są ponadto elementy SiC i GaN, które pozwalają sprostać wielu istotnym wymaganiom technicznym związanym ze sprawnością konwersji, miniaturyzacją, wysoką obciążalnością prądową i podobnymi parametrami, a więc spełniają wszystkie oczekiwania inżynierskie.

Nowe materiały półprzewodnikowe

Wiele nowych rozwiązań z obszaru konwersji mocy elektrycznej wiąże się z wykorzystaniem podzespołów na bazie nowych materiałów półprzewodnikowych, takich jak azotek galu (GaN) lub węglik krzemu (SiC). Elementy takie używane są w modułach inwerterów, czyli w przetwornicy odpowiedzialnej za konwersję prądu stałego dostarczanego z akumulatora na prąd przemienny wymagany do pracy silnika elektrycznego lub przekształcenie napięcia sieci energetycznej w trójfazowe napięcie przemienne o parametrach dobranych do zasilania silnika. Sprawność i wydajność falownika mają kluczowy wpływ na istotne parametry pojazdu, jak zasięg, czas ładowania oraz żywotność baterii, a w przypadku zasilania z sieci na koszt posiadania urządzenia lub maszyny. Dlatego w takich zastosowaniach, gdzie czas eksploatacji liczy się w wielu latach, elementy te dają duże oszczędności.

IGBT oraz MOSFET-y z powodu swoich stosunkowo dużych rozmiarów struktury mają kłopoty z komutacją z wysoką częstotliwością (straty komutacyjne), które ograniczają też maksymalną dopuszczalną częstotliwość pracy inwertera. Takie limity i ograniczenia charakterystyczne dla krzemu mogą zostać ominięte poprzez wykorzystanie półprzewodników szerokopasmowych. Mogą pracować w wyższych temperaturach, przy wyższych napięciach oraz częstotliwościach, redukując straty mocy w układach konwersji zasilania. Mają też wysoką wytrzymałość elektryczną, przekładającą się na znacząco wyższą wartość napięcia przebicia niż w przypadku tranzystora krzemowego o podobnych rozmiarach. Pozwala to na tworzenie układów o mniejszych niż w przypadku krzemu wymiarach, zachowując przy tym pożądane cechy elektryczne. Mniejszy rozmiar przekłada się zaś na niższą wartość pojemności wymaganą do przeładowania w procesie przełączania, a zatem krótszy czas przełączania i wyższą maksymalną częstotliwość pracy. Tranzystory GaN mają o połowę niższą wartość rezystancji włączenia R DS(ON) niż w strukturach krzemowych, to zaś oznacza dwukrotnie mniejsze straty przewodzenia. W związku z tym zmniejsza się również ilość generowanej podczas pracy układ energii cieplnej, możliwe jest uproszczenie konstrukcji systemu chłodzenia.

Typy komponentów o największym potencjale
 
Największy potencjał rynkowy mają tranzystory mocy krzemowe (MOSFET i IGBT) oraz takie same elementy, ale wykonane z SiC i GaN. Rozwiązania w postaci modułów integrujących kilka tranzystorów w jednej obudowie to domena najwyższych mocy i bez wzglądu na technologię półprzewodnikową zawsze będą one potrzebne i używane. Triaki i tyrystory nie są postrzegane jako elementy perspektywiczne, głównie na skutek tego, że parametry tranzystorów są w praktyce porównywalne.

GaN-y świetnie sprawdzają się w pracy z napięciami dochodzącymi do 1 kV, zaś SiC dla napięć jeszcze większych. Te zalety są oczywiście okupione wyższą ceną, niemniej całkowity koszt systemu może być utrzymany w ryzach dzięki uproszczeniu i redukcji rozmiaru pozostałych komponentów – np. radiatorów, kondensatorów czy elementów magnetycznych.

Jedyny problem to ograniczona dostępność takich elementów – rynek cały czas czeka na tanie tranzystory GaN oraz na ich dostępność.

Moduły mocy

Poza podzespołami dyskretnymi ważną częścią rynku są moduły, zawierające one typowo 4‒6 tranzystorów w układzie mostka. W modułach umieszcza się też prostownik, diody usprawniające oraz zabezpieczające, czujnik temperatury. Czasem pojawia się dodatkowy tranzystor do realizacji korekcji współczynnika mocy. Takie komponenty znajdują się w ofertach wielu producentów półprzewodników i stanowią bazę konstrukcyjną większości falowników, napędów i regulatorów. Moduły stanową zwartą konstrukcję o dobrych parametrach w zakresie odprowadzania ciepła, przy jednoczesnym zapewnieniu izolacji galwanicznej od radiatora. Gwarantują łatwy montaż i sparowane elementy, pozwalają na wygodne połączenie (śruby lub konektory) i są dużo tańsze od rozwiązania na elementach dyskretnych.

Nie tylko półprzewodniki

Poza półprzewodnikami elektronika dużych mocy łączy w całość wiele innych specjalizowanych produktów związanych z odprowadzaniem ciepła, jak radiatory, wentylatory, bloki chłodzące lub systemy chłodzenia wodnego. W grupie tej są także transformatory, filtry przeciwzakłóceniowe i inne części znajdujące się w takich urządzeniach. To również kable i złącza przeznaczone do prądów stałych o dużym natężeniu i pracy w trudnych warunkach środowiskowych, przekaźniki (styczniki) i urządzenia zabezpieczające umożliwiające podłączanie lub odłączanie gałęzi ogniw, liczniki energii/bezpieczniki. Cały czas na znaczeniu zyskują też superkondensatory.

Znaczenie tych komponentów uwypukla elektromobilność, bo w takich aplikacjach zwykle typowym problemem jest zapewnienie szybkiego ładowania akumulatora dużym prądem, a więc z użyciem ładowarki dużej mocy, kabli chłodzonych cieczą, złączy zdolnych do pracy przy wysokim napięciu stałym i podobnych.

Branże o największym potencjale zakupowym komponentów mocy
 
Najbardziej wartościowym odbiorcą podzespołów dużej mocy w Polsce są firmy przemysłowe, a w dalszej kolejności firmy oświetleniowe, te związane z energetyką odnawialną i motoryzacją. W przemyśle i motoryzacji odchodzi się dzisiaj od rozwiązań mechanicznych, a wiele innych modernizuje poprzez zamianę silnika lub układu wykonawczego na elektryczny z układem sterowania. Najbardziej widać to w samochodach, które zyskują elektryczne sprężarki klimatyzacji, układy wspomagania, pompy i siłowniki, których częścią są elektroniczne sterowniki nierzadko zawierające wiele nowoczesnych podzespołów mocy.

Długie czasy dostaw i wzrost cen

Długie czasy dostaw, z jakimi cały czas zmaga się rynek, oznaczają coraz wyższe koszty komponentów. To oczywista zależność, która jest dzisiaj dodatkowym problemem dla rynku dystrybucji. Ceny podzespołów zwiększają się na skutek splotu wielu czynników, takich jak wzrost kosztów surowców, transportu, kosztów pracy, na skutek dużej inflacji pojawiającej się przy okazji tłumienia skutków pandemii a także tego, że duży popyt rynku pozwala na podwyżki. Ceny poszukiwanych, zaawansowanych elementów podwoiły się, a spekulanci oferują niektóre pozycje nawet 7‒8-krotnie drożej niż 2 lata temu. To oczywiście są skrajne przypadki, niemniej oddające to, czym dzisiaj żyje branża. Poza cenami, negatywnie na rynek wpływa też niestabilna sytuacja u inwestorów przejawiająca się przesunięciami terminów lub rezygnacją z inwestycji. Niestety fakty są takie, że wzrost cen materiałów, kosztów pracy i mediów zmusza do przeliczenia opłacalności wielu inwestycji i projektów.

Napędy silników i inwertery solarne

Impuls rozwojowy dla komponentów dużej mocy tworzą także napędy silników wykorzystywane w aplikacjach przemysłowych. Są to falowniki ze sterownikami umożliwiającymi płynną regulację obrotów, zmianę kierunku wirowania i z miękkim rozruchem. Falowniki takie generują na wyjściu trójfazowe napięcie, które zasila bezpośrednio uzwojenia silnika indukcyjnego (asynchronicznego i synchronicznego) i mają wysoką sprawność. Falownik może być zasilany z sieci jednofazowej lub trójfazowej (w zależności od mocy). Napięcie to jest prostowane a następnie falowane, czyli zamieniane na przemienne napięcie trójfazowe o regulowanej częstotliwości.

Podobną zasadę działania mają inwertery solarne. W tym przypadku stałe napięcie dostarczane przez panele PV jest zamieniane na przemienne napięcie (jedno- lub trójfazowe), o parametrach identycznych jak to, co jest w sieci. Zgodność częstotliwości, fazy i wartości napięcia wyjściowego inwertera solarnego umożliwia oddawanie energii do sieci energetycznej. Cechą falowników solarnych jest to, że stałe napięcie wejściowe dostarczane przez ogniwa (panele) PV może zmieniać się w szerokich granicach od kilkunastu do kilkuset woltów.

Najważniejsze trendy pozytywne sprzyjające rozwojowi komponentów mocy
 
Wszystkie istotne zjawiska zmieniające dzisiejszą technikę są korzystne z punktu widzenia zapotrzebowania na półprzewodniki mocy, bo opiera się na nich innowacyjność i potencjał elektromobilności, systemów zasilania energią odnawialną, nowoczesnego oświetlenia i wielu innych produktów przynoszących komfort, funkcjonalność i oszczędności.

Miniaturyzacja

Wiele aplikacji elektroniki mocy pracuje dzisiaj z napięciami przekraczającymi 500 V i prądami wykraczającymi poza 100 A, czyli z mocą sięgającą 10 kW. Takie granice wyznaczają aplikacje w transporcie szynowym, motoryzacji elektrycznej oraz w sprzęcie przemysłowym. Bez względu na to, współczesne urządzenia muszą być możliwie nieduże. Wprawdzie w instalacjach dostępność miejsca nie jest zwykle problemem, miniaturyzacja jest ważnym trendem w energoelektronice, bo pozwala na większą integrację, lepszą swobodę aplikacyjną oraz otwiera nowe możliwości w zakresie zastosowań. Budowane w oparciu na podzespołach mocy falowniki, zasilacze, ładowarki mają uniwersalną konstrukcję i mogą być aplikowane w różnych systemach. Mniejszy sprzęt ma niewątpliwie szerszy zakres takich możliwości.

Wiadomo, że do miniaturyzacji konieczne jest zwiększenie sprawności konwersji energii elektrycznej, stąd w tym temacie nieustannie pojawiają się na rynku ważne innowacje. Lepsze parametry komutacyjne podzespołów dużej mocy (np. SiC i GaN) zapewniają większą sprawność, pozwalając zmniejszyć liczbę elementów wykonawczych i tym samym ograniczyć zajmowane miejsce w obudowie urządzenia. Z kolei mniejsza liczba elementów to także oszczędność pieniędzy, prostsze sterowanie i serwisowanie. Wysoka sprawność to też mniejsze koszty chłodzenia, zasilania, ale także lepszy potencjał modernizacyjny. Wiadomo, że starsze rozwiązania falowników, zasilaczy, przełączników mogą nierzadko pracować przez długie lata i charakteryzują się dużą niezawodnością. W takiej sytuacji zmianę produktu na nowy mogą zapewnić tylko znacząco lepsze parametry, na przykład sprawności, które są w stanie przekonać firmy do opłacalności inwestycji. Dlatego w temacie sprawności wiele się dzieje.

Najważniejsze czynniki negatywne dla rynku
 
W zestawieniu czynników negatywnie oddziałujących na rynek podzespołów do aplikacji dużej mocy najistotniejsze są kłopoty wynikające z długich czasów dostaw. Problemem są również wysokie ceny nowoczesnych komponentów tego typu oraz ograniczona dostępność półprzewodników SiC/ GaN wynikająca z małego potencjału wytwórczego przemysłu oraz tego, że przede wszystkim elementy te trafiają do samochodów elektrycznych. Ograniczona podaż w połączeniu z dużym popytem branży motoryzacyjnej powodują, że dla "reszty" tych elementów zostaje niewiele. Na trzeciej pozycji uplasowała się silna konkurencja na rynku, która w obszarze typowych półprzewodników krzemowych jest problemem głównie ze strony producentów chińskich.

Dla miniaturyzacji istotne są też zagadnienia związane z odprowadzaniem ciepła. Sprawne chłodzenie sprzyja miniaturyzacji, dlatego wiele innowacji nie kończy się na strukturach półprzewodnikowych, ale dotyczy także obudów komponentów. Wiele nowych rozwiązań półprzewodników mocy ma specjalnie zaprojektowane obudowy pod kątem aplikacyjnym, tak aby można było osiągnąć wysoki stopień integracji i dobre odprowadzanie ciepła. Takie zjawiska są charakterystyczne głównie dla branży motoryzacyjnej oraz wybranych rynków półprofesjonalnych, np. napędów silników BLDC w sprężarkach klimatyzatorów. W takim miejscu silnik, falownik i sterownik są zintegrowane w formie jednego komponentu.

Przekaźniki elektromagnetyczne

Przekaźniki elektromagnetyczne uznawane są za produkty perspektywiczne, zawsze dobrze dopasowane do aktualnych wymagań technicznych. Zapewniają dużą odporność na chwilowe przeciążenia, przepięcia i stany nieustalone oraz możliwość komutacji sygnałów dużej mocy, zarówno przy wysokim napięciu, jak i przy dużym natężeniu prądu. Ważną cechą jest też mały opór w stanie załączenia, czego nie da się uzyskać w przekaźnikach półprzewodnikowych na wysokie napięcia i mają pomijalnie mały upływ w stanie rozwarcia styków. Mimo wielu zmian w technice i ogromnego postępu w technologii, w wielu zastosowaniach (np. bezpieczeństwo) nie mają konkurencji.

W ofertach producentów przekaźników widocznych jest coraz więcej typów o funkcjonalności i parametrach dostosowanych do wymagań aplikacji. Do niedawna przekaźnik był postrzegany jako coś bardzo uniwersalnego, który można było używać w zasadzie dowolnie, obecnie okazuje się, że czasem warto sięgnąć po rozwiązanie aplikacyjne. Przykładem mogą być wersje solarne, zdolne do komutacji obwodów mocy prądu stałego, rozwiązania odporne na uderzenia prądu udarowego, o podwyższonej odporności izolacji, bistabilne. Czasy, gdy przekaźnik dobierało się na podstawie paru parametrów, już dawno się skończyły – poza obszarem aplikacyjnym, typem trzeba też decydować o wymaganiach środowiskowych, obudowie, opcjach dodatkowych jak np. wskaźnik zadziałania, wbudowanym elemencie gaszącym przepięcia, systemie gaszenia łuku elektrycznego, przycisku testującym itp. Do tego dochodzą opcje montażu, parametry cewki przekaźnika oraz jej moc.

Branże o największym potencjale zakupowym w zakresie przekaźników
 
Pierwsza i wyraźnie dominująca nad całą resztą pozycja przemysłu na liście branż o największym potencjale zakupowym w zakresie przekaźników nie jest z pewnością zaskoczeniem, gdyż dla wielu produktów klienci z tej grupy są najważniejsi. Kolejne trzy pozycje, tj. elektronika konsumencka, motoryzacja oraz elektronika profesjonalna (np. energoelektronika), mają wyraźnie mniejsze znaczenie i zostały ocenione podobnie – jako istotne wskazał je mniej więcej co drugi lub trzeci ankietowany. Z uwagi na uniwersalność przekaźników i powszechność ich użycia w wielu aplikacjach wykres można traktować jako potencjał zakupowy poszczególnych branż w realiach Polski bez precyzowania czego on dotyczy.

Jakość oczkiem w głowie

Na rynku przekaźników widoczny jest stały wzrost zainteresowania klientów w stronę produktów wysokiej jakości i tych produkowanych przez renomowanych producentów. Przyczyn tego zjawiska jest wiele, na przykład rosnące koszty pracy i tym samym drożejący serwis. To także coraz większy eksport krajowych przedsiębiorstw, coraz więcej urządzeń i aparatury w fabrykach oraz większe skomplikowanie techniczne nowych instalacji. W Polsce szybko rozwijają się rynki związane z produkcją maszyn, sektorem budowlanym i postępuje automatyzacja wielu dziedzin.

Rozwój produkcji inicjuje też popyt na systemy kontroli i sterowania, co zawsze stymuluje popyt na przekaźniki. Wiele krajowych firm produkuje i eksportuje urządzenia dla przemysłu, takie jak sterowniki, regulatory, urządzenia pomiarowe, styczniki, systemy bezpieczeństwa i nadzoru. W ramach inwestycji i modernizacji starszych zakładów i linii produkcyjnych kupowane są nowe maszyny i budowane do nich instalacje oraz systemy. Strumień sprzedaży dla przemysłu tworzą też elektronika profesjonalna, energoelektronika, motoryzacja, systemy alarmowe. Nie są to filary rynku odpowiedzialne za zbyt przekaźników, ale z pewnością mające znaczenie.

Liczne inwestycje producentów europejskich w automatyzację produkcji spowodowały, że wytwarzanie przekaźników wymaga mniej pracy ręcznej niż dawniej, więc jakość jest lepsza przy jednocześnie niższej cenie. Ceny przekaźników markowych nie są już dzisiaj w dużej dysproporcji w stosunku do tych tańszych i nierzadko różnica pomiędzy wersjami staje się niewarta starań. Co więcej, w ostatniej dekadzie w technologii przekaźników zaszło sporo korzystnych zmian poprawiających jakość i trwałość tych elementów, przez co działy utrzymania ruchu w przemyśle kupują obecnie relatywnie mniej tych elementów niż kiedyś. To też ogranicza zapędy do oszczędzania.

Jakie znaczenie dla biznesu firmy mają przekaźniki?
 
Dla co trzeciej firmy produkcyjnej lub dystrybucyjnej przekaźniki są kołem zamachowym dla biznesu i osią jej specjalizacji. Dla ponad połowy dostawców przekaźniki elektromagnetyczne są jedną z wielu produktów będących w ofercie. Taki wynik to zapewne rezultat tego, że przekaźniki są potrzebne i poszukiwane, a duży popyt przy rosnącym ciągle rynku elektroniki i automatyki zapewnia poprzez dużą wielkość sprzedaży możliwość oparcia na nich działalności.

Przede wszystkim przemysł

Rozwój rynku przekaźników determinują głównie zastosowania przemysłowe, co wynika po prostu z tego, że niezmiennie od lat branża ta jest wiodącym odbiorcą tych komponentów, wykorzystując je w instalacjach, urządzeniach i maszynach oraz komponentach automatyki przemysłowej. Wiele krajowych firm produkuje i eksportuje urządzenia dla przemysłu, takie jak sterowniki, regulatory, urządzenia pomiarowe, styczniki, systemy bezpieczeństwa i nadzoru. Rośnie nieustannie skomplikowanie procesów wytwarzania, które wykorzystują coraz więcej urządzeń i sprzętu technicznego. W ramach inwestycji i modernizacji starszych zakładów i linii produkcyjnych kupowane są nowe maszyny i budowane do nich instalacje i systemy. Wiele dzisiaj się mówi o wdrażaniu inteligentnych rozwiązań produkcyjnych, koncepcji Przemysłu 4.0 i tym, że w warunkach krajowych firmy produkcyjne stawiają na jakość. Te procesy co do zasady wiążą się z użyciem coraz to większej liczby urządzeń elektronicznych. W wielu z nich gdzieś jest zwykle jakiś przekaźnik.

Strumień sprzedaży dla przemysłu tworzą też elektronika profesjonalna, energoelektronika, motoryzacja, systemy alarmowe. Nie są to filary rynku odpowiedzialne za zbyt, ale z pewnością mające znaczenie. Niemniej rynek AGD wyraźnie stracił na znaczeniu, co jest skutkiem ekspansji przełączników elektronicznych.

Najważniejsze trendy w przekaźnikach
 
Miniaturyzacja przekaźników została uznana za najważniejsze zjawisko techniczne zmieniające rynek, nie tylko przekaźników, ale wszystkich komponentów elektromechanicznych. Kolejne generacje urządzeń są coraz mniejsze i jednocześnie bardziej złożone, miejsca na płytkach drukowanych i w obudowach jest coraz mniej, co tworzy oczekiwania na wersje małe, ale wydajne. Mały pobór mocy przez cewkę elektromagnesu także spisuje się w to zjawisko, wraz ze zwiększającym się udziałem elektroniki mobilnej i sprzętu zasilanego z baterii. W tak zdefiniowanych warunkach zwiększa się popularność wersji bistabilnych.

Wiele pozornie drobnych usprawnień

Przekaźnik elektromagnetyczny jest komponentem znanym od dziesiątek lat, ale sukcesywnie wprowadzane są ulepszenia, które zapewniają, że produkty te cały czas ewoluują. Takie usprawnienia to m.in. coraz więcej wersji, gdzie moc pobierana przez cewkę została wyraźnie ograniczona, wersje ciche, przekaźniki bistabilne, rozwiązania z przyciskiem testującym, kontrolką, a nawet przezroczyste obudowy pozwalające na wizualną kontrolę stanu styków. Sporo usprawnień dotyczy podłączenia przewodu w wersjach przemysłowych, w tym popularyzacji zacisku sprężynowego, większej liczby dostępnych akcesoriów, większej oferty w zakresie przekaźników w obudowach szczelnych.

E-mobilność też tworzy zapotrzebowanie na wersje specjalne, a więc zdolne do komutacji wysokich napięć stałych, czyli wyposażonych w systemy gaszenia łuku elektrycznego, wersje ze stykami odpornymi na sklejanie się od wysokich prądów udarowych.

Warto też dostrzec, że rośnie liczba przekaźników z wbudowaną elektroniką do montażu na szynie DIN. Są to wersje czasowe, nadzorcze, wykrywające brak fazy, włączające oświetlenie na noc itp. Są to takie rozwiązania klasy "małej automatyki", czyli przekaźnik z dodatkiem, użyteczne, niedrogie. Sterowanie oświetleniem w garażu, wentylacją w hali, załączanie oświetlenia przeszkodowego i podobne zadania, nie wymagają złożonych sterowników oraz programowana, ale jednocześnie czegoś więcej niż sam przekaźnik.

Poza kwestiami technicznymi przekaźniki zyskują szczelne obudowy zapewniające odporność środowiskową, mające wzmocnioną izolację między cewką i stykami, a w ich kartach katalogowych pojawiają się kolejne certyfikaty jakości potwierdzające deklaracje producenta.

Komputery jednopłytkowe

Komputery jednopłytkowe to produkty, które są dostępne w minimum kilkudziesięciu wersjach, typach, różniących się wyposażeniem, możliwościami i ceną. Celem jest to, aby zaproponować klientowi produkt jak najlepiej dopasowany do jego potrzeb, bez konieczności przepłacania za niewykorzystywane interfejsy, złącza, pamięć, komunikację itd. Nowe technologie w zakresie procesorów, zaawansowanie technologii półprzewodnikowej oraz technik pakowania w ramach układu SoC przynoszą nie tylko mniejsze wymiary płytek z komputerami, ale także coraz mniejszy pobór mocy i większe zasoby. Efekty są imponujące, bo nieźle wyposażony komputer zajmuje dzisiaj na płytce tylko 20 cm².

ile kiedyś na rynku komputerów jednopłytkowych wyścig technologiczny odnosił się głównie do rosnącej wydajności, to obecnie zdecydowana większość komputerów ma ją na tyle dużą, że wystarcza ona do ogromnej większości aplikacji, a liczy się pobór mocy, wysoka skala integracji w ramach jednego SoC, duża liczba dostępnych interfejsów oraz często także wydajna grafika, pozwalająca wyświetlać multimedia. Najlepszy z punktu widzenia rynku jest produkt o dużej mocy obliczeniowej, ale mały i energooszczędny, na dodatek niedrogi. Oczywiście wiele tych zależności jest w opozycji do innych, np. wydajność vs. pobór mocy, ale co do zasady producenci nieustanne starają się wypracować jakiś jeszcze lepszy kompromis. Efektem jest szybki postęp technologiczny oraz wiele interesujących produktów i nowości pojawiających się co roku w sprzedaży.

Najważniejsze dla klientów cechy ofert brane pod uwagę przy wyborze SBC
 
Komputer jednopłytkowy jest komponentem do budowy większego urządzenia lub systemu, stąd jego parametry, takie jak wydajność procesora, zasoby pamięci, dostępność komunikacji, interfejsy i podobne mają znaczenie pierwszorzędne. One definiują funkcjonalność i obszar aplikacyjny, stąd w największym stopniu przyciągają uwagę projektantów. Kolejne dwa kryteria, to czas dostawy i długoterminowa dostępność produktu, czyli zobowiązanie producenta, że produkt będzie w ofercie przez kilkanaście lat. Niska cena jest dopiero na piątej pozycji na wykresie.

IoT i przemysŁ 4.0

Przemysłowy Internet Rzeczy oraz Przemysł 4.0 to dwa ważne trendy, które zmieniają współczesną elektronikę i często rozwiązania tego typu opierają się na użyciu komputera jednopłytkowego: standardowego, SoM/ CoM lub w postaci jakiejś popularnej platformy open source. Urządzenia tego typu wykorzystywane są w automatyce przemysłowej, sieciach komputerowych i telekomunikacyj nych, a także wszystkich aplikacjach "smart". Są bazą automatów sprzedaży, kiosków informacyjnych, stacji pomiarowych, rozrywki i reklamy. Są to przykłady takich rozwiązań, gdzie niezbędny jest jakiś komputer. Można dyskutować, czy w danym zastosowaniu wystarczy jeszcze mikrokontroler, czy już potrzebna jest większa wydajność, ale w praktyce decyzje są wielowymiarowym zagadnieniem. Coraz większa ilość zbieranych danych, przetwarzanie ich na krawędzi (wejściu) w oparciu o algorytmy AI/ML, większe wymagania co do wizualizacji, pracy w czasie rzeczywistym i podobne czynniki powodują, że trzeba sięgać po coś lepszego w zakresie funkcjonalności, czyli mikroprocesor. Komputer jednopłytkowy, duży lub mały SoM staje się w takich okolicznościach adekwatny.

Standard mechaniczny, czyli Form Factor

W obszarze komputerów jednopłytkowych ważną rolę odgrywają standardy zapewniające możliwość korzystania z produktów wielu producentów. Chodzi o zapewnienie zgodności mechanicznej i pinowej, użycie jednakowego złącza, zasilania itd. Korzystając z rozwiązań standardowych, można zapewnić sobie większą swobodę wyboru producenta. Oparcie projektu na popularnym standardzie jest istotne, gdy trzeba zapewnić długoterminową dostępność produktów, np. rzędu 15 lat. Dostępność komputerów z wielu źródeł zaopatrzenia jest w tym bardzo pomocna, czyli standaryzacja łagodzi nieco problemy z niedostępnością elementów. Jest wiele różnych źródeł komputerów jednopłytkowych w określonych standardach rozmiarów, np. 3,5", co sprawia, że szukanie zamienników i reagowanie na problemy z dostawami jest prostsze.

Standard to z reguły tzw. form factor (kształt i wymiary produktu), który determinuje podstawowe cechy płytek zawierających komputery jednopłytkowe, w tym rozmieszczenie złączy, punkty mocowania, chłodzenie, podłączenie zasilania. Co do zasady, specyfikacje elektryczne, użyte chipy i procesory nie mieszczą się w tej definicji. Za standardem wymiarowo- pinowym zwykle kryje się jakieś stowarzyszenie czy konsorcjum, które dba o promocję, zgodność produktów pomiędzy producentami i o podobne działania.

Najważniejsze właściwości techniczne komputerów jednopłytkowych
 
Idealny komputer powinien mieć wbudowanych wiele interfejsów, dzięki którym jego integracja z aplikacją będzie łatwa, powinien pobierać niewielką moc przy jednocześnie dużej wydajności, mieć małe wymiary i stanowić odporną na narażenia środowiskowe konstrukcję pracującą niezawodnie przez lata. Oznacza to, że wybór jednostki jest procesem wielowymiarowym, wymagającym wielu kompromisów i dobrego zrozumienia swoich potrzeb. Wielowymiarowość oznacza, że kompromis w zakresie specyfikacji technicznej musi być jeszcze powiązany z marką producenta, ceną, formatem, architekturą procesora i dostępnym oprogramowaniem.

Wspólną cechą jest to, że jest ich dużo, aby łatwo było się rozeznać, bo często w ramach danej grupy funkcjonują jeszcze podformaty. Na przykład w ITX kryją się: Mini, Nano, Pico i Femto. W innych rozwiązaniach te wariacje na temat się numeruje albo dodaje literki wskazujące na typ użytej magistrali, jak PCIe104, PCI104 Express, lub podkreśla większą funkcjonalność jak w PC104-Plus. Duże płytki, takie jak EBX, można rozbudować o moduły, w tym o warianty PC104, co sprawia, że są to rozwiązania konfigurowalne. Z kolei format EPIC charakteryzuje się tym, że płytki takie mają zwykle wiele linii I/O, zunifikowane złącza wzdłuż krawędzi płytki drukowanej i możliwość układania modułów rozszerzeń PC104- Plus.

Standardy są popularne w branżach i zastosowaniach: automatyce, branży rozrywkowej lub wojsku. Te dla hobbystów i makerów, w tym Raspberry Pi (85 × 56 mm), rzadko mają te branżowe rozmiary. Część producentów nie zaprząta sobie głowy normalizacją i tworzy własne konstrukcje – popularnym formatem jest płytka o wielkości pamięci DRAM do peceta, bo łatwo dla niej kupić złącza i wiele oprogramowania inżynierskiego ma takie komponenty w bibliotekach. W przypadku modułów COM/SOM standardów nie ma wcale, tak samo kompatybilności pinowej, za to są maleńkie wymiary, np. moduły procesorowe 40 × 40 mm lub komputerki w formacie karty PCI Express Mini 51 × 35 mm.

Wartościowi odbiorcy komputerów
 
Komputery jednopłytkowe są produktem uniwersalnym, niemniej jak widzimy z wykresu, wartościowo dominują zastosowania z obszaru automatyki przemysłowej, na drugim miejscu uplasował się sektor reklamy i rozrywki (automaty do gier, reklamy, kioski informacyjne i podobne). Odrobinę mniej wskazań zebrały zastosowania omawianych produktów przez producentów OEM do wytwarzanych maszyn, urządzeń i systemów.

Kolejną cechą charakterystyczną jest to, że kolejne wersje są coraz mniejsze. Większość nieprzemysłowych i niestandardowych SBC jest również bardzo mała, dlatego form factor rozmiar nie jest w ich przypadku tak ważny. Eksperci twierdzą, że kształt płytki zbliżony do kwadratowego najlepiej zmniejsza skutki wstrząsów i wibracji, a także pomaga w uzyskaniu stabilnego mocowania, ale faktem jest, że znakomita większość omawianych produktów jest prostokątna.

Komputery jednopłytkowe SOM/COM

Są to małe modułowe rozwiązania pozwalające na zamontowanie ich na własnej płycie bazowej (aplikacyjnej) w podstawce. Długa żywotność, doskonałe parametry, możliwość wymiany na wersję o większych zasobach, przetestowana i dopracowana w szczegółach konstrukcja razem z atrakcyjną ceną są najważniejszymi atutami takich rozwiązań.

Gdy taki komputer przestanie być dostępny lub nie będzie w stanie zapewnić wystarczających zasobów, można go stosunkowo łatwo zastąpić nowszym, podczas gdy reszta systemu, w tym I/ O, zasilacz, złącza, okablowanie i wymiary fizyczne pozostają dokładnie takie same. Pozwala szybko i ekonomicznie nadążać za rozwijającą się technologią. Można też łatwo przejść do innej marki w razie problemów z jakością, dostępnością lub ceną. Ponadto klienci mogą tworzyć wiele konfiguracji swoich systemów, wybierając dla każdego inny moduł na podstawie wymaganej wydajności i przy założonej cenie.

Popularne procesory według liczby sprzedawanych sztuk
 
W zestawieniu popularnych procesorów pracujących w komputerach jednopłytkowych dominują 32-bitowe i 64-bitowe jednostki ARM, a po stronie Intela Atom i wersje embedded pecetowych Core i3-i7. Układy Cortex-M są na niższych pozycjach, gdyż z reguły trafiają one do mikrokontrolerów lub tworzą dodatkowy rdzeń o mniejszej wydajności w jednostkach 64-bitowych. W porównaniu do naszych poprzednich zestawień widzimy zamianę miejsc układów intelowych z armowymi, co ilustruje jak zmienia się rynek i jak sektor SBC coraz silniej opiera się na procesorach z rdzeniami ARM.

Komputery tego typu są małe, ale z reguły bez kompromisów w zakresie zasobów. Są wyposażone w wiele interfejsów przewodowych (Ethernet, HDMI, USB, SATA, M. 2, Display Port, GPIO) i bezprzewodowych (Wi-Fi/Bluetooth). Z uwagi na małe wymiary muszą być zamontowane na płycie bazowej (carrier), która rozprowadza ich magistralę na standardowe złącza peryferyjne. Takie podejście jest ekonomiczne, bo płyta bazowa nie musi być wielowarstwowa. Oczywiście nie każdy komputer ma wszystkie interfejsy, ale właśnie o to chodzi, aby kupować rozwiązania bez przepłacania za nadmiarowość. SoM/CoM zapewnia kompletne, bezproblemowe rozwiązanie, gotowe do użycia łącznie z oprogramowaniem, gdyż producenci poza sprzętem dostarczają obrazy systemów (Linux, Android).

Podobnie jak w przypadku SBC tu także istotne są wymiary, z tym, że "form factor" nazywa się tutaj "footprint", a rozkład wyprowadzeń nazywa się "type". Jest około 8 typów, przy czym najczęściej używane rozkłady wyprowadzeń to "Type 6" i "Type 10".

Popularne formaty (footprint) to COM Express: mini (55 × 84 mm), compact (95 × 95 mm), basic (95 × 125 mm) i extended (110 × 155 mm). Oddzielną kategorią formatową jest wykonanie podobne do modułu pamięci laptopowej SODIMM (67 × 32 mm), które pozwala użyć tych samych podstawek. Jeszcze inne formaty funkcjonujące na rynku to Qseven i SMARC.

Najważniejsze zjawiska pozytywne dla rozwoju rynku komputerów jednopłytkowych
 
Za najważniejsze czynniki sprzyjające rozwojowi rynku komputerów jednopłytkowych uznano rosnące znaczenie cyfryzacji przemysłu i stały wzrost znaczenia Internetu Rzeczy. Za bardzo ważne postrzegane są małe wymiary takich urządzeń zapewniające łatwość integracji oraz to, że producenci gwarantują ich długą dostępność. Jeszcze dekadę temu 10-letnie longevity było jakimś wyróżnikiem liderów, dzisiaj daje się kupić wybrane komputery z gwarancją dostępności przez 15-18 lat.

Czym się różnią SBC, SOM/COM?

SBC, to zwyczajowa nazwa małego komputera wykonanego w formie jednej płytki drukowanej, ale zawierającego złącza interfejsów i zintegrowane elementy peryferyjne (np. moduł komunikacji bezprzewodowej, dysk SSD, moduł TPM). Jest to produkt gotowy do działania, który nie wymaga żadnych prac przygotowawczych po stronie hardware.

Moduł SoM (System-on-Module) lub CoM (Computer on Module) to także komputer wykonany w formie małej płytki, integrujący zazwyczaj mikroprocesor (MPU), pamięci RAM i Flash oraz – opcjonalnie moduł radiowy Wi-Fi/BT. Na złączach SoM dostępne są konfigurowalne sygnały I/O interfejsów dostępnych w MPU, które użytkownik/ projektant samodzielnie konfiguruje, dostosowując je do potrzeb aplikacji. SoM-y wymagają zaprojektowania przez użytkownika carrier-boarda, który będzie wyposażony w peryferia wymagane przez aplikację docelową (interfejsy komunikacyjne, dysk SSD, modem LTE, specyficzne interfejsy komunikacyjne itp.).

Zwykle w tej roli jest używana płyta bazowa (carrier) dostarczana przez producenta SOM-ów razem w komplecie, ale finalnie producenci opracowują własne, specyficzne rozwiązania płyty bazowej (tzw. aplikacyjne). Zatem SBC to kompletny komputer o ustalonej przez producenta konfiguracji sprzętowej, podczas gdy system na SoM składa się z co najmniej dwóch płytek.

Czasy dostaw są dotkliwym problemem

Długie czasy dostaw negatywnie oddziaływają na całą branżę elektroniki, a na część związaną z komputerami jednopłytkowymi wpływ ten jest bardzo duży. Na skutek tego projekty ulegają raczej skróceniu i rozdrobnieniu, np. zamiast finansować rozbudowany projekt, klienci wolą mniejsze urządzenia, ale z możliwością modularnego rozbudowywania w przyszłości. Bo w ten sposób ponoszą mniejsze ryzyko. W świecie komputerów jednopłytkowych to zjawisko premiuje wersje standardowe (wymiary, rozkład wyprowadzeń), bo ułatwia zamianę w razie pojawienia się kłopotów. Mikroprocesor jest cały czas najważniejszym komponentem w omawianych produktach, ale z innymi rynek też ma kłopoty, np. modułami do komunikacji bezprzewodowej, pamięciami, a nawet podzespołami pasywnymi.

A kolejnym kłopotem są podwyżki cen

Braki oznaczają coraz wyższe koszty komponentów. Ceny poszukiwanych, zaawansowanych elementów elektronicznych zostały wywindowane przez spekulację, zdublowane zamówienia oraz przez gromadzenie zapasów. Dla większości przedsiębiorstw widmo przestojów w produkcji, opóźnień w realizacji projektu, groźba niedotrzymania warunków umowy oraz inne podobne zjawiska prowadzą do wzrostu presji na dział zakupów i niestety konieczności płacenia dużo więcej. Kiedyś ratunkiem były źródła azjatyckie, ale teraz tam też ceny wzrosły. W efekcie wzrostu cen materiałów, kosztów pracy i mediów konieczne staje się przeliczenie opłacalności wielu inwestycji i projektów.

Najważniejsze czynniki negatywne dla rynku SBC
 
Czynniki negatywne dla rozwoju rynku to oczywiście długie czasy dostaw, które niestety w dużej mierze dotyczą procesorów wykorzystywanych w takich produktach. Na kolejnych dwóch miejscach wymieniono "tradycyjne" bolączki rynku elektroniki, tj. niewielką orientację klientów w rynku, produktach i technologiach a także dużą konkurencję. Co ciekawe, platformy open source nie były wcześniej wymieniane jako konkurencja dla produktów firmowych i kryterium to dalej pozostaje na podobnej skali.

Konkurencja ze strony platform open source będzie się zwiększać

Wykorzystanie sprzętu o gorszych właściwościach w bardziej zaawansowanych aplikacjach zawsze było widoczne na rynku elektroniki i dotyczyło wielu branż, łącznie z wojskiem, gdzie "commercial-of-the-shelf", czyli seryjny produkt komercyjny dostępny "z półki" w zastosowaniu wojskowym, jest od wielu lat uznanym podejściem projektowym. Najczęściej zjawisko to dotyczy zakresu temperaturowego i urządzeń przeznaczonych do pracy na zewnątrz budynków, także tych działających w trudnych warunkach przemysłowych, systemach monitoringu i bezpieczeństwa, automatach sprzedaży itp.

W takich aplikacjach próbuje się używać tańszych produktów konsumenckich, wszędzie tam, gdzie warunki nie są aż tak bardzo krytyczne, zastosowania nie tak odpowiedzialne jak w systemach mission critical, a rynek jest wrażliwy na cenę, jest szansa, że może się to udać, o ile aplikowanie sprzętu konsumenckiego nie będzie całkowicie bezmyślne. Wraz ze wzrostem zaawansowania technologii półprzewodnikowej nawet tanie chipy działają w relatywnie szerokim zakresie temperatur i granice między tymi do zastosowań profesjonalnych i konsumenckimi nie są tak wyraźnie rozdzielone. Tańsze procesory i pamięci produkowane są na tych samych urządzeniach i liniach technologicznych co inne i zakres temperaturowy ustalany jest za pomocą selekcji u producenta. Zwykle mają spory zapas w stosunku do specyfikacji i na tym opiera się cały koncept. Skutkiem tych procesów jest to, że tanie i popularne komputery jednopłytkowe, czego doskonałym przykładem może być Raspberry Pi, mają całkiem dobre parametry środowiskowe i są z powodzeniem aplikowane w aplikacjach komercyjnych, odbierając rynek rozwiązaniom specjalizowanym.

Platformom open source najbardziej brakuje wieloletniej dostępności, przez co ich możliwości aplikacyjne sięgają jedynie obszaru półprofesjonalnego, a więc takiego o łagodnych wymaganiach i aplikacji, które nie są wytwarzane latami. Ale cały czas jest dla nich sporo zastosowań. Oczywiście szybka ewolucja rynku produktów tej kategorii jest problemem, bo nowości pojawiają się bardzo często i równie szybko mogą zniknąć. Brakuje też stabilności oprogramowania, wersji produktu i spełnienia wielu innych kryteriów charakterystycznych dla świata profesjonalnego, niemniej część projektów jest w ten sposób realizowana.

Rola takich komputerów może w przyszłych latach jeszcze się trochę zwiększyć, gdyż oferta produktowa szybko się poszerza w kierunku bardziej wydajnych i rozbudowanych sprzętowo jednostek, bazujących na 32-bitowych rdzeniach mikrokontrolerów.

ARM-y na szczycie

Od wielu lat w obszarze komputerów jednopłytkowych procesory ARM systematycznie umacniały swoją pozycję, gdyż zapewniały małe zużycie energii przy wystarczającej wydajności. Nie wymagały do pracy wentylatorów i można było je łatwo zintegrować z innymi blokami funkcjonalnymi w ramach SoC. ARM-y w świecie SBC korzystały ponadto z pozycji jaką elementy te mają na innych rynkach, a więc dużej dostępności od wielu producentów, wielu narzędziom i oprogramowaniu projektowemu oraz także bardzo przekrojowej ofercie, w której każdy mógł znaleźć dla siebie dobrze dopasowane rozwiązanie.

Mamy układy z rodziny Cortex- M o niewielkiej mocy obliczeniowej znane ze świata mikrokontrolerów, są wydajniejsze jednostki 32-bitowe Cortex- A5-A9 i 64-bitowe takie jak Cortex- A35, A53. W sumie jest to kilkadziesiąt rdzeni, które każdy z producentów obudowuje w liczne układy peryferyjne: interfejsy, komunikację, tworząc dziesiątki, jeśli nie setki wersji.

Procesory ARM stopniowo przejmowały udziały w rynku, przede wszystkim kosztem Intela (Core i Celeron w wersjach embedded oraz Atom). 7‒8 lat temu ich udział w rynku można było szacować na 30‒40%, 3 lata temu układy Intela przeważały na wykresie popularności poszczególnych typów, a dzisiaj są na czele.

Wyświetlacze

Jasny i kontrastowy wyświetlacz o wysokiej rozdzielczości z ekranem dotykowym jest tym samym centralnym elementem wielu urządzeń elektroniki profesjonalnej i razem z mikrokontrolerem jest pierwszym komponentem, który wybiera się do nowych projektów. W konsekwencji rynek wyświetlaczy rozwija się bardzo dynamicznie, a nowości produktowe pojawiają się na nim co chwilę.

Nowości

Z racji dużego znaczenia i dużej liczby technologii funkcjonujących na rynku, nowości w zakresie wyświetlaczy też jest wiele. Nowych rozwiązań i dostępnych opcji jest na tyle dużo, że nie da się inaczej niż ogólnie ich opisać, bo niestety trzeba by się mocno zagłębić w szczegóły techniczne.

Rośnie liczba dostępnych przekątnych ekranu i rozdzielczości, jakie ma matryca, proporcji boków, dostępnych interfejsów. Pojawiają się zaawansowane kontrolery, opcje związane z szerokim zakresem temperatur pracy, dużym kątem obserwacji, czytelnością w warunkach silnego oświetlenia słonecznego. Dostawcy wyświetlaczy tworzą też grupy produktów, wokół których możliwa jest łatwa migracja, czyli zmiana wyświetlacza nie wiąże się z kłopotliwymi zmianami układu elektronicznego i dużymi modyfikacjami oprogramowania. Zwykle takie zmiany dotyczą wielkości przekątnej, rozdzielczości oraz typu panelu dotykowego, ale nierzadko sięgają też głębiej, obejmując zmiany technologii np. TFT na OLED oraz możliwość wybrania kilku opcji sterowania dotykiem (rezystancyjna, pojemnościowa, z opcją wielokrotnego dotyku).

Sławomir Szweda


prezes Unisystem

  • Jakie wyświetlacze e-papierowe są w naszym kraju najpopularniejsze, patrząc przez pryzmat przekątnej i wolumenu sprzedaży?

W Polsce największą popularnością cieszą się wyświetlacze o przekątnych 13,3 oraz 31,2 cala. Są one wykorzystywane m.in. w formie rozkładów jazdy, w systemach nawigacji wewnątrz budynków czy jako tablice informacyjne w miejscach użyteczności publicznej, menu w restauracjach itp. Większość kojarzy e-papier przede wszystkim z czytnikami e-booków, ale także z "cenówkami" w sklepach. Jeżeli weźmiemy pod uwagę liczbę sprzedawanych wyświetlaczy, to naszym numerem jeden są te o przekątnych 1,1 cala.

  • Pomijając e-booki, a najlepiej też całą elektronikę konsumencką, to jakie aplikacje wybijają się nad średnią w obszarze profesjonalnym?

Zdecydowanie będą to aplikacje transportowe, a dokładniej związane z informacją pasażerską. W Polsce coraz częściej można spotkać e-papierowe rozkłady jazdy komunikacji miejskiej (np. w Gdyni, Poznaniu). Coraz bardziej popularne staje się także wykorzystanie wyświetlaczy e-papierowych w logistyce magazynowo-produkcyjnej.

  • Jak kształtują się poziomy cen dla TFT-LCD, OLED i E-paper dla analogicznych rozwiązań o małych przekątnych?

Analizując ceny dla wyświetlaczy TFT-LCD i EPD o przekątnych w małych rozmiarach (za takie uznajemy modele do 10 cali), najtańsze będą wyświetlacze e-papierowe. W przypadku modeli i przekątnych powyżej 10 cali najtańsze będą TFT- LCD. Wyświetlacze OLED są dostępne w rozmiarach od 0,95 do 5,5 cala i w porównaniu do wcześniej wspomnianych technologii będą najdroższe. Warto jednak zaznaczyć, że minusem wyświetlaczy e-papierowych w małych rozmiarach są wymagane duże ilości MOQ.

  • Jakie ograniczenia środowiskowe mają wyświetlacze e-papierowe (żywotność, praca w wysokiej temperaturze, odporność mechaniczna, wrażliwość na EM i podobne)?

Podstawowymi problemami w implementacji wyświetlaczy e-papierowych jest ich niska odporność mechaniczna wynikająca z zastosowania bardzo cienkiego szkła. To duży problem szczególnie w przypadku modeli o dużych przekątnych, np. 31,2 cala. Maksymalna temperatura pracy dla EPD to 50°C, minimalna zazwyczaj –10°C, ale można ją obniżyć do –25°C. Wyświetlacze e-papierowe są odporne na zakłócenia elektromagnetyczne, jednak są bardzo wrażliwe na promieniowanie UV, które powoduje degradację pigmentu (zmniejsza się kontrast, blaknie czarny pigment).

Wersje dopasowane do aplikacji i integracja z obudową

Producenci elektroniki mają dzisiaj znacznie większe możliwości dopasowania wyświetlacza do projektowanego urządzenia, tak aby pasował idealnie pod względem elektrycznym, mechanicznym i funkcjonalnym. Potocznie nazywa się to kastomizacją (customizacją), co może brzmi okropnie, ale niestety na razie tak być musi, bo nie mamy w języku polskim jednowyrazowego terminu określającego dopasowanie produktu do specyficznych wymagań klienta.

Kiedyś kastomizacja była dostępna dla dużych firm, które były w stanie wyłożyć spore sumy pieniędzy na bezzwrotne koszty przygotowania zamówienia o indywidualnych cechach i oczywiście kupić też dużą partię. Dzisiaj próg wejścia jest znacznie niższy, a ponadto część prac biorą na siebie dystrybutorzy. Bezzwrotne koszty takich modyfikacji z roku na rok maleją i tym samym usługi stają się coraz bardziej przystępne. Polegają one na zamontowaniu wyświetlacza w obudowie w przygotowanym oknie, sklejeniu ekranu z panelem za pomocą kleju przeźroczystego w warunkach wykluczających pozostawienie brudu, przyklejenie ekranu płyty frontowej i podobnych czynnościach. Częściowe lub pełne dopasowanie do projektu klienta wyświetlaczy TFT, OLED, oraz paneli dotykowych polega dostosowaniu kształtu, rozmiaru, koloru oraz innych parametrów technicznych.

Ważne i poszukiwane funkcje techniczne
 
Poszukiwane funkcje techniczne wyświetlaczy, takie jak czytelność przy oświetleniu słonecznym, szeroki zakres temperatur pracy czy też kompletne rozwiązanie wyświetlacza z panelem dotykowym to cechy poszukiwane przez producentów urządzeń przemysłowych, specjalistycznych rozwiązań budynkowych, medycznych i podobnych. Wysoko oceniono także kompatybilność mechaniczną i pinową między poszczególnymi wersjami, co sugeruje, że znaczna część aplikacji funkcjonuje na rynku przez długi czas.

Usługi dotyczą też obudów, a więc montażu wyświetlacza w przygotowanym oknie. W przypadku wersji z dotykiem montaż ekranu jest bardzo istotny, bo musi zapewnić trwałość przy naciskaniu. Małe obudowy, trzymane w ręku, są podatne na wyginanie i montaż musi kompensować niewielkie przemieszczenia.

Mateusz Papierowski


Application Manager w firmie Masters

  • Jakie wyświetlacze e-papierowe są w naszym kraju najpopularniejsze, patrząc przez pryzmat przekątnej i wolumenu sprzedaży?

Najpopularniejsze w naszym kraju są wyświetlacze e-papierowe o małych i średnich rozmiarach. Patrząc z naszej perspektywy, są to wyświetlacze o przekątnych od 1,54" do 3,1". Na ten moment czynnik cenowy oraz cechy wyświetlaczy EPD nie sprzyjają popularyzowaniu dla większych przekątnych.

  • Pomijając e-booki, a najlepiej też całą elektronikę konsumencką, to jakie aplikacje wybijają się nad średnią w obszarze profesjonalnym?

Wyświetlacze e-papierowe znajdują zastosowanie głównie w aplikacjach bateryjnych wyświetlających w głównej mierze obraz statyczny. Bardzo dobrze sprawdzają się w aplikacjach takich jak: etykiety sklepowe, identyfikatory, piloty do automatyki domowej i bramowej, rozkłady jazdy na przystankach, tablice informacyjne i edukacyjne.

  • Jak kształtują się poziomy cen dla TFT-LCD, OLED i E-paper dla analogicznych rozwiązań o małych przekątnych?

Technologia e-papier niestety jest wciąż droga i cechuje się najwyższą ceną w porównaniu z wyświetlaczami typu TFT-LCD czy OLED. Natomiast dzięki swoim szczególnym właściwościom wyświetlacze EPD w niektórych typach aplikacji są po prostu niezastąpione.

  • Jakie ograniczenia środowiskowe mają wyświetlacze e-papierowe?

Rozważając zastosowanie wyświetlaczy e-papierowych, należy mieć na uwadze kilka istotnych kwestii. Po pierwsze wyświetlacze te nie lubią długiej bezczynności – np. wielomiesięcznego przechowywania w magazynach. Również zakres temperatur pracy nie jest zbyt szeroki i wynosi typowo od 0 do 50°C, a niekiedy od –10°C do 60°C. To ograniczenie. Mimo tych ograniczeń wciąż jest wiele możliwości stosowania tej interesującej technologii.

Nowe technologie stają się coraz bardziej dostępne

Wzrost zainteresowania e-papierem i OLED widoczny w ostatnich czasach to proces wynikający z tego, że na rynku elektroniki większe znaczenie mają aplikacje zasilane z baterii, a więc zagadnienia niskiego poboru mocy wysuwają się na pierwszy plan. Druga przyczyna to taka, że ceny tych produktów spadły i wyświetlacze te przestały być luksusem. Obie te technologie są znane od dwóch dekad, co oznacza, że właściwości, technologia, maszyny do produkcji zostały dopracowane, a wady "wieku niemowlęcego", np. związane z małą trwałością, już dzisiaj nie istnieją

.

problemu można kupić wyświetlacze tego typu o małych przekątnych, a więc takie, które najczęściej są używane w elektronice, zarówno jako elementy graficzne, jak i zamienniki alfanumeryczne dla typowych wersji modułowych. Podobne zjawiska można zaobserwować w zakresie wyświetlaczy typu e-paper, a więc w jednostkach, które wykorzystywane są w ksią żkach elektronicznych.

Zasilacze dużej mocy

Do każdego urządzenia elektronicznego potrzebna jest energia, stąd zapotrzebowanie na zasilacze można wskazać w praktycznie każdej dziedzinie techniki, bo są to urządzenia uniwersalne i bez których nie można się obyć, dlatego wraz z inwestycjami w telekomunikacji, transporcie, w przemyśle, kolejnymi firmami, rynek zasilaczy znacząco się zwiększa i przyciąga nowych dostawców. Od zasilaczy żąda się coraz więcej, a lepsze parametry takie jak sprawność, miniaturowe wymiary lub zdolność do chwilowego przeciążania, muszą iść w parze z niską ceną, co sprawia, że tytułowy rynek jest bardzo wymagający.

Jeszcze dekadę temu miarę jakości zasilaczy tworzyła waga. Im zasilacz był cięższy, tym z reguły był lepszej jakości, bo lekki miał mniejsze radiatory, niewydajne filtry i transformator bez żadnego zapasu. Dzisiaj ta reguła niestety już tak nie działa, bo poszczególne jednostki mogą różnić się istotnie od strony technologii konwersji energii, a dodatkowo duża sprawność takich jednostek powoduje, że ogólnie zasilacze są lżejsze niż jeszcze parę lat temu.

Bez względu na to, szczęśliwie świadomość rynku co do istoty zagadnień zasilających się zwiększa tak samo jak podejście do jakości. Jest ona znacząco większa niż dla tych małych jednostek stosowanych w elektronice konsumenckiej. Klienci z branż odległych od elektroniki przemysłowej z reguły nie chcą płacić więcej za produkty renomowane i o gwarantowanej jakości, raczej kupują jednostki najtańsze i nawet jak później urządzenie nie działa prawidłowo, nie są w stanie powiązać anomalii z kiepskim zasilaniem i nietrafionym wyborem. Część z nich uczy się na błędach i takie ryzyko jest dla nich nauczką na przyszłość niemniej, ponieważ temat "psucia rynku" przez tanie zasilacze azjatyckie od lat jest dyżurnym tematem branży, zapewne takie wpadki nie są powodem do chwały i firmy skrzętnie je ukrywają. Ci związani z branżą profesjonalną działają bardziej odpowiedzialnie, stąd wybór produktu przez pryzmat niskiej ceny szczęśliwie nie jest jedynym obowiązującym.

Piotr Szukaj


Product Manager w firmie Masters

  • Rola certyfikatów, dopuszczeń i formalnych papierów w przetwornicach DC- DC. Czy klienci patrzą na takie dokumenty i są one ważnym kryterium selekcji produktu?

W dzisiejszych czasach nie ma już urządzeń elektronicznych, które nie podlegałyby określonym certyfikacjom (emisyjności, odporność, czy zgodności z wymogami CE) jako gotowe wyroby. Aby sprostać tym wymaganiom konstruktorzy oczekują komponentów spełniających określone normy, co ułatwia im "przejście" wymaganych certyfikacji całego urządzenia. Układy zasilania są pod szczególną kontrolą ze względu na impulsowy charakter działania i emisję zaburzeń.

  • Kto kupuje konwertery DC-DC w Polsce?

Przetwornice DC/DC są stosowane w projektach w różnych konfiguracjach, od klasycznych przetwornic niskonapięciowych o niewielkich prądach, gdzie najczęściej królują rozwiązania dyskretne, przez zasilacze większych mocy lub wyższych napięć, aż po wersje izolowane. Najczęściej właśnie te dwie ostatnie grupy, czyli zasilacze izolowane lub o większej mocy, znajdują zastosowanie u klientów w formie modułowej. Przekrój odbiorców jest szeroki, od rozwiązań medycznych przez urządzenia informacji pasażerskiej w transporcie, po typowo przemysłowe zastosowania.

  • Jakie parametry techniczne są najważniejsze dla klientów (rozmiar, sprawność, montaż, zakres temp.)?

Z racji szerokiego przekroju aplikacji klientów, a co za tym idzie zróżnicowanych wymagań, trudno jednoznacznie uszeregować istotność parametrów technicznych. Jeśli jednak miałbym je uporządkować, to na pierwszym miejscu byłyby wymagane certyfikaty. W przypadku wersji izolowanych zasilaczy istotna jest klasa izolacji, na kolejnych miejscach byłaby kolejno sprawność, minimalna obciążalność, sposób montażu i gabaryty. Jeśli chodzi o zakres temperatur pracy, to w większości przypadków producenci proponują produkty z zakresem od –40 do +85°C, co jest w 99% aplikacji zupełnie wystarczające.

Ogromna rola podzespołów SiC/GaN

W przypadku zasilaczy dużej mocy poprawa wielu ważnych parametrów technicznych wiąże się z użyciem nowych generacji podzespołów półprzewodnikowych. Dotyczy to wielu zagadnień, a przykładem może być mała moc pobierana z sieci bez obciążenia, która wynosi kilkadziesiąt miliwatów nawet w wydajnych, kilkusetwatowych zasilaczach przemysłowych. Aby zapewnić taki rewelacyjny wynik, konieczne jest użycie zaawansowanych kontrolerów scalonych, które potrafią dynamicznie zmieniać topologię konwersji energii w funkcji stopnia obciążenia, uruchamiają tryby oszczędnościowe, gdy zasilacz jest nieobciążony itp.

Zaawansowany kontroler zmienia też dynamicznie częstotliwość kluczowania tranzystorów po to, aby ograniczyć straty mocy wynikające z komutacji, a więc aby zapewnić większą sprawność zasilacza. Taki układ zwykle dzisiaj pracuje w topologii rezonansowej, która zapewnia małą emisję zaburzeń elektromagnetycznych i realizuje przełączanie tranzystorów w zerze napięcia lub prądu.

Kolejnym bardzo istotnym elementem są tranzystory przełączające, które powinny zapewnić małe straty na przewodzenie (jak najmniejszy spadek napięcia w czasie przewodzenia) oraz na komutację (w czasie przełączania). Dodatkowo tranzystory takie powinny mieć jak największe napięcie znamionowe. Zapewnia to oczywiście dużą odporność na przepięcia pojawiające się w sieci energetycznej, ale także ogranicza straty energii wynikające z konieczności tłumienia przepięć na transformatorze, powstających w wyniku przełączania.

Naturalnym kandydatem do nowoczesnej jednostki zasilającej są elementy wykonane z azotku galu, niemniej na razie nie widać na rynku, aby takie jednostki zasilającej się pojawiały masowo w ofertach. Rynek czeka na tanie tranzystory GaN oraz na ich dobrą dostępność. Na razie trafiają one głównie do elektrycznej motoryzacji, gdzie stanowią bazę konstrukcyjną inwerterów i konwerterów. W zasilaczach też niewątpliwie będą, ale prawdopodobnie jak rynek dystrybucji się uspokoi i ceny ustabilizują.

Główne zjawiska techniczne w zasilaczach
 
Na liście najważniejszych zjawisk technicznych w zasilaczach uznano wysoką sprawność konwersji energii, a na drugiej pozycji znalazła się miniaturyzacja, która jest ze sprawnością oczywiście silnie powiązana. Sprawność powyżej 90% pozwala na to, że zasilacze nawet kilkusetwatowe mają niewielkie wymiary i nie wymagają chłodzenia wymuszonego. Możliwość chwilowego przeciążania to cecha pożądana przez klientów z obszaru przemysłu, gdyż ułatwia ona zasilanie maszyn z silnikami, które pobierają dużą moc podczas rozruchu. Większa odporność na stany nieustalone, lepsze zabezpieczenia, możliwość dopasowania produktu do wymagań użytkownika, zdalna kontrola stanu i wiele innych funkcji są dzisiaj także częściej brane pod uwagę. Dalsze kryteria mają już podobne znaczenie, a wspólnym mianownikiem dla nich jest funkcjonalność charakterystyczna dla zastosowań przemysłowych, teleinformatycznych lub w medycynie.

Zagadnienia związane z energią odnawialną i elektromobilnością

Coraz więcej systemów zasilających staje się bardziej skomplikowanych z uwagi na to, że nie bazują one już jedynie na jednym źródle energii, tj. sieci energetycznej. Popularyzacja energii odnawialnej i elektromobilności w transporcie wymusza dostosowanie zasilaczy także do takich źródeł i odbiorników. Oznacza to możliwość podłączenia akumulatora, zdolność do zasilania napięciem stałym wahającym się w szerokim zakresie, możliwość przeciążania i łączenia równoległego. To także działanie dwukierunkowe, w której kierunek energii może zostać odwrócony po to, aby doładować akumulator jako ładowarka. Taka funkcjonalność jest podstawą działania systemów odzyskiwania energii w napędach.

Sprawność jest i będzie bardzo istotnym parametrem

Duża sprawność konwersji energii zawsze jest istotnym parametrem selekcji zasilacza, bez względu na przeznaczenie i moc wyjściową. W przypadku jednostek dużej mocy przekracza ona już istotnie 90%, czasem jest to już nawet ponad 95% dla pełnego obciążenia i generalnie taki rewelacyjny wynik pozwala na wykonywanie zasilaczy mniejszych, bo w nich zagadnienia związane z odprowadzaniem ciepła nie są tak bardzo uwypuklone. Większa sprawność to mniej ciepła, a więc też mniejszy zasilacz. Ponieważ mniejszy, to też tańszy, a skoro jest on podczas pracy chłodniejszy, to zasilacz jest tym samym bardziej niezawodny. Są to proste zależności, które od lat zmieniają branżę od strony technologii. Mała, ale wydajna jednostka zasilająca ułatwia instalację, pozwala na lepszą integrację z konstrukcją urządzenia lub maszyny oraz z dużym prawdopodobieństwem jest nowocześniejsza od większych (starszych) rozwiązań.

Kolejny skok sprawności zapewnią nowe półprzewodniki, a więc GaN-y. Niemniej, aby trafiły pod strzechy, muszą być tańsze i dostępne, stąd cały czas zasilacze wykonane w tej technologii ogląda się niestety tylko na zdjęciach. Duża sprawność w kolejnych latach dalej będzie na topie, bo energia elektryczna drożeje. Wysoka sprawność to oszczędność energii zasilającej, a więc mniejsze rachunki, a także dzisiaj dłuższy czas pracy z danej pojemności akumulatora.

Nowoczesne złącza i innowacyjne systemy połączeniowe

Uszkodzenie pojedynczego złącza elektrycznego jest niekiedy w stanie zatrzymać pracę całego zakładu. Wybór odpowiedniego typu elementu może nie tylko zmniejszyć ryzyko wystąpienia takiego zdarzenia, ale także skrócić czas ewentualnego przestoju w przypadku awarii. Wybór właściwego złącza może mieć krytyczne znaczenie, szczególnie w aplikacjach przemysłowych, warto zatem przygotować się do tego zagadnienia starannie oraz z uwagą.

Charakterystyczną cechą rynku złączy jest bardzo mała standaryzacja tych produktów, co jest skutkiem istnienia dużej liczby producentów, ogromnego portfolio produktów i szybkiej ewolucji technologicznej (złączy i produktów je wykorzystujących). Ujednolicenie dotyczy niewielkiego obszaru produktów do zastosowań wojskowych, a w pozostałych obszarach aplikacyjnych standard to faktycznie popularne złącze mające wiele odpowiedników.

Z roku na rok na rynku funkcjonuje coraz więcej typów elementów o specjalizowanej konstrukcji pod kątem zastosowań i standardów branżowych. Rynek kieruje się ku specjalizacji, a ona wymusza tworzenie konstrukcji dopasowanych do wymagań aplikacyjnych, np. do nowej wersji interfejsu komunikacyjnego, do specyficznego czujnika itd. Poszerza to asortyment i pozwala producentom na ucieczkę technologiczną do przodu, w kierunku zaawansowania technicznego elementów połączeniowych, unikatowych rozwiązań styku, z drugiej strony niestety skraca czas życia produktów. Przykładem może być interfejs USB, gdzie nowa wersja "C" szybko wypycha obecnie na margines wersje "B".

Takie działania powodują, że liczba typów, wykonań, marek jest ogromna i sprawia klientom problemy z zaopatrzeniem. Gdy produktów jest mniej i daje się wyróżnić popularne i często używane typy, to czasy ich dostaw są krótkie, bo dystrybutorzy mają je często w lokalnych magazynach buforowych. W przeciwnej sytuacji trzeba czekać o wiele dłużej. Sytuacja ta sprzyja niestety dostawcom zamienników i wyrabia w klientach konserwatywne zachowania, bo nowe produkty kojarzą się z kłopotami.

Duży asortyment powoduje, że dokładna orientacja w ofercie ze znajomością szczegółów i niuansów staje się rzadkością, zwłaszcza w przekrojowym aspekcie obejmującym wielu producentów. Prowadzi to do wielu nietrafnych wyborów, preferowania tego, co się zna i wcześniej kupowało. Jednocześnie jest to znak, że wymagania klientów w zakresie wsparcia technicznego są duże, a firmy kompetentne mogą budować długofalowe relacje z klientami w oparciu o nie. Bo klienci zawsze wracają do tych, którzy się znają i pomagają w decyzjach i problemach.

Jacek Woźniak


dyrektor sprzedaży w firmie WAGO ELWAG

  • Wystarczy przejrzeć ofertę dostawców złączy w Internecie lub pójść na targi branżowe, aby przekonać się, że wiele oferowanych produktów stanowią zamienniki lub podróbki wyrobów czołowych marek. Jak się odnajdujecie w takiej rzeczywistości?

Trzeba rozróżnić zamienniki od podróbek. Te pierwsze nie mają negatywnego oddziaływania na rynek, zawsze były i będą jego częścią. Zamienniki rozwiązują identyczny problem związany z koniecznością połączenia jakiegoś obwodu elektrycznego, ale w inny, równoważny sposób. Natomiast podróbki to nieuczciwe kopiowanie rozwiązań wymyślonych przez jakąś firmę przez inną, produkty udające te oryginalne, a więc wykorzystujące potencjał marki oryginalnej.

Konkurowanie na zdrowych zasadach z innymi producentami, promowanie swojej myśli technicznej pozytywnie oddziałuje na rynek, zmusza wszystkie podmioty w branży do rozwoju i walki o klienta. Gdy na rynku pojawiają się kopie wyrobów, ta dobra konkurencja zmienia się w działanie nieuczciwe, bo za niższą ceną takich produktów najczęściej kryją się gorsze materiały oraz jakość wykonania, brak niezbędnej certyfikacji i spełniania wymogów formalnych. Dzięki ominięciu takich kosztownych etapów produkty te są tańsze i wywołują wojnę cenową z marką oryginalną. Taki sposób działania nie przyczynia się do tworzenia zdrowych relacji.

  • Jaką skalę mają te zjawiska w stosunku do Waszego biznesu?

Nasze produkty często stają się wzorem dla takich nieuczciwych konkurentów, bo widzimy, jak często nasze złącza są podrabiane. Dla firmy jest to wielowymiarowy problem, zarówno ekonomiczny, jak i wizerunkowy. Czołowe firmy i wiodące marki, walcząc z takimi podróbkami i rozwiązaniami, które obliczone są na przebicie się na rynku niską ceną, mają niełatwe zadania i z reguły stawiają na tworzenie innowacji, liczne i praktycznie ciągłe usprawnienia albo edukację klientów w tym, że warto zapłacić nieco więcej za produkt pewny. Na koszty należy patrzeć całościowo i z perspektywy czasu, a nie tylko w chwili zakupu oraz odnieść ewentualną różnicę w cenie między pojedynczym elementem markowym a podróbką do tego, jakie mogą być konsekwencje ewentualnej awarii. Jakość elementu złącznego może przenieść się na złe działanie urządzenia i spowodować negatywne postrzeganie marki producenta. Wystarczy, że sprężyna w złączu zostanie wykonana z kiepskiego materiału, aby mikroskopijny, groszowy wręcz, zysk po stronie kosztów przeniósł się na kiepską jakość całego urządzenia. Z roku na rok coraz więcej naszych odbiorców jest świadomych takich zależności i tego, że wyboru produktu trzeba dokonywać nie tylko pod kątem ceny.

Jeszcze 5–10 lat temu konkurowanie z producentami podróbek było dla wszystkich markowych producentów złączy sporym problemem. Dzisiaj rynek krajowy ma znacznie lepszą świadomość jakości, a dobry stan gospodarki sprzyja zainteresowaniu pewnymi produktami. Krajowe firmy nie muszą już walczyć o każdy grosz w zakresie materiałów do produkcji i stać je na to, aby kupować dobre rozwiązania.

Jeszcze 5–10 lat temu konkurowanie z producentami podróbek było dla wszystkich markowych producentów złączy sporym problemem. Dzisiaj rynek krajowy ma znacznie lepszą świadomość jakości, a dobry stan gospodarki sprzyja zainteresowaniu pewnymi produktami. Krajowe firmy nie muszą już walczyć o każdy grosz w zakresie materiałów do produkcji i stać je na to, aby kupować dobre rozwiązania.

Małe, ale bez kompromisów

Nowoczesne złącza muszą być coraz mniejsze, a w przypadku elementów sygnałowych, gdzie wyprowadzenia nie przenoszą dużych mocy, oczekiwań rynku nie ma co hamować. W efekcie wiele nowych konstrukcji pod względem precyzji wykonania, upakowania i rozwiązań konstrukcyjnych detali mechanicznych przypominają pod kątem precyzji i zaawansowania szwajcarskie zegarki. Trend na upakowanie pinów i mniejsze rastry jest bardzo silny. Szczególnie imponujący postęp nastąpił w ostatnich latach w złączach międzypłytkowych (mezzanine connectors), elementów łączących PCB z taśmą elastyczną i rozwiązań dla szybkich interfejsów cyfrowych, np. USB typu C lub LVDS. W nich piny mają grubość włosa, a raster nie wykracza poza 0,5 mm. Obudowy nowoczesnych konstrukcji omawianych elementów są mniejsze dzięki większej precyzji wykonania detali, lepszym tworzywom sztucznym oraz wyrafinowanej konstrukcji mechanicznej, np. zapewniającej możliwość korekcji położenia wtyku w stosunku do gniazda i ograniczenia naprężeń mechanicznych.

Pozytywnym aspektem wiążącym się z miniaturyzacją jest wzrost zaawansowania technicznego wypychający z rynku słabszych producentów pod względem stosowanej technologii oraz w pewnym stopniu eliminujący też tandetę. Miniaturowe elementy nie dają szansy osiągnięcia znaczących oszczędności materiałowych, a jednocześnie wymagają posiadania parku maszynowego najwyższej klasy.

Wiele instalacji realizowanych jest w niekorzystnych warunkach: na zewnątrz budynków, przy słabym oświetleniu, w niewygodnej pozycji, przez co ryzyko błędu jest spore. Dlatego wiele złączy pozwala na zakodowanie połączenia, czyli na zamontowanie zabezpieczenia mechanicznego uniemożliwiającego włożenie złej wtyczki w gniazdo, niemniej kodowanie nie zapobiega możliwości uszkodzenia elementów złącza i nie zawsze jest możliwe. Oprócz kodowania stosuje się blokady przed rozłączeniem połówek obudowy w postaci zatrzasku lub dźwigni z blokadą, która ułatwia zamontowania dużych elementów i jednocześnie przypadkowe rozłączenie.

Najważniejsze trendy techniczne rynku złączy
 
Za główne trendy techniczne zmieniające rynek złączy dla elektroniki ankietowani uznali technologie związane z szybkim montażem przewodu, miniaturyzację oraz dostępność wersji do montażu automatycznego na płytkach drukowanych. Szybki montaż przewodu to przede wszystkim zacisk sprężynowy, technika IDC przeznaczona do kabli wstążkowych, a także wszystkie wersje elementów typu płytka-płytka, gdzie elementem pośrednim jest elastyczny obwód drukowany typu flex. Montaż automatyczny oznacza takie elementy, które mogą być układane lub montowane wyłączne za pomocą automatów, głównie są to wersje SMD oraz elementy typu THR.

Liczba wersji SMD systematycznie się zwiększa

Wersje SMD złączy sygnałowych są naturalnym krokiem rozwoju produktowego i wymaganiem nakładanym i potrzebę automatyzacji. W przypadku, gdy obciążalność styków nie jest kluczowym czynnikiem, wydaje się, że zmiana na SMD nie powinna być problemem. Ale to tylko pozory, bo okazuje się, że małe pola kontaktowe wywołują problemy ze stabilnością mechaniczną i możliwością oderwania elementu od laminatu. Mimo że wiele elementów SMD ma większe pola lutownicze, to złącze do montażu powierzchniowego o dużej trwałości mechanicznej, odporne na siłowe wpychanie wtyczki w gniazdo, jest cały czas wielkim wyzwaniem. Stąd zresztą pojawia się wiele pomysłów wersji do montażu automatycznego, ale przez otwory w płytce. Wszystkie te rozwiązania opierają się na tym, aby element montować w otworach wykonanych na PCB, gdyż zapewniają one możliwość jego ciasnego zaklinowania i pozwalają przenosić obciążenia wzdłużne, a więc takie, jakie pojawiają się przy wyciąganiu lub wkładaniu wtyczki do gniazda. Są to technologie takie jak THR (Thru Hole Reflow) oraz wciskanie prasą (press fit).

Maciej Boczar


Branch Manager Conec Polska

  • Jakie znaczenie dla sprzedaży złączy ma praca z klientem, wsparcie, dokumentacja i próbki?

To wszystko ma duże znaczenie i w swojej pracy spotkałem się nawet z opiniami, że klienci doceniają jakość katalogów Conec czy wysoką jakość rysunków technicznych. Oznacza to, że na stabilnym i uporządkowanym rynku liczą się nawet drobne szczegóły. Praca z klientem jest podstawą w długofalowym budowaniu biznesu, a nie jest to łatwe. Cierpliwość jest często kluczem do sukcesu. Próbki są znakomitym wsparciem sprzedaży dla inżynierów, bo możliwość zobaczenia produktu na żywo jest dla nich ważna. Pracownicy działów zakupów liczą na nasze wsparcie w zakresie logistyki, wycen czy dokumentacji. Nie wolno też zapominać, że sprzedaż nie jest końcem obsługi klienta. Należy też sumiennie podejść do ewentualnych reklamacji, choć te, z dumą przyznam, zdarzają się bardzo rzadko.

Jakość – najważniejszy termin w złączach

Bezsprzecznie jednym z ważniejszych zjawisk biznesowych na całym rynku elektroniki w ostatniej dekadzie jest ogromny wzrost presji na jakość, czyli na trwałość, powtarzalność, dokładność wykonania, zgodność produktów ze specyfikacją i zamówieniem itd. W złączach trend ten jest szczególnie istotny, bo jakość jest głównym orężem do walki z podróbkami, chińską tandetą, kiepskimi zamiennikami itd.

Wielu dostawców konkuruje ze sobą praktycznie tylko ceną i niestety walka o koszty zaopatrzenia zachodzi tutaj kosztem jakości. Skutkuje serią negatywnych konsekwencji, które specjaliści określają jako tzw. psucie rynku. Poza wpadkami jakościowymi (niska trwałość, niestabilna konstrukcja, parametry wykraczające poza specyfikację, podatność na wpływ środowiska, kiepskie materiały pochodzące ze złomu, niedokładne wykonanie i podobne), takie elementy wypychają z rynku wyroby dobre.

Zainteresowanie jakością to splot wielu czynników, m.in. bogacenia się krajowych przedsiębiorców, coraz większej wymiany handlowej z zagranicą, dużego potencjału usług EMS realizowanych na zlecenie partnerów zagranicznych i rosnących wymagań klientów. Jakość to też wartość dodana do specjalistycznej produkcji oraz sposób na konkurowanie na rynku czymś więcej niż ceną. W przypadku złączy jest to szczególnie istotne, bo często są to elementy, które pełnią krytyczną rolę konstrukcyjną i ich awaria oznacza całkowity brak działania.

Zobacz więcej w kategorii: Rynek - archiwum
Produkcja elektroniki
Produkcja urządzeń elektronicznych
Komponenty
Podzespoły elektroniczne
Projektowanie i badania
Badania i rozwój
Komponenty
Komponenty automatyki przemysłowej
Komponenty
Komponenty automatyki przemysłowej
Komponenty
Podzespoły elektroniczne
Zobacz więcej z tagiem: Produkcja elektroniki
Gospodarka
Unisystem x SoMLabs – współpraca, która wzmacnia europejski rynek elektroniki
Prezentacje firmowe
Loadpoint - zaawansowane rozwiązania precyzyjnego cięcia dla wymagających branż
Opinie
Analizy procesów i dokumentacja techniczna - tworzyć, czy nie?

Jak kompensować moc bierną w małej firmie, by płacić mniej za energię bierną?

Z reguły małej firmy nie stać na zakup automatycznego kompensatora mocy biernej. Niemniej, sytuacja nie jest bez wyjścia i w tym artykule na prostym przykładzie pokazane zostało podejście do rozwiązania problemu mocy biernej.