Laboratoria badania urządzeń elektronicznych

Badania urządzeń elektronicznych pod kątem kompatybilności elektromagnetycznej, odporności na wpływ środowiska oraz na narażenia mechaniczne stały się w ostatnich latach częścią zapewnienia wysokiej jakości w elektronice oraz istotnym elementem procesu projektowania. Badania i pomiary w laboratoriach tworzą więc w pracy inżynierskiej niezbędne sprzężenie zwrotne, praktycznie weryfikujące zastosowane rozwiązania układowe i jakość wybranych komponentów. Dlatego ich znaczenie rynkowe będzie cały czas rosło, a zakres realizowanych badań będzie się nieustannie poszerzał

Nietrudno dostrzec, że takich norm definiujących wymagania techniczne dla urządzeń, warunki pomiarów parametrów i testowania funkcjonalności przybywa, gdyż z jednej strony, jak wspomniano, nasycenie elektroniką stale rośnie i tym samym ryzyko wzajemnych interakcji, a z drugiej strony sprzęt pełni coraz bardziej odpowiedzianą funkcję w naszym życiu. Bierze się to także ze stale rosnącego stopnia skomplikowania urządzeń oraz z tego, że ewolucja techniczna jest coraz szybsza. Normy muszą być tym samym stale aktualizowane, rozszerzane, pojawiają się nowe regulacje po to, aby objąć kontrolą nowy obszar rynku. Przykładem z ostatnich lat mogą być stacje ładowania samochodów elektrycznych i ogólnie zagadnienia związane z elektryczną motoryzacją, gdzie zachodzi konieczność sprawdzania punktów ładowania pod kątem bezpieczeństwa, współpracy z siecią energetyczną oraz oczywiście także EMC.

Czynniki sprzyjające zlecaniu badań do laboratoriów
 
Na liście czynników, które w największym stopniu sprzyjają zlecaniu badań urządzeń do wyspecjalizowanych placówek badawczych, wyróżniają się trzy pozycje: wymagania prawne, złożoność zagadnień oraz to, że placówki te zatrudniają kompetentnych specjalistów. Wspólnym mianownikiem dla tych trzech zagadnień jest wiedza na temat tego, co badać, w jaki sposób i jeśli wyniki są złe, to co z tym można zrobić. To ostatnie zagadnienie staje się coraz ważniejsze, bo sprzęt jest coraz bardziej złożony, wymagań stale przybywa, przepisy się zmieniają, a czasu na zgłębianie zagadnień jest coraz mniej.

Odpowiedzialne zadania oznaczają to, że bardzo często awaria lub zakłócenie działania wiąże się z dużym ryzykiem finansowym i zagrożeniem dla zdrowia, dlatego normy tworzą granice wyznaczające, co jest akceptowalne, a co nie. Porażenie prądem elektrycznym, zagrożenie pożarem są najbardziej wymownymi przykładami takich obszarów, gdzie regulacje wynikają z ograniczania zagrożeń dla życia ludzkiego, ale poza tymi najbardziej wymownymi jest ich więcej.

Normy, dyrektywy i przepisy są potrzebne, gdyż bez jasnych wskazówek rynek nie doszedłby do konsensusu w zakresie wymagań. Nawet przy szczegółowych normach zawsze ktoś znajdzie jakiś wyjątek, jak żarówka wolframowa "do celów technicznych", zasilacz dwuwyjściowy lub jeszcze coś innego na wymiganie się od obowiązków. Dobrym przykładem rynkowego klinczu są zwykłe konsumenckie baterie jednorazowe, na których próżno szukać informacji o pojemności, co pozwoliłoby na ich porównywanie. Producenci jej nie podają, bo nie ma jednoznacznych norm pomiaru ich pojemności, np. przez wykazanie dopuszczalnych końcowych napięć rozładowania, prądu, temperatury itp. Efekt jest taki, że producenci publikują jedynie ogólne krzywe rozładowania i nie podają liczbowo wartości pojemności po to, aby uniknąć porównań.

W dalszej kolejności takie akty prawne wymuszają zmiany na rynku elektroniki w sposób celowy i są tym samym częścią polityki państw lub wspólnot związanych z ochroną klimatu i środowiska. Przykładem mogą być wymagania dyrektyw RoHS i WEEE w zakresie ochrony środowiska, wymagania Ekoprojektu związane ze sprawnością energetyczną zasilaczy. Normy i przepisy definiują też pośrednio jakość, bo umożliwiają porównanie urządzeń różnych producentów, tworząc jednakowe warunki kontrolne.

OCENA ZGODNOŚCI, CZYLI JAKOŚCI

Badania urządzeń elektronicznych w coraz większym stopniu kojarzą się z wysoką jakością produktów, a klienci coraz bardziej zwracają uwagę na dokumenty i certyfikaty potwierdzające zgodność z wymaganiami. Być może jest to trochę spowodowane dużą liczbą nadużyć, jakie dawniej towarzyszyły procesowi oceny zgodności, a więc temu, że dawniej dokumenty nie miały pokrycia w rzeczywistości. Dokumenty z badań wystawione przez akredytowaną placówkę będącą tzw. zaufaną stroną mają obecnie na rynku realną wartość. Widać też powiększające się zainteresowanie dodatkowymi badaniami, a więc tymi niewymaganymi przepisami. To także znak, że w branży docenia się starania producenta w zakresie potwierdzenia jakości. Jest to naturalna przeciwwaga dla potencjału zalewającej rynek tysiącami sztuk tandety.

Najważniejsze cechy, jakie biorą pod uwagę firmy zlecające badania swoich wyrobów
 
Lista czynników, które firmy biorą pod uwagę, zlecając do laboratoriów badania swoich wyrobów, jest długa i jak widać z wykresu, nie ma dużych różnic pomiędzy poszczególnymi polami. Za najważniejsze uznano to, aby placówka była w stanie zaoferować pełny zakres badań, a zaraz potem to, aby kompetencje danego laboratorium miały odzwierciedlenie w akredytacji i kwalifikacjach personelu. Klienci chcą uczestniczyć w badaniach, zapewne najczęściej wówczas, gdy produkt jest w czasie opracowywania i trzeba rozwiązywać problemy braku zgodności, a na dodatek wszystkim zawsze się spieszy. Patrząc z perspektywy, na powyższym zestawieniu widdzimy duże znaczenie wszystkich kryteriów związanych z transferem wiedzy inżynierskiej z laboratorium do klienta.

NIE TYLKO KOMPATYBILNOŚĆ

Pełne spektrum badań urządzeń elektronicznych to obszerny katalog testów obejmujący badania związane z kompatybilnością elektromagnetyczną, bezpieczeństwem użytkowania, a w dalszej kolejności klimatyczne, mechaniczne i funkcjonalne (m.in. poziomu hałasu).

Takie specjalistyczne obszary to także badania odporności na impulsy HPEM (dużej mocy), badania odporności urządzeń na anomalie występujące w sieciach energetycznych m.in. zmiany częstotliwości sieci zasilającej, wahania napięcia, zniekształcenia przebiegu napięcia itp., badania zaburzeń od urządzeń PLC pracujących w liniach niskiego napięcia. Jeszcze bardziej specjalistycznie wyglądają badania fotobiologiczne, temperatury barwowej i wskaźnika oddawania barw, a także oddziaływania fal elektromagnetycznych na organizm ludzki.

Główne czynniki oddziałujące negatywnie na rozwój rynku usług badawczych
 
Listę najważniejszych czynników, które negatywnie oddziałują na rynek usług badań otwiera mała świadomość firm w zakresie ich znaczenia, czyli brak postrzegania procesu oceny produktów jako korzyści i wartości rynkowej. Niestety lata lecą, a dla wielu dystrybutorów i producentów elektroniki badania to uciążliwy i kosztowny obowiązek, z którego starają się albo całkowicie wymigać, albo zrealizować jedynie w zarysie, bo realnego zagrożenia karą nie ma. Po stronie placówek badawczych głównym problemem jest wysoki koszt aparatury niezbędnej do badań, zwłaszcza gdy trzeba zapewnić kompleksowe usługi i sprostać stale rosnącym wymaganiom metrologicznym.

Częścią oferty usług badawczych są także okresowe badania aparatury pomiarowej. Takie usługi są niezbędne w stosunku do mierników wykorzystywanych do wymaganych prawnie kontroli instalacji związanych z bezpieczeństwem pracy (BHP), okresową kontrolą instalacji elektrycznych, kontrolą mierników do badań klimatu itd. Aparatura w takich działaniach musi zapewniać bezdyskusyjny poziom jakości metrologicznej, co oznacza jej okresową kalibrację. Te usługi bardzo często świadczą producenci aparatury pomiarowej, bo oni i tak muszą mieć kalibratory do celów realizowanej produkcji, więc na ich bazie mogą świadczyć usługi, a poza tym są najlepiej przygotowani merytorycznie do takich działań. Kalibracja aparatury pomiarowej jest też częścią usług posprzedażnych, a więc takich, jak serserwis gwarancyjny i pogwarancyjny dla dystrybutorów aparatury pomiarowej, którzy traktują ją jako element kompleksowej obsługi klienta.

Firm niezależnych zajmujących się kalibracją mierników raczej nie ma, bo rynek jest niewielki, a dodatkowo bliska współpraca z producentem, czyli możliwość uzyskania dokumentacji, jest w tej pracy kluczowa.

Grzegorz Modrykamień


współwłaściciel firmy EMC Forto

  • Jeszcze pięć lat temu kompatybilność elektromagnetyczna wydawała się bardzo atrakcyjnym obszarem dla biznesu w Polsce, a obecnie widać wyhamowanie wielu działań i aktywności. Jaką zatem macie konkurencję?

Tematyka kompatybilności zawsze będzie towarzyszyła działaniom firm elektronicznych, bo ona dotyka istoty tego czym jest elektronika i jaką funkcję pełni w naszym życiu. Badania EMC są badaniami środowiskowymi produktu, który zawiera elektronikę. Nie należy oczekiwać, że kiedykolwiek temat ten przestanie być atrakcyjny, bo stale dochodzą nowe obszary wymagające kontroli, nowe normy, zjawiska wymagające uwzględnienia itp. Na rynku działają duże firmy, dla których może EMC nie jest bardzo znaczącą częścią biznesu, ale mają one ogólnie znaczny potencjał, szeroką ofertę i dużo pracowników, przez co wiele zapytań z rynku EMC mogą pozyskać przy okazji innych działań. Są też firmy bardzo małe, które też szukają kontraktów w tym obszarze.

Z pewnością rynek aparatury się zmienił w ostatnich latach, za sprawą dystrybutorów i oddziałów działających w Polsce oraz jako konsekwencja zmian w krajobrazie producentów, o czym mówiłem wcześniej. Zmiany własnościowe wśród producentów przenoszą się na rynek dystrybucji i potrafią z dnia na dzień zmienić relacje budowane latami.

  • Jak się odnosi sukcesy w sprzedaży aparatury do EMC?

Wiadomo, że liczy się wszystko, łącznie z ceną, ale za najbardziej istotne kryterium uznaję precyzyjne zrozumienie tego, czego potrzebuje klient i wskazanie na korzyści, jakie może przynieść ta inwestycja.

Drugi czynnik to renoma kryjąca się za markami EM Test i Teseq, a więc to, że można oczekiwać od firmy zachowania gwarantującego rozwój, poziom techniczny, spójność koncepcyjną, niezawodność, zgodność z normami i tak dalej. To jest bardzo ważne, bo ten sprzęt pracuje przez wiele lat i to czasem nawet na 3 zmiany.

Zmienia się też na korzyść postrzeganie zagadnień EMC. Wiedza specjalistów z tego zakresu systematycznie się zwiększa, na studiach technicznych prowadzone są już wykłady i ćwiczenia, dzięki czemu wielu młodych inżynierów nie ma problemu z istotą testowania. Osoby takie traktują sprzęt do EMC tak samo naturalnie, jak oscyloskop i rozumieją, że badania są częścią działań firm w ramach prac konstrukcyjnych i zachowania jakości. Widać to czasem po tym, jak szybko od momentu rozpoczęcia działalności takie firmy inwestują w aparaturę do EMC. To także pomaga w pracy, bo nie trzeba zawsze zaczynać od zera.

BADANIA I KONTROLE PODCZAS PROJEKTOWANIA

Projektowanie nie może być dzisiaj oderwane od tych wymagań i najlepiej, gdy konstruktorzy cały czas się nimi kierują. Inaczej osiągnięcie zgodności staje się trudne, kosztowe lub nawet niemożliwe, dlatego wiele większych firm rozbudowuje swój potencjał aparaturowy pod kątem prowadzenia samodzielnego badań kontrolnych, a na pozostałych czeka oferta placówek badawczych. Praktycznie wszystkie umożliwiają prowadzenie badań cząstkowych (inżynierskich, pre-compliance) po to, aby tworzone urządzenie na koniec przeszło przez weryfikację formalną i uzyskało dokumenty w placówce akredytowanej.

Większość placówek badawczych, które nie mają akredytacji, a więc formalnego potwierdzenia kompetencji przez PCBC, skupia się właśnie na niesieniu takiej pomocy. Placówki akredytowane także realizują badania inżynierskie, traktując je jako element kompleksowej usługi, w której dokument potwierdzający zgodność jest po prostu ostatnim etapem tej pracy.

Jarosław Kwiatkowski


dyrektor sprzedaży w firmie Wave-Test

  • Niedawno podniesione zostały dopuszczalne poziomy PEM z uwagi na zbliżającą się budowę sieci 5G. Co to zmienia?

Istniejące do niedawna poziomy dopuszczalne PEM były bardzo niskie, stąd aktualizacja norm była tylko kwestią czasu. Trzeba wiedzieć, że na świecie cały czas są prowadzone spory na temat tego, jaki poziom pól EM jest bezpieczny dla człowieka. Są też naukowcy, którzy kwestionują rzetelność oceny ich wpływu jedynie przez pryzmat wywoływanego efektu termicznego, bo organy ludzkie mają różną przenikalność, kształt, gęstość, co może wywoływać efekty rezonansowe lub podbicia natężenia w tkankach na skutek odbić. Kontrowersje są także w tym, jak mierzyć natężenie pól EM, bo tu też jest szerokie pole do interpretacji. Niemniej teraz mamy dokładnie takie obostrzenia, jak w innych krajach Europy Zachodniej. Zmiana progów PEM przynosi pośrednio potrzebę wykonywania pomiarów selektywnych i tu może pojawiać się pozytywny impuls biznesowy, bo pojawiają się już pytania ze strony niektórych instytucji o aparaturę umożliwiającą takie pomiary.

  • Co nadchodząca technologia 5G zmieni w zakresie takiej aparatury?

Jeśli chodzi o technologię 5G, to w mediach jest dużo szumu i nakręcania oczekiwań aplikacyjnych, niemniej od strony komunikacji radiowej, widma, koncepcji budowy sieci w oparciu na sieci stacji bazowych, nie ma tutaj moim zdaniem żadnej rewolucji. Przejście z pasma 2,1 GHz używanego w LTE na 3,6 GHz w 5G nie jest jakościową zmianą dla aparatury i pomiarów. Radiolinie od lat pracują przy wyższych częstotliwościach. Zmieni się jedynie to, że będzie szeroko wykorzystywana technologia wieloantenowa (MIMO) oraz będą używane wiązki kierowane śledzące ruch aparatu. Ale z punktu widzenia aparatury pomiarowej prawdopodobnie sprowadzi się to do dołączenia do przyrządu terminalu, który zapewni skierowanie emisji w jego stronę, a więc w miejsce, gdzie prowadzone są badania.

Zobacz również