Gospodarowanie energią w centrum uwagi producentów
| TechnikaRozwój urządzeń mobilnych sprawił, że wymagania dotyczące zasilania i poboru mocy stały się jednym z kluczowych czynników, jakie decydują o sukcesie produktu. Telefony komórkowe, przenośne komputery czy konsole do gier - wszystkie te urządzenia oprócz wciąż rosnącej funkcjonalności i malejących wymiarów, muszą oferować odpowiedni czas działania przy zasilaniu bateryjnym. Wyświetlacze LCD, rejestracja i odtwarzanie dźwięku oraz obrazów, a także komunikacja bezprzewodowa – to przykłady nowych modułów i funkcji instalowanych w produktach elektroniki osobistej, które wymagają zwiększenia mocy zasilania.
Projektanci często stają przed wyborem pomiędzy wyposażeniem urządzania w większą liczbę funkcji, a zmniejszeniem poboru mocy. Konsumenci wymagają długiego czasu działania urządzenia, jednak to funkcjonalność jest nadal silnym czynnikiem decydującym o popularności produktu. Obecnie używane baterie i akumulatory bardzo słabo spełniają wymagania energetyczne najnowszych produktów. Producenci, jeśli chcą odnieść sukces na rynku, zmuszeni są do redukowania poboru mocy, bez poświęcania przy tym funkcjonalności produktu.
Mimo iż urządzenia przenośne stanowią główny powód zainteresowania nowymi metodami zmniejszania poboru energii, problem wydajności zasilania nie dotyczy tylko tego segmentu rynku. Zagadnienie to jest ważne w przypadku większości urządzeń elektronicznych. Zbyt duży pobór energii obniża komfort korzystania z produktu, a tym samym przyczynia się do mniejszego zainteresowania konsumentów, czyli zmniejszenia zysków firmy. Nieuwzględnienie kwestii oszczędności energii na wczesnych etapach projektowania może być poważnym błędem. W przypadku niektórych rozwiązań, wymagających dużych mocy obliczeniowych, oszczędzanie energii pozwala zaoszczędzić znaczne kwoty na chłodzeniu systemu. Oznacza to także cichszą pracę urządzenia, ponieważ często to system chłodzący jest głównym źródłem hałasu.
Metody skutecznego sterowania energią
Odpowiednio zaprojektowany system jest nadal podstawą małego zużycia energii. Największe oszczędności uzyskuję się odpowiednio definiując działanie urządzenia na poziomie hardware oraz software. Im wcześniej przyłoży się należytą wagę do tego zagadnienia, tym większe korzyści można uzyskać. Jeśli optymalizacja pod względem poboru mocy zostanie przeprowadzona przed etapem projektowania architektury obwodu, większy nacisk zostanie położony na metody ułatwiające racjonalną gospodarkę energią. Dotychczas, kluczowy był wybór odpowiednich podzespołów oraz technologii, umożliwiając osiągnięcie stabilnej pracy oraz dużej funkcjonalności przy małym poborze mocy. Jednak coraz większe wymagania co do funkcjonalności urządzeń elektroniki konsumenckiej zmuszają producentów do stosowania bardziej zaawansowanych technik zmniejszenia poboru mocy.
Efektem wzrostu liczby tranzystorów we współczesnych obwodach scalonych, przy jednoczesnym zmniejszaniu ich wymiarów, jest występowanie negatywnych zjawisk jak upływy prądu czy nadmierne nagrzewanie się układu. Jest to tym ważniejsze im mniejszy jest wymiar charakterystyczny technologii wykonania układu. Producenci mają do wyboru wiele rozwiązań implementowanych w warstwie sprzętowej. Są one łatwiejsze do zastosowania niż rozwiązania programowe, jednak ich późniejsza modyfikacja jest utrudniona. Jest to poważną wadą, jeśli planowany jest dalszy rozwój urządzenia. U podstaw większości z tych metod leży założenie, iż nie wszystkie funkcje danego urządzenia wymagają równoczesnego lub stałego w czasie zasilania. Konieczne jest wydzielenie bloków odpowiedzialnych za poszczególne funkcje i określenie, jaka moc jest potrzebna, aby przeprowadzić te operacje. Ponieważ głównym powodem strat mocy w układach jest wydzielanie energii dynamicznej oraz upływ energii, metody zmniejszenia zużycia mocy polegają na zmianie napięcia zasilania oraz częstotliwości taktowania zegara. Są wśród nich techniki nieingerujące głęboko w strukturę urządzenia, takie jak bramkowanie zegara lub tworzenie tzw. wysp napięciowych.
Ponieważ energia tracona zależy głównie od zastosowanych napięć, dąży się więc do jak największego zmniejszenia napięcia zasilania układu. Dobrym rozwiązaniem jest podzielenie obwodu na bloki ze względu na zapotrzebowanie na energię. Regiony wykonujące najbardziej skomplikowane operację, jak procesory czy pamięć cache, mogą nadal być zasilane wyższym napięciem. Dużą oszczędność uzyskuję się wydzielając bloki odpowiedzialne za mniej skomplikowane zadania. Mogą one pracować przy mniejszej częstotliwości zegara oraz mniejszym napięciu zasilania. Technika ta wymaga zastosowania odpowiednich połączeń pomiędzy blokami, umożliwiając nie tylko wymianę danych, ale również konwersję napięć.
Innym sposobem jest bramkowanie bloków, polegające na całkowitym wyłączeniu nieużywanych segmentów. Efekt ten można uzyskać wykorzystując przełączniki wbudowane w układ. Konieczne jest zastosowanie także izolacji, oddzielającej bloki zasilane od wyłączonych.
Jak wskazują badania, sygnał zegara w komputerach pochłania od kilkunastu do kilkudziesięciu procent energii zasilania. Dużą oszczędność osiąga się przyjmując strukturę dystrybucji sygnału opartą na zegarze typu master oraz sieci zegarów od niego pochodzących, jednak różniących się częstotliwością taktowania. Pozwala to zmniejszyć rozproszenie energii przeznaczonej na funkcje zegara w układzie. Bramkowanie zegara polega na dezaktywacji sygnału zegara dla nieużywanych bloków. Przyczynia się to do znacznego zmniejszenia strat dynamicznych.
Zastosowanie powyższych technik polega na odpowiednim zaprojektowaniu układu, a kontrolę nad tymi funkcjami przekazuje się do warstwy oprogramowania. Podczas implementacji należy rozpatrzyć, które bloki odpowiadają za poszczególne funkcję, a co za tym idzie, w jaki sposób powinny być zasilane oraz zaprojektować rejestry sterujące. Typowanie bloków, które mogłyby być potencjalnie zasilane mniejszym napięciem lub pracować przy mniejszej częstotliwości, powinno się odbywać we wczesnych etapach projektu. Ważne jest, aby uwzględnić odpowiednią izolację bloków oraz sposoby ponownego uruchamiania bloków nieaktywnych. Kolejną kwestią jest konieczność buforowania danych tak, aby wyłączenie bloku nie powodowało utraty informacji.
Jak to połączyć?
Mimo, że istnieje szereg rozwiązań, ich implementacja nadal jest problemem dla producentów, gdyż zwiększają one poziom skomplikowania obwodu. Sprawia to, że użycie tych technik wymaga czasu, odpowiedniej wiedzy oraz wiąże się z ryzykiem i potencjalnymi kosztami. Z tego powodu wiele firm rezygnuje z wprowadzania innowacji w zakresie sterowania energią zasilania. Ponadto brak automatyzacji w tej dziedzinie sprawia, że producenci nie mają efektywnych narzędzi wspomagających implementację oraz weryfikację tych rozwiązań. Istotne jest także uwzględnienie oddziaływania parametrów czasowych i gabarytowych używanych technik na pracę obwodu. Ponadto, w wielu przypadkach dopiero kombinacja powyższych technik pozwala uzyskać pożądany efekt. Należy jednak rozsądnie dobierać stosowane metody, ponieważ użycie jednej może przyczynić się do utraty korzyści wynikającej z innej. Przyczynia się to do dalszego skomplikowania procesu projektowania układu. Ważna jest więc umiejętność wyboru optymalnego zestawu tych technik, a także wiedza na temat wzajemnego ich oddziaływania na siebie.
W projekcie należy zdefiniować sposoby dystrybucji energii oraz wydzielić bloki energetyczne. Jeśli konieczne jest zastosowanie różnych napięć dla poszczególnych bloków, należy uwzględnić użycie power-padów, przełączników, izolacji oraz regulatorów napięcia pomiędzy tymi segmentami. W przypadku przełączania bloku pomiędzy stanem uśpienia lub wyłączenia a normalnej pracy, konieczne jest wzięcie pod uwagę czas przejścia z jednego stanu w drugi. Należy określić, jak często dany blok będzie przełączany w stan oczekiwania lub całkowicie wyłączany oraz jak powinien kształtować się sygnał zegara. Dodatkowo należy zbadać zależności pomiędzy poszczególnymi blokami. Przykładowo, zanim pożądany blok zostanie wyłączony, może zaistnieć konieczność wcześniejszego wyłączenia innych bloków w odpowiedniej kolejności. Ponieważ sekwencja ta może być inna dla poszczególnych trybów pracy urządzenia, stanowi to znaczną komplikację i wydłuża czas projektowania układu.
Wspólny standard
Dotychczas poszczególne firmy oddzielnie opracowywały metody oszczędzania energii. Przykładem może być Texas Instruments ze swoim SmartReflex, który optymalizuje zużycie mocy oraz wydajność układu. Firma sprzedała ponad 100 milionów urządzeń wyposażonych w to rozwiązanie. Technika ta pozwala na inteligentne dostosowanie napięcia oraz częstotliwości do stopnia aktywności, trybu pracy oraz temperatury urządzenia. SmartReflex koordynuje zużycie energii oraz wydajność wszystkich składników systemu. Zdaniem producenta, rozwiązanie to jest w stanie niemal całkowicie wyeliminować zjawisko upływu energii nawet w przypadku technologii 65nm. Smartreflex wykorzystuje bibliotekę komórek odpowiedzialnych za sterowanie energią, wspomagające podział urządzenia na bloki o różnym zapotrzebowaniu energetycznym. Stosowane techniki uwzględniają adaptacyjne skalowanie napięcia, dynamiczne rozdzielanie mocy oraz kontrolę upływu.
Obecnie istnieje tendencja do współpracy dużych przedsiębiorstw w celu wypracowania skutecznych mechanizmów zmniejszenia poboru mocy. Ma to na celu stworzenie bardziej wydajnych i podatnych na automatyzację rozwiązań. Eksperci są zgodni, że metoda holistyczna jest najlepszym rozwiązaniem tego problemu. Holistyka oznacza w tym przypadku kombinację technik oszczędzania energii tak, aby poszczególne metody nie zakłócały działania innych. Standard powinien w spójny i przejrzysty sposób definiować zasady implementacji tych technik w poszczególnych etapach produkcji. Ważne jest, aby była to metoda łatwa do zaadoptowania przez producentów, niezmuszająca ich do nadmiernych kosztów związanych z przystosowywaniem hal produkcyjnych.
Złożoność dzisiejszych układów sprawia, iż konieczne jest rozpatrywanie zagadnienia zasilania na każdym etapie projektowania. Dotyczy to nie tylko implementacji poszczególnych technik, ale także testów poprawności działania obwodu przy ich zastosowaniu. Wprowadzenie ujednoliconego standardu pozwoli projektantom na użycie gotowych narzędzi w celu osiągnięcia pożądanego zużycia energii przy minimalnym spowolnieniu układu. Automatyzacja tego procesu umożliwi znaczne skrócenie czasu projektowania urządzania, a tym samym przyczyni się do zmniejszenia kosztów. Ponadto, postępując zgodnie ze standardem, mamy większą pewność, iż zastosowane przez nas techniki nie wpłyną negatywnie na stabilną pracę układu.
Jednym z ciekawszych projektów jest współpraca firm z branży elektronicznej w ramach organizacji Accellera. Wśród biorących w niej udział firm znajdują się m.in. LSI Logic, Texas Instruments, Nokia czy Intel. W styczniu 2007 Accellera przedstawiła Unified Power Format (UPF). Wkładem firm działających w branży półprzewodników było doświadczenie wyniesione podczas własnej pracy nad skutecznymi metodami oszczędzania energii. Wypracowanie nowego standardu zajęło ok. 5 miesięcy. Stanowi on wytyczne, w jaki sposób układy elektroniczne powinny być projektowane, testowane oraz implementowane, aby najwydajniej gospodarować energią. UPF to zestaw narzędzi ułatwiających projektowanie układów z myślą o niskim poborze mocy. Definiuje zasady projektowania układów zasilania poszczególnych elementów urządzenia, w jaki sposób poszczególne układy oddziaływają na siebie oraz jak należy zaprojektować układ sterujący. Poprzez kontrolę potrzeb poszczególnych układów i złożoność wykonywanych przez nie zadań, układ zasilający zgodny z UPF dostarcza do nich napięcie na najniższym poziomie pozwalającym na stabilną pracę bez utraty wydajności.
Pliki UPF, zawierające wymogi dotyczące zarządzania energią, są dostępne na każdym etapie powstania projektu. Oprogramowanie uwzględnione w standardzie, obsługujące pliki UPF oraz RTL może być wykorzystane do generowania schematów układu bądź przeprowadzania symulacji. Pliki UPF mogą być modyfikowane lub zastępowane innymi, możliwe jest także ich wielokrotne wykorzystanie.
Innym przykładem jest organizacja Power Forward Initiative (PFI), która zrzesza m.in. firmy Cadence, AMD, Fujitsu, NEC oraz Freescale. Propozycją tej grupy jest Common Power Format (CPF), który, podobnie jak UPF, przedstawia zbiór rozwiązań umożliwiających projektowanie obwodów z myślą o mniejszej konsumpcji energii. Obecnie projekt został przekazany pod opiekę Si2, organizacji zrzeszającej firmy działające na rynku krzemowym. Celem Si2 jest zwiększenie produktywności, przy jednoczesnym zmniejszeniu kosztów układów krzemowych. Mimo iż jest to rozwiązanie konkurencyjne względem UPF, część firm biorących udział w projekcie nie wyklucza możliwości połączenie obydwu specyfikacji. Jest to ważne ponieważ wielu znawców rynku podkreśla niekompletność rozwiązania m.in. dotycząca fazy wspomagania projektu na poziomie architektury. Ideą CPF jest zdefiniowanie wszystkich celów związanych z zarządzaniem energią w postaci jednego pliku. Zawarte są w nim wymogi stawiane obwodowi co do poboru energii, użyte techniki oszczędzania energii oraz sposób ich implementacji. CPF korzysta ze składni TCL (Tool Command Language). Działanie CPF można podzielić na trzy obszary. Część odpowiedzialna za architekturę określa logikę układu, podział na domeny energetyczne, a także fizyczną implementację. Logika dotycząca zasilania obejmuje regulator napięcia, izolację, komórki pamięci oraz układ kontrolny. Trzecim obszarem są tryby pracy, obejmujące definicję oraz zasady przejść między nimi. Ponieważ plik ten jest dostępny podczas każdej fazy powstawania projektu, zapewnia spójną politykę gospodarowania energią podczas całego procesu. Firma Cadence zmodyfikowała większość swoich narzędzi wspomagających projektowanie oraz weryfikacje obwodów scalonych w celu pełnej współpracy z CPF. Według przedstawicieli firmy, pozwala to jednorazowo zdefiniować wymagania energetyczne układu scalonego, a system automatycznie będzie przestrzegał tych zaleceń w kolejnych fazach projektu. Poprzez mechanizmy wykorzystywane przy każdym etapie projektowania urządzenia, CPF pozwala na większą automatyzację procesu projektowania. Umożliwia to rozwiązanie problemów zasilania przy mniejszych nakładach pracy. Automatyzacja tego procesu pozwala na oszczędności nakładów oraz czasu, zmniejsza czas dotarcia urządzenia na rynek oraz jego cenę, bez poświęcania funkcjonalności.
Jacek Dębowski