Etyka w AI - UE wprowadza przełomową regulację

| Gospodarka Aktualności

Sztuczna inteligencja to technologia, która od kilku lat rozwija się w oszałamiającym tempie, wkraczając w kolejne obszary naszego życia. Przewiduje się, że ma potencjał, by wiele z nich zrewolucjonizować. Z drugiej jednak strony rosną obawy o to, że może być wykorzystywana w sposób nieetyczny, co stanowi zagrożenie dla praw i swobód ludzi, a nawet naszego zdrowia i życia. Dlatego podejmuje się próby uregulowania praktyk w jej zakresie. Przełomem w tej kwestii jest wprowadzenie takich wytycznych w Unii Europejskiej.

Etyka w AI - UE wprowadza przełomową regulację

Chodzi o Artificial Intelligence Act, czyli akt w sprawie sztucznej inteligencji ustanawiający przepisy dotyczące AI. Pierwszą roboczą wersję tego dokumentu opublikowano w kwietniu 2021 roku. Rok później zakończono prace nad opiniami i poprawkami do tej wstępnej propozycji. Z kolei na początku grudnia 2022 roku Rada Europejska przyjęła ogólne podejście w tej kwestii, dzięki czemu na pierwszą połowę tego roku zaplanowane zostało głosowanie nad projektem Artificial Intelligence Act w Parlamencie Europejskim. W następnym kroku rozpoczną się negocjacje nad wspólnym w tej sprawie stanowiskiem Rady oraz Parlamentu UE. Ostatecznie, najprawdopodobniej pod koniec 2023 roku lub na początku 2024 przepisy dotyczące sztucznej inteligencji, już po opublikowaniu w dzienniku urzędowym Unii Europejskiej, wejdą w życie.

Jeżeli, zgodnie z oczekiwaniami, tak się stanie, akt w sprawie sztucznej inteligencji UE będzie pierwszym na świecie rozporządzeniem, które obejmuje wszystkie segmenty oraz zastosowania AI. Przewiduje się, że podobnie jak wcześniej ogólne rozporządzenie UE o ochronie danych osobowych (RODO) z 2018 roku, również unijny Artificial Intelligence Act może stać się globalnym standardem, na którym będą się wzorować twórcy przepisów dotyczących sztucznej inteligencji w innych częściach świata. Już zresztą same prace nad tą regulacją zainspirowały na przykład Kongres Brazylii, w którym pod koniec września 2022 roku przyjęto ustawę tworzącą ramy prawne dla AI.

Artificial Intelligence Act – dlaczego i po co?

W uzasadnieniu prac nad aktem dla sztucznej inteligencji podkreślono wagę tej bardzo szybko rozwijającej się technologii, która przynosi szereg korzyści w wielu sektorach gospodarki i obszarach działalności społecznej. Wynika to stąd, że rozwiązania, które na niej bazują, pozwalają na wiarygodniejsze prognozowanie, efektywniejszą optymalizację operacji i przydział zasobów oraz personalizowanie usług. W rezultacie wyniki działalności kluczowych z punktu widzenia rozwoju i przyszłości Unii Europejskiej sektorów (ochrona środowiska, ochrona zdrowia, sektor publiczny, finanse, rolnictwo) są coraz lepsze. Dzięki temu przedsiębiorstwa, a ostatecznie również europejska gospodarka zyskują przewagę konkurencyjną. Osiągane są poza tym korzyści dla społeczeństwa i środowiska.

Niestety równocześnie upowszechnianie się sztucznej inteligencji wiąże się z nowymi typami ryzyka lub niekorzystnymi konsekwencjami odczuwanymi przez jednostki, jak i całe społeczeństwa. Przykładami są: ograniczenia w dostępie do danych, jeśli algorytmy i informacje, na których bazuje system AI, zostały napisane i dobrane tendencyjnie, zagrożenia dla prywatności i bezpieczeństwa danych osobowych, manipulacje z wykorzystaniem realistycznych fałszywych filmów, nagrań dźwiękowych i obrazów wygenerowanych przez SI, zagrożenia dla bezpieczeństwa użytkowników, jeżeli aplikacje sztucznej inteligencji mają fizyczny kontakt z człowiekiem lub utraci on nad nimi kontrolę.

Biorąc to wszystko pod uwagę, Unia Europejska, stwierdzając, że promowanie i wspieranie AI warunkuje dalszy rozwój Wspólnoty, jednocześnie zdecydowała się przeciwdziałać zagrożeniom z nią związanym. W tym właśnie celu opracowano Artificial Intelligence Act – przepisy zawarte w tym dokumencie dotyczące sztucznej inteligencji, która jest dostępna na rynku UE lub w inny sposób wpływa na jej obywateli, zostały ukierunkowane na człowieka. Dzięki temu mieszkańcy Unii będą mieć pewność, że technologię tę wykorzystuje się w sposób bezpieczny i zgodny z prawem, z poszanowaniem ich praw podstawowych oraz unijnych wartości.

Treść Artificial Intelligence Act

Akt w sprawie sztucznej inteligencji podzielono na kilka rozdziałów. W pierwszym przedstawiono przedmiot oraz zakres dokumentu. W tej części zostały wyjaśnione również definicje stosowanych terminów. Przedmiotem Artificial Intelligence Act są przepisy dotyczące wprowadzania do obrotu, oddawania do użytku oraz wykorzystywania systemów sztucznej inteligencji w Unii Europejskiej. Powinni się do nich stosować dostawcy, wprowadzający do obrotu i oddający do użytku systemy AI oraz ich użytkownicy. Dotyczy to tych znajdujących się na terenie Wspólnoty, jak i z państw trzecich, o ile wyniki działania SI są wykorzystywane w Unii. Z obowiązku tego zwolnione są z kolei systemy AI opracowane lub wykorzystywane wyłącznie do celów wojskowych.

W tej części dokumentu doprecyzowano również, czym są systemy sztucznej inteligencji. Terminem tym określane jest oprogramowanie, które może, dla danego zestawu celów określonych przez człowieka, generować wyniki, takie jak treści, przewidywania, zalecenia i decyzje wpływające na środowiska, z którymi wchodzi w interakcję. Zgodnie z definicją z Artificial Intelligence Act opracowuje się je przy użyciu przynajmniej jednej z następujących technik oraz podejść: uczenie maszynowe (nadzorowane, nienadzorowane oraz przez wzmacnianie), z wykorzystaniem różnych metod, w tym też uczenia głębokiego i techniki oparte na logice oraz wiedzy (reprezentacja wiedzy, indukcyjne programowanie logiczne, bazy wiedzy, silniki inferencyjne i dedukcyjne, rozumowanie symboliczne, systemy ekspertowe).

Praktyki zakazane

W drugiej części opisywanego dokumentu przedstawiono wykaz praktyk, które w zakresie SI są zakazane. Jest to wprowadzanie do obrotu, oddawanie do użytku i wykorzystywanie systemu AI, w którym zostały zastosowane techniki podprogowe będące poza świadomością danej osoby, co ma na celu istotne zniekształcenie jej zachowania w sposób, który może powodować u niej albo innych szkodę fizyczną albo psychiczną. Zabronione są też systemy sztucznej inteligencji, które analogicznie wykorzystują słabość grup osób spowodowaną ich wiekiem, niepełnosprawnością ruchową albo zaburzeniami psychicznymi.

Poza tym w Artificial Intelligence Act przewidziano sytuację, w której organy publiczne albo ktoś w ich imieniu wykorzystuje SI na potrzeby oceny albo klasyfikacji wiarygodności osób fizycznych na podstawie ich zachowania społecznego lub znanych lub przewidywanych cech osobistych, lub cech osobowości. Jeśli w oparciu o nią osoby albo grupy osób są traktowane krzywdząco lub niekorzystnie, Artificial Intelligence Act również tego zakazuje. W dokumencie zabroniono także wykorzystywania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów egzekwowania prawa, o ile nie jest to konieczne dla: poszukiwania konkretnych potencjalnych ofiar przestępstw, w tym zaginionych dzieci, zapobiegnięcia konkretnemu, poważnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa osób fizycznych albo atakowi terrorystycznemu oraz wykrywania, lokalizowania, identyfikowania albo ścigania sprawcy przestępstwa, albo podejrzanego o popełnienie przestępstwa.

Systemy SI wysokiego ryzyka

W trzeciej części Artificial Intelligence Act zostały doprecyzowane przepisy dotyczące sztucznej inteligencji stwarzającej wysokie ryzyko dla zdrowia i bezpieczeństwa albo praw podstawowych osób fizycznych. W dokumencie określono m.in. zasady klasyfikacji tych systemów – za takie są uznawane te przeznaczone do użytku jako związane z bezpieczeństwem komponenty produktów objętych innymi unijnymi przepisami jak na przykład: maszyny, dźwigi, zabawki, urządzenia do użytku w strefach zagrożonych wybuchem, urządzenia ciśnieniowe, wyroby medyczne, pojazdy.

Oprócz tego za systemy AI wysokiego ryzyka uznawane są te używane w zdalnej identyfikacji biometrycznej osób fizycznych w czasie rzeczywistym i post factum, zarządzaniu infrastrukturą krytyczną oraz jej eksploatacji, podejmowaniu decyzji o dostępie do instytucji edukacyjnych i w ocenianiu uczniów, rekrutacji, decydowaniu o awansie i rozwiązaniu stosunku pracy, przydzielaniu zadań, monitorowaniu i ocenie wydajności i zachowania pracowników, dostępie do podstawowych usług prywatnych oraz usług i świadczeń publicznych, jak służby ratunkowe, a także korzystaniu z nich. Systemy SI wysokiego ryzyka to też te wykorzystywane w: ściganiu przestępstw, zarządzaniu migracją, azylem oraz kontrolą graniczną, sprawowaniu wymiaru sprawiedliwości oraz w procesach demokratycznych.

Poza klasyfikacją w tej części Artificial Intelligence Act przedstawiono również wymagania, które muszą spełnić systemy AI wysokiego ryzyka. Dotyczą one na przykład: danych i zarządzania nimi, przygotowania dokumentacji technicznej, rejestrowania zdarzeń, przejrzystości i udostępniania informacji użytkownikom, nadzoru nad systemem ze strony człowieka, ich dokładności, niezawodności oraz cyberbezpieczeństwa. W trzeciej części dokumentu opisano również obowiązki dostawców systemów sztucznej inteligencji wysokiego ryzyka i ich użytkowników.

Regulacje dodatkowe

Część czwarta aktu w sprawie sztucznej inteligencji poświęcona została wymaganiom stawianym systemom SI, które stwarzają szczególne ryzyko manipulacji. Do tej kategorii zaliczone zostały te przeznaczone do wchodzenia w interakcję z osobami fizycznymi, systemy rozpoznawania emocji i systemy kategoryzacji biometrycznej, te, które generują obrazy, treści dźwiękowe albo treści wideo, które łudząco przypominają istniejące osoby, obiekty, miejsca lub inne podmioty lub zdarzenia albo które tymi obrazami oraz treściami manipulują (deepfake).

Kolejne części Artificial Intelligence Act dotyczą: rozwiązań sprzyjających innowacyjności w dziedzinie sztucznej inteligencji, organizacji zarządzania tą tematyką w obrębie UE (w ramach nowo powołanej Europejskiej Rady ds. Sztucznej Inteligencji) i na szczeblu krajowym, utworzenia unijnej bazy danych dla samodzielnych systemów sztucznej inteligencji wysokiego ryzyka, wymiany informacji na temat incydentów i nieprawidłowego działania SI, egzekwowania przepisów dotyczących AI oraz kar za ich niestosowanie.

Monika Jaworowska
źródło zdjęcia: Bosch