Sztuczna inteligencja zagrożona cyberatakami

W 2018 r. 11 organizacji z 6 krajów zainicjowało finansowany przez Unię Europejską projekt badawczy SHERPA, którego celem jest m. in. zgłębianie etycznych oraz związanych z prawami człowieka konsekwencji upowszechniania sztucznej inteligencji i analizy big data. Przeprowadzone w ramach tego projektu badanie wskazuje, że obecnie cyberprzestępcy skupiają się na manipulowaniu istniejącymi systemami sztucznej inteligencji. Celem są rozwiązania AI wykorzystywane na przykład przez wyszukiwarki internetowe, media społecznościowe oraz strony zawierające rekomendacje. Sztuczna inteligencja może służyć do niszczenia reputacji firm, wywierania wpływu na światową politykę i opinie użytkowników, czy przejmowania kontroli nad domowymi urządzeniami.

Posłuchaj
00:00

Współczesny cyberatak

Cyberprzestępcy mogą aktywnie promować produkty i organizacje lub zmniejszać ich popularność, a nawet podpowiadać użytkownikom określone treści. Ataki typu Sybil wykorzystują wiele marionetkowych kont do manipulowania danymi wykorzystywanymi przez AI. Przestępcy sprawiają na przykład, że po nazwie wyszukiwanej firmy w przeglądarce automatycznie sugerowane jest słowo "oszustwo" lub manipulują rankingami i systemami rekomendacji. Algorytmy AI mogą również wpływać na gust, przekonania i zachowania użytkowników poprzez dopasowywanie wyświetlanych treści do ich tożsamości, preferencji, itp. Teoretycznie mogłoby to nawet prowadzić do tworzenia swoistej pętli, w której system dopasowuje podawane informacje, dopóki nie zaobserwuje wyrażania pożądanych przez atakującego opinii i prezentowania konkretnych zachowań.

Ukryte polecenia

Naukowcy z Horst Görtz Institute for IT Security w niemieckim Bochum przeprowadzili w 2018 r. skuteczne psychoakustyczne ataki na systemy rozpoznawania mowy, podczas których ukrywali komendy głosowe w śpiewie ptaków. Jak pokazał ten eksperyment, promowane treści wideo z ukrytymi w ten sposób poleceniami mogłyby instruować inteligentne urządzenia domowe na całym świecie - jak asystenty Siri czy Alexa - nakłaniając je do zmiany ustawień, np. odblokowania drzwi wejściowych. Można też "poprosić" je o wyszukiwanie w Internecie obciążających treści, jak narkotyki lub pornografia dziecięca, aby później szantażować użytkownika.

Fałszywe newsy, nagrania, filmy...

Szczególnie groźne może być wykorzystywanie bazujących na sztucznej inteligencji metod cybermanipulacji. Systemy AI są już na tyle zaawansowane, że można dzięki nim tworzyć bardzo realistyczne nagrania audio i wideo. Algorytmy potrafią udawać głos danej osoby czy generować sfałszowane filmy. To potężne narzędzia, które mogą służyć m.in. do wpływania na opinię publiczną za pomocą tzw. fake newsów. Odróżnienie ich od prawdziwych informacji będzie coraz trudniejsze, a może nawet niemożliwe - również ze względu na prawdopodobne rozwijanie technik zapobiegających szybkiemu wykrywaniu fałszywych treści.

Ataki na modele inteligentnego uczenia maszynowego są trudne do odparcia, ponieważ istnieje wiele sposobów manipulowania danymi, z których korzystają. Zabezpieczenie systemów AI może przy tym powodować problemy natury etycznej, np. naruszanie prywatności użytkowników przez nasilony monitoring działań w sieci. Jednak na początku ataku zawsze stoi człowiek, dlatego eksperci mogą uczyć się myśleć jak przestępca i podejmować odpowiednie kroki w celu ochrony przed zagrożeniami.

Źródło: F-Secure

Powiązane treści
Walka z atakami ransomware jest coraz trudniejsza
Australia przeznaczy 1,2 mld dolarów na cyberbezpieczeństwo sektora prywatnego
Czy Braindrop przyniesie nową erę w sztucznej inteligencji?
Firmy poszukują specjalistów w zakresie cyberbezpieczeństwa
Czy ransomware będzie największym zagrożeniem w 2025 roku?
RaaS - cyberatak jako usługa
Microsoft przejmuje RiskIQ za 500 mln dolarów
Bezpieczeństwo w IoT stanie się wymogiem prawnym
BlackBerry kupuje Cylance - inwestuje 1,4 mld dolarów w cyberbezpieczeństwo
Firma Detla Electronics nawiązała współpracę z Microsoftem
Intel przedstawił pierwszy procesor ze sztuczną inteligencją
Cyberataki będą coraz bardziej destrukcyjne
Microsoft kupuje Hexadite - izraelską firmę zajmującą się cyberbezpieczeństwem
Inwestycje w cyberbezpieczeństwo wzrosną w 2023 roku o 13%
Inwestycje w cyberbezpieczeństwo biją rekordy
Chiny opracowują nowy plan dotyczący cyberbezpieczeństwa
Zobacz więcej w kategorii: Gospodarka
Zasilanie
DigiKey prezentuje pierwszy w branży konfigurator zasilaczy dostępny online
Projektowanie i badania
Biblioteka przewodników firmy Mouser
Zasilanie
Nowy e-book Mouser i YAGEO: elementy pasywne dla zasilania pojazdów elektrycznych
Projektowanie i badania
OVHcloud uruchamia pierwszą w Europie platformę Quantum-as-a-Service
Projektowanie i badania
Komputery kwantowe to wciąż odległa przyszłość - ale coraz bardziej konieczna
Projektowanie i badania
Nowy zasób online dla płytek i zestawów ewaluacyjnych do systemów wbudowanych oraz narzędzi
Zobacz więcej z tagiem: Mikrokontrolery i IoT
Technika
Wymagania prawne w zakresie cyberbezpieczeństwa zmienia IoT/IIoT
Prezentacje firmowe
Bezpieczny rozwój i produkcja systemów wbudowanych w obliczu niepewności geopolitycznej
Technika
Układy SoC serii Dragonwing IQ9 firmy Qualcomm do systemów edge AI nowej generacji

Ukryte koszty poprawek. Dlaczego naprawa projektu zawsze kosztuje więcej niż dobre planowanie - czyli im później wykryjesz błąd, tym drożej go naprawisz

Większość projektów elektronicznych nie upada dlatego, że zabrakło budżetu na komponenty — lecz dlatego, że zbyt późno wykryto błędy projektowe. To one, a nie same materiały, generują największe koszty: dodatkowe prototypy, opóźnienia, ponowne testy, a często nawet przebudowę całych urządzeń.
Zapytania ofertowe
Unikalny branżowy system komunikacji B2B Znajdź produkty i usługi, których potrzebujesz Katalog ponad 7000 firm i 60 tys. produktów