AlphaDog: Rozeznávání obrazu umělou inteligencí je nepříjemně zranitelné  
Simulátor útoků na rozeznávání obrazu umělou inteligencí AlphaDog odhalil slabé místo v prvku alpha channel, který ovládá průhlednost obrázků. Útokem na alpha channel je možné zmanipulovat vidění autonomních vozidel, systémy pro rozeznávání obličejů nebo třeba pozměnit medicínské snímky. Pokud by to někdo provedl masivně, škody by mohly být nedozírné.
AlphaDog je varováním pro uživatele i tvůrce inteligencí. Kredit: Pixabay, CC0.
AlphaDog je varováním pro uživatele i tvůrce inteligencí. Kredit: Pixabay, CC0.

Je fascinující, když agregátory neurovědy jako Neuroscience, zavedou rubriku „AI.“ Jde o pěknou odpověď těm, co stále považují AI za „pouhý program.“ Nový příspěvkem v této rubrice 21. století je zneklidňující výzkum odborníků University of Texas San Antonio (UTSA), kteří odhalili a důkladně otestovali zranitelnost v systémech rozeznávání obrazu umělou inteligencí. Je to velmi zákeřná záležitost, která by mohla brát lidské životy.

 

Guenevere Chenová. Kredit: UTSA.
Guenevere Chenová. Kredit: UTSA.

Umělé inteligence jsou skvělým pomocníkem při zpracování obrazu, což typicky zahrnuje obrovské množství dat. Jak se ale ukázalo, překotná evoluce těchto systémů s sebou vleče problematické kusy kódů, které mohou být zneužity k velmi ošklivým věcem. Moderní platformy pro rozeznávání obrazu a modely počítačového vidění, které jsou zabudované do generativních inteligencí, obsahují užitečný, ale současně velmi zrádný backendový prvek alpha channel, který ovládá průhlednost snímků.

 

Univerzitní hackeři v San Antoniu, které vedla Guenevere Chenová, vyvinuli nový typ útoku na generativní inteligenci nazvaný AlphaDog. S jeho pomocí studovali, jak mohou hackeři využívat alpha channel a jaké hrůzy by s tím mohli napáchat. Jako obvykle v podobných případech vědci zastávají názor, že je mnohem lepší o těchto věcech nemlčet, varovat, studovat je a připravit obranu – než si hrát na to, že neexistují a nechat aktérům se špatnými úmysly volné pole působnosti.

 

Logo. Kredit: UTSA.
Logo. Kredit: UTSA.

Simulátor útoku AlphaDog funguje tak, že zařídí pomocí manipulací s funkcí alpha channel, aby lidský uživatel a generativní inteligence viděli na určitém snímku každý něco jiného. Jak říká Chenová, měli jsme dva cíle, dvě oběti – člověka a umělou inteligenci. Badatelé vytvořili 6 500 snímků zasažených útokem AlphaDog a testovali je na 100 umělých inteligencí, včetně 80 open-source systémů a 20 cloudových platforem typu ChatGPT.

 

Ukázalo se, že AlphaDog je obzvláště úspěšný u obrázků či částech obrázků ve stupních šedi (grayscale image). Badatelé prověřili řadu scénářů. Kdyby šlo o reálné útoky, mohly by zabít spoustu lidí anebo jim hodně uškodit. Útoky typu AlphaDog mohou zmanipulovat vidění autonomních vozidel. Třeba tak, že přehlédnou určité značky a ukazatele. Anebo mohou pozměnit medicinské snímky, jako rentgeny, MRI skeny nebo CT skeny. Vyrobí na nich nádor či zlomeninu nebo naopak zařídí, aby takové věci nebyly vidět. AlphaDog také může úplně rozložit systém pro rozeznávání obličejů, což lze využít s velmi nekalými úmysly.

Chenová věří, že inteligence jsou už teď velmi důležité a jejich význam stále poroste. Neměli bychom ale být naivní a myslet si, že něco takového je naprosto imunní vůči útokům. Jak se říká, lumpové jsou vždy napřed a je nutné s tím počítat. Podobné útoky možná probíhají už teď.

 

Video: chatgpt sees healthy hand as dislocated blurred

 

Video: Bard reads city view as a dog

 

Literatura

University of Texas San Antonio 10. 10. 2024.

Datum: 17.10.2024
Tisk článku

Související články:

Inteligence GPT-4 si najala člověka kvůli překonání testu CAPTCHA. A lhala mu     Autor: Stanislav Mihulka (17.03.2023)
Inteligence CounterCloud vede informační protiúder     Autor: Stanislav Mihulka (02.09.2023)
Anthropic varují, že inteligence LLM lze upravit do podoby spícího agenta     Autor: Stanislav Mihulka (16.01.2024)



Diskuze:




Pro přispívání do diskuze musíte být přihlášeni



Zásady ochrany osobních údajů webu osel.cz