Je fascinující, když agregátory neurovědy jako Neuroscience, zavedou rubriku „AI.“ Jde o pěknou odpověď těm, co stále považují AI za „pouhý program.“ Nový příspěvkem v této rubrice 21. století je zneklidňující výzkum odborníků University of Texas San Antonio (UTSA), kteří odhalili a důkladně otestovali zranitelnost v systémech rozeznávání obrazu umělou inteligencí. Je to velmi zákeřná záležitost, která by mohla brát lidské životy.
Umělé inteligence jsou skvělým pomocníkem při zpracování obrazu, což typicky zahrnuje obrovské množství dat. Jak se ale ukázalo, překotná evoluce těchto systémů s sebou vleče problematické kusy kódů, které mohou být zneužity k velmi ošklivým věcem. Moderní platformy pro rozeznávání obrazu a modely počítačového vidění, které jsou zabudované do generativních inteligencí, obsahují užitečný, ale současně velmi zrádný backendový prvek alpha channel, který ovládá průhlednost snímků.
Univerzitní hackeři v San Antoniu, které vedla Guenevere Chenová, vyvinuli nový typ útoku na generativní inteligenci nazvaný AlphaDog. S jeho pomocí studovali, jak mohou hackeři využívat alpha channel a jaké hrůzy by s tím mohli napáchat. Jako obvykle v podobných případech vědci zastávají názor, že je mnohem lepší o těchto věcech nemlčet, varovat, studovat je a připravit obranu – než si hrát na to, že neexistují a nechat aktérům se špatnými úmysly volné pole působnosti.
Simulátor útoku AlphaDog funguje tak, že zařídí pomocí manipulací s funkcí alpha channel, aby lidský uživatel a generativní inteligence viděli na určitém snímku každý něco jiného. Jak říká Chenová, měli jsme dva cíle, dvě oběti – člověka a umělou inteligenci. Badatelé vytvořili 6 500 snímků zasažených útokem AlphaDog a testovali je na 100 umělých inteligencí, včetně 80 open-source systémů a 20 cloudových platforem typu ChatGPT.
Ukázalo se, že AlphaDog je obzvláště úspěšný u obrázků či částech obrázků ve stupních šedi (grayscale image). Badatelé prověřili řadu scénářů. Kdyby šlo o reálné útoky, mohly by zabít spoustu lidí anebo jim hodně uškodit. Útoky typu AlphaDog mohou zmanipulovat vidění autonomních vozidel. Třeba tak, že přehlédnou určité značky a ukazatele. Anebo mohou pozměnit medicinské snímky, jako rentgeny, MRI skeny nebo CT skeny. Vyrobí na nich nádor či zlomeninu nebo naopak zařídí, aby takové věci nebyly vidět. AlphaDog také může úplně rozložit systém pro rozeznávání obličejů, což lze využít s velmi nekalými úmysly.
Chenová věří, že inteligence jsou už teď velmi důležité a jejich význam stále poroste. Neměli bychom ale být naivní a myslet si, že něco takového je naprosto imunní vůči útokům. Jak se říká, lumpové jsou vždy napřed a je nutné s tím počítat. Podobné útoky možná probíhají už teď.
Video: chatgpt sees healthy hand as dislocated blurred
Video: Bard reads city view as a dog
Literatura
Inteligence GPT-4 si najala člověka kvůli překonání testu CAPTCHA. A lhala mu
Autor: Stanislav Mihulka (17.03.2023)
Inteligence CounterCloud vede informační protiúder
Autor: Stanislav Mihulka (02.09.2023)
Anthropic varují, že inteligence LLM lze upravit do podoby spícího agenta
Autor: Stanislav Mihulka (16.01.2024)
Diskuze: