Bylo to jenom otázkou času. Nabízelo se to. Stejně vám ale nejspíš přejede mráz po zádech, když si o tom přečtete. Počítačový červ zneužil generativní umělou inteligenci. Bylo to záměrně a v přísně kontrolovaném experimentu, ale nemějme iluze. Takové experimenty se zveřejňují jako poslední varování, hlas volajícího na poušti, když doba uzrála a podobné věci lze očekávat na ostro, doslova každým dnem.
Ben Nassi z amerického výzkumného centra a absolventského kampusu Cornell Tech a jeho spolupracovníci vytvořili, v izolovaném prostředí vyzkoušeli a zástupcům médií předvedli (zřejmě) prvního počítačového červa, který využívá generativní inteligenci. Takové potvory se podle tvůrců mohou autonomně šířit mezi systémy, třeba tam krást data nebo instalovat malware. Mohly by provádět kyberútoky, jaké svět doposud neviděl.
Nassi a jeho kumpáni vytvořili červa, kterého pojmenovali Morris II, jako odkaz na legendárního červa Morris, který vyvolal chaos na internetu v roce 1988. Poté názorně předvedli, že červ může napadnout emailového asistenta s generativní umělou inteligencí, krást data z emailů a rozesílat spam. Prolomili s ním některá zabezpečení u inteligencí ChatGPT a Gemini.
Výzkum proběhl v kontrolovaném prostředí a nesměroval na veřejně používané emailové asistenty. Přesto ale vzbudil pozornost. Přichází v době překotného rozvoje inteligencí velkých jazykových modelů LLM, které se intenzivně učí pracovat nejen s textem, ale i s obrázky a videi. V reálném prostředí sice zatím nikdo červa s generativní inteligencí neviděl, ale podle Nassiho a spol. je to jenom otázkou času. Je to reálná hrozba, která je na spadnutí.
Vznik uvedeného červa je, přinejmenším pro laika, fascinující. Badatelé využili známé slabiny generativních inteligencí, tedy toho, že je možné je ovlivnit prostřednictvím „toxických“ textových příkazů (promt). Tímto způsobem je možné přinutit generativní inteligenci dělat například scammera a tahat z lidí bankovní informace. Připomíná to memetickou infekci. Nákazu hloupým nápadem. Nebo populistickým politikem.
Klíčovým prvkem červa s generativní inteligencí je „útočný sebereplikující se textový povel“ (Adversarial self-replicating prompt), který donutí generativní inteligenci vytvářet další povely pro ni samotnou. Badatelé přitom dokázali inteligenci napadnout červem textovým povelem uvedeného typu a rovněž takovým povelem ukrytým do souboru s obrázkem.
Jak říkají Nassi a spol., ekosystémy generativních inteligencí se bouřlivě rozvíjejí. Pracují s nimi mnohé společnosti a usilují o integraci generativních inteligencí do rozmanitého softwaru, včetně chytrých telefonů, automobilů nebo operačních systémů. Nassiho tým předpovídá, že se podobní červi s umělou inteligencí objeví v reálném světě tak do dvou, tří let. Maximálně.
Video: ComPromptMized: Unleashing Zero-click Worms that Target GenAI-Powered Applications
Literatura
Inteligence GPT-4 si najala člověka kvůli překonání testu CAPTCHA. A lhala mu
Autor: Stanislav Mihulka (17.03.2023)
Cogito ergo sum? Sílí podezření, že pokročilé inteligence mají situační povědomí
Autor: Stanislav Mihulka (18.09.2023)
Okamžitá evoluce: AI algoritmus extrémně zrychlil vývoj designu robotů
Autor: Stanislav Mihulka (05.10.2023)
Diskuze:
Zlatá doba kamenná
Tomáš Novák,2024-03-08 14:38:12
Možná se paleolit už zase přiblížil...a možná to bude na něco i dobře.
A je to tady, "já vám to říkal"
Lukáš Fireš,2024-03-07 21:07:03
"AI nepřemýšlí, pouze si pamatuje jaká reakce měla statisticky nejlepší úspěch."
AI zblbnete snadno, když víte jak na to. Je třeba kontrolovat jak vstupy (jak to že ne-člověk může zadávat požadavky/dotazy takové AI?) tak výstupy ("Potvrďte prosím, že opravdu chcete odeslat email tohoto znění...." Nechť uživatel poklepe na svůj chytrý prsten) a hlavně to, co ta AI vůbec smí dělat ("Je mi líto, ale váš dům nepodpálím, ohrozila bych tím váš život a to mi zakazuje první zákon robotikty").
Re: A je to tady, "já vám to říkal"
Martin Novák2,2024-03-10 09:47:38
Ne-člověk může zadávat cokoliv a systém to vůbec nepozná. Systém vidí že kódy znaků se objevily v bufferu klávesnice.
Máte o tom dětské představy, asi jako Asimov v pravěku výpočetní techniky. Asi 10 let trvalo než se podařilo přinutit AI aby byla aspoň v základech politicky korektní, AI nemá žádné informace o následcích toho co dělá. To by vyžadovalo novou, jinou AI mnohonásobně složitější než ta dnešní která je jen generátor náhodných slov podle statistické analýzy textů předložených k tréninku.
Re: Re: A je to tady, "já vám to říkal"
Lukáš Fireš,2024-03-11 16:38:57
Kdepak, nemám o tom dětské představy, jen o mne něco předpokládáte.
1. Do toho "bufferu klávesnice" (spíše na vstupní vrstvu AI) to dá nějaký program a ten má nějaká práva. Jinak by mohl jakýkoliv program na vašem počítači vybrat váš účet. A přesně o tom je bezpečnost, práva, anti-viry a podobně.
2. Výstupy AI jsou opět nějak zpracovány, ať už jde o zobrazení obrázku nebo odeslání emailu. Vše se dá nějak kontrolovat a omezovat. Například jako když ve Windows něco instalujete - zobrazí se systémový potvrzovací dialog, který je mnohem těžší hacknout. Banka vám zas pošle potvrzovací SMS nebo chce potvrzení v mobilu (když to zadáte v prohlížeči).
3. Asimov měl alespoň představu o tom, jak pravidla robotiky formulovat. V praxi je to mnohem složitější, vím to moc dobře. Žádný program ani AI nebudou nikdy 100% bezpečné, ale naše práce je chránit i před nečekaným různými "watchdogy", detekčnímy mechanismy, či další AI. Lepší tam ty "pro jistotu" věci dát, než pak litovat.
Unixový vtip
Pepa Vondrák,2024-03-07 13:42:48
Trochu mi to připomíná vtip o unixovém viru, jak přijde mail s instrukcemi, abyste si smazali deset náhodně zvolených souborů a následně tento mail přeposlali na 10 náhodně zvolených adres ze svého adresáře.
Fofr
Přemysl Kadlec,2024-03-07 13:03:28
Že přijdou kódy cíleně upravené pro napadání AI jsem čekal, že jeden ze způsobů jak AI napadnout bude narušení generativních algoritmů jsem taky čekal, ale že to přijde tak brzy, to jsem nečekal.
Tri let? Spis mesicu
Jirka Naxera,2024-03-07 02:31:03
Kdyz ve svem okoli vidim, kolik lidi je schopno bez jakehokoli pochopeni ony "AI asistenty" napojit naprosto kamkoli, tak bych rekl, ze do leta tu mame prvni poradny maler.
Re: Tri let? Spis mesicu
Marcel Brokát,2024-03-07 11:54:10
A co víc - spousta lidí, to vidím já - začíná jejím výplodům bezmezně věřit.
Na úřadě (jednom menším) o kterém vím, začínají testovat, že by jako mohli modelovat chování občanů a predikovat které pozemky se uvolní aby je mohli spekulativně nakoupit (což tedy nevím jak to úřad může dělat, ale budiž) a taky, že by mohli propojit jednotlivé informace o místních občanech a profilovat je... Jako vyneseno z nějaké porady/ prezentace ... Prý aby byli připraveni a in.... A takhle my tady na Zemi si žijeme.
Re: Re: Tri let? Spis mesicu
Standa Hořejší,2024-03-07 13:16:07
Nechci "za každou cenu" rozbíjet Vaše iluze, ale je jednoduché za "úřední" zájem skrýt ten soukromý... a úředníci přece potřebují pořád víc (zejména vlastního oběživa), viz změny jejich průměrných platů dejme tomu od r. 2010.
Re: Re: Re: Tri let? Spis mesicu
Marcel Brokát,2024-03-12 03:40:12
Absolutně nic nerozbíjíte, chápu. Nechtěl jsem úplně spekulovat...
Re: Re: Tri let? Spis mesicu
Martin Novák2,2024-03-10 09:53:23
Při nějakém testu důvěry lidí v techniku zkoušeli jestli se lidé budou řídit při úniku z hořící budovy podle instrukcí daných robotem i když jsou zjevně špatné. A zjistili že lidé dají přednost špatným instrukcím i v případě že jim bylo předem řečeno že robot je porouchaný a může dávat špatné instrukce.
Re: Re: Re: Tri let? Spis mesicu
D@1imi1 Hrušk@,2024-03-10 10:25:09
Dají přednost špatným instrukcím před čím? Takhle vytržené z kontextu to moc neříká. Byla tam dobře značená úniková trasa?
Re: Re: Tri let? Spis mesicu
Jirka Naxera,2024-03-07 23:25:53
Treba se nam tu rozmaha takovy nesvar, si nechavat predchroustat korporatni maily (vcetne tech duvernych) od chatgpt, nebo clanky na zpravodajskych webech apod.
Nebo nam tu vznika skupina juniornich programatoru, kteri bez AI uz nezvladnou ani hello world.
Tech prikladu by se naslo...
Diskuze je otevřená pouze 7dní od zvěřejnění příspěvku nebo na povolení redakce