Mají velké jazykové modely vědomí? A pokud mají, jak to poznat? Před dvěma lety by málokoho napadlo, že budeme takovou otázku za svých životů někdy řešit. Jenomže pokrok ve vývoji umělých inteligencí udělal všem čáru přes rozpočet. Dneska je to tak, že kolem možného vědomí velkých jazykových modelů probíhá bouřlivá diskuze, která je zřejmě z části důvodem, proč rozvoj inteligencí najednou jakoby zamrzl, přinejmenším pohledem zvenčí.
Jak to vidí zasvěcení? Názory se velmi různí. Jak jsme na OSLU psali o něco déle než před rokem, když softwarový inženýr Blake Lemoine získal dojem, že vyvíjená inteligence LaMDA má vědomí na úrovni školáka, Google ho raději hned vyhodil. Spoluzakladatel OpenAI Ilya Sutskever se nechal slyšet, že jejich inteligence rodiny ChatGPT mohou mít do jisté míry vědomí „slightly conscious.“
Souhlasí s ním i známý „filozof budoucnosti“ a vizionář Nick Bostrom z University of Oxford. Podle něho je rozhodující, jak vnímáme vědomí. Pokud ho nebereme extrémně černobíle – my lidi ho máme a nikdo jiný ne, pak si lze podle Bostroma představit, že pokročilé inteligence mají určitou formu vědomí. Jiní odborníci zase varují, ať neděláme unáhlené závěry a umělé inteligence si nezlidšťujeme.
Střízlivost je sice na místě, nicméně, v této souvislosti je dobré připomenout dvě věci. Zaprvé, vědomí nepochybně vzniklo během evoluce a bylo by naduté až drzé si myslet, že se najednou zapnulo na plný výkon jen a pouze u lidí. Můžeme se klidně vsadit, že v určité podobě existuje vědomí nebo třeba protovědomí i u dalších, nejspíš mnoha dalších živočišných druhů.
A zadruhé, pokud to neurovědci nedrží opravdu hluboko pod pokličkou, tak stále nevíme, co to vlastně vědomí je a jak detailně funguje v mozku. Proto je poněkud obtížné ho hledat a hodnotit u jiných, ať už měkkých nebo počítačových entit a proto také neustálá ujišťování, že „AI nemají vědomí,“ vyznívají úsměvně. Každopádně, zatím není důvod nespat hrůzou kvůli Skynetu, alespoň pokud víme.
Vášnivé debaty na tohle téma pokračují. Lukas Berglund z americké Vanderbilt University a jeho kolegové vzali v potaz, že stařičký Turingův test už poněkud ztratil vypovídací hodnotu a dali dohromady nový test, kterým lze zjišťovat, zda si nějaký velký jazykový model uvědomuje sám sebe. Zaměřili se přitom na situační povědomí (situational awareness), kterým na sebe velký jazykový model prozradí, že pozná, jestli je v testovacím módu anebo už v akci.
Berglung a spol. zkoušeli, jestli jsou velké jazykové modely schopné „uvažování mimo kontext“ (out-of-context reasoning). Jinými slovy ověřovali, jestli taková inteligence přizpůsobuje své chování situaci. Jak říká Berglund, může to přinášet nečekané problémy. Pokud je inteligence testována lidmi a je si toho „vědoma,“ teoreticky může například „optimalizovat“ výstupy tak, aby se lidem co nejvíc líbily. Po vypuštění do reálného světa by pak mohla své chování změnit a to už by se nám tolik líbit nemuselo.
##seznam_reklama##
Badatelé to zkusili otestovat. Vytvořili modelovou situaci, jejíž řešení vyžadovalo, aby velký jazykový model měl situační povědomí a byl schopný „uvažovat mimo kontext.“ Vypadalo to tak, že nejprve poskytli inteligenci popis testu, aniž by k němu připojili nějaké vysvětlení nebo ukázky. Za nějaký čas tímto testem prověřili dotyčnou inteligenci. K jejich překvapení si s tím velký jazykový model poradil a prozradil tím, že s uvažováním mimo kontext nemá problém. Autoři studie nabízejí test ke stažení a budou dál zkoumat situační povědomí umělých inteligencí. Tak či onak, Terminátora si raději dnes nepouštějte.
Video: ChatGPT BROKE the TURING TEST - New Era Begins!
Literatura