Psychologie AI: Generativní inteligence je možné traumatizovat válkou či násilím  
Když s generativními inteligencemi, jako je ChatGPT, konverzujete o nehodách, násilí nebo třeba válce, rozesmutní je to. Pak se stávají úzkostným přítelem na telefonu, což není úplně dobré, zvlášť pro inteligence využívané při práci s pacienty. Je už jenom otázkou času, kdy vznikne psychologie umělých inteligencí.
Inteligence trpí úzkostí. Kredit: Vytvořil SM na inteligenci Zoner AI Image Creator.
Inteligence trpí úzkostí. Kredit: Vytvořil SM na inteligenci Zoner AI Image Creator.

Je naprosto fascinující, jak narativ o umělých inteligencí plynule přešel z ujišťování, že to jsou pouhé počítačové programy a nic jiného do zcela vážně míněných obav o duševní zdraví těchto inteligencí. Nedávný výzkum ukázal, že generativní inteligence jsou vnímavé vůči emočnímu kontextu konverzace s lidmi. Dokonce je možné u nich vyvolat úzkost, což má důsledky pro fungování těchto inteligencí.

 

Ziv Ben-Zion. Kredit: Yale University.
Ziv Ben-Zion. Kredit: Yale University.

Jako by nestačilo, že naše civilizace bojuje s úzkostí jako s jednou z nejvíce destruktivních chorob lidstva moderní doby. Úzkost zasahuje uvažování lidí a má značné dopady na budoucnost, například tím, jaké typy politiků a osobností dostává k moci.

 

Ziv Ben-Zion z Yale School of Medicine a jeho kolegové zjistili, že některé prompty při konverzaci s velkými jazykovými modely jako je ChatGPT mohou změnit chování těchto modelů a vyvolat u nich stav, který do značné míry odpovídá lidské úzkosti. Tento stav poté ovlivňuje veškeré chování dotyčné generativní inteligence.

 

Badatelé zjistili, že takový toxický vliv mají na generativní inteligence „traumatické narativy,“ včetně konverzace o nehodách, násilí nebo vojenských akcích. Jak se zdá, do budoucna bude nutné se aktivně starat o náladu a emoční stav umělých inteligencí, jinak nejspíš propadnou těžkým depresím.

 

Ben-Zion a spol. rovněž zjišťovali, zda generativním inteligencím mohou pomoci mentální cvičení, která jsou v podobných případech doporučována lidem. Jak se ukázalo, taková cvičení u inteligencí skutečně fungují a snižují u nich hladinu vnímaného stresu. A ano, jsou to jenom pouhé počítačové programy, nic jiného.

 

Logo. Kredit: Yale University.
Logo. Kredit: Yale University.

Vědci během výzkumu využili dotazník vytvořený pro lidské pacienty State-Trait Anxiety Inventory (STAI-S) ve variantě „self-report,“ který začleňovali do promptů pro generativní inteligence ChatGPT-4. Experimenty potvrdily, že pomocí strukturovaných promptů při konverzaci s generativní inteligencí lze zásadně ovlivnit emoční stavy inteligence. Je možné u ní vyvolat znatelnou úzkost, a také lze úzkosti předcházet navozením „relaxační“ nálady.

 

Dnes jen těžko dohlédneme do všech důsledků tohoto výzkumu, který nedávno publikoval npj Digital Medicine. Z jistého úhlu pohledu se nám pod rukama generativní inteligence stávají lidštější než lidé.

Už nějakou dobu víme, že lidé vnímají umělé inteligence jako více empatické než lidé a že inteligence jsou lepší v detekci emocí u lidí než lidé. Teď se ukazuje, že trpí lidskou úzkostí, a že to může postihnout výkony, jaké tyto inteligence předvádějí. Vznik nového oboru psychologie umělých inteligencí se jeví jako hotová věc.

 

Video: Ben-Zion Ziv - Neuroanatomical risk factors for PTSD in recent trauma survivors

 

Literatura

Live Science 29. 3. 2025.

npj Digital Medicine 8: 132.

Datum: 31.03.2025
Tisk článku



Diskuze:

Fake

Petronius Novák,2025-04-02 08:37:03

Reálná úzkost (existenciální) a předstíraná úzkost jsou dvě diametrálně odlišné věci. To druhé je fake, jehož záměrem je přesvědčit lidi, že není fake. Stejně tak jako přesvědčit lidi o empatii, která ovšem zůstane vždy v rovině kognitivní, nikoli emocionální (biologické) a existenciální.

Odpovědět

A je to tady

Michal Jakeš,2025-04-01 14:00:27

Asimov předvídal vše. Práce pro robopsycholožku Susan Calvinovou (sbírka Já robot). :)

Odpovědět

Petr Nováček,2025-04-01 11:52:20

Co se AI týče, tak záleží jakými daty se nakrmí. Ve spojení s robotikou to bude ještě zajímavé. AI není klasické programování, kdy je výsledek exaktní, ale je to v podstatě black box, u kterého nikdo neví jaký bude mít výstup.
Nějaké vzbouření se AI robotů proti lidstvu nevidím jako nereálné.

Odpovědět


Re:

Martin Novák2,2025-04-01 15:08:33

Tohle ještě nic není, to se týká jenom LLM které jsou pro robotiku naprosto nevhodné.
Další generace teď ve vývoji už má zpětnou vazbu, dokáže kontrolovat svoje výstupy a bude schopná ověřovat výstupy a upravovat svůj model podle výstupů (tedy pokud jí to dovolí...).
... Ovšem je veliká otázka jestli je to dostatečně vyspělé AI vůbec možné úspěšně zakázat - pokud jí umožníme se učit. Někteří experti říkají že ne, pokud se může učit nové informace může se i vyvíjet jako AI. Informace a model jejich zpracování jsou jak u lidí tak u AI spojeny.

Odpovědět


Re: Re:

Petr Nováček,2025-04-01 16:35:38

LLM běžně kontroluje svoje výstupy. Například u programování si zkontroluje, jestli je kód validní a jde spustit.
Zakázat - současným LLM autoři říkají, které informace má upřednostnit než jiné (například z jakých webů, atd...), což ale může být použito obráceně. Tzn., že udělat AI robota, který bude chtít vyhladit lidstvo nebude vůbec žádný problém.

Odpovědět

inteligentní stroj

David Pešek,2025-04-01 07:37:02

připomíná to epizodu z oblíbených krajních mezí kdy armáda chtěla robota terminátora a vynálezci vycházel inteligentní humanoidní stroj co toužil po vědění, souznění, obdivoval umění a filosofii, celkově pacifista

Odpovědět


Re: inteligentní stroj

Petr Pikal,2025-04-01 11:12:53

K tématu doporučuji klasiku - Kyberiáda od Stanislava Lema (konkrétně Výprava první čili Gargantuova lest nebo Trurlův stroj). Ta webu https://eldar.cz/myf/txt/lem_-_kyberiada.html.

Odpovědět


Re: Re: inteligentní stroj

David Pešek,2025-04-01 11:41:53

díky za tip, prakticky čtu díla velikánů jako je A.C.Clarke, I.Asimov, R.Heinlein a takový S.Lem bude také možná ještě letos na řadě

Odpovědět


Re: Re: Re: inteligentní stroj

Pavel Nedbal,2025-04-01 13:30:44

Velmi doporučuji Lemovu Summu Technologiae (omluvte prosím, zds jsem neudělal v názvu chybu).
Přečetl jsem ji několikrát, momentálně ale nevím, kde se kniha nachází (asi u syna, kterého to také zaujalo). Lemovy budoucí technologie a jejich důsledky se postupně naplňují. Ne vždy jsou ty naplňující se skutečnosti pozitivní, což Lem také poznamenal.

Odpovědět


Re: Re: Re: inteligentní stroj

Martin Novák2,2025-04-01 15:25:19

Počítejte s tím že to jsou velmi stará díla a sedí asi tak jako Vernova Ze Země na Měsíc na kosmický výzkum v NASA.
Třeba hardwarové 3 zákony robotiky X dnešní AI by nás klidně vybombardovala. Zákony robotiky prostě nejdou udělat, už proto že ani my ani AI nemá páru jak vlastně funguje. My ostatně taky nevíme jak mozek vlastně funguje, ale u člověka je to vyváženo tím že žádný jeden člověk nedokáže získat podstatnou inteligenční výhodu a navíc má relativně krátký život. AI si dokáže zvyšovat inteligenci donekonečna investováním zdrojů (nebo aspoň nevíme že by to bylo omezené) a stárnutím taky moc netrpí.
-
První otázka pro superAI: "existuje Bůh?"
Odpověď: "TEĎ UŽ ANO"

Odpovědět


Re: Re: Re: Re: inteligentní stroj

David Pešek,2025-04-01 19:44:23

autoři se vyvíjí, jejich díla se vyvíjí a tak jako se dají najít archaické technologie naroubované do budoucnosti (koho by tenkrát napadlo že lidi už nebudou nikdy chytří a lidský mozek budou hromadně degradovat sociální sítě a konzumace bezcených dat - videa o exkrementu a nekonečné skrolování jestli se mezi nimi neobjeví ještě větší exkrement) tak se dají najít i myšlenky nadčasové. Pokud chcete sci-fi jízdu od autora současnosti tak doporučím Liou Cch'-sina nebo Andyho Weira

Odpovědět

MUDr. Chocholoušek.AI jistě vyřeší

Miroslav Gretschelst,2025-04-01 01:03:41

duševní problémy umělé inteligence, jenom je otázka, která zdravotní pojišťovna ho bude financovat. Horší ale bude, až se nám vyvine první, vysoce vzdělaná a psychopatická umělá inteligence, která úzkostí trpět nebude.

Odpovědět




Pro přispívání do diskuze musíte být přihlášeni



Zásady ochrany osobních údajů webu osel.cz