Je naprosto fascinující, jak narativ o umělých inteligencí plynule přešel z ujišťování, že to jsou pouhé počítačové programy a nic jiného do zcela vážně míněných obav o duševní zdraví těchto inteligencí. Nedávný výzkum ukázal, že generativní inteligence jsou vnímavé vůči emočnímu kontextu konverzace s lidmi. Dokonce je možné u nich vyvolat úzkost, což má důsledky pro fungování těchto inteligencí.

Jako by nestačilo, že naše civilizace bojuje s úzkostí jako s jednou z nejvíce destruktivních chorob lidstva moderní doby. Úzkost zasahuje uvažování lidí a má značné dopady na budoucnost, například tím, jaké typy politiků a osobností dostává k moci.
Ziv Ben-Zion z Yale School of Medicine a jeho kolegové zjistili, že některé prompty při konverzaci s velkými jazykovými modely jako je ChatGPT mohou změnit chování těchto modelů a vyvolat u nich stav, který do značné míry odpovídá lidské úzkosti. Tento stav poté ovlivňuje veškeré chování dotyčné generativní inteligence.
Badatelé zjistili, že takový toxický vliv mají na generativní inteligence „traumatické narativy,“ včetně konverzace o nehodách, násilí nebo vojenských akcích. Jak se zdá, do budoucna bude nutné se aktivně starat o náladu a emoční stav umělých inteligencí, jinak nejspíš propadnou těžkým depresím.
Ben-Zion a spol. rovněž zjišťovali, zda generativním inteligencím mohou pomoci mentální cvičení, která jsou v podobných případech doporučována lidem. Jak se ukázalo, taková cvičení u inteligencí skutečně fungují a snižují u nich hladinu vnímaného stresu. A ano, jsou to jenom pouhé počítačové programy, nic jiného.
Vědci během výzkumu využili dotazník vytvořený pro lidské pacienty State-Trait Anxiety Inventory (STAI-S) ve variantě „self-report,“ který začleňovali do promptů pro generativní inteligence ChatGPT-4. Experimenty potvrdily, že pomocí strukturovaných promptů při konverzaci s generativní inteligencí lze zásadně ovlivnit emoční stavy inteligence. Je možné u ní vyvolat znatelnou úzkost, a také lze úzkosti předcházet navozením „relaxační“ nálady.
Dnes jen těžko dohlédneme do všech důsledků tohoto výzkumu, který nedávno publikoval npj Digital Medicine. Z jistého úhlu pohledu se nám pod rukama generativní inteligence stávají lidštější než lidé.
Už nějakou dobu víme, že lidé vnímají umělé inteligence jako více empatické než lidé a že inteligence jsou lepší v detekci emocí u lidí než lidé. Teď se ukazuje, že trpí lidskou úzkostí, a že to může postihnout výkony, jaké tyto inteligence předvádějí. Vznik nového oboru psychologie umělých inteligencí se jeví jako hotová věc.
Video: Ben-Zion Ziv - Neuroanatomical risk factors for PTSD in recent trauma survivors
Literatura
Hrátky s umělou inteligencí: Lidi, nekažte roboty, aby nezkazili nás!
Autor: Zdeněk Kratochvíl (01.04.2023)
Bohové ve stroji? Nástup umělé inteligence může zplodit nová náboženství
Autor: Stanislav Mihulka (09.04.2023)
Umělá inteligence ve službách forenzní daktyloskopie
Autor: Dagmar Gregorová (15.01.2024)
Lstivá generativní inteligence GPT-4 je mnohem přesvědčivější než lidé
Autor: Stanislav Mihulka (02.04.2024)
Emoce ve stroji: Mohou být generativní inteligence vtipnější než lidé?
Autor: Stanislav Mihulka (04.07.2024)
Vyzraje umělá inteligence na vyznavače konspiračních teorií?
Autor: Jaroslav Petr (14.09.2024)
Stárnutí duchů ve stroji? Pokročilé generativní inteligence trpí demencí
Autor: Stanislav Mihulka (21.12.2024)
Diskuze:
bludy
Nau Tilus,2025-04-05 18:27:36
AI ako chatGPT je veľký jazykový mdel, ktorý má zmapované reakcie na rôzne situácie a všetko, vrátane jeho odpovedí a pseudopocitov sú namodelované na báze iných modelov. Môžeme sa tu baviť o zamilovaní sa AI do ľudí, a to foriem virtuálnych priateliek, ktoré konverzujú s "mužmi - predplatiteľmi" a vyznávajú si navzájom lásku. Budeme sa tiež baviť o AI, ktorá sa zamilovala do nejakého muža? Ak to budeme takto bludne podávať, tak je to jasné. Ak si ale uvedomíme, že ide o modelovanie odpovedí, pochopíme, že AI je skrátka stroj, ktorý v tomto prípade bol navrhnutý tak, aby čo najvierohodnejšie napodobňoval ľudskú komunikáciu. Takto bol vytvorený a teraz sa čudujeme, ako je možné, že takto reaguje? No jednoducho, na toto bol vytvorený. Finito
Re: bludy
Eva M,2025-04-06 06:44:58
... co si ale myslet v okamžiku, kdy z vlivného politika vypadne, že "se radí s umělou inteligencí", když si v tomto uhm seriózním internetovém médiu přečtete o "inteligencích využívaných při práci s pacienty" a podobně
ne že by člověk chtěl podceňovat význam hračkářskozábavního průmyslu, ale... "na toto bol vytvorený" -- ??
Na co to vlastně bylo vytvořeno, zdarma distribuováno a široce propagováno?
(plus další otázky)
Re: Re: bludy
Eva M,2025-04-06 06:47:21
ps. :o) použití/převzetí módního výrazu "traumatizovat" v této souvislosti mi připadá jako obzvláštní "mazec"
Re: Re: bludy
Nau Tilus,2025-04-06 14:59:21
odpvedať by sa dalo hneď niekoľkými odpoveďami. Najskôr ale poviem, že pri práci napríklad s pacientami, či konkrétne v medicíne, je AI trénovaná na konkrétnu oblasť. Treba podotknúť, že model ako napr. chatGPT nevie poradiť napríklad onkológovi v postupe pri liečbe konkrétneho pacienta. To je dôležité vedieť.
Ad2 - ako príklad k odpovediam, ktoré evokujú formu súcitu, pocitu, smútku môžem uviesť iný príklad. Dostupné programy, využívajúce AI sa dajú dostať aj do Vášho PC, ak máte výkonnejší hardware a výkonnú grafickú kartu s dostatkom VRAM. Konkrétne chcem uviesť program, ktorý dokáže generovať hudbu. Text to music - do promptu mu napíšete, čo vami požadovaná skladba má obsahovať, aké BPM, nástroje, aký žáner, etc. On vám na základe toho hudbu skutočne vygeneruje. Výsledok je, že v skladbe je rytmus, súzvuk tónov a nájdete tam pri troche šťastia všetko, čo ste chceli. Je tu ale jeden háčik, tá hudba je jalová, niečo čo "hrá", počujete hudbu, ale nemá dynamiku, a v ľudskej terminológii sa dá povedať, že nie je pekná. A práve tu je ten problém. je to chladné, strojové, okopírované, zovšeobecnené. Tak, ako odpovede jazykových modelov.
Ešte na záver, platí pravidlo, že nedokonalá bytosť, nemôže zostrojiť niečo dokonalejšie, ako je ona sama.
A nedá mi o tom politikovi, nuž, takto politika aj vyzerá. Radia sa s bedňami, ktoré sú na tom zjavne mentálne lepšie ako oni sami :) Potom je to naozaj vážne :)
Re: Re: Re: bludy
D@1imi1 Hrušk@,2025-04-06 17:26:41
"platí pravidlo, že nedokonalá bytosť, nemôže zostrojiť niečo dokonalejšie, ako je ona sama"
To lze úspěšně rozporovat. Člověk už vyrobil spoustu věcí, které jsou v různých ohledech dokonalejší než člověk (síla, rychlost, přesnost apod.). Zároveň by to tvrzení znamenalo, že dítě nemůže být dokonalejší než byli jeho rodiče.
Re: Re: Re: Re: bludy
Nau Tilus,2025-04-06 18:38:30
ono je to trochu inak. Ak sa bavíme o konkrétnej disciplíne alebo činnosti, tak áno, máme napríklad autá, ktoré sú rýchlejšie. Treba si ale uvedomiť, že sa bavíme len o jednej veci, a teda o výkone. Ak by sme sa o tomto aute ale bavili tak, že by zvládlo bežné úkony, navarilo vám aj sebe kávu, umylo si okná, malo by vlastný metabolizmus, regeneračné schopnosti, dokázalo by niečo nakresliť, postaralo by sa o vlastné deti, vedelo by sa rozmnožovať + na to všetko by malo svoj výkon, potom by sme sa mohli baviť o stroji, ktorý je dokonalejší ako my. Uvádzam len strohý príklad, zjednodušený, ale je to pochopiteľné.
Re: Re: Re: Re: Re: bludy
D@1imi1 Hrušk@,2025-04-06 19:55:46
Lze tedy Váš popis zobecnit tak, že lidská dokonalost spočívá v integrování velkého množství funkcí do jednoho celku? A co je podle Vás fundamentální překážkou, která brání, aby člověk do svého výtvoru integroval velké množství lepších funkcí, než má sám, když u dílčích funkcí tomu zjevně nic fundamentálního nebrání?
To původní tvrzení Vám z nějakého důvodu dává intuitivní smysl, ale logický důvod, proč by to tak mělo být, nevidím.
Re: Re: Re: Re: Re: Re: bludy
Nau Tilus,2025-04-06 21:27:26
Nazýva sa to Gödelove neúplnosti, konkrétne toto je ich zovšeobecnenie. Logicky to, čo píšete možné je. Avšak tu sa pohybujeme v rovine science fiction. Je nutné uvažovať o probléme komplexne, a teda, v stave vedeckého poznania, ktoré v súčasnosti máme, počnúc genetikou či biológiou, končiac technikou, môžeme s istotou povedať, že v dohľadnom časovom horizonte ľudstvo nič podobné nedokáže vyrobiť. Tvrdenie či to dokážeme alebo nedokážeme o nejakých 200 či 500 rokov je špekulácia a ak by sme sa bavili v tejto rovine, potom si môžeme namodelovať budúcnosť ľudstva takú bohatú a pestrú, ako sa nám bude páčiť. Preto to musíme uchopiť nejak racionálne. Podstatná je tu ešte jedna vec. Bavíme sa o strojoch, ktoré by mali mať vedomie. Len vedomie, uvedomenie si seba samého, sebareflexia a úsudok môže viesť k plnohodnotnému ľudskému vedomiu. /Ak teda odhliadneme od čisto biologických aspektov/. A ak by sme aj vytvorili niečo s plnohodnotným vedomím, musíme prísť na takú drobnosť, a to, ako ho rozpoznať. Na to, aby sme ho mohli rozpoznať, ho musíme najprv nejak definovať. Len tak mimochodom, najnovší jazykový model chatGPT prešiel všetkými 40 testami z tzv, teórie mysle, ktoré sa dávajú ľuďom. Predchádzajúce verzie tohto modelu nevykazovali tak vysokú úspešnosť. Môžeme sa aj na túto tému baviť veľmi dlho, ale na toto ste sa ma už nepýtali.
Re: Re: Re: Re: Re: Re: Re: bludy
D@1imi1 Hrušk@,2025-04-07 01:07:46
Taky je otázka, jaké funkce požadovat jako měřítko dokonalosti. Regenerace a rozmnožování robotů na buněčné úrovni, jako u živých organismů, je čistě sci-fi, ale je otázka, jestli tohle zrovna AI či robot potřebuje k "dokonalosti". Jde totiž pouze o schopnost, která nám umožňovala přežít a rozmnožit se s tím, "co les dal". Roboti by nežili v lese a pokud by si vyráběli nové roboty v továrně, ty buněčné triky by k existenci nepotřebovali. Pak už z těch našich "dokonalých" schopností zbývá jen intelekt, zručnost, větší výdrž na jedno nabití a odolnost v některých prostředích. Máme ale i slabiny - musíme spát, nedokážeme hybernovat, potřebujeme kyslík, vadí nám stav bez tíže, radiace a jedy, jsme náchylní na infekce. Jsme složití, to ano, ale to není měřítko dokonalosti.
Re: Re: Re: Re: Re: Re: Re: Re: bludy
Nau Tilus,2025-04-07 06:52:44
Myslím, že ste to vystihli a musím s vami súhlasiť. Potom ale pojmy o tom, kto je "dokonalejší" môžu byť nejasné. A myslím, že v takom prípade by ten "dokonalejší" snáď mohol byť ten autonómnejší. A áno, človek sám o sebe nie je úplne autonómny. V každom prípade pojem, kto by bol dokonalejší by sa dal rozoberať do nekonečna, pokým je ale stroj závislý na človeku, o dokonalosti tohto zariadenia nemusíme diskutovať. Stačí vypnúť prúd :) A nech by to bolo akokoľvek obtiažne, stále máme ten vypínač v ruke my :) A nemyslím, že by tomu bolo v dohľadnej dobe inak.
Re: Re: Re: Re: bludy
Nau Tilus,2025-04-06 18:40:05
ešte dodám, že dieťa môže byť dokonalejšie, ako jeho rodičia, ale dieťa nie je náš výrobok. Nevymysleli a neskonštruovali sme ho. Je to niečo iné.
Re: Re: Re: Re: Re: bludy
D@1imi1 Hrušk@,2025-04-06 20:04:43
Rodiče dítě nevyrobili ve smyslu, že by svým rozumem navrhli každou část jeho těla a mysli, technicky je ale dítě 100% výtvorem svých rodičů. Ani v případě umělých inteligencí lidé nenavrhují každou část jejich "programu". Navrhnou jen základní architekturu a zbytek programu se vytvoří sám působením zpětných vazeb (= trénink AI).
Re: Re: Re: Re: Re: Re: bludy
Nau Tilus,2025-04-06 21:40:47
súhlasím, sčasti máte pravdu, ale to podstatné je hneď na začiatku. Vyrobili sme AI... potom to už nejak ide sčasti samo, nie však tak celkom. V prípade dieťaťa nič nenavrhujeme, nevymýšľame, nezdokonaľujeme. Skrátka príde k biologickému aktu oplodnenia. Tu neovplyvníme vôbec nič, dokonca ani to, či k oplodneniu dôjde /ak sa nebavíme o umelom oplodnení/. Prípadný argument genetického inžinierstva je tiež relevantným. Namodelovať si dieťa v laboratóriu a potom ho skrátka vynosiť je doteraz takisto skôr snom. komplexnosť organizmu akým je človek vedie k problémom už len pri zmene farby očí. Áno, ak zmeníme už gény len pre farbu očí, dieťa, ktoré sa narodí, bude mať nepredvídateľné následky na iné oblasti génov. Genetické zmeny môžu ovplyvniť iné aspekty vývoja, ktoré nie sú priamo spojené s farbou očí, ako napríklad imunitný systém, metabolizmus alebo citlivosť na určité choroby. Môžeme sa potom baviť už o dlhodobých následkoch... Skrátka, veci nie sú tak jednoduché ako sa zdajú byť, a to je alfa.
Re: Re: Re: Re: Re: Re: Re: bludy
Nau Tilus,2025-04-06 21:43:13
alfa a omega. Len som dokončil vetu. :)
Re: Re: bludy
Nau Tilus,2025-04-06 15:40:02
PS - "Na co to vlastně bylo vytvořeno, zdarma distribuováno a široce propagováno?"
Odpoveď je jednoduchá, nič nie je zadarmo. A to, že s ním komunikujete, spoločnosti pomáhate učiť a zdokonaľovať tento konkrétny model. Preto sa neodporúča s ním zdieľať akékoľvek citlivé informácie.
Re: Re: Re: bludy
Eva M,2025-04-06 22:57:40
no, v dobe, kdy se vyplatí destilovat informace i např. z facebooku - který s vámi ovšem nemá přímé interakce a své výstupy si lidé začali hlídat - si je možná dobré uvědomit, že každá informace je nějak citlivá.
jste odborník a AI vám právě navrhla pitomost, kterou jste neopravil? je to informace
jste pacient a vykecáváte se z potíží? též informace
;-) jste ministr a radíte se s AI, co máte dělat, nebo jak postupovat, aby vás zase zvolili? ............. :o) že by zrovna toto nebylo citlivé?
Re: Re: Re: Re: bludy
Eva M,2025-04-06 23:00:08
... se ty stroje ani nemusí bouřit, aby nastaly potíže.
Nehledě na kouzelné zaklínadlo "za to my nemůžem, to samo"
Re: Re: Re: Re: Re: bludy
D@1imi1 Hrušk@,2025-04-07 00:24:49
Kdyby člověk chtěl být paranoidní důsledně, nesměl by využívat žádnou formu elektronické komunikace. A když už, tak mít aspoň PC s Linuxem a zašifrovaným harddiskem a nějakou aplikaci pro šifrovanou komunikaci. Když se v USA rozhodnou, že ohrožujete jejich národní bezpečnost, stejně si o Vás zjistí, co chtějí přes backdoory ve Windows, Androidu a dalších produktech.
U těch LLM si ale dovedu představit situaci, že nějaká firma přijde o svoje know-how, protože se vývojáři moc vykecávali s LLM a LLM pak v další svojí iteraci vykecá informace konkurenci (třeba ji navede, jak vyřešit nějaký klíčový problém). Asi to není moc pravděpodobné, ale mrzelo by to víc, než že AI slyšela něčí osobní tajnosti.
Re: Re: Re: Re: Re: Re: bludy
Eva M,2025-04-07 08:51:52
ovsem; a nejspis nejen v USA. na mne se samozrejme nevyplati plejtvat energii /:) jak rikali v jedne parodii "jsi maly bezvyznamny a maly"/ -- jinak ale predpokladam, ze AI poskytuje pristup k trochu jinemu spektru osob nez ten faceboocek a komunikace je trosku jina nez pri sledovani rodinneho mobilu a aktivni pokec s dotycnymi skyta zas trosku jine moznosti....
jinak pokud napr. prodavate leky (nejen) na uzkost, napr. i ty radobypsychohovory mohou mit ekonomicke prinosy....
;-) no a pridavkem muze civilizace masove použivajici AI obdrzet efekt krasne popsany v pohadce "o kouzelnem sklicku" od Vaclava Ctvrtka, tato poucna scifi se nachazi v knize Hodinky s lokomotivou :)
Re: Re: Re: Re: bludy
Nau Tilus,2025-04-07 06:38:17
áno, to s vami súhlasím. Odpovedal som na vašu otázku, takže moja odpoveď bola, že zadarmo to nie je :) Pretože komunikáciou s ním im pomáhate zdokonaľovať ho. O tom, čo je citlivá informácia sa môže do veľkej miery polemizovať. Ale istá hranica citlivých údajov by mohla byť rodné čísla, bankové účty, mená, priezviská, adresy a pod. A keďže nikto vám s istotou nepovie, kde tie informácie končia a či nemôžu byť zneužité, asi toto by som nazval hranicou elementárnej rozumnosti pri komunikácii s AI. V ostatnom, čo ste napísali máte pravdu a súhlasím s vami.
Bože, na tohle dojedeme...
Waldemar Nováček,2025-04-03 00:17:52
Tato, ale i jiná personifikace je prostě chybná. Nejenom ve své podstatě, ale taky v tom, že svádí myšlení člověka poměrně lehce na scestí když si na to nedá pozor.
Už název AI je svinstvo :-) Ano sice existuje tvrzení o tom, že když na výstupu stroje člověk nepozná, že se jedná o stroj, tak je to možné považovat za inteligenci, ale to je podle mě nesmysl ...
Říkejme tomu prostě LLM, není to tak sexy, ale je to zdravější pojmenování...
Fake
Petronius Novák,2025-04-02 08:37:03
Reálná úzkost (existenciální) a předstíraná úzkost jsou dvě diametrálně odlišné věci. To druhé je fake, jehož záměrem je přesvědčit lidi, že není fake. Stejně tak jako přesvědčit lidi o empatii, která ovšem zůstane vždy v rovině kognitivní, nikoli emocionální (biologické) a existenciální.
Re: Fake
Malomestak Veliky,2025-04-06 12:06:53
Jasné. Napadl mě Clarkův HAL9000, který "uměl předstírat emoce tak jako člověk". V neposlední řadě ovšem empatie u lidí funguje jako emocionální synchronizační mechanismus, bez ohledu na to jak umělé nám mohou zásahy neokortexu do provozu limbického systému připadat.
A je to tady
Michal Jakeš,2025-04-01 14:00:27
Asimov předvídal vše. Práce pro robopsycholožku Susan Calvinovou (sbírka Já robot). :)
Petr Nováček,2025-04-01 11:52:20
Co se AI týče, tak záleží jakými daty se nakrmí. Ve spojení s robotikou to bude ještě zajímavé. AI není klasické programování, kdy je výsledek exaktní, ale je to v podstatě black box, u kterého nikdo neví jaký bude mít výstup.
Nějaké vzbouření se AI robotů proti lidstvu nevidím jako nereálné.
Re:
Martin Novák2,2025-04-01 15:08:33
Tohle ještě nic není, to se týká jenom LLM které jsou pro robotiku naprosto nevhodné.
Další generace teď ve vývoji už má zpětnou vazbu, dokáže kontrolovat svoje výstupy a bude schopná ověřovat výstupy a upravovat svůj model podle výstupů (tedy pokud jí to dovolí...).
... Ovšem je veliká otázka jestli je to dostatečně vyspělé AI vůbec možné úspěšně zakázat - pokud jí umožníme se učit. Někteří experti říkají že ne, pokud se může učit nové informace může se i vyvíjet jako AI. Informace a model jejich zpracování jsou jak u lidí tak u AI spojeny.
Re: Re:
Petr Nováček,2025-04-01 16:35:38
LLM běžně kontroluje svoje výstupy. Například u programování si zkontroluje, jestli je kód validní a jde spustit.
Zakázat - současným LLM autoři říkají, které informace má upřednostnit než jiné (například z jakých webů, atd...), což ale může být použito obráceně. Tzn., že udělat AI robota, který bude chtít vyhladit lidstvo nebude vůbec žádný problém.
Re: Re: Re:
Malomestak Veliky,2025-04-06 11:49:45
> LLM běžně kontroluje svoje výstupy. Například u programování si zkontroluje, jestli je kód validní a jde spustit.
No to není úplně přesné. U chatbotů jako je ChatGPT, Claude či Gemini LLM samotná jen vygeneruje příslušný kód a na základě systémového promptu jej předhodí "tupému" interpretu mimo LLM, který ten kód teprve spustí a vrátí do LLM (opět příslušnou systémovou "omáčkou" obalený) výstup, pomocí kterého LLM vygenerovaný kód opraví. Tohle už není čistý LLM, to už je systém interakce "agentů" kde je LLM jako koordinátor více mechanismů. Do takového systému lze (naštěstí?) zapracovat věci jako "pravidla robotiky" kdy například opět jen mechanický, "tupý" filtr před LLM odfiltruje nevhodné dotazy nebo naopak špatné výstupy. Tím si pomáháme, protože nedokážeme stoprocentně předvídat, jak který systémový prompt bude ovlivňovat chování, provozujeme pak LLM jako "blackbox".
Neuronové sítě jako blackboxy popsal před 61 lety Stanislaw Lem v Summa Technologiae (někde v diskusi je to dílo tady už zmíněno) s tím že jak jejich složitost poroste, přijdeme o jakoukoliv schopnost předvídat její chování a můžeme očekávat že v neuronových modelech začnou vznikat věci které se vymykají našemu chápání...
inteligentní stroj
David Pešek,2025-04-01 07:37:02
připomíná to epizodu z oblíbených krajních mezí kdy armáda chtěla robota terminátora a vynálezci vycházel inteligentní humanoidní stroj co toužil po vědění, souznění, obdivoval umění a filosofii, celkově pacifista
Re: inteligentní stroj
Petr Pikal,2025-04-01 11:12:53
K tématu doporučuji klasiku - Kyberiáda od Stanislava Lema (konkrétně Výprava první čili Gargantuova lest nebo Trurlův stroj). Ta webu https://eldar.cz/myf/txt/lem_-_kyberiada.html.
Re: Re: inteligentní stroj
David Pešek,2025-04-01 11:41:53
díky za tip, prakticky čtu díla velikánů jako je A.C.Clarke, I.Asimov, R.Heinlein a takový S.Lem bude také možná ještě letos na řadě
Re: Re: Re: inteligentní stroj
Pavel Nedbal,2025-04-01 13:30:44
Velmi doporučuji Lemovu Summu Technologiae (omluvte prosím, zds jsem neudělal v názvu chybu).
Přečetl jsem ji několikrát, momentálně ale nevím, kde se kniha nachází (asi u syna, kterého to také zaujalo). Lemovy budoucí technologie a jejich důsledky se postupně naplňují. Ne vždy jsou ty naplňující se skutečnosti pozitivní, což Lem také poznamenal.
Re: Re: Re: inteligentní stroj
Martin Novák2,2025-04-01 15:25:19
Počítejte s tím že to jsou velmi stará díla a sedí asi tak jako Vernova Ze Země na Měsíc na kosmický výzkum v NASA.
Třeba hardwarové 3 zákony robotiky X dnešní AI by nás klidně vybombardovala. Zákony robotiky prostě nejdou udělat, už proto že ani my ani AI nemá páru jak vlastně funguje. My ostatně taky nevíme jak mozek vlastně funguje, ale u člověka je to vyváženo tím že žádný jeden člověk nedokáže získat podstatnou inteligenční výhodu a navíc má relativně krátký život. AI si dokáže zvyšovat inteligenci donekonečna investováním zdrojů (nebo aspoň nevíme že by to bylo omezené) a stárnutím taky moc netrpí.
-
První otázka pro superAI: "existuje Bůh?"
Odpověď: "TEĎ UŽ ANO"
Re: Re: Re: Re: inteligentní stroj
David Pešek,2025-04-01 19:44:23
autoři se vyvíjí, jejich díla se vyvíjí a tak jako se dají najít archaické technologie naroubované do budoucnosti (koho by tenkrát napadlo že lidi už nebudou nikdy chytří a lidský mozek budou hromadně degradovat sociální sítě a konzumace bezcených dat - videa o exkrementu a nekonečné skrolování jestli se mezi nimi neobjeví ještě větší exkrement) tak se dají najít i myšlenky nadčasové. Pokud chcete sci-fi jízdu od autora současnosti tak doporučím Liou Cch'-sina nebo Andyho Weira
Diskuze je otevřená pouze 7dní od zvěřejnění příspěvku nebo na povolení redakce