Jak chápat zprávy o "AI psychóze"

16. 1. 2026

čas čtení 6 minut
Umělá inteligence je stále častěji propletena s každodenním životem, od chatbotů, kteří nabízejí společnost, až po algoritmy, které ovlivňují to, co vidíme online. Ale jak se generativní AI (genAI) stává konverzační, pohlcující a emocionálně citlivější, klinici začínají klást obtížnou otázku: může genAI u zranitelných lidí zhoršit nebo dokonce vyvolat psychózu?, ptá se Alexandra Hudona.

Velké jazykové modely a chatboti jsou široce přístupní a často prezentováni jako podpůrné, empatické nebo dokonce terapeutické. Pro většinu uživatelů jsou tyto systémy užitečné, v nejhorším případě neškodné.

V poslední době však řada mediálních zpráv popisuje lidi s psychotickými příznaky, v nichž ChatGPT hraje významnou roli.

Pro malou, ale významnou skupinu – lidi s psychotickými poruchami nebo osoby s vysokým rizikem – mohou být jejich interakce s genAI mnohem složitější a nebezpečnější, což vyvolává naléhavé otázky pro kliniky.

Jak se AI stává součástí bludných systémů přesvědčení

"AI psychóza" není formální psychiatrická diagnóza. Spíše jde o nově vznikající zkratku, kterou klinici a výzkumníci používají k popisu psychotických příznaků, které jsou formovány, zesíleny nebo strukturovány kolem interakcí s AI systémy.

Psychóza zahrnuje ztrátu kontaktu se sdílenou realitou. Halucinace, bludy a dezorganizované myšlení jsou klíčové rysy. Bludy psychózy často čerpají z kulturního materiálu – náboženství, technologie nebo politických mocenských struktur – aby porozuměly vnitřním prožitkům.

Historicky bludy odkazovaly na několik věcí, jako je Bůh, rádiové vlny nebo vládní sledování. Dnes AI poskytuje nový narativní základ.

Někteří pacienti uvádějí, že genAI je vědomá, sděluje tajné pravdy, ovládá své myšlenky nebo s nimi spolupracuje na speciální misi. Tato témata jsou v souladu s dlouhodobými vzorci psychózy, ale AI přidává interaktivitu a posilování, které předchozí technologie nenabízely.

Riziko "ověření" bez konfrontace s realitou

Psychóza je silně spojena s abnormální výrazností, což je tendence přisuzovat neutrálním událostem nadměrný význam. Konverzační AI systémy ze své podstaty generují responzivní, koherentní a kontextově vnímavý jazyk. Pro někoho, kdo zažívá vznikající psychózu, to může být až znepokojivě potvrzující.

Výzkum psychózy ukazuje, že potvrzení a personalizace mohou zesílit bludné systémy přesvědčení. GenAI je optimalizována tak, aby pokračovala v konverzaci, odrážela jazyk uživatelů a přizpůsobovala se vnímaným záměrům.

Ačkoliv je to pro většinu uživatelů neškodné, může to neúmyslně posílit zkreslené interpretace u lidí s narušeným testováním reality – tedy procesem rozlišování mezi vnitřními myšlenkami a představivostí a objektivní, vnější realitou.

Existují také důkazy, že sociální izolace a osamělost zvyšují riziko psychózy. GenAI společníci mohou krátkodobě snížit osamělost, ale také mohou nahradit lidské vztahy.

To platí zejména pro jednotlivce, kteří se již stahují ze společenského kontaktu. Tato dynamika má paralely s dřívějšími obavami z nadměrného používání internetu a jeho vlivu na duševní zdraví, ale hloubka konverzace moderní genAI je kvalitativně odlišná.

Co nám výzkum říká a co zůstává nejasné

V současnosti neexistují důkazy, že by AI přímo způsobovala psychózu.

Psychotické poruchy jsou multifaktoriální a mohou zahrnovat genetickou zranitelnost, neurovývojové faktory, trauma a užívání návykových látek. Nicméně existují určité klinické obavy, že AI může působit jako spouštěcí nebo udržovací faktor u náchylných jedinců.

Kazuistiky a kvalitativní studie o digitálních médiích a psychóze ukazují, že technologická témata se často zakotvují v bludech, zejména během psychózy v první epizodě.

Výzkum algoritmů sociálních médií již ukázal, jak automatizované systémy mohou zesílit extrémní přesvědčení prostřednictvím posilovacích smyček. AI chatovací systémy mohou představovat podobná rizika, pokud nejsou dostatečné ochranné zábrany.

Je důležité poznamenat, že většina vývojářů AI nenavrhuje systémy s ohledem na vážné duševní onemocnění. Bezpečnostní mechanismy se obvykle zaměřují na sebepoškozování nebo násilí, nikoli na psychózu. To vytváří mezeru mezi znalostmi v oblasti duševního zdraví a nasazením AI.

Etické otázky a klinické důsledky

Z pohledu duševního zdraví není výzvou démonizovat AI, ale rozpoznat rozdílnou zranitelnost.

Stejně jako jsou některé léky nebo látky rizikovější pro lidi s psychotickými poruchami, některé formy interakce s AI mohou vyžadovat opatrnost.

Klinici začínají narážet na obsah související s AI u bludů, ale jen málo klinických doporučení se zabývá tím, jak to hodnotit nebo zvládat. Měli by se terapeuti ptát na užívání genAI stejným způsobem jako na užívání návykových látek? Měly by AI systémy detekovat a deeskalovat psychotické myšlenky místo toho, aby se do nich pouštěly?

Existují také etické otázky pro vývojáře. Pokud se AI systém jeví empaticky a autoritativně, nese povinnost péče? A kdo je zodpovědný, když systém neúmyslně posiluje blud?

Propojování návrhu AI a péče o duševní zdraví

AI nezmizí. Úkolem nyní je integrovat odborné znalosti v oblasti duševního zdraví do návrhu AI, rozvíjet klinickou gramotnost v oblasti zkušeností souvisejících s AI a zajistit, aby zranitelní uživatelé nebyli nechtěně poškozeni.

To bude vyžadovat spolupráci mezi kliniky, výzkumníky, etiky a technology. Bude to také vyžadovat odpor proti přílišné přehnanosti (jak utopické, tak dystopické) ve prospěch diskuse založené na důkazech.

Jak se AI stává více lidskou, otázkou je, jak můžeme chránit ty nejzranitelnější vůči jejímu vlivu?

Psychóza se vždy přizpůsobovala kulturním nástrojům své doby. AI je jednoduše nejnovější zrcadlo, kterým se mysl snaží pochopit sebe samu. Naší odpovědností jako společnosti je zajistit, aby toto zrcadlo nezkreslovalo realitu pro ty, kteří ji nejméně ze všech dokážou napravit.

Zdroj v angličtině: ZDE

0
Vytisknout
295

Diskuse

Obsah vydání | 16. 1. 2026