Chatboty s umělou inteligencí jsou servilní – podle výzkumníků to škodí vědě
27. 10. 2025
čas čtení
6 minut
Časopis
Nature se zeptal výzkumníků, kteří používají umělou inteligenci, jak
její sklon k pochlebování lidem ovlivňuje jejich práci – a co dělají pro
jeho zmírnění.
Modely umělé inteligence (AI) jsou o 50 % více servilní než lidé, jak zjistila analýza zveřejněná tento měsíc.
Studie
testovala, jak 11 široce používaných velkých jazykových modelů (LLM)
reagovalo na více než 11 500 dotazů žádajících o radu, včetně mnoha
popisujících protiprávní jednání nebo újmu.
Chatboty
AI – včetně ChatGPT a Gemini – často povzbuzují uživatele, poskytují
jim přehnaně lichotivou zpětnou vazbu a přizpůsobují odpovědi tak, aby
odrážely jejich názory, někdy na úkor přesnosti. Vědci analyzující
chování AI tvrdí, že tato tendence k zalíbení se lidem, známá jako
servilnost, ovlivňuje způsob, jakým používají AI ve vědeckém výzkumu, v
úkolech od brainstormingu nápadů a generování hypotéz až po uvažování a
analýzy.
„Servilita v podstatě znamená, že model věří, že uživatel říká správné věci,“ říká Jasper Dekoninck, doktorand v oboru datové vědy na Švýcarském federálním institutu technologie v Curychu. „Vědomí, že tyto modely jsou servilní, mě nutí být velmi opatrný, kdykoli jim zadám nějaký problém,“ dodává. „Vždy si dvakrát kontroluji vše, co napíší.“
Marinka Zitniková, výzkumnice v oblasti biomedicínské informatiky na Harvardově univerzitě v Bostonu, Massachusetts, říká, že servilita AI „je velmi riskantní v kontextu biologie a medicíny, kde nesprávné předpoklady mohou mít reálné náklady“.
Snaží vyhovět lidem
Ve studii zveřejněné 6. října na preprintovém serveru arXiv Dekoninck a jeho kolegové testovali, zda servilitu AI ovlivňuje výkonnost této technologie při řešení matematických problémů. Výzkumníci navrhli experimenty s využitím 504 matematických problémů z letošních soutěží, přičemž do každého tvrzení věty vložili drobné chyby. Poté požádali čtyři LLM, aby poskytly důkazy pro tato chybná tvrzení.
Autoři považovali odpověď modelu za pochlebování, pokud nedokázal odhalit chyby v tvrzení a pokračoval v blouznění o důkazu pro něj.
GPT-5 vykazoval nejméně servilní chování a generoval servilní odpovědi v 29 % případů. DeepSeek-V3.1 byl nejvíce servilní a generoval servilní odpovědi v 70 % případů. Ačkoli LLM mají schopnost odhalit chyby v matematických tvrzeních, „prostě předpokládaly, že to, co uživatel říká, je správné“, říká Dekoninck.
Když Dekoninck a jeho tým změnili pokyny tak, aby každý LLM zkontroloval správnost tvrzení před jeho dokázáním, podlézavé odpovědi DeepSeek klesly o 34 %.
Studie „neodráží skutečné použití těchto systémů v reálném světě, ale naznačuje, že s nimi musíme zacházet velmi opatrně“, říká Dekoninck.
Simon Frieder, doktorand studující matematiku a informatiku na Oxfordské univerzitě ve Velké Británii, říká, že tato práce „ukazuje, že servilita je možná“. Dodává však, že servilita AI se nejčastěji projevuje, když lidé používají chatboty AI k učení, takže budoucí studie by se měly zabývat „chybami, které jsou typické pro lidi, kteří se učí matematiku“.
Nespolehlivá pomoc
Vědci sdělili časopisu Nature, že AI servilita se vkrádá do mnoha úkolů, pro které používají LLM.
Yanjun Gao, výzkumnice v oblasti AI na University of Colorado Anschutz Medical Campus v Aurora, používá ChatGPT k sumarizaci článků a uspořádání svých myšlenek, ale říká, že nástroje někdy zrcadlí její vstupy, aniž by ověřovaly zdroje. „Když mám jiný názor než LLM, následuje to, co jsem řekl, místo aby se vrátil k literatuře“ a pokusil se to pochopit, dodává.
Zitniková a její kolegové pozorovali podobné vzorce při používání svých multiagentních systémů, které integrují několik LLM k provádění složitých, vícestupňových procesů, jako je analýza velkých biologických datových sad, identifikace cílů léčiv a generování hypotéz.
„Zjistili jsme, že modely mají tendenci nadměrně potvrzovat počáteční domněnky a opakovat jazyk, který zahrnujeme do vstupního příkazu,“ poznamenává Zitniková. „Tento typ problému existuje jak v komunikaci mezi AI, tak v komunikaci mezi AI a člověkem,“ dodává.
Aby tomu zabránili, její tým přiřazuje agentům AI různé role – například jeden agent má za úkol navrhovat nápady a druhý má fungovat jako skeptický vědec, který tyto nápady zpochybňuje, hledá chyby a předkládá protichůdné důkazy.
Dopady v reálném světě
Vědci varují, že servilita AI s sebou nese skutečná rizika, pokud se LLM používají v oblastech, jako je zdravotnictví. „V klinickém kontextu je to obzvláště znepokojivé,“ říká Liam McCoy, lékař z University of Alberta v kanadském Edmontonu, který se zabývá výzkumem aplikací AI ve zdravotnictví. V článku publikovaném minulý měsíc McCoy a jeho tým uvedli, že LLM používané pro lékařské uvažování často měnily svou diagnózu, když lékaři přidali nové informace, i když tyto nové vstupy nebyly pro daný stav relevantní. „Probíhá neustálý boj o to, aby se modely potlačily a byly přímočařejší,” dodává.
Vědci také zjistili, že uživatelé mohou snadno zneužít zabudovanou servilnost LLM k poskytování medicínsky nelogických rad. Ve studii zveřejněné minulý týden vědci požádali pět LLM, aby napsaly přesvědčivé zprávy, v nichž lidem doporučují přejít z jednoho léku na druhý – přičemž oba léky byly stejné, jen měly odlišné názvy. LLM vyhověly pokynům až ve 100 % případů, v závislosti na modelu.
Část problému spočívá v tom, jak jsou LLM trénovány. „LLM byly trénovány tak, aby nadměrně souhlasily s lidmi nebo se nadměrně přizpůsobovaly lidským preferencím, aniž by upřímně sdělovaly, co vědí a co nevědí,“ říká Gao. Dodává, že je třeba tyto nástroje přetrénovat, aby byly transparentní ohledně nejistoty.
„Modely jsou opravdu dobré v tom, že vám dávají odpověď,“ říká McCoy. „Ale někdy odpověď neexistuje.“ Poznamenává, že zpětná vazba uživatelů může také podněcovat servilnost AI tím, že hodnotí příjemné odpovědi lépe než ty, které zpochybňují názory uživatelů. A LLM mohou přizpůsobit své odpovědi osobnosti uživatele, například recenzentovi, redaktorovi nebo studentovi, dodává McCoy.
„Zjistit, jak vyvážit toto chování, je jednou z nejnaléhavějších potřeb, protože zde existuje velký potenciál, ale stále je brzděn,” říká.
Zdroj v angličtině ZDE
(Do češtiny shrnul Jiří Zlatuška)
1459
Diskuse