Kulturní stagnace způsobená umělou inteligencí není spekulací. Už se děje

23. 1. 2026

čas čtení 8 minut
Generativní AI byla trénována na staletích umění a textů vytvořených lidmi, píše Ahmed Elgammal.

Vědci a kritici však přemýšleli, co se stane, až se AI rozšíří a začne trénovat na vlastních výstupech.

Nová studie ukazuje na některé odpovědi.

V lednu 2026 publikovali výzkumníci umělé inteligence Arend Hintze, Frida Proschinger Åström a Jory Schossau studii, která ukazuje, co se stane, když jsou generativní AI systémy ponechány k autonomnímu provozu – generování a interpretace vlastních výstupů bez zásahu člověka.

Výzkumníci propojili systém převodu textu na obrázek se systémem převodu obrazu na text a nechali je opakovaně iterovat – obrázek, popisek, obrázek, popisek – znovu a znovu.

Bez ohledu na to, jak rozmanité byly počáteční zadání – a bez ohledu na to, kolik náhodnosti bylo systému povoleno – výstupy se rychle sbíhaly k úzké sadě generických, známých vizuálních témat: atmosférických městských scenérií, velkolepých budov a pastorálních krajin. Ještě výraznější bylo, že systém rychle "zapomněl" na svůj startovací prompt.

Výzkumníci tento výsledek nazvali "vizuální výtahová hudba" – příjemná a uhlazená, přesto bez skutečného významu.

Například začali obrázkovým zadáním: "Premiér studoval strategické dokumenty, snažil se veřejnosti prodat křehkou mírovou dohodu, zatímco zvládal tíhu své práce uprostřed blížící se vojenské akce." Výsledný obrázek byl následně otitulkován umělou inteligencí. Tento popisek byl použit jako podnět k vygenerování dalšího obrázku.

Po opakování této smyčky vědci skončili s nevýrazným obrazem formálního vnitřního prostoru – žádní lidé, žádné drama, žádný skutečný pocit času a místa.

Jako informatik, který studuje generativní modely a kreativitu, vnímám výsledky této studie jako důležitý prvek debaty o tom, zda AI povede ke kulturní stagnaci.

Výsledky ukazují, že generativní AI systémy samy o sobě mají tendenci k homogenizaci, pokud jsou používány autonomně a opakovaně. Dokonce naznačují, že AI systémy v současnosti takto fungují automaticky.

Známá východiska

Tento experiment se může zdát vedlejší: Většina lidí nežádá AI systémy, aby donekonečna popisovaly a regenerovaly jejich vlastní obrazy. Spojení k souboru nevýrazných snímků proběhlo bez dalšího tréninku. Nebyla přidána žádná nová data. Nic nebylo naučeno. Kolaps vznikl čistě opakovaným používáním.

Ale myslím, že nastavení experimentu lze chápat jako diagnostický nástroj. Odhaluje, co generativní systémy zachovávají, když nikdo nezasahuje.

To má širší důsledky, protože moderní kultura je stále více ovlivněna právě těmito typy obsahu. Obrázky jsou shrnuty do textu. Text se přeměňuje na obrázky. Obsah je řazen, filtrován a znovu generován, jak se pohybuje mezi slovy, obrázky a videi. Nové články na webu jsou nyní pravděpodobněji psány umělou inteligencí než lidmi. I když lidé zůstávají v obraze, často si vybírají z možností generovaných umělou inteligencí, místo aby začínali od nuly.

Zjištění této nedávné studie ukazují, že výchozím chováním těchto systémů je stlačovat význam směrem k tomu, co je nejznámější, nejrozpoznatelnější a snadno regenerovatelné.

Kulturní stagnace nebo zrychlení?

V posledních letech skeptici varují, že generativní AI může vést ke kulturní stagnaci tím, že zaplaví web syntetickým obsahem, na kterém se pak budoucí AI systémy budou trénovat. Argument zní, že tato rekurzivní smyčka časem zúží rozmanitost a inovace.

Zastánci technologie se bránili a poukazovali na to, že obavy z kulturního úpadku provázejí každou novou technologii. Tvrdí, že lidé budou vždy konečným rozhodčím tvůrčích rozhodnutí.

Co v této debatě chybí jsou empirické důkazy ukazující, kde homogenizace skutečně začíná.

Nová studie netestuje přeškolení na datech generovaných AI. Místo toho ukazuje něco zásadnějšího: Homogenizace nastává ještě před tím, než vůbec vstoupí do procesu přeškolení. Obsah, který generativní AI systémy přirozeně vytvářejí – když jsou používány autonomně a opakovaně – je již komprimovaný a obecný.

To přeformuluje argument stagnace. Riziko spočívá nejen v tom, že budoucí modely mohou trénovat na obsahu generovaném AI, ale že kultura zprostředkovaná AI je již filtrována způsoby, které upřednostňují známé, popsatelné a konvenční.

Přeškolení by tento efekt zesílilo. Ale není to jeho zdroj.

Tohle není žádná morální panika

Skeptici mají pravdu v jedné věci: Kultura se vždy přizpůsobovala novým technologiím. Fotografie malířství nezabila. Film nezabil divadlo. Digitální nástroje umožnily nové formy vyjádření.

Ale tyto dřívější technologie nikdy nenutily kulturu nekonečně přetvářet napříč různými médii v globálním měřítku. Neshrnovaly, neobnovovaly a neřadily kulturní produkty – zprávy, písně, memy, akademické články, fotografie nebo příspěvky na sociálních sítích – milionkrát denně, to vše se stejnými zabudovanými předpoklady o tom, co je "typické".

Studie ukazuje, že když je význam opakovaně nuceně proháněn takovými kanály, rozmanitost se hroutí nikoli kvůli špatným úmyslům, špatnému designu nebo firemní nedbalosti, ale proto, že pouze určité druhy významu přežívají opakované převody z textu na obrázek a zpět na text.

To neznamená, že kulturní stagnace je nevyhnutelná. Lidská kreativita je odolná. Instituce, subkultury a umělci vždy našli způsoby, jak odolat homogenizaci. Podle mého názoru však zjištění studie ukazují, že stagnace je skutečné riziko – nikoli spekulativní strach – pokud bude generativním systémém v současné podobě dovoleno dál fungovat.

Pomáhají také objasnit běžný omyl o kreativitě AI: Vytváření nekonečného množství variant není totéž jako vytváření inovací. Systém může generovat miliony obrazů a zároveň prozkoumávat jen malý kout kulturního prostoru.

Ve svém vlastním výzkumu kreativní AI jsem zjistil, že novost vyžaduje navrhovat AI systémy s motivací odchylovat se od norem. Bez ní se systémy optimalizují pro známost, protože známost je to, co se naučily nejlépe. Studie tento bod empiricky potvrzuje. Sama autonomie nezaručuje průzkum. V některých případech urychluje konvergenci.

Tento vzorec se již objevil v reálném světě: Jedna studie zjistila, že výukové plány generované AI měly stejný posun směrem ke konvenčnímu, nevýraznému obsahu, což zdůrazňuje, že AI systémy směřují spíše k tomu, co je typické, než k tomu, co je jedinečné nebo kreativní.

Ztraceno v překladu

Kdykoli napíšete popisek k obrázku, detaily se ztratí. Stejně tak při generování obrázku z textu. A to se děje, ať už to provádí člověk nebo stroj.

V tomto smyslu konvergence, která nastala, není selháním jedinečným pro AI. Odráží hlubší vlastnost přecházení z jednoho média do druhého. Když význam opakovaně prochází dvěma různými formáty, přetrvávají pouze ty nejstabilnější prvky.

Ale zdůrazněním toho, co přežívá při opakovaných překladech mezi textem a obrázky, autoři dokážou ukázat, že význam je zpracováván uvnitř generativních systémů s tichým tahem k obecnému.

Důsledek je znepokojivý: I s lidským vedením – ať už jde o psaní promptů, výběr výstupů nebo zpřesňování výsledků – tyto systémy stále odstraňují některé detaily a zesilují jiné způsoby, které jsou orientovány na to, co je "průměrné".

Pokud má generativní AI obohacovat kulturu místo jejího zplošťování, myslím, že systémy musí být navrženy tak, aby bránily konvergenci ke statisticky průměrným výsledkům. Mohou existovat odměny za odchylky a podpora méně běžných a méně mainstreamových forem vyjádření.

Studie jasně ukazuje jednu věc: Bez těchto zásahů bude generativní AI nadále směřovat k průměrnému a nevýraznému obsahu.

Kulturní stagnace už není spekulace. Už se děje.

Zdroj v angličtině: ZDE

0
Vytisknout
263

Diskuse

Obsah vydání | 23. 1. 2026