"Proč je to 
důležité: Každý krok při učení, ladění a nasazování modelů umělé 
inteligence nutí její tvůrce rozhodovat o tom, čí hodnoty bude systém 
respektovat, čí úhel pohledu bude prezentovat a jaké limity bude 
dodržovat. 
Celkový obraz: Tvůrci předchozích 
dominantních technologických platforem, jako je počítač nebo chytrý 
telefon, se museli pouštět do sporů o hranice map nebo o pravidla obchodu s
 aplikacemi. Tyto problémy však ležely spíše na okrajích než v centru 
samotných systémů. "Je to poprvé, kdy technologická platforma přichází s
 hodnotami a předsudky," řekl Axiosu na Světovém ekonomickém fóru v 
Davosu minulý týden jeden z průkopníků umělé inteligence, který si 
nepřál být jmenován. "To je něco, čeho si země začínají všímat."
Jak
 to funguje: Úhel pohledu systémů umělé inteligence začíná v datech, na 
kterých jsou vyškoleny - a v úsilí, které jejich vývojáři mohou 
vynaložit na zmírnění zkreslení v datech. Odtud většina systémů prochází
 snahou o "vyrovnání", při níž se vývojáři snaží učinit umělou 
inteligenci "bezpečnější" tím, že její odpovědi hodnotí jako více či 
méně žádoucí.
Ano, ale: Tvůrci běžně hovoří o 
"sladění s lidskými hodnotami", aniž by si uvědomovali, jak hluboce jsou
 všechny lidské hodnoty sporné.
V USA například
 můžete říci, že váš chatbot AI je vycvičen k "respektování lidského 
života", ale pak musíte rozhodnout, jak bude řešit diskuse o 
potratech. Můžete říct, že je na straně lidských práv a demokracie, ale 
nějak bude muset vymyslet, co říct na tvrzení Donalda Trumpa, že volby v
 roce 2020 byly ukradeny. 
Vzhledem k tomu, že 
se mnozí tvůrci umělé inteligence snaží zabránit tomu, aby jejich 
systémy vykazovaly rasistické, antisemitské nebo anti-LGBTQ tendence, 
čelí stížnostem, že jsou "příliš liberální". Systém Grok od společnosti X.ai 
Elona Muska je výslovně navržen jako antiliberální alternativa.
V
 globálním měřítku je situace ještě složitější. Jedny z největších 
rozdílů jsou mezi USA a Čínou - z geopolitických důvodů však budou 
systémy vyvinuté v USA pravděpodobně v Číně nedostupné a naopak. 
Skutečná globální bitva se odehraje v ostatním světě, kde si 
pravděpodobně budou čelně konkurovat jak čínské, tak americké systémy.
 
Tvůrci
 umělé inteligence čelí tlaku vlád, aby přizpůsobili své systémy tak, 
aby odrážely odlišné názory, například na otázky týkající se práv žen a 
LGBTQ. Jiné režimy mohou na tvůrce systémů umělé inteligence vyvíjet 
tlak, aby omezili kritiku vlády a diskusi o politických rivalech. Dalším
 bodem napětí se stane způsob, jakým generativní systémy umělé 
inteligence prezentují kontroverzní aktuální události, jako je současná 
izraelská válka v Gaze.
Co říkají: V 
rozhovorech s vedoucími představiteli AI v Davosu někteří považovali 
problém hodnot za hlavní problém, zatímco jiní tato rizika 
bagatelizovali. Generální ředitel společnosti OpenAI Sam Altman, který 
byl na tuto otázku dotázán v rozhovoru na pódiu v Axios House, uvedl, že
 pouze v extrémních případech by se společnost rozhodla nevstoupit na 
daný trh. "Pokud by země řekla, víte, že všichni homosexuálové by měli 
být na místě zabiti, pak ne," řekl Axiosu.
Altman
 však také připustil, že univerzální sada odpovědí pravděpodobně nebude 
platit po celém světě, a naznačil, že společnost OpenAI bude otevřena 
úpravám svých odpovědí pro různé uživatele nebo země. "Jako tvůrce 
nástrojů zde musíme být poněkud nesví s některými způsoby použití našich
 nástrojů," řekl. "Existuje spousta vlád, které podle mě mají jiné 
názory než my, u kterých se dá stále říct, že je tu dost společného."
V
 současné době v mnoha případech pouze tvůrci systému umělé inteligence 
přesně vědí, jaké hodnoty se snaží zakotvit - a jak jsou úspěšní.
 
Alexandra
 Reeve Givensová, generální ředitelka Centra pro demokracii a 
technologie, uvedla, že ji znepokojuje, že rozhodnutí mnoha společností 
zabývajících se umělou inteligencí nejsou veřejnosti viditelná a není 
ani jasné, jak k nim dospěly a s kým je konzultovaly. "Potřebujeme větší
 viditelnost a pochopení způsobů, jakými tyto procesy vedou a jak tato 
rozhodnutí činí," řekla Givensová v rozhovoru na okraj Světového 
ekonomického fóra.
Givensová sice připustila, 
že je nepravděpodobné, že by jeden soubor hodnot byl přijatelný na celém
 světě, ale transparentnost je podle ní důležitá zejména v případech, 
kdy společnosti působí v zemích, o nichž je známo, že porušují lidská 
práva. Givensová navrhla, že společnosti zabývající se umělou 
inteligencí potřebují něco podobného jako Zásady ze Santa Clary, které 
byly vyvinuty před deseti lety jako standard pro osvědčené postupy, 
transparentnost a odpovědnost při rozhodování o moderování obsahu, 
uzavírá článek.
 
 
Diskuse