"Proč je to
důležité: Každý krok při učení, ladění a nasazování modelů umělé
inteligence nutí její tvůrce rozhodovat o tom, čí hodnoty bude systém
respektovat, čí úhel pohledu bude prezentovat a jaké limity bude
dodržovat.
Celkový obraz: Tvůrci předchozích
dominantních technologických platforem, jako je počítač nebo chytrý
telefon, se museli pouštět do sporů o hranice map nebo o pravidla obchodu s
aplikacemi. Tyto problémy však ležely spíše na okrajích než v centru
samotných systémů. "Je to poprvé, kdy technologická platforma přichází s
hodnotami a předsudky," řekl Axiosu na Světovém ekonomickém fóru v
Davosu minulý týden jeden z průkopníků umělé inteligence, který si
nepřál být jmenován. "To je něco, čeho si země začínají všímat."
Jak
to funguje: Úhel pohledu systémů umělé inteligence začíná v datech, na
kterých jsou vyškoleny - a v úsilí, které jejich vývojáři mohou
vynaložit na zmírnění zkreslení v datech. Odtud většina systémů prochází
snahou o "vyrovnání", při níž se vývojáři snaží učinit umělou
inteligenci "bezpečnější" tím, že její odpovědi hodnotí jako více či
méně žádoucí.
Ano, ale: Tvůrci běžně hovoří o
"sladění s lidskými hodnotami", aniž by si uvědomovali, jak hluboce jsou
všechny lidské hodnoty sporné.
V USA například
můžete říci, že váš chatbot AI je vycvičen k "respektování lidského
života", ale pak musíte rozhodnout, jak bude řešit diskuse o
potratech. Můžete říct, že je na straně lidských práv a demokracie, ale
nějak bude muset vymyslet, co říct na tvrzení Donalda Trumpa, že volby v
roce 2020 byly ukradeny.
Vzhledem k tomu, že
se mnozí tvůrci umělé inteligence snaží zabránit tomu, aby jejich
systémy vykazovaly rasistické, antisemitské nebo anti-LGBTQ tendence,
čelí stížnostem, že jsou "příliš liberální". Systém Grok od společnosti X.ai
Elona Muska je výslovně navržen jako antiliberální alternativa.
V
globálním měřítku je situace ještě složitější. Jedny z největších
rozdílů jsou mezi USA a Čínou - z geopolitických důvodů však budou
systémy vyvinuté v USA pravděpodobně v Číně nedostupné a naopak.
Skutečná globální bitva se odehraje v ostatním světě, kde si
pravděpodobně budou čelně konkurovat jak čínské, tak americké systémy.
Tvůrci
umělé inteligence čelí tlaku vlád, aby přizpůsobili své systémy tak,
aby odrážely odlišné názory, například na otázky týkající se práv žen a
LGBTQ. Jiné režimy mohou na tvůrce systémů umělé inteligence vyvíjet
tlak, aby omezili kritiku vlády a diskusi o politických rivalech. Dalším
bodem napětí se stane způsob, jakým generativní systémy umělé
inteligence prezentují kontroverzní aktuální události, jako je současná
izraelská válka v Gaze.
Co říkají: V
rozhovorech s vedoucími představiteli AI v Davosu někteří považovali
problém hodnot za hlavní problém, zatímco jiní tato rizika
bagatelizovali. Generální ředitel společnosti OpenAI Sam Altman, který
byl na tuto otázku dotázán v rozhovoru na pódiu v Axios House, uvedl, že
pouze v extrémních případech by se společnost rozhodla nevstoupit na
daný trh. "Pokud by země řekla, víte, že všichni homosexuálové by měli
být na místě zabiti, pak ne," řekl Axiosu.
Altman
však také připustil, že univerzální sada odpovědí pravděpodobně nebude
platit po celém světě, a naznačil, že společnost OpenAI bude otevřena
úpravám svých odpovědí pro různé uživatele nebo země. "Jako tvůrce
nástrojů zde musíme být poněkud nesví s některými způsoby použití našich
nástrojů," řekl. "Existuje spousta vlád, které podle mě mají jiné
názory než my, u kterých se dá stále říct, že je tu dost společného."
V
současné době v mnoha případech pouze tvůrci systému umělé inteligence
přesně vědí, jaké hodnoty se snaží zakotvit - a jak jsou úspěšní.
Alexandra
Reeve Givensová, generální ředitelka Centra pro demokracii a
technologie, uvedla, že ji znepokojuje, že rozhodnutí mnoha společností
zabývajících se umělou inteligencí nejsou veřejnosti viditelná a není
ani jasné, jak k nim dospěly a s kým je konzultovaly. "Potřebujeme větší
viditelnost a pochopení způsobů, jakými tyto procesy vedou a jak tato
rozhodnutí činí," řekla Givensová v rozhovoru na okraj Světového
ekonomického fóra.
Givensová sice připustila,
že je nepravděpodobné, že by jeden soubor hodnot byl přijatelný na celém
světě, ale transparentnost je podle ní důležitá zejména v případech,
kdy společnosti působí v zemích, o nichž je známo, že porušují lidská
práva. Givensová navrhla, že společnosti zabývající se umělou
inteligencí potřebují něco podobného jako Zásady ze Santa Clary, které
byly vyvinuty před deseti lety jako standard pro osvědčené postupy,
transparentnost a odpovědnost při rozhodování o moderování obsahu,
uzavírá článek.
Diskuse