Co odhaluje jedna spisovatelova Nobelova přednáška o AI a naší budoucnosti

Když maďarský spisovatel László Krasznahorkai řekl, že už nemůže mluvit o naději a obrátil se na anděly ve své přednášce o Nobelově ceně 7. prosince, skutečně mluvil o zprostředkování. Staří andělé přinesli řeč z transcendentního „shora“ a samotná jejich existence znamenala, že svět má směr a měřítko – k něčemu vyššímu, než jsme my, vedeni poselstvími, které jsme mohli pouze přijímat. Krasznahorkaiovi noví andělé však, řekl, nemají žádný rozpoznatelný původ a žádné poselství, které by bylo možné předat. Pohybují se mezi námi jako křehcí, zranění lidé, které lze zničit slovem nebo malým ponížením. V jeho vyprávění jsou to oběti „kvůli nám“.
Zní vám tento obrázek povědomě? Může dobře popisovat lidské životy ve věku umělé inteligence (AI), s lidmi ztracenými v systémech, které vytvořili jako moderátoři obsahu, klikači, štítkovači dat, pracovníci na koncertech – lidé, jejichž životy tiše profilují a potravu využívají v prediktivních policejních systémech pomocí algoritmů sociální péče, jejich data seškrábaná a rozprodaná k trénování modelů, které se pak použijí k jejich řízení.
„Noví andělé“ nejsou stroje: jsou to ty, které se staly postradatelnými logikou strojů – i když systémy At jsou znepokojivě blízko jakési falešné andělské formě. Objevují se z abstraktního „oblaku“, mluví plynně v každém rejstříku a zaujímají pozici posla, aniž by nabízeli vlastní poselství. Krasznahorkaiho andělé mlčí a požadují od nás zprávu, kterou už nemáme. Umělá inteligence však neztichne, i když vyprázdní naši vlastní schopnost mluvit z uzemněného místa. Simuluje rady, empatii, znalosti a dokonce i morální uvažování, ale vše jako děsivě nudné rekombinace textu v rámci technologicko-ekonomického zásobníku, který zůstává neprůhledný. AI tak přesně ztělesňuje ztrátu, kterou truchlí: autoritu bez odpovědnosti, jazyk bez řeči.
Generální ředitel společnosti NVIDIA Jensen Huang představuje projekt „Industrial AI Cloud“ během tiskové konference v Berlíně, Německo, 4. listopadu 2025. | Fotografický kredit: Reuters
Krasznahorkai’s přednáška byl opravdu dlouhým chvalozpěvem na důstojnost a vyčerpání lidského druhu a mnoho z toho přistálo velmi blízko současným debatám o AI. Vyjmenoval ohromující řadu lidských vynálezů – od umění přes filozofii, zemědělství až po vědu – než se obrátil do současnosti, kde stejný druh sestrojil zařízení, aby si nechal jen krátkodobou paměť. Není to přesný popis úspory pozornosti, do které umělá inteligence seskočila a nyní se používá k přeplňování? Vývojáři a firmy zabudovávají modely umělé inteligence do zdrojů, vyhledávačů, reklam a nástrojů pro produktivitu, to vše proto, aby nás přiměli k rychlejším a fragmentovanějším interakcím.
Ale je tu druhá, brutálnější vrstva. Chcete-li trénovat velmi velké modely, potřebujete rozsáhlé, již existující sklady jazyka. A Big Tech zachází s tím, co Krasznahorkai nazval „vznešeným a společným vlastnictvím znalostí a krásy“, jako s volnou surovinou. Stejná civilizace, která se kdysi snažila vytvořit tato díla, nyní buduje systémy, které mohou levně napodobovat jejich povrchové formy a zároveň čerpat hodnotu z institucí a práce, které je vyrábějí. Je to opět „oběti kvůli nám“ – kulturní obec a její pracovníci jsou pohlceni, aby podněcovali zdání nekonečné inteligence bez námahy.
Zvláště scéna U-Bahn vrhla zvláštní světlo na řízení AI. Na stanici metra v Berlíně v 90. letech Krasznahorkai vzpomínal, jak pozoroval bezdomovce, jak bolestně močí v „zakázané zóně“ nástupiště, zatímco vzdálený policista spěchal, aby ho potrestal. Policista na nástupišti byl „dobrem schváleným všemi“, nositelem zákona a pořádku; nemocný muž močící na koleje byl označen za zlého. Odděluje je deset metrů příkopu. V prožitém čase by ho policista pravděpodobně chytil, ale Krasznahorkai zmrazil obraz: ve skutečnosti dobro nikdy nedosáhne zla; vzdálenost je nepřekonatelná.
Čelíme stejnému mostu mezi naším aparátem etických rad, principů, předpisů a „sladěnosti“ na jedné straně a změti institucionalizovaného poškození s vykořisťovatelskými dodavatelskými řetězci, dohledem, dezinformacemi a militarizací na straně druhé. Dokud architektura zůstane stejná, Krasznahorkaiova diagnóza zněla, design, díky kterému jsou některá těla viditelná a trestuhodná a jiná neviditelná a chráněná, bude honička pokračovat navždy. Dobro regulace probíhá pouze v rámci struktury, která zaručuje její selhání.

Sam Altman, spoluzakladatel a CEO OpenAI, sedí v publiku před panelovou diskusí o budoucnosti umělé inteligence na TU Berlín, únor 2025. | Fotografický kredit: Getty Images

Debaty kolem AI se často scvrknou na technofixy, např. lepší benchmarky, bezpečnější výstupy, trochu přísnější pravidla pro nasazení a tak dále. Krasznahorkaiova přednáška je však odmítnutím léčit symptomy izolovaně. Nástroje, které nazýváme „AI“, se vynořují z civilizace, která zachází s pozorností jako se zdrojem k těžbě a se zranitelnými jako s přijatelnými ztrátami. Pokud jsou noví andělé oběti kvůli nám, politika umělé inteligence hodná jeho podmínek by musela být politikou, která zcela snižuje počet obětí, tj. která zkoumá, kde a jak se berou data, kdo pracuje ve stínu, kdo nese environmentální a sociální náklady a která použití jsou prostě zakázaná bez ohledu na to, jak jsou zisková.
Přesto existuje silný pocit, že nikdo nemůže jednoduše opustit vlak AI. Státy se cítí nuceny investovat, aby nezaostávaly. Společnosti se cítí nuceny nasadit kód, aby neztratily výhodu. Jednotlivci se cítí nuceni adoptovat, aby nepřišli o práci. Konečný součet je jakási minimální etika: zachovejte si schopnost pozornosti, pojmenování obětí, i když ještě nevidíte cestu ven.
Konečnou otázkou není, zda „umění“ nebo „lidská kreativita“ přežije AI, ale zda civilizace, která nasadila AI, má stále představivost a morální slovník, aby vůbec vyslala nějaké skutečné poselství, a to jak andělům, které obětuje, tak nástrojů, které svým vlastním jménem uvolňuje.
Publikováno – 9. prosince 2025 15:09 IST



