Někteří lidé AI milují, jiní ji nenávidí. Zde je důvod.

Od vytváření e-mailů ChatGPT až po AI systémy doporučující televizní pořady a dokonce pomáhající diagnostikovat nemoci, přítomnost strojové inteligence v každodenním životě již není sci-fi.
A přesto, přes všechny sliby rychlosti, přesnosti a optimalizace, je tu přetrvávající nepohodlí. Někteří lidé milují pomocí nástrojů AI. Jiní se jimi cítí úzkostní, podezřívaví, dokonce zrazení. Proč?
Ale mnoho systémů umělé inteligence funguje jako černé skříňky: něco zadáte a objeví se rozhodnutí. Logika mezi tím je skrytá. Psychologicky je to znervózňující. Rádi vidíme příčinu a následek a máme rádi možnost vyslýchat rozhodnutí. Když to nedokážeme, cítíme se bezmocní.
To je jeden z důvodů toho, čemu se říká averze k algoritmu. Tohle je popularizovaný termín od marketingového výzkumníka Berkeleyho Dietvorsta a kolegů, jehož výzkum ukázal, že lidé často dávají přednost chybnému lidskému úsudku před algoritmickým rozhodováním, zejména poté, co byli svědky byť jen jediné algoritmické chyby.
Racionálně víme, že systémy AI nemají emoce ani plány. Ale to nám nebrání je promítnout do systémů AI. Když ChatGPT odpoví „příliš zdvořile“, některým uživatelům to připadá děsivé. Když je nástroj doporučení trochu příliš přesný, působí rušivě. Začínáme tušit manipulaci, i když systém nemá žádné já.
Jedná se o formu antropomorfismu – to znamená připisování lidských záměrů nelidským systémům. Profesoři komunikace Clifford Nass a Byron Reeves spolu s dalšími prokázali že společensky reagujeme na stroje, i když víme, že nejsou lidé.
Jedním kuriózním zjištěním behaviorální vědy je, že jsme často shovívavější k lidským chybám než k chybám strojů. Když člověk udělá chybu, rozumíme jí. Můžeme se dokonce vcítit. Ale když algoritmus udělá chybu, zvláště pokud byl navržen jako objektivní nebo založený na datech, cítíme se zrazeni.
Toto odkazuje na výzkum na porušení očekáváníkdyž se naruší naše domněnky o tom, jak by se něco „mělo“ chovat. Způsobuje nepohodlí a ztrátu důvěry. Věříme, že stroje jsou logické a nestranné. Takže když selžou, například špatně klasifikují obrázek, poskytují neobjektivní výstupy nebo doporučují něco extrémně nevhodného, naše reakce je ostřejší. Čekali jsme víc.
ta ironie? Lidé neustále dělají chybná rozhodnutí. Ale můžeme se jich alespoň zeptat „proč?“
Nesnášíme, když to AI dělá špatně
Pro někoho není umělá inteligence jen neznámá, ale je existenčně znepokojivá. Učitelé, spisovatelé, právníci a designéři najednou čelí nástrojům, které replikují části jejich práce. Nejde jen o automatizaci, jde o to, čím jsou naše dovednosti cenné a co to znamená být člověkem.
To může aktivovat formu hrozby identity, prozkoumaný koncept sociálním psychologem Claudem Steelem a dalšími. Popisuje strach, že se snižuje odbornost nebo jedinečnost. Výsledek? Odpor, defenziva nebo úplné odmítnutí technologie. Nedůvěra v tomto případě není chyba – je to psychologický obranný mechanismus.
Touha po emocionálních podnětech
Lidská důvěra je postavena na více než na logice. Čteme tón, mimiku, váhání a oční kontakt. AI nic z toho nemá. Mohlo by to být plynulé, dokonce okouzlující. Ale neuklidňuje nás to tak, jak to může jiný člověk.
Je to podobné nepohodlí v tajemném údolí, což je termín, který vytvořil japonský robotik Masahiro Mori k popisu děsivého pocitu, když je něco téměř lidské, ale ne tak docela. Vypadá to nebo to zní správně, ale něco mi nesedí. Tuto emocionální nepřítomnost lze interpretovat jako chlad nebo dokonce podvod.
Ve světě plném deepfakeů a algoritmických rozhodnutí se tato chybějící emocionální rezonance stává problémem. Ne proto, že by umělá inteligence dělala něco špatně, ale proto, že nevíme, jak se k tomu máme cítit.
Je důležité říci: ne každé podezření na AI je iracionální. Algoritmy byly prokázány odrážet a posilovat zaujatostzejména v oblastech, jako je nábor, policejní práce a hodnocení úvěrů. Pokud jste byli datovými systémy poškozeni nebo znevýhodněni dříve, nejste paranoidní, jste opatrní.
To souvisí s širší psychologickou myšlenkou: naučená nedůvěra. Když instituce nebo systémy opakovaně selhávají u určitých skupin, skepse se stává nejen rozumnou, ale i ochrannou.
Říkat lidem, aby „důvěřovali systému“ málokdy funguje. Důvěra se musí zasloužit. To znamená navrhovat nástroje umělé inteligence, které jsou transparentní, dotazovatelné a odpovědné. Znamená to poskytnout uživatelům agenturu, nejen pohodlí. Psychologicky věříme tomu, čemu rozumíme, co můžeme zpochybnit a co se k nám chová s respektem.
Pokud chceme, aby umělá inteligence byla akceptována, musí to vypadat méně jako černá skříňka a spíše jako konverzace, ke které jsme pozváni, abychom se připojili.
Tento upravený článek je znovu publikován z Konverzace pod licencí Creative Commons. Přečtěte si původní článek.



