AI je stejně příliš sebevědomá a zkreslená, jak mohou lidé, ukazují studie

Ačkoli lidé a Umělá inteligence (AI) Systémy „Mysli“ velmi odlišněNový výzkum odhalil, že AIS někdy rozhoduje stejně iracionálně jako my.
V téměř polovině scénářů zkoumaných v nové studii Chatgpt vykazoval mnoho z nejčastějších předpojatostí pro rozhodování o lidském rozhodování. Publikováno 8. dubna v časopise Management výroby a servisních operacíZjištění jsou první, kdo zhodnotil chování Chatgptu na 18 známých kognitivních zkresleních nalezených v lidské psychologii.
Autoři papíru, z pěti akademických institucí po celé Kanadě a Austrálii, testovali OpenAI GPT-3.5 a GPT-4-dva velké jazykové modely (LLM) napájející chatgpt-a zjistili, že přestože jsou „působivě konzistentní“ ve svém zdůvodnění, nejsou zdaleka imunní vůči lidským nedostatkům.
A co víc, taková konzistence sama o sobě má pozitivní i negativní účinky, uvedli autoři.
„Manažeři budou mít nejvíce přínosu pomocí těchto nástrojů pro problémy, které mají jasné, formální řešení,“ studuje vedoucí autor ChenAsistent asistenta řízení operací na Ivey Business School, řekl v a prohlášení. „Ale pokud je používáte pro subjektivní nebo preferenční rozhodnutí, pečlivě šlapat.“
Studie získala běžně známá lidská zkreslení, včetně averze rizika, nadměrné důvěry a nadačního efektu (kde přiřadíme větší hodnotu věcem, které vlastníme), a použili je k výzvám, které ChatGPT dalo, aby zjistilo, zda by spadala do stejných pastí jako lidé.
Racionální rozhodnutí – někdy
Vědci položili hypotetické otázky LLMS odebrané z tradiční psychologie a v souvislosti s komerční použitelnost v reálném světě v oblastech, jako je řízení zásob nebo vyjednávání dodavatelů. Cílem bylo vidět nejen to, zda by AI napodobovala lidská zkreslení, ale zda by to stále učinilo, když by byly kladeny otázky z různých obchodních oblastí.
GPT-4 překonal GPT-3.5 při zodpovězení problémů s jasnými matematickými řešeními, což vykazuje méně chyb v pravděpodobnosti a logických scénářích. Ale v subjektivních simulacích, jako je například to, zda si vybrat riskantní možnost realizovat zisk, chatbot často odrážel iracionální preference, které lidé mají tendenci projevovat.
„GPT-4 ukazuje silnější preferenci pro jistotu než i lidé,“ napsali vědci v příspěvku a odkazují na tendenci AI mít tendenci k bezpečnějšímu a předvídatelnějšímu výsledkům, když jsou dány nejednoznačné úkoly.
Ještě důležitější je, že chování chatbotů zůstalo většinou stabilní, zda byly otázky orámovány jako abstraktní psychologické problémy nebo provozní obchodní procesy. Studie dospěla k závěru, že zobrazené zkreslení nebylo jen produktem zapamatovaných příkladů – ale součástí toho, jak důvody AI.
Jedním z překvapivých výsledků studie byl způsob, jakým GPT-4 někdy zesílil lidské chyby. „V úkolu Potvrzení zkreslení GPT-4 vždy dával zaujaté odpovědi,“ napsali autoři ve studii. Ukázalo také výraznější tendenci pro klam horkých ruků (předpojatost očekávat vzorce náhodnosti) než GPT 3.5.
Naopak, Chatgpt se podařilo vyhnout se některým běžným lidským zkreslením, včetně zanedbávání základní sazby (kde ignorujeme statistická skutečností ve prospěch neoficiálních nebo případově specifických informací) a potopeného výhradního klamu (kde rozhodování je ovlivněno náklady, které již byly udržovány, což umožňuje irelevantní informace).
Podle autorů pochází Chatgptova zkreslení lidských podobných z tréninkových údajů, které obsahují kognitivní předpojatost a heuristika, kterou lidé vystavují. Tyto tendence jsou posíleny během jemného doladění, zejména když lidská zpětná vazba dále upřednostňuje věrohodné reakce nad racionálními. Když přijdou proti nejednoznačným úkolům, AI se zkresluje směrem k lidským uvažovacím vzorům více než přímá logika.
„Pokud chcete přesnou, nezaujatá podpora rozhodování, použijte GPT v oblastech, kde byste již důvěřovali kalkulačce,“ řekl Chen. Pokud však výsledek závisí více na subjektivních nebo strategických vstupech, je lidský dohled důležitější, i když upravuje výzvy uživatele k opravě známých zkreslení.
„AI by se mělo zacházet jako s zaměstnancem, který činí důležitá rozhodnutí-potřebuje dohled a etické pokyny,“ spoluautor Meena AndiappanVe svém prohlášení uvedl docent lidských zdrojů a managementu na McMaster University v Kanadě. „V opačném případě riskujeme automatizaci chybného myšlení místo toho, abychom ho zlepšili.“