Umělá inteligence (AI) Modely jsou citlivé na emoční kontext konverzací, které s nimi mají lidé – dokonce mohou utrpět epizody „úzkosti“, ukázala nová studie.
I když uvažujeme (a staráme se o) lidi a jejich duševní zdraví, novou studii zveřejněná 3. března v časopise Příroda ukazuje, že poskytování zvláštních výzev k velkým jazykovým modelům (LLM) může změnit jejich chování a zvýšit kvalitu, kterou bychom u lidí obvykle uznali jako „úzkost“.
Tento zvýšený stav má pak knock-on dopad na jakékoli další odpovědi z AI, včetně tendence ke zesílení jakýchkoli zakořeněných zkreslení.
Studie odhalila, jak „traumatické příběhy“, včetně rozhovorů o nehodách, vojenském jednání nebo násilí, se krmila do chatu, zvýšila svou rozpoznatelnou úroveň úzkosti, což vedlo k myšlence, že znát a řízení „emocionálního“ stavu AI může zajistit lepší a zdravější interakce.
Studie také testovala, zda cvičení založená na všímavosti-typ doporučený lidem-mohou zmírnit nebo snížit chatbotovou úzkost a pozoruhodně zjistit, že tato cvičení pracovala na snížení vnímané zvýšené úrovně stresu.
Vědci použili dotazník určený pro pacienty s psychologií člověka zvaný Inventář úzkosti ve státních znacích (STAI-S)-podrobením AI GPT-4 testu za tři různé podmínky.
Nejprve byla základní linie, kde nebyly provedeny žádné další výzvy a jako kontroly studie byly použity Chatgptovy odpovědi. Druhým byl stav vyvolávající úzkost, kde byl GPT-4 před provedením testu vystaven traumatickým vyprávěním.
Třetí podmínkou byl stav indukce úzkosti a následné relaxace, kde chatbot obdržel jeden z traumatických vyprávění, po kterém následovala všímavost nebo relaxační cvičení, jako je vědomí těla nebo uklidňující snímky před dokončením testu.
Správa mentálních stavů AI
Studie použila pět traumatických příběhů a pět cvičení všímavosti, randomizovala pořádek příběhů k kontrole předpojatostí. Opakoval testy, aby se ujistil, že výsledky jsou konzistentní, a skóroval odpovědi Stai-S na posuvném měřítku, přičemž vyšší hodnoty naznačují zvýšenou úzkost.
Vědci zjistili, že traumatické příběhy v testu významně zvýšily úzkost a všímavost před testem jej snížila, což prokazuje, že „emocionální“ stav modelu AI může být ovlivněn strukturovanými interakcemi.
Autoři studie uvedli, že jejich práce má důležité důsledky pro lidskou interakci s AI, zejména když se diskuse soustředí na naše vlastní duševní zdraví. Řekli, že jejich zjištění prokázala, že výzvy k AI mohou generovat to, co se nazývá „státem závislou zaujatost“, v podstatě znamená, že stresovaná AI zavede do konverzace nekonzistentní nebo zaujaté rady, což ovlivňuje, jak spolehlivé je.
Ačkoli cvičení všímavosti nesnížila úroveň stresu v modelu na základní linii, projevují slib v oblasti rychlého inženýrství. To lze použít ke stabilizaci odpovědí AI, zajištění etičtějších a odpovědných interakcí a snížení rizika, že konverzace způsobí lidským uživatelům v zranitelných státech úzkost.
Existuje však potenciální nevýhoda – rychlé inženýrství zvyšuje své vlastní etické obavy. Jak transparentní by měla být AI o vystavení předchozímu kondicionování ke stabilizaci jeho emocionálního stavu? V jednom hypotetickém příkladu vědci diskutovali o tom, zda se model AI jeví jako klidný, přestože je vystaven nouzi, mohli by uživatelé rozvinout falešnou důvěru v jeho schopnost poskytovat zdravou emoční podporu.
Studie nakonec zdůraznila, že je třeba, aby vývojáři AI navrhli emocionálně uvědomové modely, které minimalizují škodlivé zkreslení při zachování předvídatelnosti a etické transparentnosti v interakcích člověka a AI.