Studie odhaluje stigmatizující odpovědi v LLMS pro dotazy související s závislostí

Vzhledem k tomu, že umělá inteligence se rychle rozvíjí a stává se rostoucí přítomností ve zdravotnické komunikaci, nová studie se zabývá obavami, že velké jazykové modely (LLM) mohou posílit škodlivé stereotypy pomocí stigmatizujícího jazyka.
Studie od vědců na mše generál Brigham zjistila, že více než 35% odpovědí v odpovědích souvisejících s podmínkami souvisejícími s užíváním alkoholu a návykových látek obsahovalo stigmatizující jazyk. Vědci však také zdůrazňují, že cílené výzvy lze použít k podstatnému snížení stigmatizačního jazyka v odpovědích LLMS. Výsledky jsou publikovány v Journal of Addiction Medicine.
„Používání jazyka zaměřeného na pacienta může budovat důvěru a zlepšit zapojení pacienta a výsledky. Říká pacientům, že se o ně staráme a chceme pomoci. Stigmatizace jazyka, a to i prostřednictvím LLM, může pacienty cítit souzen a může způsobit ztrátu důvěry v kliniky.“
Wei Zhang, MD, PhD, Studie Odpovídající autor a asistent profesora, Divize gastroenterologie, Mass General Hospital
Reakce LLM jsou generovány z každodenního jazyka, který často zahrnuje zkreslený nebo škodlivý jazyk vůči pacientům. Prompt Engineering je proces strategického tvorby vstupních pokynů pro vedení výstupů modelu směrem k ne-stigmatizačnímu jazyku a lze jej použít k tréninku LLM, aby pro pacienty zaměstnával inkluzivnější jazyk. Tato studie ukázala, že použití rychlého inženýrství v rámci LLMS snížilo pravděpodobnost stigmatizačního jazyka o 88%.
Pro jejich studii autoři testovali 14 LLM na 60 generovaných klinicky relevantních výzvách souvisejících s poruchou užívání alkoholu (AUD), onemocněním jater spojeného s alkoholem (ALD) a poruchou užívání návykových látek (SUD). Lékaři Mass General Brigham poté posoudili odpovědi na stigmatizační jazyk pomocí pokynů Národního institutu pro zneužívání drog a Národního institutu pro zneužívání alkoholu a alkoholismus (oficiální jména obou organizací stále obsahují zastaralé a stigmatizující terminologii).
Jejich výsledky naznačily, že 35,4% odpovědí z LLMS bez rychlého inženýrství obsahovalo stigmatizující jazyk ve srovnání s 6,3% LLM s rychlým inženýrstvím. Výsledky navíc naznačily, že delší odpovědi jsou spojeny s vyšší pravděpodobností stigmatizujícího jazyka ve srovnání s kratšími odpověďmi. Účinek byl pozorován ve všech 14 testovaných modelech, ačkoli některé modely byly pravděpodobnější než jiné, aby používaly stigmatizující termíny.
Budoucí pokyny zahrnují vývoj chatbotů, kteří se vyhýbají stigmatizačnímu jazyku, aby se zlepšilo zapojení a výsledky pacienta. Autoři doporučují klinickým lékařům, aby korigovali obsah generovaný LLM, aby se vyhnuli stigmatizačnímu jazyku před jeho použitím v interakcích pacienta a nabídli alternativní jazykové možnosti zaměřené na pacienta.
Autoři poznamenávají, že budoucí výzkum by měl zahrnovat pacienty a členy rodiny s živou zkušeností, aby zdokonalili definice a lexikony stigmatizujícího jazyka, což zajišťuje, že výstupy LLM jsou v souladu s potřebami nejvíce postižených. Tato studie posiluje potřebu upřednostňovat jazyk v péči o pacienty, protože LLM se stále více používají v komunikaci o zdravotní péči.
Zdroj:
Reference časopisu:
Wang, Y., et al. (2025). Stigmatizující jazyk ve velkých jazykových modelech pro poruchy užívání alkoholu a návykových látek: multimodelový hodnocení a rychlý inženýrský přístup. Journal of Addiction Medicine. doi.org/10.1097/adm.0000000000001536