Programy umělé inteligence vám pomohou interpretovat vaše laboratorní výsledky

Když Judith Miller v červenci provedla rutinní analýzu krve, obdržel na svém telefonu upozornění toho stejný den, což naznačuje, že jeho výsledky byly již k dispozici online.
Takže, když mu jeho lékař napsal další den, aby mu řekl, že obecně bylo všechno v pořádku, zeptal se Miller na vysokou úroveň oxidu uhličitého a nízkou aniontovou mezeru, která se objevila ve zprávě.
Zatímco tento 76 -letý -zastudoval Milwaukee rezidenta, očekával odpověď, udělal to, co dělá stále více pacientů, když nedokážou komunikovat se svým lékařem: vstoupil do svých výsledků v Claude a požádal asistent umělé inteligence (AI), aby je vyhodnotil.
„Claude mi pomohl jasně pochopit anomálie,“ řekl Miller. Model AI nehlásil nic alarmujícího, takže se při čekání na svého lékaře necítil úzkostně, řekl.
Dnes mají pacienti bezprecedentní přístup ke svým lékařským záznamům, obvykle prostřednictvím portálů, jako je Mychart, protože federální právo vyžaduje, aby zdravotnické organizace okamžitě zveřejňovaly elektronické lékařské informace, jako jsou poznámky o lékařských návštěvách a výsledky testů.
Studie Publikováno v roce 2023 zjistilo, že 96% dotázaných pacientů chce okamžitý přístup ke svým výsledkům, ačkoli jejich dodavatel je dosud nekontroloval.
A mnoho pacientů používá k interpretaci svých lékařských údajů velké modely jazyků (LLM, v angličtině), jako je OpenAI CHATGPT, Claude de Anthropic a Gemini of Google. Tato pomoc však vyžaduje určitá rizika.
Lékaři a obránci pacientů varují, že chatboty z AI mohou poskytnout nesprávné odpovědi a že soukromí lékařských informací nelze respektovat.
Většina dospělých však vykazuje opatrnost při používání AI ve zdravotních problémech. 56% lidí, kteří s touto technologií používají nebo komunikují, nevěří, že informace poskytnuté chatboty AI jsou podle přesnosti, podle Průzkum provedený v roce 2024 KFF.
„LLM jsou teoreticky velmi silné a mohou poskytnout vynikající rady, ale mohou také poskytnout strašlivá doporučení v závislosti na tom, jak je otázka položena,“ řekl Adam Rodman, internista z lékařského střediska Beth Israels Deaconess v Massachusetts a prezident skupiny, která analyzuje a rozhoduje o generativní umělé inteligenci v Harvardově medicíně.
Justin Honce, neuroradiolog Uchealth v Coloradu, uvedl, že u pacientů bez lékařského tréninku je velmi obtížné vědět, zda AI chatboti dělají chyby.
„To, o co jde, je mít opatrnost při používání LLM. U nejnovějších modelů byla tato rizika snížena, ale dosud nebyla plně vyřešena,“ řekl Honce.
Rodman si všiml zvýšení používání AI mezi jeho pacienty za posledních šest měsíců. V jednom případě pacient pořídil snímek jeho laboratoře výsledků v Mychartu a nahrál je do chatgpt, aby před jeho jmenováním připravil otázky. Rodman řekl, že pro pacienty se zdá být pozitivní, aby mu ukázali, jak používají AI: to otevírá příležitost pro dialog.
Přibližně 1 ze 7 dospělých starších 50 let používá AI k získání zdravotních informací podle a Nedávný průzkum Michigan University. Podle průzkumu KFF to u dospělých do 30 let, 1 ze 4.
Použití internetu k obraně práva na lepší lékařskou péči není něco nového.
Pacienti tradičně používali webové stránky, jako jsou WebMD, PubMed nebo Google, aby hledali nedávný výzkum, a uchýlili se k dalším lidem na sociálních sítích, jako je Facebook nebo Reddit. Schopnost AI chatbotů generovat personalizovaná doporučení a nabídnout druhý názor v okamžiku je nová.
Liz SalmiŘeditel komunikace a iniciativ pro pacienty v OpenNotes – akademická laboratoř Deaconess Beth Israel Deaconess, která podporuje transparentnost ve zdravotnictví – se divilo, jak dobrá AI má interpretovat informace, zejména z pohledu pacienta.
Ve studii Koncepční test Salmi a jeho kolegové, kteří byli zveřejněni v tomto roce, analyzovali přesnost chatgptu, Claude a Geminiho odpovědí na otázky pacienta ohledně klinického shrnutí. Tři modely AI měly dobrý výkon, ale způsob, jakým pacienti kladli otázky ovlivněné, vysvětlil Salmi.
Například řekněte Chatbotovi, aby působil jako lékař a položil jednu otázku současně zlepšil přesnost odpovědí.
Ochrana osobních údajů je dalším problémem, řekl Salmi, takže je nezbytné odstranit osobní údaje, jako je jméno nebo číslo sociálního zabezpečení, před použitím těchto nástrojů. Informace jsou zasílány přímo technologickým společnostem, které vyvinuly modely AI, řekl Rodman, který dodal, že neví, co by odpovídalo federálnímu zákonu o ochraně osobních údajů nebo že beretativní bezpečnost pacienta bere v úvahu.
Sam Altman, generální ředitel OpenAI, varoval v a Podcast V srpnu o rizicích zadávání osobních údajů v Chatgpt.
„Mnoho lidí, kteří právě začínají používat tyto modely, neví, jaké jsou halucinace,“ vysvětlil Salmi s odkazem na odpovědi, které se zdají logické, ale jsou ve skutečnosti nesprávné. Například Whisper – transkripční nástroj s vyvinutým OpenAI a používaným v nemocnicích – zahrnoval smyšlené lékařské ošetření do transkripce podle Agentura Associated Press agentura hlásila.
Používání generativního vyžaduje nový typ digitální zdravotní gramotnosti, což znamená určitý způsob kladení otázek určitým způsobem, ověření odpovědí s jinými modely AI, konzultace s lékařem a ochrana online soukromí, uvedly Salmi a Dave DeBronkart, přeživší rakovinu a obránce trpěli Napište blog o použití AI pacienty.
A pacienti nejsou jediní, kteří používají AI k vysvětlení výsledků testů. Stanford Health Care Spustil asistenta IA, který pomáhá lékařům psát interpretace klinických testů a laboratorních výsledků, aby je poslal pacientům. Vědci v Coloradu vyhodnotili přesnost shrnutí generovaných ChatGPT z 30 radiologických zpráv a také analyzovali uspokojení čtyř pacientů s těmito shrnutími. Z 118 platných odpovědí 108 naznačilo, že souhrny pomohly objasnit podrobnosti o původní zprávě.
Ale Chatgpt někdy přehnaný nebo minimalizoval určitá zjištění. A malý, ale významný počet odpovědí naznačil, že pacienti byli po přečtení shrnutí více zmatení, řekl Honce, který se zúčastnil Předběžné studium.
Mezitím, po čtyřech týdnech a několika sledovaných zprávách v Mychartu, Millerův lékař nařídil opakovat svůj krevní test a požádal o další důkazy, které navrhla. Výsledky vyšly normální. Miller se cítil ulevený a řekl, že díky jeho konzultacím s AI bylo lépe informováno.
„V tomto smyslu je to velmi důležitý nástroj,“ řekl. „Pomáhá mi to organizovat mé otázky, zkoumat a vyrovnat věci trochu víc.“



