zdraví

Asistent AI pro vás může tyto laboratorní výsledky interpretovat

Když Judith Miller v červenci provedla rutinní krevní práci, ve stejný den dostala telefonní upozornění, že její laboratorní výsledky byly zveřejněny online. Když jí tedy její lékař posílal další den, že její celkové testy byly v pořádku, Miller napsal zpět, aby se zeptal na zvýšený oxid uhličitý a nízkou aniontovou mezeru uvedenou ve zprávě.

Zatímco 76letý obyvatel Milwaukee čekal, až uslyší zpět, Miller udělal něco, co pacienti stále více dělají, když nemohou dosáhnout svého zdravotnického týmu. Vložila výsledky testů do Claude a požádala asistenta AI, aby vyhodnotil data.

„Claude mi pomohl dát jasné pochopení abnormalit,“ řekl Miller. Generativní model AI nehlásil nic alarmujícího, takže nebyla úzkostná, když čekala, až slyší od svého lékaře, řekla.

Pacienti mají bezprecedentní přístup ke svým lékařským záznamům, často prostřednictvím online portálů pacientů, jako je MYChart, protože federální právo vyžaduje, aby zdravotnické organizace okamžitě zveřejňovaly elektronické zdravotní informace, jako jsou poznámky o návštěvách lékaře a výsledky testů. Studie Publikováno v roce 2023 zjistilo, že 96% dotázaných pacientů chce okamžitý přístup ke svým záznamům, i když je jejich poskytovatel nekontroloval.

A mnoho pacientů používá k interpretaci svých záznamů velké jazykové modely nebo LLM, jako je Openai’s Chatgpt, Anthropic’s Claude a Google Gemini. Tato pomoc přichází s určitým rizikem. Lékaři a obhájci pacientů varují, že AI chatboti mohou přinést nesprávné odpovědi a že citlivé lékařské informace nemusí zůstat soukromé.

Přesto většina dospělých je opatrná o AI a zdraví. Padesát šest procent těch, kteří používají nebo interagují s AI Anketa 2024 kFF. KFF je zdravotní informace nezisková organizace, která zahrnuje zprávy o zdraví KFF.

„LLM jsou teoreticky velmi silné a mohou poskytnout skvělou radu, ale mohou také poskytnout opravdu hrozné rady v závislosti na tom, jak jsou vyzvány,“ řekl Adam Rodman, internista v Medical Center Beth Israel Deaconess v Massachusetts a předseda řídící skupiny na generativní AI na Harvardské lékařské fakultě.

Justin Honce, neuroradiolog v Uchealth v Coloradu, uvedl, že pro pacienty, kteří nejsou lékařsky vyškoleni, může být velmi obtížné vědět, zda AI chatbots dělá chyby.

„Nakonec je to jen potřeba opatrnosti celkově u LLMS. U nejnovějších modelů se tyto obavy stále dostávají k méně a méně problému, ale nebyly zcela vyřešeny,“ řekla Honce.

Rodman za posledních šest měsíců zaznamenal nárůst používání AI mezi svými pacienty. V jednom případě pacient pořídil snímek o výsledcích své nemocniční laboratoře na Mychart a poté je nahrál do chatgpt, aby připravil otázky před jeho jmenováním. Rodman řekl, že vítá pacienty, kteří mu ukazují, jak používají AI, a že jejich výzkum vytváří příležitost k diskusi.

Zhruba 1 ze 7 dospělých nad 50 let používá AI k získání zdravotních informací, podle nedávného průzkumu z University of MichiganZatímco 1 ze 4 dospělých do 30 let tak činí, podle průzkumu KFF.

Použití internetu k obhajobě pro lepší péči o sebe není nové. Pacienti tradičně používali webové stránky, jako jsou WebMD, PubMed nebo Google, aby hledali nejnovější výzkum a hledali radu od ostatních pacientů na platformách sociálních médií, jako je Facebook nebo Reddit. Schopnost AI chatbotů vytvářet personalizovaná doporučení nebo druhé názory během několika sekund je však nová.

Liz SalmiŘeditel komunikace a iniciativ pro pacienty ve společnosti OpenNotes, akademická laboratoř v Beth Israel Deaconess, která obhajuje transparentnost ve zdravotnictví, přemýšlel, jak dobrá AI je na interpretaci, konkrétně pro pacienty.

V a Studie důkazu konceptu Salmi a kolegové, kteří byli zveřejněni v tomto roce, analyzovali přesnost Chatgptu, Claude a Geminiho odpovědí na otázky pacientů o klinické poznámce. Všechny tři modely AI fungovaly dobře, ale jak pacienti orámovali jejich otázky, řekl Salmi. Například řekněte AI Chatbot, aby převzal personu lékaře a položil ji na jednu otázku najednou, zlepšilo přesnost jeho odpovědí.

Ochrana osobních údajů je obava, řekla Salmi, takže je důležité odstranit osobní údaje, jako je vaše jméno nebo číslo sociálního zabezpečení z výzev. Data jde přímo do technologických společností, které vyvinuly modely AI, řekl Rodman a dodal, že si není vědom toho, že dodržuje federální zákon o ochraně osobních údajů nebo zvažuje bezpečnost pacientů. Sam Altman, generální ředitel OpenAI, varoval na a Podcast minulý měsíc o uvedení osobních údajů do chatgptu.

„Mnoho lidí, kteří jsou noví používání velkých jazykových modelů, nemusí vědět o halucinacích,“ řekla Salmi s odkazem na odpověď, která se může zdát rozumná, ale je nepřesná. Například, OpenAI’s Whisper, transkripční nástroj s asistencí AI v nemocnicích, zavedl do přepisu imaginární lékařské ošetření, podle a Zpráva od Associated Press.

Použití generativní AI vyžaduje nový typ digitální zdravotní gramotnosti, který zahrnuje kladení otázek konkrétním způsobem, ověření odpovědí s jinými modely AI, rozhovor s vaším zdravotním týmem a ochranu vašeho soukromí online, řekl Salmi a Dave DeBronkart, přeživší rakovinu a obhájce trpěli píše blog věnované používání AI pacientů.

Pacienti nejsou jediní, kteří používají AI k vysvětlení výsledků testů. Stanford Health Care spustil asistent AI, který pomáhá jeho lékařům navrhovat interpretace klinických testů a laboratorních výsledků, které mají posílat pacientům. Vědci z Colorada studovali přesnost shrnutí 30 radiologických zpráv generovaných chatgptem spolu s uspokojením čtyř pacientů s nimi. Z 118 platných odpovědí od pacientů 108 naznačilo, že souhrny chatgpt objasnily podrobnosti o původní zprávě.

Ale chatgpt někdy příliš zdůraznil nebo nedostatečně zdůraznil nálezy a malý, ale významný počet odpovědí naznačených pacientů byl po přečtení shrnutí více zmatený, řekl Honce, který se účastnil studie předtisku.

Mezitím, po čtyřech týdnech a několika následných zprávách od Millera v Mychartu, Millerův doktor nařídil opakování její krevní práce a další test, který Miller navrhl. Výsledky se vrátily normálně. Miller se ulevilo a řekl, že byla kvůli svým dotazům AI lépe informována.

„Je to v tomto ohledu velmi důležitý nástroj,“ řekl Miller. „Pomáhá mi to organizovat mé otázky a provádět můj výzkum a vyrovnat podmínky.“



Zdrojový odkaz

Related Articles

Back to top button