Aplikace terapie AI udržují odborníky a regulační orgány na nohou

Při absenci silnější federální regulace začaly některé státy Regulace aplikací, které nabízejí „terapii“ AI, protože více lidí se obrací na umělou inteligenci pro poradenství v oblasti duševního zdraví.
Ale zákony, všechny letos prošly, se však plně nezabývají rychle se měnící krajinou vývoje softwaru AI. A vývojáři aplikací, tvůrci politik a obhájci duševního zdraví tvrdí, že výsledná patchwork státních zákonů nestačí k ochraně uživatelů nebo držení tvůrců škodlivé technologie odpovědné.
„Skutečností je, že tyto nástroje používají miliony lidí a nevrací se,“ řekla Karin Andrea Stephan, generální ředitelka a spoluzakladatelka aplikace Chatbot App App Earkick.
Státní zákony přijímají různé přístupy. Illinois a Nevada zakázali používání AI k léčbě duševního zdraví. Utah kladl určité limity pro terapii chatboty, včetně požadavků na to, aby chránili zdravotní informace uživatelů a jasně prozradili, že chatbot není člověk. Pennsylvánie, New Jersey a Kalifornie také zvažují způsoby, jak regulovat terapii AI.
Dopad na uživatele se liší. Některé aplikace zablokovaly přístup ve státech se zákazy. Jiní říkají, že nedělají žádné změny, když čekají na větší jasnost.
A mnoho zákonů se nevztahuje na generické chatboty, jako je Chatgpt, které nejsou výslovně prodávány pro terapii, ale používají je pro něj nevýslovný počet lidí. Tito roboti přilákali žaloby v strašlivých případech, kdy uživatelé ztratili přilnavost k realitě nebo si po interakci s sebou vzali svůj vlastní život.
Vaile Wright, která dohlíží na inovace zdravotní péče v Americké psychologické asociaci, souhlasila s tím, že aplikace mohou naplnit potřebu, a zaznamenat celostátní nedostatek poskytovatelů duševního zdraví, vysoké náklady na péči a nerovnoměrný přístup pro pojištěné pacienty.
Chatboti duševního zdraví, kteří jsou zakořeněni ve vědě, vytvořené s odborným vstupem a monitorovaní lidmi, by mohli změnit krajinu, řekl Wright.
„To by mohlo být něco, co pomáhá lidem dříve, než se dostanou do krize,“ řekla. „To není v současné době na komerčním trhu.“
Proto je potřeba federální regulace a dohled, řekla.
Začátkem tohoto měsíce Federální obchodní komise oznámila, že otevírá dotazy ze sedmi společností AI Chatbot – včetně mateřských společností Instagramu a Facebooku, Google, Chatgpt, Grok (Chatbot na x), Character.ai a Snapchat – o tom, jak „měří, testují a monitorují potenciálně negativní dopady této technologie na děti a dospívající“. A Správa potravin a léčiv svolává poradní výbor 6. listopadu, aby přezkoumal generativní zařízení pro duševní zdraví s podporou A.

Federální agentury by mohly zvážit omezení, jak se chatboti uvádějí na trh, omezit návykové praktiky, vyžadovat zveřejnění uživatelům, že nejsou poskytovateli lékařských, vyžadují, aby společnosti sledovaly a hlásily sebevražedné myšlenky a nabízely právní ochranu lidem, kteří hlásí špatné praktiky společnosti, řekl Wright.
Od „doprovodných aplikací“ po „terapeuti AI“ až po aplikace „Mental Wellness“ je použití AI v péči o duševní zdraví rozmanité a obtížné definovat, natož psát zákony kolem.
To vedlo k různým regulačním přístupům. Některé státy se například zaměřují na doprovodné aplikace, které jsou navrženy pouze pro přátelství, ale nehýbají se do péče o duševní zdraví. Zákony v Illinois a Nevada zakazují produkty, které tvrdí, že poskytují léčbu duševního zdraví přímo a ohrožují pokuty až do 10 000 $ v Illinois a 15 000 $ v Nevadě.
Ale i jedna aplikace může být obtížné kategorizovat.
Earkickův Stephan řekl, že například je stále hodně, co je „velmi blátivé“ o zákoně Illinois a společnost tam nemá omezený přístup.
Stephan a její tým zpočátku odložili volání svého chatbota, který vypadá jako karikatura Panda, terapeutka. Když však uživatelé začali používat slovo v recenzích, přijali terminologii, aby se aplikace objevila ve vyhledávání.
Minulý týden znovu ustoupili pomocí terapie a lékařských podmínek. Earkickova web popsal svůj chatbot jako „vašeho empatického poradce AI, vybavený na podporu vaší cesty duševního zdraví“, ale nyní je to „chatbot pro péči o sebe“.
Přesto „ne diagnostikujeme,“ tvrdil Stephan.
Uživatelé mohou nastavit „panické tlačítko“, aby zavolali důvěryhodnému milované osobě, pokud jsou v krizi a chatbot „potudne“ uživatele, aby hledali terapeuta, pokud se jejich duševní zdraví zhoršuje. Nikdy to však nebylo navrženo jako aplikace pro prevenci sebevražd, řekl Stephan a policie by nebyla povolána, kdyby někdo řekl Bot o myšlenkách na sebepoškozování.
Stephan řekl, že je šťastná, že se lidé dívají na AI s kritickým okem, ale obávají se schopnosti států držet krok s inovacemi.
„Rychlost, při které se všechno vyvíjí, je masivní,“ řekla.

Okamžitě jiné aplikace zablokovaly přístup. Když uživatelé Illinois stáhnou aplikaci AI Therapy Aph Ash, zpráva je naléhá na e -mail své zákonodárci a tvrdí, že „zavádějící legislativa“ zakázala aplikace jako Ash „při ponechání neregulovaných chatbotů, které zamýšlelo regulovat volně způsobit újmu.“
Mluvčí Ash neodpověděl na více žádostí o pohovor.
Mario Treto Jr., ministr ministerstva finanční a profesní regulace Illinois, uvedl, že cílem bylo, aby bylo zajistit, aby terapeuti licencovali, kteří jsou jediní, kteří dělají terapii.
„Terapie je víc než jen výměna slov,“ řekl Treto. „Vyžaduje to empatii, vyžaduje klinický úsudek, vyžaduje to etickou odpovědnost, z nichž žádná AI se teď nemůže skutečně replikovat.“
V březnu publikoval tým se sídlem v Dartmouthu první známé randomizované klinické studie generativního chatbota AI pro léčbu duševního zdraví.
Cílem bylo mít chatbot, zvaný Therabot, léčit lidi s diagnózou úzkosti, deprese nebo poruchami příjmu potravy. Byl vyškolen na viněty a přepisy napsané týmem, aby ilustroval reakci založenou na důkazech.
Studie zjistila, že uživatelé hodnotili TheraBot podobný terapeutovi a měli smysluplně nižší příznaky po osmi týdnech ve srovnání s lidmi, kteří jej nepoužívali. Každá interakce byla monitorována člověkem, který zasáhl, pokud byla reakce chatbota škodlivá nebo nebyla založena na důkazech.

Nicholas Jacobson, klinický psycholog, jehož laboratoř vede výzkum, uvedl, že výsledky ukázaly včasný slib, ale že jsou zapotřebí větší studie, aby prokázaly, zda TheBot pracuje pro velké množství lidí.
„Prostor je tak dramaticky nový, že si myslím, že pole musí pokračovat s mnohem větší opatrností, která se právě teď děje,“ řekl.
Mnoho aplikací AI je optimalizováno pro zapojení a jsou postaveny tak, aby podporovaly vše, co uživatelé říkají, spíše než vyzývají myšlenky lidí tak, jak terapeuti dělají. Mnoho z nich chodí po řadě společnosti a terapie, eticky by to netvořily.
Traberův tým se těmto problémům snažil vyhnout.
Aplikace je stále v testování a není široce dostupná. Jacobson se však obává, co přísné zákazy budou znamenat pro vývojáře pečlivý přístup. Poznamenal, že Illinois nemá jasnou cestu, která by poskytla důkaz, že aplikace je bezpečná a efektivní.
„Chtějí chránit lidi, ale tradiční systém právě teď selhává lidi,“ řekl. „Takže, když se snaží držet se současného stavu, opravdu není věc.“
Regulační orgány a obhájci zákonů říkají, že jsou otevřeni změnám. Dnešní chatboti však nejsou řešením nedostatku poskytovatele duševního zdraví, řekl Kyle Hillman, který loboval za účty v Illinois a Nevadě prostřednictvím jeho přidružení k Národní asociaci sociálních pracovníků.
„Ne každý, kdo se cítí smutně, potřebuje terapeuta,“ řekl. Ale pro lidi se skutečnými problémy duševního zdraví nebo sebevražednými myšlenkami: „Řekni jim:„ Vím, že je tu nedostatek pracovní síly, ale tady je robot “ – to je takové privilegované postavení.“



