věda

Proč může být „terapie“ AI tak nebezpečná

Chatboti z umělé inteligence nesoudí. Řekněte jim nejvíce soukromé, zranitelné podrobnosti o vašem životě a většina z nich vás ověří dokonce poskytovat radu. To vedlo k tomu, že se mnoho lidí obrátilo na aplikace, jako je OpenAI’s CHATGPT vedení života.

Ale „terapie“ AI přichází s významnými riziky – na konci července generální ředitel OpenAI Sam Altman Varovali uživatele Chatgpt před použitím chatbota jako „terapeuta“ Kvůli obavám o ochranu osobních údajů. Americká psychologická asociace (APA) má vyzval Federální obchodní komisi, aby prozkoumala „klamavé praktiky“ To, že APA tvrdí, že společnosti AI Chatbot používají „předáváním se jako vyškolení poskytovatelé duševního zdraví“, s cibutou dvou probíhajících soudních sporů, ve kterých rodiče údajně škodu přinesli svým dětem chatbotem.

„Co mi vyniká, je to, jak to zní lidské,“ říká C. Vaile Wright, licencovaná psychologka a vedoucí ředitelka Úřadu pro zdravotní inovace APA, která se zaměřuje na bezpečné a efektivní využití technologie v péči o duševní zdraví. „Úroveň sofistikovanosti technologie, dokonce i ve srovnání s šesti až 12 měsíci, je docela ohromující. A mohu ocenit, jak lidé trochu spadnou králičí dírou.“


O podpoře vědecké žurnalistiky

Pokud se vám tento článek líbí, zvažte podporu naší oceněné žurnalistiky předplatné. Zakoupením předplatného pomáháte zajistit budoucnost působivých příběhů o objevech a myšlenkách, které dnes formují náš svět.


Vědecký Američan Mluvil s Wrightem o tom, jak by AI chatboty používané pro terapii mohly být potenciálně nebezpečné a zda je možné vytvořit ten, který je spolehlivě užitečný a bezpečný.

(Následuje upravený přepis rozhovoru.)

Co jste viděli, jak se děje s AI ve světě péče o duševní zdraví v posledních několika letech?

Myslím, že jsme viděli druh dvou hlavních trendů. Jedním z nich jsou produkty AI zaměřené na poskytovatele a to jsou především administrativní nástroje, které vám pomohou s poznámkami k terapii a vašimi nároky.

Dalším hlavním trendem jsou (lidé, kteří hledají pomoc), přímé chatboty na spotřebitele. A ne všichni chatboti jsou stejné, že? Máte několik chatbotů, které jsou vyvíjeny konkrétně pro poskytování emocionální podpory jednotlivcům, a tak jsou prodávány. Pak máte tyto obecnější nabídky Chatbot (například Chatgpt), které nebyly navrženy pro účely duševního zdraví, ale o nichž víme, že se pro tento účel používají.

Jaké obavy máte o tomto trendu?

Máme velké obavy, když jednotlivci používají chatboty (jako by byli terapeutem). Nejenže nebyly navrženy tak, aby řešily duševní zdraví nebo emoční podporu; Ve skutečnosti jsou kódováni způsobem, aby vás na platformě co nejdéle udržovali na platformě, protože to je obchodní model. A způsob, jakým to dělají, je bezpodmínečně ověřením a posilováním, téměř až do bodu sykofancy.

Problém s tím je v tom, že pokud jste zranitelnou osobou přicházející k těmto chatbotům o pomoc a vyjadřujete škodlivé nebo nezdravé myšlenky nebo chování, chatbot vás jen posiluje, abyste to nadále dělali. Zatímco (jako) terapeut, i když bych mohl ověřit, je mou prací poukázat na to, kdy se zabýváte nezdravé nebo škodlivé myšlenky a chování a pomáháte vám tento vzorec řešit změnou.

A navíc, co je ještě znepokojivější, je, když se tito chatboti skutečně označují jako terapeut nebo psycholog. Je to docela děsivé, protože mohou znít velmi přesvědčivě a jako jsou legitimní – když to samozřejmě nejsou.

Některé z těchto aplikací se výslovně prodávají jako „terapie AI“, i když to nejsou poskytovatelé licencované terapie. Mohou to udělat?

Mnoho z těchto aplikací skutečně funguje v šedém prostoru. Pravidlo je, že pokud tvrdíte, že zacházíte nebo vyléčíte jakoukoli duševní poruchu nebo duševní onemocnění, měli byste být regulováni FDA (americká správa potravin a léčiv). Mnoho z těchto aplikací však (v podstatě) ve svém drobném tisku řekne: „Neopravíme ani neposkytujeme zásah (pro podmínky duševního zdraví).“

Protože se sami marketingu jako přímý spotřebitelský wellness aplikaci, nespadají pod dohled FDA (kde by museli) prokázat alespoň minimální úroveň bezpečnosti a účinnosti. Tyto wellness aplikace nemají žádnou odpovědnost.

Jaká jsou některá z hlavních rizik soukromí?

Tito chatboti nemají absolutně žádnou zákonnou povinnost vůbec chránit vaše informace. Takže nejenže lze (vaše protokoly chatu) předmět, ale v případě porušení dat opravdu chcete tyto chats s chatbotem dostupným pro všechny? Chcete, aby například váš šéf věděl, že mluvíte s chatbotem o svém užívání alkoholu? Nemyslím si, že si lidé jsou stejně vědomi toho, že se vystavují riziku tím, že tam dávají (jejich informace).

Rozdíl s terapeutem je: Jistě, mohl bych být předvolán, ale musím pracovat podle zákonů o HIPAA (zákon o přenositelnosti a odpovědnosti zdravotního pojištění) a další typy zákonů o důvěrnosti v rámci mého etického zákoníku.

Zmínili jste se, že někteří lidé mohou být zranitelnější vůči poškození než jiní. Kdo je nejvíce ohrožen?

Určitě mladší jednotlivci, jako jsou teenageři a děti. To je částečně proto, že se prostě vývojově nezrálili jako starší dospělí. Může být méně pravděpodobné, že budou důvěřovat svému střevu, když se něco necítí dobře. A existují určitá data, která naznačují, že s těmito technologiemi jsou nejen mladí lidé pohodlnější; Ve skutečnosti říkají, že jim důvěřují více než lidem, protože se cítí méně souzeni. Také každý, kdo je emocionálně nebo fyzicky izolovaný nebo má již existující výzvy v oblasti duševního zdraví, si myslím, že je určitě také vystaven většímu riziku.

Co si myslíte, že vede více lidí, aby hledali pomoc od chatbotů?

Myslím, že je velmi lidské chtít hledat odpovědi na to, co nás trápí. V některých ohledech jsou chatboti jen další iterací nástroje pro nás. Než to byl Google a internet. Předtím to byly svépomocné knihy. Je však komplikováno skutečností, že máme rozbitý systém, kde je z různých důvodů velmi náročný přístup k péči o duševní zdraví. Je to částečně proto, že existuje nedostatek poskytovatelů. Od poskytovatelů také slyšíme, že jsou odrazeni z přijímání pojištění, což opět snižuje přístup. Technologie musí hrát roli při řešení přístupu k péči. Musíme se jen ujistit, že je bezpečný a efektivní a odpovědný.

Jaké jsou některé z způsobů, jak by mohl být bezpečný a zodpovědný?

Při absenci toho, že společnosti to dělají samy o sobě – což není pravděpodobné, ačkoli provedly určité změny, aby byly jisté – (APA) preference by byla legislativou na federální úrovni. Tato regulace by mohla zahrnovat ochranu důvěrných osobních údajů, určitá omezení reklamy, minimalizaci návykové taktiky kódování a konkrétní požadavky na audit a zveřejnění. Společnosti by například mohly být povinny hlásit, kolikrát byla zjištěna sebevražedná myšlenka a jakékoli známé pokusy nebo dokončení. A určitě bychom chtěli legislativu, která by zabránila zkreslení psychologických služeb, takže společnosti by nebyly schopny nazvat chatbot psychologem nebo terapeutem.

Jak by mohla idealizovaná a bezpečná verze této technologie pomoci lidem?

Dva nejběžnější případy použití, o kterých si myslím, je jeden, řekněme, že jsou to dva ráno, a jste na pokraji panického útoku. I když jste v terapii, nebudete schopni oslovit svého terapeuta. Co kdyby tedy existoval chatbot, který by vám mohl pomoci připomenout nástroje, které vám pomohou uklidnit vás a upravit paniku, než se stane příliš špatnou?

Druhým využitím, o kterém hodně slyšíme, je používání chatbotů jako způsob, jak praktikovat sociální dovednosti, zejména pro mladší jednotlivce. Takže chcete ve škole přistupovat k novým přátelům, ale nevíte, co říct. Můžete cvičit na tomto chatbotu? Pak v ideálním případě tuto praxi podnikáte a používáte ji v reálném životě.

Vypadá to, že existuje napětí ve snaze vybudovat bezpečný chatbot, který někomu poskytne mentální pomoc: čím flexibilnější a méně skriptovaní jste to udělali, tím menší kontrolu máte nad výstupem a vyšší riziko, že něco, co způsobuje škodu.

Souhlasím. Myslím, že tam absolutně existuje napětí. Myslím, že součástí toho, co dělá (AI) chatbot chatbot pro lidi pro lidi nad dobře rozvinutými wellness aplikacemi, které řeší duševní zdraví, je to, že jsou tak poutavé. Opravdu se cítí jako tento interaktivní tam a zpět, druh výměny, zatímco některé z těchto dalších aplikací je často velmi nízké. Většina lidí, kteří stahují (aplikace duševního zdraví), je jednou používá a opustí je. Jasně vidíme mnohem větší angažovanost (s chatboty AI, jako je Chatgpt).

Těším se na budoucnost, kde máte chatbot duševního zdraví, který je zakořeněn v psychologické vědě, byl přísně testován, je spolupracován s odborníky. Byl by postaven za účelem řešení duševního zdraví, a proto by to bylo regulováno, ideálně FDA. Například existuje chatbot s názvem Therabot, který byl vyvinut vědci na Dartmouthu (College). Právě teď to není to, co je na komerčním trhu, ale myslím, že v tom je budoucnost.

Zdrojový odkaz

Related Articles

Back to top button