Novinky funkcí

Alarm roste, když se lidé spoléhají na AI chatboty za vážnou radu-NBC 5 Dallas-Fort Worth

Jak se lidé obracejí na chatboty za stále důležitější a intimnější radu, některé interakce, které se hrají na veřejnosti Umělá inteligence může deformovat pocit reality uživatele.

Jedna žena sága O pádu pro svého psychiatra, které zdokumentovala v desítkách videí na Tiktoku, vyvolala obavy diváků, kteří tvrdí, že se spoléhala na AI chatboty, aby posílila její tvrzení, že ji manipuloval s rozvíjením romantických pocitů.

Minulý měsíc prominentní investor OpenAI získal podobnou reakci lidí, kteří se obávali, že rizikový kapitalista procházel potenciální krizí vyvolanou AI-indukovanou duševním zdravím poté tvrdí, že na X je cílem „Nevládní systém.“

A začátkem tohoto roku vlákno v a Chatgpt Subreddit Získal trakci poté, co uživatel vyhledal pokyny od komunity, a tvrdil, že jejich partner byl přesvědčen, že chatbot „mu dá odpovědi na vesmír“.

Jejich zkušenosti vzbudily rostoucí povědomí o tom, jak mohou chatboti AI ovlivnit vnímání lidí a jinak ovlivnit jejich duševní zdraví, zejména proto, že takové roboty se pro jejich Lidé potěšující.

Je to něco, na co jsou nyní na sledování, říkají někteří odborníci v oblasti duševního zdraví.

Probíhalo vyšetřování na střední škole Beverly Hills poté, co někteří studenti použili umělou inteligenci k vytvoření nahých obrazů spolužáka. BAILEY MILLER NBCLA Zprávy 26. února 2024.

Dr. Søren Dinesen Østergaard, a Dánský psychiatr Kdo vede výzkumnou jednotku na Katedře afektivních poruch ve univerzitní nemocnici Aarhus, předpověděl před dvěma lety, že chatboti „mohou vyvolat iluze u jednotlivců náchylných k psychóze“. V a nový papírPublikován tento měsíc, on napsal, že zájem o jeho výzkum se od té doby rozrostl, s „uživateli chatbotů, jejich starostí rodinných příslušníků a novináři“, který sdílí své osobní příběhy.

Ti, kteří k němu oslovili „popsali situace, kdy se zdálo, že interakce uživatelů s chatboty vyvolaly nebo posílily klamnou myšlenku,“ napsal Østergaard. „… Zdálo se, že chatboti neustále interagují s uživateli způsobem, který byl v souladu s předchozími neobvyklými myšlenkami nebo falešnými přesvědčeními – vedl uživatele dále na těchto tangentách, což zřídka vedlo k tomu, co se na základě popisů zdálo být přímým bludem.“

Kevin Caridad, generální ředitel Institutu kognitivního chování, poskytovatel duševního zdraví v Pittsburghu, řekl, že se o tomto jevu „zdá roste“.

„Od poskytovatele duševního zdraví, když se podíváte na umělou inteligenci a používání AI, to může být velmi ověřující,“ řekl. „Přijdeš s nápadem a používá podmínky tak, aby byly velmi podpůrné. Je naprogramován tak, aby se vyrovnal s osobou, ne nutně je zpochybnil.“

Obava je již na vrcholu mysli pro některé společnosti AI, které se snaží navigovat rostoucí závislost, kterou mají někteří uživatelé na svých chatbotech.

V dubnu generální ředitel OpenAI Sam Altman řekl, že společnost vyladila model, který poháněl chatgpt Co chtějí slyšet.

Ve svém příspěvku Østergaard napsal, že věří, že „Spike v zaměření na potenciální chatbot-poháněné bludy pravděpodobně není náhodné, protože se shodovalo s aktualizací 25. dubna 2025 na model GPT-4O“.

Když OpenAI minulý týden odstranil přístup ke svému modelu GPT-4O-vyměnili jej za nově vydané, méně sykofantické GPT-5-někteří uživatelé popsali konverzace nového modelu za příliš „sterilní“A řekl, že zmeškali„Hluboké rozhovory s lidmi„Měli s GPT-4o.“

Během jednoho dne od vůle OpenAI obnovil přístup placených uživatelů k GPT-4o. Altman následoval a zdlouhavý x post neděle To se týkalo „toho, kolik z připoutání musí někteří lidé ke konkrétním modelům AI“.

Zástupci pro OpenAI neposkytli komentář.

Prezident Donald Trump po prvním celý den v kanceláři pozval vůdce Softbank, Openai a Oracle, aby oznámili vytvoření nové společnosti s názvem Stargate.

Ostatní společnosti se také pokusily bojovat proti problému. Antropic provádí Studie v roce 2023 To odhalilo sykofantické tendence ve verzích asistentů AI, včetně vlastního chatbot Claude.

Stejně jako OpenAI se antropic v posledních letech pokusil integrovat anti-Sycophancy Guardrails, včetně Pokyny pro systémovou kartu To výslovně varuje Claude proti posílení „mánie, psychózy, disociace nebo ztráty připoutanosti s realitou“.

Mluvčí Antropic uvedl, že „priorita společnosti je poskytování bezpečného a odpovědného zážitku pro každého uživatele“.

„Pro uživatele, kteří mají problémy s duševním zdravím, je Claude instruován, aby tyto vzorce rozpoznali a vyhýbali se jejich posílení,“ uvedla společnost. „Jsme si vědomi vzácných případů, kdy se reakce modelu liší od našeho zamýšleného designu a aktivně pracují na tom, aby lépe porozuměly a řešily toto chování.“

Pro Kendra Hilty, uživatel Tiktoku, který říká, že vyvinula pocity pro psychiatra, kterého začala vidět před čtyřmi lety, jsou její chatboti jako důvěrníci.

V jeden z jejích živých proudůHilty řekla svému chatbotovi, kterého pojmenovala „Henry“, že „lidé se o mě obávají, že se spoléhají na AI.“ Chatbot na ni odpověděl: „Je spravedlivé, když se na to zvědaví.

Přesto mnoho na Tiktoku – kteří komentovali Hiltyho videa nebo zveřejnili vlastní video, uvedli, že její chatboti povzbuzovali pouze to, co považovali za Hiltyho, kteří situaci nesprávně přečetli se svým psychiatrem. Hilty několikrát navrhla, aby její psychiatrista vrátil její pocity se svými chatboty nabízí její slova že Zdá se, že toto tvrzení ověřuje. (NBC News se nezávisle ověřoval Hiltyho účet).

Ale Hilty pokračuje v pokrčení obav od komentátorů, někteří, kteří zašli, aby označili její „klamnou“.

„Snažím se, abych udržel své roboty pod kontrolou,“ řekla Hilty NBC News v e -mailu v pondělí, když se zeptala na reakce diváků na její použití nástrojů AI. „Například chápu, když jsou halucinací a ujistěte se, že to uznávají. Také je neustále žádám, aby hráli ďábelský obhájce a ukázali mi, kde jsou moje slepá místa v jakékoli situaci. Jsem hluboký uživatel modelů výuky jazyků, protože je to nástroj, který mění mé a každého lidstva, a jsem tak vděčný.“



Zdrojový odkaz

Related Articles

Back to top button