věda

Chatgpt získat rodičovské kontroly po smrti Teen

Soudní dvůr tvrdí, že v jejich poslední konverzaci 11. dubna 2025 pomohl Chatgpt šestnáctiletý Adam prozkoumat potenciální metodu sebevraždy (soubor) | Foto kredit: Reuters

Americká firma umělé zpravodajské služby OpenAI uvedla, že do svého chatbot chatgpt přidá rodičovská kontrola, Týden poté, co americký pár řekl, že systém povzbudil svého dospívajícího syna, aby se ublížil.

„Během příštího měsíce budou rodiče schopni … propojit svůj účet s účtem svého dospívajícího“ a „ovládat, jak Chatgpt reaguje na své dospívající s pravidly chování vhodných ve věku“, uvedla generativní společnost AI v blogu.

Rodiče také obdrží oznámení od Chatgptu „Když systém detekuje jejich dospívající je v okamžiku akutní tísně“, dodal OpenAI.

Matthew a Maria Raine argumentují v žalobě podaném minulý týden u kalifornského státního soudu, že Chatgpt kultivoval intimní vztah se svým synem Adamem během několika měsíců v roce 2024 a 2025, než zemřel.

Soudní dvůr tvrdí, že v jejich poslední konverzaci 11. dubna 2025 pomohl Chatgpt šestnáctiletý Adam prozkoumat potenciální metodu sebevraždy. Adam byl nalezen mrtvý o několik hodin později, poté, co použil stejnou metodu.

„Když člověk používá chatgpt, opravdu se cítí, jako by si povídal s něčím na druhém konci,“ řekl právní zástupce Melodi Dincer z projektu Law Law Law Law, který pomohl připravit právní stížnost.

„Jedná se o stejné funkce, které by mohly vést někoho, jako je Adam, v průběhu času, aby začal sdílet stále více a více o svém osobním životě, a nakonec začít hledat radu a radu z tohoto produktu, který se zdá, že má všechny odpovědi,“ řekl Dincer.

Funkce designu produktu Nastaví scénu pro uživatele, aby se chatbot vložil do důvěryhodných rolí, jako je přítel, terapeut nebo doktor, řekla.

Dincer uvedl, že blogový příspěvek OpenAI, který oznamuje rodičovské kontroly a další bezpečnostní opatření, se zdálo „obecné“ a podrobně postrádalo.

„Je to opravdu holé minimální a rozhodně to naznačuje, že existovalo mnoho (jednoduchých) bezpečnostních opatření, která mohla být provedena,“ dodala.

„Ještě je třeba vidět, zda udělají to, co říkají, že udělají a jak efektivní to bude celkově.“

Případ Rainese byl jen nejnovější v řetězci, který se v posledních měsících vynořil, že lidé byli povzbuzováni v klamných nebo škodlivých myšlenkových vlacích AI chatbotů, což přimělo OpenAI, aby řekl, že by snížila „sykofancy“ modelů vůči uživatelům.

„Pokračujeme ve zlepšování toho, jak naše modely rozpoznávají a reagují na známky duševní a emocionální tísně,“ řekl OpenAI v úterý.

Společnost uvedla, že měla další plány na zlepšení bezpečnosti svých chatbotů v příštích třech měsících, včetně přesměrování „některých citlivých konverzací … na model uvažování“, který dává větší výpočetní energii do generování reakce.

„Naše testování ukazuje, že modely uvažování důsledněji dodržují a používají bezpečnostní pokyny,“ řekl OpenAI.

(Ti, kteří jsou v nouzi nebo mají sebevražedné myšlenky, se doporučuje, aby hledali pomoc a poradenství tím, že zde zavoláme na čísla linky pomoci)

Zdrojový odkaz

Related Articles

Back to top button