Novinky funkcí

Character.AI, Google souhlasí se zprostředkováním urovnání v neoprávněných soudních sporech o úmrtí mladistvých

Tento zvuk je generován automaticky. Pokud máte, dejte nám vědět zpětná vazba.

Potápěčský přehled:

  • Character.AI a Google souhlasily zprostředkovat vyrovnání Středa s matkou 14letého Sewella Setzera III., který zemřel sebevraždou po interakci s umělou inteligencí Character.AI – sociálními chatboty navrženými tak, aby využívali funkce podobné lidem a rozvíjeli vztahy s uživateli.
  • V říjnu 2024 v soudním řízení o neoprávněné smrti proti technologickým společnostem matka Megan Garciaová tvrdila, že Character.AI byla nedbalá ve svých „nepřiměřeně nebezpečných návrzích“ a že „záměrně cílila na nezletilé děti“. Garcia dodal, že Character.AI věděl, že její AI společníci by byli škodliví pro nezletilé, ale nedokázal přepracovat svou aplikaci ani varovat před nebezpečím produktu.
  • Google a Character.AI se dohodly na vyrovnání a podobný případ s rodinou z Colorada nad neoprávněnou smrtí jejich 13leté dcery Juliany Peralty. Čekající vyrovnání přichází jako podobná žaloba napadá ChatGPT, podanou organizací Social Media Victims Law Center a Tech Justice Law Project jménem rodiny, která tvrdí, že generativní nástroje AI vedly k sebevraždě jejich dítěte.

Statistiky potápění:

Žaloby podané rodinami – jako Garcia – proti technologickým společnostem „jsou tragickou připomínkou“, že chatboti s umělou inteligencí nejsou pro děti a dospívající bezpečné, když komunikují s umělou inteligencí za účelem podpory emocionálního a duševního zdraví, řekl Robbie Torney, vedoucí oddělení AI a digitálních hodnocení společnosti Common Sense Media.

Ale Torney řekl, že tyto právní případy ukazují jen „špičku ledovce“ v této otázce, zvláště když miliony dospívajících používají produkty AI po celé zemi – ať už se jedná o nástroje integrované do aplikací sociálních médií, které již používají, jako je Instagram, nebo v samostatných nástrojích AI, jako je ChatGPT.

Školy také hrají roli v tom, že pomáhají studentům zodpovědně a bezpečně používat tuto rychle se rozvíjející technologii podporou gramotnosti umělé inteligence, řekl Torney. Vedoucí K-12 si nejprve musí uvědomit, že děti a dospívající běžně používají umělou inteligenci k podpoře emocionálního a duševního zdraví, řekl.

Takové rozhovory se studenty mohou zahrnovat otázku, co se jim líbí na používání umělé inteligence, a zároveň jim pomoci porozumět tomu, jaké podpory jim mohou chybět, když používají technologii pro společnost místo lidí, řekl Torney.

Tyto lekce mohou pomoci vedoucím škol zdůraznit studentům, že společníci s umělou inteligencí se „nechovají jako skuteční lidé“, kteří jim mohou pomoci udržet je v bezpečí v dobách krize, a že nemají stejné výhody jako podpora spojení s ostatními lidmi v reálném světě.

V červencovém průzkumu Common Sense Media 1 ze 3 dospívajících uvedl, že má používali AI společníky „pro sociální interakci a vztahy, včetně hraní rolí, romantických interakcí, emocionální podpory, přátelství nebo konverzace.“ Rodiče a výzkumníci během roku 2025 bili na poplach, že společníci AI mohou pro nezletilé představovat vážná rizika, která mohou zahrnovat zhoršující se stavy duševního zdraví, jako je deprese, úzkostné poruchy, ADHD a bipolární porucha.

„Takže když máte miliony dospívajících, kteří používají umělou inteligenci pro netestované účely – účely, pro které systémy nejsou navrženy – a máte společnosti, které optimalizují zapojení a udržení uživatelů, vytváří to skutečně silnou a nebezpečnou situaci, kdy je mnoho mladých uživatelů vystaveno rizikovým technologiím,“ řekl Torney.

Sociální Media Victims Law Center, které zastupovalo Garciin případ, odmítlo urovnání komentovat. Google a Character.AI v pondělí nereagovaly na žádosti o komentář.

V září Garciaová řekla, že byla první osobou v USA, která žalovala společnost AI v soudním sporu o neoprávněnou smrt během slyšení podvýboru pro soudnictví amerického Senátu pro zločin a boj proti terorismu o poškozování AI chatbotů.

Uprostřed mnoha soudních sporů od rodin, Character.AI na konci listopadu zakázaní uživatelé mladší 18 let od používání své primární funkce otevřeného chatu k interakci s postavami AI.

Společnost v říjnovém oznámení uvedla, že zavede „funkci zajištění věku“, která pomůže prosadit zákaz. Kromě toho Character.AI uvedla, že spustí a bude financovat AI Safety Lab, nezávislou neziskovou organizaci zaměřenou na bezpečnostní inovace pro nové zábavní nástroje AI.

Přesto Torney řekl, že širší zásady regulující technologické společnosti jsou nezbytné pro zajištění bezpečnosti dětí a dospívajících při používání nástrojů AI. To by mělo zahrnovat zákony, které:

  • Vyžadujte pojištění věku online.
  • Zakažte cílenou reklamu dětem a prodej jejich dat.
  • Vytvořte bezpečnostní opatření, která ochrání dospívající před nebezpečným obsahem.
  • Zabraňte systémům umělé inteligence v manipulaci s dětmi a dospívajícími pomocí funkcí, které se běžně vyskytují u společníků s umělou inteligencí.

Zdrojový odkaz

Related Articles

Back to top button