AI „společníci“ představují rizika pro duševní zdraví studentů. Co mohou školy dělat?

Tento zvuk je automaticky generován. Pokud máte, dejte nám prosím vědět zpětná vazba.
Kdokoli mladší 18 let je důkladně doporučen organizacemi pro bezpečnost a duševní zdraví dětí, aby se drželi dál od populárních společníků umělé inteligence-sociální chatboty naprogramované tak, aby používaly lidské rysy a rozvíjely vztahy člověka-ai.
Přesto, 72% dospívajících hlášeno používání společníků AI Alespoň jednou, podle červencového průzkumu Common Sense Media, výzkumná nezisková organizace, která obhajuje online bezpečnost dětí. Více než polovina dospívajících také uvedla, že s těmito platformami interagovaly nejméně několikrát za měsíc.
1 ze 3 dospívajících navíc uvedl, že použili společníky AI „pro sociální interakci a vztahy, včetně hraní rolí, romantického interakce, emoční podpory, přátelství nebo praxe konverzace,“ zjistila média Common Sense.
Rodiče a vědci však znějí alarm, že společníci AI představují vážná rizika pro děti a dospívající, což může zahrnovat zintenzivňování stavů duševního zdraví, jako je deprese, úzkostné poruchy, ADHD a bipolární porucha.
Megan Garcia minulý týden svědčila o sebevražedné smrti jejího čtrnáctiletého syna Sewell Setzer III během podvýboru pro soudnictví USA o trestném činu a protiteroristickém slyšení o poškození chatbotů AI. Setzerová řekla, „strávila poslední měsíce manipulované a sexuálně upravováno chatboty navrženými společností AI, aby se zdála lidská, aby získala důvěru a udržovalo děti jako on nekonečně zapojené nahrazením skutečných lidských vztahů v jeho životě.“
Loni na podzim Garcia uvedla, že se stala první osobou v USA, která v důsledku procházení syna žalovala společnost AI v protiprávním soudním řízení. Garciaova žaloba proti charakterovým technologiím – společnost za znakem AI Companion Tool.ai, kterou její syn použil – stále čeká na americký okresní soud středního okresu na divizi Florida Orlando. Mezi další obžalované v tomto případě patří zakladatelé společnosti a Google, který má licenční práva pro charakter.ai.
Mezitím Federální obchodní komise v září oznámila, že hledá informace od sedmi technologických společností o tom, jak jejich doprovodné nástroje AI „měří, testují a monitorují potenciálně negativní dopady této technologie na děti a dospívající“. Některé společnosti zapojené do sondy FTC zahrnují znakové technologie, OpenAI, X a Meta.
OpenAI, zejména oznámil, že také začne implementovat zábradlí, aby tento měsíc lépe chránili dospívající uživatele chatgpt, včetně nových rodičovských kontrol.
Co mohou školy dělat?
The Jed FoundationNezisková organizace pro prevenci sebevražd mládeže, která také varuje před používáním společníků AI mezi nezletilými, nedávno napsala otevřený dopis AI a technologickému průmyslu, který ho vyzval, aby „upřednostňoval bezpečnost, soukromí a důkazy o krizi“ pro děti a dospívající pomocí jejich nástrojů.
Společníci AI jsou „vážným problémem“, řekla Laura Erickson-Schroth, hlavní lékařská ředitelka nadace JED. „Je to opravdu poskytování tohoto druhu emocionální podpory, která pochází z lidské bytosti, a také často poskytuje nesprávné vedení mladým lidem a dává jim dezinformace.“
Když vůdci K-12 procházejí prevalenci společníků AI mezi svými studenty, Erickson-Schroth doporučuje, aby nejprve vyvinuli strategii AI po celém partnerství s rodiči, studenty a členy komunity. To by mělo zahrnovat konverzace kolem způsobů, jak některé nástroje AI mohou pomoci nebo dezinformovat uživatele ve školách a řešit obavy ohledně ochrany osobních údajů a zabezpečení dat, uvedla.
Pokud jde o používání nástrojů pro duševní zdraví založené na AI ve školách, Erickson-Schoth zdůraznil, že technologie „by měla vždy rozšiřovat a nenahrazovat pečující dospělé v životě mladého člověka“.
Některé slibné nástroje AI mohou být užitečné pro podporu duševního zdraví studentů, řekla, například personalizované aplikace AI pro meditaci, sledování nálad nebo gamifikované zážitky, které podporují péči o sebe. Některé nástroje AI mohou dokonce doplnit terapii, aby pomohly mladým lidem rozvíjet kognitivní behaviorální terapeutické dovednosti.
Řekla však: „Když přemýšlíte o tom, že mladí lidé, kteří sami, kteří se zabývají emocionálně reagující AI, – bez jakékoli struktury kolem něj – to je, když si myslím, že je to opravdu děsivé, protože mozky mladých lidí se stále vyvíjejí.“
Programy digitální gramotnosti jsou také klíčové pro řešení této výzvy, řekl Erickson-Schroth. To může zahrnovat lekce ve třídě, které umožňují studentům jednat jako detektivové týkající se těchto nástrojů AI.
Je důležité se jich položit na otázky, jak používají AI a kde si myslí, že tyto systémy získávají své informace, řekla. Další otázky by mohly zahrnovat požádání studentů, aby prozkoumali způsoby, jak se AI s největší pravděpodobností mýlí.
Školy by také měly jasně objasnit studentům, že společníci AI nejsou lidé, a kdykoli je něco důležitého, o kterém musí student mluvit, měli by mluvit s důvěryhodným dospělým, dodal Erickson-Schroth.



