Domácí panel váží nástrahy AI, potenciál, jak se roztřísky vzdělávání

Tento zvuk je automaticky generován. Pokud máte, dejte nám prosím vědět zpětná vazba.
Zdálo se, že kongresové zákonodárci se roztrhali mezi přijetím potenciálu umělé inteligence pro inovace ve třídě a starali se o jeho vliv na soukromí dat, zkreslení a dovednosti kritického myšlení, během úterý na dopad narůstající technologie na vzdělávání K-12.
Současně diskuse o rozlehlém škrcení Trumpovy administrativy na ministerstvu školství zastínila jak vzrušení, tak obavy kolem AI, které se objevily během podvýboru domu v raném dětství, elementárním a sekundárním vzdělávání.
Zatímco někteří členové podvýboru řešili obavy ohledně účinku AI na soukromí dat, zkreslení a dovednosti kritického myšlení studentů, předseda panelu Kevin Kiley, R-Calif.
„Jak je to pochopitelné a důležité, jako jsou tyto obavy, větší obrázek je příležitostí a skutečně neomezený pocit možnosti,“ řekl Kiley. „Najednou máme nástroje k řešení mnoha dlouhodobých výzev novými a mocnými způsoby.“
Kiley dodal, že slyšení není výzvou k novým federálním mandátům na AI ve školách K-12. Spíše řekl, že vzdělání je státní a místní problém, a to je místo, kde se rozvíjí nejlepší řešení AI.
Demokratičtí zástupci však uvedli, že jsou více znepokojeni tím, jak bude AI implementována ve školách – zejména když Trumpova administrativa pracuje Demontujte americké ministerstvo školství.
Podvýbor „chybí skutečná krize: demontáž ministerstva školství. Je absurdní představit si jasnou budoucnost pro naše studenty, když byla právě uzavřena úřad pro vzdělávací technologie-zásadní pro dohled nad AI,“ uvedla zástupce Frederica Wilson, D-FLA. „Je to jako starosti s přístupem Wi-Fi lodi, zatímco Titanic klesá.“
The Úřad pro vzdělávací technologie V posledních letech vyvinula národní pokyny pro vedoucí škol, učitele a vedoucí ED Tech na používání AI ve třídách. V loňském roce ministerstvo školství Úřad pro občanská práva Vydal dopis, který nastíní způsoby, jak by používání AI ve školách mohlo porušit občanská práva studentů, například využitím technologie pro rozpoznávání obličeje nebo tím, že neodpovídá na studenty, kteří jsou sexuálně obtěžováni explicitními obrazy hlubokého pohledu.
Někteří panelisté a zákonodárci na slyšení také zdůraznili, že bez federálních zábradlí a pokynů pro používání AI ve školách se nerovnosti zhoršují, když školy implementují tuto technologii.
Nad polovina států Podle Teachai, národní koalice, jejímž cílem je vést školy o bezpečném a etickém používání AI.
Ale spoléhat se pouze na státy při nasazení AI ve třídách bez vedení federální vlády „je recept na fragmentaci“ a „zmeškanou příležitost ve vzdělávání,“ uvedl panelista Erin Mote, generální ředitel společnosti Innovateedu a Edsafe AI Alliance. Technologický průmysl také nemůže tuto zátěž nést samostatně, řekla.
„Snížení amerického ministerstva školství, National Science Foundation, Ministerstvo obchodu a dalších federálních agentur představuje významnou hrozbu pro schopnost našeho národa splnit tyto požadavky, včetně podpory životně důležité vzdělávání přímo do států a okresů,“ řekl Mote.
Některé školní obvody se mezitím podaří používat AI inovativním způsobem, uvedli panelisté slyšení.
Například veřejná školní čtvrť Mississippi má svůj vlastní interní systém AI podniku, který bude chránit údaje studentů, uvedl okresní superintendent Chris Chism. To umožňuje učitelům a zaměstnancům bezpečně používat nástroje AI pro hodnocení pomoci a vývoj plánů oddílu 504 pro studenty se zdravotním postižením, řekl.
„AI může zefektivnit nás všechny – a to jsou učitelé, to jsou studenti, to jsou administrátoři, to je personál ústřední kanceláře,“ řekl Chism.
Mnoho okresů si však nemůže dovolit zakoupit drahé systémy AI, řekl Mote.
Několik zákonodárců také zdůraznilo schopnosti AI, aby posílily implicitní a explicitní zkreslení lidí, kteří trénují systémy AI. Konkrétně se zástupce Summer Lee, D-Penn., Zeptal se, jak budou školy vybaveny na ochranu občanských práv studentů při používání AI- vzhledem k hlavním škrtům provedeným OCR.
Zatímco každý nástroj AI má algoritmické zkreslení, Mote řekl, existují způsoby, jak tento efekt zmírnit. Například údaje mohou být „přehodnoceny“ při určování AI, že určité informace jsou citlivé, zejména pokud jde o studenty se zdravotním postižením nebo údaje z jiných podskupin.
„Ale za to, aby to bylo možné, mít data, být schopna tyto modely školit, být spravedlivější, … potřebujeme dat a datovou infrastrukturu,“ řekl Mote. „A právě teď vidíme demontáž naší datové infrastruktury na federální úrovni, samotným souborům dat, které by umožnily průmyslu, které by umožnily vědcům, což by ostatním umožnilo používat tato data, aby mohli tyto školy vyškolit ke zmírnění zaujatosti.“