Podvádění záleží, ale přepracování hodnocení „záleží nejvíce“

Konverzace nad studenty využívajícími umělou inteligenci k podvádění jejich zkoušek maskují širší diskuse o tom, jak zlepšit hodnocení, argumentoval přední profesor.
Phillip Dawson, spoluzakladatel Centra pro výzkum v hodnocení a digitálním učení Deakin University V Austrálii tvrdil, že „platnost je důležité než podvádění“, dodal, že „podvádění a AI skutečně převzaly debatu o hodnocení“.
Na konferenci britské agentury pro zajištění kvality řekl: „Podvádění a vše, na čem záleží. Posouzení toho, co chceme posoudit, je však věc, na které záleží nejvíce. To je opravdu to, co je platnost … musíme ji řešit, ale podvádění není nutně nejužitečnějším rámcem. “
Dawson hovořil krátce po zveřejnění průzkumu provedeného Institutem pro vysokoškolské vzdělávání, který to zjistil 88 procent vysokoškoláků ve Velké Británii uvedli, že při dokončení hodnocení použili nástroje AI v nějaké formě.
Zpráva HEPI však tvrdila, že univerzity by měly „přijmout nuanční politiku, která odráží skutečnost, že použití AI studentů je nevyhnutelné“, uznává, že chatovací roboti a další nástroje „mohou skutečně pomoci učení a produktivitě“.
Dawson souhlasil a tvrdil, že „Hodnocení se musí změnit … Ve světě, kde AI může dělat věci, které jsme použili k posouzení, “řekl.
Odkaz na – odkazování na zdroje – může být dobrým příkladem něčeho, co lze vykládat do AI, řekl. „Nevím, jak se odkazovat ručně, a je mi to jedno … musíme vzít stejný druh čočky k tomu, co děláme teď a být opravdu k sobě upřímný: co je zaneprázdněná práce?“ Můžeme umožnit studentům používat AI pro jejich zaneprázdnění, aby provedli kognitivní vykládání? Nedovolme jim to však udělat to, co je vlastní. “
Byla to „fantasy země“ představit to, co nazval „Diskursivní“ opatření k omezení používání AIkde lektoři dávají pokyny o tom, jak používání umělé inteligence může nebo nemusí být povoleno. Místo toho tvrdil, že pro hodnocení byly zapotřebí „strukturální změny“.
„Diskursivní změny nejsou způsob, jak jít. Tento problém AI nemůžete řešit čistě prostřednictvím řeči. Potřebujete akci. Potřebujete strukturální změny v hodnocení (a nejen a) systému semaforu, který studentům říká: „Toto je oranžový úkol, takže můžete použít AI k úpravě, ale ne psát.“
„Nemáme způsob, jak zabránit lidem v používání AI, pokud na ně nějakým způsobem dohlížíme;“ Musíme to přijmout. Nemůžeme předstírat, že nějaké pokyny pro studenty budou účinné při zajišťování hodnocení. Protože pokud nedokážete, nemůžete si být jisti, jak byla nebo nebyla použita. “
Řekl, že existují tři potenciální výsledky pro dopad na známky, jak se rozvíjí AI: inflace třídy, kde lidé budou schopni dělat „mnohem více proti našim současným standardům, takže věci jen růst a růst“; a odkazování na normu, kde jsou studenti odstupňováni o tom, jak vystupují ve srovnání s jinými studenty.
Poslední možností, o které řekl, že byla výhodnější, byla „Inflace standardů“, „kde musíme v průběhu času zvyšovat standardy, protože to, co AI plus student může udělat, se zlepšuje a zlepšuje.“
Dopad AI na hodnocení je zásadní, řekl a dodal: „Občas hodnocení toho, co lidé vědí, jsou pryč.“