Tři zákony pro návrh kurikula ve věku AI (názor)

Téměř třetina studentů zpráva Že nevědí, jak a kdy používat generativní AI, aby pomohli s kurzem. Na našem kampusu nám studenti říkají, že se obávají, pokud se nenaučí, jak používat AI, zůstanou v pracovní síle pozadu. Zároveň se mnoho studentů obává, že technologie podkopává jejich učení.
Tady je Gabby, vysokoškolák na našem kampusu: „Umělo to moje psaní v něco, co jsem neřekl. Je pro mě těžší myslet na své myšlenky a dělá vše, co si myslím, že zmizí. Nahrazuje to tím, co je oficiální. Je to správné, a já se s tím neschválím, jakmile to Chatgpt řekne. To mě potlačí.“
Studenti zažívají další úzkost ohledně obvinění z neoprávněného použití nástrojů AI – i když je nepoužívají. Tady je další student: „Pokud píšu jako já, dostanu body za to, že jsem nesledoval rubriku. Pokud opravím svou gramatiku a sleduji šablonu, můj učitel se na mě podívá a předpokládá, že jsem použil chatgpt, protože hnědí lidé nemohou psát dost dobře.“
Pokyny pro fakulty ve třídě jsou rozhodující pro řešení těchto obav, zejména proto, že kampusy stále více poskytují studentům přístup k podnikovým GPT. Náš vlastní systém kampusu, Kalifornská státní univerzita, nedávno zavedl Strategie AI To zahrnuje „orientační“ partnerství se společnostmi, jako je OpenAI, a bezplatné předplatné pro chatování GPT EDU pro všechny studenty, fakulty a zaměstnance.
Možná není divu, že studenti nejsou jediní, kteří se v tomto rychle se pohybujícím prostředí cítí zmatení a obávají se AI. Fakulta také vyjadřuje zmatek ohledně toho, zda a za jakých okolností je v pořádku, aby jejich studenti používali technologii AI. V našich rolích v Centru pro kapitál a dokonalost ve výuce a učení (CEETL) v San Francisco State University jsme se často ptát na potřebu celopádů akademické politiky a důležitost nástrojů, jako je Turnitin, aby byla zajištěna akademická integrita.
Jak poznamenal Kyle Jensen na nedávné americké asociaci vysokých škol a univerzit Událost na AI a pedagogikuVyšší pracovníci ED zažívají vnímaný nedostatek koherentního vedení kolem AI a nerovnoměrné poskytování informací o něm, tváří v tvář mnoha požadavkům na fakultu a administrativní dobu. Paradoxně se fakulta velmi zajímá o pozitivní potenciál technologií AI a naléhavě na potřebu nějakého druhu systému odpovědnosti, který trestá studenty za neoprávněné použití nástrojů AI.
Potřeba fakulty objasnit roli AI v učebních osnovách. Abychom to vyřešili na CEETL, vyvinuli jsme to, co nazýváme „tři učební osnovy ve věku AI“, hra na „tři zákony robotiky“ Isaaca Asimova, která byla napsána, abychom zajistili, že lidé zůstanou pod kontrolou technologie. Naše tři zákony nejsou zákony samy o sobě; Jsou to rámec pro přemýšlení o tom, jak řešit technologii AI v učebních osnovách na všech úrovních, od jednotlivých tříd po silniční mapy na úrovni stupně, od všeobecného vzdělávání přes postgraduální kurzy. Rámec je navržen tak, aby podporoval fakultu, když se vyskytují prostřednictvím problémů a příslibů technologií AI. Rámec odlehčí kognitivní zátěž pro fakultu spojováním technologie AI se známým způsobem navrhování a revize učebních osnov.
První právo se týká toho, co studenti potřebují vědět o AI, včetně toho, jak nástroje fungují, jakož i jejich dopady sociálních, kulturních, environmentálních a pracovních dopadů; Potenciální zkreslení; tendence k halucinacím a dezinformacím; a náchylnost ke soustředění západoevropských způsobů poznání, uvažování a psaní. Tady se opíráme kriticky máte pomáhat studentům aplikovat jejich dovednosti v oblasti kritické informační gramotnosti na technologie AI. Přemýšlení o tom, jak učit studenty o AI, je v souladu s hlavními hodnotami kapitálu na naší univerzitě a využívá přirozený skepticismus fakulty vůči těmto nástrojům. Tento první zákon-užitý studenty o AI-se potýká s mostem mezi nadšenci AI a skeptiky tím, že uloží náš přístup k AI ve třídě se známými a široce dohodnutými hodnotami kapitálu a kritickými přístupy.
Druhá část našeho rámce tří zákonů se ptá, co studenti potřebují vědět, aby s AI eticky a spravedlivě spolupracovali. Jak by měli studenti s těmito nástroji pracovat, protože se stále více zakompují do platforem a programů, které již používají, a protože jsou integrováni do pracovních míst a kariéry, které naši studenti doufají vstoupit? Jako Kathleen Landy Nedávno se zeptal, „Co chceme, aby studenti v našem akademickém programu věděli a byli schopni dělat (nebo bez) generativní AI?“
„S“ částí našeho rámce podporuje fakultu, když začínají práci při revizi výsledků učení, přiřazení a hodnotících materiálů tak, aby zahrnovaly použití AI.
Konečně, a možná nejdůležitější (a a souvisí s „bez“ v Landyově otázce), jaké dovednosti a praktiky potřebují studenti rozvíjet bez AI, aby chránil své učení, zabránil deskillingu a soustředil své vlastní kulturně rozmanité způsoby poznání? Zde je citát z Centrum pro výuku a učení Univerzity Washingtonské univerzity:
„Někdy se studenti musí nejprve naučit základy pole, aby dosáhli dlouhodobého úspěchu, i když by později mohli použít zkratky při práci na pokročilejším materiálu. Stále učíme například základní matematiku, i když jako dospělí máme všichni přístup k kalkulačce na našich chytrých telefonech.halucinace‚) A často pouze uživatel, který chápe základní koncepty ve hře, to může rozpoznat, až se to stane. „
Boti znějí autoritativně a protože znějí tak dobře, studenti se mohou cítit přesvědčeni, což vede k situacím, kdy roboti potlačují nebo vytlačují vlastní myšlení studentů; Jejich použití tedy může pro studenty omezit příležitosti k rozvoji a praktikování druhů myšlení, které podléhají mnoha cílům učení. Ochrana učení studentů před AI pomáhá fakultě umístit jejich obavy z akademické integrity z hlediska učebních osnov, než z hlediska detekce nebo policejního řízení chování studentů. Vyzývá fakultu, aby přemýšlela o tom, jak by mohli přepracovat úkoly, aby studentům poskytli prostory, aby mohli dělat své vlastní myšlení.
Poskytování a ochrana takových prostorů nepochybně představuje pro fakultu zvýšené výzvy, vzhledem k všudypřítomnosti nástrojů AI, které mají studentům dostupné. Ale také víme, že ochrana učení studentů před snadnými zkratky je jádrem formálního vzdělávání. Zvažte plánování, které se zaměřuje na určení, zda by hodnocení mělo být otevřenou knihou nebo otevřenou notou, domácí nebo třída. Tato rozhodnutí jsou zakořeněna ve třetím zákonu: Co by nejvíce chránilo učení studentů před používáním zkratky (např. Učebnice, přístup k pomoci), které podkopávají jejich učení?
Univerzitní webové stránky jsou v průvodcích zdrojů pro fakulty, které se potýkají s novou technologií. Pro fakultu to může být ohromující, přinejmenším, zejména vzhledem k vysokému učebnímu zatížení a omezením času fakulty. Naše tři zákony rámec poskytuje lešení pro fakultu, když procházejí zdroji na AI a zahajují práci s přepracováním úkolů, činností a hodnocení k řešení AI. Naše tři zákony můžete vidět v akci zdeV polních poznámkách z Jenniferovy úsilí o přepracování své třídy pro psaní prvního ročníku za účelem řešení problémů a potenciálu technologie AI.
V duchu spojování nového se známým připomeneme čtenářům, že zatímco technologie AI představuje nové výzvy, tyto výzvy se v některých ohledech neliší od práce učebních osnov a návrhu hodnocení, které pravidelně provádíme, když budujeme naše kurzy. Ve skutečnosti se fakulta dlouho potýkala s otázkami vznesenými naším současným okamžikem. Necháme vás s tímto citátem, od Článek z roku 1991 (!) Gail E. Hawisher a Cynthia L. Selfy na vzestupu technologie zpracování slov a psaní studií:
„Neobhajujeme opuštění použití technologie a spoléháme se především na skript a tisk pro naši výuku bez pomoci zpracování textu a jiných počítačových aplikací, jako je komunikační software; ani nenavrhujeme, aby eliminoval naše popisy pozitivního učebního prostředí, které nám technologie musíme pomáhat. a rozvíjet nezbytné kritické perspektivy, které nám pomohou vyhnout se používání počítačů k postupu nebo propagaci průměrnosti při psaní výuky.