svět

The Case Against AI Disclosure Statements (stanovisko)

Kdykoli jsem od svých studentů vyžadoval, aby předložili prohlášení o zveřejnění AI, kdykoli použili generativní AI na úkolu. Už to dělat nebudu.

Od začátku našeho momentu plného umělé inteligence jsem se opřel do ChatGPT, ne pryč, a byl jsem prvním osvojitelem umělé inteligence ve svých kurzech kompozice na vysoké škole. Moje brzké přijetí AI záviselo na potřebě transparentnosti a otevřenosti. Studenti mi museli prozradit, kdy a jak AI používají. Stále vroucně věřím v tyto hodnoty, ale už nevěřím, že požadovaná prohlášení o zveřejnění nám pomohou jich dosáhnout.

Podívejte. chápu to. Odklon od prohlášení o zveřejnění AI je v rozporu s mnoha současnými vyššími ed osvědčené postupy pro zodpovědné používání AI. Ale začal jsem pochybovat o moudrosti prohlášení o zveřejnění na jaře 2024, když jsem si všiml problému. Studenti mých kurzů kompozice odevzdávali práci, která byla zjevně vytvořena s pomocí AI, ale nedokázali nabídnout požadovaná prohlášení o zveřejnění. Byl jsem zmatený a frustrovaný. Říkal jsem si: „Dovoluji jim používat AI; Povzbuzuji je, aby s ní experimentovali; jediné, co chci, je, aby mi řekli, že používají AI. Tak proč to ticho?“ Při chatování s kolegy z mého oddělení, kteří mají podobné přístupy k AI a požadavky na zveřejňování, jsem zjistil, že mají podobné problémy. I když jsme našim studentům říkali, že použití umělé inteligence je v pořádku, studenti stále nechtěli nic dělat.

Přiznejte se. Přiznej se. To je ten problém.

Povinná prohlášení o zveřejnění se právě teď cítí strašně jako přiznání nebo přiznání viny. A vzhledem ke kultuře podezíravosti a hanby, která tolik dominuje diskurz o AI ve vyšších ed v tuto chvíli nemohu studentům vyčítat, že se zdráhají zveřejnit jejich použití. Ani ve třídě s profesorem, který povoluje a podporuje používání umělé inteligence, studenti nemohou uniknout širšímu sdělení, že používání umělé inteligence by mělo být nezákonné a tajné.

Prohlášení o odhalení umělé inteligence se stala zvláštním druhem performativního přiznání: omluva provedená profesorovi, která označí poctivé studenty „šarlatovou umělou inteligencí“, zatímco ti méně svědomití studenti unikají neodhaleni (nebo možná podezřelýale nebyl shledán vinným).

I když jsou povinná prohlášení o zveřejnění umělé inteligence zamýšlena dobře, obrátila se proti nám. Namísto podpory transparentnosti a poctivosti dále stigmatizují zkoumání etického, zodpovědného a kreativního využívání umělé inteligence a posouvají naši pedagogiku směrem k většímu dohledu a podezíravosti. Navrhuji, že je produktivnější předpokládat určitou úroveň využití AI jako samozřejmost a v reakci na to upravit naše metody hodnocení a hodnocení a současně pracovat na normalizaci používání nástrojů AI v naší vlastní práci.

Studie ukazují, že odhalení AI s sebou nese rizika ve třídě i mimo ni. Byla zveřejněna jedna studie v květnu uvádí, že jakýkoli druh prozrazení (dobrovolného i povinného) v široké škále kontextů vedl ke snížení důvěry v osobu používající AI (to zůstalo pravdou, i když účastníci studie měli předchozí znalosti o používání AI jednotlivcem, což znamená, jak píší autoři, „Pozorovaný účinek lze přičíst primárně aktu prozrazení spíše než pouhému faktu používání AI.“)

Další nedávný článek poukazuje na propast mezi hodnotami poctivosti a spravedlnosti, pokud jde o povinné zveřejňování AI: Lidé se nebudou cítit bezpečně prozradit používání AI, pokud existuje základní nebo vnímaný nedostatek důvěry a respektu.

Někteří, kdo mají k AI nepříznivé postoje, budou poukazovat na tato zjištění jako na důkaz toho, že by se studenti měli používání AI vyhýbat úplně. Ale to mi nepřijde realistické. Anti-AI zaujatost pouze zažene používání AI studentů dále do podzemí a povede k menšímu počtu příležitostí k upřímnému dialogu. Také to odrazuje od toho, jak zaměstnavatelé začínají s gramotností AI očekávat a vyžadovat.

Povinné odhalování umělé inteligence pro studenty nepřispívá k autentické reflexi, ale je spíše jakýmsi signálem ctnosti, který zmrazí upřímný rozhovor, který bychom měli chtít s našimi studenty vést. Nátlak plodí pouze ticho a tajemství.

Povinné zveřejňování umělé inteligence také nijak neomezuje nebo nesnižuje nejhorší vlastnosti špatně napsaných dokumentů o umělé inteligenci, včetně vágního, robotického tónu; přebytek výplňového jazyka; a jejich nejkřiklavějším znakem jsou vymyšlené zdroje a citace.

Spíše než požadující studenty, aby nám přiznali své zločiny AI prostřednictvím povinných prohlášení o zveřejnění, jsem zastáncem jak posunu pohledu, tak posunu úkolů. Musíme přejít od chápání pomoci studentů AI jako zvláštní výjimky zaručující reakční dohled k akceptování a normalizaci používání AI jako dnes běžného rysu vzdělávání našich studentů.

Tento posun neznamená, že bychom měli povolit a přijmout jakékoli použití studentské umělé inteligence. Neměli bychom rezignovat na čtení AI slop, které student vytváří ve snaze vyhnout se učení. Při konfrontaci se špatně napsaným papírem s umělou inteligencí, který nezní jako student, který jej odevzdal, by se nemělo soustředit na to, zda student umělou inteligenci používal, ale na to, proč to není dobré psaní a proč nesplňuje požadavky zadání. Rovněž by mělo být samozřejmé, že falešné zdroje a citace, bez ohledu na to, zda jsou lidského nebo umělého původu, by měly být označovány za výmysly, které nebudou tolerovány.

Musíme vytvořit úkoly a hodnotící kritéria, která odradí od nekvalifikovaného používání umělé inteligence, které obchází učení. Musíme studenty naučit základní AI gramotnosti a etice. Musíme budovat a podporovat vzdělávací prostředí, která oceňují transparentnost a poctivost. Ale skutečná transparentnost a poctivost vyžadují bezpečí a důvěru, než mohou vzkvétat.

Můžeme začít budovat takové výukové prostředí tím, že budeme pracovat na normalizaci používání AI u našich studentů. Některé nápady, které mě napadnou, zahrnují:

  • Řekněte studentům, kdy a jak používáte AI ve své vlastní práci, včetně úspěchů i neúspěchů v používání AI.
  • Nabízí studentům jasné vysvětlení, jak by mohli produktivně používat AI v různých částech vaší třídy a proč by možná nechtěli používat AI v jiných bodech. (Danny Liu Model menu je skvělým příkladem této strategie.)
  • Přidání úkolu, jako je deník o využití a reflexi umělé inteligence, který studentům nabízí příležitost experimentovat s umělou inteligencí a přemýšlet o zkušenostech.
  • Přidání příležitosti pro studenty, aby před třídou představili alespoň jednu skvělou, zvláštní nebo užitečnou věc, kterou udělali s AI (možná je dokonce povzbudí, aby se také podělili o své neúspěchy v oblasti AI).

Smyslem těchto příkladů je, že zveme studenty do chaotického, vzrušujícího a děsivého okamžiku, ve kterém se všichni nacházíme. Přesouvají pozornost od vynucených přiznání k příjemnému pozvání, aby se přidali a podělili se o vlastní moudrost, zkušenosti a odborné znalosti, které nashromáždili, když se všichni přizpůsobujeme věku umělé inteligence.

Julie McCown je docentkou angličtiny na Southern Utah University. Pracuje na knize o tom, jak přijetí narušení umělé inteligence vede k poutavějšímu a smysluplnějšímu učení pro studenty a učitele.

Zdrojový odkaz

Related Articles

Back to top button