Již máme etický rámec pro AI (názor)

Potřetí v mé kariéře jako akademického knihovníka čelíme digitální revoluci, která radikálně a rychle transformuje náš informační ekosystém. První bylo, když byl internet široce dostupný na základě prohlížečů. Druhým byl vznik Web 2.0 s mobilními a sociálními médii. Třetí – a aktuální – se věnuje rostoucí všudypřítomnosti AI, zejména generativní AI.
Ještě jednou slyším kombinaci myšlení založeného na strachu spolu s rétorikou nevyhnutelnosti a nadávání zaměřených na ty kritiky, kteří jsou zastánci AI vylíčeni jako „odolné vůči změně“. Přál bych si, abych slyšel více hlasů obhajujících výhody specifického použití AI spolu s jasným uznáním rizik AI za konkrétních okolností a důrazem na zmírnění rizik. Akademici by měli přistupovat k AI jako nástroji pro konkrétní intervence a poté posoudit etiku těchto intervencí.
Opatrnost je zaručena. Břemeno budování důvěry by mělo být na vývojářích a korporacích AI. Zatímco Web 2.0 splnil svůj příslib interaktivnějších, spolupracujících zkušeností na webu, který soustředil obsah generovaný uživatelem, naplnění tohoto slibu nebylo bez společenských nákladů.
Při zpětném pohledu Web 2.0 pravděpodobně nesplňuje základní standard dobročinnosti. Je zapojen do globálního vzestupu autoritářství, v podkopání pravdy jako hodnoty, při podpoře polarizace i extremismu, při zhoršování kvality naší pozornosti a myšlení, v rostoucí a vážné krizi duševního zdraví a v šíření epidemie osamělosti. Sektor informačních technologií získal náš hluboký skepticismus. Měli bychom udělat vše, co je v našich silách, abychom se poučili z chyb naší minulosti a dělat, co můžeme, abychom v budoucnu zabránili podobným výsledkům.
Musíme vyvinout etický rámec pro hodnocení použití nových informačních technologií – a konkrétně AI -, které mohou vést jednotlivce a instituce, protože zvažují zaměstnávání, propagaci a licencování těchto nástrojů pro různé funkce. Existují dva hlavní faktory AI, které komplikují etickou analýzu. První je, že interakce s AI často pokračuje po počáteční transakci uživatele a AI; Informace z této transakce se mohou stát součástí tréninkové sady systému. Za druhé, často existuje významný nedostatek transparentnosti o tom, co model AI dělá pod povrchem, což ztěžuje posouzení. Od poskytovatelů nástrojů bychom měli požadovat co nejvíce transparentnosti.
Akademie již má dohodnutý soubor etických principů a procesů pro hodnocení potenciálních zásahů. Principy v „Zpráva Belmont: Etické principy a pokyny pro ochranu lidských předmětů výzkumu„Řídí náš přístup k výzkumu s lidmi a lze jej plodně uplatnit, pokud uvažujeme o možném použití AI jako na zásahy. Tyto zásady nejen prospívají akademické obci při provádění hodnocení používání AI, ale také poskytují rámec pro vývojáře technologií, kteří přemýšlejí prostřednictvím svých návrhových požadavků.
Zpráva Belmont vyjadřuje tři primární etické principy:
- Respekt k osobám
- Dobročinnost
- Spravedlnost
„Respekt k osobám,“ jak byl přeložen do USA kód a praktikuje IRBS, má několik aspektů, včetně autonomie, informovaného souhlasu a soukromí. Autonomie znamená, že jednotlivci by měli mít pravomoc ovládat své zapojení a neměli by být nuceni se zapojit. Informovaný souhlas vyžaduje, aby lidé měli jasné informace, aby pochopili, s čím souhlasí. Soukromí znamená, že osoba by měla mít kontrolu a výběr ohledně toho, jak jsou jejich osobní údaje shromažďovány, ukládány, používány a sdíleny.
Následuje několik otázek, které bychom mohli položit, abychom posoudili, zda konkrétní intervence AI vyznamenává autonomii.
- Je pro uživatele zřejmé, že interagují s AI? To se stává stále důležitějším, protože AI je integrována do jiných nástrojů.
- Je zřejmé, když něco vytvořilo AI?
- Mohou uživatelé ovládat, jak jsou jejich informace sklizeny AI, nebo je jedinou možností, jak tento nástroj nepoužívat?
- Mohou uživatelé přistupovat k esenciálním službám, aniž by se zapojili do AI? Pokud ne, může to být donucovací.
- Mohou uživatelé ovládat, jak informace, které produkují, používají AI? To zahrnuje, zda se jejich obsah používá k tréninku AI modelů.
- Existuje riziko přehodnocení, zejména pokud existují designové prvky, které podporují psychologickou závislost? Využívá nástroj AI pro konkrétní účel z hlediska vzdělávacího hlediska, který pravděpodobně zabrání uživatelům v učení základních dovedností, aby se stali závislými na modelu?
Jsou ve vztahu k informovanému souhlasu poskytnuty informace o tom, co model dělá jak dostatečným, tak ve formě, kterou člověk, který není právníkem, ani vývojář technologie, dokáže rozumět? Je nezbytné, aby uživatelé dostali informace o tom, jaké údaje budou shromažďovány, z nichž zdroje a co se s těmito údaji stanou.
Porušení ochrany osobních údajů dochází buď, když jsou osobní údaje něčí odhaleny nebo použity nezamýšleným způsobem, nebo když jsou informace považovány za soukromé. Pokud existuje dostatek dat a výpočetní síly, je opětovné identifikace výzkumných subjektů nebezpečím. Vzhledem k tomu, že „de-identifikace dat“ je jednou z nejčastějších strategií pro zmírnění rizik ve výzkumu lidských subjektů a zvyšuje se důraz na publikování souborů údajů pro účely reprodukovatelnosti výzkumu, jedná se o oblast etického problému, která vyžaduje pozornost. Ochrana osobních údajů zdůrazňuje, že jednotlivci by měli mít kontrolu nad svými soukromými informacemi, ale to, jak se tyto soukromé informace používají, by měly být také posouzeny v souvislosti s druhým hlavním principem – ponechávání.
Beneficence je obecný princip, který říká, že výhody by měly převažovat nad rizikem poškození a že rizika by měla být co nejvíce zmírněna. Beneficence by měla být posouzena na více úrovních – jak jednotlivce, tak systémové. Princip beneficence vyžaduje, abychom věnovali obzvláště pečlivou pozornost těm, kteří jsou zranitelní, protože jim chybí plná autonomie, jako jsou nezletilí.
I při osobních rozhodnutích musíme přemýšlet o možných systémových škodách. Někteří dodavatelé například nabízejí nástroje, které vědcům umožňují sdílet své osobní údaje, aby vytvořily vysoce personalizované výsledky vyhledávání – zvýšení účinnosti výzkumu. Vzhledem k tomu, že nástroj vytváří obrázek výzkumného pracovníka, bude pravděpodobně i nadále zdokonalovat výsledky s cílem neukazovat věci, o kterých se nemnívá, že jsou pro výzkumného pracovníka užitečné. To může být přínosem pro jednotlivého výzkumného pracovníka. Na systémové úrovni, pokud se však takové praktiky stanou všudypřítomnou, však budou hranice mezi různými diskurzy ztvrdnout? Budou vědci provádět podobné stipendium, aby ukázali stále úzký pohled na svět, zaměřený na výzkum a výhledy, které jsou navzájem podobné, zatímco vědci v jiném diskurzu jsou ukázáni samostatným pohledem na svět? Pokud ano, byl by tento interdisciplinární nebo radikálně nový výzkum nebo radikálně nový výzkum nebo zhoršil disciplinární potvrzovací zaujatost? Lze taková rizika zmírnit? Abychom vytvořili zmírnění, musíme si vyvinout zvyk přemýšlet o potenciálních dopadech za jednotlivce.
Pro určitá použití AI existuje mnoho potenciálních výhod. Existují skutečné možnosti, že může rychle rozvíjet medicínu a vědu – viz například ohromující úspěchy databáze proteinové struktury Alphafold. Existují odpovídající potenciály pro rychlé pokroky v technologii, které mohou sloužit společnému dobru, včetně našeho Bojujte proti klimatické krizi. Potenciální výhody jsou transformativní a dobrý etický rámec by je měl povzbudit. Princip beneficence nevyžaduje, aby neexistovala žádná rizika, ale abychom měli identifikaci využití tam, kde jsou výhody významné a že zmírňujeme rizika, individuální i systémová. Rizika lze minimalizovat zlepšením nástrojů, jako je práce, aby jim zabránila v halucinaci, šíření toxického nebo zavádějícího obsahu nebo poskytováním nevhodných rad.
Otázky dobročinnosti také vyžadují pozornost na dopady generativních modelů AI na životní prostředí. Protože modely vyžadují obrovské množství výpočetní energie, a proto je elektřinu, využívat daně z naší kolektivní infrastruktury a přispívá k znečištění. Při analýze konkrétního použití prostřednictvím etické čočky dobročinnosti bychom se měli zeptat, zda navrhované použití poskytuje dostatečný pravděpodobný přínos pro ospravedlnění poškození životního prostředí. Použití AI pro triviální účely pravděpodobně selhává test na dobročinnost.
Zásada spravedlnosti vyžaduje, aby lidé a populace, kteří nesou rizika, by také získali výhody. S AI existují významné obavy o kapitál. Například generativní AI může být vyškolena s údaji, které zahrnují naše zkreslení, současné i historické. Modely musí být přísně testovány, aby se zjistilo, zda vytvářejí předsudkový nebo zavádějící obsah. Podobně by nástroje AI měly být úzce vyslýchány, aby se zajistilo, že pro některé skupiny nefungují lépe než pro jiné. Nerovnosti ovlivňují výpočty dobročinnosti a v závislosti na sázkách případu použití by mohly být použití neetické.
Dalším hlediskem ve vztahu k principu spravedlnosti a umělé inteligence je otázka spravedlivé kompenzace a přiřazení. Je důležité, aby AI nepokojila tvůrčí ekonomiky. Učenci jsou navíc důležitými výrobci obsahu a akademická mince říše jsou citace. Tvůrci obsahu mají právo očekávat, že jejich práce bude použita s integritou, bude citována a že budou náležitě odměňováni. V rámci autonomie by tvůrci obsahu měli být také schopni kontrolovat, zda je jejich materiál používán v tréninkové sadě, a to by mělo být alespoň vpřed součástí autorských jednání. Podobně by mělo být použití nástrojů AI ve výzkumu citováno ve vědeckém produktu; Musíme vyvinout standardy o tom, co je vhodné zahrnout do metodických sekcí a citací, a možná, když by měl být model AI udělen spoluautoriální status.
Věřím, že principy uvedené výše uvedené ze zprávy Belmont jsou dostatečně flexibilní, aby umožnily další a rychlý vývoj v terénu. Akademie má dlouhou historii jejich používání jako pokynů k provádění etických hodnocení. Dávají nám sdílený základ, ze kterého můžeme eticky podporovat použití AI, aby bylo pro svět prospěšné a současně se vyhýbalo typům škod, které mohou slib otrávit.