svět

Nová regulace AI dává Kaliforňanům vzácný pohled do vývoje


V souhrnu

Velké technologické společnosti budou muset zveřejnit, jak plánují předcházet katastrofám s umělou inteligencí a jak je řešit.

Technické společnosti, které vytvářejí velké, pokročilé modely umělé inteligence, budou muset brzy sdílet více informací o tom, jak mohou modely ovlivnit společnost, a poskytnout svým zaměstnancům způsoby, jak varovat nás ostatní, pokud se něco pokazí.

Od 1. ledna dává zákon podepsaný guvernérem Gavinem Newsomem ochrana zaměstnanců oznamovatelů ve společnostech jako Google a OpenAI, jejichž práce zahrnuje hodnocení rizik kritických bezpečnostních incidentů. Vyžaduje také, aby velcí vývojáři modelů umělé inteligence publikovali na svých webových stránkách rámce, které zahrnují, jak společnost reaguje na kritické bezpečnostní incidenty a jak hodnotí a řídí katastrofická rizika. Pokuty za porušení rámců mohou dosáhnout 1 milionu dolarů za porušení. Podle zákona musí společnosti hlásit kritické bezpečnostní incidenty státu do 15 dnů nebo do 24 hodin, pokud se domnívají, že riziko představuje bezprostřední hrozbu smrti nebo zranění.

Zákon začal jako Senátní návrh zákona 53autorem je stát Sen. Scott Wienerdemokrat ze San Francisca, aby řešil katastrofické riziko, které představují pokročilé modely umělé inteligence, které se někdy nazývají hraniční modely. Zákon definuje katastrofické riziko jako případ, kdy technologie může zabít více než 50 lidí prostřednictvím kybernetického útoku nebo zranit lidi chemickou, biologickou, radioaktivní nebo jadernou zbraní, nebo případ, kdy použití umělé inteligence vede ke krádeži nebo poškození více než 1 miliardy dolarů. Řeší rizika v souvislosti se ztrátou kontroly operátora nad systémem umělé inteligence, například proto, že je umělá inteligence oklamala nebo přijala nezávislá opatření, což jsou situace, které jsou z velké části považovány za hypotetické.

Zákon rozšiřuje informace, které musí tvůrci umělé inteligence sdílet s veřejností, včetně zpráv o transparentnosti, která musí obsahovat zamýšlené použití modelu, omezení nebo podmínky použití modelu, jak společnost posuzuje a řeší katastrofické riziko a zda toto úsilí přezkoumala nezávislá třetí strana.

Zákon přinese do odvětví AI tolik potřebné informace, řekl Rishi Bommasani, součást skupiny Stanfordské univerzity, která sleduje transparentnost kolem AI. Pouze tři ze 13 společností, které jeho skupina nedávno zkoumala, pravidelně hlásí incidenty a skóre transparentnosti jeho skupinových problémů vůči těmto společnostem za poslední rok v průměru kleslo, podle nově vydané zprávy.

Bommasami je také hlavním autorem zprávy nařízené guvernérem Gavinem Newsomem, která silně ovlivnila SB 53 a transparentnost považuje za klíč k důvěře veřejnosti v umělou inteligenci. Myslí si, že účinnost SB 53 do značné míry závisí na vládních agenturách pověřených jeho prosazováním a na zdrojích, které jsou k tomu přiděleny.

„Teoreticky můžete napsat jakýkoli zákon, ale jeho praktický dopad je silně ovlivněn tím, jak jej implementujete, jak jej prosazujete a jak se s ním společnost zabývá.“

Zákon měl vliv ještě předtím, než vstoupil v platnost. Guvernérka New Yorku Kathy Hochul, připsal jako základ za zákon o transparentnosti a bezpečnosti umělé inteligence podepsala 19. prosince. Podobnost poroste, Informoval o tom City & State New Yorkprotože zákon bude „příští rok podstatně přepsán, aby byl v souladu s kalifornským jazykem“.

Omezení a implementace

Nový zákon zaostává bez ohledu na to, jak dobře je prosazován, říkají kritici. Nezahrnuje do své definice problémy katastrofického rizika, jako je dopad systémů umělé inteligence na životní prostředí, jejich schopnost šířit dezinformace nebo jejich potenciál udržovat historické systémy útlaku, jako je sexismus nebo rasismus. Zákon se také nevztahuje na systémy umělé inteligence, které vlády používají k profilování lidí nebo jim přidělují skóre, která mohou vést k odmítnutí vládních služeb nebo obvinění z podvodu, a zaměřuje se pouze na společnosti, které dosahují ročních příjmů 500 milionů dolarů.

Jeho opatření v oblasti transparentnosti rovněž zabraňují plnému zviditelnění veřejnosti. Kromě poskytování zpráv o transparentnosti musí vývojáři umělé inteligence také posílat zprávy o incidentech Kanceláři pohotovostních služeb, když se něco pokazí. Veřejnost může také kontaktovat tento úřad a hlásit katastrofické rizikové incidenty.

Obsah zpráv o incidentech, které společnosti nebo jejich zaměstnanci předkládají společnosti OES, však nelze poskytnout veřejnosti prostřednictvím žádostí o záznamy a bude namísto toho sdílen s členy kalifornského zákonodárného sboru a Newsom. I poté mohou být redigovány, aby se skryly informace, které společnosti charakterizují jako obchodní tajemství, což je běžný způsob, jak společnosti brání sdílení informací o svých modelech AI.

Bommasami doufá, že další transparentnost bude zajištěna shromážděním Bill 2013, a zákon, který se stal zákonem v roce 2024 a také vstoupí v platnost 1. ledna. Vyžaduje, aby společnosti zveřejnily další podrobnosti o datech, která používají k trénování modelů umělé inteligence.

Některé prvky SB 53 začnou fungovat až příští rok. Počínaje rokem 2027 bude Úřad pro nouzové služby vypracovávat zprávu o kritických bezpečnostních incidentech, které agentura obdrží od veřejnosti a velkých hraničních výrobců modelů. Tato zpráva může lépe objasnit, do jaké míry může umělá inteligence provádět útoky na infrastrukturu nebo modely jednat bez lidského řízení, ale zpráva bude anonymizována, takže se veřejnost nedozví, které modely umělé inteligence představují tuto hrozbu.


Zdrojový odkaz

Related Articles

Back to top button