věda

Modely AI se systémovými riziky dávají ukazatele o tom, jak dodržovat pravidla EU AI

Společnosti musí do 2. srpna příští rok dodržovat legislativu (spis) | Foto kredit: Reuters

Evropská komise v pátek stanovila pokyny, aby pomohla modelům AI, které určilo Zmírněte potenciální hrozby v souladu s regulací umělé inteligence Evropské unie (AI ACT).

Cílem tohoto kroku je čelit kritice od některých společností ohledně zákona AI a regulační zátěže a zároveň poskytuje více jasnosti podnikům, kterým čelí pokutám v rozmezí od 7,5 milionu EUR (8,7 milionu USD) nebo 1,5% obratu do 35 milionů EUR nebo 7% globálního obratu za porušení.

Zákon AI, který se stal loňským zákonem, se bude vztahovat 2. srpna pro modely AI se systémovými riziky a nadačními modely, jako jsou modely, které vytvořily Google, OpenAI, meta platformy, antropické a mistral. Společnosti musí do 2. srpna příštího roku dodržovat právní předpisy.

Komise definuje modely AI se systémovým rizikem jako ty s velmi pokročilými výpočetními schopnostmi, které by mohly mít významný dopad na veřejné zdraví, bezpečnost, základní práva nebo společnost.

První skupina modelů bude muset provést hodnocení modelů, posoudit a zmírnit rizika, provádět protichůdné testování, nahlásit vážné incidenty Komisi a zajistit odpovídající ochranu kybernetické bezpečnosti proti krádeži a zneužití.

Modely AI (GPAI) nebo nadace společnosti AI (GPAI) budou podléhat požadavkům transparentnosti, jako je vypracování technické dokumentace, přijímání politik autorských práv a poskytnutí podrobných shrnutí o obsahu používaném pro školení algoritmů.

„S dnešními pokyny podporuje Komise hladké a efektivní uplatňování zákona AI,“ uvedla ve svém prohlášení šéf EU Tech Henna Virkkunen.

Zdrojový odkaz

Related Articles

Back to top button