věda

OpenAI varuje, že nové modely představují „vysoké“ riziko kybernetické bezpečnosti

OpenAI uvedla, že se spoléhá na kombinaci řízení přístupu, zpevnění infrastruktury, kontroly výstupu a monitorování (Soubor) | Fotografický kredit: REUTERS

OpenAI ve středu uvedlo své kybernetické schopnosti Modely umělé inteligence přibývají a varují, že nadcházející modely budou pravděpodobně představovat „vysoké“ riziko kybernetické bezpečnosti.

Modely umělé inteligence mohou buď vyvíjet fungující vzdálené exploity zero-day proti dobře bráněným systémům, nebo pomáhat se složitými podnikovými nebo průmyslovými operacemi narušení zaměřenými na efekty v reálném světě, uvedl tvůrce ChatGPT v blogovém příspěvku.

Jak se schopnosti rozšiřují, OpenAI uvedla, že „investuje do posilování modelů pro obranné úkoly v oblasti kybernetické bezpečnosti a vytváří nástroje, které umožňují obráncům snadněji provádět pracovní postupy, jako je auditování kódu a opravování zranitelností“.

Aby čelila rizikům kybernetické bezpečnosti, OpenAI uvedla, že se spoléhá na kombinaci řízení přístupu, posílení infrastruktury, výstupní kontroly a monitorování.

Zdrojový odkaz

Related Articles

Back to top button