Agent OpenAI CHATGPT může ovládat váš počítač a provádět úkoly vaším jménem – ale jak to funguje a jaký to má smysl?

OpenAI spustil Agent Chatgpt Agent, upgrade na svůj model umělé inteligence (AI), který jej vybavuje virtuálním počítačem a integrovanou sadou nástrojů.
Tyto nové nástroje umožňují agentovi provádět složité, vícestupňové úkoly, které předchozí iterace ChatGPT nebyly schopny-ovládat počítač a plnění úkolů za vás.
Tato silnější verze, která je stále velmi závislá na vstupu a dohledu, dorazila krátce předtím, než Mark Zuckerberg oznámil, že meta vědci pozorovali své vlastní modely AI, které ukazují Známky nezávislého sebepovídání. Spustilo se také krátce před zahájením OpenAI spuštěno GPT-5-nejnovější verzi Chatbot OpenAI.
S agentem ChatGPT mohou uživatelé nyní požádat model velkého jazyka (LLM), aby nejen provedl analýzu nebo shromažďování dat, ale aby jednal na těchto datech, uvedli zástupci OpenAI v a prohlášení.
Například byste mohli přikázat agentovi, aby posoudil váš kalendář a stručně vás informoval o nadcházejících událostech a připomenutích, nebo studoval korpus dat a shrnul jej v pethy synopsi nebo jako snímku. Zatímco tradiční LLM by mohl hledat a poskytovat recepty na japonskou snídani, agent Chatgpt mohl plně naplánovat a nakupovat ingredience pro stejnou snídani pro konkrétní počet hostů.
Přesto nový model, i když je vysoce schopný, stále čelí řadě omezení. Stejně jako všechny modely AI je jeho prostorové uvažování slabé, takže bojuje s úkoly, jako je plánování fyzických tras. Chybí také skutečnou perzistentní paměť, zpracování informací v okamžiku bez spolehlivého stažení nebo schopnosti odkazovat předchozí interakce mimo okamžitý kontext.
Agent ChatGPT však ukazuje významná zlepšení v benchmarkingu OpenAI. Na Poslední zkouška lidstvaBenchmark AI, který vyhodnocuje schopnost modelu reagovat na otázky na úrovni odborníků napříč řadou disciplín, více než zdvojnásobil procento přesnosti (41,6%) oproti OpenAI O3 bez vybavených nástrojů (20,3%).
Související: Openaiův „nejchytřejší“ model AI byl výslovně řekl, aby se vypnul – a to odmítlo
Také to fungovalo mnohem lépe než jiné nástroje OpenAI a také verzi sebe sama, která postrádala nástroje, jako je prohlížeč a virtuální počítač. V nejtěžším známém matematickém benchmarku na světě, Frontiermath, Chatgpt Agent a jeho doplněk nástrojů znovu překonaly předchozí modely širokou marží.
Agent je postaven na třech sloupech odvozených z předchozích produktů OpenAI. Jedna noha je „Operátor“, agent, který by používal vlastní virtuální prohlížeč k instalaci webu pro uživatele. Druhým je „hluboký výzkum“, postavený tak, aby čepot a syntetizoval velké množství dat. Posledním dílem hádanky jsou předchozí verze samotného chatu, které vynikaly v konverzační plynulosti a prezentaci.
„V podstatě může autonomně procházet web, generovat kód, vytvářet soubory atd., Všichni pod lidským dohledem,“ řekl Kofi NyarkoProfesor na Morgan State University a ředitel výzkumné laboratoře datového inženýrství a prediktivní analýzy (DEPA).
Nyarko však rychle zdůraznil, že nový agent stále není autonomní. „Halucinace, křehkost uživatelského rozhraní nebo nesprávná interpretace mohou vést k chybám. Vestavěné záruky, jako jsou výzvy a přerušení oprávnění, jsou nezbytné, ale nestačí k úplnému odstranění rizika.“
Nebezpečí pokroku AI
OpenAI má sám uznal nebezpečí nového agenta a jeho zvýšené autonomie. Zástupci společnosti uvedli, že agent ChatGPT má „vysoké biologické a chemické schopnosti“, o kterých tvrdí, že jí potenciálně umožňují pomoci při vytváření chemických nebo biologických zbraní.
Ve srovnání se stávajícími zdroji, jako je chem a učebnice, představuje agent AI to, co odborníci na biologickou bezpečnost nazývají „eskalační cestou schopností“. AI může čerpat z nesčetných zdrojů a syntetizovat data v nich okamžitě, sloučit znalosti napříč vědeckými disciplínami, poskytnout iterativní řešení problémů, jako je odborný mentor, navigovat webové stránky dodavatelů, vyplňovat formuláře objednávek a dokonce pomáhat obejít základní kontroly ověření.
Díky svému virtuálnímu počítači může agent také autonomně interagovat se soubory, webovými stránkami a online nástroji způsoby, které ji zmocňují k tomu, aby při zneužití způsobily mnohem větší potenciální poškození. Příležitost pro porušení dat nebo manipulace s daty, jakož i pro nesprávně zarovnané chování, jako je finanční podvody, je zesílena v případě a Rychlý útok injekce nebo únos.
Jak zdůraznil Nyarko, tato rizika jsou navíc k těm, které jsou implicitní v tradičních modelech AI a LLM.
„Existují širší obavy pro agenty AI jako celek, jako je to, jak agenti, kteří pracují autonomně, mohou zesilovat chyby, zavádět zkreslení z veřejných údajů, komplikovat rámce odpovědnosti a neúmyslně podporovat psychologickou závislost,“ uvedl.
V reakci na nové hrozby, které představuje agenciální model, inženýři OpenAI také posílili řadu záruk, uvedli v prohlášení zástupci společnosti.
Patří mezi ně modelování hrozeb, výcvik odmítnutí dvojího použití-pokud se model učí odmítnout škodlivé požadavky týkající se dat, která by mohla mít buď prospěšné nebo škodlivé použití-programy odměny chyby a odborník-analyzující slabé stránky napadením systému sami-zaměřené na Biodefense. A Hodnocení řízení rizik Prováděno v červenci 2025 společností Saferai, neziskovou organizací zaměřenou na bezpečnost, nazývaná politika řízení rizik OpenAI slabé, což jim uděluje skóre 33% z možných 100%. OpenAI také skóroval pouze třídu C na Bezpečnostní index AI Zkompiloval Institut Future of Life Institute, přední firma bezpečnosti AI.



