Vědci právě vyvinuli novou AI modelovanou na lidském mozku – překonává LLM jako je chatgpt při uvažovacích úkolech

Vědci vyvinuli nový typ Umělá inteligence (AI) Model, který může uvažovat odlišně od většiny velkých jazykových modelů (LLM), jako je chatgpt, což má za následek mnohem lepší výkon v klíčových měřítcích.
Nový důvod AI, nazývaný model hierarchického uvažování (HRM), je inspirován Hierarchické a vícenásobné zpracování V lidském mozku – způsob, jakým různé oblasti mozku integrují informace před různými doby trvání (od milisekund po minuty).
Vědci ve společnosti SAPIENT, společnost AI v Singapuru, říkají, že tento model uvažování může dosáhnout lepšího výkonu a může fungovat efektivněji. To je díky modelu, který vyžaduje méně parametrů a příkladů tréninku.
HRM model má 27 milionů parametrů při používání 1 000 vzorků tréninku, uvedli vědci ve studii nahrané 26. června do předtisku arxiv databáze (která musí být ještě recenzována). Ve srovnání, většina pokročilých LLM má miliardy nebo dokonce biliony parametrů. Ačkoli přesná hodnota nebyla zveřejněna, některé odhady Navrhujte, že nově vydaný GPT-5 má 3 bilion a 5 bilionů parametrů.
Nový způsob myšlení pro AI
Když vědci testovali HRM v ARC-AGI Benchmark – Notoricky tvrdé vyšetření, jehož cílem je otestovat, jak blízké jsou modely k dosažení Umělá obecná inteligence (AGI) – Podle studie systém dosáhl působivých výsledků.
HRM skóroval 40,3% v ARC-AGI-1, ve srovnání s 34,5% u Openia’s O3-Mini-High, 21,2% pro Claude 3,7 a 15,8% pro Deepseek R1. V tvrdším testu ARC-AGI-2 skóroval HRM 5% oproti 3% O3-Mini-High, Deepseek R1 1,3% a Claude 3.7 0,9%.
Většina pokročilých LLM používá zdůvodnění řetězce promyšlené (COT), ve kterém je složitý problém rozdělen na více, mnohem jednodušší mezilehlé kroky, které jsou vyjádřeny v přirozeném jazyce. Napodobuje proces lidského myšlení tím, že rozbije komplikované problémy na stravitelné kousky.
Související: AI vstupuje do „bezprecedentního režimu“. Měli bychom to zastavit – a můžeme – před tím, než nás to zničí?
Vědci Sapientu však ve studii argumentují, že COT má klíčové nedostatky – jmenovitě „křehký rozklad úkolu, rozsáhlé požadavky na údaje a vysoká latence“.
Místo toho HRM provádí úkoly sekvenčního uvažování v jednom dopředném průchodu bez jakéhokoli explicitního dohledu nad mezilehlými kroky prostřednictvím dvou modulů. Jeden modul na vysoké úrovni je zodpovědný za pomalé, abstraktní plánování, zatímco nízkoúrovňový modul zpracovává rychlé a podrobné výpočty. Je to podobné způsobu, jakým lidský mozek Zpracovává informace v různých regionech.
Funguje použitím iteračního zdokonalení – výpočetní techniky, která zlepšuje přesnost řešení opakovaně zdokonalováním počáteční aproximace – během několika krátkých výbuchů „myšlení“. Každý výbuch zvažuje, zda by proces myšlení měl pokračovat nebo být předložen jako „konečná“ odpověď na počáteční výzvu.
HRM dosáhla téměř dokonalého výkonu na náročných úkolech, jako jsou složité sudoku hádanky-které konvenční LLM nemohly dosáhnout-a také vynikaly při optimálním vyhledávání cesty v bludišti.
Příspěvek nebyl recenzován, ale organizátoři ARC-AGI Benchmark se pokusili znovu vytvořit výsledky po studii vědci otevřený jejich model na GitHubu.
Přestože čísla reprodukovali, zástupci uvedli v a Blogový příspěvekUdělali několik překvapivých zjištění, včetně toho, že hierarchická architektura měla minimální dopad na výkon-místo toho došlo k nedostatečně zdokumentovanému procesu zdokonalení během tréninku, který vedl k významným ziskům.



