AI „halucinace“ neustále, ale existuje řešení

Hlavní problém s experimentem Big Tech s Umělá inteligence (Ai) není to, že by mohlo převzít lidstvo. Je to, že velké jazykové modely (LLM), jako jsou Chatgpt Open AI, Google Gemini a Meta’s Llama nadále se věci mýlí a problém je neřešitelný.
Nejvýznamnějším příkladem byl pravděpodobně případ profesora amerického práva Jonathana Turleyho, který byl nejvýznamnějším příkladem, který byl možná nejvýznamnějším příkladem falešně obviněný sexuálního obtěžování Chatgpt v roce 2023.
Zdá se, že řešení OpenAI bylo v podstatě „zmizet“ Turley tím, že programoval chatgpt, aby řekl, že nemůže reagovat na otázky o něm, což zjevně není spravedlivé nebo uspokojivé řešení. Pokoušet se vyřešit halucinace po události a případu od případu zjevně není způsob, jak jít.
Totéž lze říci o LLMS Amplifikace stereotypů nebo dávat Odpovědi zaměřené na západní. Existuje také naprostá nedostatečná odpovědnost tváří v tvář této rozšířené dezinformaci, protože je obtížné zjistit, jak LLM dosáhl tohoto závěru na prvním místě.
Po vydání GPT-4, nejnovější hlavní paradigma ve vývoji LLM Openai, jsme viděli o těchto problémech tvrdou debatu o těchto problémech. Pravděpodobně se debata od té doby ochladila, i když bez ospravedlnění.
EU prošla Máte dokument Například v rekordním čase v roce 2024, ve snaze být světovým lídrem v dohledu nad tímto oborem. Zákon se však silně spoléhá na společnosti AI, aby se regulovaly bez skutečně oslovení dotyčné problémy. Nezabránilo technologickým společnostem v uvolňování LLMS po celém světě na stovky milionů uživatelů a shromažďování jejich údajů bez řádné kontroly.
Mezitím, nejnovější testy naznačujte, že Dokonce i ty nejnáročnější LLM zůstávají nespolehlivé. Navzdory tomu, přední společnosti AI stále odolávat převzetí odpovědnosti pro chyby.
Bohužel tendence LLMS k dezinformaci a reprodukci zkreslení nelze v průběhu času vyřešit postupným zlepšením. A s příchodem Agentické aiTam, kde uživatelé budou brzy moci přiřadit projekty LLM, jako je například rezervaci svátků nebo optimalizace výplaty všech svých účtů každý měsíc, je potenciál problémů nastaven na násobení.
Vznikající pole neurosymbolické AI by mohlo tyto problémy vyřešit a zároveň snížit obrovské množství dat potřebných pro trénink LLM. Co je tedy neurosymbolická AI a jak to funguje?
Problém LLM
LLM pracují pomocí techniky zvané Deep Learning, kde jsou dány obrovské množství textových dat a používají pokročilé statistiky k odvození vzorců, které určují, jaké další slovo nebo fráze by mělo být v dané odpovědi. Každý model – spolu se všemi vzory, které se naučil – je uložen v polích výkonných počítačů ve velkých datových centrech známých jako neuronové sítě.
LLMS se může zdát, že uvažuje pomocí procesu zvaného řetězec promyšlený, kde generují vícestupňové odpovědi, které napodobují, jak by lidé mohli logicky dospět k závěru na základě vzorců pozorovaných v tréninkových datech.
LLM jsou bezpochyby skvělým inženýrským úspěchem. Jsou působivé při shrnutí textu a překladu a mohou zlepšit produktivitu těch pilných a dobře informovaných, aby si všimli svých chyb. Přesto mají velký potenciál uvést v omyl, protože jejich závěry jsou vždy založeny na pravděpodobnosti – nepochopení.
Populární řešení se nazývá „člověk-in-the-loop“: ujistěte se, že lidé používající AIS stále přijímají konečná rozhodnutí. Rozdělení viny lidem však problém nevyřeší. Stále budou často zaváděny dezinformací.
LLMS nyní potřebuje tolik školení dat, aby bylo možné postupovat, že je nyní musíme krmit syntetická data, což znamená data vytvořená LLMS. Tato data mohou zkopírovat a zesílit stávající chyby z vlastních zdrojových dat, takže nové modely zdědí slabosti starých. Výsledkem je, že náklady na programování AIS budou přesnější po jejich tréninku-známém jako „zarovnání post-hoc modelu“- stoupá.
Pro programátory je také stále obtížnější vidět, co se děje, protože počet kroků v myšlenkovém procesu modelu se ztěžuje a ztěžuje a těžší je korigovat chyby.
Neurosymbolická AI kombinuje prediktivní učení neuronových sítí s výukou AI řady formálních pravidel, která se lidé učí spolehlivěji uvažovat. Patří sem logická pravidla, jako je „pokud A pak B“, například „Pokud prší, pak je vše venku obvykle mokré“; Matematická pravidla, jako „pokud a = b a b = c pak a = c“; a dohodnuté významy věcí, jako jsou slova, diagramy a symboly. Některé z nich budou zadány přímo do systému AI, zatímco ostatní se odvolávají analýzou svých dat tréninku a „extrakcí znalostí“.
To by mělo vytvořit umělou inteligenci, která nikdy nebude halucinace a naučí se rychleji a chytřejší organizováním svých znalostí do jasných, opakovaně použitelných částí. Například pokud AI má pravidlo o tom, že věci jsou mokré, když prší, není třeba, aby si zachoval každý příklad věcí, které by mohly být mokré venku – pravidlo lze použít na jakýkoli nový objekt, dokonce i ten, který nikdy předtím neviděl.
Během vývoje modelu neurosymbolická AI také integruje učení a formální uvažování pomocí procesu známého jako „neurosymbolický cyklus“. To zahrnuje částečně vyškolenou pravidla AI, která z jejích údajů o výcviku vytěží tuto konsolidovanou znalost zpět do sítě před dalším tréninkem s daty.
To je energeticky účinnější, protože AI nemusí ukládat tolik dat, zatímco AI je odpovědnější, protože je pro uživatele snazší kontrolovat, jak dosahuje konkrétních závěrů a v průběhu času se zlepšuje. Je to také spravedlivější, protože lze učinit tak, aby dodržovalo již existující pravidla, například: „Pro jakékoli rozhodnutí AI nesmí výsledek záviset na rase nebo pohlaví člověka“.
Třetí vlna
The první vlna AI v 80. letech, známé jako symbolická AI, byla ve skutečnosti založena na výuce formálních pravidel pro výuku počítačů, která by pak mohla použít na nová informace. Hluboké učení následovalo jako druhá vlna v roce 2010 a mnozí vidí neurosymbolickou AI jako třetí.
Nejjednodušší je aplikovat neurosymbolické principy na AI ve specializovaných oblastech, protože pravidla lze jasně definovat. Není tedy žádným překvapením, že jsme se to poprvé objevily v Google Alphafoldkterý předpovídá proteinové struktury, které pomáhají s objevem léčiva; a Alfageometriekterý řeší složité problémy s geometrií.
Pro více široce založené AIS ČínaDeepseek používá a Technika učení nazvaná „destilace“ což je krok stejným směrem. Aby však neurosymbolická AI byla plně proveditelná pro obecné modely, musí stále existovat další výzkum, aby se zdokonalila jejich schopnost rozeznat obecná pravidla a provádět extrakci znalostí.
Není jasné, do jaké míry na tom výrobci LLM již pracují. Určitě znějí, jako by mířili ve směru, aby se snažili naučit své modely, aby mysleli chytřeji, ale také se zdá, že je třeba se spojit s potřebou rozšířit se stále větší množství dat.
Realita je taková, že pokud AI bude neustále postupovat, budeme potřebovat systémy, které se přizpůsobují novosti pouze z několika příkladů, které zkontrolují jejich porozumění, které může multitask a opětovné použití znalostí, aby se zlepšila účinnost dat, a to může spolehlivě uvažovat sofistikovaným způsobem.
Tímto způsobem by dobře navržená digitální technologie mohla potenciálně nabídnout alternativu k regulaci, protože kontroly a vyvážení by byly zabudovány do architektury a možná standardizované v celém odvětví. Je tu dlouhá cesta, ale alespoň je tu cesta.
Tento upravený článek je znovu publikován Konverzace Podle licence Creative Commons. Přečtěte si Původní článek.