Víme, že umělá inteligence (AI) nemůže myslet stejným způsobem jako člověk, ale nový výzkum odhalil, jak by tento rozdíl mohl ovlivnit rozhodování AI, což by vedlo k reálným důsledkům, na které by lidé mohli být nepřipraveni.
Studie, zveřejněná únor 2025 v časopise Transakce o výzkumu strojového učenízkoumal, jak dobře mohou velké jazykové modely (LLM) tvořit analogie.
Zjistili, že jak v jednoduchých analogiích řetězců písmen, tak v problémech s digitální maticí-kde úkolem bylo dokončit matici identifikací chybějící číslice-lidé se vedli dobře, ale výkon AI prudce poklesl.
Při testování robustnosti lidí a modelů AI o problémech založených na příběhu založené na příběhu byla studie zjistila, že modely byly náchylné k účinám řádu odpovědí-rozdíly v odpovědích v důsledku pořadí léčby v experimentu-a mohly být také s větší pravděpodobností parafrázovány.
Studie zcela dospěla k závěru, že modely AI postrádají vzdělávací schopnosti „nulového výstřelu“, kde student pozoruje vzorky z tříd, které nebyly přítomny během tréninku, a vytváří předpovědi o třídě, do které patří podle otázky.
Související: Trest AI nebrání tomu, aby lhal a podváděl – prostě to skrývá lépe, studie ukazuje
Spoluautor studie Martha LewisDocent asimbobolické AI na Amsterdamské univerzitě uvedl příklad toho, jak AI nemůže provádět analogické uvažování a lidi v problémech s řetězci písmen.
„Analogie řetězce písmen mají formu“ Pokud ABCD jde do Abce, na co jde IJKL? “ Většina lidí odpoví „IJKM“ a (AI) má tendenci také dávat tuto odpověď, “řekl Lewis Live Science. „Ale dalším problémem může být“, pokud ABBCD jde na ABCD, na co jde ijkkl?
Proč je důležité, že AI nemůže myslet jako lidé
Lewis uvedl, že i když můžeme abstrakt od konkrétních vzorců k obecnějším pravidlům, LLM tuto schopnost nemají. „Jsou dobré v identifikaci a odpovídajících vzorcích, ale ne zobecňování těchto vzorů.“
Většina aplikací AI se do určité míry spoléhá na objem – čím více je k dispozici tréninkové údaje, tím více vzorů je identifikováno. Ale Lewis zdůraznil porovnávání vzorů a abstrakce není totéž. „Je to méně o tom, co je v datech, a více o tom, jak se data používají,“ dodala.
Abychom dali představu o důsledcích, AI se stále více používá v právní sféře pro výzkum, analýzu práva a doporučení pro odsouzení. Ale s nižší schopností vytvářet analogie, může to rozpoznat, jak se právní precedenty vztahují na mírně odlišné případy, když se objeví.
Vzhledem k tomuto nedostatku robustnosti může ovlivnit výsledky v reálném světě, studie poukázala na to, že to sloužilo jako důkaz, že musíme pečlivě vyhodnotit systémy AI nejen pro přesnost, ale také pro robustnost v jejich kognitivních schopnostech.