Použití Umělá inteligence (AI), vědci rozpadli složitou mozkovou aktivitu, která se odehrává během každodenních rozhovorů.
Tento nástroj by mohl nabídnout nové poznatky o neurovědě jazyka a jednoho dne by to mohlo pomoci zlepšit technologie určené k rozpoznání řeči nebo pomáhat lidem komunikovatVědci říkají.
Na základě toho, jak model AI přepisuje zvuk do textu, mohli vědci za studií mapovat mozkovou aktivitu, která se odehrává během konverzace přesněji než tradiční modely, které kódují specifické rysy jazykové struktury – jako jsou fonémy (jednoduché zvuky, které tvoří slova) a části řeči (jako jsou jména, slovesa a přídavná jména).
Model použitý ve studii, volal WhisperMísto toho bere zvukové soubory a jejich textové přepisy, které se používají jako tréninková data k mapování zvuku do textu. Poté používá statistiky tohoto mapování k „naučení“ k předpovědi textu z nových zvukových souborů, které dosud neslyšelo.
Související: Váš rodný jazyk může utvářet zapojení vašeho mozku
Whisper jako takový funguje čistě prostřednictvím těchto statistik bez jakýchkoli funkcí jazykové struktury kódované v jeho původním nastavení. Ve studii však vědci ve studii však ukázali, že tyto struktury se v modelu stále objevily, jakmile byly vyškoleny.
Studie vrhá světlo na to, jak tyto typy modelů AI – nazývané modely velkých jazyků (LLM) – pracují. Výzkumný tým se však více zajímá o vhled, který poskytuje do lidského jazyka a poznání. Identifikace podobností mezi tím, jak model rozvíjí schopnosti zpracování jazyků a jak lidé rozvíjejí tyto dovednosti, mohou být užitečné pro inženýrská zařízení, která lidem pomáhají komunikovat.
„Je to opravdu o tom, jak si myslíme o poznání,“ řekl autor vedoucí studie Ariel Goldsteindocent na Hebrejské univerzitě v Jeruzalémě. Výsledky studie naznačují, že „bychom měli přemýšlet o poznání prostřednictvím čočky tohoto (statistického) typu modelu,“ řekl Goldstein Live Science.
Rozbalení poznání
Studie, zveřejněná 7. března v časopise Lidské chování přírodypředstavovali čtyři účastníky s epilepsií, kteří již podstoupili chirurgii, aby z klinických důvodů implantovaly elektrody monitorující mozek.
Se souhlasem vědci zaznamenali všechny rozhovory pacientů během jejich nemocničních pobytů, které se pohybovaly od několika dnů do týdne. Celkem zachytili více než 100 hodin zvuku.
Každý z účastníků měl nainstalováno 104 až 255 elektrod pro sledování jejich mozkové aktivity.
Většina studií, které používají záznamy konverzací, se odehrává v laboratoři za velmi kontrolovaných okolností za asi hodinu, řekl Goldstein. Ačkoli toto kontrolované prostředí může být užitečné pro škádlení rolí různých proměnných, Goldstein a jeho spolupracovníci chtěli „prozkoumat mozkovou aktivitu a lidské chování v reálném životě“.
Jejich studie odhalila, jak se různé části mozku zapojují během úkolů potřebných k vytvoření a porozumění řeči.
Goldstein vysvětlil, že probíhá debata o tom, zda odlišné části mozku se během těchto úkolů nakopují do zařízení nebo zda celý orgán reaguje společně. Bývalá myšlenka může naznačovat, že jedna část mozku zpracovává skutečné zvuky, které tvoří slova, zatímco jiná interpretuje významy těchto slov, a další zvládne pohyby potřebné k promluvení.
V alternativní teorii je to spíše, že tyto různé oblasti mozku pracují ve shodě a přijímají „distribuovaný“ přístup, řekl Goldstein.
Vědci zjistili, že některé oblasti mozku mají tendenci korelovat s některými úkoly.
Například oblasti, o nichž je známo, že se podílejí na zpracování zvuku, jako je vynikající dočasný gyrus, vykazovaly větší aktivitu při manipulaci s zvukovými informacemi a oblasti zapojené do myšlení na vyšší úrovni, jako je dolní čelní gyrus, byly aktivnější pro pochopení významu jazyka.
Mohli také vidět, že oblasti se staly postupně aktivní.
Například region nejvíce zodpovědný za slyšení slov byl aktivován před regionem nejvíce zodpovědným za jejich interpretaci. Vědci však také jasně viděli, jak se oblasti aktivují během činností, o nichž nebylo známo, že jsou specializovány.
„Myslím, že je to nejkomplexnější a nejdůkladnější důkladné důkazy o tomto distribuovaném přístupu,“ řekl Goldstein.
Související: Nový model AI převádí vaši myšlenku na plnou písemnou řeč tím, že využívá magnetické signály vašeho mozku
Propojení modelů AI s vnitřním fungováním mozku
Vědci použili 80% zaznamenaného zvuku a doprovodné přepisy, aby trénovali šepot, aby pak mohl předpovídat přepisy zbývajících 20% zvuku.
Tým se pak podíval na to, jak byly zvukové a přepisy zachyceny šepotem a mapovaly tyto reprezentace mozkové aktivitě zachycené elektrodami.
Po této analýze by mohli použít model k předpovědi, jakou mozkovou aktivitu by proběhla s konverzacemi, které nebyly zahrnuty do tréninkových dat. Přesnost modelu překročila přesnost modelu založeného na vlastnostech jazykové struktury.
Ačkoli vědci negramovali, co je foném nebo slovo do jejich modelu od začátku, zjistili, že tyto jazykové struktury se stále odrážejí v tom, jak model vypracoval své přepisy. Takže tyto funkce extrahovalo, aniž by k tomu bylo zaměřeno.
Výzkum je „průkopnická studie, protože ukazuje souvislost mezi fungováním výpočetního akustického modelu a jazyka a funkcí mozku“ Leonhard SchilbachVedoucí výzkumné skupiny v Mnichovském centru pro neurověd v Německu, který se do práce nezúčastnil, řekl v e -mailu Live Science.
Dodal však, že „je zapotřebí mnohem více výzkumu k prozkoumání, zda tento vztah skutečně znamená podobnosti v mechanismech, kterými jazykové modely a jazyk mozkového procesu.“
„Porovnání mozku s umělými neuronovými sítěmi je důležitá řada práce,“ řekl Gasper BegušDocent na Katedře lingvistiky na Kalifornské univerzitě v Berkeley, který se do studie nezúčastnil.
„Pokud pochopíme vnitřní fungování umělých a biologických neuronů a jejich podobnosti, můžeme být schopni provádět experimenty a simulace, které by nebylo možné v našem biologickém mozku provést,“ řekl e -mailem Live Science.