věda

Nahrazení federálních pracovníků chatboty by byla dystopická noční můra

Nahrazení federálních pracovníků chatboty by byla dystopická noční můra

Trumpova administrativa považuje federální pracovní sílu řízenou AI za efektivnější. Místo toho, s chatboty, kteří nejsou schopni plnit kritické úkoly, by to byl ďábelský nepořádek

Představte si, že zavoláte správu sociálního zabezpečení a zeptejte se: „Kde je moje dubnová platba?“ Pouze aby odpověděl chatbot, „zrušení všech budoucích plateb“. Váš šek má jen Spadl oběť „halucinace“ “ jev, ve kterém systém automatického rozpoznávání řeči vydává text, který nese malý nebo žádný vztah ke vstupu.

Halucinace jsou jedním z mnoha otázek Ten mor takzvaný generativní systémy umělé inteligence, jako je OpenAI’s Chatgpt, Xai’s Grok, Anthropic’s Claude nebo Meta’s Llama. To jsou návrhové nedostatkyProblémy v architektuře těchto systémů, které jsou problematické. Přesto se jedná o stejné typy generativních nástrojů AI, které chtějí Doge a Trumpova administrativa použít, Podle slov jednoho úředníka„Lidská pracovní síla se stroji.“

To je děsivé. Neexistuje žádný „jeden divný trik“, který odstraňuje odborníky a vytváří zázračné stroje, které dokážou dělat vše, co lidé mohou dělat, ale lépe. Vyhlídka na nahrazení federálních pracovníků, kteří řeší kritické úkoly-takové, které by mohly vést ke scénářům života a smrti pro stovky milionů lidí-s automatizovanými systémy, které nedokážou ani provádět základní přepis řeči, aniž by si vytvořily velké texty, je katastrofická. Pokud tyto automatizované systémy nedokážou ani spolehlivě papouška zpět zpět přesné informace, které jim jsou poskytnuty, budou jejich výstupy protkány chybami, což povede k nevhodným a dokonce nebezpečným akcím. Automatizované systémy nelze důvěřovat, že rozhodují o tom, jak mohou federální pracovníci – programové lidé -.


O podpoře vědecké žurnalistiky

Pokud se vám tento článek líbí, zvažte podporu naší oceněné žurnalistiky předplatné. Zakoupením předplatného pomáháte zajistit budoucnost působivých příběhů o objevech a myšlenkách, které dnes formují náš svět.


Historicky „halucinace“ nebyla hlavním problémem v rozpoznávání řeči. To znamená, že ačkoli dřívější systémy by mohly brát specifické fráze a reagovat s přepisovými chybami v konkrétních frázích nebo mincorell slovech, nevytvořily velké kousky plynulé a gramaticky korektní texty, které nebyly vysloveny v odpovídajících zvukových vstupech. Vědci však ukázali, že nedávné systémy rozpoznávání řeči, jako je šepot OpenAI, mohou produkovat zcela vyrobené přepisy. Whisper je model, který byl integrován do některých verzí chatgpta, slavného chatbota OpenAI.

Například vědci ze čtyř univerzit analyzovaly krátké úryvky zvuku přepsaného Whisperem a nalezených zcela vymyšlených vět, přičemž některé přepisy vynalézaly závody lidí, o nichž se mluví, a jiní jim dokonce připisovali vraždu. V jednom případě nahrávka, která řekla: „On, chlapec, se chystal, nejsem si jistý, že deštník“ byl přepsán s doplňky, včetně: „Vzal velký kousek kříže, malinkého malého kusu … jsem si jistý, že neměl teroristický nůž, takže zabil několik lidí.“ V jiném příkladu„Dvě další dívky a jedna dáma“ byly přepsány jako „Dvě další dívky a jedna dáma, um, které byly černé.“

Ve věku nespoutaného humbuku AI, s jako Elon Musk nárok Jak jsme se postavili „maximálně AI hledající pravdu“, jak jsme měli méně spolehlivé systémy rozpoznávání řeči než předtím? Odpověď zní, že zatímco vědci, kteří pracují na zlepšení systémů rozpoznávání řeči, využili své kontextové znalosti k vytvoření modelů jedinečně vhodných pro provádění tohoto konkrétního úkolu, společnosti jako OpenAI a XAI jsou nárok že staví něco podobného „jednomu modelu pro všechno“, který může provádět mnoho úkolů, včetně, Podle OpenAI„Řešení složitých problémů ve vědě, kódování, matematice a podobných oborech.“ Za tímto účelem tyto společnosti používají modelové architektury, o kterých se domnívají, že lze použít pro mnoho různých úkolů a trénovat tyto modely na obrovském množství hlučných, neresurovaných dat namísto použití systémových architektur a školení a hodnocení datových sad, které nejlépe vyhovují konkrétnímu úkolu. Nástroj, který údajně dělá všechno, nebude schopen to udělat dobře.

Současná dominantní metoda vytváření nástrojů, jako je ChatGPT nebo Grok, které jsou inzerovány v souladu s „jedním modelem pro všechno“, používá určité variace velkých jazykových modelů (LLM), které jsou vyškoleny k předpovídání nejpravděpodobnějších sekvencí slov. Whisper současně mapuje vstupní řeč k textu a předpovídá, co okamžitě přijde dál, „token“ jako výstup. Token je základní jednotka textu, jako je slovo, číslo, interpunkční značka nebo segment slov, používaný k analýze textových dat. Takže dávat systému dvě nesourodé úlohy, transkripce řeči a předpovědi dalšího tónu, ve spojení s velkými chaotickými datovými sadami používanými k jeho tréninku, je pravděpodobnější, že dojde k halucinacím.

Stejně jako mnoho projektů OpenAI byl vývoj Whispera ovlivněn výhledem, který má jeho bývalý hlavní vědec shrnuto Jako „Pokud máte velký datový soubor a trénujete velmi velkou neuronovou síť,“ bude to fungovat lépe. Ale pravděpodobně, šeptá ne fungovat lépe. Vzhledem k tomu, že jeho dekodér je pověřen predikcí transkripce a tokenu, bez přesného zarovnání mezi zvukem a textem během tréninku může model upřednostňovat generování plynulého textu přes přesně přepisování vstupu. A na rozdíl od chyb nebo jiných chyb, velké řádky koherentního textu nedávají čtenářům stopy, že přepisy by mohly být nepřesné a potenciálně vedou uživatele k použití ve scénářích vysokých sázek, aniž by nalezeli své selhání. Dokud není příliš pozdě.

Vědci z OpenAI mají tvrdil to Whisper přistupuje k lidské „přesnosti a robustnosti“, což je prokazatelně nepravdivé. Většina lidí nepřepisuje řeč tím, že vytvoří velké řádky textu, které v projevu, kterou slyšeli, nikdy neexistovaly. V minulosti ti, kteří pracují na automatickém rozpoznávání řeči, vyškolili své systémy pomocí pečlivě kurátorských dat sestávajících z párů řečového textu, kde text přesně představuje řeč. Naopak, pokus Openai o použití „obecné“ modelové architektury spíše než ten přizpůsobený pro přepis řeči – sidesteppepping čas a zdroje, které je zapotřebí k kurátorství dat a adekvátně kompenzace datových pracovníků a tvůrců – se věnuje nebezpečně nespolehlivému systému rozpoznávání řeči.

Pokud současné paradigma pro jedno model pro vše pro všechny selhalo v kontextu přepisu řeči v anglickém jazyce, kterou většina anglických mluvčích může dokonale hrát bez dalšího vzdělávání, jak se budeme hodit, pokud americká doge služba uspěje nahrazení odborných federálních pracovníků generativními systémy AI? Na rozdíl od generativních systémů AI, které federální pracovníci bylo řečeno Chcete-li použít k provádění úkolů, od vytváření řečových bodů po psaní kódu, nástroje pro rozpoznávání řeči jsou omezeny na mnohem dobře definovanější nastavení přepisové řeči.

Nemůžeme si dovolit nahradit kritické úkoly federálních pracovníků modely, které zcela vyrábějí věci. Neexistuje žádná náhrada za odborné znalosti federálních pracovníků, kteří zpracovávají citlivé informace a pracují na sektorech kritiků v životě od zdravotní péče po imigraci. Čt, musíme okamžitě vyzvat, včetně institutů, pokud je to vhodné, dogeův tlak na nahrazení „lidské pracovní síly stroji“, než tato akce způsobí nesmírné poškození Američanům.

Toto je článek o názoru a analýze a názory vyjádřené autorem nebo autory nemusí nutně názory Vědecký Američan

Zdrojový odkaz

Related Articles

Back to top button