Co je to umělá superintelligence (ASI) a co by to mohlo znamenat pro lidstvo?

Rychlý pokrok v Umělá inteligence (AI) přiměje lidi, aby se ptali, jaké jsou základní limity technologie. Vědci i odborníci nyní považují téma, které se kdysi zasedalo do sci -fi – pojem superintelligent AI – stále více zasíláno do sci -fi – pojem superintelligent AI.
Myšlenka, že by se stroje mohly jednoho dne shodovat nebo dokonce překonat lidskou inteligenci, má dlouhou historii. Tempo pokroku v AI v posledních desetiletích však dalo toto téma obnoveno, zejména od vydání výkonných modelů velkých jazyků (LLM) společností jako OpenAI, Google a Antropic, mimo jiné.
Odborníci mají divoce odlišné pohledy na to, jak je tato myšlenka „umělá super inteligence“ (ASI) a kdy se může objevit, ale někteří naznačují, že takové stroje na hyper-schopné jsou hned za rohem. Je jisté, že pokud a kdy se Asi objeví, bude to mít obrovské důsledky pro budoucnost lidstva.
„Věřím, že bychom vstoupili do nové éry automatizovaných vědeckých objevů, nesmírně zrychlených hospodářských růstů, dlouhověkosti a nových zážitků z zábavy,“ Tim RocktäschelProfesor AI na University College London a hlavní vědec na Google DeepMind řekl Live Science a poskytl spíše osobní názor než oficiální postavení Google DeepMind. Varoval však také: „Stejně jako u jakékoli významné technologie v historii existuje potenciální riziko.“
Co je umělá superintelligence (ASI)?
Výzkum AI se tradičně zaměřil na replikaci specifických schopností, které vykazují inteligentní bytosti. Patří sem věci, jako je schopnost vizuální analýzy scény, analýzu jazyka nebo navigace v prostředí. V některých z těchto úzkých domén již AI dosáhla nadlidského výkonu, řekl Rocktäschel, zejména v Hry jako Go and Chess.
Cílem pro natahování pole však bylo vždy replikovat obecnější formu inteligence, která byla pozorována u zvířat a lidí, která kombinuje mnoho takových schopností. Tento koncept v průběhu let prošel několika jmény, včetně „Strong AI“ nebo „Universal AI“, ale dnes se to nejčastěji nazývá Umělá obecná inteligence (Agi).
„AGI je po dlouhou dobu daleko severní hvězdou pro výzkum AI,“ řekl Rocktäschel. „S příchodem nadačních modelů (další termín pro LLMS) však nyní máme AI, která může absolvovat širokou škálu univerzitních přijímacích zkoušek a účastnit se mezinárodních matematických a kódovacích soutěží.“
Související: GPT-4.5 je první model AI, který prošel autentickým Turingovým testem, říkají vědci
To vede lidi k tomu, aby mohli brát možnost AGI vážněji, řekl Rocktäschel. A je důležité, jakmile vytvoříme AI, která odpovídá lidem na široké škále úkolů, nemusí to trvat dlouho, než dosáhne nadlidských schopností napříč deskou. To je myšlenka. „Jakmile AI dosáhne schopností na úrovni člověka, budeme ho moci použít ke zlepšení sebereferenčního způsobu,“ řekl Rocktäschel. „Osobně věřím, že pokud dokážeme dosáhnout AGI, brzy dosáhneme ASI, možná několik let poté.“
Jakmile bylo dosaženo tohoto milníku, viděli jsme, jaký britský matematik Irving John Good daboval „Exploze zpravodajství„V roce 1965. Tvrdil, že jakmile se stroje stanou dostatečně chytrými, aby se zlepšily, rychle dosáhnou úrovní inteligence daleko za jakýmkoli člověkem. První ultrainteligentní stroj popsal jako„ poslední vynález, který člověk potřebuje. “
Renomovaný futurista Ray Kurzweil tvrdil, že by to vedlo k „technologické singularitě“, která by najednou a nevratně transformovala lidskou civilizaci. Termín přitahuje paralely s jedinečností v srdci černé díry, kde se rozpadá naše chápání fyziky. Stejně tak by příchod ASI vedl k rychlému a nepředvídatelnému technologickému růstu, který by byl mimo naše porozumění.
Přesně, když k takovému přechodu může dojít, je diskutabilní. V roce 2005 se Kurzweil předpovídal AGI do roku 2029, s singularitou v roce 2045, předpověď, kterou od té doby uvízl. Ostatní odborníci na AI nabízejí divoce proměnlivé předpovědi – od této dekády do nikdy. Ale a Nedávný průzkum Z 2 778 vědců AI zjistili, že agregát věří, že do roku 2047 se může objevit 50% šance. širší analýza souhlasil s tím, že většina vědců souhlasí s AGI, že by mohla dorazit do roku 2040.
Co by pro lidstvo znamenalo ASI?
Důsledky technologie, jako je ASI, by byly obrovské, což by přimělo vědce a filozofy, aby věnovali značný čas mapování slibu a potenciálních úskalí pro lidstvo.
Pozitivní je, že stroj s téměř neomezenou kapacitou pro inteligenci může vyřešit některé z nejnaléhavějších výzev na světě, řekl Daniel HulmeGenerální ředitel společností AI Satalia a Vědomí. Zejména super inteligentní stroje by mohly „odstranit tření z tvorby a šíření potravin, vzdělávání, zdravotní péče, energie, dopravy, natolik, že můžeme snížit náklady na toto zboží na nulu,“ řekl Live Science.
Doufáme, že by to lidi osvobodilo, aby museli pracovat, aby přežili, a místo toho by mohly trávit čas tím, že jsou nadšené, vysvětlil Hulme. Ale pokud nejsou zavedeny systémy na podporu těch, jejichž pracovní místa jsou nadbytečná AI, může být výsledek bezútěšnější. „Pokud k tomu dojde velmi rychle, naše ekonomiky by nemusely být schopny znovu vyvážit a mohlo by to vést k sociálním nepokojům,“ řekl.
To také předpokládá, že bychom mohli ovládat a řídit entitu mnohem inteligentnější než my – něco, co mnoho odborníků navrhovalo, je nepravděpodobné. „Opravdu se nepodléhám této myšlenky, že to bude sledovat nás a starat se o nás a ujistit se, že jsme šťastní,“ řekl Hulme. „Jen si neumím představit, že by to bylo jedno.“
Možnost superintelligence, na kterou nemáme žádnou kontrolu, vyvolala obavy, že by AI mohla představit existenciální riziko pro náš druh. To se stalo populárním tropem ve sci-fi, s filmy jako „Terminátor“ nebo „The Matrix“ zobrazující zlovolné stroje peklo s ničením lidstva.
Ale filozof Nick Bostrom zdůraznil, že ASI by ani nemuselo být aktivně nepřátelské vůči lidem pro různé scénáře Doomsday, aby se mohly hrát. V Příspěvek z roku 2012Navrhl, že inteligence entity je nezávislá na jejích cílech, takže ASI by mohla mít motivaci, která je pro nás zcela cizí a není v souladu s lidskou pohodou.
Bostrom tuto myšlenku vyloučil myšlenkovým experimentem, ve kterém je super schopná AI stanovena zdánlivě neškodným úkolem produkovat co nejvíce papírových klipů. Pokud se vyrovnává s lidskými hodnotami, může se rozhodnout odstranit všechny lidi, aby jim zabránilo v jeho vypnutí, nebo tak může přeměnit všechny atomy v jejich tělech na více papírových spon.
Rocktäschel je optimističtější. „Stavíme současné systémy AI, aby byly užitečné, ale také neškodní a čestní asistenti podle designu,“ řekl. „Jsou naladěni tak, aby dodržovali lidské pokyny, a jsou vyškoleni na zpětnou vazbu, aby poskytli užitečné, neškodné a čestné odpovědi.“
Zatímco Rocktäschel připustil, že tyto záruky lze obejít, je přesvědčen, že v budoucnu budeme rozvíjet lepší přístupy. Také si myslí, že bude možné použít AI k dohledu nad jiným AI, i když jsou silnější.
Hulme uvedl, že většina současných přístupů k „zarovnání modelu“ – úsilí o zajištění toho, aby AI byla v souladu s lidskými hodnotami a touhami – je příliš hrubá. Obvykle buď poskytují pravidla pro to, jak by se model měl chovat nebo trénovat na příklady lidského chování. Myslí si však, že tyto zábradlí, které jsou na konci výcvikového procesu přišroubovány, by mohly být ASI snadno obejít.
Místo toho si Hulme myslí, že musíme stavět AI s „morálním instinktem“. Jeho společnost Conscium se o to pokouší vyvíjet AI ve virtuálních prostředích, která byla navržena tak, aby odměnila chování, jako je spolupráce a altruismus. V současné době pracují s velmi jednoduchou, „na úrovni hmyzu“ AI, ale pokud lze tento přístup rozšířit, mohlo by to být robustnější zarovnání. „Vložení morálky do instinktu AI nás staví do mnohem bezpečnější polohy, než jen mít takové zábradlí, které šli na strážce,“ řekl Hulme.
Ne každý je však přesvědčen, že se musíme ještě začít starat. Jednou z běžných kritik konceptu ASI, řekl Rocktäschel, je to, že nemáme žádné příklady lidí, kteří jsou vysoce schopní napříč širokou škálou úkolů, takže to nemusí být možné dosáhnout ani v jediném modelu. Další námitkou je, že pouhé výpočetní zdroje potřebné k dosažení ASI mohou být neúnosné.
Praktičtěji, jak měříme pokrok v AI Alexander IlicVedoucí centra ETH AI v ETH Curychu ve Švýcarsku. Většina působivých výsledků v AI v posledních letech pocházela z testovacích systémů na několika vysoce vymyšlených testech individuálních dovedností, jako je kódování, zdůvodnění nebo porozumění jazyku, které jsou systémy výslovně vyškoleny k procházení, řekl Ilic.
Srovnává to s napěchováním zkoušek ve škole. „Naložil jsi si mozek, abys to udělal, pak jsi napsal test a pak jsi na to zapomněl,“ řekl. „Byl jsi chytřejší tím, že jste se zúčastnili třídy, ale skutečný test sám není dobrým zástupcem skutečných znalostí.“
AI, která je schopna absolvovat mnoho z těchto testů na nadlidských hladinách, může být jen pár let, řekl Ilic. Domnívá se však, že dnešní dominantní přístup nevede k modelům, které mohou plnit užitečné úkoly ve fyzickém světě nebo efektivně spolupracovat s lidmi, což bude pro ně zásadní, aby měly široký dopad na skutečný svět.