věda

Google pracuje na narušení softwarové výhody Nvidie s pomocí Meta

Google z Alphabetu pracuje na nové iniciativě, aby své čipy umělé inteligence lépe provozovaly PyTorch, celosvětově nejrozšířenější softwarový framework pro umělou inteligenci, a podle lidí obeznámených s touto problematikou oslabuje dlouhodobou dominanci Nvidie na trhu s umělou inteligencí.

Toto úsilí je součástí agresivního plánu společnosti Google, aby se jeho jednotky Tensor Processing Units staly životaschopnou alternativou k předním GPU Nvidia na trhu. Prodej TPU se stal zásadním motorem růstu cloudových příjmů společnosti Google, protože se snaží investorům dokázat, že její investice do AI generují výnosy.

Samotný hardware však k urychlení přijetí nestačí. Nová iniciativa, interně známá jako „TorchTPU“, si klade za cíl odstranit klíčovou bariéru, která zpomalila přijetí čipů TPU tím, že jsou plně kompatibilní a přátelské pro vývojáře pro zákazníky, kteří již vybudovali svou technologickou infrastrukturu pomocí softwaru PyTorch, uvedly zdroje. Google také zvažuje open-sourcing částí softwaru, aby urychlil rozšíření mezi zákazníky, uvedli někteří lidé.

Ve srovnání s dřívějšími pokusy o podporu PyTorch na TPU věnoval Google TorchTPU více organizačního zaměření, zdrojů a strategické důležitosti, protože poptávka roste ze strany společností, které chtějí čipy adoptovat, ale považují softwarový balík za překážku, uvedly zdroje.

PyTorch, open-source projekt silně podporovaný Meta Platforms, je jedním z nejpoužívanějších nástrojů pro vývojáře, kteří vytvářejí modely AI. V Silicon Valley jen velmi málo vývojářů píše každý řádek kódu, který čipy od Nvidie, Advanced Micro Devices nebo Google skutečně vykonají.

Místo toho se tito vývojáři spoléhají na nástroje jako PyTorch, což je sbírka předem napsaných knihoven kódu a rámců, které automatizují mnoho běžných úkolů při vývoji softwaru AI. PyTorch, původně vydaný v roce 2016, je úzce spjat s vývojem CUDA od Nvidie, softwaru, který někteří analytici z Wall Street považují za nejsilnější štít společnosti proti konkurentům.

Inženýři společnosti Nvidia strávili roky zajišťováním toho, aby software vyvinutý pomocí PyTorch běžel na jejích čipech co nejrychleji a nejefektivněji. Naproti tomu u Googlu jeho interní armády softwarových vývojářů již dlouho používají jiný kódový rámec zvaný Jax a jeho čipy TPU používají nástroj zvaný XLA, aby tento kód fungoval efektivně. Velká část vlastního softwarového balíku AI a optimalizace výkonu od Googlu byla postavena na Jax, čímž se prohlubuje propast mezi tím, jak Google používá své čipy, a tím, jak je zákazníci chtějí používat.

Mluvčí Google Cloud nekomentoval specifika projektu, ale agentuře Reuters potvrdil, že tento krok poskytne zákazníkům možnost volby.

„Vidíme masivní, zrychlující se poptávku po naší infrastruktuře TPU i GPU,“ řekl mluvčí. „Naším cílem je poskytovat flexibilitu a škálování, které vývojáři potřebují, bez ohledu na hardware, na kterém se rozhodnou stavět.“

Alphabet si dlouho rezervoval lví podíl svých vlastních čipů, neboli TPU, pouze pro interní použití. To se změnilo v roce 2022, kdy cloudová výpočetní jednotka Google úspěšně lobovala, aby dohlížela na skupinu, která prodává TPU. Tento krok drasticky zvýšil alokaci TPU ve službě Google Cloud a jak rostl zájem zákazníků o AI, Google se snažil vydělávat navýšením výroby a prodeje TPU externím zákazníkům.

Ale nesoulad mezi frameworky PyTorch, které používá většina světových vývojářů AI, a frameworky Jax, pro které jsou čipy Google v současnosti nejjemněji vyladěné, znamená, že většina vývojářů nemůže snadno převzít čipy od Googlu a přimět je, aby fungovaly stejně dobře jako od společnosti Nvidia, aniž by provedli významnou, dodatečnou inženýrskou práci. Taková práce vyžaduje čas a peníze v rychle se rozvíjejícím závodě AI.

Pokud bude úspěšná, mohla by iniciativa „TorchTPU“ společnosti Google výrazně snížit náklady na přechod pro společnosti, které chtějí alternativy k GPU od Nvidie. Dominanci Nvidie posílil nejen její hardware, ale také softwarový ekosystém CUDA, který je hluboce zabudován do PyTorch a stal se výchozí metodou, kterou společnosti školí a provozují velké modely umělé inteligence.

Podnikoví zákazníci říkali Googlu, že TPU je obtížnější přijmout pro pracovní zátěže AI, protože historicky vyžadovali, aby vývojáři přešli na Jax, rámec strojového učení preferovaný interně v Googlu, spíše než PyTorch, který většina vývojářů AI již používá, uvedly zdroje.

Na urychlení vývoje Google podle zdrojů úzce spolupracuje s Meta, tvůrcem a správcem PyTorch. Tito dva tech giganti projednávali dohody pro Meta o přístupu k více TPU, o tomto kroku poprvé informoval The Information.

První nabídky pro Meta byly strukturovány jako služby spravované Googlem, do kterých zákazníci jako Meta instalovali čipy Google navržené pro provozování softwaru a modelů Google, přičemž společnost Google poskytovala provozní podporu. Meta má strategický zájem pracovat na softwaru, který usnadňuje provozování TPU, ve snaze snížit náklady na odvození a diverzifikovat svou infrastrukturu AI mimo GPU Nvidia, aby získala vyjednávací sílu, uvedli lidé.

Meta to odmítla komentovat.

Letos Google začal prodávat TPU přímo do datových center zákazníků, místo aby omezoval přístup ke svému vlastnímu cloudu. Vedoucím infrastruktury AI byl tento měsíc jmenován Amin Vahdat, veterán společnosti Google, který je přímo podřízen generálnímu řediteli Sundaru Pichaiovi.

Google potřebuje tuto infrastrukturu jak pro provoz svých vlastních produktů AI, tjvčetně chatbota Gemini a vyhledávání založeného na umělé inteligenci a zásobování zákazníků služby Google Cloud, která prodává přístup k TPU společnostem, jako je Anthropic.

Publikováno – 18. prosince 2025 09:21 IST

Zdrojový odkaz

Related Articles

Back to top button