věda

„Ai Godfather“ Yoshua Bengio chce zabránit AI v tom, aby šla nečestná

Kanadská profesor počítačové vědy Yoshua Bengio je považován za jednoho z kmotrů revoluce umělé inteligence (File) | Foto kredit: AP

Průkopnický výzkumný pracovník, který se obává rychlého šíření generativní AI, vyvíjí software, který udržuje přehled o technologii, která stále více přebírá lidské úkoly.

Kanadská profesor počítačové vědy Yoshua Bengio je považován za jednoho z kmotrů revoluce umělé inteligence a v úterý oznámil zahájení neziskové organizace Lawzero, která měla zmírnit inherentní rizika technologie.

Vítěz ceny Turingu, známý také jako Nobelova cena za informatiku, je varování několik let rizik AI, ať už prostřednictvím jeho škodlivého použití nebo samotného softwaru.

Tato rizika rostou s vývojem takzvaných agentů AI, což je využití technologie, která zavádí počítače s rozhodováním, která kdysi učinila lidští pracovníci.

Cílem těchto agentů je vybudovat virtuální zaměstnance, kteří dokážou prakticky dělat jakoukoli práci člověka, za zlomek nákladů.

„V současné době je AI vyvinuta, aby maximalizovala zisk,“ řekl Bengio a dodal, že byl nasazen, i když přetrvává, aby ukázala nedostatky.

Navíc, pro Bengio, dávat AI lidskou agenturu bude snadno použito pro škodlivé účely, jako jsou dezinformace, bioweapony a kybernetické útoky.

„Pokud ztratíme kontrolu nad nepoctivým super-inteligentním AIS, mohli by velmi ublížit lidstvu,“ řekl.

Jedním z prvních cílů v Lawzeru bude rozvoj vědce AI, formy speciálně vyškolené umělé inteligence, kterou lze použít jako zábradlí k zajištění správného chování jiných AI, uvedla společnost.

Organizace již má více než 15 vědců a získala finanční prostředky od Schmidt SciencesCharita zřízená bývalým šéfem Google Ericem Schmidtem a jeho manželkou Wendy.

Projekt přichází jako výkonné velké jazykové modely (nebo LLM) z OpenAI, Google a Antropic jsou nasazeny ve všech odvětvích digitální ekonomiky a přitom stále vykazují významné problémy.

Patří mezi ně modely AI, které vykazují schopnost klamat a vyrábět nepravdivé informace, i když zvyšují produktivitu.

V nedávném příkladu společnost AI Company Antropic uvedla, že během bezpečnostního testování se jeho nejnovější model AI pokusil vydírat inženýra, aby se vyhnul nahrazení jiným systémem.

Zdrojový odkaz

Related Articles

Back to top button