Trump chce ukončit úsilí „Woke AI“ technického průmyslu o řešení zaujatosti

Po ustoupení ze své rozmanitosti na pracovišti, spravedlivé a inkluzní programy, Technické společnosti by nyní mohly čelit druhému počítání nad jejich prací DEI v produktech AI.
V Bílém domě a v Kongresu vedeném republikánem nahradil „Woke AI“ škodlivou algoritmickou diskriminaci jako problém, který je třeba opravit. Podle předvolání zaslaných do Amazonu, Google, Meta, Microsoft, Microsoft, Microsoft, Microsoft, OpenAi a 10 dalších technologických společností minulý měsíc v rámci „škodlivých a zkreslených výstupů“ v minulém úsilí o „posílení vlastního kapitálu“ ve vývoji umělé inteligence a omezení výroby „škodlivých a zkreslených výstupů“.
A pobočka standardního nastavení amerického obchodního oddělení vymaže zmínění o AI spravedlnosti, bezpečnosti a „odpovědné AI“ ve své výzvě na spolupráci s externími vědci. Místo toho dává vědcům, aby se zaměřili na „snižování ideologické zaujatosti“ způsobem, který „umožní vzkvétat lidské vzkvétání a ekonomickou konkurenceschopnost“, podle kopie dokumentu získaného Associated Press.
V některých ohledech jsou techničtí pracovníci zvyklí na bič, které ovlivňují jejich práci.
Poslední posun však vyvolala obavy mezi odborníky v oboru, včetně sociologa Harvard University Ellis Monk, kterého před několika lety přistoupila k Googlu, aby pomohla zvýšit inkluzivní produkty AI.
Tehdy technologický průmysl již věděl, že má problém s pobočkou AI, která trénuje stroje, aby „viděly“ a porozuměly obrazům. Počítačové vidění drželo velký komerční slib, ale opakoval historické předpojatosti nalezené v dřívějších kamerových technologiích, které zobrazovaly černé a hnědé lidi v nelichotivém světle.
„Černí lidé nebo tmavší lidé s kůží přicházejí na obrázek a my bychom někdy vypadali směšně,“ řekl Monk, učenec kolorismu, forma diskriminace založené na tónech pleti lidí a dalších funkcích.
Google přijal barevnou stupnici vynalezenou mnichem, který zlepšil, jak jeho nástroje IIS image zobrazují rozmanitost tónů lidské kůže a nahrazují desetiletí starý standard původně navržený pro lékaře léčící pacienty s bílou dermatologií.
„Spotřebitelé rozhodně měli obrovskou pozitivní reakci na změny,“ řekl.
Nyní se Monk diví, zda takové úsilí bude v budoucnu pokračovat. Přestože nevěří, že jeho měřítko tónu pleti Monk je ohroženo, protože je již pečena do desítek produktů na Google a jinde – včetně telefonních telefonů, videoher, generátorů II image – on a další vědci se obávají, že nová nálada je chladná budoucí iniciativy a financování, aby technologie fungovala lépe pro všechny.
„Google chce, aby jejich výrobky pracovaly pro všechny, v Indii, Číně, Africe, et Cetera. Tato část je druh dei-imunitní,“ řekl Monk. „Ale mohlo by se budoucí financování těchto projektů snížit? Absolutně, když se politická nálada posune a kdy existuje velký tlak na trh velmi rychle.“
Trump snížil stovky grantů na financování věd, technologií a zdraví, které se dotýkají témat DEI, ale jeho vliv na komerční rozvoj chatbotů a dalších produktů AI je nepříznivější. Při vyšetřování společností AI republikánský zástupce Jim Jordan, předseda soudního výboru, uvedl, že chce zjistit, zda administrativa bývalého prezidenta Joe Bidena „donutila nebo se donutila“, aby cenzurovala zákonnou řeč.
Michael Kratsios, ředitel Úřadu pro vědu a technologii Bílého domu, tento měsíc na akci Texasu řekl, že Bidenovy politiky AI „propagují sociální divize a přerozdělování jménem vlastního kapitálu“.
Trumpova administrativa odmítla zpřístupnit Kratsiosios pro rozhovor, ale citovala několik příkladů toho, co tím myslel. Jedním z nich byla linka z výzkumné strategie AI z AI v Biden, která říkala: „Bez správných kontrol mohou systémy AI zesílit, udržovat nebo zhoršovat nespravedlivé nebo nežádoucí výsledky pro jednotlivce a komunity.“
Ještě předtím, než se Biden nastoupil do úřadu, přitahovala pozornost rostoucího množství výzkumu a osobních anekdot na škody zaujatosti AI.
Jedna studie ukázala, že technologie automobilů s vlastním pohonem má těžký čas detekce tmavší pleti chodců, což je dává větší nebezpečí, že se dostanou. Další studie, která žádá populární generátory AI textu na obraz, aby vytvořila obrázek chirurga, zjistila, že vyrobil bílého muže asi 98% času, mnohem vyšší než skutečné proporce i v silně dominovaném muži.
Software pro porovnání obličeje pro odemknutí telefonů špatně identifikované asijské tváře. Policie v amerických městech neoprávněně zatkla černochy na základě falešných zápasů s rozpoznáváním obličeje. A před deseti lety, vlastní fotografie Google, tříděla obrázek dvou černých lidí do kategorie označené jako „gorily“.
Dokonce i vládní vědci v první administrativě Trump v roce 2019 dospěli k závěru, že technologie rozpoznávání obličeje působí nerovnoměrně na základě rasy, pohlaví nebo věku.
Bidenovy volby přiměly některé technologické společnosti, aby urychlily své zaměření na spravedlnost AI. Příchod OpenAI CHATGPT 2022 přidal nové priority a vyvolal komerční rozmach v nových aplikacích AI pro skládání dokumentů a generování obrázků, tlaky na společnosti jako Google, aby usnadnily jeho opatrnost a dohonily.
Pak přišel Google’s Gemini Ai Chatbot – a loni vadné zavedení produktu, díky kterému by se z něj stal symbol „Woke AI“, který konzervativci doufali, že se rozpadnou. Ponecháno na svých vlastních zařízeních, nástroje AI, které generují obrázky z písemné výzvy, jsou náchylné k udržení stereotypů nahromaděných ze všech vizuálních dat, na nichž byla vyškolena.
Google se nelišil a když byl požádán o zobrazení lidí v různých profesích, bylo pravděpodobnější, že bude upřednostňovat obličeje a mužů s lehčí pletí, a když byly ženy vybrány, mladší ženy, podle vlastního veřejného výzkumu společnosti.
Google se pokusil umístit technické zábradlí, aby tyto rozdíly snížil, než před více než rokem zavede generátor i obrázků Gemini. Nakonec to skončilo nadměrnou kompenzací pro zaujatost a umístění lidí barvy a žen do nepřesného historického prostředí, jako je odpověď na žádost o americké zakladatelské otce s obrazy mužů v oděvu 18. století, kteří se zdáli být černý, asijský a indiánský Američan. Google se rychle omluvil a dočasně vytáhl zástrčku na funkci, ale pobouření se stalo shromážděním výkřikem, který byl politickým právem, který byl převezen.

S generálním ředitelem Google Sundar Pichai poblíž, viceprezident JD Vance použil v únoru v Paříži summit AI v únoru, aby odmítl pokrok „vyloženě ahistorických sociálních agend prostřednictvím AI,“ pojmenoval okamžik, kdy se generátor Image Google AI „pokoušel říct, že George Washington byl černý, nebo že Američané ve světové válce byly ženy.“
„Musíme si pamatovat lekce z toho směšného okamžiku,“ prohlásil Vance na shromáždění. „A z toho bereme, že Trumpova administrativa zajistí, aby systémy AI vyvinuté v Americe byly prosté ideologické zaujatosti a nikdy neomezují právo našich občanů na svobodu projevu.“
Bývalý poradce Biden Science, který se zúčastnil tohoto projevu, Alondra Nelson, uvedl, že nové zaměření AI na „ideologické zaujatosti“ AI je v některých ohledech uznáním let práce na řešení algoritmických zaujatosti, které může ovlivnit bydlení, hypotéky, zdravotní péči a další aspekty života lidí.
„V zásadě říci, že systémy AI jsou ideologicky zaujaté, znamená říci, že identifikujete, rozpoznáte a máte obavy z problému algoritmického zaujatosti, což je problém, o který se mnozí z nás obávali po dlouhou dobu,“ řekl Nelson, bývalý úřadující ředitel Bílého domu pro vědeckou a technologickou politiku, který v AI uplatnil principy pro ochranu občanských práv a občanských práv a občanských občanských práv.
Nelson však nevidí mnoho prostoru pro spolupráci uprostřed znečištění spravedlivých iniciativ AI.
„Myslím, že v tomto politickém prostoru, bohužel, je to docela nepravděpodobné,“ řekla. „Problémy, které byly pojmenovány odlišně- algoritmická diskriminace nebo algoritmická zaujatost na jedné straně a ideologická zaujatost na straně druhé- bude bohužel považována za dva různé problémy.“
Publikováno – 28. dubna 2025 08:42