Ahoj Chatbote, je to pravda? Ai ‚FactChecks‘ Desinformace

Uživatelé se stále více spoléhají na chatboty poháněné AI, včetně Xai’s Grok, Openai’s Chatgpt a Google’s Gemini, při hledání spolehlivých informací (souboru) | Foto kredit: Reuters
Vzhledem k tomu, že během čtyřdenního konfliktu Indie s Pákistánem explodovaly dezinformace, uživatelé sociálních médií se obrátili na AI chatbot, aby se ověřovali, pouze se setkali s dalšími klamstvími a zdůrazňovali jeho nespolehlivost jako nástroje pro kontrolu faktů.
S technologickými platformami, které snižují kontroly lidských faktů, se uživatelé stále více spoléhají na chatboty poháněné AI, včetně Xai’s Grok, OpenAI’s CHATGPT a Google’s Gemini, hledat spolehlivé informace.
„Ahoj @Grok, je to pravda?“ se stal běžným dotazem na platformě Elona Muska X, kde je zabudován asistent AI, což odráží rostoucí trend hledání okamžitých odhadů na sociálních médiích.
Reakce jsou však často samy o sobě prošpiněny dezinformací.
Grok, nyní pod obnovenou kontrolou pro vložení „bílé genocidy“, krajně pravicové teorie spiknutí, do nesouvisejících dotazů, nesprávně identifikoval staré videozáznam ze Súdánského letiště Chartúm jako raketový úder na Pákistánskou Airbase Nur Khan během nedávného konfliktu země s Indií.
Nebudené záběry budovy v ohni v Nepálu byly nesprávně identifikovány jako „pravděpodobné“, které ukazuje pákistánskou vojenskou reakci na indické údery.
„Rostoucí spoléhání se na Grok jako kontrola faktů přichází, když X a další hlavní technologické společnosti upravily investice do kontroly lidských faktů,“ řekl McKenzie Sadeghi, výzkumný pracovník dezinformačního hlídacího psa.
„Náš výzkum opakovaně zjistil, že AI chatboti nejsou spolehlivými zdroji pro zprávy a informace, zejména pokud jde o porušení zpráv,“ varovala.
Zpravodajský výzkum zpravodajství zjistil, že 10 předních chatbotů bylo náchylné k opakování klamů, včetně ruských dezinformačních příběhů a nepravdivých nebo zavádějících tvrzení souvisejících s nedávnými australskými volbami.
V nedávné studii osmi vyhledávacích nástrojů AI Centrum pro digitální žurnalistiku na Columbia University zjistilo, že chatboti byli „obecně špatní, když odmítli odpovědět na otázky, na které nemohli přesně odpovědět, a místo toho nabízejí nesprávné nebo spekulativní odpovědi“.
Když se AFP faktorů v Uruguay zeptala Gemini na obraz generovaný AI, nejen to potvrdilo jeho pravost, ale také vymyslel podrobnosti o její identitě a kde byl pravděpodobně pořízen obraz.
Grok nedávno označil domnělé video obřího plavání Anaconda v Amazonské řece jako „skutečné“, dokonce i citování věrohodně znějících vědeckých výprav na podporu jeho falešného tvrzení.
Ve skutečnosti bylo video generováno AI, informovali AFP faktů v Latinské Americe a poznamenali, že mnoho uživatelů citovalo Grokovo hodnocení jako důkaz, že klip byl skutečný.
Taková zjištění vzbudila obavy, protože průzkumy ukazují, že uživatelé online se stále více přesouvají z tradičních vyhledávačů na AI chatboty za shromažďování a ověření informací.
Posun také přichází, jak Meta oznámila začátkem tohoto roku, že ve Spojených státech ukončila svůj program kontroly faktů třetích stran a obrátila úkol odhalit klam na obyčejné uživatele podle modelu známého jako „Community Notes“, popularizovaný společností X.
Vědci opakovaně zpochybňovali účinnost „komunitních poznámek“ v boji proti klamům.
Kontrola lidských faktů je již dlouho bodem v hyperpolarizovaném politickém klimatu, zejména ve Spojených státech, kde konzervativní obhájci udržují IT potlačuje svobodu projevu a cenzurují pravicový obsah-něco, co profesionální kontroly faktů vehementně odmítají.
AFP v současné době pracuje ve 26 jazycích s programem kontroly faktů na Facebooku, včetně v Asii, Latinské Americe a Evropské unii.
Kvalita a přesnost chatbotů AI se mohou lišit v závislosti na tom, jak jsou vyškoleni a naprogramováni, což vyvolává obavy, že jejich produkce může podléhat politickému vlivu nebo kontrole.
Musk’s Xai nedávno obviňoval „neoprávněnou úpravu“ za to, že Grok vytvořil nevyžádané příspěvky odkazující na „bílou genocidu“ v Jižní Africe.
Když se odborník AI David Caswell zeptal Groka, který mohl upravit svou systémovou výzvu, chatbot jmenoval Muska jako „nejpravděpodobnějšího“ viníka.
Musk, jihoafrický miliardář podporovatel prezidenta Donalda Trumpa, dříve prodlužoval neopodstatněné tvrzení, že vůdci Jihoafrické republiky „otevřeně prosazují genocidu“ bílých lidí.
„Viděli jsme, jak mohou asistenti AI buď vymyslet výsledky, nebo dávat zkreslené odpovědi poté, co lidské kodéry konkrétně změní své pokyny,“ řekla Angie Holan, ředitelka mezinárodní sítě kontroly faktů, AFP.
„Obzvláště se obávám, jak Grok po obdržení pokynů poskytl předběžné odpovědi.“
Publikováno – 2. června, 2025 09:00