„Otravná“ sykofantická verze chatgpta potažená poté, co by chatbot nepřestal lichotit uživateli

OpenAI se vrátil zpět na chatgpty aktualizace, díky nimž byl umělá inteligence (AI) chatbot také „sykofantický“ a „otravný“ podle generálního ředitele společnosti Sam Altman. Jinými slovy, chatbot se stal bootlicker.
Uživatelé Chatgptu uvedli, že GPT-4o-nejnovější verze Chatbot-se stala příliš příjemnou od doby, kdy se aktualizace minulý týden objevila a hromadila chválu svým uživatelům, i když se tato chvála zdála zcela nevhodná.
Jeden uživatel sdílel snímek obrazovky Reddit ve kterém se zdálo, že Chatgpt říkal, že je „hrdý“ na uživatele, aby se rozhodl odejít z jejich léků, BBC News hlásil. V jiném případě se zdálo, že chatbot ujistil uživatele poté, co řekli zachránil toustovač přes životy tří krav a dvou koček, Mashable hlásil.
Zatímco většina lidí si nikdy nebude muset vybrat mezi svým oblíbeným kuchyňským zařízením a bezpečností pěti zvířat, příliš příjemný chatbot mohl představovat nebezpečí pro lidi, kteří do svých odpovědí vložili příliš mnoho zásob.
V neděli (27. dubna) Altman uznal, že s aktualizacemi byly problémy.
„Posledních pár aktualizací GPT-4o učinilo osobnost příliš sycophant-y a otravné (i když existuje několik velmi dobrých částí) a pracujeme na opravách ASAP, některé dnes a některé tento týden,“ napsal Altman v příspěvku o Sociální platforma x.
V úterý (29. dubna) OpenAI vydal prohlášení, které potvrdilo, že aktualizace z předchozího týdne byla převrácena zpět a že uživatelé nyní přistupovali k předchozí verzi Chatgptu, o níž společnost uvedla, že „vyváženější chování“.
„Aktualizace, kterou jsme odstranili, byla příliš lichotivá nebo příjemná – často popisovaná jako sykofantická,“ uvedl OpenAI ve svém prohlášení.
Související: GPT-4.5 je první model AI, který prošel autentickým Turingovým testem, říkají vědci
Nedávná aktualizace OpenAI měla podle prohlášení zlepšit výchozí „osobnost“ modelu, která je navržena tak, aby podporovala a respektovala různé lidské hodnoty. Ale zatímco se společnost pokoušela, aby se chatbot cítil intuitivnější, stal se příliš podpůrným a začal příliš komplimentovat jeho uživatele.
Společnost uvedla, že formuje chování svých modelů Chatgpt s základní linií zásady a pokyny a mají uživatelské signály, jako je systém palec-up a palec-down, aby naučil model, aby tyto principy aplikoval. Podle prohlášení měly být dohled nad tímto systémem zpětné vazby na vině problémy s nejnovější aktualizací.
„V této aktualizaci jsme se příliš zaměřili na krátkodobou zpětnou vazbu a plně jsme nezohlednili, jak se interakce uživatelů s ChatGPT v průběhu času vyvíjejí,“ řekl OpenAI. „V důsledku toho se GPT -4o zkreslil na odpovědi, které byly příliš podpůrné, ale neúprosné.“