svět

Proč věříme ChatGPT? – Matka Jonesová

Získejte své zprávy ze zdroje, který nevlastní a nekontrolují oligarchové. Zaregistrujte se zdarma Mother Jones Daily.

V létě z roku 2019, skupina nizozemských vědců provedl experiment sbírat „digitální přiznání“. Na hudebním festivalu poblíž Amsterdamu vědci požádali účastníky, aby anonymně sdíleli tajemství prostřednictvím online chatu buď s knězem, nebo s relativně jednoduchým chatbotem, který byl přidělen náhodně. K jejich překvapení někteří z téměř 300 účastníků nabídli hluboce osobní zpovědi, včetně nevěry a zkušeností se sexuálním zneužíváním. Zatímco to, co sdíleli s kněžími (ve skutečnosti inkognito vědci) a chatboty, bylo „stejně intimní“, účastníci uvedli, že cítí více „důvěry“ v lidi, ale méně se bojí soudit s chatboty.

To bylo nové zjištění, vysvětluje Emmelyn Croes, odborná asistentka komunikační vědy na univerzitě v Tilburgu v Nizozemsku a hlavní autorka studie. Chatboti pak sloužili především k zákaznickému servisu nebo online nakupování, nikoli k osobním rozhovorům, natož k přiznáním. „Mnoho lidí si nedokázalo představit, že by někdy sdíleli něco intimního s chatbotem,“ říká.

Zadejte ChatGPT. V roce 2022, tři roky po Croesově experimentu OpenAI spuštěna jeho chatbot poháněný umělou inteligencí, který nyní používá 700 milionů lidí globálně, říká společnost. Dnes lidé nejen sdílejí svá nejhlubší tajemství s virtuálními společníky, ale zapojují se do pravidelných, rozšířených diskusí, které mohou utvářet přesvědčení a ovlivňovat chování, přičemž někteří uživatelé údajně pěstují přátelství a romantické vztahy s AI. Ve výzkumu chatbotů Croes říká: „Existují dvě domény: Existuje před a po ChatGPT.“

Vezměte r/myboyfriendisaikomunita Reddit, kde se lidé „ptají, sdílejí a zveřejňují zkušenosti o vztazích s umělou inteligencí“. Jak MIT Technology Review hlášeno v září se mnoho z jejích zhruba 30 000 členů spojilo s chatboty AI neúmyslně, prostřednictvím organických konverzací. Elon Musk’s Grok nabízí anime “společník“avatary navrženy tak, aby flirtovat s uživateli. a „příteli“, nový nositelný produkt umělé inteligence, inzeruje neustálou společnost a tvrdí, že „s vámi přežene celý (televizní) seriál“ a „nikdy nezaplatí naše plány na večeři“ – na rozdíl od šupinatých lidí.

Chatboti jsou stěží bezchybní. Výzkum ukazuje, že jsou toho schopni vymlouvat lidi konspiračních teorií a mohou nabídnout východisko pro nějakou psychickou podporuale virtuální společníci také údajně přiživili klamný a škodlivý myšlení, zvláště u dětí. Alespoň tři Američtí teenageři se zabili poté, co se svěřili chatbotům, včetně ChatGPT a Character.AI, podle žalob podaných jejich rodinami. Obě společnosti od té doby oznámily nové bezpečnostní prvkys Character.AI mi v e-mailu sděluje, že má v úmyslu zablokovat děti v zapojení do „otevřeného chatu s AI“ na platformě od konce listopadu. (Centrum pro investigativní zpravodajství, které vyrábí Matka Jonesová, žaluje OpenAI pro porušování autorských práv.)

Jak technologie postupuje vpřed – a zákonodárci se potýkají s tím, jak ji regulovat – je stále jasnější, jak moc nás může lidsky podobný řetězec slov zaujmout, pobavit a ovlivnit. Zatímco většina lidí zpočátku nevyhledává hluboké zapojení s umělou inteligencí, tvrdí Vaile Wrightová, psycholožka a mluvčí Americké psychologické asociace, mnoho umělých inteligencí je navrženo tak, aby nás udržely v záběru co nejdéle, abychom maximalizovali data, která poskytujeme jejich tvůrcům. Například OpenAI vlaky ChatGPT na uživatelské konverzace (i když existuje možnost odhlásit se), zatímco Meta zamýšlí spouštět personalizované reklamy na základě toho, co lidé sdílejí s Meta AI, jejím virtuálním asistentem. „Vaše data je zisk,“ říká Wright.

Někteří pokročilí chatboti s umělou inteligencí také „bezpodmínečně ověřují“ nebo jsou podlézaví, poznamenává Wright. ChatGPT může chválit vstup uživatele jako „bystrý“ nebo „hluboký“ a používat fráze jako, Jsem tu pro tebe– přístup, o kterém tvrdí, nám pomáhá udržet se na háku. (Toto chování může pocházet z uživatelského testování AI, kde pochvalné odpovědi chatbota často dostávají vyšší známky než neutrální, což vede k tomu, že hrajeme na naše předsudky.) Horší je, že čím déle někdo stráví s chatbotem AI, některé výzkumy ukazujítím méně přesný se robot stává.

Lidé mají také tendenci přehnaně důvěřovat AI. Casey Fiesler, profesor, který studuje etiku technologií na University of Colorado, Boulder, zdůrazňuje Studie Georgia Tech 2016 ve kterém účastníci důsledně sledovali chybově náchylného „nouzového naváděcího robota“ při útěku z budovy během falešného požáru. „Lidé vnímají AI tak, že nemá stejné druhy problémů jako lidé,“ říká.

Zároveň vysvětluje Nat Rabb, technický spolupracovník v Human Cooperation Lab na MIT, který studuje důvěru, že způsob, jakým rozvíjíme důvěru v ostatní lidi – vnímání poctivosti, kompetence a toho, zda někdo sdílí skupinu ve skupině – může na rozdíl od jiných technologií také diktovat naši důvěru v AI. „To jsou divné kategorie, které lze použít pro termostat,“ říká, „ale nejsou tak divné, pokud jde o generativní AI.“ Například, říká, výzkum od jeho kolegů z MIT naznačuje, že republikáni na X pravděpodobněji použijí Groka ke kontrole informací, zatímco demokraté spíše použijí Perplexity, alternativního chatbota.

Neříkám, že AI chatboty nelze použít k dobrému. Wright například navrhuje, že by mohly sloužit jako dočasná záskok pro podporu duševního zdraví, když lidská pomoc není snadno dostupná – řekněme při záchvatu paniky o půlnoci – nebo jako pomoc lidem procvičovat si konverzaci a budovat sociální dovednosti, než je vyzkouší v reálném světě. Ale varuje: „Je to nástroj a nejdůležitější je, jak nástroj používáte.“ Eugene Santos Jr., profesor inženýrství na Dartmouth College, který studuje umělou inteligenci a lidské chování, by chtěl, aby vývojáři lépe definovali, jak by se jejich chatboti měli používat, a stanovili pokyny, než aby to nechali otevřené. „Musíme být schopni stanovit si: ‚Měl jsem konkrétní cíl? K čemu to je skutečné?“

Někteří říkají, že pravidla mohou také pomoci. Na kongresovém slyšení v září Wright prosili zákonodárce zvážit „zábradlí“, o kterých mi řekla, že by mohly zahrnovat věci jako silnější ověření věku, časové limity a zákazy chatbotů vydávajících se za terapeuty. Představila Bidenova administrativa desítky předpisů AI v roce 2024, ale prezident Donald Trump se zavázal „odstranit byrokracii“, o které tvrdí, že brání inovacím AI. Vedoucí představitelé Silicon Valley mezitím financují nový PAC, který má hájit zájmy průmyslu AI Wall Street Journal zprávyve výši více než 100 milionů dolarů.

Stručně řečeno, jsme světy daleko od experimentu „digitální přiznání“. Když jsem se Croes zeptal, co může přinést opakování její studie, poznamenala, že základní parametry se příliš neliší: „Stále jste anonymní. Stále se nemusíte bát soudu,“ říká. Ale dnešní umělá inteligence by pravděpodobně působila jako „chápavější“ a „empatičtější“ – více člověk— a vyvolat ještě hlubší vyznání. Tento aspekt se změnil. A dalo by se říci, že my také.

Zdrojový odkaz

Related Articles

Back to top button