Populární chatboti AI mají alarmující chybu v šifrování – což znamená, že hackeři mohou snadno zachytit zprávy

Výzkumníci kybernetické bezpečnosti ze společnosti Microsoft identifikovali kritickou chybu v moderně umělá inteligence (AI), což znamená, že konverzace s chatboty mohly být zachyceny útoky hackerů. Tím by se obešlo šifrování, které má zachovat soukromí chatů.
Technika útoku, zvaná Whisper Leak, je typem „útoku typu man-in-the-middle“, při kterém hackeři mohou zachytit zprávy při přenosu mezi servery. Fungovalo to, protože hackeři byli schopni číst metadata zpráv, a tudíž odvodit jejich obsah.
„Nejsem překvapený,“ řekl analytik kybernetické bezpečnosti Dave Lear Live Science „LLM jsou potenciální zlatý důl, vezmeme-li v úvahu množství informací, které do nich lidé vkládají – a nemluvě o množství lékařských dat, která v nich mohou být, nyní, když je nemocnice používají k třídění testovacích dat, někdo musel dříve nebo později najít způsob, jak tyto informace exfiltrovat.
Odhalování zranitelností v AI chatbotech
Generativní systémy AI jako Chat GPT jsou výkonné nástroje umělé inteligence, které dokážou generovat odpovědi na základě řady výzev, jak je používají virtuální asistenti na chytrých telefonech. Podmnožina LLM je trénována na obrovském množství dat pro generování textových odpovědí.
Konverzace uživatelů s LLM jsou běžně chráněny zabezpečením transportní vrstvy (TLS), což je typ šifrovacího protokolu, který zabraňuje čtení komunikace odposlechem. Ale vědci byli schopni zachytit a odvodit obsah prostřednictvím metadat komunikace mezi uživatelem a chatbotem.
Metadata jsou v podstatě data o datech, včetně velikosti a frekvence – a často mohou být cennější než samotný obsah zpráv. Přestože obsah zpráv mezi lidmi a LLM zůstal zabezpečený, pomocí zachycení zpráv a analýzy metadat byli vědci schopni odvodit předmět zpráv.
Dosáhli toho analýzou velikosti šifrovaných datových paketů – malé formátované jednotky dat zasílaných přes síť – z odpovědí LLM. Výzkumníci byli schopni vyvinout řadu útočných technik založených na načasování, výstupech a posloupnosti délek tokenů, aby rekonstruovali věrohodné věty ve zprávách, aniž by museli obejít šifrování.
V mnoha ohledech využívá útok Whisper Leak pokročilejší verzi britských zásad sledování internetu Zákon o vyšetřovacích pravomocích z roku 2016který odvozuje obsah zpráv na základě odesílatele, načasování, velikosti a frekvence, ale bez čtení obsahu samotných zpráv.
„Pro představu: pokud by vládní agentura nebo poskytovatel internetových služeb monitoroval provoz na oblíbeném chatbotu s umělou inteligencí, mohl by spolehlivě identifikovat uživatele, kteří se ptali na konkrétní citlivá témata – ať už jde o praní špinavých peněz, politický disent nebo jiná sledovaná témata – i když je veškerý provoz šifrovaný,“ uvedli bezpečnostní výzkumníci. Jonathan Bar Or a Geoff McDonald v a blogový příspěvek publikoval tým výzkumu zabezpečení Microsoft Defender.
Existují různé techniky, které by poskytovatelé LLM mohli využít ke zmírnění tohoto rizika. Například náhodné vyplnění – přidání náhodných bajtů ke zprávě, aby se narušilo vyvozování – by mohlo být připojeno k polím odpovědí, čímž by se zvýšila jejich délka a snížila by se předvídatelnost zkreslením velikosti paketů.
Chyba v srdci Whisper Leak, ale architektonický důsledek toho, jak jsou LLM nasazeny. Zmírnění zranitelnosti není nepřekonatelnou výzvou, ale opravy nebyly univerzálně implementovány všemi poskytovateli LLM, uvedli výzkumníci.
Dokud poskytovatelé nebudou schopni vyřešit nedostatky v chatbotech, výzkumníci uvedli, že by se uživatelé měli vyhýbat diskusím o citlivých tématech na nedůvěryhodných sítích a měli by si být vědomi, zda jejich poskytovatelé implementovali zmírnění. Virtuální privátní sítě (VPN) lze také použít jako další vrstvu ochrany, protože zatemňují identitu a umístění uživatele.



