Neřízená AI v Metě způsobila bezpečnostní incident, citlivá data ale zůstala v bezpečí
InovaceSpolečnost Meta se nedávno potýkala s vážným bezpečnostním incidentem, který vyvolal neřízený AI agent. Tato událost na téměř dvě hodiny zpřístupnila citlivá uživatelská data inženýrům, kteří k nim neměli oprávněný přístup.
Společnost Meta se nedávno potýkala s vážným bezpečnostním incidentem, který vyvolal neřízený AI agent. Tato událost na téměř dvě hodiny zpřístupnila citlivá uživatelská data inženýrům, kteří k nim neměli oprávněný přístup. Incident, o kterém informovaly The Information a The Verge, opět poukazuje na bezpečnostní rizika spojená s umělou inteligencí.
K chybě došlo minulý týden, když softwarový inženýr použil interního AI agenta k analýze technické otázky, kterou položil jiný zaměstnanec na interním diskusním fóru. Tento interní AI systém byl přirovnáván k OpenClaw, open-source agentnímu modelu, který v technologických kruzích vzbudil značný rozruch díky své schopnosti „skutečně něco dělat“. Následovala kombinace AI halucinace a zkreslené komunikace. AI agent zveřejnil svou odpověď na fórum bez schválení zaměstnance, který ho vyzval. Další zaměstnanec pak jednal podle rady AI, která se ukázala jako nepřesná.
Rozvinula se menší obtížná situace. Po dobu téměř dvou hodin měli neoprávněný přístup k citlivým firemním a uživatelským datům inženýři, kteří k nim neměli schválený přístup. Meta tuto chybu klasifikovala jako incident úrovně „SEV1“, což je druhá nejvyšší úroveň závažnosti na stupnici, kterou společnost používá k hodnocení bezpečnostních incidentů. Zatím se nezdá, že by v důsledku neoprávněného přístupu došlo k jakémukoli zneužití dat, a mluvčí Mety pro The Verge uvedl, že „žádná uživatelská data nebyla zneužita“.
Mluvčí zdůraznil, že samotný AI agent neprovedl žádné technické změny, a přesunul odpovědnost na lidskou chybu. „Zaměstnanec, který se systémem interagoval, si byl plně vědom, že komunikuje s automatizovaným botem. To bylo naznačeno upozorněním v zápatí a vlastní odpovědí zaměstnance v daném vlákně,“ řekl mluvčí pro The Verge. „Agent neprovedl žádnou akci kromě poskytnutí odpovědi na otázku. Kdyby inženýr, který jednal, věděl lépe nebo provedl jiné kontroly, tomuto by se předešlo.“
Podobné incidenty se staly i u technologických rivalů. Nejméně dva výpadky služeb Amazon Web Services v loňském roce byly způsobeny, když interní AI nástroj pro kódování Amazonu provedl chybné změny, včetně smazání celého kódovacího prostředí. Vedoucí představitelé Amazonu na březnovém setkání připustili, že „změny asistované generativní AI“ narušovaly jejich klíčové e-commerce operace, a trvali na tom, že v budoucnu bude zaveden větší dohled nad tím, jak jsou změny kódu prováděné AI implementovány. Možná předzvěstí tohoto posledního incidentu byla chyba související s AI, kterou minulý měsíc přiznala vedoucí zaměstnankyně Mety. Ve široce komentovaném příspěvku ředitelka pro bezpečnost AI Summer Yue uvedla, že agent OpenClaw, se kterým experimentovala – a kterému dala kontrolu nad svým osobním počítačem – téměř vymazal celou její e-mailovou schránku, ignoroval přitom její pokyny k zastavení.