Pentagon chystá průlom: Umělá inteligence se bude učit z tajných vojenských dat pro vyšší efektivitu
InovaceAmerický Pentagon diskutuje plány na vytvoření zabezpečených prostředí, kde by společnosti vyvíjející generativní umělou inteligenci (AI) mohly trénovat vojensky specifické verze svých modelů na utajovaných datech.
Americký Pentagon diskutuje plány na vytvoření zabezpečených prostředí, kde by společnosti vyvíjející generativní umělou inteligenci (AI) mohly trénovat vojensky specifické verze svých modelů na utajovaných datech. Tento krok by představoval významný posun, jelikož dosud byly modely AI, jako je Anthropic's Claude, používány pouze k zodpovídání otázek v utajovaném prostředí, například při analýze cílů v Íránu. Trénink přímo na utajovaných datech by znamenal, že citlivé zpravodajské informace, jako jsou zprávy ze sledování nebo hodnocení bojiště, by se staly součástí samotných modelů, což by AI firmy přivedlo do užšího kontaktu s utajovanými daty než kdykoli předtím.
Podle amerického obranného úředníka, který hovořil s MIT Technology Review, se očekává, že trénink AI modelů na utajovaných datech výrazně zvýší jejich přesnost a efektivitu při plnění specifických úkolů. Tato iniciativa přichází v době vysoké poptávky po výkonnějších modelech; Pentagon již uzavřel dohody se společnostmi OpenAI a xAI Elona Muska o provozování jejich modelů v utajovaném prostředí a zavádí novou agendu, aby se stal „bojovou silou zaměřenou na AI“. Trénink by probíhal v zabezpečeném datovém centru akreditovaném pro hostování utajovaných vládních projektů, kde by kopie AI modelu byla spárována s utajovanými daty. Ministerstvo obrany by zůstalo vlastníkem dat, přičemž personál AI společností s příslušnými bezpečnostními prověrkami by mohl ve vzácných případech k datům přistupovat. Před zahájením tohoto nového tréninku však Pentagon nejprve vyhodnotí přesnost a efektivitu modelů trénovaných na neklasifikovaných datech, například na komerčně dostupných satelitních snímcích.
Aalok Mehta, ředitel Wadhwani AI Centra při Centru pro strategická a mezinárodní studia, upozorňuje, že trénink na utajovaných datech, na rozdíl od pouhého zodpovídání otázek o nich, představuje nová rizika. Největší obavy vzbuzuje možnost, že by utajované informace, na kterých se modely učí, mohly být znovu zpřístupněny komukoli, kdo model používá. To by byl problém, pokud by mnoho různých vojenských oddělení s různými úrovněmi utajení a potřebami sdílelo stejnou AI. Mehta uvádí příklad, kdy by model s přístupem k citlivým lidským zpravodajským informacím, jako je jméno operativce, mohl tyto informace prozradit části Ministerstva obrany, která k nim nemá mít přístup. To by mohlo vytvořit bezpečnostní riziko pro operativce, které je obtížné dokonale zmírnit, pokud je konkrétní model používán více skupinami v rámci armády. Mehta však dodává, že udržet informace mimo širší svět je snazší: „Pokud to správně nastavíte, bude velmi malé riziko, že se tato data objeví na obecném internetu nebo se vrátí k OpenAI.“ Vláda již má pro to část infrastruktury, například společnost Palantir získala značné zakázky na vybudování zabezpečeného prostředí, skrze které mohou úředníci klást AI modelům otázky o utajovaných tématech, aniž by se informace vracely AI společnostem. Použití těchto systémů pro trénink je však stále novou výzvou.