AI společnost Anthropic omylem zveřejnila kód svého modelu Claude, pak ho stahovala: odhalila se i její minulost s pirátskými knihami
InovaceSpolečnost Anthropic, tvůrce populárního AI modelu Claude, se nedávno ocitla v nezáviděníhodné situaci, když omylem zveřejnila zdrojový kód svého modelu Claude Code AI.
Společnost Anthropic, tvůrce populárního AI modelu Claude, se nedávno ocitla v nezáviděníhodné situaci, když omylem zveřejnila zdrojový kód svého modelu Claude Code AI. Tato událost vyvolala vlnu reakcí, zejména kvůli následnému kroku Anthropicu, který se rozhodl kód aktivně stahovat z internetu s odvoláním na autorská práva.
Únik, který se objevil v balíčku npm verze 2.1.88, nebyl podle společnosti katastrofou v plném rozsahu – nebyly odhaleny žádné zákaznické údaje ani interní matematické „váhy“, které určují, jak se AI učí. Nicméně, unikly techniky, které inženýři použili k tomu, aby se AI model choval jako autonomní agent, což je digitální infrastruktura nazývaná „harness“, a další triky pro bezproblémový provoz AI. Anthropic následně vydal žádost o stažení autorsky chráněného obsahu pro tisíce kopií sdílených na GitHubu, přičemž původně cílil na 8 000 kopií, což později zúžil na 96.
Tento krok je vnímán jako značně pokrytecký, vzhledem k tomu, jak Anthropic sám získával data pro trénování svých modelů. Společnost, která se často prezentuje jako etický lídr v oboru AI, v minulosti spoléhala na miliony pirátských knih stažených z online „stínových knihoven“ jako LibGen a Pirate Library Mirror. Tato praxe vyústila v soudní spor s autory, který byl urovnán mimosoudní dohodou ve výši 1,5 miliardy dolarů poté, co soudce označil použití pirátských knih za nezákonné. Anthropic se také podílel na tajné iniciativě nazvané „Project Panama“, v rámci níž skenoval a ničil miliony použitých fyzických knih, což byla praxe, kterou chtěl udržet v tajnosti kvůli jejímu negativnímu vnímání.
Samotný únik zdrojového kódu byl způsoben lidskou chybou – v balíčku npm byl omylem ponechán soubor „source map“, který ukazoval na umístění zdrojového kódu online. Tato událost vyvolala otázky ohledně role AI v kódovacích chybách, zejména s ohledem na to, že Anthropic často zdůrazňuje, že jeho modely byly vyvinuty pomocí vlastních AI kódovacích nástrojů. Společnost však trvá na tom, že šlo výhradně o lidskou chybu. Celý incident tak poukazuje na složitost a etické výzvy v rychle se rozvíjejícím odvětví umělé inteligence, kde se otázky duševního vlastnictví a transparentnosti stávají stále palčivějšími.
Futurism