Nový AI model π0.7 učí roboty skládat prádlo i používat neznámé spotřebiče bez tréninku
InovaceAmerický startup Physical Intelligence představil nový model umělé inteligence s názvem π0.7, který umožňuje robotům vykonávat úkoly, na které nebyli předem trénováni.
Americký startup Physical Intelligence představil nový model umělé inteligence s názvem π0.7, který umožňuje robotům vykonávat úkoly, na které nebyli předem trénováni. Systém, který reaguje na pokyny v běžném jazyce, představuje významný krok k vytvoření univerzálního robotického mozku schopného zvládat neznámé situace.
Podle firmy ze San Francisca jsou výsledky překvapivé a naznačují, že robotická umělá inteligence se blíží k zlomovému bodu, kdy se její schopnosti rozvíjejí rychleji, než se očekávalo. V experimentech π0.7 prokázal první známky kompoziční generalizace, tedy schopnosti rekombinovat dovednosti z různých úkolů k řešení nových problémů. Roboti tak dokázali například používat neznámé kuchyňské spotřebiče nebo skládat prádlo, aniž by k tomu měli předchozí specifická data.
Model π0.7 se odlišuje od dřívějších systémů tím, že dokáže aplikovat stávající schopnosti v nových kontextech bez dalšího dolaďování. Efektivněji také generalizuje napříč různými roboty, prostředími a úkoly. To naznačuje posun od tréninku zaměřeného na konkrétní úkoly k flexibilnějším, univerzálním systémům, kde se schopnosti rozšiřují efektivněji, jak se modely učí znovu používat a kombinovat znalosti napříč různými oblastmi.
Široká generalizace modelu π0.7 pramení ze způsobu jeho tréninku a zadávání pokynů. Místo jednoho zdroje dat je model postaven na kombinaci vstupů, včetně dat z různých robotických platforem, lidských demonstrací a autonomně shromážděných epizod. Systém je trénován s bohatými, multimodálními podněty, které definují nejen úkol, ale také detaily provedení, jako jsou textové instrukce, vizuální dílčí cíle nebo parametry trvání úkolu. Tento dodatečný kontext pomáhá modelu interpretovat různorodé chování a strategie, což mu umožňuje flexibilněji aplikovat znalosti.
Během provádění úkolu může model sledovat standardní jazykové instrukce a zároveň začleňovat další pokyny, jako jsou požadované strategie nebo generované vizuální cíle. To mu umožňuje adaptovat se v reálném čase a zlepšovat výkon bez nutnosti opětovného tréninku. Testování ukázalo, že systém dokáže odvodit, jak používat neznámé objekty, kombinací omezených předchozích příkladů s širšími naučenými znalostmi. S minimálním vedením se pokoušel o nové úkoly a s podrobnými instrukcemi krok za krokem se jeho výkon výrazně zlepšil.
Tento přístup zdůrazňuje posun k interaktivnímu učení, kde lidská zpětná vazba a návrh podnětů hrají klíčovou roli ve výsledcích. Systém však stále vyžaduje podrobné pokyny pro vícekrokové úkoly a nedokáže autonomně vykonávat složité instrukce z jediného příkazu. Vědci také upozorňují na absenci standardizovaných srovnávacích testů, což ztěžuje nezávislé ověření. Zjištění jsou sice v rané fázi, ale ukazují na cestu k adaptabilnějším robotickým systémům, které dokážou rozšířit své schopnosti daleko za rámec původního tréninku.