Humanoidní robot třídí ponožky s lidskou zručností: Nový AI model posouvá hranice robotiky
InovaceJaponská robotická společnost Enactic předvedla na akci „Dexterity Night“ v San Francisku humanoidního robota, který s pokročilou zručností třídil černé ponožky od bílých na pohyblivém dopravním pásu.
Japonská robotická společnost Enactic předvedla na akci „Dexterity Night“ v San Francisku humanoidního robota, který s pokročilou zručností třídil černé ponožky od bílých na pohyblivém dopravním pásu. Tato demonstrace ukázala významný pokrok v řízení robotů, za nímž stojí nový model RLDX-1 vyvinutý jihokorejskou společností RLWRLD.
Robot vybavený kamerami a rukama podobnými lidským dokázal rozpoznávat barvy, uchopovat ponožky a umisťovat je do oddělených nádob, přičemž si pamatoval dříve detekované barvy. Odborníci zdůrazňují, že tento model podtrhuje rostoucí sílu Jižní Koreje v oblasti humanoidní robotiky, zejména v technologii pokročilé manipulace konečky prstů. Společnost RLWRLD navíc urychluje nasazení systémů založených na RLDX-1 sběrem tréninkových dat z reálných prostředí, jako jsou hotely, logistická centra a obchody, kde zaznamenává práci kvalifikovaných lidských pracovníků.
Kromě RLWRLD se na technologii manipulace konečky prstů zaměřují i další korejské firmy. Například Robotis vyvíjí robotické ruce s přímým pohonem, které přenášejí sílu motoru přímo do kloubů prstů bez převodů či kabelů, a získal předobjednávky od globálních technologických společností včetně Googlu a Applu. Společnost Edin Robotics se zase specializuje na senzorovou technologii, která replikuje citlivost konečků prstů.
Základní model RLDX-1 od RLWRLD je navržen pro vysoce přesnou robotickou manipulaci s robotickými rukama s vysokým stupněm volnosti. Model cílí na komplexní průmyslové úkoly v reálném světě, které vyžadují jemnou motoriku, nepřetržité vnímání kontaktu a dlouhodobé rozhodování. RLDX-1 řeší omezení stávajících základních modelů, jako je nedostatečná kontextová paměť a snímání síly, prostřednictvím komplexního robotického systému, který integruje škálovatelný sběr dat, pokročilou architekturu modelu a jednotné strategie tréninku a nasazení. Jeho jádrem je Multi-Stream Action Transformer (MSAT), který zpracovává vizuální, pohybové, paměťové a točivé signály v oddělených proudech před jejich sloučením k vygenerování koordinovaných akcí. Systém také zahrnuje vizuálně-jazykový model zaměřený na robotiku, fyzikální a pohybové moduly a kognitivní rozhraní, které komprimuje percepční vstupy do paměťových tokenů pro dlouhodobé sledování úkolů. Pro zlepšení rozmanitosti učení využívá RLDX-1 generátor syntetických dat spolu se systémy pro snímání pohybu lidských rukou, čímž rozšiřuje pokrytí scénářů obratné manipulace. Model dosahuje špičkového výkonu v simulovaných i reálných testech, překonává přední vizuálně-jazykově-akční systémy v prostorovém uvažování, časovém chápání a úkolech vyžadujících častý kontakt. Je navržen tak, aby generalizoval napříč různými robotickými platformami, včetně jedno-, dvoupažních a humanoidních robotů, což umožňuje adaptivnější manipulační schopnosti pro průmysl.