Od Egypta po Švýcarsko: Jak vývojáři učí umělou inteligenci mluvit jazyky celého světa
InovaceUmělá inteligence, která by skutečně reprezentovala jeho kulturu, dlouho chyběla egyptskému programátorovi Assemu Sabrymu. V Egyptě totiž průmysl AI prakticky neexistuje. Proto se rozhodl vytvořit vlastní model, který pojmenoval Horus podle staroegyptského boha nebe.
Umělá inteligence, která by skutečně reprezentovala jeho kulturu, dlouho chyběla egyptskému programátorovi Assemu Sabrymu. V Egyptě totiž průmysl AI prakticky neexistuje. Proto se rozhodl vytvořit vlastní model, který pojmenoval Horus podle staroegyptského boha nebe. Jeho cílem bylo přestat se spoléhat na americké nebo čínské modely a místo toho prozkoumat, jak by mohl vypadat AI model zaměřený na Egypt.
Sabry trénoval Horuse pomocí GPU z Google Colab a dalších cloudových poskytovatelů, s využitím open-source datových sad. Model, který byl vydán na začátku dubna, zaznamenal během prvního týdne na platformě Hugging Face více než 800 stažení. Sabry je jedním z rostoucího počtu vývojářů, kteří se snaží napravit dlouhodobou nerovnováhu v umělé inteligenci. Současné modely jsou plynulé v angličtině a v menší míře v čínštině, ale v mnoha dalších jazycích jsou výrazně méně schopné. Takzvané menšinové jazyky jsou přitom ve skutečnosti mateřskými jazyky globální většiny populace.
Tato dominance angličtiny je důsledkem způsobu trénování modelů na obrovském množství dat z webu a ekonomických faktorů technologického průmyslu. Studie z roku 2023, kterou publikovala výzkumnice Aliya Bhatia s kolegou z Centra pro demokracii a technologie, argumentovala, že nestandardní jazyky se „ztrácejí v překladu“ kvůli komerčním pobídkám velkých technologických společností. Ty v honbě za kapitalizací AI upřednostnily podporu anglického jazyka, částečně kvůli omezeným tréninkovým datům, a jen málo se zabývaly řešením této mezery. Trénování AI modelů je nákladné a firmy měly malou motivaci budovat modely pro menší jazykové skupiny bez jasné návratnosti investic.
Tato dynamika se však začala měnit. Vzestup lokálních velkých jazykových modelů (LLM) a zpřísnění limitů tokenů u velkých AI společností otevřely prostor pro menší hráče. Před dvěma lety nebyla AI tak dobrá jako dnes a LLM nebyly open-source. Nyní je možné budovat AI modely prakticky od nuly. Přesto přetrvávají překážky, jako je nedostatek výpočetního výkonu, základní infrastruktury a financování, což stále představuje významnou bariéru.
Pokrok je však zřetelný. Vzniká spíše volná, globální síť lokálně zaměřených modelů než formální ekosystém. Mezi příklady patří švýcarský Apertus, latinskoamerický Latam-GPT, nigerijský N-ATLaS, indonéský Sahabat-AI, singapurský AI Singapore’s SEA-LION, vietnamský GreenMind, thajský OpenThaiGPT a evropský Teuken 7B. Každý z nich nabízí alternativu k dominantním modelům od společností jako OpenAI, Anthropic a Alibaba. Některé snahy zůstávají na komunitní úrovni, jako Sabryho projekt, zatímco jiné mají institucionální podporu. Například Apertus je spoluprací dvou švýcarských univerzit a Švýcarského národního superpočítačového centra, které přispělo více než 10 miliony hodin GPU, což odpovídá desítkám milionů dolarů v komerčním výpočetním výkonu.