Wikipedia chrání svou integritu: V článcích zakázala texty generované umělou inteligencí

Anglická verze Wikipedie zaujala pevný postoj k generativní umělé inteligenci a stanovila jasné hranice pro její použití editory. Nově je přispěvatelům zakázáno používat velké jazykové modely (LLM) k vytváření nebo podstatnému přepisování obsahu článků.
Anglická verze Wikipedie zaujala pevný postoj k generativní umělé inteligenci a stanovila jasné hranice pro její použití editory. Nově je přispěvatelům zakázáno používat velké jazykové modely (LLM) k vytváření nebo podstatnému přepisování obsahu článků. Tento krok odráží rostoucí obavy o přesnost, spolehlivost a integritu komunitně tvořených znalostí, zejména s ohledem na ověřitelnost a citování zdrojů.
Rozhodnutí přichází v době, kdy se nástroje umělé inteligence rychle šíří do každodenních pracovních postupů. Od e-mailů po dlouhé texty je strojově generovaný obsah stále obtížnější odlišit od lidského psaní. Pro platformu postavenou na ověřitelných informacích představuje tento posun vážnou výzvu. Wikipedia argumentuje, že takové použití často koliduje s jejími základními obsahovými standardy, neboť LLM mohou zavádět jemné zkreslení, i když dostanou jasné pokyny, a měnit význam textu tak, že není podložen citovanými zdroji.
Wikipedia však vyhradila dvě úzké výjimky. Editoři mohou nástroje umělé inteligence používat k vylepšení vlastního psaní, podobně jako asistenty pro gramatiku nebo styl. Všechny změny však musí pečlivě zkontrolovat před publikováním. Dále je povoleno použití AI pro překlady, kdy nástroj může vygenerovat návrh, ale editor musí být plynulý v obou jazycích, ověřit přesnost a opravit případné chyby před zveřejněním.
Tato politika odráží širší odpor v online komunitách proti rychlé expanzi umělé inteligence. Administrátor Wikipedie Chaotic Enby popsal tento krok jako součást většího kulturního posunu a „tlak proti znehodnocování obsahu (tzv. enshittification) a agresivnímu prosazování umělé inteligence mnoha společnostmi v posledních letech“. Cesta k tomuto rozhodnutí nebyla jednoduchá; dřívější návrhy na komplexní pravidla pro AI nezískaly konsensus, protože panovala shoda na myšlence změny, nikoli však na její implementaci.
Navzdory novým omezením zůstává vymáhání obtížné. Identifikace textu generovaného umělou inteligencí je stále nespolehlivá, a Wikipedia uznává, že detekční nástroje zaostávají za rychle se zdokonalujícími modely. To zvyšuje riziko jak falešných pozitiv, tak přehlédnutých porušení. Je důležité poznamenat, že Wikipedia funguje jako síť nezávislých komunit, a tak se politika anglické verze nevztahuje globálně. Jiné verze, například španělská Wikipedia, již zavedly přísnější pravidlo, které zcela zakazuje použití LLM, včetně vylepšování a překladů. Rozhodnutí Wikipedie signalizuje opatrný přístup s cílem chránit důvěryhodnost platformy, i když se hranice mezi lidským a strojovým psaním stává stále méně zřetelnou.