Dozorčí rada Meta požaduje lepší kontrolu nad AI videi po incidentu v Haifě
ZprávyDozorčí rada společnosti Meta vyzvala firmu k posílení dohledu nad falešnými videi vytvořenými umělou inteligencí. Reaguje tak na video z Haify, které Meta neoznačila.
Dozorčí rada společnosti Meta vyzvala firmu k posílení dohledu nad falešným obsahem vytvořeným nástroji umělé inteligence (AI) na jejích platformách.
Jednadvacetičlenná rada vyjádřila tyto obavy poté, co kritizovala společnost za ponechání videa generovaného AI, které bez označení ukazovalo rozsáhlé škody v izraelské Haifě, údajně způsobené íránskými silami.
Rada vyzvala společnost k přepracování pravidel pro AI. Upozornila, že nárůst falešných AI videí souvisejících s globálními vojenskými konflikty ztížil schopnost veřejnosti rozlišovat mezi skutečností a výmyslem, což by mohlo vést k obecné nedůvěře ve veškeré informace.
Společnost Meta uvedla, že dotčené video označí do sedmi dnů.
Meta zřídila dozorčí radu v roce 2020 jako poloautonomní skupinu, která dohlíží na rozhodnutí o moderování obsahu napříč jejími platformami, včetně Facebooku, Instagramu a WhatsAppu. Rada se často neshoduje s rozhodnutími Mety, přesto však společnost svůj přístup k regulaci obsahu nadále uvolňuje, což vyvolává otázky ohledně skutečného vlivu rady.
Rada uvedla, že způsob, jakým firma řešila video z Haify, poukázal na dříve zmiňované nedostatky v současném přístupu Mety během ozbrojených konfliktů.
V současné době se Meta spoléhá převážně na to, že uživatelé sami označí obsah vytvořený nástrojem AI. Jinak čeká na stížnost od uživatele, na jejímž základě pak tým pro moderování obsahu může rozhodnout o přidání štítku.
Rada doporučila, aby firma proaktivně označovala falešný AI obsah "mnohem častěji". Uvedla, že současné metody firmy nejsou "dostatečně robustní ani komplexní pro zvládání rozsahu a rychlosti obsahu generovaného AI, zejména v období obtížných situací nebo konfliktů, kdy je na platformě zvýšená aktivita."
Přezkum této záležitosti radou byl podnícen videem zveřejněným loni v červnu účtem na Facebooku se sídlem na Filipínách, který se označoval za zpravodajský zdroj. Podle tehdejší analýzy BBC šlo o jedno z řady falešných AI videí zveřejněných na sociálních sítích po začátku konfliktu, přičemž obsah byl buď pro-izraelský, nebo pro-íránský, a rychle získal nejméně 100 milionů zhlédnutí.
Přestože video na Facebooku bylo generováno AI a ukazovalo nereálný obsah, a Meta obdržela několik stížností od uživatelů, společnost video neoznačila jako AI-generované ani ho neodstranila. Teprve když se uživatel Facebooku obrátil přímo na dozorčí radu a ta se záležitostí začala zabývat, Meta na obavy reagovala.
Společnost poté tvrdila, že video, které získalo téměř milion zhlédnutí, nevyžaduje žádné označení ani odstranění, protože "přímo nepřispívalo k riziku bezprostřední fyzické újmy."
Rada v úterý rozhodla, že tato laťka pro označování obsahu generovaného AI je příliš vysoká, zejména pokud se téma týká ozbrojeného konfliktu. Video mělo podle rady obdržet "označení vysokého rizika spojeného s umělou inteligencí."