Jihoafrická politika AI citovala výzkum vytvořený umělou inteligencí: Jak zajistit integritu informací v době generativních nástrojů?
InovaceJihoafrická politika umělé inteligence (AI) byla stažena poté, co se ukázalo, že obsahuje falešné reference vytvořené samotnou AI. Tyto takzvané „halucinace“ AI zahrnovaly neexistující zdroje a přisuzovaly falešné důkazy skutečným institucím a respektovaným autorům.
Jihoafrická politika umělé inteligence (AI) byla stažena poté, co se ukázalo, že obsahuje falešné reference vytvořené samotnou AI. Tyto takzvané „halucinace“ AI zahrnovaly neexistující zdroje a přisuzovaly falešné důkazy skutečným institucím a respektovaným autorům. Ačkoli je tato událost často vnímána jako trapná, ve skutečnosti odhaluje zásadní selhání, která je třeba prozkoumat.
Incident poukázal na absenci dvou klíčových prvků: epistemické integrity, která zajišťuje, že výzkum je prováděn spolehlivými a ověřitelnými metodami, a informační integrity, tedy oprávněného očekávání veřejnosti, že informacím z autoritativního zdroje lze důvěřovat. Generativní AI, která produkuje texty a obrazy, je známá svými halucinacemi, kdy vytváří přesvědčivý, ale nepřesný nebo zcela smyšlený obsah. Tento problém se projevuje nejen v akademickém prostředí a soudních síních, ale nyní i v oficiálních dokumentech, jako je zmíněná politika.
Jihoafrická politika byla založena na principech odpovědné správy AI, které zahrnují odpovědnost, transparentnost a vysvětlitelnost. Tyto podmínky jsou klíčové a jsou v souladu s mezinárodními standardy. Skutečnost, že politika selhala v těchto principech již při svém vzniku, představuje pro ministerstvo příležitost získat důvěru Jihoafričanů a demonstrovat odolnou a odpovědnou správu v praxi. Je nezbytné komplexně vysvětlit, do jaké míry neexistující zdroje ovlivnily politiku, transparentně zveřejnit, které části byly dotčeny, jaký nástroj byl použit a v jaké fázi. Dále je klíčové zajistit vysvětlitelnost, aby bylo možné sledovat uvažování, které formovalo normativní rámec politiky.
Revidovaná politika musí řešit generativní AI a syntetická média (jako jsou deepfaky) jako strukturální pilíř, nikoli jako podkategorii inovací. Je potřeba vytvořit dohodnutý rámec pro definice, nápravu a kroky, které je třeba podniknout, když je generativní AI použita k šíření dezinformací prostřednictvím falešných zdrojů a syntetických médií. Nejde o vytváření nových institucí, ale o politickou vůli a promyšlený design politiky, který zajistí integritu informací v digitálním věku. Autor článku sám použil AI (Claude) ke zlepšení čitelnosti, ale veškerý obsah a zdroje osobně ověřil a přebírá za ně plnou odpovědnost.
The Conversation Africa