AI v redakcích: Novináři se učí s umělou inteligencí pracovat, ale incident s plagiátem ukázal, proč jsou pravidla klíčová
InovaceV žurnalistické komunitě se postupně uvolňuje stigma spojené s používáním umělé inteligence (AI). Zatímco dříve převládala neochota až pohrdání, nedávné zprávy ukazují, že někteří novináři a mediální společnosti začínají AI integrovat do své práce.
V žurnalistické komunitě se postupně uvolňuje stigma spojené s používáním umělé inteligence (AI). Zatímco dříve převládala neochota až pohrdání, nedávné zprávy ukazují, že někteří novináři a mediální společnosti začínají AI integrovat do své práce. Například redaktor Fortune Nick Lichtenberg využívá AI k výraznému zvýšení produktivity, kdy je schopen napsat až sedm článků denně. Podobně i prominentní reportéři z The New York Times nebo nezávislí novináři jako Alex Heath a Taylor Lorenz experimentují s AI pro různé redakční úkoly, včetně samotného psaní. Tento posun je částečně připisován nástupům výkonných agentních AI platforem, jako je Claude Cowork, která se stává preferovanou volbou pro kreativce v médiích.
Nicméně, tento rostoucí optimismus byl nedávno zasažen incidentem v The New York Times, kdy deník ukončil spolupráci s externím autorem Alexem Prestonem. Ten odevzdal recenzi knihy, která byla alespoň částečně napsána umělou inteligencí a obsahovala pasáže téměř identické s recenzí Christobel Kentové, publikovanou v The Guardian o několik měsíců dříve. Preston přiznal, že AI použil, a označil to za „vážnou chybu“. Tato událost slouží jako důležité varování pro The New York Times ohledně komunikace AI politiky s externisty a pro všechny redakce, které zvažují širší využití AI.
Incident s plagiátem vrací diskusi o AI v médiích k dřívějším skandálům, jako byly botem napsané články na CNET nebo vymyšlené tituly knih v Chicago Sun-Times. Hrozí, že podkope pokroky v produktivitě a optimalizaci obsahu, kterých mnoho novinářů a redakcí dosahuje, a může vést k návratu k jednoduchému zákazu AI. Je proto zásadní podrobně zkoumat, jak byla AI použita, aby bylo možné lépe rozlišit mezi dobrým a špatným využitím. Místo obecných frází o „lidském faktoru v procesu“ je důležité zaměřit se na konkrétní rozhodnutí, která byla AI svěřena, a zda člověk nastavil správné parametry a omezení. V případě plagiátu je zřejmé, že AI pravděpodobně zahrnula webové vyhledávání (RAG) do generování textu, aniž by jí autor výslovně zakázal syntetizovat jiné recenze, což je klíčové pro prevenci plagiátorství.
Pro úspěšné a etické využití AI v žurnalistice je klíčové, jak je nástroj používán, nikoli zda je používán vůbec. To vyžaduje důkladné pochopení schopností a úskalí těchto nástrojů, pečlivé nastavení parametrů pro promptování a ochotu neustále přizpůsobovat pracovní procesy. Je nezbytné zavést jasná pravidla, jako jsou příkazy „vždy“ a „nikdy“ pro zamezení konkrétním problémům, a zajistit lidskou kontrolu faktů. Kromě individuálních technik jsou důležité i systémové záruky, jako je zavedení AI politiky v redakcích a investice do školení. Nejdůležitější je však testovat a ladit hranice „dobrého AI“ v soukromém prostředí, aby se předešlo chybám na veřejnosti. Čím více novinářů bude aktivně budovat, testovat a upravovat procesy s AI, tím více se stigma kolem této technologie rozplyne a její potenciál jako partnera v psaní a žurnalistice se plně odemkne.