AI chatboty jako vyhledávače: Proč jim nevěřit vše a jak si ověřit informace
InovaceGenerativní umělá inteligence (AI) je nástroj, který vytváří texty, obrázky a další data na základě informací, které zpracovala. Má však i stinnou stránku: dokáže šířit dezinformace mnohem rychleji, než je lidé stíhají ověřovat a opravovat.
Generativní umělá inteligence (AI) je nástroj, který vytváří texty, obrázky a další data na základě informací, které zpracovala. Má však i stinnou stránku: dokáže šířit dezinformace mnohem rychleji, než je lidé stíhají ověřovat a opravovat. Jak ukazuje příklad s rebarborou, oprava často nedokáže zcela odstranit původní zkreslení informací.
Platformy jako ChatGPT nebo Claude nefungují jako běžné vyhledávače. Přesto je lidé často používají právě takto, protože zdánlivě rychle shrnují složitá témata a vyžadují méně kliknutí než tradiční internetové vyhledávání. Zatímco vyhledávače se opírají o články a texty, které váží podle spolehlivosti, generativní AI pracuje s obrovským množstvím textů a měří pravděpodobnost, s jakou se slova objevují vedle sebe. Tyto „velké jazykové modely“ se primárně snaží generovat věty, které vypadají smysluplně, nikoli nutně přesně. Například pokud se spojení „zelená vajíčka a šunka“ objevilo v jejím tréninkovém korpusu dostatečně často, je pravděpodobnější, že AI popíše „vajíčka a šunku“ jako zelená, pokud se jí na to někdo zeptá.
Společnost OpenAI, která vyvinula ChatGPT, sama přiznala, že kvůli způsobu fungování generativní AI neexistuje způsob, jak zabránit prezentaci falešných informací jako pravdy. Výzkumníci vysvětlují, že velké jazykové modely „halucinují“ podobně jako studenti, kteří při těžkých zkouškových otázkách někdy hádají a produkují věrohodná, ale nesprávná tvrzení, místo aby přiznali nejistotu. To může mít reálné důsledky. Nedávná studie ukázala, že ChatGPT nedokázal rozpoznat lékařskou pohotovost ve více než polovině případů. Situaci zhoršují i stávající chyby v lékařských záznamech, které podle britského šetření z roku 2025 postihují až čtvrtinu pacientů. Zatímco lékař si může vyžádat další testy k potvrzení diagnózy, generativní AI „dodává špatnou odpověď se stejnou jistotou jako tu správnou,“ vysvětlil jeden z výzkumníků.
Problém spočívá v tom, že generativní AI „nachází a napodobuje vzorce slov“. Být správná nebo špatná pro ni není podstatné: „Měla vytvořit větu a to udělala.“ Výzkumy ukázaly, že nástroje generativní AI zkreslují zprávy ve 45 % případů, bez ohledu na jazyk nebo geografickou oblast. Existují i vážné obavy z toho, že AI ovlivňuje životy generováním neexistujících turistických tras. Je snadné si z generativní AI dělat legraci, když radí lidem jíst kameny nebo držet náplň na pizze lepidlem. Jiné příklady však už tak zábavné nejsou – například plánovač jídel v supermarketu, který navrhl recept na výrobu chlorového plynu, nebo dietní doporučení, které vedlo k chronické toxické expozici bromidům.
Zásadní bude vzdělávání a stanovení dobrých pravidel pro vhodné a opatrné používání generativní AI, zejména s ohledem na její pronikání do vlád, byrokracie a složitých organizací. Politici již generativní AI využívají ve své každodenní práci, včetně výzkumu politik. Pohotovostní oddělení nemocnic zase používají nástroje AI k zaznamenávání poznámek o pacientech, aby ušetřila čas. Jednou z ochran je pokusit se získávat spolehlivější informace vytvořené předtím, než texty a obrázky kontaminované AI zaplavily internet. Existují dokonce nástroje, které tento proces zjednodušují, včetně jednoho vytvořeného australskou umělkyní Tegou Brain, který „vrátí pouze obsah vytvořený před prvním veřejným vydáním ChatGPT 30. listopadu 2022“. A pokud máte nutkání ověřit si příběh z úvodu tohoto článku, staré dobré knihy mohou být vaší nejlepší volbou: odkazy na to, jak britská vláda dvakrát podporovala otravu rebarborou, najdete v knihách The Poison Garden’s A-Z of Poisonous Plants a Botanical Curses and Poisons: The Shadow Lives of Plants.