San Francisco v obležení AI: Polovina billboardů ukazuje, jak se průmysl umělé inteligence vidí
InovaceSan Francisco, často vnímané jako technologická bublina, se stalo epicentrem posedlosti umělou inteligencí. Tradičně billboardy podél dálnice 101 v Silicon Valley odrážely kolektivní myšlení technologického průmyslu.
Nová studie publikovaná v BMJ Open odhaluje, že až polovina zdravotních odpovědí generovaných umělou inteligencí je chybná, přestože zní velmi přesvědčivě. Vědci zjistili, že chatboti často poskytují neúplné nebo zcela vymyšlené vědecké reference, což představuje značné riziko, neboť laický čtenář nemá důvod pochybovat o obsahu pod zdánlivě precizním seznamem citací.
Hlavním důvodem nepřesností je způsob fungování jazykových modelů. Tyto modely „nevědí“ fakta, ale pouze předpovídají statisticky nejpravděpodobnější další slovo na základě tréninkových dat a kontextu. Jejich tréninkový materiál zahrnuje jak recenzované vědecké práce, tak i diskuse na sociálních sítích, wellness blogy a další nespolehlivé zdroje. Studie záměrně kladla otázky, které měly chatboty vést k zavádějícím odpovědím, což je standardní technika testování bezpečnosti AI. I když to může nadhodnocovat míru chybovosti oproti neutrálnějším otázkám, odráží to reálné používání těchto nástrojů většinou lidí, kteří používají bezplatné verze a nekladou pečlivě formulované dotazy.
Zjištění této studie nejsou ojedinělá. Únorová studie z roku 2026 v Nature Medicine ukázala, že ačkoli samotní chatboti dokázali správně odpovědět na lékařské otázky téměř v 95 % případů, když je používali běžní lidé, správnou odpověď získali méně než ve 35 % případů. To naznačuje, že problém není jen v přesnosti AI, ale také v tom, zda uživatelé dokážou odpovědi správně pochopit a využít. Další studie v Jama Network Open testovala 21 předních modelů AI a zjistila, že při poskytnutí pouze základních informací (věk, pohlaví, symptomy) modely selhaly ve více než 80 % případů při navržení správné sady možných diagnóz. Přesnost se výrazně zlepšila (nad 90 %), když byly přidány výsledky vyšetření a laboratorní testy. Jiná americká studie v Nature Communications Medicine zase zjistila, že chatboti snadno opakovali a rozváděli vymyšlené lékařské termíny, které jim byly vloženy do dotazů.
Tyto nástroje umělé inteligence nezmizí a mají své místo. Mohou efektivně shrnovat složitá témata, pomáhat s přípravou otázek pro lékaře nebo sloužit jako výchozí bod pro vlastní výzkum. Je však zásadní je nepovažovat za samostatné lékařské autority. Pokud se rozhodnete použít chatbot pro lékařskou radu, vždy si ověřte veškerá zdravotní tvrzení, berte reference jako návrhy k prozkoumání spíše než jako fakta a buďte obezřetní, když odpověď zní sebejistě, ale neobsahuje žádná upozornění na možnou nepřesnost.
Fast Company