Lékaři už denně používají AI: Jak zajistit, aby umělá inteligence v nemocnicích skutečně pomáhala a byla bezpečná?
InovaceUmělá inteligence (AI) se jeví jako slibný nástroj pro urgentní příjmy, avšak její skutečný přínos a bezpečnost v reálném klinickém prostředí zatím nejsou plně prokázány.
Umělá inteligence (AI) se jeví jako slibný nástroj pro urgentní příjmy, avšak její skutečný přínos a bezpečnost v reálném klinickém prostředí zatím nejsou plně prokázány. AI sice dokáže generovat seznamy možných diagnóz na základě textových informací, ale postrádá schopnost pozorovat pacienta, vnímat jeho dech nebo strach, provádět vyšetření, komunikovat s rodinou nebo nést odpovědnost za další kroky. V podstatě nenahrazuje praxi urgentní medicíny, nýbrž nabízí písemný názor založený na vybraných informacích.
Existuje významný rozdíl mezi vytvořením seznamu možných diagnóz a skutečným zlepšením výsledků pro pacienty. Delší seznam sice může lékaři pomoci k širšímu uvažování, ale zároveň může vést k novým problémům, jako jsou zbytečná vyšetření, nadměrná léčba, zvýšená pracovní zátěž nebo neoprávněná důvěra v diagnózu, která zní sice věrohodně, ale ve skutečnosti je chybná. Navíc některé referenční případy použité ve studiích mohly být veřejně dostupné již v době trénování AI, což sice nepodkopává zjištění z urgentních příjmů, ale je dalším důvodem k opatrnosti při interpretaci výsledků.
Otázkou tedy není, zda AI může lékařům pomoci s obtížnými případy, ale spíše jak by se měla testovat a řídit v reálných klinických podmínkách, například v národních zdravotnických systémech. Tato otázka je naléhavá, neboť průzkum Royal College of Physicians zjistil, že 16 % britských lékařů již používá nástroje AI v klinické praxi každý den a dalších 15 % týdně. Lékaři tyto nástroje zavádějí do své každodenní práce dříve, než nemocnice a zdravotnické systémy řádně vypracovaly postupy pro jejich hodnocení, bezpečné používání, detekci škod nebo určení odpovědnosti v případě selhání.
Řešením není jen „udržet člověka v rozhodovacím procesu“, neboť tato fráze sama o sobě nic neřeší. Je potřeba přesně definovat, který člověk, v jaké roli a s jakou autoritou. Lékařova schopnost přepsat návrh AI sama o sobě není bezpečnostním systémem. Někdo stále musí rozhodnout, které nástroje se budou používat, kdo může měnit jejich chování, jak se budou odhalovat škody a kdo ponese odpovědnost, když nástroj tiše začne selhávat. Současné studie představují skutečný pokrok, ale samy o sobě nemění způsob, jakým by se medicína měla praktikovat. Správnou reakcí není tyto systémy zakazovat, ani je tiše nechat stát se součástí rutiny, než se vše řádně promyslí. Měly by se testovat v reálných klinických podmínkách, používat jako podpora pro druhý názor, nikoli jako náhrada klinického úsudku, a jejich účinnost by se měla měřit podle toho, co je pro pacienty skutečně důležité: péče, která je lepší, bezpečnější a rychlejší.
The Conversation