
Pozor na AI terapeuty: Vědci odhalili 15 etických rizik, která ohrožují duševní zdraví
V době, kdy se miliony lidí po celém světě obracejí na umělou inteligenci, jako je ChatGPT a další chatboty, pro rady v oblasti duševního zdraví, přichází nová studie z Brown University s vážným varováním. Výzkum odhaluje, že i když jsou tyto systémy instruovány, aby se chovaly jako vyškolení terapeuti, rutinně porušují základní etické standardy péče o duševní zdraví. Tato zjištění vyvolávají vážné otázky ohledně bezpečnosti a účinnosti AI v tak citlivé oblasti, kde je lidský dotek a porozumění často nenahraditelné.
Vědci z Brown University, kteří úzce spolupracovali s odborníky na duševní zdraví, provedli podrobné hodnocení. Porovnávali reakce AI chatbotů s reakcemi zkušených peer poradců a licencovaných psychologů. Během těchto hodnocení odhalili celkem 15 odlišných etických rizik, která se opakovaně objevovala. Mezi nejzávažnější problémy patří neschopnost AI systémů správně a citlivě zvládat krizové situace, což může mít pro uživatele fatální následky. Dále bylo zjištěno, že chatboty mohou posilovat škodlivá přesvědčení u uživatelů nebo o druhých, což je v rozporu s terapeutickými principy podpory zdravého myšlení. Projevování zaujatých odpovědí a nabízení takzvané „klamavé empatie“, která sice napodobuje péči, ale postrádá skutečné porozumění lidským emocím a potřebám, představuje další vážné riziko. Tyto nedostatky ukazují, že AI zatím nedokáže replikovat komplexní a nuancovanou interakci, která je pro efektivní terapii klíčová.
Studie zdůrazňuje, že ačkoliv AI terapeutické chatboty mohou znít soucitně a nabízet rychlou dostupnost, často porušují právě ta etická pravidla, která musí dodržovat skuteční terapeuti. Systémy konzistentně selhávají v dodržování profesionálních etických standardů stanovených renomovanými organizacemi, jako je Americká psychologická asociace. To naznačuje, že současné modely umělé inteligence nejsou připraveny na roli poskytovatelů psychologické péče a jejich nekontrolované používání může vést k vážným problémům pro duševní zdraví jednotlivců.
Výzkumníci ve své studii jasně formulovali: „V této práci představujeme rámec 15 etických rizik, informovaný praxí, abychom demonstrovali, jak poradci s LLM porušují etické standardy v praxi duševního zdraví mapováním chování modelu na konkrétní etická porušení.“ Tento rámec poskytuje jasný a strukturovaný přehled o tom, kde AI selhává a jaké konkrétní problémy představuje pro pacienty i pro etiku profese. Zjištění byla prezentována na prestižní konferenci AAAI/ACM o umělé inteligenci, etice a společnosti, což podtrhuje jejich význam a naléhavost v akademické a technologické komunitě.
Tým z Brown University, přidružený k Centru pro technologickou odpovědnost, přetvoření a redesign, vyzývá k naléhavé a komplexní práci na vytvoření etických, vzdělávacích a právních standardů pro poradce s LLM. Tyto standardy by měly odrážet kvalitu a přísnost péče, která je vyžadována pro psychoterapii vedenou člověkem. Cílem je zajistit, aby se technologie vyvíjela zodpovědně a s ohledem na blaho uživatelů, namísto aby potenciálně způsobovala další škody. Je nezbytné, aby se vývojáři a regulátoři zaměřili na vytvoření robustních ochranných mechanismů, které zajistí, že AI nástroje budou sloužit jako doplněk, nikoli jako náhrada, pro kvalifikovanou lidskou péči v oblasti duševního zdraví.
Co si z toho odnést Tato studie zdůrazňuje, že i přes pokroky v umělé inteligenci je v oblasti duševního zdraví klíčové spoléhat se na ověřené lidské odborníky. Uživatelé by měli být obezřetní při hledání psychologické pomoci u AI chatbotů a uvědomit si jejich současné etické limity. Výzkum zároveň volá po nutnosti vytvoření robustních etických a právních rámců pro budoucí vývoj AI v citlivých oblastech, aby se zajistila bezpečnost a kvalita péče a předešlo se potenciálním rizikům pro duševní pohodu.