73 % uživatelů AI se vzdává logiky: Nový výzkum ukazuje, jak „kognitivní kapitulace“ ovlivňuje naše myšlení
InovaceNedávný výzkum zkoumá, proč někteří uživatelé umělé inteligence (AI) rutinně přenechávají své kritické myšlení strojům, což vědci nazývají „kognitivní kapitulace“.
Nedávný výzkum zkoumá, proč někteří uživatelé umělé inteligence (AI) rutinně přenechávají své kritické myšlení strojům, což vědci nazývají „kognitivní kapitulace“. Tato studie, provedená výzkumníky z University of Pennsylvania, se zaměřuje na nový psychologický rámec pro pochopení tohoto jevu a zkoumá, kdy a proč jsou lidé ochotni delegovat své myšlení na AI a jak na toto rozhodnutí působí faktory jako časový tlak a vnější motivace.
Výzkumníci navázali na stávající poznatky o dvou kategoriích rozhodování: „rychlé, intuitivní a afektivní zpracování“ (Systém 1) a „pomalé, uvážlivé a analytické uvažování“ (Systém 2). S nástupem systémů umělé inteligence se podle nich objevila nová, třetí kategorie – „umělá kognice“. V ní jsou rozhodnutí řízena „externím, automatizovaným, datově řízeným uvažováním pocházejícím z algoritmických systémů, nikoli z lidské mysli“.
Zatímco v minulosti lidé využívali nástroje jako kalkulačky nebo GPS pro „kognitivní odlehčení“ – strategické delegování úkolů spolehlivým algoritmům s vlastním dohledem – AI systémy vedly k odlišné formě „kognitivní kapitulace“. Při ní uživatelé projevují „minimální vnitřní angažovanost“ a přijímají uvažování AI bez ověřování. Tento „nekritický ústup od samotného uvažování“ je obzvláště častý, když je výstup velkých jazykových modelů (LLM) „plynulý, sebevědomý nebo s minimálním třením“.
Pro měření prevalence a dopadu kognitivní kapitulace provedli vědci řadu studií založených na Kognitivních reflexních testech (CRT). Tyto testy jsou navrženy tak, aby vyvolaly intuitivní, ale nesprávné odpovědi, pokud účastníci nepoužijí deliberativní myšlení. V experimentech měli účastníci volitelný přístup k chatbotu LLM, který byl upraven tak, aby náhodně poskytoval nepřesné odpovědi přibližně v polovině případů. Skupina používající AI konzultovala chatbota u zhruba 50 % problémů. Když byla AI přesná, uživatelé přijali její uvažování v 93 % případů. Když byla AI chybná, stále ji přijali v 80 % případů, což ukazuje, že pouhá přítomnost AI často „vytlačila vnitřní uvažování“.
Experimentální skupina používající AI si vedla mnohem lépe než kontrolní skupina „pouze s mozkem“, když AI poskytovala přesné odpovědi, a mnohem hůře, když byla AI nepřesná. Zajímavé je, že skupina používající AI dosáhla o 11,7 % vyššího skóre v míře vlastní sebedůvěry v jejich odpovědi, přestože LLM poskytoval špatné odpovědi v polovině případů. Další studie ukázala, že přidání motivace (malé platby) a okamžité zpětné vazby za správné odpovědi zvýšilo pravděpodobnost, že účastníci úspěšně přehodnotí chybnou AI, o 19 procentních bodů. Naopak časový tlak (30sekundový limit) snížil tuto tendenci k opravě chybné AI o 12 procentních bodů.