AI v konfliktech: Mění se role člověka, nebo je lidský dohled nad autonomními zbraněmi jen iluzí?
InovaceVyužití umělé inteligence ve válečných konfliktech je předmětem intenzivního právního sporu mezi společností Anthropic a Pentagonem. Tato debata získává na naléhavosti, neboť AI hraje stále významnější roli v současném konfliktu s Íránem.
Využití umělé inteligence ve válečných konfliktech je předmětem intenzivního právního sporu mezi společností Anthropic a Pentagonem. Tato debata získává na naléhavosti, neboť AI hraje stále významnější roli v současném konfliktu s Íránem. Umělá inteligence již dávno neslouží pouze k analýze zpravodajských informací, ale stává se aktivním hráčem na bojišti.
Systémy AI nyní v reálném čase generují cíle, řídí a koordinují zachycování raket a navádějí roje autonomních dronů. Veřejná diskuse o použití autonomních zbraní řízených umělou inteligencí se často soustředí na otázku, do jaké míry by měl člověk zůstat „v rozhodovacím procesu“ (tzv. „human in the loop“).
Podle současných směrnic Pentagonu má lidský dohled zajišťovat odpovědnost, kontext a nuance, a zároveň snižovat riziko kybernetických útoků. Rostoucí autonomie AI systémů však vyvolává otázky, zda je tato představa o lidském dohledu v praxi udržitelná, nebo zda se jedná spíše o iluzi. Tato situace podtrhuje naléhavou potřebu přehodnotit etické a právní rámce pro nasazení AI v ozbrojených konfliktech a zajistit skutečnou kontrolu nad technologiemi, které mají potenciál zásadně změnit povahu válčení.
MIT Technology Review