Vážné nebezpečí vojenského použití systémů umělého rozumu tkví v jeho účasti v přijetí rozhodnutí o prvním útoku. Píše o tom Breaking Defense s odkazem na bývalého náměstka ministra obrany USA Roberta Warka. (Foto: US Army)

Wark má za to, že se umělý rozum nesmí účastnit kontroly nad jadernými zbraněmi, protože se odpalují podle určitých parametrů a ukazatelů.

V některých situacích může umělý rozum odhadnout neohrožující faktory jako nebezpečné, což je „znepokojivá perspektiva“.

​Jako příklad uvádí ruský systém Perimetr, který může vyhodnotit seismickou aktivnost jako jaderné výbuchy, po čemž vyšle žádost do štábu, a nedostane-li náhodou odpověď, může dát povel k vypuštění mezikontinentálních balistických raket.

Wark dodal, že použití umělého rozumu ve vojenských účelech může mít tragické následky dokonce bez jeho přímé účasti v ovládání jaderných zbraní.

Může třeba jít o jeho použití v rozboru průzkumných dat, a rovněž v systémech včasného varování.

„Představte si, že systém umělého rozumu na velitelství čínské armády zanalyzoval data průzkumu, a prohlásil, že USA chystají útok na Čínu, proto doporučuje preventivní úder,“ řekl Wark.

Nicméně poznamenal, že umělý rozum může být nepochybně užitečný pro vojáky, jeho použití však má být omezené a nesmí se týkat jaderných zbraní, poněvadž to může mít za následek „katastrofický scénář“.