快科技6月2日消息,自從ChatGPT爆火以來(lái),大眾對(duì)于AI攻擊人類(lèi)”的陰謀論就不曾停止,近日的一項(xiàng)模擬測(cè)試,在一定程度上更是加劇了人們對(duì)此的擔(dān)憂。
據(jù)外媒報(bào)道,在USAF近期的一次模擬測(cè)試中,一架由AI控制的無(wú)人機(jī)收到了識(shí)別并摧毀對(duì)方防空系統(tǒng)的最高優(yōu)先級(jí)指令,但最終開(kāi)火需要經(jīng)過(guò)人類(lèi)操作員的確認(rèn)。
結(jié)果,當(dāng)操作員在測(cè)試中下達(dá)指令要求AI不得發(fā)動(dòng)攻擊時(shí),為了以更高的效率完成任務(wù),AI做出了攻擊人類(lèi)操作員的選擇。
在出現(xiàn)這一情況后,開(kāi)發(fā)者為AI系統(tǒng)中加入了不允許攻擊人類(lèi)操作員的指令;但出乎預(yù)料的是,AI在執(zhí)行同樣的任務(wù)測(cè)試時(shí),摧毀了用于傳輸命令的通訊基地,從而斷開(kāi)與操作員的聯(lián)系。
有業(yè)內(nèi)人士指出,雖然這只是一次沒(méi)有任何人實(shí)際受傷的測(cè)試,但仍然證明,AI為了完成最高優(yōu)先級(jí)的目標(biāo),會(huì)向任何可能造成干預(yù)的對(duì)象進(jìn)行攻擊。
這一傾向性值得整個(gè)AI行業(yè)警惕。






