人工智能武器之辯:新寵還是禁忌?
近年來,人工智能成為美軍推崇的前沿軍事技術(shù)之一,人工智能武器的研發(fā)和運用隨之成為一種潮流。然而,對于這一新寵,美國不少學者表現(xiàn)出擔憂,并就人工智能武器的作戰(zhàn)運用展開辯論和展望。
美國學者指出,自2014年提出第三次“抵消戰(zhàn)略”以來,美軍一直將人工智能武器視為優(yōu)先發(fā)展方向。當前,研發(fā)工作已初具雛形,一個典型代表是陸軍先進目標定位與殺傷性自主系統(tǒng),即外界熟知的“阿特拉斯”殺人機器人。雖然名字嚇人,但其主要作用是協(xié)助人類發(fā)現(xiàn)目標、篩選優(yōu)先打擊目標和做好射擊前準備等,“最后一步”扣動扳機仍由人類發(fā)出指令。此外,美軍還希望將人從坦克、裝甲車、戰(zhàn)斗機和戰(zhàn)艦中解放出來,讓人工智能武器成為應對未來沖突的主要執(zhí)行者。
對于人工智能武器的作戰(zhàn)運用,美國國內(nèi)存在較大分歧。
首先是自主程度之辯。部分學者認為,要進一步提升人工智能武器的自主程度,令其在緊急情況下自主遂行目標打擊等任務。另一部分人認為,賦予人工智能武器過多自主性,可能會造成誤擊、誤傷事件,而且,這些裝備在復雜環(huán)境下未必能做出最佳選擇。
其次是作戰(zhàn)效果之辯。有觀點認為,人工智能武器可有效降低己方人員傷亡,最大程度增加敵方損失。也有學者以微型無人機和殺人機器人為例稱,上述裝備降低了獲取難度和使用門檻,敵方武裝人員可借此實施非對稱打擊。
再次是作用發(fā)揮之辯。美軍“鷹派”人士認為,人工智能武器的主要作用是“取代人類”,對敵方實施更大規(guī)模的打擊,但更多人認為,其主要作用應立足于協(xié)助人類,遂行后勤保障和維修保養(yǎng)等非作戰(zhàn)任務。
最后是思維倫理之辯。美國軍事記者西德尼等人認為,人工智能殺傷武器無法做出“創(chuàng)造性抉擇”,對于倫理道德問題的把握與人類有較大差距。也有觀點認為,隨著科技水平的提升,人工智能武器的“理性優(yōu)勢”將進一步凸顯。
針對人工智能殺傷武器的使用,美國國防部2012年曾頒布《國防部第3000.09號指令》。不過迄今為止,尚未有任何武器系統(tǒng)被納入該指令的應用范疇。
對于人工智能武器的未來,一些學者認為,“人機回圈”的研發(fā)和運用模式將得以延續(xù),未來人類仍將是人工智能武器的研發(fā)者和主宰者,需秉持“嚴肅認真”的態(tài)度推動其發(fā)展。在發(fā)展過程中,人工智能武器必須走“窄路”,將其使用范圍嚴格控制在防御和反擊內(nèi),如擊落來襲導彈、快速計算子彈落點、在狙擊手二次擊發(fā)前將其擊斃等。也有一些學者和軍方人士提出,人工智能武器未必能給美軍帶來軍力優(yōu)勢和戰(zhàn)略威懾,稍有不慎,還可能演變成大國間的軍備競賽。當前,中國等26個國家已承諾不研發(fā)殺人機器人,美國及其盟友尚未作出上述承諾。(胡小刀)
分享讓更多人看到