G7擬制定AI武器限制協議 專家:中俄是破口

Facebook

【新唐人北京時間2024年06月14日訊】G7峰會即將於本月13至15日在意大利舉行。日媒披露,屆時限制AI武器發展的協議將被寫入G7聯合聲明。美國媒體直言中、俄不會接受限制,相關協議恐難以起效。軍事專家則警告,一旦發展AI 自主殺人機器,其對人類的威脅遠大於冷戰時期的軍備競賽。

日報共同社報導說,有外交消息人士透露,在即將舉行的七國集團(G7)峰會上,將制定軍用人工智能(AI)的開發和使用規則。日美歐擬在G7峰會的聯合聲明中,針對AI寫入「有必要在軍事領域推進負責任的開發與使用的機制」的内容,並已為此展開協調。

報導指,關於AI的軍事利用,聲明草案將要求各國遵守國際法,尤其是應顧及到人道主義。此外還提及AI對司法的影響,警告「AI的使用絕不能妨礙法官的判斷和司法獨立性」等。G7 峰會的聯合聲明出示的內容或影響今後各國對AI應用管制的討論。

針對上述消息,美國之音報導說,「這套西方主導的規範對中、俄等軍事大國幾乎不具約束力,恐怕這才是最大的隱憂」。報導指出,中俄就連美國推動的「負責任使用軍用AI」方案都拒絕簽署。觀察人認為,在這樣的情況下,「各國野蠻擴張AI軍武的風險恐加劇」。

報導提到,去年底在杭州亞運田徑場上搬運鐵餅的「呆萌」機器狗,在今年5月底已經背上機關槍,在中柬舉行的聯合軍演中成為中共軍方執行偵察和突擊任務的「戰犬」。只不過,或許北京當局擔心AI武器造反,所以現在這款機器戰犬仍由人工遙控,智能程度屬「弱AI」等級。

對此,澳大利亞南威爾士大學的AI首席科學家沃爾什(Toby Walsh)表示:「要將原本由人類控制的半自動武器系統改為無人化,是件簡單的事,或僅須改幾行程序碼就做得到。」

他強調,AI技術如果用於軍事防禦系統救人是好事,但「如果用於失序殺人,絕對是作惡」。

報導援引分析人士的看法指出,更嚴重的是,軍用AI如果搭載類神經網絡機器深度學習技術,這樣的運用可能讓武器交由機器自主控制,變身為 「致命性自主武器」。而這些超級AI軍武一旦落入恐怖分子之手,後果不堪設想。

雖然各國目前都堅稱無意開發「致命性自主武器」,但沃爾什擔心,各國AI軍事擴張的不透明性,可能給人類帶來比冷戰時期更危險的威脅。

報導介紹了美、中兩國在軍用AI運用方面已經取得的一些進展。例如:美國軍援烏克蘭的攻擊型無人機就已具備人臉辨識功能,「號稱可鎖定俄軍將領,執行精準的斬首或自殺任務」。而中共軍方的AI軍武開發進度雖隱密,但火箭軍的AI導彈據稱發射後仍可以即時控制;空軍的「翼龍」無人機系列也已成熟,並銷往巴基斯坦、緬甸和中東等國。

不過,中方的AI武器發展仍受限於高科技人才和工程設計經驗不足,外界「難以確認中國AI軍武的真正實力」。

中共國防部發言人吳謙曾於去年底表態稱,中方願意就軍用AI的發展規範與國際社會尋求共識,以確保AI武器系統「永遠處於人類控制之下」 。

對此,台灣國防安全研究院中共政軍與作戰概念研究所助理研究員王綉雯對美國之音表示,中方的思維重點是防止自家軍人或機器叛變。她說:「共產黨它擔心,搞不好解放軍的機器人會拿它的機槍對著中南海,機器人叛變也不一定」。

(責任編輯:李明)

相關文章