【新唐人北京时间2024年04月30日讯】“谁生谁死”的决定权应该由人类决定还是交给AI,AI自主武器系统迎来“奥本海默时刻”。在世界AI武器系统控制和监管会议上,与会代表呼吁,应尽快通过监管规则和规范,时间已经不多了。
综合媒体报导,周一(4月29日),在奥地利维也纳主办的关于人工智能的自主武器系统和监管挑战会议上,与会者呼吁尽快采取新的方法和措施来规范人工智能在武器系统中的作用。
本次会议为期两天,主题为“十字路口的人性:自主武器系统和监管挑战”,参加者包括国际组织、非政府组织,以及来自143个国家的特使。
在会议开幕词中,奥地利外交部长亚历山大·沙伦贝格(Alexander Schallenberg)表示,“这是我们这一代人的奥本海默时刻”、 “现在是就国际规则和规范达成一致的时候,以确保人类能控制机器人,我们不能错过这一时机。”
他说,“至少我们要确保,‘谁生谁死’的决定权仍掌握在人类手中,而不是机器手中。”
随着人工智能技术的快速发展,无需人工干预即可杀人的武器系统越来越变成现实,这给世界带来了道德和法律挑战,大多数国家及大多数人认为,必须尽快解决这一问题。
但是,联合国多年的讨论没有产生任何实际质效果,在本次会议上,许多与会者表示,采取行动的窗口正在迅速关闭。
红十字国际委员会主席米里亚娜·斯波利亚里奇(Mirjana Spoljaric)在会议的小组讨论中敦促:“立即采取行动,加快速度,这一点非常重要”。
有外交官表示,乌克兰的无人机在受到信号干扰,切断与操作员的联系时,它能自行找到到达目标的路径。
世界各国政府已经采取措施与企业合作,将AI工具纳入防务。美国五角大楼正在向AI初创公司投入大量资金,欧盟上周也向Thales SA提供资金,建立一个图像数据库,以评估战场目标。
Alphabet Inc.的AI平台DeepMind Technologies的早期投资者贾恩·塔林(Jaan Tallinn)表示,“我们已经看到,人工智能经常犯错,从将裁判的光头误认为是足球,到自动驾驶汽车无法识别穿马路的行人导致行人死亡”,“我们必须非常谨慎地对待这些系统的准确性,无论是在军事还是民用领域”。
人工智能对人类带来的威胁早就引发了众多科技人士的担忧,早在2017年在澳洲墨尔本举行的国际人工智能联合会议上,特斯拉首席执行官马斯克和其他领先人工智能专家共116人,联合呼吁联合国在全球禁止使用具有杀伤性的机器人,包括无人机、坦克和机关枪等武器。
这些科技专家们警告说,“一旦这个潘多拉的盒子被打开,这将很难关闭。”他们担心目前正在进行的杀人机器人军备竞赛,有可能引发继火药和核武器之后的“第三次战争革命”。
(记者李郦编译/责任编辑:林清)