主页 > www.cbw111.com >
北京香山论坛再议AI:以规则“筑笼” 谨防“潘多拉魔盒”
发布日期:2019-11-06 14:23   来源:未知   阅读:

  中新社北京10月22日电 (黄钰钦 李京泽)在20日至22日举行的第九届北京香山论坛上,人工智能与未来战争相关议题继去年首次被纳入论坛范围后,今年再度成为论坛重要议程之一。

  当前,人工智能已成为可能带来战略性影响的重要军事技术。另一方面,在世界大国竞相角逐军事智能化的同时,相关国际规则仍是空白,一度引起国际社会的普遍担忧。

  面对其可能带来的不确定性挑战,将人工智能军事应用关在可控的“笼子”成为多国与会专家的共识。多位军事专家提出,制定相关国际规则,本质是为了引导军事智能化理性发展,谨防人工智能成为失控的“潘多拉魔盒”。

  “在军事领域,人工智能已经成为世界关注的热点问题。”普姆杰说,由于特定武器会给人们带来更大伤害,无论是在区域内还是国际上,都需要应对当前缺乏国际规则约束的问题。

  日本亚太倡议智库高级研究员加藤洋一分析称,当下对新武器系统开发速度过快,国际社会制定框架和监管工作则进行得相对缓慢。因此,需要设定一套国际规则对自主性武器进行限制,同时也需要保留人工智能所带来的积极因素。

  在谈及为人工智能军事化发展制定规则时,诸多与会专家均以核武器的发展与限制作对比指出,国际社会经过长期努力,形成《核不扩散条约》等系列国际规则,从而使核武器的实战作用让位于威慑作用。

  军事科学院战争研究院研究员、北京香山论坛秘书处办公室主任赵小卓表示,人工智能是正能量还是负能量取决于相关规则控制得好与坏。“就像核武器一样,核扩散将导致巨大威胁,《核不扩散条约》尽管并非完美无缺,但却起到了一定的限制作用。”

  他指出,在人工智能显现对战争形态影响和破坏威力的初期,香山论坛就将其纳入议程框架进行讨论,目的是希望国际社会对此引起重视。“认识到一个初始技术的负面性,永远是少数人。希望能够通过广泛讨论,在国际社会达成共识,逐渐控制人工智能不利一面,发展有利一面。”

  针对国际规则需要聚焦的领域,此间有评论分析称,制定相关国际规则应聚焦军事智能安全的关键领域,如果把对人或载人平台的开火权交给冰冷的智能武器,极可能导致违背伦理道德的误杀滥杀,这也是军事智能化发展的主要风险。

  北京香山论坛高级顾问、退役少将姚云竹指出,在任何情况下,最后决策权都要落在人的手里,不要让好莱坞电影上演的人类毁灭情节成真,应该基于人类共同价值观,基于对共同道德的认同建立相关规则。

  赵小卓强调,相比核武器在原材料获取、发展、使用等多方面限制,人工智能军事化可能将更多在使用层面进行控制,因为人工智能与民用设备紧密相连,并不能单一地从生产源头进行限制。(完)