公司动态
军用AI伦理原则争议

来源:AG88环亚国际 作者:hope 浏览: 2020-02-11 09:17

2016年5月24日,在格鲁吉亚第比利斯附近的瓦贾尼军事基地,军人参加2016“高贵伙伴”联合军事演习吴敏文人工智能(AI)技术的迅速发展和在军事领域的广泛应用,将助推西方军事理论家克劳塞维茨所谓“战争将对抗推向‘顶点’的趋势”,从而推高对有生力量的杀伤和对物质财富的摧毁。
这使得人工智能的军事应用面临巨大的伦理诘问。
不久前,美国国防创新委员会推出《人工智能原则:国防部人工智能应用伦理的若干建议》(简称《AI伦理若干建议》),这是美国对军事人工智能应用所致伦理问题的首次正式回应。
有舆论认为,如果不受限制地将人工智能应用于军事领域,后果可能是人类所难以承受的。
美国提出相关原则,这有积极的一面,但也需警惕美国或据此抢占道德制高点、掌控相关规则解释权,并借此遏制其他国家的发展。
美方提出五大原则在汉语中,“伦理”一般指人伦道德之理,即人与人相处所需遵循的各种道德准则。
美国《韦伯斯特大辞典》对“伦理”的解释是:一门探讨什么是好什么是坏,以及讨论道德责任与义务的学科。
必须对人工智能的开发应用加以道德约束并使其遵循伦理原则,已成为国际社会的广泛共识。
尤其在军事领域,人工智能可能涉及的“机器杀人”或“杀人机器”话题,具有特殊意义。
2019年10月31日,美国国防创新委员会发布的《AI伦理若干建议》,为美国国防部在战斗和非战斗场景中设计、开发和应用人工智能技术,提出了“负责、公平、可追踪、可靠、可控”五大原则。
“负责”原则的主要含义是,人工智能是人的产物,人是能动的、具有个人价值观和情感好恶的责任主体。
人工智能技术的决策者和开发专家,必然体现人的主体作用,他们理所当然地应该为自己的决定和作为造成的结果负责。
在军事应用中,因为造成的后果可能具有毁灭性,因此,“负责”成为第一原则。
“公平”原则的主要含义是,对人而言,不同领域、不同职级的所有人在人工智能面前是平等的,不应有区别对待。
人工智能系统无差别地向人机界面提供它的处理结果,依据结果做出判断、采取行动,机会也是公平的。
“可追踪”原则的主要含义是,不管是纯技术过程还是人机交互过程,人工智能系统都必须是可追溯和可审计的。
人工智能系统应当提供决策过程、系统选择的理由等,不仅要确保其数据和系统的透明度,而且要确保其数学模型的透明度。
“可靠”原则的主要含义是,人工智能系统在使用过程中对使用者而言是安全、可靠和不作恶的。
人类使用人工智能技术与系统的初衷是给人带来福祉、效率和便利,而不是使得人类自身的处境面临不确定的风险。
“可控”原则的主要含义是,永远将人工智能置于人的控制之下。
目前,人工智能可以在某一特定领域表现出超强的能力,例如“深蓝”战胜国际象棋特级大师、“阿尔法狗”战胜世界一流围棋选手,但人工智能本身不会产生原始的、独立的和从无到有的欲望与诉求。
也就是说,只要人类不恶意地把人工智能设置为“不可控”,人工智能“不可控”的后果就不会出现。
四大举措建议为了贯彻以上军用人工智能伦理原则,美国国防创新委员会提出了12条建议,归结起来包含四个方面举措。
一是通过国防部官方渠道将这些原则正式化。
《AI伦理若干建议》是全球第一个完整描述人工智能伦理原则的文件。
它与其他类似文件的不同之处有二:一是专门针对人工智能伦理问题,二是针对军事人工智能应用。
美国国防创新委员会提出的军用人工智能伦理原则,虽然不自动成为美国国防部的原则,但成为美国国防部认可标准的概率是很大的。
二是建立一个为国防部服务的人工智能指导委员会。
目前,美国国防创新委员会是一个功能涵盖较宽的组织,可在其中成立专门的人工智能指导委员会,进行关于伦理问题的研究探讨,制定可操作的规则、规范。
三是确保人工智能伦理原则的正确执行。
要达成这一目标,必须在军用人工智能开发应用的各个领域,对每一条原则进行细化和具体化。
例如,无论是对侦察情报的背景分析和目标筛选,还是打击指令的下达和毁伤评估等,都需要制定细致、明确和没有二义性的、可操作的执行细则和标准规范。
四是召开有关人工智能安全的年度会议等。
由于人们对人工智能伦理问题的认识还处于初级阶段,已经制定的原则是否合理有效亦有待检验。
因此,不断地实行反馈和依据反馈进行改进必不可少。
有关人工智能安全的年度会议可对伦理原则执行情况进行督查。
美国已经开始在具体军用人工智能开发项目中设立伦理咨询委员会。
例如,新美国安全中心的“技术和国家安全计划”主任保罗·斯查瑞,是“利用受监管的自主能力开展城市侦察”项目的伦理咨询委员会成员。
他的切身感受是,制定人工智能伦理原则,可使各方面专家在智能系统研发之初就法律、道德和伦理问题进行早期沟通,对于推动技术发展和结果可靠具有关键意义。
“降魔”需未雨绸缪在科学技术创新应用所导致的伦理问题方面,关于克隆技术的争议是一个里程碑式事件。
“多利羊”的诞生使得无性繁殖成为现实,随即导致克隆技术是否适应于人类的全球性恐慌与争论,最终严格禁止了克隆技术在人类自身的使用。
而对军事技术的发明应用进行伦理审视和制定伦理原则,意识觉醒和采取行动都显得滞后。
例如机关枪战地应用的滥觞,即其在第一次世界大战中的应用,使得凡尔登战役成为导致上百万人死亡的“绞肉机”。
当时几乎无人关心和讨论这一技术和武器是否符合人类的伦理道德。
及至原子弹的发明,其巨大的破坏力导致在使用中受到极大限制,其中伦理意识的觉醒不能不说是一个极为重要的因素。
平心而论,军用人工智能技术及应用在尚未造成毁灭性后果时,伦理意识的觉醒及伦理原则的制定已经受到重视,这是人类对技术发明和军事应用产生警觉的积极反应与表现。
首先,军用人工智能开发需要伦理原则的规范。
1987年,美国科学家弗雷德·科恩在实验室中第一次发明并验证了计算机病毒,人们立即认识到,电子计算机所具有的对人类的助力,完全可以转化为同等强大的破坏力。
同样,人工智能技术的突破及其所产生的作用、所具有的潜力,一方面使人们对其产生无限联想和期待;另一方面,人们也意识到,人工智能可能产生多大的创造力,就可能产生多大的破坏力。
人工智能行善还是作恶,取决于其开发者。
在军事领域人工智能的面目,狰狞的可能性或超过其迷人之处。
军用人工智能技术和此前军用技术的显著不同是,此前技术发明与应用主要用于增强或替代人的体力与技能,而人工智能技术则主要用于强化和替代人的智能。
虽然在人工智能到底是“人造智能”还是“人类智能”问题上还存在激烈争论,但人类已经在尝试将“人造智能”与“人类智能”结合起来。
“脑机接口”就是这样的例子。
科学家采取“侵入式”方式,将人工智能芯片植入人的大脑,并与人工智能系统链接。
不管这样做的主观愿望如何,客观上都不仅会对人脑造成创伤,而且后果难以预料。
用人工方式改变人类大脑的成分和结构,至少在当前技术条件下,是不符合上述人工智能五项原则中的“可靠”与“可控”原则的。
这一事例也证明了对人工智能军事应用确立伦理原则的客观必要性。
其次,在这一领域的探索具有重大意义。
美国最先制定军用人工智能伦理原则,体现了美国人工智能技术大量使用于军事领域的迫切现实需求。
美国防部发布的《国防部数字现代化战略》,给国防部联合人工智能中心明确的任务是,“加速采用并集成人工智能能力”:确保获取最先进人工智能能力;开发并维护人工智能技术储备,以便人工智能能力能够被快速、大规模部署;向作战部队提供运用人工智能遂行关键任务的能力等。
在此推动下,美军在情报获取与研判、大数据处理、智能辅助决策、打击目标选择和效果评估等各个环节,都在大量采用人工智能技术。
若不对人工智能军事应用进行伦理规范,不仅可能导致战场使用时的不确定性增加,而且可能造成武器体系和力量结构的内部混乱。
从负责、公平、可追踪、可靠、可控等五条原则的内容来看,在表述上是中性的。
至于这五条是否科学合理,是否已经足够,有待时间和实践的检验,并可以对实行的效果进行检视,以便充实、改进和完善。
警惕美国掌控解释权世界各国在人工智能军事化方面的推进,客观上形成了新一波人工智能军备竞赛。
任何竞赛都需要规则。
当世界各国特别是技术和军备大国在达成一定共识之后,应该将人工智能伦理原则确立为人工智能技术武器化的标准之一,遵循这样的标准应该成为此类军事项目立项的前提。
实际上,掌握对人工智能伦理原则的解释权,甚至比确立这些原则更加重要。
美国军政界对此是非常娴熟的。
在美国国内政治架构中,立法机构对自己所立之法没有司法解释权,司法解释权在司法系统。
然而,在对外关系中,“美国派”长期以来往往既是规则的制定者,又垄断对自己所制定规则的解释权。
如果人工智能伦理规范得到广泛认同,实际上它在某种程度上就具有了法规效力。
对于美国既是军用人工智能伦理原则的制定者又垄断其解释权这一点,应该得到国际社会的高度重视。
世界各国特别是技术和军备大国,应积极参与军用人工智能伦理规范的制定,分享话语权。
这样既有利于军用人工智能伦理原则制定的公平公正,又利于其有效施行。
(作者系国防科技大学信息通信学院教授)来源:2020年2月5日出版的《环球》杂志 第3期《环球》杂志授权使用,其他媒体如需转载,请与本刊联系本期更多文章敬请关注《环球》杂志微博、微信客户端:“环球杂志”

AG88环亚国际