北京时间7月19日上午消息,包括特斯拉CEO马斯克、谷歌AI子公司DeepMind的三名创始人在内的多位科技大佬日前签署承诺书,并呼吁各界不要开发“AI自主武器”。
这是全球研究人员、高管又一次以非官方名义组织起来,反对开发类似的技术。承诺书警告说,在没有人的干预下,如果武器系统可以利用AI技术挑选、攻击目标,不只会带来道德威胁,还会带来切切实实的危害。倡导者认为,从道德层面看,夺取人的生命是一个重要决定,永远不能将决定权交给机器。从切实威胁的角度看,如果这种武器扩散,对每一个国家和个人来说可能都会是巨大威胁。
在瑞典首都斯德哥尔摩召开的2018 IJCAI(国际人工智能联合会议)上,该承诺书对外公开。承诺书由研究机构Future of Life Institute组织发起,该机构的目标是帮助人类减轻风险。
在承诺书上签名的还有Skype创始人扬·塔里安(Jaan Tallinn)以及世界上最知名的AI研究人员,比如斯图尔特·罗素(Stuart Russell)、约书亚·本吉奥(Yoshua Bengio)和施米德胡贝(Jürgen Schmidhuber)等。
MIT物理学教授马克斯·泰格马克(Max Tegmark)也在承诺书上签名,他在声明中说,承诺书向我们证明AI领袖已经从言论转向行动。泰格马克还认为承诺书做了政治家没有做的事:对AI军事研发进行约束。泰格马克表示:“就像生物武器一样,可以自主决定杀死人类的武器同样让人厌恶,极不稳定,我们要用同样的方式处理它。”
之前曾有人要求在国际范围内对自主武器进行监管,但是收效甚微。倡导者认为,应该对致命自主武器(又叫作LAWS)进行限制,就像对化学武器和地雷进行限制一样。不过什么才是自主武器系统?什么不是?很难明确区分。即使真的有了法律,要推行也很难,因为开发AI武器的技术已经扩散,积极开发的国家限制愿意也不强烈。
军事分析师保罗·斯查瑞(Paul Scharre)曾经写过一本书,讨论战争和AI的未来,他认为承诺书不会对国际政策造成影响,争论相当复杂。斯查瑞认为,AI研究人员应该持续参与进来,不断向政策制定者解释,告诉他们为什么应该担心自主武器,这一点正是目前所缺乏的。
斯查瑞还说,对于承诺书的主题,大多政府都是赞同的,也就是说个体不应该开发瞄准个体的AI系统,但在国防领域,军事AI已经传播,“猫已经从袋子里跑出来了。”斯查瑞说:“至少有30个国家已经拥有监督式自主武器,用来反击火箭和导弹。真正的争论在于中层空间,不过新闻稿描述得比较模糊。“
从国际形势看,尽管全球监管不会很快到来,但最新的一些事件向我们暗示,一连串的活动(比如今天的承诺书)可能会带来转机。例如,之前谷歌曾帮助五角大楼开发非致命AI无人机工具,员工知道后抗议。几周之后,谷歌公布新研发指南,承诺不会开发AI武器系统。韩国KAIST大学也曾发生类似的抗议活动,最终KAIST承诺不会开发伤害人类尊严的军事AI技术。
在两个案例中我们可以看出,涉事机构并没有承诺不开发其它非致命军事AI工具;他们只是承诺杀死一个人时,不会让计算机单独做决定。
承诺书内容如下:
在军事系统中,AI将会扮演更重要的角色。使用AI时,哪些行为是可以接受的,哪些不可接受,公民、政策制定者、领袖必须区分,这是一项紧迫的任务,也是必须去做的。
基于此,我们签署并同意这样一份承诺书:夺取一个人的生命时,决定权不应该交给机器,永远不能。其中有道德的原因,我们不应该让机器做出夺取某人生命的决定,而让其它人成为替罪羊,或者没有人被定罪。
之所以这样认为还有务实的一面:致命自主武器在没有人类干预的前提下挑选、攻击目标,会对每一个国家和个人造成威胁。几千名AI研究人员认为,如果夺取人类生命时没有风险,不追究责任,没有难度,致命自主武器极有可能会变成暴力和压迫的强大工具,当它与监控、数据系统连接时会变本加厉。
还有一点要说明,致命自主武器与核武器、化学武器、生物武器有一些完全不同的地方,某个团体如果采取单方行动,极易引发军备竞赛,对此,国际社区没有技术工具、全球治理系统进行管控。站在国家和全球安全的角度看,抨击并预防这样的军备竞赛应该是极为重要的事。
我们郑重签名,呼吁政府和政府领袖用强有力的国际规范、监管法规和法律反对致命自主武器,为人类创造一个更光明的未来。然而现状难以让人满意,所以我们承诺会用更高的标准约束自己:对于致命自主武器的研发、制造、交易和使用,我们不会参与,也不会支持。我们希望技术公司、机构、领袖、政策制定者及其它个体也能参与进来,信守这份承诺。