國際新聞 - Yahoo 新聞 ( ) • 2021-06-16 07:35
6月10日,《华尔街日报》的一篇独家报道披露,美国已经组建了一个人工智能工作组,考虑将政府的数据和计算能力分享给国家的人工智能研究人员,以努力保持与中国和俄罗斯等其他人工智能大国的竞争。

有些研究人员希望此举将有助于推动该领域的发展,但其他专家对竞争压力的负面影响却抱持谨慎态度:这是否全球新“军备竞赛”即将到来的标志?
中美在人工智能領域競爭激烈,圖為2019年7月,中國南京軟件產業博覽會上的人工智能機器人展台。(VCG) 中美在人工智能領域競爭激烈,圖為2019年7月,中國南京軟件產業博覽會上的人工智能機器人展台。(VCG)

国家人工智能研究资源工作组(National Artificial Intelligence Research Resource Task Force)是一个由白宫科技政策办公室(Office of Science and Technology Policy)和国家科学基金会(National Science Foundation)的政府官员领导的来自学术界、政府和行业的12名成员组成的小组。

该工作组将负责起草计划,为公共和私营部门的研究人员提供更多的人工智能研究资源,包括有关美国公民的匿名政府数据的存取,以及分析数据的计算能力。

该计划可能包括美国人的健康、驾驶、人口统计等方面的数据。这促使一位美国Twitter用户宣称,“我们都即将加入真正的#大数据集。”

工作组制定的任何计划仍需要国会批准,但美国积极考虑这样的举措对一些专家来说已经是一个令人担忧的信号。这一决定令人担忧的是什么?该工作组是特朗普时代已启动的更广泛人工智能战略的一部分,目标是确保美国将保持在技术进步的领先地位。工作组根据《2020年国家人工智能倡议法》(National Artificial Intelligence Initiative Act of 2020)而成立——这是一项在特朗普政府承诺“确保我们伟大的国家在人工智能领域保持全球领先地位”后通过的法律。

工作组的声明表示,这种竞争感和紧迫感在拜登上台后并没有消失。国家科学基金会主任潘查纳坦(Sethuraman Panchanathan)向《华尔街日报》

,“这是一个呼唤我们加强(人工智能创新的)速度和规模的时刻(...)它也呼唤我们确保创新无处不在”。

拥有本国人工智能政策的国家地图。(史丹福大学AI指数) 拥有本国人工智能政策的国家地图。(史丹福大学AI指数)

这种言论令人担忧地趋近一些人工智能安全专家多年来一直要求政府和企业避免的情况:陷入人工智能竞赛的心态,并在世界人工智能大国之间催生一个“集体行动问题”(collective action problem)。

当对竞争的恐惧促使个人或组织采取越来越多的高风险决策,以在一场感觉中存在的竞赛中取得领先时,就可能会出现“集体行动问题”。军备竞赛就是这种问题的一个典型例子。像国际武器条约这样的协调行动可以帮助解决这个问题,但国家之间缺乏信任或透明度往往使这些条约难以实施。

安全专家

,这种集体行动问题可能在人工智能领域扎根。当人工智能研究人员、公司或政府担心其他人在技术方面的快速进步可能会使他们落后,他们就更有可能在没有适当保障或安全措施的情况下研究、资助、开发和部署高风险系统。

与洲际弹道导弹不同,人工智能技术不容易被计算和比较。没有简单的方法来衡量一个国家拥有“多少”人工智能或一个军事部署的人工智能系统有多强大。这使得估计对方的能力更加困难,这也增加了战略上的不信任。缺乏明确的人工智能力量基准,也使得决策者难以就人工智能发展的国际规则达成一致;与冷战时期的武器条约不同,我们不可能直接设定人工智能“弹头”的最大数量。

有学者及科技业界虽然认同欧盟主张严格监管的动机,但也担心此举不利欧洲科技发展,甚至在AI竞赛上进一步落后于中美。图为百度旗下Apollo本月在北京试行自动驾驶的士,为2022北京冬季奥运时服务准备。(Apollo) 有学者及科技业界虽然认同欧盟主张严格监管的动机,但也担心此举不利欧洲科技发展,甚至在AI竞赛上进一步落后于中美。图为百度旗下Apollo本月在北京试行自动驾驶的士,为2022北京冬季奥运时服务准备。(Apollo)

在这个问题上,政府发挥着特别重要的作用。关注人工智能的非营利组织“80000hours”的研究人员

,由于美国、中国和俄罗斯等国政府是开发和部署先进人工智能系统的关键角色,它们“很可能会促成导致这种竞赛的环境”。

最近新的人工智能工作组的披露似乎表明,美国确实有走向这种环境的趋势。加强人工智能创新的“速度和规模”的压力可能会导致忽视安全防范措施和对安全研究投资不足。人工智能安全:世界上最重要的事情?这尤其令人担忧,因为人工智能安全方面的失败可能会产生巨大的后果。据《华尔街日报》报道,“该工作组将评估如何在保护美国人私隐的同时提供(政府的)这些数据。”然而,人工智能竞赛可能导致的后果比私人数据泄露要糟糕得多。

人工智能竞赛的情况可能会导致相关的研究、资金、监管和开发方面的高风险行为。它可能导致研究人员在安全方面偷工减料,并阻止监管机构对研究人员进行有效监视。政府对前沿研究的资金增加也可能会使安全相关的研究更难跟上创新的步伐。

马斯克警告,人工智能是人类存亡最大威胁,而现时人类仍未有足够警觉。他希望以脑机介面接把人脑接驳人工智能,让人类免遭淘汰。(Getty Images) 马斯克警告,人工智能是人类存亡最大威胁,而现时人类仍未有足够警觉。他希望以脑机介面接把人脑接驳人工智能,让人类免遭淘汰。(Getty Images)

特别令人担忧的是,只顾担心其他国家可能从人工智能的最新进展中受益,或会推动政府在国家关键系统中采用新开发的人工智能技术,如在能源网、医院系统或军事后勤里面,而这些技术还没有经过充分的测试,这可能会大大增加了灾难性故障的风险。

在极端情况下,这些行为不仅威胁到数据私隐,还威胁到人类的生存。像马斯克(Elon Musk)这样的主要企业家和拉塞尔(Stuart Russell)这样的领先人工智能研究人员都对“不一致的人工智能”(unaligned AI),即与人类的欲望和意图不完全一致的人工智能系统,提出了警告。他们认为,如果我们的安全防范措施失败,这种系统的部署可能对人类构成存亡风险。

其实,许多思想家认为这是对当今人类社会最大的威胁之一:根据对现有研究的审查,牛津大学哲学家奥德(Toby Ord)将“不一致的人工智能”列为人类最可能灭绝或永久失去其潜力的方式,估计在未来100年内有十分之一的可能性发生这种情况。(奥德警告说,这些估计是高度不确定的。)

奥德对人类“存亡威胁”(existential risks)及其几率的分类。(Toby Ord, 《The Precipce》) 奥德对人类“存亡威胁”(existential risks)及其几率的分类。(Toby Ord, 《The Precipce》) 对“人工智能竞赛”的担心是合理的吗?诚然,世界还没有进入全面的人工智能“军备竞赛”,美国新工作组有很多方法可以提高美国的AI研究,而不至于产生这样的竞赛动态。正如美国国家科学基金会的高级顾问和该工作组的联合主席詹昌达尼(Erwin Gianchandani)所指出的,获取政府数据也可以提高该领域的安全性,譬如,“如果研究人员可以获得(交通部的车辆传感器数据),他们可以开发旨在使驾驶更安全的创新”。

另外,目前还不清楚关于医疗或人口统计的数据可以如何使一个国家对另一个国家有明显的优势,而如果这种优势不存在,这可能会限制竞争压力。

美国的决策者经常担心,中国国内市场的规模,以及微信或阿里巴巴等公司可获得的来自中国移动用户的大量数据,会让中国在训练强大的人工智能算法方面拥有优势。但人工智能领域的人

这种想法,询问这种消费者数据到底会给中国带来什么战略优势:解放军会通过向美国人提供更好的产品推荐来赢得战争吗?对中国或俄罗斯的“数据优势”的担心可能在很大程度上被夸大了。

然而,这并不意味着人工智能竞赛不太可能发生。要让一场人工智能竞赛发生,并不需要数据(或人工智能发展的其他方面)真的能带来优势。只要双方的官员都确信它们能带来优势就足够了。而正如《华尔街日报》指出的那样,“华盛顿和商界有一个越来越大的共识,即中国、俄罗斯和其他国家有可能在人工智能方面超过美国”,特别是 “因为他们努力挖掘数据”。

虽然美国的工作组只是一小步,它只会在2022年5月和11月发布初步报告,但人工智能发展中涉及的巨大不确定性和潜在风险已足够严重,任何加剧竞争态势的迹象都应该被仔细监督。