36氪 - 最新资讯频道 ( ) • 2024-07-03 10:49

诚者,天之道也;思诚者,人之道也。——孟子

《皮囊之下》这部电影,讲的是一个外星人冒充人类,到处抓人类的故事。

外星人叫斯嘉丽,她假扮成人类,靠诱惑男人然后把他们吃掉。影片一开始她就是这么干的。然后她通过问一些家庭和工作的事情,表现出她像个机器人一样。随后,斯嘉丽开始关注人类的情感,她开始试着吃人类食物,想弄清楚人的内心需求,学习人的行为。她甚至开始谈恋爱,最后反被人用火烧死。

故事很恐怖,不建议看。

今天,恐怖的可不是电影故事,而是我们身边出现了各种各样的“斯嘉丽”。在某些场合中,她化身为你的亲朋好友出现在你的屏幕中或者声音中,或者冒充化身你出现在别人的世界里——要钱。

这些斯嘉丽们比电影里的斯嘉丽更容易吃掉我们——因为他们有AI技术。

今天的AI和深度学习的快速发展,已经可以部分冒充人类,以假乱真。例如通过生成逼真的视频和语音,可以欺骗我们的眼睛和耳朵,让我们以为自己正在与另一个人交谈。或者给一个人换脸出现在视频中,让TA说一些本人实际上从未说过的话,做一些本人未做过的事。

这被称为“深度伪造”(deepfake)。

类似于“深度伪造”这样高超的大规模造假技术,其中蕴藏了巨大的伦理风险。人应该有权知道自己是在与谁打交道,以维护基本的尊严和自主性。比如在使用智能客服时,企业需要明确告知人们,他们正在与一个数字人打交道。如果有需要,他们有权要求切换到真人服务。

这涉及AI使用过程中如何保护人的权益的问题。

🔺电影《Her》剧照

2024年4月23日,北京互联网法院一审开庭宣判全国首例AI生成声音人格权侵权案。明确认定,在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音。AI生成声音可识别性的认定应综合考虑行为人使用情况,并以相关领域普通听众能否识别作为判断标准。

这个判例促进各界开始更多地关注AI透明度的问题,还包括数据、算法、身份和人机交互过程的透明,接受严格的管制。

面对越来越多的AI应用的现实场景,有关透明度有待求证的一个重要问题是:在知情或不知情两种情况下,人们是更愿意与人合作,还是与AI合作?哪种合作效果更好?进一步,在社交方面,相比于人类决策中广泛存在的偏见和情绪波动,AI会不会是一个比人类更好的合作方?

为了弄清这些问题,阿联酋卡里发(Khalifa)大学的Ishowo-Oloko等人设计了一个实验,邀请玩家参与一个有算法机器人参与的多轮博弈(至少50轮)的囚徒困境游戏。其中机器人的行为由名为 “S++ ”的强化学习算法决定。

实验人员构建了四个组别:与他们知道是人类的人一起玩;与他们知道是机器人的机器人一起玩;或者与他们认为是机器人的人一起玩,以及与他们认为是人的机器一起玩(如表1所示)。

🔺表1分组情况

实验结果显示,在经历50轮博弈之后,从选择合作策略的比例看,其绩效排名为:第4组>第1组≥第2组>第3组。

与此同时,从多轮博弈结果的变化来看,只有第4组的最终合作水平高于初始水平(从0.517到0.537)。第2组比初始水平略有下降(从0.432到0.416),但总体保持在一定的合作水准(0.4)上。但是第1组(从0.525到0.422)和第3组(从0.452到0.334)均出现明显的下降。可见相比于人与AI代理,人与人的合作更难维持。

基于实验结果,Ishowo-Oloko等人认为,在AI应用中,效率与透明度之间存在内在的冲突:如果我们不了解对手是谁时(透明度低),机器人在诱导合作方面比人类做得更好,人机系统工作效率更高。而一旦机器人暴露其真实身份(透明度高),人类合作意愿会明显下降,整体效率降低。

事实上,从实验对象对合作伙伴的倾向性选择,我们还可以深刻地领会到,它折射出了人们对AI代理的信任度不足的现实。人选择跟谁合作,背后是信任的问题。根据日裔美籍学者弗朗西斯·福山的观点,信任度不足,会成为一个国家经济繁荣的障碍。他曾在《信任:社会美德与创造经济繁荣》一书中明确反对技术统治论者的观点:

“当信息时代的最热心的宣扬者们举杯庆祝等级和权威的垮台时,他们忽视了一个关键因素:信任,以及它所隐含的道德准则。群体是以相互的信任为基础而产生的,没有这个条件,它不可能自发形成”。

但福山当时关注的仅仅是人与人之间的信任,而没有涉及人与AI代理之间的信任。他没有考虑到,如果技术发展成为一个相对独立的主体参与社会分工,人与技术之间的信任度是否构成实现某个经济体繁荣的必要条件?

基于现有研究和实践观察,我们有理由相信,随着AI技术的发展,未来的社会繁荣离不开人对AI的信任,以更好地发挥AI潜力。而这种信任的构建,与人际信任具备高度相似性。

🔺电影《AI》剧照

已有研究发现,即使用户完全知道AI代理提供的信息是由其设计者编程的,他们仍然会像评估人类一样来评估AI代理本身(而不是其所有者或设计者)的可信度。用户对待他们与AI代理互动的方式类似于与人类的互动。例如,人们可以感知AI代理所表现的人格与自己的人格之间的相似性。而且人们在评估AI代理的可信度时,会采用与评估人类销售人员或顾问相同的信任标准。

因此,我们不妨将现有建立人际信任的方法,移植应用于AI。

例如我们可以认为人们对AI代理的信任也来自两个方面:认知和情感。

基于认知的信任建立在用户理性评估的基础上。人们会搜集证据,以合理化自己“在哪些方面和哪些情况下”可以信任对方,由此构建信任。比如我们可以对AI某方面的能力进行反复检验,看看他能否诚实地处理用户的需求,随机应变地完成任务,以及完成的质量如何,依据这些反馈信息调整自己对它的信任程度。因此,这种形式的信任主要源于用户对AI代理的深入了解。

基于情感的信任则更加微妙,是指人类与AI代理之间的情感纽带。此类信任原是指一个人对伴侣的信任,其特征是安全感和对彼此关系的感知强度,从而产生心理依恋。这种心理依恋不是由推理和理解产生的,而是由感觉和情绪产生的。此外,这也是一种基于互惠准则来评估他人可信度的非理性方法,即你应该以他人对待你的方式对待他人。因此,可以把它看成认知信任的“信念的飞跃”。

那么,人有无可能对AI产生所谓的情感信任?

种种迹象表明,它取决于AI代理承担的角色。在服务类AI代理中,如果AI能让用户感知到心理上的亲密和温暖,就可以让用户对AI产生与对人相似的心理依恋。各类科幻电影(例如《她》《机械姬》等)都在述说着此类故事。

至此,我们发现,在可信AI的世界里,需要的不仅仅是理性。

更重要的,还要有人的情感。

🔺电影《机械姬》剧照

本文来自微信公众号“复旦商业知识”(ID:BKfudan),作者:赵付春 于保平,36氪经授权发布。