加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程 > 正文

对 AI 放下戒备,人类会得到“拥抱”还是“嘲讽”?

发布时间:2018-07-31 13:33:40 所属栏目:编程 来源:36氪
导读:原标题:对 AI 放下戒备,人类会得到“拥抱”还是“嘲讽”? 编者按:人工智能未来的发展,可能会强大到控制人类情绪的起伏吗?现在涉及人类情感的AI应用有很多,有些教你冥想、有的帮你舒缓情绪,甚至有些像心理治疗师,能听你倾诉苦恼。然而,不同体系下
副标题[/!--empirenews.page--]

原标题:对 AI 放下戒备,人类会得到“拥抱”还是“嘲讽”?

编者按:人工智能未来的发展,可能会强大到控制人类情绪的起伏吗?现在涉及人类情感的AI应用有很多,有些教你冥想、有的帮你舒缓情绪,甚至有些像心理治疗师,能听你倾诉苦恼。然而,不同体系下“培养”出的人工智能,或许也继承了该体制的文化观念,不论好坏。本文编译自aeon的原题为“The quantified heart”的文章。

对 AI 放下戒备,人类会得到“拥抱”还是“嘲讽”?

2017年9月,一副截图引起了俄罗斯网友的热议。对着两个AI说同一句话,竟得到迥乎不同的答案:一个是说英语的谷歌助手,另一个是说俄语的Alisa(由俄罗斯搜索引擎公司Yandex)开发。当有人对这两个AI说出“我很伤心”的时候,谷歌助手回答,“我真希望自己有双臂,能给你个拥抱。”而Alisa回答,“生活的意义本来就不在于享乐。”

两个AI回答的差别之所以很大,不仅在于数据的不同,而是人类教技术理解自己情感的过程有差别。而这个过程极端复杂,不同文化也会塑造不一样的AI性格。人工智能,不再只是计算两点之间最短路径的工具,或者打败世界围棋冠军。现在,人工智能的发展将进入下一阶段——AI情商。

“Siri,我好孤独啊。”

越来越多人向虚拟助手倾诉自己真实的情感,积极消极的都有。根据亚马逊的统计结果,半数用户和Alexa的对话都不是功用性的,而是对生活的抱怨、笑话和存在主义/人生意义方面的问题。“人们不问Siri问题,反而和Siri聊天,说他们一天下来压力由多大,或者脑子里有什么想法。”苹果2017年有一个招聘广告,招的是“帮助虚拟助手增加情商”的工程师。“人们在生活遭遇危机,或者需要健康生活引导的时候,就会想到问Siri。”

有些人无法对他人袒露心声,但是在虚拟助手和AI机器人面前,则自在得多。2014年,洛杉矶创意技术研究院发表了一项研究:人们在虚拟助手面前比在真人面前,更容易表现自己的悲伤,自我披露也不那么胆怯。这就跟写日记抒发情感一样,面对无生命的屏幕,人们不会觉得自己受到评判。

很快,我们甚至都不用开口向手机倾吐秘密。好几个高等学府和企业在研究,如何通过你说话的语调和语速来判断说话者的精神状态和情绪起伏。Sonde Health是2016年在波士顿成立的一家公司,他们通过声音测试,监控新妈妈是否有产后抑郁,老人是否有老年痴呆症、帕金森和其他与年龄相关的疾病。现在Sonde Health在与医院和保险公司合作,开启AI平台的试点研究。该平台可以检测声音的变化,来检测精神健康状况。“2022年的时候,可能我们的手机比身边的亲人朋友都先知道自己的情感状况。” Annette Zimmermann在一篇博文中这样说。她是Gartner咨询公司的研究副总。

如果聊天机器人被放任自由,很快,他们就会“学坏”,“口出”狂言秽语。

技术的发展,需要适应使用对象的特定需求。但是不管是用户还是开发商,似乎都觉得“情感技术”在出现伊始,就可以个性化,并保持客观,像一位公正的裁判,能判断某个具体的个人到底需要什么。让心理治疗这样的任务都指派给机器,正表现了我们对技术型社会的终极信仰:我们相信AI能更好地帮助自己管理情绪,毕竟,它自己很明显没有情绪嘛。

然而,AI是“有”情感的。它的情感,就是从人类身上学来的。AI研究发展最有活力的一块就是机器学习:算法可以通过庞大数据集来训练。但是,一般训练数据都是统计学上最为相关的数据,他们产生的结果,是最可能出现的结果,而非真实、全面或美好的结果。因此,如果人类监督没做到位,在线上肆意漫游的聊天机器人,可能会口吐狂言秽语。程序员能过滤部分数据,指引AI的学习过程。但是这样一来,技术的“样貌”和“想法”,反映的便是开发者群体的价值观和看法。

“中立的口音和语言,都是不存在的。我们口中的中立,实则是是占据主导地位的事物。”剑桥大学Leverhulme未来智慧中心的研究者,Rune Nyrup说。

这么看来,不管是Siri还是Alexa,谷歌助手还是俄罗斯的Alisa,都不是什么不食人间烟火的高等智慧,他们也被人类的局限所限制,和我们一样渺小。他们最终给出的结果可能各式各样,奇形怪状,但是还是能看出是某些“情绪体系”的象征,反映了人类感知和表达情绪的方式。

每个社会的自我情绪控制范式都有所不同。这样想来,不同范式下,养成了“想给你个拥抱”的谷歌助手和略显冷漠、语气略带嘲讽的Alisa,就没什么奇怪的了。想象一下阳光下加州人的随意、热情、友好的形象,就能明白为什么同样在加州长大的谷歌助手,会给出“抱抱”的回答了。谷歌助手,正是社会学家Eva Illouz 称之为情感资本主义的产物。情感资本主义体系将情感视作可管理,并服从私利逻辑。在这样的逻辑之下,关系是我们必须“投资”的事物,“伙伴关系”就会涉及到情感“需求”的“交换”。当然,在这样的体系中,个人的幸福——爱的“回报”就是核心。谷歌助手之所以答以”抱抱“,是因为开发它的人觉得,拥抱能有效地抵抗你的消极情绪,帮助你能成为最好的自己。

相反,Alisa则象征着严峻的事实、严厉的爱,她的回答,是俄罗斯理想情感的体现。她的形象是勇猛的俄罗斯女性,策马奔腾,冲进着火的房子救人的战斗形象。Alisa是情感社会主义的产物。社会学家Julia Lerner说,在此体系之下,痛苦是不可避免的。所以,与其在痛苦时求拥抱,倒不如咬紧牙关熬过去。这样的思想,在19世纪俄国的文学传统中有深厚的根基。情感社会主义不太看重个人的幸福,赞扬的是个人忍受残酷人生的力量。

“我们常常对她进行调试,保证她是个‘乖女孩’。”

Alisa的开发者知道这个AI的角色必须符合人们的文化认知。“Alisa不能太乖巧,太善良。“Yandex里负责Alisa的产品经理Ilya Subbotin说,”我国人们的为人处事习惯和西方人不同。这里的人们喜欢的是话里带一点讽刺,一点黑色幽默,虽说不会到听者觉得被冒犯的程度,但是太善良可爱也不太适合。“ (他承认,“生活的意义本来就不在于享乐。”这般希望渺茫的答案,确实经由团队决定确定的)

Subbotin强调,产品团队在Alisa的培养方面,下了不少功夫,以防她像其他机器人一样,很快变得有”性别和种族歧视“。“我们常常对她进行调试,保证她是个‘乖女孩’。”Subbotin说这话时,一定没意识到,这样的措辞中的讽刺意味。

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读