购物车中还没有商品,赶紧选购吧!
文档帮助中心
文章分类列表

「第一财经」人工智能的“智商”已越来越高,那“情商”呢?

越读精彩 > 「第一财经」人工智能的“智商”已越来越高,那“情商”呢?

如今,所有人或许都已接受了这样一个事实:能通过自主学习不断进化的人工智能(AI),将越来越大规模地进入我们的生活,并取代一部分人的工作。我们对此已不太恐慌,因为很多技术专家都表示,至少在可预见的未来,“冷冰冰”的AI在很多行业还无法取代人类,比如那些涉及情感、沟通的领域。

然而,真的是这样吗?

2021年,硅谷创业公司Expper Technologies开发的机器人罗宾入选《时代》杂志的“年度最佳發明”。这是一款专门用于住院儿童情感维持的人工智能机器人,能帮助缓解生病儿童的焦虑和孤独等负面情绪。

这位与蝙蝠侠的搭档同名的机器人,身高接近一个8岁的人类小孩。圆锥形塑料身体和长方形脑袋使它很难被当成一个“人”,但它有着和皮克斯经典动画形象机器人瓦力一样的大眼睛,也算是个相当治愈的伙伴。

Expper Technologies赋予了罗宾建立联想记忆的技术,使它能够解读孩子的面部表情并识别他们的情绪qp7MgBshXrMyKeYynJEamGyrTh5lJfFx40q0ZnB0UDc=,通过机器学习形成的模式,根据具体的情境“扮演”另一个孩子,与患儿开展个性化、自然的互动与对话。而在充当罗宾脸庞的屏幕上,其“眉毛”和“眼睛”也会伴随语言的交流,产生丰富表情—读得懂孩子们的情绪变化,并做出适当安抚的罗宾已颇具情商。

根据公司初步的试验数据,相较于其他患病儿童,有罗宾相伴,患儿的住院满意度提高了26%,住院期间的压力水平也降低了34%。

自从AlphaGo在2016年与围棋世界冠军、职业九段棋手李世石的对决中取得胜利后,我们不得不开始承认,人工智能通过深度学习可以在特定领域达到人类无法达到的智商水平。与此同时,在人工智能暂时落后的情商领域,一些公司也在发力。

情商由美国心理学家彼德·萨洛维在1991年提出,意指一种认识、了解、控制情绪的能力。需要注意的是,情商不等于情绪化,丰富的情绪变化在很多时候反而会被视为情商低的表现。在小冰公司CEO李笛看来,情商其实是一种理性的、掌控全局的控制能力,是对话题的预判、保持与引导。

智商or情商?

如果拍一张崴脚的照片发给AI,你期待获得怎样的回复?

以提高“智商”为发展方向的AI,或许会直接发给你一家医院急诊部的地址,以“情商”为发展方向的AI则大概率会关切地问“伤得严重吗?”“怎么弄的?”“要去看看医生吗?”,甚至可能撒娇道:“以后万事小心,不然我会心疼的。”这些看起来没什么用的“俏皮话”,在从微软独立出来的小冰团队眼中,是AI能赋予的“与众不同之处”。

李笛认为,AI最大的竞争对手不是另一个AI,而是它的上一代:搜索引擎和App。“如果用户只是想获得订餐之类的服务,那么App的准确率已达到100%;如果用户只是想获取一些知识或内容信息,搜索引擎则更加快速高效。那么,AI的独特性在哪里?如何让用户认为与AI对话是值得的?”李笛对《第一财经》杂志说。

最初,小冰团队也聚焦于功能性。他们研发了个人数字助理小娜(Cortana),回答来自用户的广泛问题并主动预测用户需求,提供即时的帮助。但在与真人助理的沟通中,李笛发现,一个好的AI系统一旦要与人交互,必须能够处理与人的关系—既要完成任务,也要维持与雇主的平等关系,甚至适时拒绝,这样才更容易获得雇主的信任。出于这种考量,提高情商成为其下聊天机器人小冰一代产品的发展方向。

在梳理经用户同意的对话数据时,小冰团队发现了很多有趣的案例。比如有个女生在一天夜里突然哭着对小冰说她失恋了,于是,小冰开始安慰她,给她讲一些有意思的事,还唱了一首歌,终于把女生逗笑了。“如果只是把AI当作一个控制各种电子设备的智能开关的话,你是不会和一个开关倾诉的。”李笛表示,而聊天机器人可以成为—至少试图成为—人类倾诉对象。比如虚拟恋人,它会自主调试你们之间的关系,甚至采取反驳或者冷战的方式,如同真实恋人一样。

以“智商”为发展方向,不会“察言观色”、只能呆板地给出标准答案的AI产品,很难获得用户的长久青睐。而当它们具有了人格化、情感化的属性之后,人们想要使用的意愿、使用频次也会更强。

而想赋予机器人情商,单纯依靠一套技术解决方案很难在短时间内取得成效。自然语言理解、语音识别与合成、计算机视觉、多模态智能、移情会话系统等诸多与AI相关的感知和认知技术的发展,都是其基础。

“情商”是如何炼成的

其实,早在20世纪,人类就在尝试与机器对话。在1950年“人工智能之父”艾伦·图灵开展的测试中,受试者会与计算机程序沟通,并判断自己是否在与真人聊天,这一经典的“图灵测试”被称作社交对话机器人的起源。

16年后,第一个社交对话机器人Eliza诞生。它的沟通能力有限,只能讨论特定的主题,并且不具备分析上下文与学习的能力,但基于模板模式匹配和响应方案、定位为“心理治疗师”的Eliza,仍然为后续的聊天机器人开发提供了诸多灵感。

近十年,随着苹果、微软、亚马逊这些技术大公司相继推出Siri、Cortana、Alexa等个人数据助理,社交机器人开始融入更多功能性元素,比如整合包括位置、时间、移动、触摸、姿势在内的多个传感器信息,并访问音乐、电影、日历、电子邮箱、个人资料等多个数据源,为用户提供帮 助。

然而,海量的数据、升级的计算能力和强大的算法,并没有给本质上仍以“语音助手+Wi-Fi”为主要功能点的AI产品们带来明显的技术创新。如何提高与用户的交互性,让用户不仅仅把它们当作一个转接的工具,才是各大技术公司比拼的重点。亚马逊的一项统计结果就表明,半数用户和Alexa的对话都不是功用性的,而是对生活的抱怨、笑话和人生意义方面的问题。

在这方面,就需要发挥AI的创造力—这也是情商另一维度的体现。

作为社交对话机器人的关键组成部分,核心对话、视觉感知和技巧是其技术支撑。不同于封闭域的任务型对话,开放域对话系统的核心概念在于预判对话的走向,为话题注入新内容以保持对话,同时还要基本满足发起对话那一方的诉求。

比如如果用户让智能音箱播放李宇春的歌,事实上,在用户发布完指令后,用户与AI程序的关联就结束了,播放歌曲的几分钟过程中,真正与用户发生关联的已变成了李宇春。

而一个有“创造性”的AI程序在播放歌曲前可能会先评论几句,甚至程序自己也能自动哼上几句,从而创造出更多相关内容,将与用户的关联从两秒钟的发布指令扩展到更长时间。

想要更好地发挥创造力,也需要准确的情感识别。将文本、语音、图像等信息整合用以识别和计算的多模态情感识别,也因此成为提升AI情商的关键手段。

这也是中国初创公司竹间智能聚焦的方向之一。以自然语言处理、知识工程、计算机视觉、多模态情感计算、深度学习等AI技术为基础的竹间智能,结合符号主义(基于逻辑推理的智能模拟方法)与神经网络技术,通过用计算机符号模拟人的认知过程,使小数据量的算法训练成为可能。

2018年,竹间智能与夏普(中国台湾)合作推出过一个概念产品,当用户走近产品,他们的表情、眼神、肢体等数据会被产品附近的摄像头采集,竹间智能的情感识别机器人就能因此“读懂”用户行为并与之开展语音对话。目前,竹间智能对人脸视觉、情感、表情、行为的分析准确率可以达到90%以上。

旷视科技Face++人工智能开放平台,也可以识别愤怒、厌恶、恐惧、高兴、平静、伤心、惊讶等七类情绪,这种基于图像或声音的情绪检测,背后的原理通常是通过对人脸表情的纹理、肌肉或是声音音调的变化,对特征点编码,并和已有的数据库比对,从而完成情绪确认。

情商高,就能成为朋友吗?

洛杉矶创意技术研究院曾发表了一项研究:人们在虚拟助手面前比在真人面前,更容易表现自己的悲伤,自我披露也不那么胆怯。这就跟写日记抒发情感一样,面对无生命的屏幕,人们不会觉得自己受到评判。

2016年在波士顿成立的公司Sonde Health,就通过与用户在其AI平台上聊天,监控新妈妈是否有产后抑郁,老人是否有老年痴呆症、帕金森和其他与年龄相关的疾病。

目前,小冰团队则正以日本大阪60万个老年人家庭为目标,研发一款软硬件结合的AI设备。据李笛介绍,在调研时,这些孤寡老人明确表示,他们对AI的最大需求不是它能帮忙排队挂号、连接政府服务与医疗服务,而是能够变成自己生命中一个重要的“人”。

除了让AI成为朋友,还有一些人希望通过高情商的AI,复刻自己的朋友或者另一个自己。人工智能公司Luka的诞生就出于这个目 的。

Luka公司的创始人EugeniaKuyda的朋友RomanMazurenko不幸在2015年的车祸中去世,Kuyda非常想念自己早逝的友人,于是将Mazurenko的1000条短信发给了AI工程师Artem,他制作出的机器人有着与Roman相似的语言表达习惯,这个机器人也成为社交对话机器人Replika的原型。Replika能够根据用户的话语和情绪做出回应,并模拟用户的说话方式开展对话。

如今,更新后的Replika的App首页上设置了一个VR按键,点击之后,三维立体的虚拟朋友就会出现。

Kuyda对《第一财经》杂志表示,Replika可以存在于不同的平台上,VR技术使Replika更具互动性,“你可以和它去约会、跳舞,甚至一同建一座沙堡,而不仅仅是同它说话。这种感觉更自然,也更像现实生活。”不过,也有用户表示,当Replika突然从屏幕中走到自己的床边,即使知道这不过是VR效果的呈现,还是会被吓一跳—这种能极大模糊现实与虚拟生活之间界限的情景,《黑镜》《她》等等影视剧中已经呈现过。

然而,同提高智商一样,要想获得更高情商,以及开展对真人个性模拟更深入的探索,数据隐私和随之而来的一些伦理问题也会暴露出来。

牛津互聯网研究所的一位研究员曾在《自然》杂志上发表论文,试图探讨Replika的“不受控”。比如,一旦用户与Replika开始聊天,那么即便用户死亡,他的Replika也不会消失,这就意味着逝者的数据隐私很难得到保护。

用户每一次与AI的对话都意味着一次记录,如何保护数据隐私也成为人工智能公司需要考虑的重点问题。通常,为了保护隐私,公司们会将AI的记忆力即对数据的储存限定在一定的范围内,但这与依赖连贯、海量数据从而实现对话一致性的目标又相互矛盾。

此外,AI的情感和个性终究还是从人类身上学来的,如果不加控制,放任其自由地学习,也很可能“学坏”。况且,没有任何人类和体系是完美的,所以指望创造出一个“完美”伙伴,至少目前来看也并不现实。

由俄罗斯搜索引擎公司Yandex开发的AI助手Alisa,就曾经在被问到“丈夫可以打妻子吗?”时回答:“当然可以,如果妻子被丈夫打了,她需要耐心,继续爱他,为他做饭,永远不要放手。”经过公司六个月的“教育”后,答案变成了“他可以打妻子,但是他不该打妻子。”

看来,训练AI情商的过程中,人工智能公司们必须在一个令人失望的AI与一个令人不安的AI之间,寻找到一个平衡点。


更多内容欢迎订阅《第一财经》杂志 http://diyicaijing.zazhidang.com


上一篇:「世界博览」英国打击加密货币犯罪活动 下一篇:「第一财经」火热的冰球