什么是情感人工智能

2021-12-24 15:56:37   编辑:支琼家
导读人类情感存在于一个范围内。超过50种个人情感的爱情,惊讶,喜悦,愤怒,悲伤的范畴之内,又害怕是人类交谈的频谱。这些情绪中的每一种都有

人类情感存在于一个范围内。超过50种个人情感的爱情,惊讶,喜悦,愤怒,悲伤的范畴之内,又害怕是人类交谈的频谱。这些情绪中的每一种都有数百种潜在的信号——其中一些通过肢体语言,一些通过语言,还有一些通过语气。识别这些信号并做出反应的能力表明一个人的情商,这与他们在生活中的潜在成功密切相关。

机器也是如此。随着人工智能在消费者应用中变得越来越普遍,它必须更深入地了解人类情感以及如何做出反应。这就是情感 AI 的用武之地。在许多应用中,需要的不仅仅是“没有情感的机器人”来替代或增强人类对应物。情感 AI 使工程师能够对与人类用户交互的系统进行编程,以识别和响应声音模式和肢体语言中的人类情感信号。这些系统在识别和响应个人模式方面变得越敏捷,它们在面向消费者的角色中就越微妙。

AI 如何识别语音中的情绪

直到最近,人工智能才能够识别和响应人类交流的一小部分——我们所说的可量化的话。即便如此,它通常也是一个非常直接的谈话伙伴。受过训练处理简单查询的语音助手通常无法识别讽刺、愤怒或夸张等人类语言习惯。情感人工智能通过识别和理解语音中的情感韵律和语调来理解对话的潜台词来解决这个问题。

通过精心开发能够完全理解人类在声音模式中融入的50 种情感信号的系统,这些系统可以测量和跟踪速度、音量、音调、音色和语音中延长的停顿的变化。韵律甚至可以对几个词的含义产生直接影响。结合口语、关键短语的组合、对话中实施的从句,甚至人们发出的非语言声音,情感 AI 可以拼凑出一张全新的对话背后的意图图,远远超出所说的表面水平.

这些系统通过收集与情绪、感知到的想法、言语、想法和信念中识别的行为相关的行为信号来工作。人类是非常微妙的。一个眼球滚动可以在一瞬间传达大量的信息。我们正在学习的是,人类的声音是这些情绪变化的高度指示。翻白眼伴随着四分之一的叹息或说话的短暂停顿。情感 AI 可以识别和编目这些变化。

情感AI的应用

随着机器学习如何识别和响应人类情绪的变化,这会对商业行业产生什么影响?已经有数十个行业在使用新技术,从增强人类操作员到提供有价值的额外参与层。

在客户服务行业,Allstate 正在使用其内部开发的 AI 代理Amelia向代理提供有关服务呼叫的实时反馈。IBM 的Customer Care Voice Agent由 Watson 提供支持,正在由呼叫中心集成,以在人工代理和对客户查询的自动响应之间提供额外的参与层。大都会人寿的人工智能系统分析呼叫并向座席提供有关如何实时提高其绩效的反馈和建议。这些耳语座席是客户服务座席的强大资源,他们经常必须与达到“高度情绪状态”的人进行交流。面对愤怒、有时好斗的客户,要保持专业的谈话已经够困难了。代理更难以识别他们何时开始做出善意的回应,反映这些负面情绪并让沮丧渗入他们的声音中。Whisper 代理技术使用情感 AI 来识别这些线索,并在需要调整时向代理和管理层提供实时反馈。

医疗保健行业正在发现与情绪 AI 类似的好处。旨在检测患者压力水平的被动工具正在手术室和检查室中部署,以便在需要调整护理时为医生提供实时见解。情感人工智能也正在实施以支持医生并帮助减轻行政压力的负担。职业倦怠是花费 49% 时间的医生真正关心的问题完成行政工作,只有 27% 的时间与患者在一起,情感 AI 正在与语音助手技术配对,以减轻一些负担。还设计了一些工具来帮助处理临床记录和测试单、处理医疗查询以及对医生的压力水平做出回应。结合已经有助于提高诊断率的AI 系统,未来几年将有大量面向医疗保健的 AI 工具的应用。

在金融行业,人工智能有望在未来十年节省多达 1 万亿美元,解决银行每年产生的巨额支持成本。利用情感 AI 的聊天机器人能够更好地参与和响应客户查询,提供等效的高级体验,可以为更重要的问题保留人工干预。73% 的 C 级高管提到了人工智能的变革价值,能够评估和处理人类情感的系统将在人力资源和营销中最有价值。已经有47% 的人力资源主管在接受调查时表示,他们已经为自己的公司投资了人工智能项目,这些项目将以前人工操作的任务(如候选人筛选)自动化。情感人工智能同样被用于评估和检测面试官(包括人力资源和管理人员)的无意识偏见,并提供更精简、响应更快的培训和入职体验。

在教育领域,情感人工智能被用来衡量学生对作业和课堂互动的反应。通过使用人工智能,教师可以在必要时进行干预,为挣扎的人调整作业,为领先的人提供额外的挑战,并调整整体课程计划。

情感AI的未来

应用程序或情商 AI 已经在各行各业变得普遍。可以检测人类面部表情和声音提示的系统被用于识别和处理客户服务、培训、医疗保健、财务互动和教育期间的情绪输入。

为了让机器有朝一日在基本交互中补充甚至取代人类,它们必须能够识别和响应人类语音和面部表情中的大量数据。研究表明,我们的听觉在识别谈话中的情绪方面非常敏锐。正如几项研究所示,我们甚至可以“听到微笑”。即使人们不会说与他们交谈的人的语言,他们也可以识别声音中的情绪。这是我们在数千年的社交互动中发展起来的天生能力,而机器现在才刚刚开始解码它。

目前有超过10 亿台带有语音助手的智能设备——包括智能手机、专用语音助手以及汽车和电器中的集成设备。AI 正在成为我们生活中不可或缺的一部分,因此语音搜索将成为我们与技术互动的方式。由于对话中的词语只是潜在含义的一小部分,因此机器从表面看问题变得越来越重要,弥合感知与我们词语内容之间的差距,并为经常与公众互动的专业人士提供支持.

虽然我们离用机器完全取代人工代理还有很长的路要走,但我们将继续看到有助于改善这些交互、补充表面级别的参与以及在这些情况下对最频繁的交互进行分类的支持工具。情感 AI 将成为推动语音和其他新兴技术的核心。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章