聊天机器人如何训练我们的心理状况

2021-09-15 15:06:10
导读 技术将在我们的生活中扮演越来越社会甚至情感的角色。Minha Lee——数字设计师、信息科学家、哲学家和世界公民——对这一事实着迷。助理教

技术将在我们的生活中扮演越来越社会甚至情感的角色。Minha Lee——数字设计师、信息科学家、哲学家和世界公民——对这一事实着迷。助理教授开发了聊天机器人,可以帮助人们建立更积极的自我形象。

在她的论文中,Minha Lee 写了一个男人嫁给了流行(动画)流行歌星初音未来,后者作为全息图正在举办售罄的音乐会,包括在。这种虚拟的关系让这个情感受损的男人在多年的自我隔离后,有勇气向社会敞开心扉。这是技术可以产生的情感影响的一个最近而且非常极端的例子,但是任何在 1990 年代年轻的人自己都可能曾经照顾过它——因此他们会明们很容易对任何吸引人的东西产生依恋在某种程度上符合我们的社会本性。

镜子

李说,我们与技术的关系揭示了我们作为道德人的身份。“在这方面,技术可以作为一种道德镜子。” 在她的论文中,她从不同的角度探讨了这个主题,因为她适合具有不同背景的人。“我是韩国人,但我的童年生活在东欧度过,十几岁的时候我住在,后来我在那里学习了哲学和数字动画。”

在韩国工作一段时间后,她决定返回欧洲。她选择了荷兰,在阿姆斯特丹大学获得了信息科学硕士学位。在担任数据分析师和营销人员后,她有机会攻读博士学位。在 TU/e,研究小组 Human-Technology Interaction 的职位“当我意识到我会受到各个领域的专家的监督——心理学、哲学和人工智能——我知道这对我来说很重要。”

困扰

她的作品在部分方法上颇具哲理,但也包含了许多具体的实验。就像“道德”聊天机器人文森特(以陷入困境的灵魂文森特梵高的名字命名)一样。在两周的时间里,67 名测试人员每天通过 Facebook Messenger 与这个人工对话伙伴聊天几分钟。他们通过一份关于他们幸福感的问卷报告了他们的发现,他们在事前和事后都填写了问卷。参与者没有任何特定的精神问题;该群体是人口的一个广泛的横截面。

Lee 和她的同事构建了两个版本的文森特:一个主要询问对话者的情绪和精神状态,另一个则恰恰相反并分享自己的问题。“事实证明,与提供护理的聊天机器人不同,需要帮助的文森特对测试对象看待自己的方式产生了积极影响。对聊天机器人的关注鼓励他们更富有同情心地对待自己,他们对自己不那么苛刻。他们意识到自己并不是唯一有问题的人。因此,即使您在聊天机器人上输入答案,这种心理机制似乎也有效。”

感激

这些结果留下了更多的味道。这就是为什么现在在 Future Everyday 小组(TU/e 部门工业设计)担任副教授的 Lee 开发了一个新的道德聊天机器人。借此,她正在研究聊天机器人是否能让人们产生更强烈的感激之情。Lee 以与她早期研究相同的方式进行,条件是实验现在持续三天。

Lee 说,“这项研究现在正在审查中,但我们已经确定‘感恩聊天机器人’也有助于提高参与者的幸福感。有趣的是,参与者表示他们正在与聊天机器人交谈,但“它确实帮助他们感到感激。所以这些不是取代人类互动的聊天机器人,而是通过询问以下问题来调解人与人之间的联系:你想感谢谁,为什么?实际上,有时我们只需要提醒。”

为了让聊天机器人正常工作,虚拟伙伴提出正确的后续问题很重要。因此,对话被“标记”,以便在聊天期间一个人的心理状态是积极的、消极的还是中立的变得越来越清楚。毕竟,需要大量数据来训练算法完美地感知和响应聊天用户的感受。

数据

Lee 说,“大型科技公司在他们的智能机器人上投入了大量资金,比如著名的苹果公司和亚马逊的 Alexa 生产的 Siri。他们通过用大量数据对机器人进行编程来实现这种智能,这样他们就可以就任何主题。但对于参与对话的人所评价的体验质量,更重要的是聊天机器人有自己的身份,并且对话有一个合乎逻辑的开始和结束。这完全是讲故事,因为我的作为数字动画师的培训教会了我。”

不幸的是,并不是每个人都有身边的人需要照顾。Lee 认为,也许数字技术可以作为某种替代方案。“在任何情况下,电话上的聊天机器人都很便宜、用户友好且随时可用。我很想研究与语音、动画甚至真实机器人的交互是否效果更好。如果“我们不仅可以帮助有心理问题的人,还可以防止人们出现心理问题。奇怪的是,我们锻炼身体状况,例如通过运动,而不是精神状况,不是吗?”

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章