我们的面孔并不总是能揭示我们的真实情感
根据加州大学伯克利分校的一项新研究,在阅读一个人的心理状态时,视觉背景(在背景和动作中)与面部表情和肢体语言一样重要。
这些发现将在本周在线发表在《美国国家科学院院刊》上,对数十年的研究提出了挑战,认为情绪智力和识别能力主要是基于阅读微表情的能力,这些微表情表达着幸福,悲伤,愤怒,恐惧,惊奇,厌恶,蔑视以及其他积极和消极的情绪和情感。
含义包括面部识别软件的潜在限制。
加州大学伯克利分校心理学博士学位的研究主要作者陈志敏说:“我们的研究表明,情感识别从本质上来说是一个与面部表情有关的问题。”
研究人员用好莱坞电影和家庭录像中的数十个静音片段模糊了演员的脸和身体。尽管角色具有虚拟的隐身性,但数百名研究参与者仍能够通过检查背景以及他们与周围环境的互动方式来准确地读出他们的情绪。
Chen为这项研究创建的“情感跟踪”模型使研究人员可以跟踪人们在观看视频时如何评价角色的瞬间情感。
Chen的方法能够在短时间内收集大量数据,最终可用于评估自闭症和精神分裂症等疾病患者如何实时读取情绪并帮助他们进行诊断。
陈说:“有些人在识别面部表情时可能有缺陷,但可以从上下文中识别情绪。”“对其他人而言,则相反。”
此外,基于对收集到的评级的统计分析的发现可以为面部识别技术的发展提供信息。
Chen说:“目前,公司正在开发用于识别情绪的机器学习算法,但它们仅在裁剪的面孔上训练他们的模型,而这些模型只能从面孔上读取情绪。”“我们的研究表明,面孔不能非常准确地揭示真实的情感,并且识别一个人的思想框架也应考虑到上下文。”
在这项研究中,Chen和研究的资深作者,加州大学伯克利分校的视觉科学家David Whitney测试了近400位年轻人的情绪识别能力。他们使用的视觉刺激是好莱坞各种电影的视频剪辑,以及在更自然的环境中表现出情感反应的纪录片和家庭录像。
研究参与者上网查看视频片段并对其进行评分。在视频上叠加了一个评分网格,以便研究人员可以跟踪每个参与者在屏幕上移动时的光标,处理视觉信息并评估瞬间到瞬间的情绪。
在三个实验的第一个实验中,有33位研究参与者查看了两个角色之间的影片剪辑中的交互,其中一个是模糊的,并评估了该模糊角色的感知情感。结果表明,研究参与者不仅根据他们的人际互动,而且还根据背景中发生的事情,推断出隐形角色的感受。
接下来,大约200名研究参与者观看了显示在三种不同条件下的交互作用的视频剪辑:一种在所有情况下都是可见的,另一种在角色模糊的情况下,以及另一种在上下文模糊的情况下。结果表明,情境与面部识别对于解码情绪同样重要。