在科技界,一项名为“情感AI”的技术正被多家公司采用。该技术利用面部识别技术,通过分析个体的面部表情来解读其内在的情绪、感觉、动机或态度。这一技术基于“基本情绪”理论,该理论将人类交流时的基本情绪归为六大类:幸福、惊讶、恐惧、厌恶、愤怒和悲伤。然而,情感AI技术的科学支撑尚显薄弱,且在实际应用中引发了诸多伦理和隐私问题,导致公众对其争议不断。
情感AI在职业领域的应用
情感AI技术已在多个领域展现出其潜力。在职业招聘中,面试官利用该技术对求职者进行自动评分,评估标准涵盖“热情”、“学习意愿”、“责任感”及“个人稳定性”等维度。例如,在韩国,情感AI面试已成为求职过程中的常规环节,求职顾问鼓励客户通过AI面试进行练习,以提升面试成功率。此外,在安全和医疗领域,情感AI也发挥着重要作用,如边防人员利用该技术检测边境人员的情绪状态,医生则将其作为辅助工具来诊断和评估情绪障碍患者。
情感AI的局限性与争议
尽管情感AI技术受到关注,但其科学性和可行性却饱受争议。研究表明,人类的面部表情因语境和文化差异而大相径庭,且没有确凿证据表明面部结构能准确、可靠地反映情绪状态。此外,人类表情的多样性使得难以建立统一的情绪判断标准。例如,“开心”这一情绪就可能通过无数种表情来表达,且同一表情在不同人脸上可能蕴含不同意义。鉴于此,未来学家Tracey Follows在推特上表达了对该技术的不确定性,而AI学者Kate Crawford也指出面部表情与情绪之间的关联尚未得到证实,基于该技术的决策充满不确定性。鉴于此,一些公司选择放弃情感AI技术的开发。例如,微软于6月22日宣布停售个人面部情绪分析工具,并限制面部识别工具的使用,同时下架了其Azure Face的AI情绪识别功能。
隐私与伦理挑战
情感AI技术的应用不仅限于视频面试,还被用于“监控”人们的思想。某些公司利用该技术评估员工对公司的忠诚度,并据此决定是否进行单独谈话。此外,该技术还被用来判断员工的工作状态,以安排休息时间和提高生产效率。然而,《神经科学新闻》提出了一个关键问题:即使情感AI能准确读取个人情绪,我们是否愿意接受这种技术的全面应用?我们是否愿意将自己的心理活动和情绪毫无保留地暴露给外界?这涉及到隐私的核心问题。
结语:规范与发展之路
每项新技术在问世时都会遭遇争议,情感AI技术也不例外。特别是该技术在明确伦理边界方面尤为关键。如果该技术被广泛应用,人类可能会为了迎合机器的判断而改变自己的面部表情,进而被机器支配行动。这显然是本末倒置的。毕竟,我们创造机器是为了让它们为人类服务,而非让人类被机器所控制。此外,由于面部表情与人类情绪之间的关系尚无科学证据支持,该技术的科学基础尚不稳固。人类的情绪复杂多变,远不止基础情绪所划分的六大类。即使面对同一事物,每个人的表达方式也各不相同。因此,情感AI技术尚处起步阶段,无论是在科学基础、伦理道德还是实践应用方面都有待进一步探索和完善。