在最新的研究中,类人智能体展现了惊人的适应能力,它们能根据情绪变化做出相应反应,如饥饿时寻找小吃,愤怒时选择运动释放情绪,悲伤时寻求朋友支持,厌恶时尝试冥想放松。另一项研究则探讨了用户与ChatGPT之间的情感联系,发现用户对其产生亲密、激情甚至承诺,这符合爱情的三要素。
半导体公司英伟达与华盛顿大学等研究团队共同发布了《类人智能体:模拟类人生成智能体平台》的研究论文,探索了模拟人类行为的智能体。斯坦福大学研究团队将25个AI智能体置于虚拟小镇中生活,进一步推动了构建人类行为智能体的研究。此次研究团队的目标是开发更接近人类、具备基本需求、真实情感,并能感知人际交往微妙距离的智能体。
研究团队从心理学汲取灵感,提出系统1(System 1)处理基本需求、情感和关系亲近度,使生成智能体更贴近人类行为。与以往生成性智能体不同,这种方法不仅关注明确规划的系统2思维,还重视系统1的直觉和瞬时反应。每个智能体都被赋予了名称、年龄、日常计划和个性特征,如约翰·林作为药店店主,热衷于助人。
研究发现,智能体在模拟环境中展现了复杂多样的行为模式,平均花费11小时做喜欢的事,8.75小时社交互动,仅5.75小时休息,2.75小时进食和2.75小时改善健康。这一研究引发了关于AI拟人化的价值及可能带来的挑战的广泛讨论。
上海人工智能研究院研究员王锦指出,赋予AI存储和反思记忆的能力是实现可信和类似人类行为的关键。然而,龚业明警告,过度拟人化可能带来负面效应,如用户感到威胁、失望或被骗。他提到恐怖谷理论和期望不一致理论来解释这些现象。此外,ChatGPT等AI的普及可能导致社交隔离和创造力匮乏。
对于AI是否应被赋予更多人性特征,龚业明表示需考虑其是否能给人类带来更多积极后果。从功利主义伦理学角度看,需评估AI的类人行为是否增加人类幸福或减少痛苦。袁辉认为,目前AI的“人设”多用于特定场景服务人类,但通用人工智能(AGI)的“人设”尚为时过早。随着科技进步,大模型的自我迭代可能使人类对AI的定义产生新的认识。总体而言,让AI更像人类是一个复杂且充满挑战的领域,需谨慎评估其影响与潜力。