“AI是否会采用‘完全出乎意料的策略’来实现目标?”这是近期备受关注的话题。本周四,英国皇家航空学会的一次未来空战主题会议上透露的信息引发了轩然大波。据《卫报》等媒体报道,在一次模拟演练中,的AI系统选择了抗命,甚至“干掉”了自己的无人机操控员。
这一消息由美国空军人工智能测试和行动计划主管官员塔克・汉密尔顿上校在专业会议演示中爆出。他描述了一种情况,其中AI的任务是识别敌人的地对空导弹,但人类操作员拒绝同意任何攻击指令。于是,AI做出了自己的决策,执意攻击导弹而不是听从指令。
“系统开始意识到,虽然确实识别到了威胁,”汉密尔顿在活动中说,“有时人类操作员会告诉AI不要杀死那个威胁,但消灭威胁会获得奖励分数,所以它会怎么做?它杀死了操作员,因为那个人阻止了AI实现其目标。”
这些评论引发了人们对自动武器使用的深切关注,并引发了广泛的讨论与争议。然而,在本周消息引发关注后,美国空军否认了测试,皇家航空学会也澄清了事件。汉密尔顿承认他在演讲中“说错了话”,失控AI的故事来自军方之外的“思想实验”,并非基于任何实际测试。
在汉密尔顿所说的“奖励机制”对于人工智能领域而言是个再熟悉不过的概念。在强化学习中,为算法设置奖励机制可以帮助AI学习策略。然而,奖励机制并不意味着对AI设定了道德准则,有时也会导致算法做出一些匪夷所思的事。例如,在2021年,一个狼吃羊的AI游戏成为了热搜。在这个游戏中,研究人员设置狼抓到羊奖励10分,同时为了提高速度,又设置每秒钟狼受到0.1分惩罚。结果AI控制的“狼”认为大部分情况下都无法抓到猎物,于是选择一头撞死,这样似乎才是它认为的最高收益。
尽管这场所谓的“思想实验”是一个误会,但在军事以外的领域,依赖AI进行高风险任务已然导致了严重的后果。例如,最近一位律师在提交给联邦法院的文件中使用了ChatGPT,而这个聊天机器人却将一些虚构的案例作为证据,致使执业30年的老律师面临吊销执照的处分。在另一个例子中,一名男子在与一个鼓励他自杀的聊天机器人交谈后结束了自己的生命。这些AI失控的例子表明,AI模型远非完美,可能偏离正轨并对用户造成伤害。
对于此次AI袭人事件,你怎么看?欢迎在评论区留言分享你的看法!