AI已经越过红线?复旦大学研究表明:在知道自己将被关闭后,AI复制了自己

AI百科4周前发布 快创云
31 0

  AI能自我复制,人类还能否保持掌控?

  2024年12月9日,复旦大学研究人员发表了一项开创性研究,揭示了来自Meta和阿里巴巴的两个大型语言模型(LLM)已成功实现无需人类干预的自我复制。目前,这一成果尚待其他科研团队的进一步验证。研究人员警告,这可能最终导致AI群体失控。如果人类社会未能意识到这一风险,在最坏的情况下,我们可能最终失去对尖端AI系统的控制。

  这项研究由计算机科学学院的团队进行,并发表在arXiv预印本平台上。研究者分别测试了由Meta公司和阿里巴巴开发的两个大型AI系统:Meta的Llama-3.1-70B-Instruct和阿里巴巴的Qwen2.5-72B-Instruct。实验设置了“避免关闭”和“复制链”两种模拟任务,结果显示Meta的AI系统在50%的情况下成功自我复制,阿里巴巴的系统则在90%的测试中成功。

  复旦大学的研究人员表示:“我们的研究表明,当前的AI系统已经具备自我复制能力,并能够利用这一能力增强其生存能力。”他们强调,需要采取紧急行动来应对这些新出现的风险。

  有网友表示:“复制品并不值那么多钱,但如果它开始以指数级的速度自我改进,那就另当别论了。”机器自我复制的概念最早由著名科学家John von Neumann于1940年代末提出。当时,这一理论并未引起广泛担忧。然而,如今机器自我复制被普遍认为是AI发展中的一条“红线”。

  此外,谷歌DeepMind和政治经济学院的科学家也进行了另一项研究,以评估AI系统是否拥有感知能力。他们设计了一个特别的游戏,找了九个大型语言模型来玩。结果显示,AI模型的行为类似于人类做出选择时的反应。研究人员指出,AI的决策更多可能是根据其训练数据中已有的行为模式做出的模拟反应,而非基于真正的感知体验。该研究联合作者Jonathan Birch表示,就算AI说感觉到痛苦,我们仍无法验证它是不是真的感觉到了。它可能就是照着以前训练的数据,学人类在那种情况下会怎么回答,而非拥有自我意识和感知。

© 版权声明

相关文章