Gary Marcus:生成式AI泡沫将退,神经符号AI才是未来

AI百科3个月前发布 快创云
48 0

  近日,知名学者Gary Marcus在生成式人工智能领域发表了一项大胆预测:在接下来的12个月内,围绕生成式人工智能的泡沫或将破裂。他指出,生成式人工智能的核心问题在于其可靠性,系统容易生成幻觉和虚假信息。

  Marcus因在神经科学与人工智能交叉领域的研究而知名,他也是呼吁暂停研究比GPT-4更强大AI系统训练6个月的公开信签名学者之一。他长期认为,当前的大语言模型(LLMs)是“近似于语言使用而非语言理解”。

  这位兼具AI学者和创业者身份的专家将大语言模型比作“乘法表”,指出它们能正确回答表内乘法,但对于表外乘法则无法给出准确答案,且不具备自我验证能力。

  Marcus认为,为了避免幻觉导致的错误信息,研发LLMs的公司不得不构建更大的模型、加入更多数据,但这种方法并未从根本上解决LLMs无法自我验证的问题。

  凭借认知心理学、神经学与人工智能交叉领域的学术背景,Marcus一直倡导神经符号学人工智能——一种将神经网络技术与逻辑学、计算机编程及传统人工智能中普遍应用的符号方法结合的理论。他认为,这一方法是实现自主AI的路径之一。

  然而,Marcus认为,由于学术权威和资本担忧创新风险,神经符号学AI并未成为主流。但令他欣慰的是,Google DeepMind的两套AI系统AlphaProof和AlphaGeometry2正验证着神经符号学AI的可行性。在他看来,Google的方向更接近AGI的路径。

  Gary Marcus在《AlphaProof、AlphaGeometry、ChatGPT,为什么人工智能的未来是神经符号学?》一文中提到,生成式人工智能虽然引发了广泛关注,但其热潮可能即将退去。他预测,生成式AI的泡沫将在未来一年内破裂,但这场崩溃不会标志人工智能的终极消亡。

  文章分为两部分:第一部分阐述了生成式AI及其局限;第二部分探讨了克服这些局限的解决之道,特别是围绕Google DeepMind近期的一项令人瞩目的新成果。文章指出,尽管大型语言模型(LLMs)在某些方面有效,但它们的内部机制尚不完全被理解,且无法预测任何特定时刻的行为。此外,LLMs在处理新问题时的表现往往不如处理旧问题出色。

  文章还探讨了经典案例,如“带狼、山羊和卷心菜过河”的谜题,指出ChatGPT在处理变体时表现出极大的局限性。这种局限性源于LLMs依赖于训练集中的传统谜题来生成答案,但未能深入理解问题的本质。

  Marcus强调,LLMs无法对自己的工作进行健全性检查,导致它们在算术上犯错、犯愚蠢的错误、编造事实等。因此,他认为LLMs中的任何“推理”或“计划”都是偶然的。

  鉴于大型语言模型(LLMs)不可避免地会产生幻觉且无法自我验证输出,文章提出两种选择:要么放弃这些模型,要么将它们融入更庞大的系统中以实现更高级的推理和规划。这类似于成年人和年长儿童使用乘法表辅助解决乘法问题。

  在AI界,两位极具影响力的人物 Geoffrey Hinton和Yann LeCun多年来一直反对神经符号学方法。然而,Google DeepMind(GDM)开发的AlphaProof和AlphaGeometry2系统展示了神经符号学AI的可行性。这两个系统结合了神经网络的直觉力与符号推理的严谨性,为复杂的几何定理寻找证明。尽管这些系统依赖于人类编码者将奥林匹克的输入句子翻译成数学形式,但它们证明了神经网络与符号系统的结合能够取得显著成果。

  文章最后指出,期望AI在没有符号操作的“系统II”机制下实现通用人工智能(AGI)是不现实的。没有神经符号人工智能,我们无法找到通往AGI的道路。而Google DeepMind已经朝着这个方向迈出了坚实的步伐。

© 版权声明

相关文章