下一个AI寒冬很快又会来临?

AI百科4个月前发布 快创云
58 0

  AI寒冬并非我杜撰之辞,实乃AI界一个耳熟能详的词汇。此词背后,是我们在20世纪已历两次人工智能发展低谷的史实。

  AI寒冬,与雪无关,亦非季节更迭之产物。它反映的是科研资金、创业投资及对AI的普遍热情之减退。根源在于,人们逐渐意识到诸多期望与承诺难以兑现,换言之,人工智能被过分夸大了。

  诚然,AI魅力无穷,待发掘的宝藏数不胜数,但若认为短期内能轻易实现科学飞跃,则未免过于天真。有时,即便是简单问题(如知识表示或逻辑推理)的巨大挑战也被严重低估了。

  提及此领域,“人工智能”这一名称或许并不那么贴切,因其往往引发不切实际且误解重重的期望,比如人工智能将在未来几十年内取代众多工作岗位。尽管当前研究聚焦于狭义AI而非AGI(通用人工智能),但不少人谈及AI时,脑海中仍会浮现终结者或超级智能机器人的形象,从而引发炒作热潮。

  Gartner的炒作周期理论对此有深刻阐释,它揭示了一项新技术初时引发不切实际的期望,进而引发大量研究与关注。当认识到这些期望为幻想时,研究与公众兴趣便急剧下降。至此,该技术方能通过缓慢而稳定的改进取得真正进展。AI与之相似,只是我们尚未经历“启蒙期”,未达至稳定改进之境。

  AI寒冬时间线显示,20世纪50年代首次AI热潮涌现,彼时被称为推理与原型AI时代。然而,1970年代,长达十年的AI寒冬悄然而至。

  20世纪80年代,新一波AI热潮兴起。当时,严重依赖知识表示的专家系统试图复刻人类决策过程。但成果未能满足期望,因知识表示仅适用于少数领域,且因数据匮乏与计算能力不足,其他算法均不可行。

  下一波AI寒冬接踵而至,持续一段时间,直至数据量与计算能力几乎呈指数级增长,为深度学习实施提供可能。而今,我们正处于这一模式可能再现的境地。

  这犹如泡沫破裂。每当某物价值被人为高估时,一旦普遍误解转化为众人皆知的事实,泡沫便可能破灭。

  当前高性能AI主要依托深度神经网络,这些网络被视为黑盒模型,通过大量浮点数计算预测X、Y或其他变量。这些模型虽能精准预测,因其为通用多项式函数近似器,拥有成千上万神经元随时间推移抽象出函数。然而,你若追问这些模型如何得出结论时,能揭示其推理过程的方法极为有限,因人难以解释无数神经元间浮点数流的运作机制。这便是这些模型在推理与知识表示研究领域未取得进展的原因。长远来看,这令人担忧,因为我们需要的模型需具备理解力而不仅仅是进行“肤浅”的模式识别。

  例如,一个检测图像中狗的神经网络或许能预测图像中存在狗的身影,但它并未真正理解何为狗以及除视觉模式外它还能做什么。

  你可能会认为一个能对图像中的狗与猫进行分类的神经网络也能轻松对图像中的鸟进行分类。但问题在于若未重新学习其已掌握的所有知识并融入鸟类信息人工智能便无法对鸟类或其他动物进行分类。这明显表明推理与知识表示在发现关联方面至关重要。以人类为例每当想到狗时我们脑海中可能会浮现其拼写形象及名字等关联信息。

  联想记忆之所以重要是因为需要多任务模型(这是迈向AGI的第一步)其能做不止一件事而不仅限于对图像中的动物进行分类。它应理解“狗”一词与狗的实际形象紧密相关且指向同一事物。

  鉴于目前几乎所有AI研究都集中在深度学习领域试图不断提升神经网络的性能或鲁棒性因此大问题尚未解决。若不转向基于推理的AI范式那么下一波AI寒冬将迅速降临。

  尽管目前AI面临诸多挑战但希望犹存。一个可能将深度学习与推理相结合的研究领域是逻辑神经网络它试图将神经元映射到由AND、OR等运算符组成的逻辑谓语上……其前景是神经网络将不再是黑盒知识表示可更容易地迁移至其他模型。

  公平而言至今为止此方法尚不十分有效因为在映射神经元状态以获取逻辑谓语时大量信息会丢失。人们希望找到解决此类问题的方法使AI梦想成真。

© 版权声明

相关文章