大厂围剿,“长文本”成不了Kimi的护城河

AI百科1个月前更新 快创云
22 0

  在过去的一周内,由AI技术专家杨植麟创立的大模型初创企业月之暗面及其产品Kimi引发了广泛关注,从社交媒体一路延伸至A股市场,带动了一批"Kimi概念股"的显著上涨。这是国内AI创业公司首次实现真正意义上的"破圈"。

  资本市场的瞩目也让Kimi迎来了用户数量的激增。据"AI产品榜(cpb.com)"数据显示,Kimi智能助手在2024年2月的访问量达到了305万,较上月增长了107.6%,而在3月8日至3月14日的周访问量更是攀升至183万,环比增长了45%。流量的剧增导致Kimi在3月20日出现了宕机等异常情况。

  这一切的起点是3月18日,Kimi宣布其自研的智能助手在上下文窗口技术上取得了新突破,现已支持200万字超长无损文本处理,并即日起开始产品内测。我们不禁要问,在众多大模型能力中,为何长文本能力会成为引爆点?

为什么长文本是用户的痛点?

  对于大模型处理长文本的能力,月之暗面的创始人杨植麟将其解读为"新计算范式",并认为构建通用的世界模型需要依赖"长文本"。

  想象一下,如果你将大模型视为一个与你对话的人,它同样拥有短期和长期记忆。长期记忆是由模型训练得到的向量和参数构成的知识库,而上下文则是其短期记忆。当对话内容超出大模型的上下文承载能力时,超出部分将被遗忘,这从根本上限制了大模型处理复杂多变任务的能力。因此,拓展上下文成为解决这一问题的关键,使AI在面对需要详细描述和举例学习的任务时表现更佳。如果以通用人工智能(AGI)为目标,上下文长度的突破更是不可或缺的。

  从市场应用来看,当前使用大语言模型的人群,无论是科技行业从业者、爱好者还是学生,都迫切需要长文本能力来处理如论文解读、深度研报和会议摘要等应用场景。因此,OpenAI的开发者关系经理Logan Kilpatrick曾指出,"上下文是大语言模型的下一个关键突破"。

因长文本而备受瞩目的Kimi

  显然,月之暗面在用户需求把握上的第一步是成功的。早在2023年10月,Kimi刚上线时,就以独特的方式亮相。他们在官宣文章的标题中加入了多个"o"的"Loooooooonng LLM时代",通过视觉上的独特效果让人印象深刻,明白这个大模型与"长"文本的关联。文章第一句即提到"今天,Moonshot AI带着首个支持输入20万汉字的智能助手产品Kimi Chat与大家见面了"。

  这些宣传内容迅速将"长文本"与Kimi联系起来。通过这一营销策略,月之暗面轻松占领了用户心智,使得一提到"长文本",人们就会想到"月之暗面"。

  在当时竞争激烈的大模型市场中,新模型层出不穷,但大部分模型的介绍都遵循一套标准流程:公布模型参数、是否开源、测试集成绩等。尽管数据清晰,但这些晦涩的技术术语对大众市场而言并不友好。相比之下,月之暗面通过具有辨识度的宣传方式轻松脱颖而出,赢得了普通用户的青睐。

  在后续宣传中,月之暗面不断强调其长文本能力,最近的突破也集中在这一点上。因此,当用户将长文本等同于Kimi时,除非竞争对手拥有压倒性的实力,否则很难撼动Kimi在用户心中的地位。

"长文本"能否成为Kimi的永久护城河?

  然而,"长文本"并不能保证Kimi的永久安全。在海外,Antropic公司也聚焦于长文本能力。其大模型Claude初代就支持100k token的上下文处理5万字。尽管在整体性能上稍逊于OpenAI,但依旧赢得了核心粉丝的青睐。然而,OpenAI的GPT-4 Turbo发布后支持128k上下文,给Antropic带来了危机。尽管Claude 2.1紧急提升了上下文至200k,但后来的探针测试显示其并未真正记住内容。而谷歌的Gemini 1.5更是将上下文推至100万。这些迹象表明,"长文本"能力的护城河正在变浅。

  在国内市场,大厂们也迅速跟进。阿里巴巴宣布通义千问免费开放1000万字长文档处理功能;百度计划在下个月开放200万-500万字长文本能力;360智脑也内测了500字长文本处理能力。据新浪科技数据,Kimi当前每日获客成本高达20万元。面对大厂的围剿,资金与算力资源有限的月之暗面或将面临挑战。尽管目前拥有忠实用户基础,但如果未能找到新的护城河,未来可能面临困境。

  作为坚定的AGI信徒,杨植麟曾表示,"独特价值是智能的增量。要抓住这一点,智能永远是核心增值。"因此,"智能"能否成为Kimi新的护城河?我们将拭目以待。

© 版权声明

相关文章