DeepSeek横空出世,没有说透的国运级影响

AI百科4周前发布 快创云
19 0

今天试用了一下Deepseek,用下来的体验是两个字:无敌。这里不说什么帮写论文、转正申请书等等用烂了的例子,用我自己的一个脑洞举例,说一下Deepseek给我带来的震撼。

自己半年前看穿越小说时,想了个脑洞叫“完美穿越”,在知乎提问了,但是没人理,没得到满意的回答,后来就搁置了。

刚把这个问题描述原封不动了一下,问了DeepSeek,回答截图如下:

可以看到,Deepseek完美理解了我的提问,并且给出了一份数据内容十分充实可行的回答,这还是这两天联网受限的情况下给出的,真的十分厉害。

为了继续让殖子们高喊“开源盛世”!不是唐朝的“开元盛世”!

问这问题的人估计都不懂什么叫量子计算机。

一天到晚就知道到处碰瓷。

这个问题下面,有一些回答很恶心人。

比如有一个回答拿汉芯一和姜萍来举例,认为DeepSeek是类似的造假行为。而且他还把汉芯和龙芯弄混了。如何评价 DeepSeek 的 R1 与 R1-Zero 模型?

@风吹半夏

首先DeepSeek作为一个开源软件,它是可以接受全世界的审视的。就算现在OpenAI质疑它蒸馏了数据,要知道作为闭源的OpenAI,也顶多是它的回答可以通过API访问,它的模型是无法被拷贝的。这和有些外行大殖子理解的“站在巨人肩膀上”完全不是一个概念。而且这么蒸馏数据通常是得到一个比较小性能还凑合的模型,而不是现在DeepSeek现在的表现。

另外用汉芯一或者姜萍来看待DeepSeek是一种愚蠢的刻舟求剑。

战报会撒谎,战线不会。

哪怕是汉芯一的纸面数据放在2003年,绝不是什么世界领先水平。除了美国,日本瑞萨,韩国三星,德国英飞凌和法国意大利的意法半导体都有超过汉芯一纸面规格的芯片。当年的中国只要拿出这么一款勉强在第二梯队的规格,就可以称得上是突破了。

现在的大语言模型呢?日本的模型在哪儿呢?韩国的在哪儿呢?欧洲的又在哪儿呢?

事实上,在20年后的今天,中国和美国已经是AI这个最热门的高科技领域的唯二玩家。就像六代机一样。已经没有别的玩家了,只有两强争霸。

这不是恨国党简单拿几个丑闻就能抹杀的。

春节期间回老家,空闲时间几乎都在刷 deepseek 相关内容,来源包括b站抖音知乎小红书,这些软件里用户发布的内容,以及评论区每一条有截图的内容。看到了很多 good case,尤其是文创方面的,甚至比某些称主做 role play / 小说专项 / 情感陪伴 的项目做的都好。

但是仔细想一下,这个能力似乎并不是由 r1 决定性生(例如,from base rollout)的。而且就我人肉观察,文创类 cot 内容和 summary 内容并不是特别对应,比如 summary 会在 cot 的基础上直接升华一个层次。

在 r1 论文中搜索 non-reasoning,可以看到这部分能力主要继承自 v3,增加了一些 cot rewrite 的内容,而且相关的 rl 用的是 v3 的 sft 训出的 rm;到 v3 论文里搜索 role play 和 creative writing,可以看到关键词:1. chain-of-thought leading to the reward 2. enlist human annotators。这轻描淡写的两句从现在的效果来看感觉很难想象投入了多少资源…

从做大模型以来,感觉各种实验 or 小道消息都在透露出一个,那就是数据重要性大于算法。感觉算法(ps. 此处算法主要指用公式描述模型参数变化的那些算法)逐渐进入一种太阳底下没有新鲜事(aka. 大道至简)的状态,例如 grpo 不用 value function 主打的就是 “efficient and effective”,例如 MLA 结构如果硬要说的话和上古年间的 SENet 也不是完全没有联系(手动狗头)ps. 数据重要性的另一个点可能体现在,只有优质数据训的模型才能直接 rl from base

从算法角度来说,r1 给我的一个比较厉害的感觉是把 rl 领域的 “code-pretrain” 做 work 了 —— 这里是带引的 “code-pretrain”,因为实际上是 “reasoning(code/math/logic/…)-pretrain”。印象中 LLM 最早开始火的时候大家就在 pretrain 的时候拉大 code 数据的比例(消息最初可能来自于 openai),然后这个模型整体能力比如说 if 就也会跟着变好。

人工智能不参与最终决策啊,就是个工具,语言类的就是个高效的搜索器,现在的语言类人工智能是用人产生的数据喂出来的,人的素质越高喂出来的越强。

工业类的更不用操心了,都是要分门别类的。

这种智能产品,不应该所有的东西都串联起来,不可控,现在这种还不需要想拔电源的问题。

语言类人工智能没有人不停的制造数据它就停摆了,语言人工智能没有求知欲,就是个推理和推荐机器。

恐惧的来源应该是“原来有人解决了我的求知欲而不知”,“怀疑比我更渊博的不是群智而是机器”,“害怕有让语言智能长手脚,但不确定这东西有没有欲望,你问人工智能怕不怕拔电源玩玩”。

程序员失业有太多其他因素,难以确定是否都是由人工智能引起的。即使没有人工智能,这一行业也已经饱和了。不过人工智能一定会让程序员这个行业的整体薪资水平降低,老板眼里什么事 AI 都能替你解决。

AI技术的竞争这个前提就大错特错,打从一开始就是美国的金本再疯狂炒作的低级话术,如果我把所谓的AI技术的竞争这话除魅一下,去除那些硅谷资本集团和华尔街金融集团的PPT话术,那么就会变成这样一个故事,这个故事是如此的简单,以至于高中生都能花三分钟看得懂。

美国一家叫openAI的在2025
2025年通过把一个类似于智慧办公助手一类的软件对互联网上巨量文本作为数据库进行了训练,并优化了一些搜索算法让这玩意吐字更像人了,然后在2025年推出了一个用户端叫chatGPT引发了一堆媒体和用户的关注,然后openAI又为了这个智慧办公助手优化几个版本,并且为了节约成本压缩了软件的规模推出了一个叫GPT4o的新软件,但是互联网的语料快用完了,无法继续提高智慧办公助手的吐字拟人率和准确率,然后又通过思维链这个2025年被谷发明的技术,进一步校准了智慧办公助手的吐字拟人率和准确率,代价就是思维链的训练会消耗大量的算力,并且智慧办公助手本身的用户使用的时候软件内部校正过程本身也是需要巨量的算力的,这成为了一个openAI难以克服的麻烦,这个时候一家叫deepseek的中国觉得openAI这么搞太浪费了,于是优化了一下智慧办公助手的训练流程和内部校正过程,这样成本可以下降好多倍。

这个时候openAI就不干了,你们中国太不讲武德了,一下子把成本下降那么多不说,还把软件包发出来随便让别人改装成自己的新智慧办公助手,这还让我怎么混,怎么吹智慧办公助手是可以改变人类未来的超级黑科技,于是疯狂抹黑deepseek并用各种下三滥的手段对deepseek的服务器进行黑客攻击。

这个所谓的AI技术较量和危害美国安全的故事的本质就是一个美国和一堆金融利益集团用各种话术包装出来的互联网产品的商战,中国企业戳穿了智慧办公助手不应该那么高的成本和逼格的本质导致了对方的破防,那么随着中国的成本竞争优势,智慧办公助手会因为被中国卷成白菜价从而导致美国这场商战的失败。

配得上。

你的数学真的是体育老师教的么??

作为一个从事实验物理的工作者,我对于现有AI对物理学的冲击的态度可能并不像许多理论学家那样激动。在这里我尝试给出自己的一些思考。

不论哪种模型,如果暂且认为一个大语言模型(LLM)是一个个体,那么这种个体的思维生成的基本结构就决定了LLM”能够胜任一切具有标准答案的任务”。例如此处的物理竞赛题,由于全部的教科书物理框架已经从一开始喂进了神经网络,那么只要按照机器学习的基本训练原理,能够完美解答基于此信息集生成的复杂问题只是数据量,算力和算法上的问题。后者或许可以具体的在每个不同的LLM中进行比较,例如现在的DeepSeekR1,亦或是GPT o3。

问题在于,这种语言学习过程是否真的是某种至少是类人意义上的智能涌现的过程?人类的学习能力的产生,是仅仅凭借获取无数化作某种代码的语言进行内部神经网络训练产生出的,还是某种不同的方式?事实上,前者的学习方式恰恰完美契合应试的学习方式,因为对于应试教育,所有的信息全部来自于教科书。教科书上的知识本质上是人们已经总结好的一行行代码,学生的大脑读取这些代码,进行内部的神经网络训练,也就是不停的考试纠错,从而最终在考试竞赛上取得优胜。高考,竞赛,还是其他的考试,只要是属于这种形式,LLM必然完虐人类。

然而,上述的智能或许和人类真正的智能并不是一回事。题主提出的这个问题好就好在我们讨论的是自然科学,而不是在一个既定的定义框架(固定的信息集)中进行的推理游戏。这也牵扯到了许多其他的问题,例如在物理竞赛取得优胜是否真正对应在自然科学的科研探索中能够做出重要的贡献,但这并不是重点。重点在于,自然科学是一门基于实验的学科,它的核心在于“直接地同物质世界对话”,也就是说,我们人类首先通过视觉,触觉,听觉,等等生物器官与大自然进行相互作用,从而取得了一定的初始信息集。随后,通过具体的使用工具的能力,将物质与物质相互作用,例如苹果下落,摩擦生热,等等手段,进行实验,得到进一步的数据集。最后,基于此数据集进行推理,得到一个理论体系。这是自然科学,或者狭义地说,物理学的研究的基本范式。基于物理学的属于人类的智能,是这样建立起来的。而这些都是一个复杂的相互作用过程。并不等价于通过一个上帝给予你一个预先设定好的理论体系,例如凭空拿到拉格朗日力学体系,或者麦克斯韦方程组,或者量子力学五大公理后,进行大量数据的推理和训练,能够解决足够复杂的问题。LLM解决物理竞赛题目的过程所展现的智能,我认为是后者而非前者。因为LLM并没有亲自做过任何具体的实验,并没有亲自与物质世界进行直接的基于生物体的对话,或者更广义的,基于交换基本粒子的对话,来获取初始信息集并得到整套现代物理学。简单地讲,即便在当代物理学框架下,我也不认为通过理论模拟一个未知的物理体系,和实际对该体系进行物理测量,得到相似的结果,在哲学意义下同属同一个智能范畴。我认为后者所代表的是属于人的真正的智能。

一个可以进一步思考的问题是,基于现有LLM式智能的人工智能模型,是否可以自己提出新的理论体系并预言实验结果?我认为是可能的,但这或许才是一个更有意义的检验LLM是否具备物理学家的智能的实验。但也存在一种可能,即现有的基于语言学习的人工智能,或许并不是通往真正智能的路径。因此,在这个意义下,讨论哪种LLM更聪明并没有意义。他们都蠢。

在说的具体一些。以我从事的凝聚态实验方向为例,目前的LLM人工智能对我的领域可以说几乎没有任何重要的影响。LLM可以帮我写代码,查阅资料,建立工作流,甚至帮我写软件,但是so what? LLM不能帮我做出任何一个能够测量的样品,不能够帮我使用任何仪器,甚至当我把实验数据喂给它时,我也需要先自己把测到的谱理解一番,转换成一些现有理论可以解释的内容,它才能给出一点头绪。但以我目前的观察,任何一台LLM对于解释新物理实验现象的能力还十分初等,基本属于缝合怪,把许多相关的理论全提一遍,组合一下,便不会给予更多的insight。

在这个意义上,或许我能够给出的评价仅仅是,GPT,DeepSeek等LLM是一台优秀的做题机器,科研助手。比较这些做题机器之间的性能,并不能评判出谁更具备”智能”,只能评判出谁更会更有效率的在一个既存知识网络中整合信息。

我一真不信任AI

同学们,OpenAI 看来确实急了,就在昨晚夜里,当地时间 1 月 31 日,OpenAI 发布了全新推理模型 o3-mini,该模型专为科学、数学和编程等技术领域打造,不仅推理能力强大,而且响应速度快,代表了高性价比推理技术的前沿突破。

轻量级推理大模型 o3-mini 最早于去年 12 月的连续 12 天的直播小型发布会中最后一天亮相,一同亮相的还有 “满血版” 的 o3 模型。OpenAI 宣称,o3 具备更先进、近似人类的推理能力,在解决编程、数学、科学等理工科问题方面均超越现役的 o1 模型。OpenAI 曾表示,o3-mini 会在 2025 年 1 月底先上架,o3 则 “会在不久之后推出”。

DeepSeek 的发布,真的是让 OpenAI 着急了,将推理型大模型给干免费了,换句话讲,免费用户也可以使用推理型大模型了。

具体如下:

1、免费用户:可在 ChatGPT 消息输入框下方选择 “Reason” 按钮,或通过重新生成响应的方式体验 o3-mini 的核心推理功能。

2、Plus 与 Team 用户:在原有的基础上,将可用速率限制提升至原先 (o1-mini) 的三倍,也就是每天 150 条,让更多复杂问题能在更短时间内得到解答。

3、Pro 用户:可享受 o3-mini 以及更高智力版本 o3-mini-high 的无限次访问,满足更度或更专业的推理需求。

另外,o3-mini 的价格这次算是彻底给打下来了 —— 比 OpenAI o1-mini 便宜 63%,比满血版 o1 便宜 93%。输入 1.10 美元 / 百万 token、输出 4.40 美元 / 百万 token 。

只能说,我们要感谢 DeepSeek 啊,让不可一世的 CloseAI 终于变得有点人如其名,像 OpenAI 了。

今天我看到的最新消息,OpenAI 的 CEO 山姆・奥特曼开始反思了。

在 Reddit AMA 问答中,CEO 奥特曼表示:“在开源上我们站在了历史的错误一方”。他表示,内部正在考虑开源策略,继续研发模型,但 OpenAI 领先优势不会像以前那么大了。

这不就对了,你再不考虑开源,否则就对不起你的名字 OpenAI 了。

同学们,基于此,我们真的得感谢 DeepSeek 的横空出世。

记住这个历史性时刻吧,2025 年 1 月 31 日,当 OpenAI 举起价格屠刀时,开始给免费用户使用时,我们见证了一个时代的转折:

算力霸权开始向算法低头,

闭源高墙第一次被开源铁锤砸出裂缝。

这场战争没有输家,

因为最终受益的,

永远是站在技术革命浪潮之巅的咱们普通人。

对此,大家怎么看?

欢迎大家加入我的社群「AIGC・掘金成长研习社」,一起掘金,一起暴富,一起用 AI 赋能!AIGC掘金成长研习社

最后,欢迎大家关注我的公众:非著名程序员,每天持续为大家分享 AI、技术、副业和互联网相关的干货,一起突破圈层,实现个体崛起。

原文链接:见证历史!OpenAI 打响 DeepSeek 反击战

入门岛第4关——玩转HF/魔搭/魔乐社区

入门岛第2关——python 基础知识

入门岛第1关——Linux 基础知识

关于DeepSeek的评价和赞誉已经很多,尤其是黑神话老大冯骥的“国运级”科技成果的评价。作为一名科技和产业界摸爬滚打的老兵,我认为还有一点,大家还没有说透——DeepSeek实现了“科技去神话、技术平权化”,起到了激发创新活力、繁荣创新生态的作用。——这才是影响极其深远的国运级事件。

以来,相当于传统行业,数字经济领域受垄断禁锢和资源限制比较少,有想法、懂业务、有技术就可以创新创业,事可大可小,人可多可少,所以一直是创新最为活跃的方向。近些年来,受多重因素影响,创新机会和活力在变少变小:

一是,产业参与主体的业务变少、溢价变小。其一,几乎所有央国企都成立了数科板块,承接了自身数字化业务;其二,地市级以上城市成立的城投数智板块,承接了本城市数字化业务;其三,三大运营商发力政企与产数市场,垄断了区县级数字化业务。导致的结果,对于大部分行业型数字化企业,要么是没有业务了,要么是只剩下微薄的利润。

二是,大模型时代的技术和成本”高不可攀”。其一,在AI产业界,大家都认为国内只能跟随,并且受限于原创水平、先发优势、算力局限,这个差距基本上没法追上;其二,行业型企业,除了把自己的业务理解和数据优势贡献出来,加入少量国内头部大厂的智能体生态,没有其他机会。

上面的原因,再叠加回款困难等一系列问题,综合起来导致产业主体信心下降,创新创业的意愿降低。但是,这本该是整个社会中创新活力最强的领域,局面令人担忧。

DeepSeek的横空出世,解决两个大问题:一是,破除了“神话”色彩,激发的信心和豪情,让中国广大从业者警醒——一切都还是未定之数,这个创新“我”可能也能做,或者最起码“我肯定能搞明白发生了什么”;二是,让中国为数众多的行业型数字化企业平等的拿到的最先进的大模型成果,看到了二度创新的希望——立足自己的业务理解、数据积累、行业资源,立刻拥抱DeepSeek,在可以承受的成本下,采用本地化部署、产品化集成、场景化创新的方式,以自身的大模型化转型,推动中国各个行业的大模型化转型进程。

上面的两点都很重要,而第二点尤为重要,这也是我们过往“最擅长”的创新模式,解决了大量行业型数字化企业的转型升级问题,加快了各个行业的转型升级进程,附带着解决了就业和发展的问题。也只有在这种“百花齐放”局面下,才能催生出来繁荣的场景创新生态,才能从根本上解决“大模型落地应用”痛点困境。在这样的开放生态而不是局限于头部大厂的智能体生态里面真刀真枪卷出来的,才能成为“蛊王”,才会具有大杀四方的能力。

所以说,DeepSeek实现了“科技去神话、技术平权化”,起到了再度激发创新活力、重新繁荣创新生态的作用。——这才是影响极其深远的国运级事件。

最后,再提几点操作层面的建议:对于,不要再像前几年建设智慧城市的“中台底座”一样,再砸大把的钱建设“城市大模型底座”(我知道有一些城市正要这么干),要把钱花在推动各产业大模型化转型上,花在数字行业应用的大模型化转型上;对于有信息中心、具备硬件条件的各类单位,尽快抓紧本地化部署一套DeepSeekR1,提升工作效率;对于上述行业型数字化企业,春节后上班第一天,就要本地化部署一套R1,把技术转化为生产力;对于不具备硬件条件的单位,对于个人用户,鼓励多用DeepSeek的产品,帮助他们更好的迭代升级。

© 版权声明

相关文章