AI新公式详解:从"暴力堆叠"到"质量竞争",底层逻辑变了
作者:微信文章01600267-926c-4c88-9215-129b734c904b
复盘2025年的AI战场,有个拐点很多人没看懂。
1月,DeepSeek R1横空出世。训练成本约600万美元,GPT-4是1亿美元,差了16倍。
8月,OpenAI发布GPT-5。号称"最智能模型",但用户抱怨"不如前代"。
11月,Google发布Gemini 3。重新夺回榜首,连Sam Altman都点赞。
你看到这个规律没有?
这不是简单的你追我赶。这背后,是AI产业底层公式的一次彻底改写。
理解这个公式变化,你就能看懂:为什么小团队能打败大公司?为什么堆钱不再是唯一出路?你的机会在哪里?
就像营收公式(流量×转化率×客单价)能让你看懂所有商业模式。AI也有个类似的公式。
这篇文章分享两个关键点:
第一,AI能力公式的进化——从旧公式到新公式,底层逻辑变了。
第二,这对你意味着什么——4个确定性趋势,影响投资、创业和个人发展。
2018-2023:暴力美学时代
先看旧公式:
AI能力 = 参数量 × 数据量 × 算力
我们用文案能力来类比。
假设你掌握了一套叫SNTF的文案技能,比如说有20个步骤。
这20个步骤就像大脑里的20个"神经元",写文案时互相配合,形成能力。新手只会5个步骤,你会20个,质量肯定更好。
AI也一样,三个要素:
参数量:多少个"步骤"、多少个"神经元"。GPT-3有1750亿个参数。
数据量:读过多少案例、看过多少书。GPT-3读了45TB文本,几乎全网的书、文章、代码。
算力:投入多少时间精力学习。GPT-3训练几个月,用了几千块GPU。
2020年,OpenAI发现这个公式。三个变量,乘法关系。哪个增加,AI就变强,而且可预测。
简单粗暴。但有效。
3fa39951-4447-490b-91fc-dd215edf5439
你可能想:我不搞技术,这跟我有什么关系?
讲个真实案例。
前段时间我听一个投资大咖分享。有人问:未来自动驾驶领域,哪个股票会好?
多数人第一反应:肯定是专门做自动驾驶的公司。美国有家公司专门做自动驾驶出行,中国也有,大家觉得更专业,更看好。
那位老师说:不对。
未来在自动驾驶上胜出的,一定是特斯拉这种车企,不是那些专门搞自动驾驶的公司。谷歌搞了这么多年,也一定搞不过特斯拉。
为什么?
专门做自动驾驶的公司,街上总共才几千辆车在跑。特斯拉呢?一年卖几十万辆、上百万辆车。
回到公式:自动驾驶也是AI。
参数量,算法模型大家差不多。
数据量,这是关键。专门公司只有几千辆车数据,特斯拉有几百万辆车数据。
算力,有数据就能训练。特斯拉的数据量,是那些公司的几十倍、上百倍。
根据公式,销量大的车企,自动驾驶能力未来一定更强。投资判断,自然能做出来。
这就是理解公式的价值。
Gemini_Generated_Image_lfz7x1lfz7x1lfz7
不用懂技术细节,但能看懂:谁的数据多、谁的资源够、谁更可能赢。
你做投资判断时,是不是也能用这个思路?
这个公式在2018到2023年,确实很灵。
2018年,GPT-1:参数1.17亿,能写句子,像小学生。
2019年,GPT-2:参数15亿,增长10倍,能写段落,像初中生。
2020年,GPT-3:参数1750亿,增长100倍,能写文章、能编程,像大学生。
2022年,ChatGPT:基于GPT-3.5,出圈了,全世界都在用。
那几年,所有人都相信:堆参数、堆数据、堆算力,就能让AI变强。
暴力美学。
Gemini_Generated_Image_rs44ysrs44ysrs44
就像健身,想肌肉大?吃蛋白粉,疯狂练。AI也一样,想模型强?堆参数,堆数据,堆算力。简单粗暴,但有效。
但2023年,剧情反转。
2023年:三大瓶颈同时出现
从2023年开始,行业觉得不对劲。
不是公式错了。是继续"堆"的成本太高,回报太低。
三个变量的瓶颈,同时出现。
image-20251213173018289瓶颈1:参数递减陷阱
GPT-4有1.7万亿参数,是GPT-3的100倍。
训练成本?从500万美元,飙到1亿美元,涨了20倍。
能力提升?大概2到3倍。
依旧用文案类比:
以前,你一周写一篇文案,用30个步骤,质量不错。现在,你一个月写一篇,用120个步骤,投入4倍时间。质量确实更好,但好多少?可能只好30%。
AI投入增加20倍,收益只增加3倍。
这买卖不划算了。
继续这样:训练GPT-5,可能需要10亿美元,能力可能只提升20%。
(注:GPT-5实际在2025年8月发布,训练成本确实非常高昂,但性能提升并未达到预期的质变)
投入越多,回报越少。这就是陷阱。
瓶颈2:数据枯竭
想象你学文案,要看大量书。
前100本,都是经典,《定位》《影响力》,进步飞快。
第101到1000本,还行的书,进步变慢。
第1001本往后,网上随便找的文章,开始学坏……
看到这个规律了吗?
AI遇到同样问题。
全网高质量内容就那些:维基百科、经典书籍、优质论文、精品文章。有限的。到2023年,这些基本用完。整个人类精华知识库,AI已经吸收完。
剩下什么?
垃圾营销号、低质量网页、重复内容...继续喂这些,AI反而变笨。就像读太多垃圾文章,文案反而写不好。
我8年前学文案时也犯过这个错。收藏了一堆"爆款标题公式",套了100遍,写出来的东西连自己都觉得尴尬。不是公式不行,是质量不行。
优质数据的矿脉,挖空了。
exquisite_fawn_83678_Overhead_lifestyle_photography_in_the_st_fc508898-db9a-4c55-a5e7-6d80f72e9437_2瓶颈3:算力爆炸
我们对比一下几代GPT的训练成本:
GPT-3:约500万美元GPT-4:约1亿美元GPT-5:预计超过5亿美元
这就跟健身一样。
一开始,你每天练1小时,肌肉疯长。后来,每天练5小时,增长放缓。现在,每天练10小时,几乎不增长。
投入增加10倍,收益只增加30%。
钱烧得越来越快,天花板越来越近。
到了2023年,旧公式的三个变量,都撞上了极限:
能力 = 参数量 × 数据量 × 算力
↓陷阱 ↓枯竭 ↓爆炸
AI发展,撞上了天花板。
Gemini_Generated_Image_gto45fgto45fgto4
整个行业都在想:接下来怎么办?
就在这时——
DeepSeek的突破:换条路
2025年1月,DeepSeek发布R1模型。
R1一出手就震撼业界,主要是因为三个点:
第一,训练成本极低。据说不到600万美元,GPT-4是1亿,差了16倍。
第二,性能接近顶级。数学、编程任务,接近甚至超过GPT-4。
第三,完全开源。任何人都能下载、使用、研究。
大家震惊:怎么做到的?不是说要堆钱吗?
DeepSeek的秘密:换了条路。
核心在于:不是在"训练时"堆资源,而是在"推理时"花时间。
我们还是用写文案来类比一下:
传统的AI方式:
训练时:苦学3年文案,掌握所有套路,成本很重写作时:拿到brief,30分钟出稿,推理很轻结果:质量一般,没时间细想
DeepSeek的方式:
训练时:只学1年文案,掌握基础,成本轻写作时:拿到brief后,花时间做调研、列大纲、写初稿、测试、迭代,推理很重结果:出精品
858ff3dd-6d0c-4908-af20-7b2ff7141350
我教文案时,常遇到这两种学员。第一种学了100个技巧,写起来还是空洞。第二种只学了10个基础方法,但写的时候愿意花时间打磨,反而出好东西。
所以来对比一下:
旧方式:训练成本高,推理成本低新方式:训练成本低,推理成本高
DeepSeek证明:不需要在训练时堆天价资源,可以把计算放到推理时,让AI"慢慢想"。
那具体要怎么实现呢?
传统AI,比如GPT-4:你问数学题,2x + 5 = 13,x等于多少?它立刻处理,输出:x等于4。
快,但可能错。
DeepSeek R1:你问同样的题。它不立刻回答,而是内部"思考":
第1步:移项,2x等于13减5第2步:计算,2x等于8第3步:除以2,x等于4验证:2乘4加5等于13,对了
然后才输出:x等于4。
慢一点,但更准。
就像人做难题时打草稿、验证。DeepSeek让AI学会了"慢思考"。
这意味着什么?
DeepSeek的突破,揭示新方向:不是只有一条路(堆参数),而是多条路,多维度优化。
新公式出现:
旧公式:
能力 = 参数量 × 数据量 × 算力
新公式:
能力 = f(参数量, 数据质量, 训练方法, 推理计算, 架构创新)
"推理计算"这个新变量进入公式。DeepSeek就是代表。
Gemini_Generated_Image_vqvobevqvobevqvo
当然,新公式里还有其他新方向。快速讲三个案例,让你看到更完整的图景。
1-小模型逆袭
2024年,Claude 3.5 Sonnet出来,很多任务超过GPT-4。
但参数量可能只有GPT-4的十分之一。
怎么做到?
三个秘密:
精选数据。不喂垃圾,只喂精品。100本经典,好过1000本烂书。
蒸馏技术。大模型当老师,教小模型。小模型学到大模型80%能力,只有十分之一大小。
方法优化。不是所有神经元都激活。例如只写电商文案,只调用电商相关的"步骤",效率提升5倍。
所以,最新最大的模型,不一定强。关键是"对"。
如果你有垂直领域专业知识,小模型加专业数据,就是你的壁垒。
2-AI自己造数据
前面说,AI把人类知识库吸收完了。数据用完,怎么办?
让AI自己造。
Meta的做法:用GPT-4生成100万条高质量对话,用这些"假数据"训练Llama,Llama就变强了。
但有风险:AI吃AI的数据,可能"近亲繁殖"。
就像复印机复印复印件,越印越模糊。技术上叫Model Collapse,模型崩溃。
不过启发是:如果你有专业知识,可以"指导"AI生成专业内容作为训练素材。小团队也能做。
3-多模态融合
GPT-4o、Gemini 3为什么厉害?
不只是文本变大,而是文本+图+音频+视频,一起训练。
学习类比:只看书,理解有限。读书+看视频+听课,理解全面。
参数可能没增加多少,但能力更全面。
未来,单一模态的AI竞争会激烈。多模态的垂直应用还很少,这是机会。比如AI炒菜,细分垂直的。
Gemini_Generated_Image_pdt23epdt23epdt2理解新公式,看懂4个趋势
理解公式变化,你就知道,未来有4个确定性趋势。
你准备好了吗?
exquisite_fawn_83678_conceptual_minimalist_art_white_backgrou_9ac81b06-e545-426f-bffa-fd686de23f32_2趋势1:大不一定强
以前觉得,越大的模型越厉害,只有大公司能玩。
但现在:
Claude 3.5中等大小,很多任务超过GPT-4超大模型。DeepSeek用十六分之一成本,做出接近顶级效果。甚至2025年11月发布的Gemini 3,虽然参数量未披露,但在推理、多模态等核心指标上全面领先GPT-5,靠的是架构创新和训练方法优化,不是单纯堆参数。
这意味着什么?
小团队、个人,不用跟大公司拼资源。关键是找对方向,做小而精、垂直专精的东西。
你做内容也一样。不是粉丝越多越好,而是在某个细分领域做到专业、做到精。1万个精准粉丝,可能比10万个泛粉更有价值。
我做公众号这8年,见过太多例子。有人10万粉,变现能力不如别人1万粉。为什么?前者是泛流量,后者是精准受众。
未来AI领域,大模型竞争一定很激烈。但小的细分领域,用你的专业知识+小模型,还是有机会的。
你是哪一种?
Gemini_Generated_Image_7pe1a57pe1a57pe1趋势2:质比量重要
前面讲了,AI遇到的瓶颈:高质量数据用完,继续喂垃圾反而变笨。
所以现在重点不是数据量,而是数据质量。
100本经典书,好过1000本烂书。
这对你意味着什么?
你的专业知识、高质量内容,就是壁垒。别人更新频率比你高,但如果你内容质量更好、更专业,你就有优势。
通用AI越来越强,但在你的专业领域,如果你有高质量知识积累,这就是别人学不走的东西。
我现在教学员写文案,从不给他们一堆模板。我给他们5个场景,让他们跟AI对话30轮。模板会让你依赖,对话会让你成长。
看到这个机会了吗?
Gemini_Generated_Image_hnew4bhnew4bhnew趋势3:效率是新竞争力
以前竞争是"能不能用AI",现在大家都能用。
未来竞争是"用AI做什么独特的事"。
DeepSeek证明,不是堆资源,而是找效率突破点。小模型加推理优化,能打败大模型的暴力堆叠。
你做内容也一样。不是比谁写得多、谁更新快,而是比谁效率更高、组合更独特。
比如:你的专业能力 × AI工具 × 趋势判断 × 表达方式。
这个组合,可能比单纯拼"内容能力"更有竞争力。关键是找到你的效率杠杆在哪。
趋势4:成本快速下降
AI成本,每年下降**50%**。API调用越来越便宜,工具越来越多。
未来AI会像水电一样,变成基础设施,人人都能用。这一天很快,可能2027、2028年就到。
这意味着什么?
如果你的商业模式建立在"我便宜"上,很快被替代。
真正的壁垒是什么?
exquisite_fawn_83678_Minimalist_conceptual_illustration_horiz_eab43626-88fe-4cbb-b145-a391ae5e9895_2
是你的独特价值。是专业能力、信任关系、品牌、你构建的"关系场"。
AI会让很多东西成本降到接近零,但你提供的附加价值、专业判断、跟用户的信任关系,这些是AI替代不了的。
所以你要想:AI降低成本,让更多人能做内容、做产品。但你的独特价值在哪?你的壁垒是什么?
这四个趋势,对你做内容、做个人IP、做产品,都有启发。
总结
好的,总结一下。
旧公式,2018到2023:
能力 = 参数量 × 数据量 × 算力
三个变量,乘法关系。策略:暴力堆叠。2023年遇到瓶颈。
新公式,2024到未来:
能力 = f(参数量, 数据质量, 训练方法, 推理计算, 架构创新)
多个维度,复杂函数。策略:多维优化。DeepSeek、Gemini 3等公司正在探索。
这不只是AI的故事。
是任何领域竞争逻辑的变化:
从"资源竞争"转向"效率竞争"从"量的堆叠"转向"质的优化"从"单一维度"转向"多维组合"
理解这个公式,你就能用同样思维方式,看懂你所在领域的机会在哪里。
如果这篇文章对你有启发,可以收藏,未来看AI趋势时对照着看。
也欢迎你分享给身边做AI、做投资、做个人IP的朋友。
这是AI深度研究系列第1篇。未来我会继续拆解AI产业的关键变化,帮你建立判断趋势的底层框架。
尾图的副本
页:
[1]