多客科技 发表于 2025-12-13 12:27

AI新公式详解:从"暴力堆叠"到"质量竞争",底层逻辑变了

作者:微信文章


01600267-926c-4c88-9215-129b734c904b
复盘2025年的AI战场,有个拐点很多人没看懂。

1月,DeepSeek R1横空出世。训练成本约600万美元,GPT-4是1亿美元,差了16倍。

8月,OpenAI发布GPT-5。号称"最智能模型",但用户抱怨"不如前代"。

11月,Google发布Gemini 3。重新夺回榜首,连Sam Altman都点赞。

你看到这个规律没有?

这不是简单的你追我赶。这背后,是AI产业底层公式的一次彻底改写。

理解这个公式变化,你就能看懂:为什么小团队能打败大公司?为什么堆钱不再是唯一出路?你的机会在哪里?

就像营收公式(流量×转化率×客单价)能让你看懂所有商业模式。AI也有个类似的公式。

这篇文章分享两个关键点:

第一,AI能力公式的进化——从旧公式到新公式,底层逻辑变了。

第二,这对你意味着什么——4个确定性趋势,影响投资、创业和个人发展。
2018-2023:暴力美学时代

先看旧公式:

AI能力 = 参数量 × 数据量 × 算力

我们用文案能力来类比。

假设你掌握了一套叫SNTF的文案技能,比如说有20个步骤。

这20个步骤就像大脑里的20个"神经元",写文案时互相配合,形成能力。新手只会5个步骤,你会20个,质量肯定更好。

AI也一样,三个要素:

参数量:多少个"步骤"、多少个"神经元"。GPT-3有1750亿个参数。

数据量:读过多少案例、看过多少书。GPT-3读了45TB文本,几乎全网的书、文章、代码。

算力:投入多少时间精力学习。GPT-3训练几个月,用了几千块GPU。

2020年,OpenAI发现这个公式。三个变量,乘法关系。哪个增加,AI就变强,而且可预测。

简单粗暴。但有效。


3fa39951-4447-490b-91fc-dd215edf5439
你可能想:我不搞技术,这跟我有什么关系?

讲个真实案例。

前段时间我听一个投资大咖分享。有人问:未来自动驾驶领域,哪个股票会好?

多数人第一反应:肯定是专门做自动驾驶的公司。美国有家公司专门做自动驾驶出行,中国也有,大家觉得更专业,更看好。

那位老师说:不对。

未来在自动驾驶上胜出的,一定是特斯拉这种车企,不是那些专门搞自动驾驶的公司。谷歌搞了这么多年,也一定搞不过特斯拉。

为什么?

专门做自动驾驶的公司,街上总共才几千辆车在跑。特斯拉呢?一年卖几十万辆、上百万辆车。

回到公式:自动驾驶也是AI。

参数量,算法模型大家差不多。

数据量,这是关键。专门公司只有几千辆车数据,特斯拉有几百万辆车数据。

算力,有数据就能训练。特斯拉的数据量,是那些公司的几十倍、上百倍。

根据公式,销量大的车企,自动驾驶能力未来一定更强。投资判断,自然能做出来。

这就是理解公式的价值。


Gemini_Generated_Image_lfz7x1lfz7x1lfz7
不用懂技术细节,但能看懂:谁的数据多、谁的资源够、谁更可能赢。

你做投资判断时,是不是也能用这个思路?

这个公式在2018到2023年,确实很灵。

2018年,GPT-1:参数1.17亿,能写句子,像小学生。

2019年,GPT-2:参数15亿,增长10倍,能写段落,像初中生。

2020年,GPT-3:参数1750亿,增长100倍,能写文章、能编程,像大学生。

2022年,ChatGPT:基于GPT-3.5,出圈了,全世界都在用。

那几年,所有人都相信:堆参数、堆数据、堆算力,就能让AI变强。

暴力美学。


Gemini_Generated_Image_rs44ysrs44ysrs44
就像健身,想肌肉大?吃蛋白粉,疯狂练。AI也一样,想模型强?堆参数,堆数据,堆算力。简单粗暴,但有效。

但2023年,剧情反转。
2023年:三大瓶颈同时出现

从2023年开始,行业觉得不对劲。

不是公式错了。是继续"堆"的成本太高,回报太低。

三个变量的瓶颈,同时出现。


image-20251213173018289瓶颈1:参数递减陷阱

GPT-4有1.7万亿参数,是GPT-3的100倍。

训练成本?从500万美元,飙到1亿美元,涨了20倍。

能力提升?大概2到3倍。

依旧用文案类比:

以前,你一周写一篇文案,用30个步骤,质量不错。现在,你一个月写一篇,用120个步骤,投入4倍时间。质量确实更好,但好多少?可能只好30%。

AI投入增加20倍,收益只增加3倍。

这买卖不划算了。

继续这样:训练GPT-5,可能需要10亿美元,能力可能只提升20%。

(注:GPT-5实际在2025年8月发布,训练成本确实非常高昂,但性能提升并未达到预期的质变)

投入越多,回报越少。这就是陷阱。
瓶颈2:数据枯竭

想象你学文案,要看大量书。

前100本,都是经典,《定位》《影响力》,进步飞快。

第101到1000本,还行的书,进步变慢。

第1001本往后,网上随便找的文章,开始学坏……

看到这个规律了吗?

AI遇到同样问题。

全网高质量内容就那些:维基百科、经典书籍、优质论文、精品文章。有限的。到2023年,这些基本用完。整个人类精华知识库,AI已经吸收完。

剩下什么?

垃圾营销号、低质量网页、重复内容...继续喂这些,AI反而变笨。就像读太多垃圾文章,文案反而写不好。

我8年前学文案时也犯过这个错。收藏了一堆"爆款标题公式",套了100遍,写出来的东西连自己都觉得尴尬。不是公式不行,是质量不行。

优质数据的矿脉,挖空了。


exquisite_fawn_83678_Overhead_lifestyle_photography_in_the_st_fc508898-db9a-4c55-a5e7-6d80f72e9437_2瓶颈3:算力爆炸

我们对比一下几代GPT的训练成本:
GPT-3:约500万美元GPT-4:约1亿美元GPT-5:预计超过5亿美元

这就跟健身一样。

一开始,你每天练1小时,肌肉疯长。后来,每天练5小时,增长放缓。现在,每天练10小时,几乎不增长。

投入增加10倍,收益只增加30%。

钱烧得越来越快,天花板越来越近。

到了2023年,旧公式的三个变量,都撞上了极限:

能力 = 参数量 × 数据量 × 算力
       ↓陷阱   ↓枯竭   ↓爆炸

AI发展,撞上了天花板。


Gemini_Generated_Image_gto45fgto45fgto4
整个行业都在想:接下来怎么办?

就在这时——
DeepSeek的突破:换条路

2025年1月,DeepSeek发布R1模型。

R1一出手就震撼业界,主要是因为三个点:

第一,训练成本极低。据说不到600万美元,GPT-4是1亿,差了16倍。

第二,性能接近顶级。数学、编程任务,接近甚至超过GPT-4。

第三,完全开源。任何人都能下载、使用、研究。

大家震惊:怎么做到的?不是说要堆钱吗?

DeepSeek的秘密:换了条路。

核心在于:不是在"训练时"堆资源,而是在"推理时"花时间。

我们还是用写文案来类比一下:

传统的AI方式:
训练时:苦学3年文案,掌握所有套路,成本很重写作时:拿到brief,30分钟出稿,推理很轻结果:质量一般,没时间细想

DeepSeek的方式:
训练时:只学1年文案,掌握基础,成本轻写作时:拿到brief后,花时间做调研、列大纲、写初稿、测试、迭代,推理很重结果:出精品


858ff3dd-6d0c-4908-af20-7b2ff7141350
我教文案时,常遇到这两种学员。第一种学了100个技巧,写起来还是空洞。第二种只学了10个基础方法,但写的时候愿意花时间打磨,反而出好东西。

所以来对比一下:
旧方式:训练成本高,推理成本低新方式:训练成本低,推理成本高

DeepSeek证明:不需要在训练时堆天价资源,可以把计算放到推理时,让AI"慢慢想"。

那具体要怎么实现呢?

传统AI,比如GPT-4:你问数学题,2x + 5 = 13,x等于多少?它立刻处理,输出:x等于4。

快,但可能错。

DeepSeek R1:你问同样的题。它不立刻回答,而是内部"思考":
第1步:移项,2x等于13减5第2步:计算,2x等于8第3步:除以2,x等于4验证:2乘4加5等于13,对了

然后才输出:x等于4。

慢一点,但更准。

就像人做难题时打草稿、验证。DeepSeek让AI学会了"慢思考"。

这意味着什么?

DeepSeek的突破,揭示新方向:不是只有一条路(堆参数),而是多条路,多维度优化。

新公式出现:

旧公式:

能力 = 参数量 × 数据量 × 算力

新公式:

能力 = f(参数量, 数据质量, 训练方法, 推理计算, 架构创新)

"推理计算"这个新变量进入公式。DeepSeek就是代表。


Gemini_Generated_Image_vqvobevqvobevqvo
当然,新公式里还有其他新方向。快速讲三个案例,让你看到更完整的图景。
1-小模型逆袭

2024年,Claude 3.5 Sonnet出来,很多任务超过GPT-4。

但参数量可能只有GPT-4的十分之一。

怎么做到?

三个秘密:

精选数据。不喂垃圾,只喂精品。100本经典,好过1000本烂书。

蒸馏技术。大模型当老师,教小模型。小模型学到大模型80%能力,只有十分之一大小。

方法优化。不是所有神经元都激活。例如只写电商文案,只调用电商相关的"步骤",效率提升5倍。

所以,最新最大的模型,不一定强。关键是"对"。

如果你有垂直领域专业知识,小模型加专业数据,就是你的壁垒。
2-AI自己造数据

前面说,AI把人类知识库吸收完了。数据用完,怎么办?

让AI自己造。

Meta的做法:用GPT-4生成100万条高质量对话,用这些"假数据"训练Llama,Llama就变强了。

但有风险:AI吃AI的数据,可能"近亲繁殖"。

就像复印机复印复印件,越印越模糊。技术上叫Model Collapse,模型崩溃。

不过启发是:如果你有专业知识,可以"指导"AI生成专业内容作为训练素材。小团队也能做。
3-多模态融合

GPT-4o、Gemini 3为什么厉害?

不只是文本变大,而是文本+图+音频+视频,一起训练。

学习类比:只看书,理解有限。读书+看视频+听课,理解全面。

参数可能没增加多少,但能力更全面。

未来,单一模态的AI竞争会激烈。多模态的垂直应用还很少,这是机会。比如AI炒菜,细分垂直的。


Gemini_Generated_Image_pdt23epdt23epdt2理解新公式,看懂4个趋势

理解公式变化,你就知道,未来有4个确定性趋势。

你准备好了吗?


exquisite_fawn_83678_conceptual_minimalist_art_white_backgrou_9ac81b06-e545-426f-bffa-fd686de23f32_2趋势1:大不一定强

以前觉得,越大的模型越厉害,只有大公司能玩。

但现在:

Claude 3.5中等大小,很多任务超过GPT-4超大模型。DeepSeek用十六分之一成本,做出接近顶级效果。甚至2025年11月发布的Gemini 3,虽然参数量未披露,但在推理、多模态等核心指标上全面领先GPT-5,靠的是架构创新和训练方法优化,不是单纯堆参数。

这意味着什么?

小团队、个人,不用跟大公司拼资源。关键是找对方向,做小而精、垂直专精的东西。

你做内容也一样。不是粉丝越多越好,而是在某个细分领域做到专业、做到精。1万个精准粉丝,可能比10万个泛粉更有价值。

我做公众号这8年,见过太多例子。有人10万粉,变现能力不如别人1万粉。为什么?前者是泛流量,后者是精准受众。

未来AI领域,大模型竞争一定很激烈。但小的细分领域,用你的专业知识+小模型,还是有机会的。

你是哪一种?


Gemini_Generated_Image_7pe1a57pe1a57pe1趋势2:质比量重要

前面讲了,AI遇到的瓶颈:高质量数据用完,继续喂垃圾反而变笨。

所以现在重点不是数据量,而是数据质量。

100本经典书,好过1000本烂书。

这对你意味着什么?

你的专业知识、高质量内容,就是壁垒。别人更新频率比你高,但如果你内容质量更好、更专业,你就有优势。

通用AI越来越强,但在你的专业领域,如果你有高质量知识积累,这就是别人学不走的东西。

我现在教学员写文案,从不给他们一堆模板。我给他们5个场景,让他们跟AI对话30轮。模板会让你依赖,对话会让你成长。

看到这个机会了吗?


Gemini_Generated_Image_hnew4bhnew4bhnew趋势3:效率是新竞争力

以前竞争是"能不能用AI",现在大家都能用。

未来竞争是"用AI做什么独特的事"。

DeepSeek证明,不是堆资源,而是找效率突破点。小模型加推理优化,能打败大模型的暴力堆叠。

你做内容也一样。不是比谁写得多、谁更新快,而是比谁效率更高、组合更独特。

比如:你的专业能力 × AI工具 × 趋势判断 × 表达方式。

这个组合,可能比单纯拼"内容能力"更有竞争力。关键是找到你的效率杠杆在哪。
趋势4:成本快速下降

AI成本,每年下降**50%**。API调用越来越便宜,工具越来越多。

未来AI会像水电一样,变成基础设施,人人都能用。这一天很快,可能2027、2028年就到。

这意味着什么?

如果你的商业模式建立在"我便宜"上,很快被替代。

真正的壁垒是什么?


exquisite_fawn_83678_Minimalist_conceptual_illustration_horiz_eab43626-88fe-4cbb-b145-a391ae5e9895_2
是你的独特价值。是专业能力、信任关系、品牌、你构建的"关系场"。

AI会让很多东西成本降到接近零,但你提供的附加价值、专业判断、跟用户的信任关系,这些是AI替代不了的。

所以你要想:AI降低成本,让更多人能做内容、做产品。但你的独特价值在哪?你的壁垒是什么?

这四个趋势,对你做内容、做个人IP、做产品,都有启发。
总结

好的,总结一下。

旧公式,2018到2023:

能力 = 参数量 × 数据量 × 算力

三个变量,乘法关系。策略:暴力堆叠。2023年遇到瓶颈。

新公式,2024到未来:

能力 = f(参数量, 数据质量, 训练方法, 推理计算, 架构创新)

多个维度,复杂函数。策略:多维优化。DeepSeek、Gemini 3等公司正在探索。

这不只是AI的故事。

是任何领域竞争逻辑的变化:
从"资源竞争"转向"效率竞争"从"量的堆叠"转向"质的优化"从"单一维度"转向"多维组合"

理解这个公式,你就能用同样思维方式,看懂你所在领域的机会在哪里。

如果这篇文章对你有启发,可以收藏,未来看AI趋势时对照着看。

也欢迎你分享给身边做AI、做投资、做个人IP的朋友。

这是AI深度研究系列第1篇。未来我会继续拆解AI产业的关键变化,帮你建立判断趋势的底层框架。


尾图的副本
页: [1]
查看完整版本: AI新公式详解:从"暴力堆叠"到"质量竞争",底层逻辑变了