AI 的“十年寒窗”:大模型是如何炼成的?
作者:微信文章你有没有想过,像 ChatGPT 这样聪明的 AI,它是怎么“出生”的?很多人以为 AI 是工程师一行一行代码写出来的,就像写个计算器程序一样。其实不是。现代 AI 更像是一个被“养大”的孩子。而在它能够和你谈笑风生之前,它必须经历一个漫长、枯燥且极其昂贵的阶段——预训练(Pre - training)。如果把 AI 最终的形态比作一个博学的大学教授,那么“预训练”就是它闭关苦读、从不识字到通读万卷书的求学过程。今天,我们就来扒一扒这个“硅基大脑”的学习秘密。一、那个被关在图书馆里的“天才儿童”
想象一下,我们有一个记忆力超群、智商极高的“天才儿童”(这就是 AI 的初始模型),但他刚出生时,大脑是一张白纸,连“苹果”是什么都不知道。工程师们做了一件简单粗暴的事:把这个孩子关进了一座囊括了人类所有书籍、网页、代码和对话记录的“超级图书馆”里。工程师对他说:“在你读完这里所有的书之前,不许出来,也不许和人说话。”这就是预训练。在这个阶段,AI 的任务只有一个:通读人类互联网上几乎所有的文字。二、它在玩一个叫“猜词”的游戏
你可能会问:“光看书就能学会思考吗?我也看书,为什么我没变天才?”因为 AI 的看书方式和我们不一样。它在玩一个永无止境的“填空游戏”。这是预训练最核心的秘密,学名叫做“下一个词预测”。它读到半句:“床前明月光,疑是地上__”。 然后它要猜最后一个字是什么。刚开始时,它完全是瞎蒙,可能会猜“鞋”、“饼”、“喵”。然后它看答案,发现原句是“霜”。自我修正:它会狠狠地调整自己大脑里的神经连接(参数),告诉自己:“下次看到‘床前明月光’,后面大概率要跟‘霜’。”这个过程,它不是重复几十次,而是重复了数万亿次。当它读了足够多的侦探小说,它学会了逻辑推理;当它读了足够多的 Python 代码,它学会了编程语法;当它读了足够多的法律文书,它学会了严谨的措辞。它并不懂什么是“逻辑”或“情感”,但它通过海量的练习,掌握了“文字接龙”的最高境界——只要你给它上文,它就能完美地预测出最符合人类逻辑的下文。三、这是一场“烧钱”的暴力美学
预训练听起来很简单(就是猜词嘛),但实施起来,是一场人类工业史上的暴力美学。数据量大到离谱: AI “吃”掉的数据量,相当于几百万个人原本需要读几千年的书。算力贵到离谱:为了训练它,需要数万张顶级的显卡(GPU)日夜不停地运转几个月。这期间消耗的电量,足够一个小城镇用上一年。成本高到离谱:训练一次大模型,起步价就是几百万甚至上千万美元。一旦中间参数没调好,这些钱就打水漂了。所以,预训练不仅是技术的竞争,更是钞能力的竞争。四、预训练结束后的“怪才”
当预训练结束,工程师把大门打开,这个 AI 终于“出师”了。此时的它被称为“基座模型” (Base Model)。它已经博古通今,无论是量子力学还是红烧肉的做法,它都懂。但此时的它,还不能直接当助手用。为什么?因为它是个“不懂人情世故的怪才”。如果你问它:“怎么做红烧肉?” 它可能会以为你在跟它玩成语接龙,或者以为你在写小说,于是它接着写:“怎么做红烧肉?这是困扰李大厨多年的问题,那天……”它只想续写,不想回答。它还没有学会“听从指令”和“通过对话帮助人类”。
页:
[1]