新闻 发表于 2025-11-10 11:56

训练AI大模型过于耗电怎么办?研究人员模仿人脑神经网络,显著提升人工智能性能

作者:微信文章


萨里大学研究人员开发出一种新方法,通过模仿人脑的神经网络来提升人工智能(AI)的性能。

据发表在《神经计算》期刊上的一项研究显示,模仿人脑神经连接方式,可显著提升用于生成式人工智能及其他现代AI模型(如ChatGPT)所依赖的人工神经网络的性能。

该方法名为“拓扑稀疏映射”(Topographical Sparse Mapping),其原理是仅将每个神经元连接至邻近或功能相关的神经元,这与人脑高效组织信息的方式类似。

萨里大学高级讲师罗曼·鲍尔博士表示:“我们的研究表明,智能系统可以构建得更加高效,在不牺牲性能的前提下大幅降低能耗。”

研究人员指出,该模型摒弃了大量不必要的连接,从而以更可持续的方式提升性能,同时保持准确率不变。

鲍尔博士补充道:“如今许多主流大型AI模型的训练过程耗电量超过100万千瓦时。以AI当前的发展速度来看,这种能耗水平根本不可持续。”

研究团队还进一步开发了“增强型拓扑稀疏映射”(Enhanced Topographical Sparse Mapping),在训练过程中引入了一种受生物学启发的“剪枝”机制。这一机制模拟了人脑在学习过程中逐步优化神经连接的方式。

此外,研究团队正在探索该方法在其他领域的应用潜力,例如用于构建更逼真的神经形态计算机——这是一种受人脑结构与功能启发的新型计算范式。
页: [1]
查看完整版本: 训练AI大模型过于耗电怎么办?研究人员模仿人脑神经网络,显著提升人工智能性能