多客科技 发表于 2025-6-14 22:12

AI+EDA:AI助力芯片设计

作者:微信文章
AI的发展离不开芯片,没有芯片的快速发展,没有算力的支持,AI的时代就不会这么快到来。那AI又如何助力芯片的发展呢?现如今已有不少研究者将AI应用到芯片的设计中,AI与芯片相辅相成,AI也在促进芯片的发展,芯片的进一步发展又可以加速AI的发展,由此,AI与芯片形成了一个闭环迭代之路,双向驱动,照这样发展下去,难以想象未来科技的进步之快。芯片产业的链路是很长的,从上游的半导体材料和设备,到芯片设计、制造、封装、测试,再到下游的产业应用。随着人工智能的发展,智能汽车、智能手机、AI PC、大模型等领域对芯片的需求急剧增长,特别是npu、gpu等AI芯片,算法的输入需要图像、点云等模态的数据,因此需要相机、激光雷达等传感器采集数据,这也加大了对各类传感器芯片的需求。在过去,芯片的研发过程是很长的,需要专业的芯片工程师反复设计验证,才能让一款芯片落地,周期达几年。一个芯片设计工程的成长也是很漫长的,需要学习大量的理论,并且在实践中不断地磨炼。在芯片发展的早期,芯片设计主要用手工绘制,随着芯片越来越复杂,晶体管数量也越来越多,如今的芯片极其复杂,芯片中已经多达百亿晶体管,需要软件工具辅助设计。因此诞生了EDA软件,EDA被称为芯片之母,现在都是用EDA设计芯片,EDA软件中集成了大量的算法。如今,AI已经可以应用于芯片设计的多个环节,能够极大提升芯片设计的效率,例如AI RTL代码生成、AI辅助验证、AI布局布线、AI设计空间探索、AI全自动设计芯片。EDA在全球的市场规模约100亿美元,但它支撑着数十万亿美元的数字经济。本文将沿着时间的脉络带大家走进芯片的世界,了解芯片的发展历程、EDA的发展历程以及AI EDA的发展历程,这是科技发展史上所不可或缺的一部分。芯片的发展历程芯片的发展经历了真空管(电子管)时代、晶体管时代、集成电路时代、大规模集成电路时代、超大规模集成电路时代。
https://mmbiz.qpic.cn/sz_mmbiz_png/jlQTZ0JaFpm1FUHJkg4qiccTbvAf2XfWqia3GyuszCpmVZMjgZ76zsTkaUY5SAM5mEZfyRkGOdem5v0d4PqALib6w/640?wx_fmt=png&from=appmsg&wxfrom=5&wx_lazy=1&tp=webp
1904年John Ambrose Fleming发明了真空二极管,1906年Lee de Forest发明了真空三极管。1946年世界上第一台通用电子计算机诞生,使用了17468个真空管。真空管的缺点是体积大、功耗高。1947年贝尔实验室发明了点接触晶体管(现代晶体管的前身),取代真空管。1958年德州仪器的Jack Kilby发明了首块锗基集成电路,晶体管被集成到单一的芯片中,在2000年获得了诺贝尔奖。1959年仙童半导体的Robert Noyce发明了硅基集成电路,奠定了现代芯片制造基础。随着半导体技术的发展,又出现了大规模集成电路、超大规模集成电路,越来越多的晶体管被集成到一个芯片中,芯片集成度越来越高。摩尔定律指出当价格不变时,每经过大约18个月到24个月集成电路上可容纳的晶体管数会增加一倍,且性能也将提升一倍。1971年,全球第一款微处理器4004,使用了2250个晶体管。1978年,英特尔第一款16位微处理器8086,包含29000个晶体管。2006年,英特尔酷睿2双核处理器包含2.91亿个晶体管。2020年,苹果A14芯片包含118亿个晶体管。2024年,英伟达B200包含2080亿个晶体管。芯片的设计流程芯片设计分为数字芯片设计、模拟芯片设计和数模混合芯片设计,这里以数字芯片设计为例。芯片的设计有一套标准化的流程,数字芯片设计分为前端设计和后端设计。前端负责逻辑电路设计,包括系统架构设计、编写RTL代码、仿真验证、逻辑综合,并经过反复的仿真和验证,最终得到芯片的门级网表,作为后端设计的输入。后端负责物理设计,包括布局布线、物理验证等,最终得到芯片的物理版图GDSII,交给晶圆厂制造,最后由封测厂封测。可见,芯片的设计是极其复杂的,并且在设计芯片时还要考虑性能(Performance)、功耗(Power)和面积(Area),简称PPA。
https://mmbiz.qpic.cn/sz_mmbiz_png/jlQTZ0JaFpm1FUHJkg4qiccTbvAf2XfWqAhgBic6O25osXMRft0GnTFmtibN4TUXwTbicdgx6BwlRV1wyIyXt1qJPQ/640?wx_fmt=png&from=appmsg&wxfrom=5&wx_lazy=1&tp=webp
前端设计规格定义:芯片的需求定义,确定芯片具有哪些功能,比如AI计算、高速视频处理等,以及性能要求,比如低功耗。系统设计:根据规格设计芯片系统架构,例如确定使用精简指令集(RISC)还是复杂指令集(CISC),规划芯片的软硬件划分(确定哪些功能由硬件实现哪些功能由软件实现),IP选型,工艺选择。编写RTL代码:通过硬件描述语言比如Verilog或者VHDL将系统设计的各个模块的功能用代码实现。仿真验证:通过仿真对RTL代码进行功能验证,又称为前仿真。逻辑综合:在面积、时序等约束条件下将RTL代码转换成门级网表。静态时序分析:对逻辑综合后的门级网表的时序进行验证,检查电路的建立时间和保持时间是否存在违例。建立时间指的是数据在时钟上升沿到来之前稳定不变的最小时间,保持时间指的是数据在时钟上升沿到来之后稳定不变的最小时间。形式验证:验证逻辑综合后网表的功能是否和RTL代码一致。后端设计布局规划:规划芯片各模块(如电源、I/O等)的位置。布局:将所有逻辑器件放置在合适的位置。时钟树综合:确保时钟信号的同步。布线:实现逻辑器件之间的连线。物理验证:确保布局布线满足设计要求。设计规则检查(Design Rule Check)验证是否符合制造工艺的要求,版图与原理图一致性检查(Layout Versus Schematic)验证物理版图与逻辑电路设计是否一致。EDA的发展历程电子设计自动化(Electronic Design Automation,EDA)软件是芯片设计的工具,用于集成电路芯片的功能设计、逻辑综合、验证、物理设计、制造、封测等。EDA工具分为设计类EDA工具、制造类EDA工具和封测类EDA工具。EDA的发展经历了CAD、CAE、EDA、AI EDA几个历程。早期的EDA被称为CAD,仅仅作用于芯片设计的某些环节,随着技术的发展,芯片设计软件的功能越来越完善和强大,EDA逐渐发展成了一个行业。在早期,芯片较简单,设计芯片需要通过手工绘制电路图。1958年随着集成电路的出现,芯片复杂度增大,也对芯片设计提出了新的要求,传统的手工设计遇到了瓶颈。20世纪70年代,在电路仿真与版图设计方面出现了一些自动化工具和标准。1971年,加州大学伯克利分校开发了首个电路仿真工具SPICE。1978年,Calma公司开发了用于电子设计自动化的标准文件格式,用于描述半导体芯片的布局,统一了整个行业的文件格式,在此之前每个公司都有自己的布局文件格式。1980年加州理工学院的Canver Mead教授发表论文《Introduction to VLSI Systems》,提出通过编程语言描述芯片设计,这个思想影响深远。受此思想影响,1982年VHDL硬件描述语言诞生,1983年Verilog硬件描述语言诞生。1981年首批EDA商业化公司成立,例如Mentor Graphics,后来成为EDA国际三巨头之一。1986年Synopsys成立,1988年Cadence成立。1986年,Synopsys公司创始人Aart de Geus博士发明了逻辑综合工具,提高了芯片的设计效率。随后,EDA技术不断发展和完善。早在1997年,卡内基梅隆大学的学者将强化学习和机器学习用于芯片设计中的布线问题研究。2020年开始一些EDA公司推出AI EDA软件,2020年3月12日,Synopsys推出了首个人工智能EDA软件DSO.ai。如今,国际EDA三巨头分别是Synopsys、Cadence、Mentor graphics(被西门子收购),在国内也有一些优秀的EDA公司,如华大九天、芯华章等,国产EDA也在崛起。AI EDA的发展历程随着AI的发展,学术界和工业界都在研究AI在EDA中的应用,共同推动着AI EDA技术进步。目前的AI主要指的是机器学习,包括深度学习、强化学习等。早在上个世纪,机器学习就被用于EDA中的研究。1997年卡内基梅隆大学计算机科学系的Justin A. Boyan将机器学习中的回归模型和蒙特卡洛方法用于芯片设计中的布线问题研究。
到了21世纪,越来越多的学者将机器学习用于EDA的研究。2005年印度理工学院和德克萨斯大学达拉斯分校的研究人员发表了论文《Placement and Routing for 3D-FPGAs using Reinforcement Learning and Support Vector Machines》(《基于强化学习的3维FPGA布局与布线》),结合支持向量机和强化学习对3D-FPGA芯片进行布局布线。2018年杜克大学、台湾科技大学、德州农工大学和英伟达联合研究团队提出RouteNet,采用卷积神经网络进行可布线性预测。2019年英伟达提出CongestionNet,使用图神经网络预测布线拥塞。除了芯片后端设计中的布局布线,机器学习算法也被用到了前端设计中。2013年,美国哥伦比亚大学计算机科学系的Hung-Yi Liu等人提出了基于随机森林的高层次综合(High-Level Synthesis,HLS)设计空间探索。2014提出了FST(Fast Simulated Anealer),该方法使用模拟退火生成训练集训练决策树,并用于HLS设计空间探索。2019年Hosein Mohammadi Makrani等人提出Paramid方法,该方法采用集成学习估计HLS的性能和资源使用。2020年4月谷歌在arxiv公布论文《Chip Placement with Deep Reinforcement Learning》,采用强化学习对芯片进行布局,该方法后于2021发表在了Nature(《A graph placement methodology for fast chip design》,这是第一个用强化学习来解决实际芯片布局问题,被用于设计谷歌的芯片,并且谷歌后来也开源了代码和模型权重。随着人工智能时代的到来,越来越多的研究人员开始尝试用神经网络来解决芯片设计中的问题。2019年英伟达提出GRANNITE,该方法采用图神经网络(GNN)估计芯片的功耗。
2019年中山大学的研究人员提出DeepRL-Scheduling,将深度强化学习应用于HLS,并且这是首个强化学习在HLS的研究。2020年7月,英伟达提出ParaGraph,用GNN预测寄生效应和器件参数。2020年11月英伟达联合杜克大学以及德州农工大学提出PowerNet,使用卷积神经网络(CNN)估计电压降(IR Drop)。2021年上海交通大学提出DeepPR强化学习布局布线方法,该方法用CNN提取局部特征,用GNN提取全局特征。2022年11月,香港大学提出MaskPlace强化学习布局方法,将布局定义为通过CNN学习视觉表示的问题。2023年6月,华为诺亚方舟实验室提出离线强化学习方法ChiPFormer,解决过去强化学习方法训练时间长的问题,该方法使用了Transformer。随着大模型时代的到来,大模型也被应用到了芯片设计领域。2022年12月纽约大学和卡尔加里大学的研究人员用在Github和verilog教科书上收集的数据集微调大模型,实现RTL代码生成。2023年5月纽约大学的研究人员提出ChipChat,通过大模型设计了130nm的8位CPU。2023年5月,中科院提出ChipGPT,通过大模型实现RTL代码生成。后来又出现了大量大模型芯片设计的研究,RTLLM(2023年8月)、VeriGen(2023年8月)、AutoChip(2023年11月)、RTLFixer(2023年11月)。2023年11月英伟达提出ChipNemo芯片设计大模型,该模型专门针对芯片设计领域进行了改进和训练,应用于芯片设计聊天助手、自动脚本生成和bug总结和分析。随后还有一些研究,RTLCoder(2023年12月)、BetterV(2024年2月)、LayoutCopilot(2024年6月)、RAG-EDA(2024年7月)、ComplexVCoder(2025年4月)、Veritas(2025年5月)。2025年6月中科院计算技术研究所和中科院软件研究所发布启蒙系统,该系统通过大模型和智能体实现全自动设计处理器芯片软硬件。目前LLM在芯片设计中的应用有以下几方面:
知识问答:芯片设计涉及到大量的技术文档,通过LLM结合知识库,工程师可以直接向LLM提问,从而无需花费大量时间从海量文档中查找。RTL代码生成:LLM具有强大的代码生成能力,可以用LLM生成RTL代码。直接设计芯片:利用LLM设计完整芯片,例如中科院发布的启蒙系统。
总结可以看到,在AI EDA发展的早期,主要以模拟退火、支持向量机等早期机器学习方法为主,中期强化学习、卷积神经网络、图神经网络占主流,再到近期以大模型为主。AI的发展有3大要素,即数据、算法、算力。虽然AI在EDA领域已经有了很多进展,但也存在一些问题:
大模型存在幻觉,难以完全保证大模型设计芯片的可靠性。芯片设计数据稀缺,AI的发展需要高质量的数据,而芯片领域比较特殊,芯片数据对于芯片企业来说是宝贵的财富而且是保密的,所以很难有公开的大规模的芯片设计数据集供研究人员研究,这也阻碍了芯片领域AI算法的快速迭代。AI+EDA交叉型人才稀缺,AI EDA的发展需要交叉型的人才,既懂芯片又懂AI,将AI深度应用于芯片设计领域。

参考
Mead C, Conway L. Introduction to VLSI systems.(1980-12)
Boyan J A, Moore A W. Using prediction to improve combinatorial optimization search//Sixth International Workshop on Artificial Intelligence and Statistics. PMLR, 1997: 55-66. Manimegalai R , Soumya E S , Muralidharan V ,et al.Placement and routing for 3D-FPGAs using reinforcement learning and support vector machines.IEEE, 2005.
Xie Z , Huang Y H , Fang G Q ,et al.RouteNet: Routability prediction for Mixed-Size Designs Using Convolutional Neural Network//IEEE/ACM International Conference on Computer-Aided Design.IEEE, 2018.

Kirby R , Godil S , Roy R ,et al.CongestionNet: Routing Congestion Prediction Using Deep Graph Neural Networks//2019 IFIP/IEEE 27th International Conference on Very Large Scale Integration (VLSI-SoC).IEEE, 2019.

Liu H Y , Carloni L P .On learning-based methods for design-space exploration with high-level synthesis.IEEE, 2013.

Mahapatra A , Carrion Schafer B .Machine-learning based simulated annealer method for high level synthesis design space exploration//Electronic System Level Synthesis Conference.IEEE, 2014.

Dai S , Zhou Y , Zhang H ,et al.Fast and Accurate Estimation of Quality of Results in High-Level Synthesis with Machine Learning.IEEE, 2018.

Mirhoseini A , Goldie A , Yazgan M ,et al.Chip Placement with Deep Reinforcement Learning.2020.

Mirhoseini A , Goldie A , Yazgan M ,et al.A graph placement methodology for fast chip design.Nature, 2021, 594(7862):207-212.

Zhang Y , Ren H , Khailany B .GRANNITE: Graph Neural Network Inference for Transferable Power Estimation.ACM, 2020.

Chen H, Shen M. A deep-reinforcement-learning-based scheduler for high-level synthesis//Proceedings of the 2019 ACM/SIGDA International Symposium on Field-Programmable Gate Arrays. 2019: 117-117.

Ren H , Kokai G F , Turner W J ,et al.ParaGraph: Layout Parasitics and Device Parameter Prediction using Graph Neural Networks.ACM, 2020.

Xie Z , Ren H , Khailany B ,et al.PowerNet: Transferable Dynamic IR Drop Estimation via Maximum Convolutional Neural Network.2020.

Cheng R , Yan J .On Joint Learning for Solving Placement and Routing in Chip Design.2021.
Lai, Y., Mu, Y., and Luo, P. Maskplace: Fast chip placement via reinforced visual representation learning. In Advances in Neural Information Processing Systems (NeurIPS),2022.Lai Y, Liu J, Tang Z, et al. Chipformer: Transferable chip placement via offline decision transformer//International Conference on Machine Learning. PMLR, 2023: 18346-18364.Thakur S, Ahmad B, Fan Z, et al. Benchmarking large language models for automated verilog rtl code generation//2023 Design, Automation & Test in Europe Conference & Exhibition (DATE). IEEE, 2023: 1-6.Blocklove J, Garg S, Karri R, et al. Chip-chat: Challenges and opportunities in conversational hardware design//2023 ACM/IEEE 5th Workshop on Machine Learning for CAD (MLCAD). IEEE, 2023: 1-6.Chang K, Wang Y, Ren H, et al. Chipgpt: How far are we from natural language hardware design. arXiv preprint arXiv:2305.14019, 2023.Lu Y, Liu S, Zhang Q, et al. Rtllm: An open-source benchmark for design rtl generation with large language model//2024 29th Asia and South Pacific Design Automation Conference (ASP-DAC). IEEE, 2024: 722-727.Thakur S, Ahmad B, Pearce H, et al. Verigen: A large language model for verilog code generation. ACM Transactions on Design Automation of Electronic Systems, 2024, 29(3): 1-31.Thakur S, Blocklove J, Pearce H, et al. Autochip: Automating hdl generation using llm feedback. arXiv preprint arXiv:2311.04887, 2023.Thakur S, Blocklove J, Pearce H, et al. Autochip: Automating hdl generation using llm feedback. arXiv preprint arXiv:2311.04887, 2023.Liu M, Ene T D, Kirby R, et al. Chipnemo: Domain-adapted llms for chip design. arXiv preprint arXiv:2311.00176, 2023.Liu S, Fang W, Lu Y, et al. RTLCoder: Fully open-source and efficient LLM-assisted RTL code generation technique. IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, 2024.Pei Z, Zhen H L, Yuan M, et al. Betterv: Controlled verilog generation with discriminative guidance. arXiv preprint arXiv:2402.03375, 2024.Liu B, Zhang H, Gao X, et al. LayoutCopilot: An LLM-powered Multi-agent Collaborative Framework for Interactive Analog Layout Design. IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, 2025.Pu Y, He Z, Qiu T, et al. Customized retrieval augmented generation and benchmarking for EDA tool documentation QA//Proceedings of the 43rd IEEE/ACM International Conference on Computer-Aided Design. 2024: 1-9.Zuo J, Liu J, Wang X, et al. ComplexVCoder: An LLM-Driven Framework for Systematic Generation of Complex Verilog Code. arXiv preprint arXiv:2504.20653, 2025.Basu Roy P, Saha A, Alam M, et al. Veritas: Deterministic Verilog Code Synthesis from LLM-Generated Conjunctive Normal Form. arXiv e-prints, 2025: arXiv: 2506.00005.
页: [1]
查看完整版本: AI+EDA:AI助力芯片设计