2021 年,Google 研究人员在《自然》期刊上报告利用 AI 加速芯片设计。研究人员使用了 1 万张芯片设计图去训练他们的软件,基于强化学习的 AI 学习了如何在有限空间、布线和功耗下完成设计图。Google 已将这一方法应用于自己的芯片 TPU(tensor processing uni)。现在,UCSD(加州圣迭戈)计算机科学和工程学教授 Andrew Kahng 领导的一个团队尝试了重现 Google 的研究。由于 Google 以商业敏感性为由未披露模型内部工作的部分细节,研究人员花了几个月时间进行逆向工程,他们最终的模型 circuit training (CT)比使用传统方法差得多。为什么差异如此显著?一种原因被认为是 Google 利用 EDA 软件巨头 Synopsys 开发的商业软件去创造芯片逻辑门的起始布局,然后用强化学习系统优化。UCSD 团队指出 Google 没有在论文中进行披露。Google 论文的主要作者表示没有披露是因为这并不重要。他们认为 UCSD 团队的结果糟糕一则是模型没有预先训练,另一个原因是没有像 Google 那样有充足的计算能力。UCSD 团队表示没有预训练是因为无法获得 Google 使用的私有数据。
https://www.theregister.com/2023/03/27/google_ai_chip_paper_nature/