南华财经 - 国内专业的财经门户网站!
adtop
新闻检索:
topadl
topadr
当前位置: 南华财经 -> 财经视点

英伟达用AI设计GPU:最新H100已经用上,比传统EDA减少25%芯片

来源:IT之家    发布时间:2022-07-18 22:21   阅读量:17319   

感谢IT家庭用户对极光星夜的线索传递!

英伟达最后透露:H100居然有近13000个电路,是AI设计的。!

在最新的论文中,他们介绍了如何用深度强化学习代理设计电路据研究人员介绍,这种方法在业内尚属首创

值得一提的是,这篇文章,包括参考文献,只有短短的六页。很多网友都说太酷了!

通过玩游戏学习搭建电路架。

伴随着摩尔定律的放缓,开发其他技术来提高芯片性能变得越来越重要方法之一是设计一个更小,更快,更低功耗的运算电路基于这一背景,研究者提出了前缀RL优化的深度强化学习并行前缀电路

据研究人员称,他们不仅证明了AI可以从头开始设计电路,还可以设计出比EDA工具更小,更快的电路。

最新的NVIDIA Hopper架构有13000个AI设计电路的例子让我们来详细了解一下这项研究

本文主要研究一种流行的并行前缀电路,重点研究该电路的两个特性:电路面积和延迟现有的优化基本思路是用电路生成器将前缀模式转换成有导线和逻辑门的电路,再用物理综合工具进一步优化他们将算术电路设计视为强化学习任务,并训练一个代理来优化两个特性对于前缀电路,还设计了一个环境

在这种环境中,代理玩构建电路架构的游戏,并可以从中添加或删除节点它将因最小化电路面积和低延迟而获得奖励

研究者使用Q学习算法来训练智能体首先将前缀图表示为网格,网格中的每个元素映射到电路中的一个节点输入和输出都是网格,只不过输入网格中的每个元素都表示节点是否存在,输出中的每个元素都表示用于添加或删除节点的Q值

在实际训练中,PrefixRL是一个计算要求很高的任务:每个GPU需要256个CPU进行物理仿真,训练64b个用例需要超过32000个GPU小时为此,研究人员还开发了分布式强化学习训练平台Raptor

结果表明,在相同的延迟和性能下,PrefixRL加法器的面积比EDA工具加法器减少了25%。

研究团队

这项研究来自英伟达应用深度学习研究小组他们希望这种方法可以让AI应用到实际的电路设计问题中

最近几年来,许多技术公司一直在开发人工智能设计芯片最典型的例子就是谷歌,去年6月在《自然》杂志上发表了一篇文章:快速芯片设计的图形放置方法论在这篇论文中,AI可以在6小时内生成芯片设计图,而且比人类的设计要好

还有像三星,新思,cadence等公司有相应的解决方案

在不久前的NVIDIA GTC大会上,首席科学家兼计算机架构大师Bill Dally分享了AI在芯片设计中的几个应用包括电压降预测,寄生参数预测,布局和布线以及自动标准单元迁移

可是,即使进展频繁,也有很多质疑的声音比如设计能力甚至不如人类你怎么看待AI设计芯片

参考链接:

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

责任编辑:宋元明清