Alphabet旗下的AI实验室DeepMind的研究人员,发现一种利用AI来设计电脑芯片更有效率且更自动化的方法,字母表示,这可望改善自家的专用型AI芯片。
华尔街日报报道,在人们聚焦英伟达、AMD等半导体巨头竞相为企业对生成式AI需求提供运算能力、打造高效芯片之际,谷歌和亚马逊等云计算巨擘也一直在设计自家的AI芯片,押注自行研发的芯片速度更快且成本更低。
谷歌表示,正探索利用最新的AI突破来改善自研AI芯片Tensor Processing Units。一位发言人表示:AI正在改善我们所做的一切,像是构成、理解、编写程式和机器人技术,硬体设计也一样。
DeepMind研究科学家奈尔(Vinod Nair)表示,该部门近期公布一套能发掘更快算法的AI系统,让利用深度学习这类AI技术的目标是要让从网络资源到数据中心与芯片的整体运算系统更具效率与可持续性,随着社会变得愈来愈数字,我们需要更强大的芯片、更多的专用型芯片来满足各种应用。
传统思维认为,改善芯片效能要靠摩尔定律,但一些专家认为,随着芯片上晶体管数量达到物理极限,要提升芯片效能,要靠设计更小、专用型的芯片。 ChatGPT、无人机和自驾车等应用现在都靠数字信号处理器和英伟达绘图处理器这类任务导向型芯片运作。
DeepMind约18个月前开始研究基于AI方法来改善逻辑综合 ,也就是涉及把电路行为的描述转化为实际电路的芯片设计过程。 DeepMind高级软件工程师瓜达拉马(Sergio Guadarrama)表示,计算机芯片是由数百万逻辑电路或建构组件组成,虽然靠工程师亲自优惠其中一些问题很容易,但要解决数百万个问题是不可能的。
DeepMind通过利用AI加速逻辑电路的设计,目标让专用型芯片的设计过程更自动化、更具效率并减少对硬件工程师作业的依赖 。 瓜达拉马说,AI能在一周内生成数千种设计,但一个人只能在几周内生成一种设计。
能在这方面获得突破的关键,是利用深度学习。 奈尔说,DeepMind使用电路神经网络的方法让研究人员把问题形塑得看起来像是在训练神经网络,但实际上是在设计电路。