英伟达最新升级版AI芯片H200即将问世,代工大厂广达旗下云达昨日证实,成为首批支持制造搭载H200GPU服务器的协力商。
根据英伟达公布的时程,H200 服务器将于2024 年第二季开始出货,可以提供生成式 AI 以及高效能运算 (HPC) 所需的大量负载能力并提升效率。 H200 的竞争对手则是AMD的 MI3000X GPU,可以协助大型 AI 模型执行推论。
据外媒指出,H200 芯片沿用英伟达 Hopper 架构,与 H100 并无太大差异,因此现在使用 H100 训练大型语言模型的公司,可以不需更换服务器就能无缝接轨。
H200 最主要的优势在于其强大的内存,H200 搭载HBM3e 内存,容量达141GB,较H100的80GB高出不少。 使用芯片的内存愈大,大型语言模型就可以一次处理愈多的信息,H200 的输出速度甚几乎是H100的两倍。
英伟达透露,包含亚马逊的AWS、Alphabet的Google Cloud以及甲骨文的云端基础设施,明年都开始使用H200最新芯片。
随着H200即将推出,广达集团旗下云达成为首批协力商,将可以优先拿到最新芯片。 也就是说包含云达在内的台厂,未来只要替客户系统更新,就能有 H200 高效能的处理能力,提升生成式 AI 及高效能运算的速度。
广达集团近期 AI 业务热,也传出大手笔回馈员工。 除全员加薪 3000新台币,更加码公布弹性上下班制度。