登录注册
由英伟达新一代大模型芯片H200发布说开去
一苇渡大江
2023-11-15 14:52:39

    近日全球领先的科技公司英伟达在2023年全球超算大会(SC23)上推出了一款最新的AI

芯片H200,用于AI大模型的训练,相比于其前一代产品H100,H200的性能提升了约60%到

90%。

 

其官网毫不掩饰地宣称:“世界最强GPU,专为AI和超算打造”。这款芯片的发布,无疑将为

AI和超算领域带来巨大的变革。


 并且 H200与H100完全兼容, 使用H100训练/推理模型的企业,可以无缝更换成最新的

H200,这意味着将H200添加到已有系统中不需要做任何调整。​

  同样基于Hopper架构,配备英伟达H200 Tensor Core GPU和先进的显存,因此可以为生

成式AI和高性能计算工作负载处理海量数据。



 英伟达H200是首款采用HBM3e的GPU,拥有高达141GB的显存,内存带宽也从3.35TB/s提

升至4.8TB/s,提升43%,在HBM3e加持下,H200让Llama-70B推理性能几乎翻倍,运行

GPT3-175B也能提高60%。

  除内存大升级之外,H200与同属Hopper架构的H100相比其他方面基本一致。台积电4nm

工艺,800亿晶体管,NVLink 4每秒900GB的高速互联,都被完整继承下来。甚至峰值算力

也保持不变,数据一眼看过去,还是熟悉的FP64 Vector 33.5TFlops、FP64 Tensor 

66.9TFlops。

  并且2024年的第4季度,基于下一代Blackwell架构的B100也将问世,具体性能还未知,下

图供参考。

    除了H200芯片本身,英伟达此次还发布了由其组成的一系列集群产品。首先是HGX 

H200平台,它是将8块H200搭载到HGX载板上,总显存达到了1.1TB,8位浮点运算速度超

过32P(10^15) FLOPS,与H100数据一致。HGX使用了英伟达的NVLink和NVSwitch高速互

联技术,可以以最高性能运行各种应用负载,包括175B大模型的训练和推理。HGX板的独

立性质使其能够插入合适的主机系统,从而允许使用者定制其高端服务器的非GPU部分。


  具体到训练大模型方面有何提升呢?英伟达进行了官方测试,相比 H100 ,Llama

 2的推理速度几乎翻倍!当用H200与英伟达GraceCPU搭配使用时,就能组成性能

更强的GH200 Grace Hopper超级芯片,专为应用于大型HPC和AI应用!

     A股上市公司铂科新材在互动平台表示,公司芯片电感已批量用于英伟达AI芯片GPU-H100此外HBM封装材料方面建议关注联瑞新材、壹石通、华海诚科等。

 ​ 

     面对英伟达的出招,AMD也即将推出它的大杀器——Instinct MI300X,MI300X将配备

192GB的HBM3和5.2TB/s的显存带宽,这将使其在容量和带宽上远超H200。而英特尔也摩

拳擦掌,计划提升Gaudi AI芯片的HBM容量,并表示明年推出的第三代Gaudi AI芯片将从上

一代的 96GB HBM2e增加到144GB。​

      

      就目前而言英伟达仍垄断超过90%的AI算力市场,而它的老对手们显然不会让其一家独

大。随着更多更强性能产品的推出,这场算力军备竞赛将会持续。

  

     而面对美国对我们的科技封锁与打压,此时此刻只想大声的喊出这一句:遥遥领先,幸

好有你!

 

作者利益披露:原创,不作为证券推荐或投资建议,截至发文时,作者持有相关标的,下一个交易日内可能择机卖出。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
铂科新材
S
壹石通
S
联瑞新材
S
华海诚科
工分
3.30
转发
收藏
投诉
复制链接
分享到微信
有用 4
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
评论(2)
只看楼主
热度排序
最新发布
最新互动
  • 只看TA
    2023-11-16 02:55
    1
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-11-18 12:19
    谢谢分享
    0
    0
    打赏
    回复
    投诉
  • 1
前往