登录注册
晨曦
2023-04-17 09:46:43
谢谢老师分享
@只吹硬逻辑: 1、AI服务器需要高功率机柜,液冷或成为必选项。AI大模型训练和推理运算所用的GPU服务器的功率密度将大幅提升,以英伟达DGX A100服务器为例,其单机最大功率约可以达到6.5kW,大幅超过单台普通CPU服务器500w左右的功率水平。根据《冷板式液冷服务器可靠性白皮书》数据显示,自然风冷的数据中心
12 赞同-13 评论
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
工分
0.02
转发
收藏
投诉
复制链接
分享到微信
有用 0
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
暂无数据