登录注册
华为算力跨年龙
星与曦
2023-10-18 09:25:38

华为+算力+低位+球唯一=超级跨年龙

2021年是疫情年,跨年龙是九安大帝,35倍。

2022年复苏年,预期是复苏,情绪从建设过度到消费,真龙是建投、西安和人人乐。

2023年真龙还没出现。

我们简单看看今年的热点。

算力龙鸿博9倍。

光模块剑桥7倍。

华为手机产业链捷荣5倍。

华为汽车赛力斯,(智驾)AI+华为,预计也是三、四倍以上。

 

那么2023热点就是算力和华为,越贴近这两属性涨幅越大。

跨年龙也必然要符合这两个属性。其背后的大逻辑就是中美科技竞争。

那么,2023年是中美科技竞争年。

 

跨年龙必然是算力相关,因为AI是中美未来十年竞争的最关键点,谁拿下来AI谁就是全球科技的霸主。

就比如能源革命,光伏,硅涨幅最大,新能源汽车,锂矿涨幅最大。而今年是AI元年,而AI的关键就是算力。中美竞争的关键就是算力,谁拥有足够的算力谁就能率先完成AI突破。中国一方的破局者就是华为,因为华为解决了7nm芯片,又有匹敌英伟达的AI芯片,所以,今年十倍跨年龙必然和算力与华为有关。

可惜华为不上市,那华为算力相关股哪个能成为跨年龙呢?

 

那就是海兰信!!!

 

  • 全球首家商用海底算力数据中心全球唯二,中国唯一,美国微软也有,但是工程化进度不如国内,中国已经开启商用。
  • 我国数据中心能耗已占全社会总能耗的2%左右UDC节约能耗30%40%
  • 减少故障率90%左右,降低运维成本,提高可靠性,数据安全。这些都很吸引互联网巨头。
  • 低延时,对于互联网巨头,每天的海量数据长距离传输是很慢的。
  • 数据中心的电力成本占运营总成本的60-70%,据华为单个数据中心的面积达到了 60 个足球场的面积。例如在贵州枢纽中,腾讯投产的贵安七星数据中心,总占地面积约为 47 万平方米。 因此,土地价格对算力成本的影响非常大。而海底数据中心,不仅能耗极低,也节省了大量的土地成本。并且建设周期短,也可以在湖底运行,适用范围广阔。
  • 部署快,全流程仅仅90天,普通的算力中心连地基都弄不完。
  • 资源友好,节约水资源,单算力中心60万吨,土地建筑能耗污染也很高,UDC全产业链能耗低,环保,资源友好,国家必然会持续出动利好政策。
  • 可以就近消耗太阳能和海上风能。
  • 那么海兰信与华为的关系是怎么样的呢,华为非常非常需要海兰信的技术,华为《数据中心2030》一文,多次提到海兰信的海南海底数据中心,多次提到能耗是限制算力发展的关键问题和核心竞争力,而海兰信除了华为,还有京东、字节跳动、拼多多、阿里与海外客户的青睐。

    建议详细看一华为《数据中心2030》一文下:

    https://www.huawei.com/cn/giv/data-center-2030

     

    我们先分析一下华为的困境,目前芯片制程7nm,华为强的是通信和集成。所以AI芯片并行通信速率的问题对华为来说问题不大,华为也在文中出了解决方案(光内生方案)。但是,7nm的功耗确实比4nm高太多了,华为指出2030年算力会增长500倍,现在算力占中国总能耗的2%。如果能耗降下不去,华为的算力中心将没有竞争力。

    华为自己也提出了,能耗、碳排放是数据中心的核心竞争力。挖掘节能减排潜力“至关重要”

    《数据中心 2030》是基于对未来的不懈探索,过去三年间,与业界数百名学者、客户伙伴及研究院机构等 9 深入交流,集业界专家和华为专家的智慧,输出了我们对数据中心下一个十年发展的思考——《数据 中心 2030》报告

    整篇报告句句精华,但是却用了几乎一整页介绍海底数据中心,从这里可以看出,华为对海兰信的技术心心念念的,而念念不忘必有回响。

    这一页内容中指出,散热能耗极大,占总能耗三分之一。

    海底数据中心优势极大!

    土地消耗资源极少!

    低延时,特定行业刚需!

    部署和运营成本低!

    电费大幅减少,运营成本急剧下降。

    海底数据中心优势明显,首个商用数据中心海南商用。(海兰信:小华华,你张口闭口说我好,是不是对我有什么想法。我将来可是要成为海王的,现在的我你爱答不理,将来的我你高攀不起。)

     

    以下,我摘抄华为《数据中心2030部分节选:

  • 预计我国在 2025 年人工智能产业规模将超过 4500 亿元,带动产业规模超 过 1.6 万亿
  • 首次提出了未来数据中心是一台满足能效、算效、数效、运效、人效5 效的计算机。(能效放在首位
  • 新一轮人工智能的浪潮再次 提高了对计算基础设施的要求,给供应商们带来了巨大的挑战。据估计,训练一个生成式 AI 大模型 (GPT-4)需要使用 2.5 万个 GPU,耗时 90100 天,耗费超过 1 亿美元。而这样的一个程序只是目前全球正在开发的众多此类程序的冰山一角。(挑战快速部署、低能耗)。
  • 计算资源永远都不嫌多。不管数据中心的效率再 怎么提升,GPU 和云计算设施的数量再怎么增多,在日益数据化驱动的未来,算力依旧会供不应求
  • 2030 年,人类将迎来 YB 数据时代,对比 2020 年,通用算力将增长 10 倍、人工智能算力 增长 500 倍,算力需求十年百倍的增长将成为常态
  • 一边是算力需求以远超摩尔定律的陡峭增长,而另一边却是多重的资源约束。单芯片摩尔定律的失效、以及全球可持续发展目标下对于碳减排的要求。(算力需求和资源约束的将成为主矛盾耗电、耗地、耗水、建设耗时)。
  • 未来三年内,全球超大型数据中心数量将突破1000个。(建设需求大)
  • 算力的规模和效率成为国家和企业的核心竞争力
  • 百模千态的 AI 大 模 型 成 为 发 展 焦 点, 据 预 测 GPT5.0 训练集群的算力需求将达到 GPT3.0 的 200-400 倍
  • 数据中心的产业标签从高耗能转变为绿色发展使能器
  • 数据中心总耗电量在 ICT 行业占比超 80%
  • 围绕算力供给和资源约束挑战持续创新突破
  • 以机柜甚至整个数据中心为单位进行运维,可以大幅提升部署效率,并降低运维人力成本
  • 高可靠的数据中心是支撑数字经济发展的重要基石。UDC可靠性是陆地的8倍。
  • 数据中心整体的碳排放量较大,对于数据中心服 务商,高能耗也意味着更多经营成本。随着碳 中和逐渐成为全球的共识,数据中心将加速向 绿色低碳的方向迈进。(UDC容易近距离获得绿电。
  •  

    那么华为还有一个强项是什么,就是科技整合,文中给出了解决能耗与减排的答案,就是海底算力中心,UDC能极大的降低能耗,降低故障率,华为专家多次提到提高算力的约束条件就是能耗,而华为专家关注到了解决华为算力中心痛点的解决方案,就是海底算力中心。那么华为与海兰信的深度合作几乎是必然的,并且结果可能是华为急切并且主动要求深度合作,甚至联合研发,将UDC的实用性提高一个台阶。

    因为海兰信为了成为全球唯一一家能商用海底数据中心的企业,进行多次并购,利用20余年的海底装备制造技术,率先完成了实验室,并且商用。其他企业就算现在要追赶,研发加实验估计就是五年起步,追赶极难。

    海兰信是华为算力中心唯一的选择。

    而海兰信的大客户,除了华为,还有互联网巨头和海外客户,甚至军方与海兰信关系也什么密切。

    那么海兰信的估值怎么算?他的其海洋装备业务其实也很潜力,这里我们先不算,单算UDC业务的估值。

    海南海底数据中心一期,共下水五个仓,项目已在2023年一季度确认UDC相关收入3736.40万元。

    那么每个仓收入3000万。目前,未来规划产能是500个。那么每年增加收入为150亿。

    如果利用技术优势成为算力建设、运维、租赁领域的龙头,那么千亿的海王的称号也是可以期待的。

    AI革命的浪潮下,未来的算力,就像以前工业化时期的石油,电力化时期的电力,电池一样宝贵。

    海兰信在算力中的角色,是算力建设、运维、租赁一体化综合运营商,是轻资本、高科技、高门槛、高收入的典范。


     

    作者利益披露:原创,不作为证券推荐或投资建议,截至发文时,作者持有相关标的,下一个交易日内没有卖出计划。
    声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
    S
    海兰信
    工分
    6.65
    转发
    收藏
    投诉
    复制链接
    分享到微信
    有用 3
    打赏作者
    无用
    真知无价,用钱说话
    0个人打赏
    同时转发
    评论(11)
    只看楼主
    热度排序
    最新发布
    最新互动
    • 为国接盘的散户
      只看TA
      2023-10-21 21:25
      你在头条的文章一直在反复读,反复看,后来才发现你的阵地在这里,就过来了。
      认识你真是幸运。
      2
      0
      打赏
      回复
      投诉
    • 只看TA
      2023-10-18 14:55
      都跌成这样了
      0
      0
      打赏
      回复
      投诉
      于2023-10-18 23:01:12更新
      查看2条回复
    • 只看TA
      2023-10-19 01:16
      海兰信,有算力吗?
      0
      0
      打赏
      回复
      投诉
    • 1
    前往