特斯拉CEO埃隆·马斯克。视觉中国 资料图马斯克旗下宣称是目前最强大的人工智能计算集群上线,其规模还将很快翻倍。9月3日,特斯拉CEO埃隆·马斯克在X平台上宣布,旗下人工智能初创企业x.AI打造的超级人工智能训练集群已经正式上线,该集群名为“Colossus(巨人)”。
当所有人都在盯着英伟达的 GPU 芯片时,一个隐藏在 AI 算力底座下的关键环节正在悄悄崛起 ——AI 电源。随着英伟达 B200 芯片功耗飙到 1200W,GB200 服务器整机功耗突破 10kW,传统电源系统彻底扛不住了。
AI计算集群规模的不断扩大,如何保持算力的线性扩展,这是一个世界性的难题。以并行计算的方式,将模型参数与数据拆分到多个GPU上协同处理。这样虽然可充分利用多GPU算力,但是同时也带来了密集而频繁的数据交换需求。相比传统通用计算,这类任务对网络带宽的要求通常要高出两个数量级。
你敢信吗?在深圳到香港的金融交易里,中国移动用了一条“看不见”的新光纤,把交易时延压缩到只剩 1毫秒!别小看这一点点速度,华尔街的高频交易员可能会为了抢这一毫秒,花上百万美元。那问题来了:一根光纤,怎么可能让人类的金融、医疗,甚至AI算力都跟着重塑呢?
8月28日上午,2025中国国际大数据产业博览会开幕式在贵州贵阳举行。华为常务董事、华为云计算CEO张平安在开幕式上发表主旨演讲时说,算力是智能世界的基础设施,大模型催生了对大算力极大的需求。如果再看未来十年,算力的需求可能相较今天来说还会有10万倍的增长。
来源:中国网 8月13日-16日,第21届CCF全国高性能计算学术年会(CCF HPC China 2025)于鄂尔多斯盛大召开。8月15日,华为数据存储解决方架构师李斌杰出席华为高性能计算创新论坛,发表“解锁数据潜能,领航AI时代”主题演讲。
每经编辑:彭水萍这是对算力产业链的简单示意图,流程上,英伟达先设计GPU,接着委托台积电做制造和封装测试,然后交给下游的ODM厂商做成一个基板,在这个基础上进一步把它组装成服务器,再把服务器转交给下游的云厂商,这些云厂商可能在进行组网的时候也需要购买交换机。