2024年马上就要来临,东北证券在最新研报中指出,人工智能(AI)将迎来加速发展的一年,推理算力的崛起将成为推动整个产业链重塑的核心动力。根据预测,未来推理算力在国内AI算力架构中的占比将达到95%,而训练算力则下降至5%。这一转变不仅体现了技术层面的演进,也将引发深刻的产业体系变化。
当前,随着AI技术的进步,推理算力的需求急剧上升。推理任务主要关注对已有数据的分析与决策,适用于图像识别、自然语言处理等应用场景。因此,推动算力向推理侧转移,将使得云计算服务提供商(CSP)需自研ASIC芯片的意愿大幅增强。这种转变不仅将提升算力应用的自主性,同时也会带来设备采购及网络结构的深入变革。各类连接环节,如光模块、AEC(加速器端口)、PCIE(外设组件互连快接口)等,都将面临新的机遇和挑战。
依据IDC的预测,未来五年内,中国的推理和训练算力年均增长率分别为190%和50%。这表明,推理算力将大幅超越训练算力,形成一个以算力为核心的新生态。云厂商的独立采购需求也在未来五年将明显地增长,尤其是对于高效能光模块的需求预测会在2025年达到新的高峰。依据市场研究公司LC的数据,2024年AI集群用以太网光模块市场将翻倍,而在2026年,4×100G光模块市场规模将有望达到40亿美元,8×100G市场更是超过70亿美元,展现出市场蒸蒸日上的潜力。
推理算力的加快速度进行发展,带来了网络架构的革新。为了更好地支持低延迟和高吞吐量的推理需求,慢慢的变多的CSP开始采用以UALink为代表的Scale Up协议(基于PCIE)和UEC为代表的Scale Out协议(以太网)。这在某种程度上预示着私有协议(如IB和NVLink)正在向更开放的协议(如以太网和PCIE)转型,以提升客户的采购自主权,促进整个供应链的灵活性与适应性。
此外,在AI数据中心的建设中,面对能耗和热量管理的挑战,液冷技术的使用将会慢慢的普遍。其不仅具备出色的热控能力,还有助于提升能源利用效率。预计到2025年,中国液冷连接器市场规模将从2023年的1.08亿元增加到4.37亿元,伴随液冷技术的普及,其市场规模有望大幅增长。
电源系统方面,AI服务器的功率需求是普通服务器的6到8倍,要求具有更高的功率密度和转换效率。这一市场的竞争将进一步加剧,台湾厂商凭借在技术上的先发优势占据了大部分市场占有率,但大陆电源厂商通过灵活的成本控制和优质的服务,有望快速抢占市场。
综上所述,中国的AI产业正在迈入一个加速发展的新阶段,推理算力的崛起不仅是技术进步的体现,也将重塑整个产业链的格局。展望2024年,随着各类技术的不断迭代与应用场景的深化,我们大家可以期待国产AI在全球市场上的更大作为。这一场推理算力的革命,将引领中国走向AI发展的新纪元。
解放周末!用AI写周报又被老板夸了!点击这里,一键生成周报总结,无脑直接抄 → →