关键词搜索
顶部横幅广告

中科曙光黑科技:一个机柜塞640张算力卡

【金色港湾资讯网为您推荐阅读】

曾有“一柜难求”状况,后又有“一柜顶千卡”情形,那么算力瓶颈的破局时刻是不是已然来临呢,2024年时候,马斯克因GPU短缺发出抱怨,称其“比毒品还难搞”,然而现在同样的算力焦虑在福建一场展会上寻到国产答案。当观众于第九届数字中国建设峰会中科曙光展区看到一个机柜里放进640张算力卡时,这不但只是技术上的震撼,更是对全球算力供应链格局的一次没有声音的宣示。

历史重演下的算力突围

回到2023年到2024年这个时间段,全球范围内的AI企业卷入了一场激烈到疯狂程度的“显卡争夺之战”,那个时候,英伟达H100变成了最具流通性的物品,马斯克竟然还公然宣称获取GPU的难度要比获取毒品还更大,刚刚起步创立不久的公司常常会苦苦等待几个月才有机会分到寥寥没有多少的算力,这般的供给失去平衡直接致使大量大模型相关项目的落地进程被放慢了。

中科曙光黑科技:一个机柜塞640张算力卡(图1)

深刻暴露这种传统数据中心依赖低密度机柜以及松散集群弊端的是这种“算力荒”。在单个机柜算力存在限制的情况下 ,企业为解决问题只能通过堆砌物理空间 ,这不但致使能耗急剧飙升 ,更使跨卡通信变成了效率方面的瓶颈。正是因为这样 ,当2026年中科曙光拿出单机柜640卡的方案时 ,业界才会如此备受瞩目。

按照产业规律来讲,算力密度的提高属于必然走向。上一场数据中心变革是被“云化”推动,而这一回却是由“高密化”占据主导地位。中科曙光的这次突破,表明国产算力已不只是满足于“可用”,而是开始在物理极限方面挑战行业上限。

六年蛰伏与三年冲刺

当中科曙光在这场算力密度竞赛里进行布局的时候,并非完成得一下子就成功了。早在2023年10月,那个时候相关行业还在对大模型参数进行追逐,曙光已经在郑州静悄悄地开始了超智融合算力集群的前期建设工作。经过长达两年多时间的技术方面的攻关以及工程验证,这个项目在2026年2月的时候进入到了试运行的阶段。

有着清晰研发时间线的此次展出的核心产品“曙光卡超节点”,自2025年底面世之后,经历了从实验室样机到商业化部署的关键跨越,展会现场信息表明,该集群现在已经扩展到了6万卡规模,这是一个惊人力数据。

跟历史上国外那些巨头凭借封闭生态达成技术领先不一样,中科曙光此次选取了开放路线,在硬件层面它兼容多品牌加速卡,于软件层面它适配主流AI框架,这种策略类似安卓系统在移动互联网时代的做法,借由降低生态门槛去加速大规模普及。

从科研实验室到百姓生活圈

对于普通用户来讲,这项技术的直观感受或许源自医疗场景。以往,一家三甲医院要是打算部署一套精准的AI辅助诊断系统,常常得自建小型数据中心,投入动不动就千万。如今,借助接入曙光接入全国一体化算力网的普惠算力,医院能够按需调用高密度算力来分析医学影像。

智慧交通领域的变化也是极为显著的,就拿自动驾驶研发来说,车企开展一次完整的算法模型训练,以往在通用算力集群上大概需要数周时间,依靠曙光超节点的高密度并行处理能力,这个周期被缩减到数天乃至数小时,这对智能汽车功能迭代的速度有着直接的关联。

置于普通用户的视角而言,此项技术革新最为直观的影响大概是手机里那些“愈发聪慧”的应用,实时语音翻译的零延迟也好,短视频平台精确到“可怖”的推荐算法也罢,背后皆有着如640卡超节点这般的高密度算力在默默予以支撑,而我们所察觉到的仅仅是服务变快、结果更准。

国家级算力网的关键拼图

这场事件里,最大的行业震动并非单个产品,而是“超智融合算力集群正式接入全国一体化算力网”这一情况。这是我国头一回把这般大规模的科学智能计算集群归入国家级调度体系之中。这表明,那些聚集于一线城市的高密度算力,从理论上来说能够被西部地区的科研人员进行远程调用。

这一举措和“东数西算”工程达成了深度呼应,要是讲过去两年“东数西算”处理的是数据中心于物理空间里的布局问题,如果说中科曙光的技术解决的是传输效率以及应用体验的问题,极高的算力密度表明在有限的带宽之下能传输更强的计算能力。

于投资者以及行业分析师来讲,此一事件释放了清晰的政策信号 ,国家借由整合诸如中科曙光这般的龙头企业技术资源 ,构筑统一且高效的算力底座 ,这非但能够躲开各地重复建设致使的资源浪费 ,更有期望催生出类似“算力银行”的新型商业模式。

对产业链上下游的传导效应

新闻发布之后,最直接从中受益的会是国内的AI创业公司,以前这些公司因为买不到英伟达高端卡,或者租不起英伟达高端卡,就转而使用低效算力,这使得模型训练成本一直居高不下,现在呢,随着规模为6万卡的国产高密度算力接入网络之中,按需付费的门槛大幅下降了,创业生态有希望迎来爆发。

依据竞争格局情形来看,它致使传统服务器厂商承受了极大压力,往昔众人竞争比拼的是机柜数量,如今变为单机柜内的卡数,那些于液冷散热、高速互联、高密度供电这些方面不能实现突破的企业,会在后续的智算中心建设浪潮里快速落后掉队。

中科曙光黑科技:一个机柜塞640张算力卡(图2)

这使我关联到之前某个互联网大型企业因运行能力不足致使大模型发布时间再三延迟的经历,那时它的处理办法是在全球范围内大量收购二手显卡且价格高昂。要是当时有成熟的国产高密度计算能力集群能够使用,这个企业原本能够把精力专注于算法优化而非硬件购置方面。

开放生态还是封闭系统

此次中科曙光选择兼容多品牌加速卡,这在产业界引发了关于“中国版CUDA”生态的讨论。硬件密度虽提高了,然而软件生态的迁移成本仍是用户最为关心的问题。开发者更期望看到一套统一且易用的编程框架,而非在不同硬件之间反复进行适配。

关于此情况,曙光所展示的科学大模型一站式开发平台给出了相应的解决方案,该平台借助“超级科学计算智能体”来屏蔽底层硬件方面存在的差异,科研人员凭借自然语言便能够驱动复杂计算工作,若这种平台化思维取得成功,将会切实达成“一次开发,可以在全网运行”的效果。

需要留意的是,这般高压直流供电以及浸没相变液冷技术的大规模运用,意味着数据中心散热步入了新的阶段。以往风冷方案在高密度情形之下已然趋近物理极限,浸没式液冷将会成为未来千卡、万卡级集群的标准配备,这必定会推动整个温控产业链的升级。

算力平权时代的开端

中科曙光相关负责人于现场所做出的表态极为关键 ,其表述为:“要将 AI 算力从那般昂贵的资源转变成为普惠性的基础设施。” 把此次集群接入国家算力网这一情况结合起来看 ,国家正借助技术手段去打破算力存在的地域以及阶层方面的壁垒。这情形类似于电力革命初期阶段 ,从孤立状态的工厂自行配备发电机朝着统一的电网供应方向发展。

于普通网民而言,这般变化或许最先呈现于网盘以及在线文档之上。没过多久,你上传一张模糊不清的老照片,云端的高密度算力能够在短短毫秒级的时间内完成修复;你输入一行简易的文字,AI能够自动生成高质量的PPT。这些功能并非再是大公司所独有的,而是如同水电那般即开就可以使用。

在这条政策思路被推出之后,这使得我回想起了90年代中国互联网的普及情况。那个时候,上网的费用是非常高昂的,并且速度极其缓慢,伴随宽带中国战略的施行,网络最终变成了基础设施。如今,算力正在经历相同的进程,而中科曙光借助640卡的机柜为这条道路铺设下了最为坚硬的一块基石。

你觉得当一个机柜所具备的算力能够与往昔一层楼的服务器相抗衡之后,哪一类中小型创业公司会率先享受到这一波“算力平权”所带来的红利呢?欢迎在评论区域分享关于你的行业的洞察,并且为这一篇见证国产算力里程碑的文章予以点赞转发。

更多精彩文章请关注=>金色港湾资讯网 www.fzjsgw.com

分享更多
0
加载中~

您可能还会对下面的文章感兴趣:

底部横幅广告