据中国基金报报道,华为将在11月21日发布AI领域的突破性技术,有望解决算力资源利用效率的难题。
报道称,华为新技术可将GPU(图形处理器)、NPU(神经网络处理器)等算力资源的利用率,从行业平均的30%至40%提升至70%,显著释放算力硬件潜能。其通过软件创新实现英伟达、昇腾及其他三方算力的统一资源管理与利用,屏蔽算力硬件差异,为AI训练推理提供更高效的资源支撑。
在今年9月,华为发布了未来三年分别AI芯片规划:950PR/950DT、960和970三个系列产品分别将未来三年上市,其中950PR将于明年一季度落地,支持FP8/MXFP8/HIF8/MXFP4数据类型,互联带宽提升至2TB/s,算力提升至1PFLOPSFP8、2PFLOPSFP4。
在此之前,DeepSeek提到使用了UE8M0 FP8 Scale的参数精度,并官微在置顶留言里表示,UE8M0 FP8是针对即将发布的下一代国产芯片设计。这一明确表态,说明DeepSeek与国产芯片厂商之间存在深度技术合作和生态协同,这种软硬件协同优化将提升国产算力的整体竞争力。
此外,东方证券分析认为,未来GPU或不再是算力竞逐的核心,超节点规模将是算力世界的决胜场。通过Scale-up而获得远超Scale-out的卡间互联带宽。因此,超大规模的超节点是大模型训练最理想的工具。英伟达已展出其72卡、144卡、576卡的超节点路径,华为也亮相384卡、8192卡、15488卡的超节点方案。超节点将成为算力的主流形态,意味着在未来,算力需求方的采购,将以超节点为单位,而不是GPU卡。
在国产算力拥有万卡规模等级的超节点后(如26H2,华为Atlas950),国产大模型将真正拥有了训练利器,有望极大提升国产大模型训练效率。机构看好明年国产大模型与中国AI资本开支双双爆发,国产算力开启繁荣增长。
公司方面,据上市公司互动平台表示,
拓维信息:公司为华为“云+鲲鹏/昇腾AI+行业大模型+开源鸿蒙”领域全方位战略合作伙伴。在多个领域推出基于开源鸿蒙的创新解决方案及软硬一体化设备,并研发打造基于鸿蒙操作系统及结合海思芯片的创新产品,以满足不同客户的需求。
华丰科技:公司作为高速线模组供应商,深度绑定国内头部AI服务器厂商,与华为、中兴、阿里等客户建立合作关系。
本文来自网络转载,不代表阴阳无极的立场,如若转载,请注明文章转载出处:选股通 , 本站文章链接:https://www.accstt.com/archives/141573.html
免责声明:本站致力于为定向人群分享有价值的内容,转载引用仅为传播信息之用,所转载的所有文章、图片、音频、视频文件等资料版权归版权原创作者所有,因非原创文章及图片等内容无法逐一和版权者联系,亦无法核实真实出处,如涉及侵权请联系:QQ:177862291,我们将立即予以删除;


