登录
首页 > 特斯拉 > 全面适配DeepSeek-R1,联想AI服务器单机支持满血版大模型

全面适配DeepSeek-R1,联想AI服务器单机支持满血版大模型

发布时间:2025-02-24 22:03:39 发布用户: 15210273549

在DeepSeek App上线一个月之际,联想正式宣布,旗下大模型训推一体AI算力平台联想问天 WA7780 G3、大模型推理AI算力平台联想问天 WA7785a G3全新升级,单机即可部署DeepSeek-R1满血版大模型(具备671B参数)。此次升级将大幅降低客户部署难度和成本,同时提升模型训练和推理性能,为DeepSeek等最新AI应用的落地和规模化发展提供强有力的支持。

据悉,联想正与DeepSeek在个人智能与企业智能两大领域,开展更全面、深入的合作。其中,聚焦企业智能,联想中国基础设施业务与DeepSeek的深度融合,正快速实现从训练到推理的全链条产品适配。

据了解,DeepSeek大模型凭借高性能、低成本和开源三大特点,助力各行业加速应用大模型技术推动业务升级转型。DeepSeek-R1满血版大模型基于6710亿参数,具备卓越的复杂推理和深度交互能力,众多企业积极探索并部署DeepSeek-R1满血版大模型以期提升业务效能与竞争力。然而,在实际应用中,用户在本地接入时不可避免遇到算力基础设施匮乏、训练推理服务性能难以达标等一系列难题。

面对用户实际应用问题,联想问天 WA7780 G3、联想问天 WA7785a G3与DeepSeek-R1满血版大模型特点进行了深度适配调优,单机即可部署DeepSeek-R1满血版大模型,助力企业高效完成本地化部署,一站式构建AI生产力,加速智能化升级。

值得一提的是,联想问天 WA7780 G3大模型训推一体服务器是为打破AI算力供给困境而来,能够为训练推理提供强劲的算力支撑。

作为领先的AI算力平台,这款服务器内嵌Transfomer Engine, 支持FP8优化,可以帮助DeepSeek-R1满血版大模型获得更好的模型训练和推理性能。

在显存方面,提供超1T HBM3e,充分满足DeepSeek-R1满血版大模型FP8精度下不低于800GB显存容量的需求。显存带宽高达4.9TB/s,可以在推理解码阶段实现极致加速。

在高速互联方面,GPU P2P通信带宽达900GB/s,同时单机提供3.2TB/s的高带宽低延迟网络扩展,能够为DeepSeek-R1满血版大模型提供极低的通信延迟。

联想问天 WA7780 G3大模型训推一体服务器

联想问天 WA7785a G3服务器则聚焦于AI算力优化,该大模型推理AI算力平台原生支持FP8,提供超1.5T HBM3e,为DeepSeek-R1满血版大模型插上性能腾飞的翅膀。

此外,显存带宽达5.3TB/s的高速显存可以减少数据传输的瓶颈,从而加速训练过程,提高模型训练效率。GPU聚合带宽达896GB/s,同时单机提供3.2TB/s的高带宽低延迟网络扩展,充分满足了DeepSeek-R1满血版大模型并行计算时跨节点的通信需求,使其成为用户首选大模型推理服务器。

Copyright 2018-2024 集齐豆 版权所有  京ICP备2018023569号