点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
在DeepSeek App上线一个月之际,联想正式宣布,旗下大模型训推一体AI算力平台联想问天 WA7780 G3、大模型推理AI算力平台联想问天 WA7785a G3全新升级,单机即可部署DeepSeek-R1满血版大模型(具备671B参数)。此次升级将大幅降低客户部署难度和成本,同时提升模型训练和推理性能,为DeepSeek等最新AI应用的落地和规模化发展提供强有力的支持。
据悉,联想正与DeepSeek在个人智能与企业智能两大领域,开展更全面、深入的合作。其中,聚焦企业智能,联想中国基础设施业务与DeepSeek的深度融合,正快速实现从训练到推理的全链条产品适配。
据了解,DeepSeek大模型凭借高性能、低成本和开源三大特点,助力各行业加速应用大模型技术推动业务升级转型。DeepSeek-R1满血版大模型基于6710亿参数,具备卓越的复杂推理和深度交互能力,众多企业积极探索并部署DeepSeek-R1满血版大模型以期提升业务效能与竞争力。然而,在实际应用中,用户在本地接入时不可避免遇到算力基础设施匮乏、训练推理服务性能难以达标等一系列难题。
面对用户实际应用问题,联想问天 WA7780 G3、联想问天 WA7785a G3与DeepSeek-R1满血版大模型特点进行了深度适配调优,单机即可部署DeepSeek-R1满血版大模型,助力企业高效完成本地化部署,一站式构建AI生产力,加速智能化升级。
值得一提的是,联想问天 WA7780 G3大模型训推一体服务器是为打破AI算力供给困境而来,能够为训练推理提供强劲的算力支撑。
作为领先的AI算力平台,这款服务器内嵌Transfomer Engine, 支持FP8优化,可以帮助DeepSeek-R1满血版大模型获得更好的模型训练和推理性能。
在显存方面,提供超1T HBM3e,充分满足DeepSeek-R1满血版大模型FP8精度下不低于800GB显存容量的需求。显存带宽高达4.9TB/s,可以在推理解码阶段实现极致加速。
在高速互联方面,GPU P2P通信带宽达900GB/s,同时单机提供3.2TB/s的高带宽低延迟网络扩展,能够为DeepSeek-R1满血版大模型提供极低的通信延迟。
联想问天 WA7780 G3大模型训推一体服务器
联想问天 WA7785a G3服务器则聚焦于AI算力优化,该大模型推理AI算力平台原生支持FP8,提供超1.5T HBM3e,为DeepSeek-R1满血版大模型插上性能腾飞的翅膀。
此外,显存带宽达5.3TB/s的高速显存可以减少数据传输的瓶颈,从而加速训练过程,提高模型训练效率。GPU聚合带宽达896GB/s,同时单机提供3.2TB/s的高带宽低延迟网络扩展,充分满足了DeepSeek-R1满血版大模型并行计算时跨节点的通信需求,使其成为用户首选大模型推理服务器。
联想问天 WA7785a G3服务器
此外,联想正在加速推进DeepSeek 671B-R1和V3模型及一系列蒸馏模型与其AI服务器的适配。未来,联想将持续创新为企业提供全面、高效、可靠的IT基础设施,加速推动AI创新与应用落地,为千行万业积极拥抱AI注入强大动力。(科文)