2025 年 3 月 5 日,聯想集團宣布其問天 WA7780 G3 AI 服務器在業內首次實現單機部署 DeepSeek-R1/V3 671B 千億參數大模型,顯存需求從行業公認的 1TB 門檻降至 768GB,同時支持多用戶高并發流暢使用,為千億級大模型的企業級本地化部署提供了全新解決方案。這一突破標志著 AI 大模型在企業端的規?;瘧眠~入新階段。

傳統千億參數大模型本地部署需至少 1TB 顯存資源,高昂的硬件成本與部署復雜度成為企業落地核心障礙。聯想通過專家并行優化與智能訪存架構升級,將顯存利用率提升至行業領先水平,在單機 768GB GPU 顯存條件下成功運行 DeepSeek 671B 滿血模型,并實現千人規模企業的并發需求。依托聯想萬全異構智算平臺的優化技術,該服務器在一個月內將并發能力提升 10 倍,單機即可支撐中小企業大模型推理、訓練等全流程應用。

此次技術突破源于聯想中國基礎設施業務群與研究院 ICI 實驗室的聯合攻關。團隊針對模型訓練、推理場景進行全鏈路調優,包括分布式計算資源調度、內存帶寬優化及混合精度計算等關鍵技術,使模型在低顯存條件下仍保持高吞吐量與低延遲性能。目前,該方案已在金融、制造等場景完成驗證,支持企業以更低成本構建私有化大模型能力。
行業分析指出,聯想的技術革新將顯著降低企業大模型部署門檻,加速 AI 從技術驗證向業務融合的轉型進程。未來,聯想計劃通過萬全異構智算平臺持續優化 DeepSeek 大模型的全生命周期管理,推動更多行業實現大模型場景化落地。