龍芯中科(688047)03月12日在投資者關系平臺上答復投資者關心的問題。
投資者提問:字節豆包團隊提出全新的稀疏模型架構UltraMem--降低內存訪問需求,使得CPU成為可行的推理載體,驅動CPU架構創新,這自然會減少對GPU的依賴。如果很多模型可以在CPU上高效運行,廠商可能會更傾向于使用CPU,尤其是成本降低的情況下。這可能打破GPU在AI推理中的主導地位,尤其是英偉達的市場份額。那么龍芯有做相應的對接以及布局嗎?自主架構優勢顯著,希望及時跟進!
龍芯中科回復:尊敬的投資者,您好。UltraMem架構主要特點是優化內存訪問,降低內存占用,提高推理速度。我們認為GPU仍然是它的理想載體,在這種特定場景下CPU并發度不如GPU,CPU可以與GPU或NPU一起協同處理。龍芯堅持自主研發CPU和GPU,第二代GPGPU核支持AI計算功能,已集成至現有芯片,如2K3000芯片提供8TOPSINT8算力,可用于小規模端側AI部署,后續芯片還將進一步提升通用計算和AI計算能力。同時,龍芯也在大力發展基于龍架構和自研GPGPU的算力和AI軟件棧的生態建設。感謝您對公司的關注。