AI服務器之后,市場的焦點轉向了AI手機和AI PC。
在高通基于新ARM架構核心驍龍8 Gen4上市即將到來之時,市場對AI PC的關注越來越高,在本周的財報電話會上,聯想透露了一些自身和行業的新進展。
1、“五大要素”定義AI PC
市場上對AI PC的定義各不相同,目前微軟給出的定義市場認可度高,具體包括:
1)內存方面,基礎AI模型需要16GB內存,標準AI模型則需要32GB,高級AI模型則要求64GB或更多;
2)算力方面,至少要有40TOPS的算力;
聯想則在此基礎上完善了自己的AI PC定義,包括五個關鍵要素:
1)內置了壓縮大模型;
2)配備自然語言交互能力的AI助手;
3)硬件方面,需要同時擁有CPU、GPU和NPU;
4)能幫助用戶建立個人知識庫;
5)重視用戶個人隱私的保護;
結合微軟提出的AI PC內存和算力標準,AI PC的形態愈加清晰:AI PC不僅智能且強大,還能為用戶提供更個性化、更安全的體驗。
2、AI PC滲透率的變化預測
按照聯想自己的定義,目前市場上符合要求的產品較少,聯想在電話會中預計今年的比例會在十個百分點以下。
聯想預測,2024年公司出貨的PC中,大約20%會配備NPU(神經處理單元)。到了2026年,根據聯想的嚴格定義,AI PC的滲透率可能達到50%到60%。目前,聯想每年的出貨量在5500-6000萬臺之間,60%的出貨量意味著大約有3600萬臺是AI PC。
美國市場營銷專家Geoffrey Moore有一個“市場滲透率加速定律”,他認為當新產品或服務的市場滲透率達到15%時,其增長速度會加快,并最終達到50%左右。之后,增長速度會逐漸放緩,直至穩定。
所以,AI PC的出貨量可能會在2024年逐步增加,2025到2026年進入快速增長階段,這將為整個產業鏈帶來新的機遇。
3、x86和ARM的市場份額
ARM替代x86架構是市場近期關注的一個核心問題,這將對AI時代換機潮比例起到重要作用。
會議上,聯想表示未來將會出現x86和ARM兩種架構并存的局面。
x86的指令較長,通常在一條長指令中包含多個任務。而ARM則相反,擅長將一條長指令拆分成多個短指令。換句話說,ARM擅長將復雜任務分解成簡單任務。這樣做的好處是可以降低CPU的功耗,同時還能保持高性能。
英特爾和AMD在x86架構時代,一直占據市場的大部分份額。然而,隨著AI計算時代到來對功耗要求的提高,市場開始逐漸傾向于使用ARM架構。英偉達、AMD、高通和聯發科都已經推出了基于ARM架構的CPU處理器。
不過,聯想也提到,對于AI處理器來說,除了功耗之外,還有很多其他重要的衡量標準。未來,x86和ARM之間必定會展開激烈競爭。這樣的競爭對AI服務器廠商來說是個好消息,因為無論是從成本還是處理器選擇的角度來看,這都是一個優勢。
4、供應鏈變化
根據高盛發布的數據顯示,GPU的供貨時間正在不斷縮短。英偉達在本周的財報會議上也表示,H100顯卡的供應緊張狀況已經有所緩解。
聯想在此次會議上提供了更詳細的數據:去年,GPU的等待周期大約為52周。今年年初,這一周期已從52周縮短到26周,而到目前為止,等待周期又進一步減少。
供貨周期的縮短,對于聯想、戴爾、惠普和超微電腦等服務器供應商來說是個好消息,因為這意味著服務器的出貨將不再受制于供應短缺。然而,聯想也指出,具體何時能夠完全解決供應鏈問題,目前仍不確定。
5、Copilot和小天
由于眾所周知的原因,國內的 Windows 電腦無法直接使用微軟的 Copilot。為了在 PC 上解決 AI 助手的問題,聯想推出了自己的端側大模型助手“聯想小天”。
與 Copilot 需要依賴云端運行不同,“聯想小天”可以完全在本地運行。
根據科技博主“卡茲克”的評測,“聯想小天”具備本地運行和云端運行兩種模式,用戶可以根據需要自由切換。
這種設計不僅保證了用戶的數據隱私,還能在需要時利用云端處理復雜任務。
從功耗來看,“卡茲克”的數據表明,本地模型雖然運行在 CPU 上,但耗電量很低。這個大模型常駐后臺,需要大約 4G 的內存。此外,在進行推理時,對 CPU 的影響也基本可以忽略不計。
功能方面,本地模型能夠完成郵件擬稿、語音轉錄、會議總結等任務,性能相當于 GPT-3.5 水平的模型,已經足夠滿足日常辦公需求。