高通發布AI200與AI250晶片:768GB記憶體挑戰Nvidia與AMD資料中心霸主地位

高通推出AI200與AI250資料中心晶片,單卡配備768GB LPDDR5記憶體,採用機架級設計與液冷技術,進軍價值6.7兆美元的AI資料中心市場。

高通AI200與AI250資料中心晶片與記憶體架構
高通AI200與AI250資料中心晶片與記憶體架構

高通(Qualcomm)在2025年10月下旬宣布推出AI200與AI250資料中心晶片,正式進軍由Nvidia主導的AI運算市場。新晶片採用高通Hexagon神經處理單元(NPU)架構,針對AI推論工作負載優化,單張加速卡配備高達768GB LPDDR5記憶體,顯著超越現有市場方案。

消息公布後,高通股價單日暴漲11%,市場對其挑戰Nvidia的策略表示樂觀。隨著AI資料中心支出預計在2030年前達到6.7兆美元,高通選擇此時進場具有重大戰略意義。

超大記憶體容量突破技術瓶頸

AI200與AI250最引人注目的規格是單卡768GB LPDDR5記憶體配置。這個容量讓大型語言模型與多模態AI模型能夠完整載入單一加速卡,無需頻繁進行卡間記憶體傳輸,直接解決當前AI推論系統的主要效能瓶頸。

相較之下,Nvidia主流GPU方案通常配備40GB至80GB HBM記憶體,處理大型模型時需要多卡協同運作。高通的記憶體策略採用LPDDR5而非HBM,雖然頻寬較低,但容量優勢明顯,特別適合推論工作負載。

AI250更進一步引入創新的近記憶體運算(near-memory computing)架構。高通聲稱AI250的記憶體頻寬將是AI200的10倍以上,這對需要快速存取大量參數的生成式AI模型至關重要。

機架級設計對標Nvidia與AMD

高通採用機架級(rack-scale)設計策略,與Nvidia和AMD的旗艦產品直接競爭。AI200與AI250都提供完整伺服器機架配置,最多可讓72顆晶片作為單一運算系統運作,這種設計已成為大型AI資料中心的標準架構。

兩款晶片都採用直接液冷技術,單機架功耗為160kW。液冷系統對高密度AI運算至關重要,能有效處理大量晶片產生的熱能,同時降低資料中心整體能源消耗。

互連技術方面,高通使用PCIe進行擴展(scale-up)連接單一機架內的晶片,Ethernet則用於跨機架擴充(scale-out)。這種混合互連策略在成本與效能間取得平衡,避免使用Nvidia昂貴的NVLink專屬技術。

Hexagon架構針對AI推論優化

AI200與AI250基於高通Hexagon NPU架構,這是從行動裝置晶片技術演化而來的AI專用處理器。最新版本採用12+8+1配置,整合純量(scalar)、向量(vector)與張量(tensor)加速器。

晶片支援多種數據格式,包括INT2、INT4、INT8、INT16、FP8、FP16,這種靈活性讓開發者能根據模型需求選擇最佳精度與效能平衡。微區塊推論(micro-tile inferencing)技術減少記憶體流量,進一步提升效能。

安全性方面,晶片提供生成式AI模型加密功能,保護企業專有模型不被未授權存取。64位元記憶體定址與虛擬化支援則確保企業級應用的穩定性。

市場定位與上市時程

AI200預計2026年上市,AI250則排定2027年發布。這個時程讓高通有充足時間優化軟體生態系統與客戶整合,避免倉促推出造成的問題。

沙烏地阿拉伯AI新創企業Humain已宣布將在該國及全球其他地區部署200MW的AI200與AI250硬體。這筆大型訂單展示高通已取得關鍵客戶支持,有助於建立市場信心。

高通將產品定位於AI推論而非訓練工作負載。推論市場規模龐大且持續成長,包含搜尋引擎、聊天機器人、推薦系統等應用,而訓練市場雖然高調但集中於少數大型實驗室。

挑戰Nvidia壟斷的現實困難

Nvidia目前控制AI晶片市場約80-90%份額,CUDA軟體生態系統是其最強護城河。開發者花費多年時間學習CUDA,企業累積大量CUDA程式碼,轉換成本極高。

高通需要提供強大的軟體工具鏈與豐富的開發資源,才能說服客戶採用新平台。單純的硬體效能優勢不足以撼動Nvidia地位,生態系統建設將是成敗關鍵。

AMD近年積極推廣ROCm開源平台對抗CUDA,但市場滲透率仍有限。高通面臨相同挑戰,需要證明其平台能提供相當甚至更好的開發體驗。

產業競爭格局演變

AI晶片市場正經歷快速變化。除了高通,Amazon、Google、Microsoft都在開發自研晶片,減少對Nvidia的依賴。這個趨勢創造多元化供應鏈,但也讓市場競爭更加激烈。

資料中心運營商歡迎更多選擇,Nvidia目前的供應緊張與高價格促使客戶尋找替代方案。高通若能提供具競爭力的價格與充足供貨,將有機會取得市場份額。

然而Nvidia並非靜止目標,Blackwell架構GPU已在亞利桑那州投產,下一代產品持續推進。高通需要維持技術創新速度,才能在長期競爭中站穩腳跟。

技術路線的策略差異

高通選擇LPDDR5而非HBM記憶體,代表不同的技術哲學。HBM提供極高頻寬但成本昂貴且容量受限,LPDDR5則在頻寬、成本與容量間取得平衡,更適合高通的行動晶片製造專長。

這個選擇也反映推論與訓練工作負載的差異。訓練需要極高記憶體頻寬來處理大批次數據,推論則更需要大容量記憶體來載入完整模型,高通的記憶體策略符合推論優先定位。

AI250的近記憶體運算架構是另一個差異化技術。傳統架構中運算單元與記憶體分離,數據傳輸成為瓶頸,近記憶體運算將部分處理能力移至記憶體附近,減少數據移動開銷。

高通進軍AI資料中心市場展現野心,AI200與AI250的規格確實具有競爭力。然而要真正挑戰Nvidia霸主地位,高通需要在軟體生態系統、客戶支援與長期技術路線圖上持續投資。接下來兩年的市場接受度與實際部署成果,將決定高通能否在這場AI晶片戰爭中佔據一席之地。

資料來源:

作者:Drifter

·

更新:2025年11月3日 上午06:30

· 回報錯誤
下拉重新整理