AMD股價飆升創歷史新高
2025年10月26日,先進微裝置公司(AMD)股價強勁上漲,推動其市值首度突破4000億美元大關,創下公司成立55年來的歷史新高。這一里程碑反映投資者對AMD在AI資料中心與高效能運算領域角色的持續熱情。分析師將此次估值飛躍歸因於AMD積極的定價策略和能效設計,特別是MI300系列加速器的強勁季度訂單,這些產品正直接與Nvidia在大規模模型訓練市場展開競爭。AMD執行長蘇姿丰表示:「AI基礎設施需求正處於歷史最高點,MI300系列為企業提供性能與成本的最佳平衡。」
MI300系列加速器市場表現
MI300X架構與性能
7nm與5nm混合製程: AMD MI300X採用台積電7nm與5nm混合製程(chiplet架構),整合8個CDNA 3架構的GPU晶片與4個Zen 4 CPU晶片,提供高達192GB HBM3記憶體,記憶體頻寬達5.3TB/s。相較Nvidia H100的80GB HBM3,MI300X記憶體容量優勢達2.4倍,適合訓練參數量超過千億的超大型語言模型。
FP8精度訓練: MI300X支援FP8(8位元浮點數)精度訓練,理論峰值算力達1.3 PetaFLOPS(每秒1300兆次浮點運算),與Nvidia H100的1 PetaFLOPS相比提升30%。在實際LLaMA 3模型訓練測試中,MI300X訓練時間比H100縮短約15-20%。
能效優勢: MI300X TDP(熱設計功耗)為750W,與H100的700W相近,但因記憶體容量更大,每TB記憶體的功耗僅為H100的42%,大幅降低大型資料中心的電力與冷卻成本。
MI300A APU加速器
CPU+GPU整合設計: MI300A是全球首款將Zen 4 CPU與CDNA 3 GPU整合於單一封裝的APU(加速處理器),共享128GB統一記憶體。這種設計消除CPU-GPU間的資料傳輸瓶頸,適合需要頻繁CPU-GPU協作的科學運算(如氣候模擬、分子動力學)。
超級電腦部署: 美國能源部橡樹嶺國家實驗室(ORNL)的El Capitan超級電腦採用超過4萬顆MI300A,峰值算力達2 ExaFLOPS(每秒200億億次浮點運算),成為全球第二快的超級電腦。這證明MI300A在大規模科學運算的可靠性與性能。
訂單激增與市場滲透
Oracle雲端部署: 2025年10月14日,Oracle雲端基礎設施(OCI)宣布將從2026年下半年起部署5萬顆AMD GPU,主要為MI300X。Oracle雲端資深副總裁表示:「客戶對AMD的接受度非常高,特別是在AI推論領域。」這是AMD進軍雲端AI市場的重大突破。
OpenAI戰略合作: OpenAI與AMD簽訂多年期合約,總計6 gigawatt(60億瓦)電力需求的AI晶片,2026年起首批部署1 gigawatt。若合作順利,OpenAI最終可能持有AMD約1.6億股(約10%股權)。這標誌著OpenAI正積極降低對Nvidia的依賴,分散供應鏈風險。
Meta、微軟採購: Meta的Llama 4訓練基礎設施部分採用MI300X,微軟Azure也開始提供MI300X雲端執行個體(ND MI300x v5系列),讓企業客戶選擇AMD作為Nvidia替代方案。
市場份額預測: 研究機構Mercury Research預測,AMD在AI加速器市場份額將從2024年的5%成長至2026年的15-20%,而Nvidia份額將從95%降至80-85%。雖然Nvidia仍居主導地位,但AMD正快速蠶食市場。
Nvidia霸主地位面臨挑戰
Nvidia市場優勢
CUDA生態系統: Nvidia在AI加速器市場擁有超過90%份額,主要歸功於CUDA(Compute Unified Device Architecture)軟體生態系統。全球數百萬AI開發者熟悉CUDA程式語言,主流深度學習框架(TensorFlow、PyTorch、JAX)皆針對CUDA優化。企業若轉用AMD,需重寫或調整程式碼,轉換成本高昂。
H100與H200性能: Nvidia H100 Tensor Core GPU於2022年推出,採用台積電4nm製程,80GB HBM3記憶體,1 PetaFLOPS FP8算力,成為AI訓練標準配備。2024年推出的H200升級至141GB HBM3e記憶體,記憶體頻寬提升至4.8TB/s,進一步鞏固領先地位。
GB200 Grace Blackwell超級晶片: 2024年3月發布的GB200結合Grace CPU與Blackwell GPU,提供2.5 PetaFLOPS FP8算力與192GB HBM3e記憶體,性能比H100提升2.5倍。GB200預計2025年第四季量產,屆時將拉大與AMD的性能差距。
供應鏈掌控: Nvidia與台積電建立深度合作關係,優先取得4nm、3nm先進製程產能。同時掌控HBM3記憶體供應鏈(SK海力士、三星、美光),確保產能穩定。AMD則需與Nvidia競爭相同供應鏈資源,擴產速度受限。
AMD挑戰策略
價格競爭: AMD MI300X定價策略極具侵略性,每卡售價約2.5-3萬美元,相較Nvidia H100的3.5-4萬美元低約25-30%。對於需要採購數千至數萬張GPU的雲端業者與企業,成本節省達數億美元,吸引力巨大。
記憶體容量優勢: MI300X的192GB HBM3是目前市場最大容量,可在單卡載入更大模型,減少多卡通訊延遲。訓練GPT-4等級(約1.8兆參數)模型時,MI300X可減少約30-40%所需GPU數量,間接降低總擁有成本(TCO)。
開放軟體生態: AMD投入大量資源開發ROCm(Radeon Open Compute)平台,這是CUDA的開源替代方案,支援PyTorch、TensorFlow等主流框架。ROCm 5.7版本(2024年發布)大幅提升易用性與性能,降低開發者轉換障礙。AMD也與Hugging Face、Meta等合作,確保熱門AI模型可順暢運行於MI300X。
能效與永續性: 資料中心電力成本占總營運成本約30-40%,MI300X每瓦性能優於H100約10-15%,長期可節省可觀電費與碳排放。對於承諾碳中和的科技巨頭(如微軟、Google、Meta),AMD能效優勢具有戰略價值。
Nvidia反制措施
加速產品迭代: Nvidia縮短產品週期,從過去2年縮短至1年,維持技術領先。GB200之後預計2026年推出Rubin架構,2027年推出Rubin Ultra,持續拉大性能差距。
強化軟體護城河: Nvidia推出CUDA-X AI函式庫,整合TensorRT(推論加速)、cuDNN(深度學習核心)、NCCL(多GPU通訊),提供開箱即用的最佳化性能。同時推出NeMo、NIM等AI應用框架,深度綁定開發者。
客製化解決方案: 針對大型雲端業者(AWS、Google Cloud、Azure)提供客製化GPU設計,如Amazon的Trainium整合Nvidia IP。這種深度合作關係增加客戶轉換成本。
價格調整: 面對AMD價格壓力,Nvidia可能選擇性降價,特別是前一代H100產品,維持市場份額。憑藉規模經濟與毛利率優勢(約70-80%),Nvidia有降價空間。
AI晶片市場競爭格局
Intel Gaudi 3挑戰
架構特色: Intel於2024年推出Gaudi 3 AI加速器,採用台積電5nm製程,提供128GB HBM2e記憶體與1.8 PetaFLOPS FP8算力。Gaudi 3強調推論效率,每瓦推論性能比H100高約20%,目標市場為AI推論而非訓練。
市場接受度: Intel Gaudi系列主要客戶為Intel自家合作夥伴(如Dell、HPE),市場份額低於5%。主要挑戰在於軟體生態不成熟,開發者工具鏈遠不如CUDA與ROCm完善。
價格優勢: Gaudi 3定價約1.5-2萬美元,比MI300X更便宜,但性能與記憶體容量也較低。適合預算有限、對性能要求不極致的中小企業。
Google TPU自研晶片
TPU v5p規格: Google Tensor Processing Unit v5p是Google第五代AI晶片,專為大型語言模型訓練優化。單個TPU v5p Pod包含8,960顆晶片,提供約4 ExaFLOPS算力,是全球最大AI訓練系統之一。
內部使用為主: TPU主要供Google內部使用(訓練Gemini、PaLM等模型)與Google Cloud Platform客戶租用,不對外銷售硬體。這限制其市場影響力,但降低Google對Nvidia依賴。
成本優勢: Google自研晶片消除Nvidia溢價,估計每瓦訓練成本比H100低30-50%。這使Google在AI基礎設施成本上具備競爭優勢,支撐免費或低價AI服務。
AWS Trainium與Inferentia
專用推論晶片: Amazon Web Services自研Inferentia 2晶片專注AI推論,單晲片提供384 TOPS INT8算力,價格比Nvidia A10推論GPU低約60%。AWS聲稱Inferentia 2推論性能比GPU高3倍,成本降低70%。
Trainium訓練晲片: Trainium 2於2024年發布,針對大型模型訓練,性能據稱與Nvidia H100相當,但價格低約40%。AWS內部大量使用Trainium訓練Alexa、Amazon Q等AI服務。
生態系統挑戰: AWS晶片僅可透過AWS雲端使用,無法本地部署。對於需要自建資料中心的企業(如OpenAI、Meta),AWS晶片不適用,限制市場規模。
中國AI晶片廠商
華為昇騰910B: 受美國出口管制影響,中國科技業者無法取得先進Nvidia GPU,轉向華為昇騰(Ascend)系列。昇騰910B採用台積電7nm製程(受限於出口管制),FP16算力約320 TFLOPS,性能約為H100的30-40%。
寒武紀、壁仞科技: 中國本土AI晶片新創公司如寒武紀(Cambricon)、壁仞科技(Biren Technology)積極開發替代方案,但受限於先進製程取得困難,性能與能效顯著落後國際水準。
市場隔離: 中國AI晶片市場因地緣政治因素與國際市場隔離,華為、寒武紀主導本土市場(約佔全球AI晶片需求15-20%),但無法進入歐美市場。
技術趨勢與未來展望
Chiplet架構成主流
模組化設計優勢: AMD MI300採用chiplet(小晶片)架構,將GPU、CPU、記憶體控制器等功能分散於多個小晶片,透過先進封裝(如3D堆疊)整合。這種設計提高良率(小晶片缺陷率低)、降低成本、加快產品迭代速度。
產業跟進: Nvidia GB200也採用類似架構,將Grace CPU與Blackwell GPU透過NVLink-C2C互連。Intel Ponte Vecchio(資料中心GPU)採用47個chiplet,是業界最複雜的chiplet設計。Chiplet架構已成AI晶片設計標準。
供應鏈影響: Chiplet架構推動先進封裝需求激增,台積電CoWoS(Chip-on-Wafer-on-Substrate)、Intel Foveros、三星X-Cube等技術成為競爭焦點。封裝產能不足已成AI晶片瓶頸,預計2026年才能緩解。
HBM記憶體軍備競賽
HBM3e與HBM4: 高頻寬記憶體(HBM)是AI晶片關鍵元件,2025年HBM3e成為主流,單堆疊容量達36GB,頻寬9.6GB/s。SK海力士、三星、美光正開發HBM4,預計2027年量產,單堆疊容量達48GB,頻寬12GB/s。
供應緊張: HBM產能遠低於需求,導致價格飆升。2024年HBM3價格比2023年上漲約150%,SK海力士獲利大增。Nvidia、AMD競相鎖定HBM產能,簽訂長期供應合約,確保產品競爭力。
記憶體計算(Processing-in-Memory): 未來AI晶片可能整合記憶體與運算單元,減少資料搬移。三星研發PIM(Processing-in-Memory)技術,可在記憶體內執行簡單運算,降低功耗與延遲。
光學互連技術
解決頻寬瓶頸: AI叢集規模擴大至數萬張GPU,GPU間通訊頻寬成為瓶頸。傳統電訊號傳輸速度受限,光學互連(Silicon Photonics)可提供數十倍頻寬,延遲降低50%。
產業投資: Nvidia投資Ayar Labs、Lightmatter等光學互連新創公司。Intel收購矽光子技術公司,整合進Xe GPU產品線。預計2027-2028年光學互連將進入AI資料中心主流。
客製化AI晶片(ASIC)趨勢
專用優化: 除了通用GPU,企業開始開發針對特定AI模型的ASIC(Application-Specific Integrated Circuit)。例如Tesla開發Dojo晶片專門訓練自動駕駛模型,性能比GPU高約10倍,成本降低70%。
邊緣AI晶片: 高通Snapdragon、聯發科天璣等行動晶片整合NPU(神經網路處理單元),支援端側AI推論。Apple M系列、A系列晶片的Neural Engine也持續增強,未來手機、平板、筆電可執行中小型AI模型,降低雲端依賴。
對產業與投資的影響
雲端服務成本下降
價格競爭傳導: AMD、Intel積極定價迫使Nvidia調整策略,GPU價格長期將溫和下降。雲端服務業者(AWS、Azure、Google Cloud)可降低AI運算定價,刺激企業AI應用普及。
多元供應商選擇: 企業客戶不再完全依賴Nvidia,可根據工作負載特性選擇最佳方案:訓練超大模型用Nvidia GB200、成本敏感場景用AMD MI300X、推論用AWS Inferentia。這種靈活性提升營運效率。
AI新創公司受益
降低進入門檻: GPU成本下降與雲端選擇增加,降低AI新創公司訓練大型模型的成本。過去訓練千億參數模型需數百萬美元,未來可能降至數十萬美元,促進AI創新。
開源模型生態: Meta Llama、Mistral等開源模型配合便宜的AMD GPU,使中小企業可自建AI基礎設施,無需依賴OpenAI、Anthropic等商業API,降低長期成本。
半導體產業鏈機會
台積電產能需求: AMD、Nvidia、Intel皆依賴台積電先進製程(3nm、2nm),推動台積電資本支出持續成長。2025年台積電資本支出預計達400-450億美元,大部分投入先進製程擴產。
封裝與測試: 日月光、Amkor等封裝廠受惠於chiplet架構與先進封裝需求,營收成長率可望維持20-30%。HBM記憶體測試需求也推動京元電、矽格等測試廠業績。
電力與冷卻基礎設施: AI資料中心功耗驚人,單一GB200機櫃功耗達120kW,傳統資料中心難以負荷。液冷散熱系統(如CoolIT、Asetek)、高效電源供應器(Delta、台達電)成為關鍵供應鏈。
投資策略建議
長期看好AMD: AMD市值突破4000億美元僅是開始,若能持續蠶食Nvidia市場份額至20%,市值有望挑戰5000-6000億美元。關鍵在於MI350(2026年推出)性能表現與ROCm生態系統成熟度。
Nvidia仍具護城河: 儘管面臨挑戰,Nvidia的CUDA生態系統、技術領先、供應鏈掌控使其短中期仍將主導市場。市值從當前3兆美元成長至4兆美元並非不可能,但成長速度將放緩。
供應鏈分散佈局: 投資不應僅集中於GPU製造商,應涵蓋整個生態系統:台積電(製造)、SK海力士(HBM)、博通(客製化ASIC)、Arista(網路設備)、Vertiv(資料中心基礎設施)。
地緣政治與供應鏈風險
美中科技脫鉤
出口管制升級: 美國持續收緊對中國AI晶片出口管制,2024年規定算力超過600 TOPS或記憶體頻寬超過600GB/s的晶片禁止出口中國。這迫使Nvidia、AMD開發閹割版產品(如H20、MI308),性能大幅降低。
市場損失: 中國曾佔Nvidia營收約20-25%,出口管制導致該市場幾乎完全喪失,轉由華為、寒武紀填補。AMD也面臨相同挑戰,需在其他市場(歐洲、日本、東南亞)尋找成長動能。
台灣供應鏈集中風險
台積電關鍵地位: 全球90%以上先進AI晲片由台積電生產,台海局勢緊張引發供應鏈憂慮。美國、歐盟、日本積極推動本土晶片製造,但產能建立需5-10年,短期無法取代台積電。
分散製造策略: 台積電於美國亞利桑那州、日本熊本、德國德勒斯登建廠,但主要生產成熟製程(28nm、16nm)與中階製程(5nm、3nm),最先進2nm仍集中於台灣。AMD、Nvidia需評估地緣政治風險,考慮供應鏈備援。
結論
AMD市值突破4000億美元標誌著AI晶片市場進入雙強競爭時代,Nvidia的絕對壟斷地位首次受到實質挑戰。MI300系列憑藉記憶體容量優勢、積極定價與能效設計,成功吸引Oracle、OpenAI、Meta等重量級客戶,市場份額可望從5%成長至15-20%。然而Nvidia的CUDA生態系統、技術領先與供應鏈掌控仍構成強大護城河,短期內主導地位難以撼動。AI晶片市場競爭白熱化將帶來三大影響:一是GPU價格下降推動AI應用普及,降低企業與新創進入門檻;二是供應鏈(台積電、SK海力士、封裝廠)需求持續強勁,推動半導體產業榮景;三是技術創新加速(chiplet、HBM4、光學互連),推動AI基礎設施性能與效率持續提升。投資者應關注AMD能否兌現市場份額成長承諾,Nvidia如何反制,以及Intel、Google、AWS等其他競爭者的動向。地緣政治風險(美中科技脫鉤、台海局勢)與供應鏈集中(台積電、HBM)是產業最大不確定因素,分散供應鏈與本土製造將是長期趨勢。整體而言,AI晶片市場仍處於高速成長期,多家業者可望共享市場紅利,但競爭加劇將壓縮利潤率,技術創新與生態系統建設將是決勝關鍵。
 
 