OpenAI攜手Broadcom開發自研AI晶片,擺脫NVIDIA依賴加速AGI進程

OpenAI於10月14日宣布與Broadcom建立戰略合作,共同開發與部署首款自研AI處理器,突破對NVIDIA的依賴。這項合作結合Broadcom的晶片設計專業與OpenAI的AI工作負載理解,針對GPT模型訓練與推論優化,預計2026年首批晶片量產。OpenAI同時宣布每週活躍用戶達8億,開發者平台4百萬用戶,API每分鐘處理80億次請求。

OpenAI與Broadcom合作開發自研AI晶片示意圖
OpenAI與Broadcom合作開發自研AI晶片示意圖

科技巨頭自研晶片戰略再添新章

OpenAI於2025年10月14日宣布與半導體巨頭Broadcom建立戰略合作關係,共同開發與部署OpenAI首款自研AI處理器。這項決策標誌著OpenAI加入Google、Meta、Amazon等科技巨頭行列,透過自主晶片設計降低對NVIDIA GPU的依賴,同時針對自家AI工作負載進行深度優化,加速通用人工智慧(AGI)的研發進程。

合作背景與動機

NVIDIA依賴困境

OpenAI目前高度依賴NVIDIA的H100與即將推出的B200 GPU進行模型訓練與推論。隨著GPT-5及後續模型規模持續擴大,運算需求呈指數級成長。NVIDIA GPU供應緊張、價格高昂,加上產能受限於台積電產線排程,導致OpenAI面臨成本與時程壓力。

財務負擔: 據估計,OpenAI每年向NVIDIA採購GPU的支出超過10億美元。訓練一個GPT-5級別的大型語言模型,需要數萬片H100 GPU,連續運算數月,單次訓練成本可能達數億美元。

供應鏈風險: 全球AI公司搶購NVIDIA GPU,導致交貨週期延長至6-12個月。供應鏈集中風險讓OpenAI認知到,掌握自主晶片設計能力是確保技術領先的關鍵。

客製化需求: 通用GPU難以完全針對GPT系列模型的特定運算模式優化。自研晶片可針對Transformer架構、注意力機制、大規模矩陣運算等進行硬體層級加速,提升效能與能效比。

Broadcom的戰略價值

OpenAI選擇Broadcom作為合作夥伴,而非Intel或AMD,基於以下考量:

客製化ASIC專業: Broadcom擁有豐富的客製化晶片(ASIC)設計經驗,曾協助Google開發TPU(Tensor Processing Unit)。這種專案模式讓客戶保有設計主導權,Broadcom提供晶片設計、製造協調、封裝測試等全方位支援。

非競爭關係: Broadcom不像NVIDIA自產AI加速器搶佔市場,也不像Intel、AMD有自家AI晶片產品線。這種純合作關係讓OpenAI無需擔心技術外洩或商業競爭。

產業連結網路: Broadcom與台積電、三星等晶圓代工廠關係密切,能協助OpenAI取得先進製程產能。同時在封裝、測試、供應鏈管理等環節擁有豐富資源。

自研晶片技術規劃

設計目標與架構

OpenAI自研晶片(暫時代號未公開)的核心設計目標包括:

針對Transformer架構優化: 現代大型語言模型基於Transformer架構,涉及大量矩陣乘法、注意力計算、層歸一化等操作。晶片將針對這些運算模式設計專用硬體單元,減少冗餘邏輯,提升吞吐量。

大規模分散式訓練支援: GPT-5級別模型訓練需要數千至數萬顆晶片協作。晶片內建高速互連介面(類似NVIDIA NVLink),降低通訊延遲與頻寬瓶頸,提升分散式訓練效率。

推論優化模式: 除了訓練,推論(inference)是AI晶片的另一重要應用。ChatGPT每天處理數十億次請求,推論成本佔整體營運支出極大比例。晶片將提供低延遲、高吞吐的推論模式,降低服務成本。

記憶體頻寬突破: AI運算常受限於記憶體頻寬而非運算能力。晶片採用HBM3(高頻寬記憶體)或更先進的HBM4,提供TB/s級別的記憶體頻寬,緩解資料搬運瓶頸。

製程與量產規劃

先進製程選擇: 預期採用台積電3奈米或2奈米製程。先進製程提供更高電晶體密度、更低功耗、更高時脈頻率,是實現性能目標的基礎。

量產時程: 根據業界開發週期,晶片從設計啟動到量產通常需18-24個月。OpenAI與Broadcom的合作於2025年中開始,首批晶片預計2026年底或2027年初量產。

產能規劃: 初期可能每季生產數千至數萬片晶片,逐步擴大至每季十萬片以上。考量到GPT模型規模,OpenAI需要的晶片數量級可能達數十萬至百萬片。

與現有方案並行

重要的是,自研晶片不會完全取代NVIDIA GPU,而是混合使用:

訓練階段: 大型模型初期訓練仍可能使用NVIDIA H100/B200,利用其成熟生態與工具鏈。自研晶片用於特定優化階段或增量訓練。

推論階段: ChatGPT、DALL-E等產品的推論服務,逐步遷移至自研晶片,降低成本與延遲。

研發實驗: 小型實驗性模型訓練,優先使用自研晶片驗證新架構與算法。

技術實現挑戰

設計複雜度

架構創新風險: 設計AI加速器涉及大量架構創新,如何在理論設計與實際效能間取得平衡?錯誤的架構決策可能導致晶片效能不如預期。

驗證與除錯: 現代晶片包含數十億電晶體,驗證其功能正確性極為困難。一旦流片(tape-out)後發現重大Bug,修正成本高昂,可能延誤數月。

軟體生態建立: 晶片硬體只是一部分,配套的編譯器、驅動程式、框架整合同樣重要。OpenAI需開發完整軟體堆疊,讓現有PyTorch/TensorFlow程式碼能無縫遷移。

製造與供應鏈

台積電產能競爭: Apple、NVIDIA、AMD、Qualcomm等大客戶佔據台積電先進製程主要產能。OpenAI作為新進客戶,如何取得足夠產能是挑戰。

良率與成本: 先進製程初期良率可能僅50-70%,影響成本與交貨時程。隨著製程成熟,良率提升至80-90%,但需時間累積。

地緣政治風險: 台積電主要產能在台灣,面臨地緣政治不確定性。OpenAI可能需評估三星、Intel代工廠等備案。

商業模式調整

投資回報期: 晶片研發投資可能達數億至數十億美元。何時能透過成本節省回收投資?這取決於產量、效能提升幅度、NVIDIA GPU價格走勢。

技術人才爭奪: 晶片設計需要大量專業人才,OpenAI需與NVIDIA、Apple、Google等競爭招募。薪資成本與人才取得難度都是考量。

OpenAI用戶與業務成長

平台規模爆炸性增長

OpenAI於DevDay 2025公布的數據顯示驚人成長:

8億週活躍用戶: 較一個月前的7億增加1億,月增長率超過14%。ChatGPT已成為全球最受歡迎的AI應用,用戶遍布200多個國家地區。

4百萬開發者: 開發者平台註冊用戶達400萬,較去年同期成長3倍。這些開發者利用OpenAI API打造聊天機器人、程式碼助手、內容生成工具等應用。

每分鐘80億API請求: API呼叫量達每分鐘80億次,相當於每秒1.33億次。這個規模需要龐大基礎設施支撐,也解釋為何OpenAI迫切需要自研晶片降低成本。

Apps SDK推出

應用商店生態: OpenAI推出Apps SDK,允許開發者直接在ChatGPT內建立付費應用。這類似App Store模式,開發者可販售專業功能、客製化GPTs、企業解決方案。

營收分潤模式: OpenAI從開發者營收中抽取一定比例(預估20-30%),創造新收入來源。這也激勵開發者投入ChatGPT生態,擴充平台功能。

企業應用加速: 企業開發者可打造專屬ChatGPT應用,整合內部資料與工作流程,提升員工生產力。這推動ChatGPT從消費工具轉向企業級平台。

產業連鎖反應

AI晶片市場重構

NVIDIA壟斷地位動搖: OpenAI、Google(TPU)、Meta(MTIA)、Amazon(Trainium/Inferentia)、Microsoft(Maia)等巨頭紛紛自研晶片,NVIDIA在AI加速器市場的壟斷地位受到挑戰。

Broadcom受益: 作為客製化晶片設計夥伴,Broadcom從多家科技巨頭獲得訂單。Google TPU、Meta晶片都有Broadcom參與,OpenAI加入進一步鞏固其地位。

台積電訂單多元化: AI晶片需求從NVIDIA一家擴散至多家客戶,台積電營收來源更多元,降低對單一客戶依賴。

創業公司壓力

成本競爭加劇: 大型科技公司透過自研晶片降低AI服務成本,能提供更低價格或更高效能。創業公司依賴雲端API或租用GPU,成本劣勢明顯。

技術鴻溝擴大: 自研晶片需要數億美元投資與頂尖人才,只有財力雄厚的巨頭負擔得起。創業公司難以跟進,技術差距可能擴大。

垂直整合趨勢: 從AI模型、晶片硬體、雲端基礎設施到應用服務,科技巨頭實現垂直整合。創業公司需找到差異化定位,避免正面競爭。

與其他科技巨頭比較

Google TPU

起步最早: Google從2015年開始開發TPU,目前已推出第五代(TPU v5)。累積多年經驗,TPU在訓練與推論效能上表現優異。

專用架構: TPU針對TensorFlow框架優化,與Google AI研發緊密結合。但相對封閉,主要供Google內部使用,外部租用選項有限。

Meta MTIA

推論專用: Meta的MTIA(Meta Training and Inference Accelerator)主要針對推論優化,支援Facebook、Instagram的AI功能,如內容推薦、廣告定向。

成本驅動: Meta每天處理數十億用戶請求,推論成本龐大。MTIA幫助降低50%以上推論成本,提升利潤率。

Amazon Trainium/Inferentia

雲端租用模式: Amazon自研晶片主要透過AWS雲端服務提供給客戶,而非僅供內部使用。這種模式擴大市場,但也面臨與NVIDIA競爭。

價格優勢: AWS宣稱Trainium訓練成本較NVIDIA GPU低40%,Inferentia推論成本低70%。吸引企業客戶遷移工作負載。

OpenAI的差異化

模型專用優化: OpenAI晶片專注於GPT系列模型,針對Transformer架構極致優化,可能在特定工作負載上超越通用方案。

推論成本核心: ChatGPT的商業模式依賴低成本推論。晶片若能將推論成本降低50-70%,將大幅改善財務狀況,支撐免費層級與降價策略。

AGI目標驅動: OpenAI追求AGI(通用人工智慧),需要前所未有的運算規模。自研晶片是實現這個目標的必要基礎設施。

對台灣半導體產業影響

台積電獲利機會

訂單增加: OpenAI自研晶片採用台積電先進製程,每年可能帶來數億至數十億美元營收。與Google、Apple、NVIDIA訂單疊加,鞏固台積電領先地位。

先進封裝需求: AI晶片常採用CoWoS(Chip-on-Wafer-on-Substrate)等先進封裝技術,結合HBM記憶體與邏輯晶片。台積電需擴充先進封裝產能。

供應鏈帶動

設計服務: 台灣IC設計服務公司(如創意電子、智原科技)可能參與OpenAI晶片設計驗證。

測試封裝: 日月光、矽品等封測廠可能獲得訂單。

基板材料: 欣興、南電等PCB廠供應高階載板。

記憶體: 南亞科、華邦電提供HBM或相關記憶體產品。

人才流動

海外攬才: OpenAI、Broadcom可能向台灣半導體人才招手,特別是台積電、聯發科等公司的資深工程師。薪資與股票激勵可能極具吸引力。

技術回流: 部分旅美台灣工程師參與OpenAI專案後,可能將經驗帶回台灣,推動本地AI晶片產業發展。

長期戰略意義

技術自主性

避免卡脖子: 掌握核心晶片設計能力,OpenAI避免被NVIDIA供應鏈制約。即使未來NVIDIA限制出貨或大幅漲價,OpenAI也有備案。

技術領先優勢: 針對自家模型優化的晶片,可能提供比通用GPU更高的效能。這種技術優勢轉化為模型迭代速度、服務品質、成本控制等競爭力。

AGI資源準備

運算規模需求: 業界估計,實現AGI可能需要現今最大AI模型100-1000倍的運算資源。自研晶片讓OpenAI能規劃這種超大規模部署。

能源效率考量: 訓練與運行AGI級別模型,可能消耗數座核電廠級別的電力。高能效晶片不僅降低成本,也是環境永續的必要條件。

商業模式轉型

降低API價格: 晶片成本下降後,OpenAI可降低API定價,吸引更多開發者與企業客戶,擴大市場佔有率。

新產品可能性: 低成本推論讓OpenAI能推出更多免費或低價產品,如免費版ChatGPT Pro功能、實時語音翻譯、個人AI助理等。

硬體產品探索: 未來OpenAI可能推出硬體產品,如搭載自研晶片的AI伺服器、邊緣運算裝置,進軍硬體市場。

風險與不確定性

技術執行風險

首次晶片設計: OpenAI缺乏晶片設計經驗,即使有Broadcom協助,首款產品能否達到預期效能仍存疑。歷史上不乏科技巨頭晶片專案失敗案例。

時程延誤: 晶片開發常遭遇延誤。設計問題、驗證bug、製程良率低等都可能推遲量產時程,影響OpenAI的戰略規劃。

市場環境變化

NVIDIA反擊: 面對客戶自研晶片威脅,NVIDIA可能降價、提升效能、強化軟體生態反制。CUDA生態的強大慣性不容小覷。

AI需求放緩: 若AI市場增長不如預期,OpenAI的大規模晶片投資可能成為財務負擔。需求萎縮時,自研晶片的固定成本劣勢顯現。

競爭態勢

Google、Meta領先: Google TPU已發展十年,Meta MTIA也已量產。OpenAI後進市場,需要時間追趕技術成熟度。

新創公司挑戰: Cerebras、Graphcore、SambaNova等AI晶片新創提供創新架構。OpenAI晶片能否在效能、成本上超越這些專業玩家?

總結

OpenAI與Broadcom的合作,是AI產業垂直整合趨勢的最新案例。透過自研晶片,OpenAI尋求技術自主、成本優化、效能提升的多重目標,為實現AGI願景奠定硬體基礎。這項合作將重塑AI晶片市場格局,挑戰NVIDIA壟斷地位,同時為Broadcom、台積電、台灣供應鏈帶來新商機。然而,晶片開發充滿風險與不確定性,OpenAI能否成功執行這項雄心勃勃的計畫,還需數年時間驗證。無論結果如何,科技巨頭自研晶片的趨勢已不可逆轉,AI硬體競賽進入白熱化階段。

作者:Drifter

·

更新:2025年10月23日 上午01:00

· 回報錯誤
下拉重新整理