AI霸主輝達吞9成市占, 還有哪些「第一」壓箱寶?
採訪‧撰文/邱品蓉 攝影/蔡仁譯 美術/李晴
「現在搭載輝達(NVIDIA)GPU(繪圖處理器)的伺服器真的非常缺,我有客戶4 月下單,9 月才會拿到貨,原本大約2 周就拿得到。」一名美超微(Supermicro)員工無奈表示。記者再詢問其他廠商,最久等候期竟長達40 周。
AI 伺服器需求暴漲,散熱模組供應商雙鴻董事長林育申更用「中獎了」來形容近乎瘋狂的需求。ChatGPT 的橫空出世掀起企業的AI 焦慮,外資法人指出,輝達早在今年的3、4 月,就累積一批GPU 訂單。
DIGITIMES Research 近期一份報告預估,2023 年高階AI 伺服器出貨量將成長1.5 倍,其中輝達光是HGX 伺服器占比就超過9 成。輝達執行長黃仁勳更在今年第2 季的法說會上,給出第3 季營收將飆升至160 億美元的預估,遠高於華爾街預期的125 億美元。
強到「全額付清」才接單!孵30 年GPU 大豐收
讓市場沸騰的商機,來自AI 大型語言模型(LLM)訓練上的需求。GPU 和CPU(中央處理器)最大的不同在於處理資料的方式。GPU 內的資料可同時進行運算,CPU 則須按照順序處理,兩者差別在於功能的不同,所產生設計結果。
由於餵愈多資料至語言模型,最終結果愈精準,因此能同時處理龐大資料,又可以加速運算的GPU 則成為AI 爭霸戰下的重要物資。輝達超大規模和高效能運算副總裁巴克(Ian Buck)表示,加速運算和GPU 一直是輝達的核心,AI 運算則是爆發的應用場景。
不過即使需求火熱,輝達仍相當謹慎地挑選客戶。IDC 研究副總裁羅吾(Shane Rau)指出,不是有錢就能買輝達產品,「輝達希望他們的產品能成為業界標準,無論是在雲端還是企業端。」因此偏好能長期使用輝達科技且忠誠的客人。
甚至於有些時候,輝達會先要求客戶付清款項才開始準備伺服器製造。一名雲達科技的主管告訴《數位時代》,「這很瘋狂,如果你只下訂單還排不上隊。」羅吾分析,這通常出現在和輝達不熟的客戶身上,「向台積電下單是巨大的承諾,輝達透過先付款的方式來驗證伺服器需求為真。」
需求是真的。巴克表示,已經看到現在資料中心的投資都在想辦法配合加速運算需求,例如散熱設備、電力配置和空間規畫等。耕耘GPU 第30 載終於迎來巔峰,輝達接下來將如何鞏固龍頭地位?巴克給出答案:豐收期還沒結束,會持續優化資料中心產品。
首先,輝達將持續提升功耗和效能。「人們總看見我們的伺服器很耗電,但如果觀察性能和能耗之間的比例,每一代模型所需要的訓練功耗都大幅降低。」伊恩說。以H100 為例,雖然功耗高達700 瓦,但同樣是訓練ChatGPT3 的1,750 個參數,速度為A100 的約6 倍。
伊恩指出,目前資料中心CPU 的GraceCPU 已採用具備低功耗特色的Arm 架構,超級晶片Grace Hopper 更直接將CPU 和GPU 利用台積電先進封裝CoWoS 包在一塊,讓兩者共用供電來源,「如此一來,就能夠根據需求分配CPU 和GPU 之間的電源,提高能源效率。」
低功耗×超強算力!NVLink 稱王「看嘸車尾燈」
其次,則是優化互聯(interconnect)技術。可以想像GPU 是辦公室內員工,即使個人處理工作的速度再快,員工間的交接卻耗費好幾小時,整體而言進度仍緩慢,資料的移動就好比交接時的速度。巴克認為,當今AI 已非單一顆GPU 可處理,須依靠多顆GPU 連結,當中資料的移動將是關鍵。
過去,不同的GPU 傳輸資料,得靠主機板上的PCIe(高速周邊元件交互連接裝置)先將資料傳回CPU,接著再派發訊息到另一個GPU 上。由於PCIe 頻寬窄,能運送的資料量有所限制,輝達開發出的「NVLink」頻寬不僅增加5 至12 倍,最重要的是允許不同GPU 間的直接連接,讓資料傳輸更直接並加快運算。
曾任職於創意電子和聯電的IP 供應商Expedera 銷售副總裁顧威指出:「AI 需要大量資料轉換,輝達是現在唯一能把這件事做好的公司。」
輝達最新超級晶片GH200, 即採用NVLink 技術連接CPU 和GPU。DGX 系統副總裁暨總經理波以耳(Charlie Boyle)指出,未來輝達也會把NVLink 技術應用於伺服器間的連結上。
伺服器喊到35 萬太貴,推平替版DGX Cloud 攬客
不過輝達伺服器要價高昂,漲價後1 台約新台幣30 至35 萬元,除雲端巨頭外,企業不見得願意花錢購買。為了更全面開發AI 客戶,輝達把觸角伸到雲端,推出「DGX Cloud」,於算力供應上布下天羅地網。
DGX 是輝達伺服器品牌名稱, DGX Cloud則是由輝達攜手Google Cloud 與甲骨文(Oracle)等雲端供應商,在這些雲端大廠上提供AI 運算服務平台。這意味企業無需購買伺服器等硬體設備,而是能藉由訂閱的方式,在雲端上享有DGX 的算力。
然而,市場諸多評論認為,輝達此舉無異於賺兩手錢,扼殺與雲端客戶關係。對此波以耳反駁:「我們和雲端廠結盟,是創造雙贏。」波以耳解釋,這項服務目的在於讓想擁有AI 模型、但不想購買或無力負擔伺服器的企業使用AI,「DGX Cloud 每新增一個客戶,雲端廠也也同樣獲得。」
另外,由於客戶數據可能存放在不同雲端中,輝達因此與雲端廠結盟,讓客戶能更簡單地將數據連結到DGX Cloud,「這也是為何我們會與資料中心合作。」這意味著輝達除了吃下已知的AI 市場份額外,也想運用雲端延伸觸角,找出潛在商機,提前觸及未來客群。波以耳指出,輝達看好這塊需求攀升,但強調輝達不會蓋自己的資料中心,「我們會專注擅長的事,並和擅長雲端的夥伴合作。」
目前看來輝達的統治地位穩固。一名美系半導體高層表示,未來想加入AI 的企業都很難跳過輝達,再來的對手已經不是半導體企業,而是雲端大廠。這名高層評論,如今雲端大廠都有設計晶片的能力,高估值的AI 晶片新創如Cerebras 和Groq 等很難賣產品,客戶大多是美國國防部。
輝達5 年內「無敵手」!只怕Google 突襲超車
不過另一方面,該高層也指出:「輝達會怕Google,是因為他們能做出自己的ASIC(AI 處理器),Google 執行長皮蔡(Sundar Pichai)說至少會跟輝達再買十年晶片,就是說給輝達聽的。」
即使如此,法人認為在未來的3 到5 年,輝達仍會是AI 市場的王者,「像ChatGPT4已有1,750 億個參數,最終推論結果卻被認為還不足以商轉,普遍認為要到ChatGPT5才可以,可見模型訓練的基礎建設還需要更多算力,缺口還會存在一段時間…
閱讀完整內容