直擊美國超級運算大會 最強AI武器秀

輝達、NASA、電子五哥、智邦 端出伺服器解方


超級電腦業界盛會SC24,十一月十七日在美國亞特蘭大市登場,《今周刊》帶讀者現場直擊,輝達、廣達、鴻海集團、仁寶、和碩、智邦展出的各種AI伺服器相關新品與致勝策略。

撰文‧吳筱雯

專門針對高效能運算舉辦的Super Computing(超級運算大會,以下稱SC24),在全球超級電腦業界的重要性數一數二,今年的展會首度在美國亞特蘭大登場,以輝達為首的AI硬體供應鏈、國際產官學界代表齊聚,一探高效能運算的技術發展與研發方向,尤其台廠更是展現「武力」,端出最強武器,力求脫穎而出。

為期一周的展會中,除了無數場工作坊、主題演講,還包括三天的展覽;參展單位除了伺服器相關企業,還有許多美國與日本的大學,以及德國政府支持的高效能運算中心HLRS、美國太空總署(NASA)等政府研究機構,高達三六○家以上。


▲量子運算是SC24一大重點,圖為富士通的64-qbit超導體量子電腦一比二模型。攝影·吳筱雯

Super Computing(超級運算大會)
首度舉辦:1988年
主辦單位:SC Steering Committee
地點: 每年由美國城市競標舉辦權,2024年11/17至11/22在喬治亞州亞特蘭大市登場
參加人數:超過1.3萬人
參展單位:360多家

輝達主推MGX 台鏈助攻

在AI浪潮帶動下,今年參與SC24的人數超過一.三萬人,AI伺服器固然是主角, 但以CPU為主的高效能運算一樣沒缺席,主辦單位循往例,將最厲害的處理器、主機板、伺服器、交換機等,組成一個SC24專屬、「期間限定」的超超級電腦,放在展覽會場中,不斷有研究人員或是教授帶著學生,隔著玻璃圍觀這台期間限定的超超級電腦,指指點點,藉此互相討論,帶來更多的技術啟發。

從早期的超級電腦,到現在AI伺服器帶動的高效能運算與加速運算,已經為人類的科技進展、日常生活帶來許多改變。以SC24為例,NASA便在會場介紹透過大數據與超級電腦模擬,來展現全球二氧化碳排放與繞行地球的路徑。NASA也透過感測器收集的數據,模擬出飛行器在太空執行任務時結冰的狀況,藉以制訂應變計畫來避免危險。輝達則演示用高效能運算與AI加速運算,為量子電腦的演算法除錯、校正。

SC在超高速運算業界的地位,輝達當然不會缺席,事實上,這是輝達少數會設立攤位參展的展會,全球AI界超級巨星輝達執行長黃仁勳,不僅以預錄影片形式在開展前一日發表演說,宣布明年將推出新版的AI伺服器用處理器Vera,為了GB200「非常瘋狂」的需求,他更宣布鴻海已在美國、墨西哥與台灣擴充AI伺服器用GPU Blackwell的測試與組裝產能。

輝達不只搶食雲端大廠的AI運算商機,政府單位、研究機構、大學研究室這類小規模AI運算需求,也不放過。

輝達在展場主推新一代AI伺服器模組化解決方案MGX,除了支援現有的GPUH200、也提供最新的GPUB200,透過提高GPU運算效率的NVLink,將兩顆至八顆不等的GPU相連、製成節點(Node)後,裝進現有機櫃,便可立刻升級成最新的AI伺服器。

從美超微、慧與、戴爾,到神達旗下的神雲、和碩、仁寶、鴻海集團旗下的鴻佰等都推出MGX解決方案,全都趁機在SC24現場展出實品,並且都已通過輝達認證。

台灣廠商不僅是協助輝達的MGX「落地」的要角,事實上,輝達的一舉一動如果沒有台灣業者的幫助,黃仁勳的願景很難實現。以GB200旗艦機櫃NVL72為例, 廣達、鴻佰都是該機櫃最為倚重的合作夥伴,對輝達的重要性不言可喻, 其中, 廣達的NVL72機櫃,還是今年SC24所有的參展企業中,唯一入列輝達媒體專場新品導覽的機櫃。

鴻佰則亮相最新版本的GB200主機板與機櫃,鴻海集團的垂直整合功力在SC24展露無遺。除了分歧管、快接頭、機殼,鴻海自行設計的CDU(冷卻液分配裝置)已符合輝達的規範,也就是,一台可以對應八台伺服器機櫃、外加兩台備援的機櫃,最重要的是「冷卻密度在業界是數一數二的高」,業界人士透露。


▲參加SC24的人數超過1.3萬人,吸引許多企業、教授、學生、科學家、研究人員齊聚一堂。攝影·吳筱雯

和碩、仁寶首展 火力全開

AI伺服器業界新兵和碩、仁寶首度在SC參展,就火力全開, 其中, 今年COMPUTEX期間,電子五哥中唯一沒有受邀成為黃仁勳座上賓的仁寶,不僅在攤位中展出多款新品,仁寶伺服器部門副總經理張耀文特別強調,「仁寶不是伺服器領域的後進者,更不是從眾、一窩蜂。」某家一線雲端服務供應商(CSP)早就是仁寶消費性電子領域的代工客戶,但以往仁寶沒有掌握對外展現伺服器製造能力的機會,也讓其他客戶無從了解仁寶在伺服器領域的能力,成為仁寶的劣勢。

張耀文說,現在仁寶已經透過積極參展、勤跑客戶來加強溝通,同時加大在伺服器的研發與生產力度,力拚新產品能在同業中最快上市,讓仁寶的產品成為客戶首選,目標是「三年內成為伺服器代工領域的前段班」。

而同樣試圖在AI伺服器闖出一片天的和碩,則在SC24端出壓箱寶。和碩執行長鄭光志日前才揭露,企業用AI伺服器明年第一季將對全球半導體龍頭出貨,和碩技術長徐衍珍在SC24展場中,為記者拉出AI伺服器機櫃中匣子,指著相鄰的兩個節點(Node)說,「全球知名半導體廠會用的就是這個。」

徐衍珍解釋,一個節點裝上超微處理器可做高速運算,另一個節點則是輝達H200做AI加速運算,全球知名半導體廠可按照需求,自由使用高效能運算與AI,「這是很不一樣的設計。」至於支援液冷的GB200機櫃,他透露,第一個樣品已在台灣純手工製造完成,雖然排線複雜、不容易組裝,水管也要重新量長度、修剪,但「水灌進去沒有漏、系統運作都正常,和碩AI伺服器的進度不會比較慢。」

除了AI伺服器之外,「和碩在運算端也有點東西,」徐衍珍表示,超微已選擇和碩作為下一代伺服器處理器主機板的合作夥伴,「和碩的工程能力獲得認同。」這項指標性伺服器新品將在二○二七年出貨。


▲超級電腦一直是SC展覽的重點,SC24期間限定的超超級電腦不斷吸引研究人員、學生與教授參觀。攝影·吳筱雯

智邦推DDC 與輝達競合

雖然大部分投入AI領域的企業都以輝達馬首是瞻,但也有台灣業者在SC24展現與輝達既競爭又合作的企圖心。全球白牌網路交換機龍頭智邦,今年首度參與SC24,就端出專為AI運算開發的DDC(分散解構式機箱)。

智邦全球行銷長哈里斯(Mark Harris)解釋,GPU主導的AI加速運算,有點像是一組人一起分工解超難的數學題,有些人很快就把自己的部分解完、有些人比較慢,最慢的人完工後,大家才能一起解下一題,早解完的人只能乾等;換言之,提升AI加速運算效率的關鍵,在於讓所有人同時解完,而不是讓快的人更快解完。

輝達爲此開發出NVLink,讓最多高達七十二個GPU合成一個虛擬的超巨大GPU,將各自分到的工作同時做完。哈里斯進一步表示,不只GPU需要如此來提高效率,負責協助AI伺服器對外傳送資料、溝通的網路交換機也是一樣,「快的人要等慢的,會降低網路傳輸效率。」

輝達已推出自有標準的InfiniBand網路交換機,並綁定在GH200、GB200等輝達制訂規格的AI伺服器機櫃中,InfiniBand雖然效能佳,價格卻過於高昂,加上許多CSP業者不願AI伺服器系統全部被輝達「綁死」而選擇在網路傳輸端,繼續採用開放標準的乙太網路。

因此,如何讓資料中心內無數台的八百G、四百G乙太網路交換機運作時,猶如由NVLink連接起來的許多GPU一樣「WORK AS One」(一體),成為當前資料中心業界最熱門的話題。

這讓智邦看到機會,趁機提供客戶在乙太網路端不同的選擇。哈里斯透露,智邦的DDC就是這樣的產品,自從十月在開放運算計畫峰會(OCP)初次亮相、到十一月在SC24參展,客戶反應都極為正面,以智邦在資料中心等級的開放標準四百G與八百G網路交換機市占率高達六成,「DDC可望對智邦明年營收有很顯著的貢獻。」 閱讀完整內容
今周刊2024/12月 第1458期

本文摘錄自‎

直擊美國超級運算大會 最強AI武器秀

今周刊

2024/12月 第1458期