芯東西(公眾號:aichip001)
作者 |? 陳駿達
編輯 |? 漠影
在新一輪AI技術浪潮中,基礎設施正成為外界關注的焦點。隨著基礎模型規模從千億級邁向萬億級,訓練與推理的計算和通信需求迅速攀升,傳統的算力堆疊模式已難以支撐。
超大規模AI模型催生出新的基礎設施范式——超節點。這一概念突破了傳統服務器的形態,由數十至數百個加速器組成,通過超高帶寬、超低延遲的Scale-up網絡連接,形成一個統一的資源池。
在國產高端算力供應受限的大背景下,超節點已逐漸成為支撐大模型訓練和推理的關鍵架構,互聯則被視作其中的核心環節。如何在超節點架構中實現高效互聯,成為技術界與產業界共同探討的焦點議題。
昨日,在AI網絡全棧式互聯架構解決方案提供商奇異摩爾與中國信息通訊研究院華東分院共同舉辦的Networking for AI生態沙龍上,多家企業分享了國產AI從技術突破到生態構建的整體進展,而超節點的互聯,成為會上的重點議題之一。

在計算、網絡兩個領域均有一定積累的奇異摩爾,想用芯粒來解決超節點的互聯挑戰。其打造的高帶寬、多語義支持的通用IO芯粒,或許代表著一種面向未來的AI網絡基礎設施思路。
一、互聯成算力破局關鍵,芯粒方案緣何成為新引擎
過去數年,AI模型的可用性持續提升,帶動企業AI推理需求迅速增長。與訓練階段的一次性計算不同,每次推理都需要調用數十億甚至百億級參數,對算力資源形成持續高壓。
在實時交互場景中,模型不僅需要“算得準”,還必須“算得快”,毫秒級的延遲和高并發吞吐直接影響用戶體驗和系統效率。
在支撐上述新一代AI模型和應用的超節點中,互聯幾乎與算力本身同等重要。
高速互聯保證模型參數在不同芯片之間的快速交換,是并行訓練和推理的前提;大規模集群擴展離不開高帶寬、低擁塞的網絡,否則再多的GPU也難以形成合力;通信延遲則直接影響模型響應速度。
互聯的重要性,也反映在AI基礎設施投資趨勢中。過去,互聯技術在算力中心投資額中的占比不足5%,如今已逐漸增加到15%-20%,未來還可能持續上升。
在探索互聯技術未來發展方向的過程中,將IO芯粒從核心計算單元中分離出來,已成為一大技術趨勢,并獲得多家領先廠商采用,有望成為超節點擴展到千卡規模的重要技術路徑之一。
華為昇騰910的Side IO Die設計正是這一趨勢的實踐,它將密集計算與高速接口分工,有效提升系統吞吐量和制造良率。
英偉達下一代Rubin架構則采用多制程節點芯粒設計,不僅分離I/O,還讓計算單元實現模塊化。

作為國內罕見的AI網絡互聯領域全棧供應商,奇異摩爾對這一技術路徑的探索同樣值得關注。
成立于2021年初的奇異摩爾,在芯粒技術方面積累深厚,早期通過中科創星構建產業資源網絡,與半導體產業上下游合作伙伴建立深度協作關系。
奇異摩爾最早從片內互聯切入,其自研的IOD互聯芯粒3D Base Die(與復旦大學合作存算一體芯片)曾入選ISSCC 2025會議,獲得這一被譽為芯片界“奧林匹克”的頂級會議認可。伴隨AI浪潮的興起,奇異摩爾在持續深耕片內互聯的同時,也組建了專注于高性能RDMA網絡技術的專業團隊。

▲奇異摩爾首席網絡技術專家葉棟
這家擁有計算與網絡雙重背景的企業,已全面布局Scale-out、Scale-up和Scale-inside三大方向。其首創的超節點GPU片間互聯芯粒產品解決方案Kiwi G2G IOD,在計算Die與IO Die解耦技術路徑下,尤其值得關注。
二、互聯芯粒G2G IOD技術細節全揭秘,如何賦能AI超節點
何為超節點芯粒?這是一款專為xPU(含GPU)等加速器之間的Scale-Up網絡互聯而設計的超節點互聯芯粒。

在G2G(GPU互聯)領域,廠商們普遍面臨四大難題,奇異摩爾的G2G IOD正是對這些痛點的直接回應。
帶寬瓶頸
對超大規模AI模型而言,訓練、推理和多模態數據交換本質上是數據密集型工作,只有TB級帶寬才能避免算力閑置、模型同步延遲、用戶體驗卡頓,讓超節點真正發揮作用。
Kiwi G2G IOD支持TB級帶寬與高并發數據傳輸,給大模型的訓練和推理提供持續穩定的高效互聯支撐。
拓撲擴展性
超節點由數十甚至上百塊GPU/xPU構成,不同的訓練任務和部署場景對網絡結構有不同要求:有些任務適合全互聯(Full Mesh),有些適合脊葉(Spine-Leaf)結構。G2G IOD便兼容全互聯、脊葉等多種網絡結構,避免在每次擴展或任務切換時重新設計網絡的需求。
多語義需求
GPU互聯領域長期存在兩種語義分野:消息語義與內存語義。
消息語義適合大塊數據傳輸,通常通過RDMA(遠程直接內存訪問)來完成。內存語義則更適合小粒度操作。GPU之間可以像訪問本地內存一樣,直接對另一顆GPU的內存進行操作。
過去的產業格局中,英偉達NVLink以私有協議走內存語義路線,而華為、Intel等廠商更多采用消息語義方案。
然而,單純依賴消息語義,在傳輸大塊數據時效率很高,但在處理小數據時會面臨巨大開銷。單純依賴內存語義,雖能高效處理小規模訪問,卻在面對大數據搬移時效率下降。
因此,一個理想的Scale-up互聯架構,必須同時支持兩種語義。G2G IOD同時支持消息語義和內存語義,這種“雙模”設計,才能真正兼顧性能與靈活性。
協議通用性
當前Scale-up協議從簡單P2P接口演進為復雜協議,通用協議仍在標準化過程中。
G2G IOD本身基于奇異摩爾獨創的HPDE可編程架構,能支持不同的協議包括SUE、OISA、ETH-X,和未來其他主流協議,從而滿足不同廠商不同場景的需求,在生態百花齊放的Scale-up系統中支持多協議類型及其升級,從而降低持續研發難度和開發成本。
G2G IOD的優勢不僅體現在性能,更在于芯粒架構帶來的戰略價值。
芯粒范式賦予系統架構師對性能、功耗、面積和成本(PPAC)四個維度進行解耦和獨立優化的能力,從而顯著提升系統設計的靈活性,并降低研發門檻。

▲GPU互聯芯粒與GPU集成I/O通信IP的區別
一方面,越來越大的超節點域所帶來的網絡流控、IO功能對于xPU企業的研發提出復雜性挑戰。而解耦的互聯芯粒無需在設計階段就確定采用何種Scale-Up協議,同時也大幅降低了研發難度和成本,可節省數億元的研發投入。
另一方面,基于奇異摩爾的HPDE高性能可編程架構,G2G芯粒支持通過用戶友好的編程配置或產品升級來適配更新的算法和協議類型,有利于實現快速迭代與升級,進一步降低持續研發的難度和開發成本。
此外,該范式還支持開放生態,可復用現有的網絡交換機,無需專門研發專用交換機,有助于構建更加開放和具備競爭力的 Scale-Up生態系統。
在工藝體系方面,芯粒設計是應對后摩爾時代挑戰、特別是先進制程節點下成本與物理限制的重要戰略轉型。其關鍵優勢在于支持異構集成,即不同制程節點的芯片可分別優化后組合集成。
其中,成熟制程的應用有助于提升良率、降低非經常性工程(NRE)成本,而計算單元仍可采用最先進制程,從而實現整體異構集成所帶來的成本優化。
G2G IOD并非一款單點產品,而是開放生態的一部分。可以說,這款芯粒既是超級節點互聯的性能解法,也是國產AI算力基礎設施走向開放化和規模化的一次關鍵嘗試。
三、擁抱開放生態,多套方案回應AI時代算力變革
在當前的AI加速計算領域,奇異摩爾推出的超節點互聯解決方案是行業內目前唯一一種基于芯粒架構并構建于開放生態之上的互聯方案。
奇異摩爾積極投身于全球及國內主流開放標準生態的建設,全面參與了UEC、UALINK、OISA、ETH-X等多個關鍵產業聯盟。
其中,與中國移動共同構建OISA(全向智感互聯)生態是其戰略重點之一。自OISA 1.0階段起,奇異摩爾便深度跟進該技術體系的演進。
在2025年中國算力大會上,奇異摩爾作為核心合作伙伴,與中國移動等產業伙伴共同啟動了OISA生態共建戰略合作,并見證了性能大幅增強的OISA 2.0協議的發布。
中國移動研究院技術經理李鍇在活動演講中談道,“作為OISA體系的積極踐行者,奇異摩爾深度投身生態建設,在協議及IO芯粒的標準制定與產品研發中全力推進生態適配,為《OISA全向智感互聯IO芯粒技術白皮書》的編撰貢獻了關鍵力量。”
奇異摩爾作為一家全棧AI網絡互聯企業,還在Scale-out超級網卡SuperNIC和Scale-inside D2D方面有產品布局。

在Scale-out方向,為應對網絡面臨的帶寬、延遲、海量節點流控和成本控制等多重挑戰,業界提出了UEC(Ultra Ethernet Consortium,超級以太網聯盟)技術路線,為下一代RDMA提供方向。
奇異摩爾在研的Kiwi SNIC超級智能網卡內置高性能RDMA引擎,提供高達800G帶寬,并支持亂序處理、多徑傳輸和選擇性重傳,顯著提升大規模網絡的數據傳輸效率和可靠性。
在Scale-Inside方向,奇異摩爾的片內互聯方案,基于UCIe的D2D IP及Central IO Die及3D Base Die系列,可賦能AI芯片/高性能芯片的算力提升,進一步提升AI網絡的單計算卡算力。
結語:國產AI算力閉環,初步成型
在昨日落幕的生態沙龍活動上,我們看到越來越多企業正覆蓋從算力芯片到算法模型再到算力服務的全鏈條環節,展現了國產AI從技術突破到生態構建的整體進展,國產算力閉環正在持續完善。
奇異摩爾這樣的企業專注于互聯解決方案,構建了從芯片內部到超算集群的完整閉環,不僅解決了傳輸性能、協議兼容性和部署成本等核心難題,更以開放標準和靈活架構推動了國產算力生態的持續迭代與升級。
新華三則發布了全新H3C UniPoD系列超節點,支持高性能Scale-up互聯,可實現單機柜多卡GPU的高速互聯與資源協同,滿足大模型訓練和推理需求。該系列同時支持靈活交付模式,助力企業快速構建業務和全棧能力。
此外,財躍星辰、騰訊云、沐曦、中科創星、無問芯穹、后摩智能、中昊芯英等企業也分享了他們在打造國產AI技術體系上的探索。
在會上,中國信通院華東分院總工程師陳俊琰指出,未來,智能算力產業的高質量發展需要強化技術創新協同,突破核心瓶頸;完善算力調度體系,提升配置效率;深化場景融合應用,賦能實體經濟。
中科創星董事總經理盧小保認為,AI算力正由單體智能往群體智能發展,Scaling Law下,互聯的作用越來越凸顯,成了延續摩爾定率、不斷提升算力密度的核心解決路徑。在國內先進工藝受限的情況下,互聯更是具備特殊價值,讓國內算力產業可以以規模和成本換性能,實現算力自立。
業內投資專家曾指出:“未來三年,誰能把國產算力高效‘連’起來,誰就能贏得AI基礎設施的賽點。”互聯,這個曾經被忽視的技術角落,正成為國產AI算力能否真正實現閉環的關鍵一戰。