芯東西(公眾號:aichip001)
作者 | ?ZeR0
編輯 | ?漠影
芯東西10月1日報道,9月30日,美國AI芯片獨角獸Cerebras Systems宣布完成超額認購的11億美元(約合人民幣78億元)G輪融資,投后估值達81億美元(約合人民幣577億元)。
Cerebras計劃利用這筆資金擴展其前沿技術組合,持續在AI芯片設計、封裝、系統設計、AI超級計算機領域進行創新。該公司還將擴大其在美國的制造能力和數據中心容量,以滿足市場對其產品和服務爆炸式增長的需求。
Cerebras成立于2016年,自評為“業界速度最快的AI基礎設施制造商”、“全球最快的推理提供商”。
該公司構建的晶圓級引擎3(WSE-3)是迄今全球最大的AI芯片,采用5nm制程工藝,面積為46225平方毫米,包含4萬億顆晶體管,通過90萬個AI優化核心提供125PFLOPS的AI算力——是英偉達B200晶體管數量的19倍、AI算力的28倍。
憑借44GB的片上SRAM和21PB/s的內存帶寬,WSE-3消除了傳統的內存瓶頸。其晶圓級結構提供每秒27PB/s的內部帶寬,是新一代NVLink帶寬的206倍。
晶圓級引擎可相互連接并擴展到2048個系統,具有256EFLOPS的AI算力。通過利用其權重流編程模型,AI開發者可訓練擁有24萬億個參數的模型,而無需多GPU編排和并行化策略的復雜性。
自2024年底推出推理服務以來,Cerebras發展迅速,運行開源和閉源模型的速度通常比英偉達GPU快20倍以上。
根據第三方獨立基準測試公司Artificial Analysis的測試,在正面比較中,Cerebras在每個領先的開源模型上的表現都比英偉達GPU高出幾個數量級。
“自成立以來,我們已經在數百種模型中測試了每個AI推理提供商。Cerebras始終是最快的。”基準測試公司Artificial Analysis CEO Micah Hill-Smith說。
如今,Cerebras每月在其自有云平臺、客戶本地以及領先的合作伙伴平臺上提供數萬億個token。
2025年,AWS、Meta、IBM、Mistral、Cognition、AlphaSense、Notion等數百家AI企業選擇Cerebras。許多個人開發者也選擇Cerebras進行AI開發。在全球最大AI開源平臺Hugging Face上,Cerebras是排名第一的推理提供商,每月處理超過500萬個請求。

