機器人前瞻(公眾號:robot_pro)
作者?|??許麗思
編輯?|??漠影
機器人前瞻9月8日報道,今天,自變量機器人宣布完成近10億元A+輪融資。本輪由阿里云、國科投資領投,國開金融、紅杉中國、渶策資本跟投。老股東美團戰投超額跟投,聯想之星、君聯資本持續追投。
這是阿里云首次出手具身智能公司。本輪資金將用于自變量全自研通用具身智能基礎模型的持續訓練和硬件產品的研發迭代。
自變量機器人的上一輪融資發生在今年5月,自變量機器人完成數億元A輪融資,由美團戰投領投、美團龍珠跟投。自2023年12月成立以來,其已完成8輪融資,投資方包括括德聯資本、基石資本、啟賦資本、南山戰新投、光速光合、君聯資本、華映資本、云啟資本、廣發信德投資等多家機構。
在硬件上,今年8月初,自變量機器人發布了適配多模態大模型控制的全自研輪式雙臂仿人形機器人——量子2號(Quanta X2)。量子2號單手擁有 20 個自由度,能感知細微的壓力變化。同時,基于臂手一體化外骨骼技術,自變量首創“仿人機械臂+高自由度靈巧手”一體化全身遙操方案,使得量子2號不僅能采集高質量數據反哺模型訓練,也將與自研模型深度融合,真正進入到現實場景中落地應用。

自變量自主研發WALL-A系列VLA操作大模型,能夠構建統一的認知與行動框架。在統一表示空間中,模型同時處理感知、推理和行動,直接進行跨模態的因果推理和行動決策,讓機器人最終能夠像人類一樣思考和工作。當前,「WALL-A」模型已在部分完全未訓練過的新任務類型中展現出零樣本泛化能力。
同時,該公司實現了端到端具身思維鏈推理框架,基于多模態輸入進行深度推理并生成多模態輸出,形成模型自主決策、執行、探索和反思的完整閉環。模型能夠將語言理解、視覺感知與動作執行緊密結合,形成更接近人類思維的推理過程,成功突破多步驟長序列任務瓶頸,任務完成度大幅提升,極大擴展了機器人處理復雜現實場景的能力邊界。

今天,自變量還開源了其面向開發者的具身基礎模型Wall-OSS,并公開相關訓練代碼,便于全球開發者們在自有本體上快速微調和實際應用。
Wall-OSS是一個基于大規模真實數據訓練的開源具身基礎模型。在模型架構上,創新性設計“共享注意力 + 專家分流 (FFN)”架構,VLM預訓練知識無損遷移到操作模型,語言、視覺、動作等信息都嵌入在同一個表示空間中處理;在訓練方式上,首創“先離散、后連續、再聯合”的三階段訓練范式,首創“先離散、后連續、再聯合”的多階段訓練范式,保留了VLM 的語言與視覺理解能力,又具備細粒度動作執行力;此外,統一跨層級思維鏈實現了跨層級抽象層面的前向任意映射,模型能夠在單一可微分框架內無縫切換高層決策與底層執行。
自變量機器人創始人兼CEO王潛畢業于清華大學,是全球最早在神經網絡中引入注意力機制的學者之一。博士期間,王潛曾在美國頂級機器人實驗室參與了多項Robotics Learning的研究,研究方向覆蓋了機器人的多個前沿領域。
聯合創始人兼CTO王昊是北大計算物理博士,在粵港澳大灣區數字經濟研究院(IDEA研究院)期間擔任封神榜大模型團隊算法負責人,發布了國內首個多模態開源大模型“太乙”,首批百億級大語言模型“燃燈”以及千億級大語言模型“姜子牙”。
自變量機器人稱,目其機器人已與頭部服務業、工業客戶達成合作,在多場景中投入使用,未來也將與客戶圍繞模型和硬件共建開放生態,推動具身智能的進一步發展。