• <acronym id="mz9d1"><output id="mz9d1"></output></acronym>

    <sub id="mz9d1"><ol id="mz9d1"><nobr id="mz9d1"></nobr></ol></sub>
        1. <sup id="mz9d1"></sup>
          每日經濟新聞
          推薦

          每經網首頁 > 推薦 > 正文

          如何定義具身智能“ChatGPT時刻”?宇樹科技王興興:機器人能在陌生場景中完成80%的任務

          2025-11-05 21:13:35

          每經記者|朱成祥    每經編輯|黃博文    

          11月5日,在第八屆虹橋國際經濟論壇“人形機器人創新發展合作”分論壇上,宇樹科技創始人兼首席執行官王興興發表了主題演講。

          王興興認為,今年機器人產業非常火熱。不過,他也指出,機器人大模型進展比想象中緩慢,還沒有達到臨界值。王興興表示,具身智能大模型、端到端技術的進步,總體上非常快,但是比他想象的稍微慢一點點。

          對于什么才是具身智能發展的臨界點,即具身智能“ChatGPT時刻”,王興興認為,在陌生的場景中,給機器人發送語音或文字,若機器人能夠完成80%左右的任務。這便是突破性技術,基本可以達到“ChatGPT時刻”。

          那么,為了早日實現“ChatGPT時刻”,更應該研究模型,還是收集更多的數據?王興興表示,目前在模型結構上大家做了很多嘗試,發現泛化能力不夠,還需要創新。大家也需要收集更大規模的數據、質量更好的數據。但目前,對數據的采集、對數據質量的評判還非常困難。

          王興興提出,模型和數據需要相輔相成,而不是一股腦采集大量數據,或者一股腦把模型做大。

          目前,具身智能主流模型有VLA(視頻語言動作)+RL(強化學習)模型和基于視頻生成的世界模型。王興興表示,前者可以用仿真環境做訓練,或者用真實場景做訓練,但泛化能力相對來說不是特別夠。因此,他更喜歡基于視頻生成的世界模型。

          然而,王興興也認為,該模型面臨比較大的挑戰。因為基于視頻生成的世界模型對算力的需求非常大,需要的算力卡比較多,所以中小型人形機器人公司往往“跑不動”,反而是一些大型AI公司、互聯網公司視頻模型的資源更加豐富,做出該模型的概率更大。


          如需轉載請與《每日經濟新聞》報社聯系。
          未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

          讀者熱線:4008890008

          特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。

          歡迎關注每日經濟新聞APP

          每經經濟新聞官方APP

          0

          0

          国产日本精品在线观看_欧美日韩综合精品一区二区三区_97国产精品一区二区三区四区_国产中文字幕六九九九
        2. <acronym id="mz9d1"><output id="mz9d1"></output></acronym>

          <sub id="mz9d1"><ol id="mz9d1"><nobr id="mz9d1"></nobr></ol></sub>
              1. <sup id="mz9d1"></sup>
                日本真人作爱视频免费大全 | 亚洲日韩欧美九九精品综合网 | 亚洲开心婷婷中文字幕 | 午夜三级中文在线 | 亚洲国产日韩欧美第三区 | 日本欧美中文字幕 |