Open Physics-Lee opened 1 year ago
https://physics-lee.github.io/2023/10/04/Will_You_Buy_a_Robot_Child_in_2038/
今天,我收到了一则微信推送——具身智能研究迎来ImageNet时刻。 2 个多月前,谷歌 DeepMind 推出了第一个控制机器人的视觉 - 语言 - 动作(VLA)模型 ——RT-2。这个模型让机器人不仅能解读人类的复杂指令,还能看懂眼前的物体(即使这个物体之前从未见过),并按照指令采取动作。比如,你让机器人拿起桌上「已灭绝的动物」。它会抓起眼前的恐龙玩偶。 … 时间仅仅过去了两个多月,Dee
https://physics-lee.github.io/2023/10/04/Will_You_Buy_a_Robot_Child_in_2038/
今天,我收到了一则微信推送——具身智能研究迎来ImageNet时刻。 2 个多月前,谷歌 DeepMind 推出了第一个控制机器人的视觉 - 语言 - 动作(VLA)模型 ——RT-2。这个模型让机器人不仅能解读人类的复杂指令,还能看懂眼前的物体(即使这个物体之前从未见过),并按照指令采取动作。比如,你让机器人拿起桌上「已灭绝的动物」。它会抓起眼前的恐龙玩偶。 … 时间仅仅过去了两个多月,Dee