xukechun / Vision-Language-Grasping

[ICRA 2023] A Joint Modeling of Vision-Language-Action for Target-oriented Grasping in Clutter
73 stars 8 forks source link

训练细节咨询 #12

Open wxz1996 opened 4 months ago

wxz1996 commented 4 months ago

感谢您的开源,想问下关于训练的一些细节:

  1. 论文中提到的两阶段训练,跑tran.py的时候,只需要修改--num_obj和--num_episode就行吗,论文里提到的是第一阶段是8/500,第二阶段是15/1500
  2. Real-world Experiments请问这部分会开源吗
xukechun commented 1 month ago

非常抱歉疏忽了一些issue通知

  1. 是的,代码中已经设置好了train schedule
  2. real-world experiments的部分代码是基于我们实验室的平台资源,这部分可能难以开源,我可以提供一些实现方法,我们在实物中使用的检测方法为Openset-RCNN, 整体框架基于ros进行通信