Open chengyangkj opened 9 months ago
可不可以增加通行区域的概念,有时候地图不能完全反映安全区域,可否在机器人可能行驶的路径上手动设定通行区域,限制机器人避障的路径
可不可以增加通行区域的概念,有时候地图不能完全反映安全区域,可否在机器人可能行驶的路径上手动设定通行区域,限制机器人避障的路径
这个想法也是本人规划在24年要实现的,这个需求还比较复杂,需要做长期规划 目前软件为向外发布导航目标topic,ros movebase做导航控制,因此仅仅在界面上划区域也没用,需要有规控与导航模块做响应,控制可达区域。按理说gui软件只需要发送控制指令,但是本项目计划做一个通用,功能丰富的gui软件,因此计划采用插件机制,移植ros的导航以及添加规控模块做控制。此需求拆分如下:
1,软件设置不同区域及发布区域topic 2,插件机制 3,移植ros navigation导航到软件中 4,增加规控模块
蒋老师您好!我在想是否有可能实现这样的功能:让相机回传的图像也具有交互功能,操作员通过在相机回传的图像中框选区域,将框选的区域认为成障碍,并将其反映在地图中。 考虑的是这样一个场景:假如遇到的是透明障碍物,像是玻璃,或者是凹陷的区块,导致激光雷达没有办法对其进行准确建图。这种时候操作员在可以二维的彩色图像中人为的框选不可通行区域,认为其为障碍,并将其反映在地图中。因为人如果直接在二维地图上进行标注,缺乏深度信息,标注的准确性难以保证。而在彩色图像上标注的话,结合深度图像,标注的准确性可以保证。 这可能就是涉及到如何捕获用户在图像中框选区域的坐标,以及如何将图像的二维信息和地图对应起来了。 这只是我个人的粗浅的看法,只是想请老师看看这种想法是可行的吗?希望能得到老师你的意见,谢谢!
蒋老师您好!我在想是否有可能实现这样的功能:让相机回传的图像也具有交互功能,操作员通过在相机回传的图像中框选区域,将框选的区域认为成障碍,并将其反映在地图中。 考虑的是这样一个场景:假如遇到的是透明障碍物,像是玻璃,或者是凹陷的区块,导致激光雷达没有办法对其进行准确建图。这种时候操作员在可以二维的彩色图像中人为的框选不可通行区域,认为其为障碍,并将其反映在地图中。因为人如果直接在二维地图上进行标注,缺乏深度信息,标注的准确性难以保证。而在彩色图像上标注的话,结合深度图像,标注的准确性可以保证。 这可能就是涉及到如何捕获用户在图像中框选区域的坐标,以及如何将图像的二维信息和地图对应起来了。 这只是我个人的粗浅的看法,只是想请老师看看这种想法是可行的吗?希望能得到老师你的意见,谢谢!
个人感觉这样做意义不大,“像是玻璃,或者是凹陷的区块”,首先使用彩色图像进行标注时,如何获取到你标注到的障碍物的深度信息?(没有深度信息就获取不到你标注的障碍物在真实世界中的位置,从而转换不到地图上)这个只依靠彩图肯定是获取不到。想要获取深度信息,可以借助深度相机,使用深度图结合彩图进行标注,那么首先,玻璃这种东西,激光扫描不到,深度相机一般也都扫描不到,凹陷的区块,完全可以将深度相机的3维点云转换为2维激光点,再用作建图,为什么还要手动去标注,完全可以做到自动。常规做法应该是,如果有些特殊物体,如玻璃,建图时使用地图编辑功能结合激光点手动绘制障碍物区域。在跑导航时,使用深度相机做避障
是否考虑pyqt实现版本,因为py版本可能受众更广?(从共同开发的角度看)
老师,有时候需要进行多台AGV进行运输,能不能添加一个增加AGV的功能。 然后多台AGV运输的时候,显示每一台AGV的状态信息,空闲还是运行中之类的。
老师,可以更新一下windows 上的编译方案不?
老师,请问这个上位机支持的小车的链接链接能发下么,我想买个测试看
老师,请问这个上位机支持的小车的链接链接能发下么,我想买个测试看
turtlebot3仿真
老师,可以更新一下windows 上的编译方案不?
后续有时间了再兼容吧,目前主要还是linux,windows未测试过,跨平台的话可以使用我这个方案:https://github.com/chengyangkj/ROS_Flutter_Gui_App
可以给多点运动的,自定义消息让导航暂停,或者继续导航
大家如果有什么有意思的界面/功能需求,可以提在此处。也欢迎大家一起发起Merge Request 一起参与项目建设