open-ai-robot / awesome-nvidia-jetson

NVIDIA JetBot/JetRacer/Kaya DIY 资料汇总
92 stars 11 forks source link

【召集】自己成功组装了 Jetbot 的同学请到此报名 #6

Open unbug opened 5 years ago

unbug commented 5 years ago

无论你是依据NVIDIA JetBot DIY 资料汇总提供的零件清单购买链接,还是自己用其他零件成功自己组装了 Jetbot, 都恭喜你,也希望你能在本帖回复组装的简单过程,截图等,帮助其他人少走弯路。

helghastGIT commented 4 years ago

你好我也发现了没图的问题,我现在在补充上传

helghastGIT commented 4 years ago

我是用的感觉是不好的,不够长,又不敢大力拧,下面就是核心板啊,所以解决方法是扎带,建议各位大小扎带都囤满,扎带和热熔胶能解决很多问题。

image

扎带大佬你不得不服

image

可以借助散热器的样子固定其他的线

最后想提醒大家的是,初始上代码别急着上轮子,这货不慢的,测试电机时会跑,而且不一定撞到什么。即使腾空房间还是有可能撞到的(pc给信号可能延迟不少的,来不及停止),不如拆了轮子,先放在盒子上,做电机什么的测试。

image

镜头磕到了架子上,心疼

从这点来说不买套件,3D打印一个架子还是不错的,可以做一些防撞栏之类的。我现在对3D打印还在观望中,资金不充裕。

本文先到这里,也想请各位大佬提一个问题:TF卡有要求吗?我的是64G U1等级的,我看装了镜像几乎就满了,想换张128的,但是英伟达官方给的卡型号应该是三星的,U3级别,那么官方有没有说明数据量什么的问题,所以要U3等级的卡???(好像闪迪官方说他们U3是读取160mb/s,写入90mb/s;U1是读取100mb/s,写入略低)请大神指教

helghastGIT commented 4 years ago

网上看到有老哥是不将镜像放在tf卡的,而是放在了外界的硬盘上,在讲jetson nano当做小型电脑时成功了,没试过jetbot,找一天试试,只不过外界的硬盘放哪是个问题····哪位朋友有良策····

unbug commented 4 years ago

@helghastGIT 你按你的需要来啊,跑个linux 毫无压力啊上面

helghastGIT commented 4 years ago

@unbug 其实重点是我上哪找固定硬盘的地方(最好能保证美观),另外就是tf卡耗电远远比硬盘低,也不怕抖。换盘可以试试,只不过我好奇官方是怎么定义镜像所在卡的速度的········

unbug commented 4 years ago

@helghastGIT TF 卡也有大容量的,不过就是贵哈哈哈

helghastGIT commented 4 years ago

我今天好像扫过一个帖子····忘了在哪,说的是其实可以先上官方14g的镜像,,当做Ubuntu电脑用,想上jetbot 的话可以下载软件包,那么可能可以先做好系统?在上小车软件包?和直接刷63g镜像一样的?

lcsama commented 4 years ago

我今天好像扫过一个帖子····忘了在哪,说的是其实可以先上官方14g的镜像,,当做Ubuntu电脑用,想上jetbot 的话可以下载软件包,那么可能可以先做好系统?在上小车软件包?和直接刷63g镜像一样的?

官方git里的,但是这么做的问题在于你要自己编译tensorflow,就很烦

helghastGIT commented 4 years ago

本人现在的本事,自己做镜像也不会,编译也不会········但是以后如果不只是想做这么个小车,想尝试更大的实验、更复杂的机器人,那真的迟早得上SSD(不会再买更大的TF卡了),等练好了基本工再说吧

unbug commented 4 years ago

@helghastGIT @lcsama Jetbot 也是基于Ubuntu 的,装了ROS https://github.com/dusty-nv/jetbot_ros , 我个人更倾向于将更复杂的机器学习/深度学习放在远程设备,这样灵活性更强些,机器本身做端的机器学习/深度学习就够了,能识别场景并把场景返回给远程设备,远程设备进一步计算,返回给机器。 这里有大量ROS的教程:https://github.com/open-ai-robot/robot-101

helghastGIT commented 4 years ago

@unbug

@helghastGIT @lcsama Jetbot 也是基于Ubuntu 的,装了ROS https://github.com/dusty-nv/jetbot_ros , 我个人更倾向于将更复杂的机器学习/深度学习放在远程设备,这样灵活性更强些,机器本身做端的机器学习/深度学习就够了,能识别场景并把场景返回给远程设备,远程设备进一步计算,返回给机器。

我知道是基于Ubuntu,可以用ROS,这样很好。有自己的系统。

我先说事,再说观点。

今天尝试自主避障,我是用那个网页按键,控制小车一边走一边拍照,昨晚拍了200张,然后它认为看见的全是障碍物······今天拍500张再试试。但是很麻烦的事,家里的地板缝隙比较大,即便轮子不卡住,万向轮也会卡住。所以tips:大家看看用什么轮子和电机,因为力气太小可能卡住····而且我为了拍的细致,设置的轮子运行速度和时间都很短(也是怕撞墙),但是这样也是很容易卡住的。

说回来,原来用turtlebot学习的时候,已经知道了最早的问题——不是说我设置它转多少就是多少,要配合里程计之类的矫正。那么他自己怎么判断?如果是现场判断就是端是吗?如果GPS定位,传回控制台计算再回传就是后台判断吗?我学识浅薄,对于到底终端和后台到底各自应该负责什么内容,我不知道,但我觉得不是一定的,限死的。我个人更倾向于机器人自身能够判断,因为我的经验是靠网络是不靠谱的,延迟啊丢包之类的,无法让人放心。当然现在最新的5G宣传是说可以做到你说的这样,但是那个还要看实际使用情况。我觉得自身思考能力与网络连接两个技术应该是相向而行的,相互补助的。瞬间的反应可以交给终端个体(类似于脊椎),但是长期大量的数据(比如未来一个小区的快递机器人,他每天看到的数据都可以回传主机进行学习,这样他能找一条更好走的路,送货)交给主机,不用实时,今天的算完,明天上线更新就好。而且不可能所有地方信号覆盖都好,甚至直接就没有基站。但是就像是jetson nano本身,有更高运算能力、更低功耗和更小体积的小电脑,只要能做出来就可以批量生产,那么还可以做到更便宜的价格完成更复杂的学习,这个与网络是不一样的,我觉得这个更好去实践出来。

unbug commented 4 years ago

@helghastGIT 你的场景切实蛋疼,吧车速度调低呢? 话说回来,远程不一定是云,可以是局域网,你完成可以拿到机子返回的视频流,并直接计算

helghastGIT commented 4 years ago

@helghastGIT 你的场景切实蛋疼,吧车速度调低呢? 话说回来,远程不一定是云,局域网,你完成可以拿到直到机子返回的视频流,并直接计算

你后面的话没听懂······速度我调了,可以的,但是在跟踪测试的时候,我觉得那个调速没啥用······因为根本就没有慢下来,休息一会再看看官方怎么写的·····改一改

unbug commented 4 years ago

@helghastGIT 这里还有一个是视频流+云实现的AI运算,虽然与Jetbot 的场景不同,但将来的AI将是本地采集数据+云解析和遥控的,因为云的算力很大,扩展空间更高,之所以在本地计算主要原因并不是因为延迟,而是隐私和法律 https://github.com/open-ai-robot/awesome-anki-vector

helghastGIT commented 4 years ago

@helghastGIT 这里还有一个是视频流+云实现的AI运算,虽然与Jetbot 的场景不同,但将来的AI将是本地采集数据+云解析和遥控的,因为云的算力很大,扩展空间更高,之所以在本地计算主要原因并不是因为延迟,而是隐私和法律 https://github.com/open-ai-robot/awesome-anki-vector

学到了,我多了解下。

helghastGIT commented 4 years ago

@unbug 现在在试追踪目标,速度设为0.1的话动力太小,放在地上可能会不动,所以速度全都设为0.13,画面显示当然能看到手上的苹果,但是我觉得也只是偏移了一下角度,然后就不会再调整角度了,就直接忘我的手里苹果来了。我不知道是速度太快了吗?因为想做出用苹果引导它绕一圈的效果···

guijuzhejiang commented 3 years ago

请问大佬们,有没有在nano上使用usb声卡做语音识别的经验

whmzsu commented 3 years ago

请问大佬们,有没有在nano上使用usb声卡做语音识别的经验

我过几天测试一下乐视的 letmc 520 摄像头,那个好像带双麦克风的。

试了下,可以看到有麦克风设备,具体应用还没测试