问题标签 [nvidia-jetson]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
yocto - 使用自定义 yocto 映像在 jetson nano 上无法访问以太网
我用recepe为jetson nano创建了一个非常小的图像:
使用 raspberry pi v2.1 相机玩耍。到目前为止一切正常,除了以太网访问。当我跑
我得到了一个 IPv6 ip 地址,一切看起来都很好(除非我还想要一个 ipv4 地址,但还没有调查)。但是当我运行命令时
是说“ping:错误地址 'google.com',如果我在 8.8.8.8 上运行 ping,它会返回“ping:sendto:网络无法访问”。
有问题的不是以太网电缆或我的路由器,因为相同的以太网电缆和访问在我的 PC 上工作得很好。当以太网连接到 jetson nano 时,绿灯常亮,而橙灯常闪烁。
什么可能导致问题,我该如何解决它并再次访问互联网?
python - 如何通过 Yocto/poky 在 Jetson Nano 上使用 OpenCV 和摄像头
我使用战士分支(poky 战士、meta-tegra Warriors-l4t-r32.2、openembedded Warriors)和 CUDA 10 在 Jetson Nano 上使用 Yocto/poky 创建了一个最小的 xfce 图像。
图像启动并完美运行,相机测试:
奇迹般有效。
现在我想在相机源上使用 OpenCV,但我无法让它工作。
我已将这些软件包添加到IMAGE_INSTALL
:
安装 OpenCV。当我运行 /usr/bin/opencv_version 时,它返回版本 3.4.5,python 版本是 3.7.2,GCC 版本是 7.2.1。
当我尝试运行此 OpenCV 测试代码时,它会返回
我试过在网上四处寻找解决方案,但它们似乎不起作用。
编辑:在 VideoCapture 函数中使用 CAP_GSTREAMER 似乎确实存在问题,因为使用 CAP_FFMPEG 运行相同的程序而不是在 mp4 视频上运行良好。
仅使用cv2.VideoCapture("/dev/video0", CAP_FFMPEG)
isOpen=-1 返回。如何让相机在 python 中打开?
filesystems - 如何减小 Jetson Nano .sdcard 闪存文件的大小?
我已经使用 meta-tegra 层为 Jetson nano 创建了图像并将其刷新,因此我的 Jetson nano 使用了 32gb sd 卡。构建镜像时,需要刷入 SD 卡的.sdcard文件的默认大小约为 16GB。
拥有一个非常基本的映像,带有一个大小为 16GB 的根文件系统 .sdcard 文件,这似乎有点过头了。
刷机后,SD卡被分成13个部分,从gparted可以看出:
启动设备时,我有 1.83gb 可使用...在 32gb sd 卡上使用非常基本的图像...
我可以看到 sdb13 部分有 13.66gb 可用空间,但是虽然能够从 sdb13 部分取消分配空间,但由于错误,我无法将其分配给 sdb1 部分。然而,这不是这篇文章的重点。
为什么文件大小这么大? - 有没有办法以某种方式最小化这个大小?
python - (Argus) 在 jetson nano 相机 opencv 测试期间出现错误 EndOfFile 和错误 InvalidState
我正在尝试在我的 Jetson Nano 上测试我的 Pi 相机。简单的测试运行顺利,但运行此python 代码已编辑为具有 gstreamer_pipeline 的 videoCapture 参数,而不仅仅是“0”。但是,此代码只能工作一次。关闭它时,我收到错误:
然后之后我无法以任何我尝试的方式启动相机,并且每次在任何代码上都会显示以下错误:
如果我重新启动设备,我可以再次运行我想要的所有相机代码,直到我再次运行该代码。当我浏览它时,我看不出需要什么来修复它。相机放出来了,还需要什么?
yocto - 将自定义 Yocto 映像闪烁到 Jetson Nano 生产模块 eMMC?
我正在构建一个 yocto 图像以在 Jetson Nano 上运行。现在我正在开发一个从 SD 卡启动的 Jetson Nano devkit,并且在meta-tegra GitHub repo wiki 上描述了闪烁。它没有说明如何在 Jetson Nano 上闪存到 eMMC,只在 SD 卡上。
我可以将 yocto build rootfs 复制到 nvidia_sdk L4T 工具(替换“rootfs”文件夹)吗?但是其余的文件夹(bootloader、kernel、lib、nv_tegra)呢?它应该是相同的二进制文件,我只是不太确定内核和引导加载程序是否相同,并且真的不知道其余的。
任何处理相同问题的人,或者更好的是,找到了一种方法来做到这一点,请告诉我。
yocto - 用 wic 构建 yocto/poky 图像?
如果我尝试对图像进行 bitbake
local.conf 包含以下内容:
然后构建退出并出现错误:
如果我尝试wic
在熟模式下运行命令,则会出现相同的错误。如果我尝试以wic
原始模式运行:
我仍然得到同样的错误。
我需要为 jetson-nano 创建一个可以使用需要两个 rootfs 才能工作的RAUC 更新工具的图像。Wic 工具似乎能够做到这一点。如何上传它以及它是否可以在 jetson nano 上运行是另一个问题,但现在我只想能够用 wic 制作图像。
编辑:由于这是针对 SD 卡的,因此我使用以下内容制作了自己的“directdisk-multi-rootfs.wks”文件版本:
这给了我一个新但非常相似的错误:
linux - 如何将python脚本放入jetson nano启动?
该程序应在启动时运行。nano
操作系统(jet-pack)
也不允许自动登录。我试图将脚本放入其启动文件,但程序无法启动。
yocto - u-boot 脚本允许选择要引导的 rootfs 部分 (RAUC)
我已经成功地创建了一个带有两个 rootfs 分区的映像,以便使用 yocto/poky 在我的 jetson nano 上运行。我已经按照 meta-rauc 层 README 和 rauc 用户手册创建了 system.conf 文件和 rauc_%.bbappend 文件,并且我能够成功创建捆绑包。
据我了解,我需要某种u-boot 脚本:
为了使 RAUC 能够切换正确的插槽,其系统配置必须从引导加载程序的角度指定相应插槽的名称。您还必须在引导加载程序本身中设置适当的引导选择逻辑,通过脚本(如 GRUB、U-Boot)或使用专用的引导选择基础架构(例如 Barebox 中的引导选择器)。
引导加载程序还必须提供一组 Linux 用户空间可以修改的变量,以更改引导顺序或优先级。
准备好此接口后,RAUC 将负责适当地设置启动逻辑。例如,它将在写入之前停用要更新的插槽,并在成功完成安装后重新激活它。
我是在 yocto 层或构建文件夹中的某个位置制作脚本,还是在制作图像后需要将其放在 jetson nano 上的脚本?- 这个脚本的内容是什么?
******************************************************编辑************************************************* *******
我制作了这个脚本:
我recipes-bsp/u-boot/u-boot-script.bb
在我的元层中得到了这个食谱:
我可以看到脚本图像正在进入work/jetson_nano_poky-linux/u-boot-tegra/2016.07.../git/
文件夹。
但是如何在 u-boot 中使用它呢?- 我如何确保这个脚本在每次启动时自动运行?
python - 不支持的操作 _FusedBatchNormV3 与 tensorRT 和 jetson tx2
在我正在运行的 Jetson TX2 上:
- Linux4Tegra R32.2.1
- UFF 版本 0.6.3
- 张量RT 5.1.6.1
- 库达 10
- Python 3.6.8
我收到此错误消息:
从这段代码:
uff 模型创建成功。
解析器成功注册了输入和输出。
解析缓冲区失败并出现上述错误。
有谁知道 tensorRT 是否真的不支持 FusedBatchNormV3,如果不支持,是否存在我可以使用图形外科医生模块提取的现有插件?