问题标签 [nvidia-jetson]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - Keras ValueError:未知层:名称,尝试将模型加载到另一个平台时
我在 Nvidia Quadro 板上使用 Keras 2.2.4 训练了一个卷积神经网络。我将训练后的模型保存在两个单独的文件中:一个描述架构的文件 (model.json) 和另一个包含所有权重的文件 (model.h5)。
我想在运行 Keras 2.2.2 的 Nvidia Jetson TX2 板上加载保存的模型,我正在尝试按如下方式进行:
但是,当我尝试加载时,出现以下错误:
已加载模型 = model_from_json(已加载模型_json)
文件“/home/nvidia/.local/lib/python3.5/site-packages/keras/engine/saving.py”,第 368 行,在 model_from_json 返回反序列化(配置,custom_objects=custom_objects)文件“/home/nvidia/ .local/lib/python3.5/site-packages/keras/layers/ init .py”,第 55 行,在反序列化 printable_module_name='layer') 文件“/home/nvidia/.local/lib/python3.5/site -packages/keras/utils/generic_utils.py”,第 145 行,在 deserialize_keras_object 列表(custom_objects.items())))文件“/home/nvidia/.local/lib/python3.5/site-packages/keras/engine /sequential.py”,第 292 行,在 from_config custom_objects=custom_objects) 文件“ /home/nvidia/.local/lib/python3.5/site-packages/keras/layers/init.py”,第 55 行,在反序列化 printable_module_name='layer') 文件“/home/nvidia/.local/lib/python3.5/site-packages/keras/utils/generic_utils.py”,第 165 行,在 deserialize_keras_object 中:' + function_name) ValueError: Unknown layer:name
我也尝试将整个模型保存在一个文件中,但遇到了同样的错误。
我已经尝试过这里的解决方案,但无法解决。
有没有人见过这个错误?有什么建议么?
python - 多个窗口上的 OpenCV gving 错误“ASSERT:文件 qasciikey.cpp,第 495 行中的“false””
我正在尝试在我的 Jetson TX2 上的 python 中使用多个 OpenCV 窗口。但是,我收到错误:“ASSERT:文件 qasciikey.cpp 中的“false”,第 495 行”
以下是最小可重现代码:
这是错误跟踪:
请帮忙。谢谢!
编辑: 该错误仅在我 ssh 进入 Jetson 时发生(通过 MobaXterm v10.5)。如果我直接从 Jetson 运行代码,我不会收到此错误。
neural-network - 使用 TensorRT Caffe Parser 解析 Mobilenet-SSD 时出错,“ditcaffe.LayerParameter”没有名为“prior_box_param”的字段
我正在使用 TensorRT caffe 解析器从https://github.com/chuanqi305/MobileNet-SSD解析 MobileNet-SSD caffe 模型。我使用 Jetson TX2 中的 Jetpack 3.3 作为平台。如何从 nvinfer 库中修复此错误?API中甚至还有一个 TensorRT 类nvinfer1::plugin::PriorBoxParameters
。但是这个图层句柄似乎没有定义。图层参数名称和格式是否有任何错误?或者我们是否必须为此创建一个自定义层插件。有人对此有实现吗?
错误如下,
与此错误相关的源代码行,
prototxt 文件中给定层的错误,
python - 如何在 Tegra X2 上使用 TesnorFlow-GPU 模型进行推理?
我是 Jetson tegra x2 板的新手。
我计划在 TX2 板上运行我的 tensorflow-gpu 模型,看看它们在那里的表现如何。这些模型在 GTX GPU 机器上进行训练和测试。
在 tx2 板上,Jetpack full 中没有 tensorflow。所以需要构建/安装 tensorflow,我已经看过几个教程并尝试过。我的 python 文件 train.py 和 test.py 需要 tensorflow-gpu。
现在我怀疑,如果在 tx2 板上构建 tensorflow-gpu 是正确的方法吗?
哦,TX2 上有 Nvidia TensorRT,它可以完成部分工作,但是怎么做呢?对吗?
tensorflow 和 tensorRT 会一起取代 tensorflow-gpu 吗?但如何?那么我必须在我的火车和测试python文件中进行哪些修改?
我真的需要为 tx2 构建 tensorflow 吗?我只需要推断我不想在那里进行培训。
我研究了不同的博客并尝试了几种选择,但现在事情有点混乱。
我的简单问题是:
使用在 GTX 机器上训练的 TensorFlow-GPU 深度学习模型在 Jetson TX2 板上完成推理的步骤是什么?
networking - “OSError: [Errno 99] Cannot assign requested address”用于 Jetson TX2 Board 和 PC 主机之间的通信
我认为在服务器端使用ifconfig检查IP地址和端口号是正确的,并且该端口没有被服务器端的其他人绑定。所以,我想问题出在客户端。我已在客户端(PC)上附加了客户端的运行结果和 netstat 结果。他们都在同一个wifi下。服务器 IP 为 10.42.0.197,端口号为 14450,客户端 IP 为 10.42.0.1。客户端(TX2板)仍然无法绑定ip和端口。
.
c - 使用 rootfs 进行 GCC 交叉编译
我们目前正在为运行完整 Linux 操作系统 (NVIDIA Jetson TX2) 的 ARM 嵌入式系统开发应用程序。我有一份来自嵌入式系统的 rootfs 以及 ARM 版本 8.2-2018.08 的 GNU 工具链。我很难让 GCC 编译器 ( gcc-arm-8.2-2018.11-x86_64-aarch64-linux-gnu/bin/aarch64-linux-gnu-gcc
) 在 rootfs 的正确目录中查找包含文件和库文件。
我已将 --sysroot 变量设置为指向我的 sysroot 的位置。但是,查看 lib 和 include 目录有一个子文件夹,usr/lib/aarch64-linux-gnu
其中包含更多的 include 和库,而这些实际上是需要的。例如,库不是位于$rootfs/usr/lib
or$rootfs/usr/local/lib
中,而是库在$rootfs/usr/lib/aarch64-linux-gnu
我已经测试过并且使用 -I/-L 命令我可以编译项目。
我的问题如下
- 使用 -I 和 -L 是“正确”的方式吗?如果不是,那是什么?
- 为什么 linux 将这些库放在另一个目录中?
- 使用 --sysroot 编译时,我可以看到正在检查其他非 sysroot 目录。为什么 gcc 会这样做?
python - Django web 使用 jetson tx2 作为服务器显示来自网络摄像头的流
我正在编写网络应用程序,我想:
- 显示来自网络摄像头的本地流 - 这意味着我想从服务器流式传输视频(我不想打开客户端的网络摄像头)
- 读取二维码并在文本框中列出
这两个已经实现了但是!我遇到了一些意想不到的行为。我所描述的功能运行良好,但仅在本地主机上。我想部署它,因此可以通过不同的计算机访问它(它旨在用于机器人)。
所以来描述我的架构:我使用 Jetson TX2 作为服务器(此处连接网络摄像头)。我使用 Django web 框架、django-channels、daphne 作为 web 服务器和 ngingx 作为代理。我在主管中运行 daphne 和后台进程。
我正在使用工作者(后台进程)从网络摄像头捕获帧并通过 redis 将其发送到网络后端。
因此,当我在 localhost 上运行它时,一切都按预期工作。当我将 Debug 设置为 FALSE 并将 Jetson 的 IP 添加到 ALLOWED_HOSTS 并尝试从不同的计算机访问网络时,会发生这种情况:我可以看到,由于网络摄像头灯亮起,可以访问该网络摄像头。我在网络摄像头前放了一些二维码,代码出现在网络上的文本框中!但是视频不存在(当 ALLOWED_HOSTS 包含本地主机视频时)。收集相机帧的后台进程的输出给出以下错误:
我不会在这里发布整个代码,因为我不知道问题到底出在哪里。有谁知道问题出在哪里?
谢谢您的帮助!
opencv3.0 - 为 Nvidia Jetson TX1 和 TX2 编译 OpenCV 3.4.1
我正在尝试在 Jetson TX2 上编译(和打包)OpenCV 3.4.1,以便它可以在 TX1(架构 #53)和 TX2(架构 #62)上运行。我正在运行 Ubuntu 16.04 的 TX2 上构建。尽我所能,我只能让它为 TX2 编译。
我试过了:
出口 CUDA_ARCH_BIN="53, 62"
和
出口 CUDA_ARCH_BIN="53 62"
在执行 cmake 命令之前,但配置仅给出:
NVIDIA GPU 拱门:62
我确定可以为此设置一个变量,但我一直无法找到它。
deep-learning - 如果有两个需要运行的 gpu 作业,JetsonTX2 Nvidia gpu 如何使用?
我想了解有关同时运行多作业的 Nvidia gpu 的信息。
有一项工作是使用 gpu 进行 CNN 对象定位/检测,另一项是对象检测。
两者同时运行并且需要 gpu 电源。
例如 Nvidia JetsonTx2 和其他 2080Txi 如何共享他们的资源?
是否有可能,或者我们只能同时有一个 gpu 工作人员?
camera - Jetson Xavier 入门级 CSI-2 摄像头模块
为 Jetson Xavier 寻找入门级相机模块
你好,
我一直在研究满足我对尺寸和性能要求的 Jetson Xavier 开发板。作为我构建的一部分,我需要添加许多相机模块,最好是 8-12 个。在 Nvidia 论坛上发帖时,我被告知要联系他们的“首选供应商”,他们主要专注于工业相机,每台零售价约为 300 英镑(我想要 12 个……每台……这很贵)。我的要求是对象检测,因此我只需要一个基本的图像标准。
Xavier 文档指定他们首选的相机连接是 CSI-2。我的问题是:“如果有人有使用 Xavier 相机的经验,任何 CSI-2 相机就足够了,还是我需要找到一个具有兼容驱动程序的相机?”
谢谢