问题标签 [nvidia-jetson]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
docker - 寻找任何使用 GPU 的 Jetson Nano DockerHub 示例
我开始使用我的 Jetson Nano,我正在寻找一个可以通过运行docker run xxx
where xxx 是 DockerHub 上使用 GPU 的图像来启动的示例。
我假设我必须传入一些 --device 标志,但是是否有任何类型的“hello world”风格的样本准备好使用来自 docker 的 GPU?
我希望只是证明您可以从 Jetson Nano 上的 docker 容器访问 GPU。主要是为了确保我的配置是正确的。
python-3.x - TX2 GPU 未正确分配内存
我正在尝试在 TX2 上运行代码,但分配 GPU 内存使用的 tensorflow 代码似乎以一种奇怪的方式工作。
这是我必须分配内存的代码:
奇怪的是,当我使用0.0
代替时0.5
,处理速度更快。当我使用时0.9
,我收到以下错误:
tensorflow.python.framework.errors_impl.InternalError:GPU 同步失败
这里发生了什么事?
python-3.x - 如何在 virtualenv 下在 Jetson nano 上导入 cv2?
如果您没有使用 virtualenv,则 cv2 模块已成功导入
但是,如果创建虚拟环境,则找不到 cv2
ubuntu - 使用 gstreamer 的 Jetson TX2 多播 UDP 流
我正在尝试使用 Ubuntu 18.04 制作 Jetson TX2,将其以 H264 编码的 CSI 输入流式传输到使用 gstreamer 的 UDP 多播。我已经浏览了(就像)整个互联网并尝试了所有代码,但我无法通过 URL 或 SDP 文件使用 VLC 连接到它。但是,我可以使用另一个 gstreamer 实例从同一台计算机连接到它。目标是能够从浏览器连接到流,但我想让它与 VLC 一起工作会更容易。
服务器代码:
gst-launch-1.0 nvarguscamerasrc ! nvvidconv ! omxh264enc ! 'video/x-h264, stream-format=(string)byte-stream' ! h264parse ! rtph264pay mtu=1400 ! udpsink host=239.127.1.21 port=5000
收货人代码:
gst-launch-1.0 udpsrc port=5000 ! application/x-rtp,encoding-name=H264,payload=96 ! rtph264depay ! h264parse ! avdec_h264 ! xvimagesink
这有效并且接收器代码打开带有视频的窗口。当我尝试通过 VLC 接收时,我遇到了一些问题,但基本上没有任何效果,而且 VLC 只是连接,我尝试过:
vlc udp://:5000
vlc rtp://:5000
错误:A description in SDP format is required to receive the RTP stream. Note that rtp:// URIs cannot work with dynamic RTP payload format (96).
vlc udp://239.127.1.21:5000
vlc rtp://239.127.1.21:5000
(与上述相同的错误rtp...
)vlc v.sdp
使用 sdp 文件:
我尝试了各种 IP - 服务器的 IP、本地主机,我尝试从另一台计算机连接并尝试了客户端 IP 和服务器 IP 的各种组合。我也无法连接到单播,但我需要让多播工作。
所以我的问题基本上是:如何从浏览器连接到 gstreamer 流。
python - 如何在 Jetson tx2 上安装 numba 库?
我想在我的 jetson tx2 上安装 numba,以便我可以使用 tf-pose-estimation。我所有的库都不在 anaconda python3 上,而是在基础 python 上,所以我想在不使用 anaconda 的情况下下载 numba 库。你能告诉我如何在 jetson 上安装 numba 库(等等。在安装 numba 库之前我必须安装哪些附加包)
我试过 pip3 install numba 但在构建 llvmlite 时安装失败。我的python版本是3.5。
python-3.x - 如何在 jetson nano 上运行 5v 步进电机
我尝试在 jetson nano 上使用 RPI 代码运行 5v 步进电机,它给了我 ValueError: The channel sent is invalid on a JETSON_NANO Board
我已经安装了jetson gpio,但仍然给我同样的错误,但代码在树莓派上运行良好
python - 如何在 Ubuntu 18.04 (Jetson TX2) 上启动 python 程序?
我有一个使用 CUDA、CNN、OpenCV、USB 摄像头、UART 与 arduino 通信的 python3 程序...我想在我的 jetson-TX2 启动时启动该程序(使用 ubuntu 18.04)但我不知道怎么做。
我尝试将此命令: /bin/bash -c "sleep 15 && python3 /home/nvidia/program.py" 添加到“启动应用程序”。(该命令在终端上运行时有效)但没有任何显示。
谢谢您的帮助!!
python - 如何在 Jetson Xavier 上的 Numba 中使用 OpenCV?
我试图在一些我用一些 Numba 装饰器(例如nopython=True, parallel=True
)注释的函数中使用 OpenCV。我在使用Nvidia SDK Manager刷新的 Jetson Xavier 上运行它。
代码是这样的:
但我收到一个错误:
甚至可以将 OpenCV 与 Numba 一起使用吗?
我正在使用:python2.7 和 numba-0.44.0。
ros - 是否可以使用 NVIDIA Jetson TX2 通过 UART 端口控制 DJI M210 无人机的速度?
我想使用 DJI M210 无人机进行测绘。我实际上是在使用 LiDAR 和 SLAM 算法来绘制 GPS 拒绝环境的地图。我想知道,如果有人知道,是否可以在没有 GPS 的情况下控制无人机的速度(我会从 SLAM 向无人机发送里程计)。我读过 DJI 的速度控制仅由 GPS 解释完成。
python-3.x - OSError:无法识别图像文件 <_io.BufferedReader
我正在移植代码来训练神经网络。我将代码编写为 Udacity 项目的一部分,它在 Udacity 环境中运行良好。
现在我将代码移植到运行 Ubuntu 18.04 和 Python 3.6.8 的 Nvidia Jetson Nano。
在遍历训练数据时,“._”会以某种方式潜入文件名之前的文件路径并发出错误消息。
当我运行该文件时,我收到以下错误消息:
我怀疑错误是由于文件名“image ...”之前的“._”,因为这不是文件名的一部分,当我提示时
我得到了正确的路径:
在文件名之前没有“._”。
我的问题在这里似乎与
(按照答案中的建议从 PIL import Image;Image.open(open("path/to/file", 'rb')) 调整和运行不会发出错误消息。)
文件路径在命令行中给出:
下面的代码显示了两个相关的功能。
知道我如何摆脱这个“._”吗?