问题标签 [rtx]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iot - 使用 rtx rtos 编程 ESP8266
是否可以对 ESP8266 wirh rtx rtos 进行编程?
我知道可以编程:
AT(终端)命令、官方 ESP8266 SDK 和工具链、带有 eLua 的 NodeMCU、Arduino IDE。
或者你可以推荐一个像 esp8266 这样的 wifi 芯片,我用 rtx rtos 编程。我完全是一个初学者,所以如果这是一个愚蠢的问题,请原谅。
tensorflow - 在 fp16 中使用 Keras/TensorFlow 进行训练/RTX 卡的半精度
我刚得到一个 RTX 2070 Super,我想尝试使用带有 TensorFlow 后端的 Keras 进行半精度训练。
到目前为止,我发现了类似这样的文章,建议使用此设置:
该网络是一个简单的 4 层 CNN,用于音频分类。
我的输入数据是之前生成的 NumPy 3D 数组(使用 LibROSA 提取的音频 MFCC 特征)。该数据是使用 CPU 生成的,我知道这些值保存为 32 位浮点数。
当我尝试使用这些数据训练我的网络时,我收到以下错误:
TypeError:传递给“合并”操作的“输入”的列表中的张量具有不完全匹配的类型 [float16, float32]。
在另一篇文章中,我读到我还应该“在 SoftMax 层之前转换回 FP32”,这让事情变得更加令人困惑......
我真的很感激一些方向。
谢谢!
stm32 - stm32fx、RTX 和外部中断
我正在使用 RTX RTOS 在 STM32F1x 板上开发一个项目,我需要一些外部中断来处理一些用户输入。出于这个原因,我启用了一个外部中断来处理引脚 A.0 上的输入。
但是,每当我向 GPIOA.0 引脚提供输入时,我都会在逻辑分析仪中看到一个奇怪的行为(所有其他周期性任务都停止执行并变得平坦)。编辑:提供更多信息:此代码与放置在处理程序内的 LED 切换代码一起使用。
这是我的 GPIO/EXTI 配置
我做错了什么?感谢任何愿意帮助我的人。
tensorflow - TensorFlow GPU 启动时间长
我有这个问题,我知道很多人都听说过。我从配备 GTX 1050 Ti 的笔记本电脑升级到配备 RTX 3060 Ti 的 PC。我在 Anaconda 虚拟环境中运行一切。我已将我的环境从笔记本电脑复制到 PC。现在 TensorFlow GPU 需要很长时间才能启动。即使我写了两行代码:
这需要很长时间(超过 30 分钟)。同样的事情在我的带有 GTX 1050 Ti 的笔记本电脑上也能完美运行。我尝试了很多东西:
- 在另一个环境中重新安装每个包(当然,相同的版本 - 我使用的是 TF 2.1、cudnn 7.6.5、cudatoolkit 10.1.243)。
- 在我的程序之前添加几行代码(我尝试了 10 多种不同的可能性)。
- 重新安装干净的GPU驱动程序。
TensorFlow 启动后,RTX 3060 Ti 工作正常,训练速度非常快。我用谷歌搜索了很多,但我发现现在还有很多人在我的位置,所以我不期待很快得到答案:)。
无论如何,如果有人设法找到答案,请与我分享!提前致谢,祝您有美好的一天!
PS 如果您需要代码或控制台日志,请点击此处。我写了一个快速的 MNIST 程序:
这是控制台日志:
在“添加可见 gpu 设备:0”之后打开动态库花了很多时间。
ubuntu - 使用 RTX3090 安装 Kubuntu 导致黑屏 -> Kubuntu 仍在运行
我在我们的实验室服务器上安装了全新的 Kubuntu 20.04 LTS。安装过程中的一切工作正常。安装后系统启动,但我只得到一个黑屏。Imho nouveau 在未知的 RTX3090 之前崩溃了,这就是当我尝试在不减少图形的情况下启动它时实时系统告诉我的。
我的问题是:如何使用实时系统解决该问题?
benchmarking - LightGBM 基准测试显示 RTX-2080 GPU 在 CPU 上没有加速
在 GPU 和 CPU 上运行 LightGBM 的 Higgs 训练对我来说花费了相同的时间 - 26 秒。日志确认 GPU 运行正在使用 GPU(将数据传输到 GPU 等)
https://lightgbm.readthedocs.io/en/latest/GPU-Tutorial.html
通过教程为 GPU 安装 LightGBM。安装良好并且能够运行 GPU 训练来确认。
下面的 GPU 和 CPU 规格进行比较。
VS
注意:按照教程接受所有配置默认值,因为这是基准。可以和他们一起玩,但这可能会破坏这一点。
有人在RTX上尝试过类似的吗?
性能基准https://lightgbm.readthedocs.io/en/latest/GPU-Performance.html正在使用 GTX,但表明任何最近的 NVIDIA 卡确实应该可以工作。基准页面警告 Kepler 卡。但RTX 2080是图灵,似乎支持硬件原子操作。https://en.wikipedia.org/wiki/CUDA我有限的知识表明它应该都很好。
tensorflow - 为什么在 RTX 上需要比 GTX 更多的 gpu 内存?
我想知道原因。
[环境]
我已经在 pc_1~pc_3 上使用内存分数 1.5GB 加载了一个权重文件。我昨天在 pc_4 上使用内存分数 1.5GB 测试了加载相同的权重文件,但无法加载。但是,我可以在 pc_4 上使用大约 5.7GB 的内存部分来加载它。
虽然相同的权重文件,为什么需要更多的 gpu 内存?我在任何地方都找不到解决方案。我猜 rtx 30xx serise 或 nvidia-tensorflow 是原因。
cuda - RTX 3080 和 CUDA 10.2
我对 CUDA 不熟悉,所以我的评论中可能有一些错误。
我目前正在使用 RTX 3080 和 CUDA 11.4。
对于我的项目,推荐使用 CUDA 10.2,所以我使用了 nvidia-docker 并安装了 CUDA 10.2,但遇到了这个错误。
我想这是 RTX 3080 不支持 CUDA 10.2 的问题。那么没有任何方法可以将 CUDA 10.2 与 RTX 3080 一起使用吗?