问题标签 [azurekinect]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
azure - Azure Kinect 未连接或未显示在设备管理器中?
我刚得到一个 Azure Kinect 并尝试连接它,但它没有在设备管理器或 Azure Kinect 查看器中枚举。我已将它插入新的 Lenovo Y740 15" 中的 USB 3.1,但 Azure Kinect 上的灯仍然闪烁白色。我也完成了重置设备的步骤,但灯继续闪烁白色。有人会发生吗有什么建议吗?
scale - Azure Kinect - 设置世界比例
我试图让身体跟踪记录在大约 12 英寸高的小型动作玩偶上。我尝试使用其他深度传感器,如 Zed2 和 D435i,它们的骨骼 SDK 将玩具识别为“类人动物”并尝试跟踪骨骼。
是否可以更改世界比例或过滤选项,以便 Azure Kinect 或 Kinect v2 不会忽略玩具?
c# - 将 2D 像素坐标转换为 3D Azure Kinect
我正在使用深度相机检测矩形。在这一点上,我正在努力使用 NFOV 深度相机生成选定像素的准确 3d 坐标。我通过在测试板上选择 2 个点来测试这一点,使用 Depth 2d 将它们转换为 Color 3d Kinect-SDK C# Wrapper 函数,计算接收坐标之间的距离,并测量所选真实世界点之间的距离(918mm)。在 2.7 米距离处,图像中心出现 2 厘米的误差,而在角落,误差达到 6 厘米。
变换函数不应该纠正失真吗?我是否错过了接收准确数据的关键步骤?这可能是别的东西吗?
谢谢您的帮助!
c++ - Azure Kinect 和 Hololens
Lattepanda (Windows OS)、Raspberry Pi 4 (Windows ARM OS) 和 Intel Compute Stick 是否支持 Azure-Kinect-Sensor-SDK?Microsoft hololens azure kinect 是否与新的 azure kinect 相机相同?先感谢您。
azurekinect - 有谁知道为什么在使用 WFOW(宽视野)作为深度配置时 Azure Kinect DK 在查看器中崩溃?
当使用 WFOV(宽视野)深度配置时,Azure kinect 在 Kinect 查看器中失败。我们尝试更新固件,但没有成功。每次打开 kinect 查看器几秒钟后,我们都会在崩溃时在查看器中收到以下错误:
有谁知道为什么我们在自己的查看器中出现这些错误?
谢谢
azure - 添加 Azure Kinect 时的身体跟踪
我知道每个 Azure Kinect 可以对 5 个人进行身体跟踪。连接 3 个 Azure Kinect 时总共有 15 人跟踪吗?
azure - Azure Kinect 绿屏建设
我很难从https://github.com/microsoft/Azure-Kinect-Sensor-SDK/tree/develop/examples/green_screen提供的示例构建可执行文件
我试过使用 cmake GUI,VS 2017 的 cmake,但无济于事。我什至不确定我应该如何安装 OpenCV。谁能帮帮我吗?
python - Python3、PyAudio、7通道麦克风阵列数据
我正在将 Microsoft Azure Kinect DK 传感器用于大学研究项目。我正在尝试访问从每个通道听到的麦克风数据(以 dB 为单位)。我需要这些数据来进一步编写延迟和求和算法。
我目前已经尝试了很多东西。这是我所拥有的基础知识:
理论上这会从第一个通道中获取数据,但我不断收到错误“无效的通道数”。
任何帮助,将不胜感激,
谢谢!
azure - Azure Kinect DK 操作范围
我对此处给出的 Azure Kinect DK 的指定操作范围有疑问,在“深度摄像头支持的操作模式”部分下。为各种模式提供了工作范围编号(例如,在 WFOV 2x2 分档模式下,工作范围为 0.25 到 2.88 米),但工作范围列有一个星号,表示“*15% 到 95% 反射率”。我希望找出以下内容:
15-95% 反射率时 0.25-2.88 米的操作范围是否意味着目标反射率为 15% 时其最大范围为 0.25 米,95% 反射率时为 2.88 米,或者 Azure Kinect DK 是否仍能可靠地看到目标在 2.88 米处具有 15% 的反射率?
我尝试就这个问题致电 Microsoft 支持,但不幸的是,他们将我引导至 portal.azure.com,因此如果可能的话,我希望获得有关此问题的官方 Microsoft 答案。非常感谢。
opencv - 如何将外部 RGB 摄像头与 Azure Kinect 深度传感器对齐
我将使用 Panasonic LUMIX GH5 和 azure Kinect 设置我的 RGBD 相机,就像深度套件影院一样。
depthkit 不提供原始深度数据,而是提供 obj 序列文件。我需要与 RGB 图像对齐的深度缓冲区。
所以我开始为它编写软件。(我已经用 SmallRig 固定装置修复了我的 Panasonic LUMIX GH5 相机和 azure Kinect。)
使用 OpenCV 的 solvePnP 函数获得 GH5 和 Azure Kinect RGB 传感器的外部参数后,如何使用它们将 GH5 彩色图像与 Azure Kinect 深度图像对齐?
还是我应该采取另一种方法来实现这一目标?
我找不到这个问题的任何想法或资源。
在 Azure Kinect 文档中,我在 Azure Kinect SDK 中找到了“k4a_transformation_depth_image_to_color_camera_custom”函数。
这种方法对我的情况有用吗?如果为真,我怎样才能获得其参数的k4a_transformation_t值?