3

我计划开发一个使用 C++、Qt 和 OpenGL 进行实时视频操作的工具。视频叠加不是一个选项,因为着色器应该用于帧处理。目前我想象以下步骤顺序:

  1. 解码视频 (CPU)
  2. 预处理它(可选,CPU)
  3. 将其传输到视频内存(使用 DMA 的 GPU)
  4. 使用顶点和片段着色器 (GPU) 进一步处理它
  5. 渲染它(GPU)

我正在寻找一些一般性建议来解释可以在这里使用哪些扩展或技术。是否有充分的理由使用 Direct3D?

4

5 回答 5

2

如果你是 linux,NVIDIA 最近的 180.xx 系列驱动程序通过 VDPAU api(视频解码和演示)增加了对视频解码的支持。mplayer、vlc、ffmpeg、mythtv等很多大项目都集成了这个api。我不知道所有细节,但它们为许多编解码器提供了 api,包括常见的子操作和比特流操作。

在直接使用 CUDA 之前我会先看看这里(我假设 VDPAU 可能会使用它)

于 2009-01-26T17:13:25.590 回答
2

首先,在 PC 上没有明确的方式来使用 DMA。驱动程序可能会使用它,或者可能会使用其他东西。

无论如何,第 3 步将是“更改显卡上的纹理数据”。在 OpenGL 中,它是 PBO(像素缓冲区对象)扩展或旧的 glTexSubImage* 函数。在D3D9 中,它是纹理上的LockRect 或其他方式(例如,划痕纹理上的LockRect,然后blit 成GPU 纹理)。其中任何一个都可能使用 DMA,但您不能确定。

然后数据在纹理中。您可以使用一些着色器将其渲染到屏幕上(例如进行 YCbCr 转换),或者渲染到其他纹理中以进行更复杂的处理效果(例如模糊/发光/...)。

从某种意义上说,使用 Direct3D 更容易,因为有明确定义的“浪费方式”来做事。在 OpenGL 中,有很多选项可以做任何事情,你必须以某种方式找出哪些是快速的(有时不同平台或硬件上的快速路径不同)。

于 2009-01-27T07:26:16.867 回答
1

要将帧数据从 cpu 传输到 gpu,您可能需要查看PBO s。也检查一下

此外,如果您仍然使用着色器,您可以通过在片段着色器(YCbCr 到 RGB)中进行色彩空间转换来减轻 CPU 负担。

“进一步处理”和“渲染”步骤通常几乎是同一件事,在着色器中做一些很酷的事情并将其混合到帧缓冲区中。如果你想混合和匹配视频和不同的效果,FBO也很有用。

于 2009-01-27T07:22:07.887 回答
0

作为替代方案,您可以查看一些用于执行通用 GPU 编程 (GPGPU) 的不同语言,例如 NVIDIA 的 CUDA 或 ATI 的 Stream SDK。不过,根据您的选择,您可以将自己限制在一个品牌的 GPU 上。使用这些语言的原因是在更接近普通高级编程的抽象级别上工作,而不是使用着色器。

我对你想做的事情没有经验,所以我不能说着色器是否真的更适合这项工作,但你可以考虑看看。不得不说,算法设计与普通代码还是有些不同的,需要一些努力才能掌握它(我只使用过 CUDA,但它们似乎都使用了类似的抽象)。

我想如果你在着色器工作方面有相当多的经验,那么学习一个新平台可能不值得你费心费力。

于 2009-01-26T17:13:25.573 回答
0

以下步骤应该做到这一点:

  1. 将视频解码为 YUV

    这通常是解码器库所做的。

  2. 作为纹理加载到 OpenGL

  3. 将 YUV 转换为 RGB

    由于您不想使用叠加层,因此您必须手动转换。是一个使用着色器的示例。

  4. 将转换后的纹理放在四边形上并渲染到屏幕上

于 2009-02-02T02:06:44.850 回答