问题标签 [live555]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
video - 无法使用 VLC 重新流式传输 RTSP
我有一个安装了 VLC 的 linux 服务器,我正在尝试重新传输 IP 摄像机(rstp)。重新流式传输的命令应该没问题,因为在我的电脑上,它运行得很好。当我尝试从服务器运行它时,会出现一些问题:
我的电脑和服务器上的 VLC 版本是一样的。我发现它可能缺少 live555 库,但这不是我的情况。请你帮助我好吗?
iphone - 创建用于播放 RTSP 流媒体视频的应用程序
我想创建一个播放 RTSP 流视频的应用程序。我在 SO 上发现了很多关于相同的问题。每个问题都指向我live555。我按照链接下载了 c++ 库。起初我无法构建它,我再次得到了 SO 的帮助,并实施了提供的解决方案。
到目前为止我遵循的过程是:
- 在终端中,我选择我的库的路径,而不是
cd live
我放置库的所有文件的位置。 - 输入
./genMakefiles iphoneos
到终端 终端没有错误或成功响应 - 在我使用
make
错误发生时的上层命令之后-bash: make: command not found
- 当我使用
./genMakefiles iphoneos make
响应是Usage: genMakeFiles <os-platform>
我无法弄清楚我怎样才能知道图书馆是否成功构建?如果是,如何在 ios 应用程序中使用它?
我们需要访问和创建实例哪些类?
如果库未构建,我该如何构建它?同样,我如何从构建位置使用它。
我尝试了以下链接
谢谢
streaming - 如何在 RTSPserver 中设置帧速率
我使用 Live555 创建了 RTSPServer 应用程序。在此应用程序服务器中,从 Live media Streamer 应用程序接收实时流,该应用程序又从数码相机获取流。
有没有办法在服务器端设置帧速率,以便我的服务器可以根据接收器的要求以可变帧速率流式传输?
rtsp - 如何使用 Live555 暂停和播放流
我正在使用正在流式传输到另一个程序的 Live555 访问视频服务器。我想向视频服务器发送 rtsp PAUSE 和 PLAY 命令以停止流式传输到任何其他程序。这可能吗?我的代码似乎没有做任何事情。我可以连接到服务器,服务器会验证我是否收到了完整的 PAUSE 命令:
视频服务器.h
视频服务器.cpp
似乎我只能暂停和播放我在此过程中创建的流。使用Live555是这种情况吗?
h.264 - C++ 中的开源 H.264 解码器
我正在使用 live555 通过 RTSP 接收网络摄像机视频,该数据是 H264 编码的。是否有任何开源软件可以对接收到的数据包进行解码并将其解析为不同的视频帧?
此致,
迪达克·佩雷斯
iphone - 在干净的目录中构建 LIVE555 RTSP 库
您好我想知道如何在新目录中构建 LIVE555 库。我目前的方法涉及手动删除 .o 和配置文件,我认为这不是非常有效或聪明。
目前我的工作流程是:
但是它将所有内容都构建在同一个目录中并且非常混乱,有人可以对我可以在配置中更改的属性有所了解,该属性将在干净的目录中构建二进制文件和头文件吗?
谢谢!
c++ - 如何使用 FFMpeg 解析 RTP H264 数据包
我是这个论坛的新手,我希望有人可以帮助我解决我的问题。
我需要RTP H264 packets
使用FFMpeg
to转换BMP files
,到目前为止我已经实现了以下目标:
-Reading H264 file and convert it to BMP files using FFMpeg.
-Receiving raw RTP H264 packets.
如果有人可以帮助我RTP H264
使用 解码数据包FFMpeg
,我将不胜感激,我在互联网上进行了很多搜索,并找到了以下解决方案:
libavformat 使用 rtp_h264.c,我无法在任何地方下载库,虽然文件在那里,但没有下载库就无法使用它,如果可能的话,有人可以提供下载链接和示例吗?
live555 使用 H264VideoRTPSource,下载库后,我不明白如何使用此代码,我应该实例化该类吗?还是继承它?互联网上有使用 H264VideoRTPSource 的示例吗?
有没有其他方法可以在不阅读所有标准的情况下做到这一点(RFC3984 and RFC6184)
谢谢你。
stream - 通过 live555 代理 rtp 源流到 rtsp
我有一个由 ffmepg 生成的 RTP 流,现在我需要使用 live555 重新流式传输到RTSP。
有一种方法可以从 RTSP 重新流式传输到另一个 RTSP:LIVE555 代理服务器。
但是如何修改代理服务器以将 RTP 源重新流式传输到 RTSP(我可以获得 sdp 描述)?
IE
- 源流:rtp://192.168.1.10:55555
- 转发到:rtsp://:554/stream1
任何建议将被认真考虑。谢谢!
c++ - 如何编写 Live555 FramedSource 以允许我直播 H.264
我一直在尝试编写一个从 Live555 中的 FramedSource 派生的类,它允许我将实时数据从我的 D3D9 应用程序流式传输到 MP4 或类似设备。
我每帧所做的是将后台缓冲区作为纹理抓取到系统内存中,然后将其从 RGB -> YUV420P 转换,然后使用 x264 对其进行编码,然后理想地将 NAL 数据包传递给 Live555。我创建了一个名为 H264FramedSource 的类,它基本上是通过复制 DeviceSource 文件从 FramedSource 派生的。而不是输入是一个输入文件,我把它做成了一个 NAL 数据包,我更新每一帧。
我对编解码器和流媒体很陌生,所以我可能做的一切都完全错误。在每个 doGetNextFrame() 中,我是否应该抓取 NAL 数据包并执行类似的操作
我假设有效负载是我的帧数据(以字节为单位)?如果有人有一个他们从 FramedSource 派生的类的示例,它可能至少接近我正在尝试做的事情,我很想看到它,这对我来说是全新的,并且有点难以弄清楚发生了什么。Live555 的文档几乎就是代码本身,这并不能让我很容易理解。
ffmpeg - 实现 live555 DeviceSource 从 ffmpeg 编码器接收帧
我正在为流媒体网络摄像头制作应用程序。我想使用 OpenCV 来捕获相机,ffmpeg 作为编码器,live555 作为服务器。我知道我必须在 live555 中实现 DeviceSource.cpp 来封装编码器以从 ffmpeg 接收帧。但是,似乎没有如何做到这一点的例子。那么任何人都可以为我提供一些关于实现 DeviceSource 的教程或示例。先谢谢了。