video-streaming - 可以在服务器端使用 WebRTC 来获取流帧吗?

标签 video-streaming webrtc video-processing live-streaming http-live-streaming

我想从浏览器(PC/Mac/Android)制作相机流到 Java 服务器,以便在帧上运行一些 CV 算法?

WebRTC 是否是一个很好的解决方案,我知道它主要用于 2 端点通信解决方案。但我想知道我是否只能将它用于 Java 服务器的一个方向,该服务器以某种方式可以处理流的每一帧?

任何已知的解决方案\项目?

是否有另一种用于实时流式传输和分析的好技术(跨平台客户端和 Java 服务器)?

最佳答案

有两种方法:

1) 忽略 WebRTC 及其对等(或对等服务器)功能,在本地抓取帧并使用 HTTP 将其发送到服务器。 https://webrtchacks.com/webrtc-cv-tensorflow/有详细信息。

2) 使用 WebRTC 将实际流传输到另一端。这需要服务器理解 WebRTC。 https://doc-kurento.readthedocs.io/en/6.9.0/tutorials/java/tutorial-magicmirror.html显示了一个例子,即使是用 Java 编写的。

http-post 方法更简单,但带宽要求使其有点不适合高 fps 应用程序。

关于video-streaming - 可以在服务器端使用 WebRTC 来获取流帧吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55265513/

相关文章:

ffmpeg - 在 h264 视频上设置假持续时间

ffmpeg - 使用 ffmpeg 在节点 js 服务器中处理 WebRTC RTC 流

javascript - 如何在 SIPML5 WebRTC 中配置 REFER 调用?

video - 使用 FFMpeg 覆盖 PNG 时质量不佳

ffmpeg - 如何使用 FFMPEG 将 H.264 RTP 输出复用(或封装)到容器中?

ffmpeg - 将视频从 RTSP 放到 HTML 页面的最佳方式?

python-3.x - 有没有办法在 Discord.py 中流式传输视频?

ffmpeg - 如何通过 UDP 发送 MPEG TS 流

javascript - 与WebRTC相关的硕士论文主题

ffmpeg - 为什么 frame->pts 增加 20,而不是增加 1?