ffmpeg - 两个 USB 摄像头同时连接到两个 rtsp-simple-servers

标签 ffmpeg server video-streaming webcam rtsp

就像标题一样,我有 2 个 USB 摄像头,我需要创建两个 RTSP 流。我正在使用 FFmpeg 和 rtsp-simple-server,它正在使用具有此配置的一个 cam (rtsp-simple-server.yml):

paths:
  cam:
    runOnInit: ffmpeg -f dshow -video_device_number 0 -i video="UVC Camera" -c:v libx264 -preset ultrafast -tune zerolatency -b:v 600k -f rtsp rtsp://192.168.5.203:8554/cam
    runOnInitRestart: yes
但我无法用第二个凸轮弄清楚。我试图在单独的控制台中创建 rtsp-simple-server 的第二个实例,但它不起作用。我像这样设置它(以及使用不同端口等的其他几种方式):
paths:
  cam:
    runOnInit: ffmpeg -f dshow -video_device_number 1 -i video="UVC Camera" -c:v libx264 -preset ultrafast -tune zerolatency -b:v 600k -f rtsp rtsp://192.168.5.203:8555/cam2
    runOnInitRestart: yes
结果我收到此错误:每个套接字地址(协议(protocol)/网络地址/端口)只允许使用一次。 而且我仍然认为有更好的方法可以通过适当的配置来解决这个问题。
我希望能得到你的帮助!

最佳答案

这很容易,它正在工作:

paths:
  cam1:
    runOnInit: ffmpeg -f dshow -video_device_number 0 -i video="UVC Camera" -c:v libx264 -preset ultrafast -tune zerolatency -b:v 600k -f rtsp rtsp://192.168.5.203:8554/cam1
    runOnInitRestart: yes
  cam2:
    runOnInit: ffmpeg -f dshow -video_device_number 1 -i video="UVC Camera" -c:v libx264 -preset ultrafast -tune zerolatency -b:v 600k -f rtsp rtsp://192.168.5.203:8554/cam2
    runOnInitRestart: yes
现在我想知道如何通过此设置减少延迟,所以如果您有任何建议,请随时在此处回复!

关于ffmpeg - 两个 USB 摄像头同时连接到两个 rtsp-simple-servers,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/72684201/

相关文章:

ios - 使用 webrtc iOS swift 在视频通话期间更正 iPhone 上的远程视频大小

c++ - 不使用 bind() 和 port=0 的 C++ 空闲 TCP 端口列表

ffmpeg - 视频 - 在流 #1 中找不到编解码器 wavpack 的标签,容器中当前不支持编解码器无法使用 FFmpeg 将文件 MKV 写入 MP4

python - 通过命令行在 Ubuntu(或 Linux)上安装 Anaconda

node.js - 我的 websocket 服务器会影响 Nodejs 服务器吗?

c - recvfrom() 收到一些消息后挂起?

bash - 使用 ffmpeg 生成原始音频波形无法正常工作(不显示剪辑)

执行命令时 Swift 脚本卡住 (ffmpeg)

iphone - 使用 AVPlayer 和 AVAssetExportSession 进行缓存

video - RTP\H.264的时间戳